JP2018146365A - Image inspection device - Google Patents

Image inspection device Download PDF

Info

Publication number
JP2018146365A
JP2018146365A JP2017041104A JP2017041104A JP2018146365A JP 2018146365 A JP2018146365 A JP 2018146365A JP 2017041104 A JP2017041104 A JP 2017041104A JP 2017041104 A JP2017041104 A JP 2017041104A JP 2018146365 A JP2018146365 A JP 2018146365A
Authority
JP
Japan
Prior art keywords
image
inspection
captured image
captured
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017041104A
Other languages
Japanese (ja)
Other versions
JP6813394B2 (en
Inventor
中川 啓二
Keiji Nakagawa
啓二 中川
啓史 松尾
Hiroshi Matsuo
啓史 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Elemex Corp
Original Assignee
Ricoh Elemex Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Elemex Corp filed Critical Ricoh Elemex Corp
Priority to JP2017041104A priority Critical patent/JP6813394B2/en
Publication of JP2018146365A publication Critical patent/JP2018146365A/en
Application granted granted Critical
Publication of JP6813394B2 publication Critical patent/JP6813394B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain an image inspection device with which it is possible to perform abnormality inspection based on luminance and abnormality inspection based on height, for example, with greater convenience.SOLUTION: The image inspection device in an embodiment comprises, for example: a first captured image acquisition unit for acquiring a first two-dimensional captured image of a surface under inspection at each of a plurality of positions along a first direction of the surface under inspection; a second captured image acquisition unit for acquiring a second two-dimensional captured image of the surface under inspection that includes an image of bright line radiated upon the surface under inspection at each of the plurality of positions along the first direction of the surface under inspection; an inspection area determination unit for determining a unidimensional inspection area in the first captured image that corresponds to the second captured image on the basis of the position of bright line in each of the second captured images; and a first inspection image generation unit for generating a first two-dimensional inspection image derived by concatenating images of inspection area in each of the plurality of first captured images.SELECTED DRAWING: Figure 3

Description

本開示は、画像検査装置に関する。   The present disclosure relates to an image inspection apparatus.

従来、スリット光による検査とエリア光による検査との両立を図った画像検査装置が知られている(例えば、特許文献1)。   2. Description of the Related Art Conventionally, there is known an image inspection apparatus that achieves both inspection using slit light and inspection using area light (for example, Patent Document 1).

特開2003−214824号公報JP 2003-214824 A

この種の画像検査装置では、スリット光による検査とエリア光による検査との両立のため、例えば、エリア光による検査を行う二次元画像中にスリット光に基づく輝線が含まれ、検査し難くなる等の問題が生じる場合があった。   In this type of image inspection apparatus, in order to achieve both inspection with slit light and inspection with area light, for example, a two-dimensional image to be inspected with area light includes a bright line based on slit light, making it difficult to inspect, etc. There were cases where problems occurred.

そこで、本開示の課題の一つは、例えば、輝度に基づく異常検査と高さに基づく異常検査とを、より都合良く両立することが可能な画像検査装置を得ることである。   Thus, one of the problems of the present disclosure is to obtain an image inspection apparatus capable of more conveniently combining, for example, an abnormality inspection based on luminance and an abnormality inspection based on height.

実施形態の画像検査装置にあっては、例えば、検査対象面の第一方向に沿った複数の位置のそれぞれで検査対象面の二次元の第一撮影画像を取得する第一撮影画像取得部と、検査対象面の第一方向に沿った複数の位置のそれぞれで検査対象面上に照射された輝線の画像を含む検査対象面の二次元の第二撮影画像を取得する第二撮影画像取得部と、第二撮影画像のそれぞれにおける輝線の位置に基づいて当該第二撮影画像と対応する第一撮影画像における一次元の検査領域を決定する検査領域決定部と、複数の第一撮影画像のそれぞれにおける検査領域での画像を繋ぎあわせた二次元の第一検査画像を生成する第一検査画像生成部と、を備える。   In the image inspection apparatus according to the embodiment, for example, a first captured image acquisition unit that acquires a two-dimensional first captured image of the inspection target surface at each of a plurality of positions along the first direction of the inspection target surface; A second captured image acquisition unit that acquires a two-dimensional second captured image of the inspection target surface including images of bright lines irradiated on the inspection target surface at each of a plurality of positions along the first direction of the inspection target surface And an inspection area determining unit that determines a one-dimensional inspection area in the first captured image corresponding to the second captured image based on the position of the bright line in each of the second captured images, and each of the plurality of first captured images A first inspection image generation unit that generates a two-dimensional first inspection image obtained by joining the images in the inspection area.

図1は、実施形態の検査システムの概略構成を示す例示的かつ模式的な側面図である。FIG. 1 is an exemplary and schematic side view illustrating a schematic configuration of an inspection system according to an embodiment. 図2は、実施形態の検査システムによって取得される撮影画像、第一撮影画像、および第二撮影画像を示す例示的かつ模式的な説明図である。FIG. 2 is an exemplary schematic diagram illustrating a captured image, a first captured image, and a second captured image acquired by the inspection system of the embodiment. 図3は、実施形態の画像検査装置の概略構成を示す例示的かつ模式的なブロック図である。FIG. 3 is an exemplary schematic block diagram illustrating a schematic configuration of the image inspection apparatus according to the embodiment. 図4は、実施形態の画像検査装置において得られる第二撮影画像を示す例示的かつ模式的な説明図である。FIG. 4 is an exemplary and schematic explanatory view showing a second captured image obtained in the image inspection apparatus of the embodiment. 図5は、図4の第二撮影画像から生成されたライン疑似画像の例示的かつ模式的な説明図である。FIG. 5 is an exemplary schematic illustration of a line pseudo image generated from the second photographed image of FIG. 図6は、実施形態の画像検査装置において得られる第一撮影画像を示す例示的かつ模式的な説明図である。FIG. 6 is an exemplary schematic diagram illustrating a first captured image obtained in the image inspection apparatus according to the embodiment. 図7は、図6の第一撮影画像から生成されたライン輝度画像の例示的かつ模式的な説明図である。FIG. 7 is an exemplary schematic illustration of a line luminance image generated from the first captured image of FIG. 図8は、実施形態の検査システムの各位置におけるライトシートまたは仮想ライトシートと撮影方向との角度を示す例示的かつ模式的な説明図である。FIG. 8 is an exemplary schematic illustration showing the angle between the light sheet or virtual light sheet and the photographing direction at each position of the inspection system of the embodiment. 図9は、実施形態の検査システムの図1のレイアウトにおける高さと基準位置からのずれとを示す例示的かつ模式的な説明図である。FIG. 9 is an exemplary schematic diagram illustrating the height and the deviation from the reference position in the layout of FIG. 1 of the inspection system of the embodiment.

以下、本発明の例示的な実施形態および変形例が開示される。以下に示される実施形態および変形例の構成や制御、ならびに当該構成や制御によってもたらされる作用および結果(効果)は、一例である。本発明は、以下の実施形態および変形例に開示される構成や制御以外によっても実現可能である。また、本発明は、基本的な構成や制御によって得られる派生的な効果も含む種々の効果を得ることが可能である。   Hereinafter, exemplary embodiments and modifications of the present invention will be disclosed. The configurations and controls of the embodiments and modifications shown below, and the operations and results (effects) brought about by the configurations and controls are examples. The present invention can also be realized by other than the configurations and controls disclosed in the following embodiments and modifications. Further, the present invention can obtain various effects including derivative effects obtained by basic configuration and control.

図1は、検査システム1の構成図である。図中、方向Xは主走査方向、方向Yは副走査方向、方向Zは高さ方向、方向Mは移動方向(搬送方向)である。   FIG. 1 is a configuration diagram of the inspection system 1. In the figure, direction X is the main scanning direction, direction Y is the sub-scanning direction, direction Z is the height direction, and direction M is the moving direction (conveying direction).

図1に示されるように、検査システム1は、エリア光源10と、シート光源20と、エリアセンサ30と、を備えている。検査システム1は、エリアセンサ30による撮影画像に基づいて、検査対象物2の表面2aの外観検査を行う。表面2aは、検査対象面とも称されうる。撮影画像は、カメラ画像や、センサ画像、ベース画像等とも称されうる。   As shown in FIG. 1, the inspection system 1 includes an area light source 10, a sheet light source 20, and an area sensor 30. The inspection system 1 performs an appearance inspection of the surface 2a of the inspection object 2 based on the image captured by the area sensor 30. The surface 2a can also be referred to as an inspection target surface. The captured image can also be referred to as a camera image, a sensor image, a base image, or the like.

検査対象物2は、エリアセンサ30による表面2aの撮影位置が経時的に変化するよう、不図示の搬送機構によって方向Mに搬送される。エリアセンサ30は、時間間隔をあけて、複数の時刻で、表面2aのそれぞれ異なる位置の撮影画像を取得する。   The inspection object 2 is transported in the direction M by a transport mechanism (not shown) so that the imaging position of the surface 2a by the area sensor 30 changes with time. The area sensor 30 acquires captured images at different positions on the surface 2a at a plurality of times at intervals.

なお、本実施形態では、検査対象物2が移動するが、検査システム1(エリア光源10、シート光源20、およびエリアセンサ30)が移動してもよいし、検査対象物2および検査システム1の双方が移動してもよい。また、検査システム1と検査対象物2(表面2a)との相対的な移動方向(方向M)は、直線に沿う方向には限定されず、曲線に沿う方向であってもよい。   In this embodiment, the inspection object 2 moves, but the inspection system 1 (the area light source 10, the sheet light source 20, and the area sensor 30) may move, or the inspection object 2 and the inspection system 1 Both may move. The relative movement direction (direction M) between the inspection system 1 and the inspection object 2 (surface 2a) is not limited to a direction along a straight line, and may be a direction along a curve.

また、検査システム1では、エリアセンサ30によって表面2aの所定位置が撮影されるよう、検査対象物2または搬送機構の位置や、速度、エリアセンサ30の撮影時刻等が、制御される。   In the inspection system 1, the position of the inspection object 2 or the transport mechanism, the speed, the photographing time of the area sensor 30, and the like are controlled so that the predetermined position of the surface 2 a is photographed by the area sensor 30.

エリア光源10から出射されたエリア光は、検査対象物2の表面2aの所定範囲(位置P1)に照射される。エリア光源10からの光は、表面2aに直接照射されてもよいし、光学系部品を介して照射されてもよい。   Area light emitted from the area light source 10 is applied to a predetermined range (position P1) of the surface 2a of the inspection object 2. The light from the area light source 10 may be directly irradiated on the surface 2a or may be irradiated through an optical system component.

また、シート光源20から出射された光に基づくライトシートLS(例えば、レーザーライトシート)は、表面2aの、エリア光源10からの光が照射されている範囲とは別の範囲(位置P2)に、照射される。ライトシートLSは、文字通りシート状の光であり、図1の例では、方向Xおよび方向Z(XZ平面)に沿って広がっている。位置P2は、位置P1とは方向Mに離れている。ライトシートLSは、シート光源20から表面2aに直接照射されてもよいし、別の光学系部品を介して照射されてもよい。   Further, the light sheet LS (for example, a laser light sheet) based on the light emitted from the sheet light source 20 is in a range (position P2) different from the range irradiated with the light from the area light source 10 on the surface 2a. , Irradiated. The light sheet LS is literally sheet-like light, and spreads along the direction X and the direction Z (XZ plane) in the example of FIG. The position P2 is away from the position P1 in the direction M. The light sheet LS may be irradiated directly from the sheet light source 20 to the surface 2a, or may be irradiated through another optical system component.

エリアセンサ30は、例えば、CMOSやCCD等を有し、表面2aの二次元の撮影画像を取得する。二次元の撮影画像は、エリア光源10からの光の照射範囲の画像と、シート光源20からの光の照射範囲の画像と、を含む。   The area sensor 30 includes, for example, a CMOS or a CCD, and acquires a two-dimensional captured image of the surface 2a. The two-dimensional captured image includes an image of the light irradiation range from the area light source 10 and an image of the light irradiation range from the sheet light source 20.

図2は、検査システム1によって取得される撮影画像Imc、第一撮影画像Ima、および第二撮影画像Imbを示す説明図である。図中、方向nは、撮影された回数であり、方向tは、時刻(時刻)である。また、方向Xは主走査方向、方向Yは副走査方向である。方向Xおよび方向Yは、検査システム1における実座標系の方向であって、画像中の方向ではない。   FIG. 2 is an explanatory diagram illustrating the captured image Imc, the first captured image Ima, and the second captured image Imb acquired by the inspection system 1. In the figure, the direction n is the number of times of shooting, and the direction t is time (time). The direction X is the main scanning direction, and the direction Y is the sub-scanning direction. The direction X and the direction Y are directions of the real coordinate system in the inspection system 1 and are not directions in the image.

図2に示されるように、エリアセンサ30は、異なる時刻で、複数の撮影画像Imcを取得する。エリアセンサ30は、回数n=1(時刻t=δt×1、δtは、時間間隔)においては、撮影画像Imc1を取得し、以降、回数n=i(時刻t=δt×i、iは整数)においては、撮影画像Imci(i=1,2,・・・)を取得する。なお、撮影の時間間隔は一定でなくてもよい。   As shown in FIG. 2, the area sensor 30 acquires a plurality of captured images Imc at different times. The area sensor 30 acquires the captured image Imc1 at the number n = 1 (time t = δt × 1, δt is a time interval), and thereafter the number n = i (time t = δt × i, i is an integer). ), A captured image Imci (i = 1, 2,...) Is acquired. Note that the shooting time interval need not be constant.

撮影画像Imcのうち、方向Yの後方(方向Mの前方)には、輝度検査用の第一撮影画像Imaが含まれている。第一撮影画像Imaは、エリア光源10からの光の照射範囲に含まれる。   Of the photographed image Imc, the first photographed image Ima for luminance inspection is included behind the direction Y (in front of the direction M). The first captured image Ima is included in the light irradiation range from the area light source 10.

また、撮影画像Imcのうち、方向Yの前方(方向Mの後方)には、光切断検査用の第二撮影画像Imbが含まれている。第二撮影画像Imbには、シート光源20からの光の照射範囲が含まれる。   Further, in the captured image Imc, the second captured image Imb for light section inspection is included in front of the direction Y (backward in the direction M). The second captured image Imb includes an irradiation range of light from the sheet light source 20.

具体的に、撮影画像Imc1には、方向Yにおける位置y=1を基準位置とする第一撮影画像Ima1の領域と、方向Yにおける位置y=301を基準位置とする第二撮影画像Imb301の領域とが含まれている。表面2aの基準位置は、例えば、各画像の方向Yの中央位置である。以降、回数n=i(時刻t=δt×i)において取得された撮影画像Imciには、方向Yにおける位置=iを基準位置とする第一撮影画像Imaiと、方向Yにおける位置j=i+300(jは整数)を基準位置とする第二撮影画像Imbjとが、含まれている。図2から明らかとなるように、第一撮影画像Imaiの基準位置と、第二撮影画像Imbjの基準位置とは、方向Yにおいて300×s離れている。ここに、sは、方向Yにおける単位長さ、すなわちy座標1つあたりの長さであり、例えば、1画素分の長さである。基準位置は、基準線の一例である。位置y=iは、第一位置の一例であり、位置y=jは、第二位置の一例である。   Specifically, the photographed image Imc1 includes an area of the first photographed image Ima1 having the position y = 1 in the direction Y as a reference position, and an area of the second photographed image Imb301 having the position y = 301 in the direction Y as the reference position. And are included. The reference position of the surface 2a is, for example, the center position in the direction Y of each image. Thereafter, the photographed image Imci acquired at the number n = i (time t = δt × i) includes a first photographed image Imai with the position in the direction Y = i as a reference position, and a position in the direction Y = i + 300 ( a second photographed image Imbj having j as an integer) as a reference position is included. As apparent from FIG. 2, the reference position of the first captured image Imai and the reference position of the second captured image Imbj are 300 × s apart in the direction Y. Here, s is a unit length in the direction Y, that is, a length per one y coordinate, for example, a length corresponding to one pixel. The reference position is an example of a reference line. The position y = i is an example of the first position, and the position y = j is an example of the second position.

図2から明らかとなるように、位置y=301の第一撮影画像Ima301は、撮影画像Imc301に含まれる一方、位置y=301の第二撮影画像Imb301は、撮影画像Imc1に含まれている。同様に、位置y=302の第一撮影画像Ima302は、撮影画像Imc302に含まれる一方、位置y=302の第二撮影画像Imb302は、撮影画像Imc2に含まれ、位置y=303の第一撮影画像Ima303は、撮影画像Imc303に含まれる一方、位置y=303の第二撮影画像Imb303は、撮影画像Imc3に含まれている。このように、表面2aの同じ位置を撮影した第一撮影画像Imaおよび第二撮影画像Imbは、異なる時刻t(タイムステップ)で取得された撮影画像Imcに含まれている。なお、撮影画像Imcや、第一撮影画像Ima、第二撮影画像Imb等の画素数や、第一撮影画像Imaおよび第二撮影画像Imbの基準位置間の長さ(画素数)等のスペックは、この例には限定されない。   As is clear from FIG. 2, the first captured image Ima301 at the position y = 301 is included in the captured image Imc301, while the second captured image Imb301 at the position y = 301 is included in the captured image Imc1. Similarly, the first captured image Ima302 at the position y = 302 is included in the captured image Imc302, while the second captured image Imb302 at the position y = 302 is included in the captured image Imc2 and the first captured image at the position y = 303. The image Ima303 is included in the captured image Imc303, while the second captured image Imb303 at the position y = 303 is included in the captured image Imc3. As described above, the first captured image Ima and the second captured image Imb captured at the same position on the surface 2a are included in the captured image Imc acquired at different times t (time steps). The specifications such as the number of pixels of the captured image Imc, the first captured image Ima, the second captured image Imb, and the length (number of pixels) between the reference positions of the first captured image Ima and the second captured image Imb are as follows. However, the present invention is not limited to this example.

図3は、画像検査装置100の概略構成を示すブロック図である。画像検査装置100は、撮影画像Imcから取得した第一撮影画像Imaに基づいて表面2aの輝度検査を行うとともに、撮影画像Imcから取得した第二撮影画像Imbに基づいて光切断法により表面2aの高さ検査(凹凸検査)を行う。   FIG. 3 is a block diagram illustrating a schematic configuration of the image inspection apparatus 100. The image inspection apparatus 100 performs the luminance inspection of the surface 2a based on the first captured image Ima acquired from the captured image Imc, and also uses the light cutting method to detect the surface 2a based on the second captured image Imb acquired from the captured image Imc. Perform height inspection (unevenness inspection).

図3に示されるように、画像検査装置100は、演算処理部110や、主記憶部120、データ記憶部130等を有している。演算処理部110は、例えば、central processing unit(CPU)やコントローラ等であり、主記憶部120は、例えば、read only memory(ROM)や、random access memory(RAM)等であり、データ記憶部130は、例えば、hard disk drive(HDD)や、solid state drive(SSD)、フラッシュメモリ等である。データ記憶部130は、補助記憶装置の一例である。また、データ記憶部130は、データベースの一例である。   As shown in FIG. 3, the image inspection apparatus 100 includes an arithmetic processing unit 110, a main storage unit 120, a data storage unit 130, and the like. The arithmetic processing unit 110 is, for example, a central processing unit (CPU) or a controller, and the main storage unit 120 is, for example, a read only memory (ROM), a random access memory (RAM), or the like. Is, for example, a hard disk drive (HDD), a solid state drive (SSD), a flash memory, or the like. The data storage unit 130 is an example of an auxiliary storage device. The data storage unit 130 is an example of a database.

演算処理部110による演算処理や制御は、ソフトウエアによって実行されてもよいし、ハードウエアによって実行されてもよい。また、演算処理部110による演算処理や制御には、ソフトウエアによる演算処理や制御とハードウエアによる演算処理や制御とが含まれてもよい。ソフトウエアによる処理の場合にあっては、演算処理部110は、ROMや、HDD、SSD、フラッシュメモリ等に記憶されたプログラム(アプリケーション)を読み出して実行する。演算処理部110は、プログラムにしたがって動作することにより、演算処理部110に含まれる各部、すなわち、画像データ取得部111や、位置データ取得部112、輝度検査部113、光切断検査部114、画像出力制御部115等として、機能する。この場合、プログラムには、上記各部に対応するモジュールが含まれる。   The arithmetic processing and control by the arithmetic processing unit 110 may be executed by software, or may be executed by hardware. The arithmetic processing and control by the arithmetic processing unit 110 may include arithmetic processing and control by software and arithmetic processing and control by hardware. In the case of processing by software, the arithmetic processing unit 110 reads and executes a program (application) stored in a ROM, HDD, SSD, flash memory, or the like. The arithmetic processing unit 110 operates in accordance with the program, so that each unit included in the arithmetic processing unit 110, that is, the image data acquisition unit 111, the position data acquisition unit 112, the luminance inspection unit 113, the light section inspection unit 114, the image It functions as the output control unit 115 or the like. In this case, the program includes modules corresponding to the above-described units.

プログラムは、それぞれインストール可能な形式または実行可能な形式のファイルでCD−ROMや、FD、CD−R、DVD、USBメモリ等の、コンピュータで読み取り可能な記録媒体に記録されて提供されうる。また、プログラムは、通信ネットワークに接続されたコンピュータの記憶部に記憶され、ネットワーク経由でダウンロードされることによって導入されうる。また、プログラムは、ROM等に予め組み込まれてもよい。   The program can be provided by being recorded in a computer-readable recording medium such as a CD-ROM, an FD, a CD-R, a DVD, or a USB memory as a file in an installable or executable format. The program can be introduced by being stored in a storage unit of a computer connected to a communication network and downloaded via the network. Further, the program may be incorporated in advance in a ROM or the like.

また、演算処理部110の全部あるいは一部がハードウエアによって構成される場合、演算処理部110には、例えば、FPGAや、ASIC等が含まれうる。   Further, when all or part of the arithmetic processing unit 110 is configured by hardware, the arithmetic processing unit 110 may include, for example, an FPGA, an ASIC, or the like.

画像データ取得部111は、エリアセンサ30から、各時刻で取得された二次元の撮影画像Imcを取得する。   The image data acquisition unit 111 acquires a two-dimensional captured image Imc acquired at each time from the area sensor 30.

位置データ取得部112は、各撮影画像Imcの方向Yにおける位置を取得する。位置は、例えば、搬送機構に設けられたエンコーダによる検出結果や、撮影画像Imcから画像処理によって得られた情報等であるが、これらには限定されない。   The position data acquisition unit 112 acquires the position in the direction Y of each captured image Imc. The position is, for example, a detection result by an encoder provided in the transport mechanism, information obtained by image processing from the captured image Imc, or the like, but is not limited thereto.

なお、画像データ取得部111で取得された異なる撮影時刻における複数の撮影画像Imcは、位置データ取得部112で取得された位置との対応付けがわかる状態で、データ記憶部130に記憶されてもよい。   Note that the plurality of captured images Imc acquired at different shooting times acquired by the image data acquisition unit 111 may be stored in the data storage unit 130 in a state in which the association with the position acquired by the position data acquisition unit 112 is known. Good.

光切断検査部114は、第二撮影画像Imbに基づいて光切断法により表面2aの高さ検査(凹凸検査)を行う。光切断検査部114は、第二画像取得部114aや、ライン疑似画像生成部114b、二次元疑似画像生成部114c、高さ異常検出部114d等を有する。   The light section inspection unit 114 performs the height inspection (unevenness inspection) of the surface 2a by the light section method based on the second photographed image Imb. The light section inspection unit 114 includes a second image acquisition unit 114a, a line pseudo image generation unit 114b, a two-dimensional pseudo image generation unit 114c, a height abnormality detection unit 114d, and the like.

第二画像取得部114aは、撮影画像Imcから第二撮影画像Imbを取得する。また、ライン疑似画像生成部114bは、第二撮影画像Imbに基づいてライン疑似画像を生成する。第二画像取得部114aは、第二撮影画像取得部の一例である。   The second image acquisition unit 114a acquires the second captured image Imb from the captured image Imc. In addition, the line pseudo image generation unit 114b generates a line pseudo image based on the second captured image Imb. The second image acquisition unit 114a is an example of a second captured image acquisition unit.

図4は、第二撮影画像Imbを示す説明図である。図4に示されるように、第二撮影画像Imbには、シート光源20から出射された光に基づく輝線BLの画像が含まれている。光切断法では、図1に示されるように、エリアセンサ30による表面2aの撮像角度とシート光源20から出射された光に基づくライトシートLSの表面2aへの照射角度との間に角度差が設定されているため、輝線BLの方向Yにおける位置は、表面2aの高さ(凹凸)に応じて変化する。なお、図1の例では、ライトシートLSは表面2aに対して略直角に照射されているが、この例には限定されない。また、輝線BLは、方向Yに複数の画素に渡って広がっている場合がある。このような場合にあっては、輝線BLの位置は、例えば、輝線BLの幅方向の複数の輝度値の重み付け平均等によって算出されうる。また、第二撮影画像Imbの方向Xおよび方向Yの画素数は、図4の例には限定されない。   FIG. 4 is an explanatory diagram showing the second photographed image Imb. As shown in FIG. 4, the second captured image Imb includes an image of the bright line BL based on the light emitted from the sheet light source 20. In the light cutting method, as shown in FIG. 1, there is an angle difference between the imaging angle of the surface 2a by the area sensor 30 and the irradiation angle to the surface 2a of the light sheet LS based on the light emitted from the sheet light source 20. Since it is set, the position in the direction Y of the bright line BL changes according to the height (unevenness) of the surface 2a. In addition, in the example of FIG. 1, although the light sheet LS is irradiated at substantially right angle with respect to the surface 2a, it is not limited to this example. In addition, the bright line BL may spread over a plurality of pixels in the direction Y in some cases. In such a case, the position of the bright line BL can be calculated by, for example, a weighted average of a plurality of luminance values in the width direction of the bright line BL. Further, the number of pixels in the direction X and the direction Y of the second photographed image Imb is not limited to the example of FIG.

図4には、方向Yにおける位置y=301における第二撮影画像Imb301の一例が示されている。この場合、位置y=301が基準位置(基準線)であり、方向Xのx=1〜20の各位置において、表面2aの高さが基準高さである位置では、輝線BLは位置y=301に位置される。また、表面2aの高さが基準高さよりも高い位置では、当該高さが高いほど輝線BLは位置y=301から方向Yの後方(図4の上方)に離れ、表面2aの高さが基準高さよりも低い位置では、当該高さが低いほど輝線BLは位置y=301から方向Yの前方(図4の下方)に離れる。   FIG. 4 shows an example of the second captured image Imb 301 at a position y = 301 in the direction Y. In this case, the position y = 301 is the reference position (reference line), and at each position of x = 1 to 20 in the direction X, the bright line BL is at the position y = at the position where the height of the surface 2a is the reference height. 301. Further, at a position where the height of the surface 2a is higher than the reference height, the bright line BL is further away from the position y = 301 toward the rear in the direction Y (upward in FIG. 4), and the height of the surface 2a is the reference. At a position lower than the height, the bright line BL moves away from the position y = 301 in the direction Y (downward in FIG. 4) as the height is lower.

具体的に、方向Xにおける位置x=1〜3,17〜20の区間A1では、輝線BLは位置y=301(基準位置)に位置されているため、表面2aの高さは基準高さである。方向Xにおける位置x=4,5,15,16の区間A2では、輝線BLは位置y=300に位置されているため、表面2aの高さは区間A1での高さ(基準高さ)よりも高い。方向Xにおける位置x=6〜8,13,14の区間A3では、輝線BLは位置y=299に位置されているため、表面2aの高さは区間A2での高さよりも高い。方向Xにおける位置x=9〜12の区間A4では、輝線BLは位置y=298に位置されているため、表面2aの高さは区間A3での高さよりも高い。すなわち、図4の例では、表面2aは方向Xの中央部が緩やかに突出した形状を有している。   Specifically, in the section A1 of the position x = 1 to 3 and 17 to 20 in the direction X, since the bright line BL is located at the position y = 301 (reference position), the height of the surface 2a is the reference height. is there. In the section A2 of the position x = 4, 5, 15, 16 in the direction X, since the bright line BL is located at the position y = 300, the height of the surface 2a is higher than the height (reference height) in the section A1. Is also expensive. In the section A3 of the position x = 6 to 8, 13, 14 in the direction X, the bright line BL is located at the position y = 299, and therefore the height of the surface 2a is higher than the height in the section A2. In the section A4 with the position x = 9 to 12 in the direction X, the bright line BL is located at the position y = 298, and therefore the height of the surface 2a is higher than the height in the section A3. That is, in the example of FIG. 4, the surface 2a has a shape in which the central portion in the direction X protrudes gently.

ライン疑似画像生成部114bは、方向Yにおける基準位置(図4の例ではy=301)における一次元の疑似画像を生成する。ライン疑似画像Imblは、第二撮影画像Imbの方向Yにおける基準位置に対応した線状の一次元の画像である。ライン疑似画像Imblの方向Xの各位置における画素は、各位置での高さに応じた輝度値を有している。各画素の輝度値は、表面2aの高さが高いほど高く設定され、表面2aの高さが低いほど低く設定される。上述したように、各位置での表面2aの高さは、第二撮影画像Imbにおける輝線BLの方向Yにおける基準位置(基準線)からのずれに対応している。よって、ライン疑似画像生成部114bは、各画素に、各位置での輝線BLの基準位置からのずれに応じた輝度値を与えることにより、ライン疑似画像Imblを生成する。ライン疑似画像Imblは、疑似画像の一例であり、ライン疑似画像生成部114bは、疑似画像生成部の一例である。また、ライン疑似画像Imblは、一次元疑似画像とも称されうる。   The line pseudo image generation unit 114b generates a one-dimensional pseudo image at the reference position in the direction Y (y = 301 in the example of FIG. 4). The line pseudo image Imbl is a linear one-dimensional image corresponding to the reference position in the direction Y of the second captured image Imb. The pixel at each position in the direction X of the line pseudo image Imbl has a luminance value corresponding to the height at each position. The luminance value of each pixel is set higher as the height of the surface 2a is higher, and is set lower as the height of the surface 2a is lower. As described above, the height of the surface 2a at each position corresponds to the deviation from the reference position (reference line) in the direction Y of the bright line BL in the second photographed image Imb. Therefore, the line pseudo image generation unit 114b generates the line pseudo image Imbl by giving each pixel a luminance value corresponding to the deviation of the bright line BL from the reference position at each position. The line pseudo image Imbl is an example of a pseudo image, and the line pseudo image generation unit 114b is an example of a pseudo image generation unit. The line pseudo image Imbl can also be referred to as a one-dimensional pseudo image.

図5は、図4の第二撮影画像Imbから生成されたライン疑似画像Imblの説明図である。図5に示されるように、図4の輝線BLに対応したライン疑似画像Imbl301では、方向Xの各位置x=1〜20において、表面2aの高さが高いほど大きな輝度値が与えられる。すなわち、区間A4の各位置(画素、x=9〜12)の輝度値が最も高く、区間A3の各位置(x=6〜8,13,14)の輝度値が区間A4の輝度値よりも低く、区間A2の各位置(x=4,5,15,16)の輝度値が区間A3の輝度値よりも低く、区間A1の各位置(x=1〜3,17〜20)の輝度値が区間A2の輝度値よりも低く設定される。これにより、図5に示されるような、高さが高い場所ほど輝度値が高いライン疑似画像Imblが得られる。   FIG. 5 is an explanatory diagram of a line pseudo image Imbl generated from the second captured image Imb of FIG. As shown in FIG. 5, in the line pseudo image Imbl301 corresponding to the bright line BL in FIG. 4, a higher luminance value is given as the height of the surface 2 a is higher at each position x = 1 to 20 in the direction X. That is, the brightness value at each position (pixel, x = 9 to 12) in the section A4 is the highest, and the brightness value at each position (x = 6 to 8, 13, 14) in the section A3 is higher than the brightness value in the section A4. The brightness value at each position (x = 4, 5, 15, 16) in the section A2 is lower than the brightness value in the section A3, and the brightness value at each position (x = 1-3, 17-20) in the section A1. Is set lower than the luminance value of the section A2. Thereby, as shown in FIG. 5, a line pseudo image Imbl having a higher luminance value at a higher height is obtained.

二次元疑似画像生成部114cは、方向Yの各位置(基準位置)毎に取得された方向Xに沿った一次元の複数のライン疑似画像Imblを方向Yに結合することにより、二次元疑似画像を生成する。二次元疑似画像は、第二検査画像の一例であり、二次元疑似画像生成部114cは、第二検査画像生成部の一例である。二次元疑似画像は、高さ画像や、三次元画像、凹凸画像等とも称されうる。   The two-dimensional pseudo image generation unit 114c combines a plurality of one-dimensional line pseudo images Imbl along the direction X acquired for each position (reference position) in the direction Y to generate a two-dimensional pseudo image. Is generated. The two-dimensional pseudo image is an example of a second inspection image, and the two-dimensional pseudo image generation unit 114c is an example of a second inspection image generation unit. The two-dimensional pseudo image can also be referred to as a height image, a three-dimensional image, an uneven image, or the like.

高さ異常検出部114dは、二次元疑似画像に基づいて、表面2aの高さの異常を検出する。高さ異常検出部114dは、例えば、疑似画像の輝度値が所定範囲に無い領域、すなわち、表面2aの高さが所定範囲内に無い領域の広さが、閾値以上であった場合に、当該領域を高さ異常(凹凸異常)として検出する。高さ異常検出部114dは、第一異常検出部とも称されうる。   The height abnormality detection unit 114d detects an abnormality in the height of the surface 2a based on the two-dimensional pseudo image. The height abnormality detection unit 114d, for example, if the area where the luminance value of the pseudo image is not within a predetermined range, that is, the area where the height of the surface 2a is not within the predetermined range is greater than or equal to a threshold value, An area is detected as a height abnormality (unevenness abnormality). The height abnormality detection unit 114d can also be referred to as a first abnormality detection unit.

輝度検査部113は、第一撮影画像Imaに基づいて表面2aの輝度検査を行う。輝度検査部113は、第一画像取得部113aや、検査領域決定部113b、二次元輝度画像生成部113c、輝度異常検出部113d等を有している。   The luminance inspection unit 113 performs a luminance inspection of the surface 2a based on the first captured image Ima. The luminance inspection unit 113 includes a first image acquisition unit 113a, an inspection region determination unit 113b, a two-dimensional luminance image generation unit 113c, a luminance abnormality detection unit 113d, and the like.

第一画像取得部113aは、撮影画像Imcから第一撮影画像Imaを取得する。また、検査領域決定部113bは、同じ基準位置の第二撮影画像Imbに含まれる輝線BLに基づいて、第一撮影画像Imaにおける検査領域を決定する。第一画像取得部113aは、第一撮影画像取得部の一例である。   The first image acquisition unit 113a acquires the first captured image Ima from the captured image Imc. Further, the inspection area determination unit 113b determines the inspection area in the first captured image Ima based on the bright line BL included in the second captured image Imb at the same reference position. The first image acquisition unit 113a is an example of a first captured image acquisition unit.

図6は、第一撮影画像Imaを示す説明図であり、図7は、第一撮影画像Imaに基づくライン輝度画像Imalの生成を示す説明図である。図6には、位置y=301における第一撮影画像Ima301の一例が示されている。なお、図6には、図示されていないが、第一撮影画像Ima301の各画素は、輝度値を有している。また、第一撮影画像Imaの方向Xおよび方向Yの画素数は、図6の例には限定されない。   FIG. 6 is an explanatory diagram illustrating the first captured image Ima, and FIG. 7 is an explanatory diagram illustrating generation of the line luminance image Imal based on the first captured image Ima. FIG. 6 shows an example of the first captured image Ima301 at the position y = 301. Although not shown in FIG. 6, each pixel of the first captured image Ima301 has a luminance value. Further, the number of pixels in the direction X and the direction Y of the first captured image Ima is not limited to the example of FIG.

図6に示されるように、検査領域決定部113bは、位置y=301(基準位置)における第一撮影画像Ima301に、同じ位置y=301(基準位置)における第二撮影画像Imb301に含まれている輝線BLを当てはめる。そして、図7に示されるように、検査領域決定部113bは、輝線BLと重なった位置の画素を抽出し、これを線状に並べて、ライン輝度画像Imalを生成する。図7から明らかとなるように、検査領域決定部113bは、第二撮影画像Imb301における輝線BLの形状に応じて、当該輝線BL上で方向Yにおいて位置y=301とは異なる位置(y=298〜300)にある画素を、位置y=301の画素として取り扱う。図1,4からわかるように、第一撮影画像Ima301および第二撮影画像Imb301における輝線BLの位置は、表面2aにおいてライトシートLSが当たっている位置を示している。図6の第一撮影画像Ima301におけるにおける輝線BLの位置は、一次元の検査領域の一例である。   As shown in FIG. 6, the examination region determination unit 113b is included in the first captured image Ima301 at the position y = 301 (reference position) and in the second captured image Imb301 at the same position y = 301 (reference position). Apply the bright line BL. Then, as illustrated in FIG. 7, the inspection region determination unit 113b extracts pixels at positions overlapping with the bright line BL, and arranges them in a line to generate a line luminance image Imal. As is apparent from FIG. 7, the inspection area determination unit 113b has a position (y = 298) different from the position y = 301 in the direction Y on the bright line BL according to the shape of the bright line BL in the second captured image Imb301. ˜300) is treated as the pixel at position y = 301. As can be seen from FIGS. 1 and 4, the position of the bright line BL in the first photographed image Ima301 and the second photographed image Imb301 indicates the position where the light sheet LS hits on the surface 2a. The position of the bright line BL in the first photographed image Ima301 in FIG. 6 is an example of a one-dimensional inspection region.

二次元輝度画像生成部113cは、方向Yの各位置(基準位置)毎に取得された方向Xに沿った一次元の複数のライン輝度画像Imalを方向Yに結合することにより、二次元輝度画像を生成する。二次元輝度画像は、第一検査画像の一例であり、二次元輝度画像生成部113cは、第一検査画像生成部の一例である。また、ライン輝度画像Imalは、一次元輝度画像とも称されうる。   The two-dimensional luminance image generation unit 113c combines a plurality of one-dimensional line luminance images Imal along the direction X acquired for each position (reference position) in the direction Y into the two-dimensional luminance image. Is generated. The two-dimensional luminance image is an example of a first inspection image, and the two-dimensional luminance image generation unit 113c is an example of a first inspection image generation unit. The line luminance image Imal can also be referred to as a one-dimensional luminance image.

輝度異常検出部113dは、二次元輝度画像に基づいて、表面2aの異常を検出する。輝度異常検出部113d、例えば、輝度画像の輝度値が所定範囲に無い領域の広さが、閾値以上であった場合に、当該領域を輝度異常として検出する。   The luminance abnormality detection unit 113d detects abnormality of the surface 2a based on the two-dimensional luminance image. The luminance abnormality detection unit 113d, for example, detects the region as a luminance abnormality when the size of the region where the luminance value of the luminance image is not within a predetermined range is equal to or greater than a threshold value.

以上説明したように、本実施形態では、検査領域決定部113bが、第一撮影画像Imaのうち輝度検査の対象とする画素(の位置)を、輝線BLの位置に基づいて決定している。上述したように、第一撮影画像Ima301および第二撮影画像Imb301における輝線BLの位置は、表面2aにおいてライトシートLSが当たっている位置を示している。このような構成によれば、例えば、エリアセンサ30を仮想的にライトシートLSの照射方向に設置した場合の輝度画像を得ることができるため、検査システム1におけるエリア光源10や、シート光源20、エリアセンサ30等のレイアウトの自由度が高まるという利点がある。   As described above, in the present embodiment, the inspection region determination unit 113b determines the pixel (position) of the first captured image Ima to be subjected to the luminance inspection based on the position of the bright line BL. As described above, the position of the bright line BL in the first photographed image Ima301 and the second photographed image Imb301 indicates the position where the light sheet LS hits on the surface 2a. According to such a configuration, for example, since a luminance image when the area sensor 30 is virtually installed in the irradiation direction of the light sheet LS can be obtained, the area light source 10 in the inspection system 1, the sheet light source 20, There is an advantage that the degree of freedom of layout of the area sensor 30 and the like is increased.

また、本実施形態では、画像検査装置100は、輝線BLに基づいて二次元輝度画像を生成する二次元輝度画像生成部113c(第一検査画像生成部)に加えて、輝線BLに基づいて二次元疑似画像を生成する二次元疑似画像生成部114c(第二検査画像生成部)を備えている。したがって、本実施形態によれば、輝度検査部113による輝度検査、および光切断検査部114による光切断検査の双方を行うことができる。   Further, in the present embodiment, the image inspection apparatus 100 includes a two-dimensional luminance image generation unit 113c (first inspection image generation unit) that generates a two-dimensional luminance image based on the bright line BL, and two images based on the bright line BL. A two-dimensional pseudo image generation unit 114c (second inspection image generation unit) that generates a two-dimensional pseudo image is provided. Therefore, according to the present embodiment, both the luminance inspection by the luminance inspection unit 113 and the light cutting inspection by the light cutting inspection unit 114 can be performed.

この場合、本実施形態によれば、輝度検査部113によって輝度検査を行う方向Yにおける表面2aの位置と、光切断検査部114によって高さ検査を行う方向Yにおける表面2aの位置とを、より精度良く位置決めすることができる。したがって、本実施形態によれば、例えば、輝度および高さによる二つの異常検出結果に基づく異常判断を行う場合に、位置精度が向上し、より精度良く異常を判断できるという利点がある。   In this case, according to the present embodiment, the position of the surface 2a in the direction Y in which the luminance inspection is performed by the luminance inspection unit 113 and the position of the surface 2a in the direction Y in which the height inspection is performed by the light cutting inspection unit 114 are more Positioning can be performed with high accuracy. Therefore, according to the present embodiment, for example, when performing abnormality determination based on two abnormality detection results based on luminance and height, there is an advantage that the positional accuracy is improved and abnormality can be determined with higher accuracy.

(変形例)
検査領域決定部113bは、表面2aの所定位置、例えば位置y=301について、第一撮影画像Ima中の検査領域を決定する際に、光学系のレイアウト、および第二撮影画像Imbにおいて得られた輝線BLに基づいて、第一撮影画像Imaの撮影位置(位置P1)にライトシートLSと平行な仮想ライトシートVLS(図1)が照射された場合に、当該第一撮影画像Ima中に生じる仮想輝線(不図示)を推定してもよい。光学系のレイアウトとは、例えば、エリアセンサ30の位置や、エリアセンサ30による撮影方向、表面2aへのライトシートLSの照射方向、第一撮影画像Imaの撮影位置(位置P1、第一撮影位置)、第二撮影画像Imbの撮影位置(位置P2、第二撮影位置)等である。
(Modification)
When the inspection area determination unit 113b determines the inspection area in the first photographed image Ima for a predetermined position on the surface 2a, for example, the position y = 301, it is obtained in the layout of the optical system and the second photographed image Imb. Based on the bright line BL, when a virtual light sheet VLS (FIG. 1) parallel to the light sheet LS is irradiated to the imaging position (position P1) of the first captured image Ima, a virtual generated in the first captured image Ima. Bright lines (not shown) may be estimated. The layout of the optical system includes, for example, the position of the area sensor 30, the shooting direction by the area sensor 30, the irradiation direction of the light sheet LS on the surface 2a, and the shooting position of the first shot image Ima (position P1, first shooting position). ), The shooting position (position P2, second shooting position) of the second shot image Imb, and the like.

検査領域は、第一撮影画像Ima中でライトシートLSと平行な仮想ライトシートVLSが当たる位置であるのが好適であるが、位置P1と位置P2との距離が大きくなりすぎると、第二撮影画像ImbにおいてライトシートLSによって生じる輝線BLの位置と、第一撮影画像Imaにおいて仮想ライトシートVLSによって生じる仮想輝線(不図示)の位置との差が大きくなる虞がある。このような場合にあっては、検査領域決定部113bは、光学系の幾何学的なレイアウトによって、仮想輝線を推定し、当該仮想輝線に基づいて、第一撮影画像Ima中の検査領域を決定することができる。   The inspection area is preferably a position where the virtual light sheet VLS parallel to the light sheet LS hits in the first captured image Ima, but if the distance between the position P1 and the position P2 becomes too large, the second imaging is performed. There is a possibility that the difference between the position of the bright line BL generated by the light sheet LS in the image Imb and the position of the virtual bright line (not shown) generated by the virtual light sheet VLS in the first captured image Ima may increase. In such a case, the inspection area determination unit 113b estimates the virtual bright line based on the geometric layout of the optical system, and determines the inspection area in the first captured image Ima based on the virtual bright line. can do.

図8は、図1のレイアウトにおいて、検査システム1の位置P1における仮想ライトシートVLSと撮影方向との角度θ1と、位置P2におけるライトシートLSと撮影方向との角度θ2とを示す説明図である。また、図9は、図1(図8)のレイアウトにおける、高さHb1,Hb2と、基準位置(基準線LP1,LP2)からのずれDb1,Db2とを示す説明図である。   8 is an explanatory diagram showing an angle θ1 between the virtual light sheet VLS and the photographing direction at the position P1 of the inspection system 1 and an angle θ2 between the light sheet LS and the photographing direction at the position P2 in the layout of FIG. . FIG. 9 is an explanatory diagram showing heights Hb1 and Hb2 and deviations Db1 and Db2 from the reference positions (reference lines LP1 and LP2) in the layout of FIG. 1 (FIG. 8).

例えば、図9に示されるように、検査システム1の位置P2における第二撮影画像Imb中の輝線BLの位置P2での基準位置(基準線)LP2からのずれDb2と、表面2aの位置pdにおけるライトシートLSの照射方向に沿った高さHb2との関係は、公知の光切断法により、以下の式(1)で表される。
Hb2=F2(Db2) ・・・ (1)
ここに、F2(Db2)は、位置P2での主走査方向から見た場合におけるライトシートLSの表面2aへの照射方向とエリアセンサ30による撮影方向との角度θ2(例えば、表面2a上での角度)に応じて定まる関数である。式(1)は、高さHb2がずれDb2の関数であることを意味する。この場合、ずれDb2が大きいほど、高さHb2が大きくなる。
For example, as shown in FIG. 9, the deviation Db2 from the reference position (reference line) LP2 at the position P2 of the bright line BL in the second photographed image Imb at the position P2 of the inspection system 1 and the position pd of the surface 2a. The relationship with the height Hb2 along the irradiation direction of the light sheet LS is expressed by the following formula (1) by a known light cutting method.
Hb2 = F2 (Db2) (1)
Here, F2 (Db2) is an angle θ2 (for example, on the surface 2a) between the irradiation direction to the surface 2a of the light sheet LS and the photographing direction by the area sensor 30 when viewed from the main scanning direction at the position P2. It is a function determined according to (angle). Equation (1) means that the height Hb2 is a function of the deviation Db2. In this case, the height Hb2 increases as the deviation Db2 increases.

同様に、検査システムの位置P1における第一撮影画像Ima中の仮想輝線の位置P2の基準位置(基準線)LP1からのずれDb1と、表面2aの位置pdにおける仮想ライトシートVLSの照射方向に沿った高さHb1との関係は、公知の光切断法により、以下の式(2)で表される。
Hb1=F1(Db1) ・・・ (2)
ここに、F1(Db1)は、位置P1での主走査方向から見た場合における仮想ライトシートVLSの表面2aへの照射方向とエリアセンサ30による撮影方向との角度θ1(例えば、表面2a上での角度)に応じて定まる関数である。式(2)は、高さHb1がずれDb1の関数であることを意味する。この場合、ずれDb1が大きいほど、高さHb1が大きくなる。
Similarly, the deviation Db1 from the reference position (reference line) LP1 of the position P2 of the virtual bright line in the first photographed image Ima at the position P1 of the inspection system and the irradiation direction of the virtual light sheet VLS at the position pd of the surface 2a. The relationship with the height Hb1 is expressed by the following formula (2) by a known light cutting method.
Hb1 = F1 (Db1) (2)
Here, F1 (Db1) is an angle θ1 (for example, on the surface 2a) between the irradiation direction to the surface 2a of the virtual light sheet VLS and the photographing direction by the area sensor 30 when viewed from the main scanning direction at the position P1. It is a function that is determined according to the angle. Equation (2) means that the height Hb1 is a function of the deviation Db1. In this case, the greater the deviation Db1, the greater the height Hb1.

式(2)は、次の式(3)のように書き換えられる。
Db1=Fi1(Hb1) ・・・ (3)
ここに、Fi1(Hb1)は、F1(Db1)の逆関数である。
Expression (2) can be rewritten as the following expression (3).
Db1 = Fi1 (Hb1) (3)
Here, Fi1 (Hb1) is an inverse function of F1 (Db1).

ここで、仮想ライトシートVLSはライトシートLSと平行である。よって、図9に示されるように、表面2aにおける同じ位置pdに関しては、仮想ライトシートVLSに沿った高さHb1と、ライトシートLSに沿った高さHb2とは、同じである。したがって、式(1)および式(3)より、ずれDb1は、以下の式(4)から求められる。
Db1=Fi1(F2(Db2)) ・・・ (4)
一例として図1(図8)のレイアウトの場合、図9に示されるように、ずれDb1の絶対値は、ずれDb2よりも大きくなる。この場合、図6において、仮想輝線(不図示)は、輝線BLよりも基準位置から離れた線となる。なお、このような仮想輝線の推定は、図1に示されるようなレイアウト以外の場合にも同様に適用可能である。また、関数により、位置P1と位置P2における主走査方向のずれの差も考慮することが可能である。
Here, the virtual light sheet VLS is parallel to the light sheet LS. Therefore, as shown in FIG. 9, for the same position pd on the surface 2a, the height Hb1 along the virtual light sheet VLS and the height Hb2 along the light sheet LS are the same. Therefore, the deviation Db1 is obtained from the following equation (4) from the equations (1) and (3).
Db1 = Fi1 (F2 (Db2)) (4)
As an example, in the layout of FIG. 1 (FIG. 8), as shown in FIG. 9, the absolute value of the deviation Db1 is larger than the deviation Db2. In this case, in FIG. 6, a virtual bright line (not shown) is a line farther from the reference position than the bright line BL. Note that such estimation of the virtual bright line can be similarly applied to cases other than the layout as shown in FIG. In addition, it is possible to consider the difference in deviation in the main scanning direction between the position P1 and the position P2 by the function.

本変形例によれば、例えば、輝度および高さによる二つの異常検出結果に基づく異常判断を行う場合に、位置精度がより一層向上し、より一層精度良く異常を判断できるという利点がある。   According to this modification, for example, when performing abnormality determination based on two abnormality detection results based on luminance and height, there is an advantage that the position accuracy is further improved and abnormality can be determined with higher accuracy.

以上、本発明の実施形態を例示したが、上記実施形態はあくまで一例である。実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、組み合わせ、変更を行うことができる。また、実施形態の構成や形状は、部分的に他の構成や形状と入れ替えて実施することも可能である。また、各構成や形状等のスペック(構造や、種類、方向、角度、形状、大きさ、長さ、幅、厚さ、高さ、数、配置、位置、材質等)は、適宜に変更して実施することができる。   As mentioned above, although embodiment of this invention was illustrated, the said embodiment is an example to the last. The embodiment can be implemented in various other forms, and various omissions, replacements, combinations, and changes can be made without departing from the scope of the invention. In addition, the configuration and shape of the embodiment can be partially replaced with other configurations and shapes. In addition, specifications (structure, type, direction, angle, shape, size, length, width, thickness, height, number, arrangement, position, material, etc.) of each configuration, shape, etc. are changed as appropriate. Can be implemented.

例えば、光切断検査部114は、データ記憶部130に一旦記憶された第二撮影画像Imbについてライン疑似画像Imblを生成するのではなく、画像データ取得部111から得られた第二撮影画像Imbについて、随時、ライン疑似画像Imblを生成してもよい。さらに、その場合、輝度検査部113は、表面2aのライン疑似画像Imblが得られる度に、当該ライン疑似画像Imblが得られた位置についての第一撮影画像Imaをデータ記憶部130から取得し、ライン輝度画像Imalを生成してもよい。   For example, the light section inspection unit 114 does not generate the line pseudo image Imbl for the second captured image Imb once stored in the data storage unit 130, but the second captured image Imb obtained from the image data acquisition unit 111. The line pseudo image Imbl may be generated at any time. Further, in that case, every time the line pseudo image Imbl of the surface 2a is obtained, the luminance inspection unit 113 acquires the first captured image Ima for the position where the line pseudo image Imbl was obtained from the data storage unit 130, A line luminance image Imal may be generated.

2a…表面(検査対象面)、30…エリアセンサ、100…画像検査装置、113a…第一画像取得部(第一撮影画像取得部)、113b…検査領域決定部、113c…二次元輝度画像生成部(第一検査画像生成部)、114a…第二画像取得部(第二撮影画像取得部)、114b…ライン疑似画像生成部(疑似画像生成部)、114c…二次元疑似画像生成部(第二検査画像生成部)、BL…輝線、Ima…第一撮影画像、Imb…第二撮影画像、Imbl…ライン疑似画像(疑似画像)、Imc…撮影画像、P1…位置(第一撮影位置)、P2…位置(第二撮影位置)。   2a ... surface (surface to be inspected), 30 ... area sensor, 100 ... image inspection apparatus, 113a ... first image acquisition unit (first captured image acquisition unit), 113b ... inspection area determination unit, 113c ... two-dimensional luminance image generation Part (first inspection image generation part), 114a ... second image acquisition part (second photographed image acquisition part), 114b ... line pseudo image generation part (pseudo image generation part), 114c ... two-dimensional pseudo image generation part (first Two inspection image generation unit), BL ... bright line, Ima ... first captured image, Imb ... second captured image, Imbl ... line pseudo image (pseudo image), Imc ... captured image, P1 ... position (first captured position), P2 position (second photographing position).

Claims (4)

検査対象面の第一方向に沿った複数の位置のそれぞれで前記検査対象面の二次元の第一撮影画像を取得する第一撮影画像取得部と、
前記検査対象面の第一方向に沿った複数の位置のそれぞれで前記検査対象面上に照射された輝線の画像を含む前記検査対象面の二次元の第二撮影画像を取得する第二撮影画像取得部と、
前記第二撮影画像のそれぞれにおける前記輝線の位置に基づいて当該第二撮影画像と対応する前記第一撮影画像における一次元の検査領域を決定する検査領域決定部と、
複数の第一撮影画像のそれぞれにおける前記検査領域での画像を繋ぎあわせた二次元の第一検査画像を生成する第一検査画像生成部と、
を備えた、画像検査装置。
A first captured image acquisition unit that acquires a two-dimensional first captured image of the inspection target surface at each of a plurality of positions along the first direction of the inspection target surface;
A second captured image that acquires a two-dimensional second captured image of the inspection target surface including images of bright lines irradiated on the inspection target surface at each of a plurality of positions along the first direction of the inspection target surface. An acquisition unit;
An inspection region determination unit that determines a one-dimensional inspection region in the first captured image corresponding to the second captured image based on the position of the bright line in each of the second captured images;
A first inspection image generation unit that generates a two-dimensional first inspection image obtained by joining images in the inspection region in each of a plurality of first captured images;
An image inspection apparatus comprising:
前記第二撮影画像のそれぞれにおける前記輝線の位置の基準線からのずれに応じた輝度値を与えた一次元の疑似画像を生成する疑似画像生成部と、
前記疑似画像を繋ぎ合わせた二次元の第二検査画像を生成する第二検査画像生成部と、
を備えた、請求項1に記載の画像検査装置。
A pseudo image generation unit that generates a one-dimensional pseudo image that gives a luminance value according to a deviation from a reference line of the position of the bright line in each of the second captured images;
A second inspection image generation unit that generates a two-dimensional second inspection image obtained by joining the pseudo images;
The image inspection apparatus according to claim 1, comprising:
前記検査対象面の第一位置における前記第一撮影画像、および前記検査対象面の前記第一位置とは異なる第二位置における前記第二撮影画像は、一つのエリアセンサによって得られた撮影画像中の、前記第一方向に離間した二つの領域の画像である、請求項1または2に記載の画像検査装置。   The first captured image at the first position of the inspection target surface and the second captured image at a second position different from the first position of the inspection target surface are among the captured images obtained by one area sensor. The image inspection apparatus according to claim 1, wherein the image is an image of two regions separated in the first direction. 前記一つのエリアセンサにより、前記検査対象面の前記第一位置における前記第一撮影画像は、第一撮影位置で撮影されるとともに、前記検査対象面の前記第一位置における前記第二撮影画像は、前記第一撮影位置とは異なる第二撮影位置で撮影され、
前記検査領域決定部は、前記検査対象面の前記第一位置について、前記第二撮影位置で撮影された前記第二撮影画像に含まれる前記輝線から、前記第一撮影位置に前記輝線を生じた光と平行な仮想光が照射された場合に前記第一撮影画像中に生じる仮想輝線を推定し、当該仮想輝線に基づいて前記第一撮影画像における一次元の検査領域を決定する、請求項3に記載の画像検査装置。
The first captured image at the first position of the inspection target surface is captured at the first imaging position by the one area sensor, and the second captured image at the first position of the inspection target surface is , Shot at a second shooting position different from the first shooting position,
The inspection area determination unit generates the bright line at the first photographing position from the bright line included in the second photographed image photographed at the second photographing position with respect to the first position of the inspection target surface. 4. A virtual bright line generated in the first captured image when virtual light parallel to the light is irradiated is estimated, and a one-dimensional inspection region in the first captured image is determined based on the virtual bright line. The image inspection apparatus according to 1.
JP2017041104A 2017-03-03 2017-03-03 Image inspection equipment Active JP6813394B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017041104A JP6813394B2 (en) 2017-03-03 2017-03-03 Image inspection equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017041104A JP6813394B2 (en) 2017-03-03 2017-03-03 Image inspection equipment

Publications (2)

Publication Number Publication Date
JP2018146365A true JP2018146365A (en) 2018-09-20
JP6813394B2 JP6813394B2 (en) 2021-01-13

Family

ID=63590996

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017041104A Active JP6813394B2 (en) 2017-03-03 2017-03-03 Image inspection equipment

Country Status (1)

Country Link
JP (1) JP6813394B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022526500A (en) * 2019-03-20 2022-05-25 ボブスト メックス ソシエテ アノニム Multi-camera imaging system using laser beam

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63254588A (en) * 1987-04-10 1988-10-21 Kawasaki Steel Corp Marked character reader
JPH07152860A (en) * 1993-11-29 1995-06-16 Toyo Tire & Rubber Co Ltd Device for reading rugged character
JP2010175283A (en) * 2009-01-27 2010-08-12 Kokusai Gijutsu Kaihatsu Co Ltd Device for producing plane image
US20120069354A1 (en) * 2010-09-13 2012-03-22 Stephen Cronk Vision recognition system for produce labeling
JP2015078957A (en) * 2013-10-18 2015-04-23 リコーエレメックス株式会社 Appearance inspection device and appearance inspection method
JP2015105883A (en) * 2013-11-29 2015-06-08 株式会社アバールデータ Measurement device
WO2015189985A1 (en) * 2014-06-13 2015-12-17 株式会社ニコン Shape measurement device, structure production system, shape measurement method, structure production method, shape measurement program, and recording medium

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63254588A (en) * 1987-04-10 1988-10-21 Kawasaki Steel Corp Marked character reader
JPH07152860A (en) * 1993-11-29 1995-06-16 Toyo Tire & Rubber Co Ltd Device for reading rugged character
JP2010175283A (en) * 2009-01-27 2010-08-12 Kokusai Gijutsu Kaihatsu Co Ltd Device for producing plane image
US20120069354A1 (en) * 2010-09-13 2012-03-22 Stephen Cronk Vision recognition system for produce labeling
JP2015078957A (en) * 2013-10-18 2015-04-23 リコーエレメックス株式会社 Appearance inspection device and appearance inspection method
JP2015105883A (en) * 2013-11-29 2015-06-08 株式会社アバールデータ Measurement device
WO2015189985A1 (en) * 2014-06-13 2015-12-17 株式会社ニコン Shape measurement device, structure production system, shape measurement method, structure production method, shape measurement program, and recording medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022526500A (en) * 2019-03-20 2022-05-25 ボブスト メックス ソシエテ アノニム Multi-camera imaging system using laser beam
JP7309897B2 (en) 2019-03-20 2023-07-18 ボブスト メックス ソシエテ アノニム Multi-camera imaging system using laser beams

Also Published As

Publication number Publication date
JP6813394B2 (en) 2021-01-13

Similar Documents

Publication Publication Date Title
JP6296401B2 (en) Distance measuring device and solid-state imaging device
JP2021192064A (en) Three-dimensional measuring system and three-dimensional measuring method
JP2018056971A5 (en)
JP2011128117A5 (en) Information processing apparatus, pattern data generation apparatus, information processing method, pattern data generation method, and program
JP2018106496A5 (en)
JP2016529959A5 (en)
JP6187671B2 (en) Self-position calculation device and self-position calculation method
JP2018049591A5 (en) Image processing apparatus, image processing method, and program
JPWO2015125298A1 (en) Self-position calculation device and self-position calculation method
US10713810B2 (en) Information processing apparatus, method of controlling information processing apparatus, and storage medium
JP2017208606A5 (en)
WO2014108976A1 (en) Object detecting device
EP3377848A1 (en) Optical interferometry
US11415408B2 (en) System and method for 3D profile determination using model-based peak selection
JP2017142613A (en) Information processing device, information processing system, information processing method and information processing program
JP2017129950A5 (en) Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium
JP2019168862A5 (en)
KR20150133591A (en) Method for obtaining three-dimensional image, apparatus and computer-readable recording medium using the same
JP6813394B2 (en) Image inspection equipment
JP2015179077A (en) Parallax calculation system, information processing device, information processing method, and program
KR102081778B1 (en) Device for estimating three-dimensional shape of object and method thereof
JP6241083B2 (en) Imaging apparatus and parallax detection method
US9917996B2 (en) Image pickup device
WO2018193704A1 (en) Signal processing system, signal processing device, and signal processing method
WO2022050279A1 (en) Three-dimensional measurement device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201217

R150 Certificate of patent or registration of utility model

Ref document number: 6813394

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250