JP6909378B2 - Inspection system - Google Patents

Inspection system Download PDF

Info

Publication number
JP6909378B2
JP6909378B2 JP2017103472A JP2017103472A JP6909378B2 JP 6909378 B2 JP6909378 B2 JP 6909378B2 JP 2017103472 A JP2017103472 A JP 2017103472A JP 2017103472 A JP2017103472 A JP 2017103472A JP 6909378 B2 JP6909378 B2 JP 6909378B2
Authority
JP
Japan
Prior art keywords
region
phase
time
image data
abnormality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017103472A
Other languages
Japanese (ja)
Other versions
JP2018048996A (en
Inventor
井上 靖之
靖之 井上
圭一 赤澤
圭一 赤澤
栗原 徹
徹 栗原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kochi Prefectural University Corp
Original Assignee
Kochi Prefectural University Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kochi Prefectural University Corp filed Critical Kochi Prefectural University Corp
Publication of JP2018048996A publication Critical patent/JP2018048996A/en
Application granted granted Critical
Publication of JP6909378B2 publication Critical patent/JP6909378B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Description

本発明の実施形態は、検査システムに関する。 Embodiments of the present invention relate to inspection systems.

従来、被検査体に光を照射し、当該被検査体の表面からの反射光を画像データとして撮像し、当該画像データの輝度変化等に基づいて、被検査体の異常を検出する技術が提案されている。 Conventionally, a technique has been proposed in which an object to be inspected is irradiated with light, the reflected light from the surface of the object to be inspected is imaged as image data, and an abnormality in the object to be inspected is detected based on a change in brightness of the image data. Has been done.

その際に被検査体に照射する光の強度を周期的に変化させ、撮像された画像データの輝度変化に基づいて、異常を検出する技術が提案されている。 At that time, a technique has been proposed in which the intensity of the light applied to the object to be inspected is periodically changed and an abnormality is detected based on the change in the brightness of the captured image data.

特開2014−2125号公報Japanese Unexamined Patent Publication No. 2014-2125

この種の検査システムでは、検査面上の傷や突起等の異常は検出できたとしても、形状の変化が比較的緩やかな異常については検出され難い場合がある。 In this type of inspection system, even if an abnormality such as a scratch or a protrusion on the inspection surface can be detected, it may be difficult to detect an abnormality in which the shape change is relatively gradual.

そこで、本発明の課題の一つは、例えば、形状の変化が比較的緩やかな異常が検出されやすい検査システムを得ることである。 Therefore, one of the problems of the present invention is, for example, to obtain an inspection system in which an abnormality in which the shape changes relatively slowly is easily detected.

実施形態の検査システムは、光の強度の縞パターンの空間的な移動により光の強度の周期的な時間変化を与える面的な照明部と、時間相関カメラまたはそれと等価な動作をする撮像システムによって強度と位相とによって表される複素画像である時間相関画像を生成する時間相関画像生成部と、上記時間相関画像より、検査面の法線ベクトルの分布と対応した特徴であって、周囲との違いおよび参照表面との違いのうち少なくとも一方によって異常を検出する特徴を算出する、演算処理部と、上記異常を検出する特徴に基づいて上記検査面を正常領域と異常領域とに区別する異常判別部と、を備え、上記演算処理部は、上記時間相関画像の位相の画像平面に沿った方向の方向微分値の符号が正常領域の符号と異なる位相逆行領域を検出する位相逆行領域検出部を含み、上記異常判別部は、上記位相逆行領域に基づいて異常領域を判別する。 The inspection system of the embodiment is provided by a surface illumination unit that gives a periodic time change of the light intensity by the spatial movement of the fringe pattern of the light intensity, and an imaging system that operates with a time-correlated camera or the like. A feature corresponding to the distribution of the normal vector of the inspection surface from the time-correlation image generator that generates the time-correlation image, which is a complex image represented by the intensity and the phase, and the surroundings. An arithmetic processing unit that calculates a feature that detects anomalies based on at least one of the difference and the difference from the reference surface, and anomaly discrimination that distinguishes the inspection surface into a normal region and an abnormal region based on the feature that detects the anomaly. The arithmetic processing unit includes a unit and a phase retrograde region detection unit that detects a phase retrograde region in which the sign of the directional differential value in the direction along the image plane of the phase of the time correlation image is different from the sign of the normal region. Including, the abnormality determination unit determines an abnormality region based on the phase retrograde region.

図1は、実施形態の検査システムの構成例を示した図である。FIG. 1 is a diagram showing a configuration example of the inspection system of the embodiment. 図2は、実施形態の時間相関カメラの構成を示したブロック図である。FIG. 2 is a block diagram showing the configuration of the time correlation camera of the embodiment. 図3は、実施形態の時間相関カメラで時系列順に蓄積されたフレームを表した概念図である。FIG. 3 is a conceptual diagram showing frames accumulated in chronological order by the time-correlated camera of the embodiment. 図4は、実施形態の照明装置が照射する縞パターンの一例を示した図である。FIG. 4 is a diagram showing an example of a striped pattern illuminated by the lighting device of the embodiment. 図5は、実施形態の時間相関カメラによる、被検査体の異常の第1の検出例を示した図である。FIG. 5 is a diagram showing a first example of detecting an abnormality of an inspected object by the time correlation camera of the embodiment. 図6は、図5に示される異常が被検査体にある場合に、当該異常に応じて変化する、光の振幅の例を表した図である。FIG. 6 is a diagram showing an example of the amplitude of light that changes according to the abnormality when the abnormality shown in FIG. 5 is present in the object to be inspected. 図7は、実施形態の時間相関カメラによる、被検査体の異常の第2の検出例を示した図である。FIG. 7 is a diagram showing a second detection example of an abnormality of the inspected object by the time correlation camera of the embodiment. 図8は、実施形態の時間相関カメラによる、被検査体の異常の第3の検出例を示した図である。FIG. 8 is a diagram showing a third detection example of an abnormality of the inspected object by the time correlation camera of the embodiment. 図9は、実施形態の照明制御部が照明装置に出力する縞パターンの例を示した図である。FIG. 9 is a diagram showing an example of a fringe pattern output by the lighting control unit of the embodiment to the lighting device. 図10は、実施形態のスクリーンを介した後の縞パターンを表した波の形状の例を示した図である。FIG. 10 is a diagram showing an example of the shape of a wave representing a striped pattern after passing through the screen of the embodiment. 図11は、実施形態の異常検出処理部における振幅に基づく異常検出処理の手順を示すフローチャートである。FIG. 11 is a flowchart showing the procedure of the abnormality detection processing based on the amplitude in the abnormality detection processing unit of the embodiment. 図12は、実施形態の異常検出処理部における、位相に基づく異常検出処理の手順を示すフローチャートである。FIG. 12 is a flowchart showing a procedure of phase-based abnormality detection processing in the abnormality detection processing unit of the embodiment. 図13は、実施形態の異常検出処理部における振幅および強度に基づく異常検出処理の手順を示すフローチャートである。FIG. 13 is a flowchart showing a procedure of abnormality detection processing based on amplitude and intensity in the abnormality detection processing unit of the embodiment. 図14は、実施形態の検査システムにおける被検査体の検査処理の手順を示すフローチャートである。FIG. 14 is a flowchart showing a procedure of inspection processing of an inspected object in the inspection system of the embodiment. 図15は、変形例2の照明制御部が出力する縞パターンの切り替え例を示した図である。FIG. 15 is a diagram showing an example of switching the fringe pattern output by the illumination control unit of the second modification. 図16は、変形例2の照明制御部が、異常(欠陥)を含めた表面に縞パターンを照射した例を示した図である。FIG. 16 is a diagram showing an example in which the illumination control unit of the modified example 2 irradiates the surface including an abnormality (defect) with a striped pattern. 図17は、y方向に縞パターンを変化させた場合における、異常(欠陥)とスクリーン上の縞パターンの関係を示した図である。FIG. 17 is a diagram showing the relationship between the abnormality (defect) and the fringe pattern on the screen when the fringe pattern is changed in the y direction. 図18は、変形例3の照明制御部が照明装置に出力する縞パターンの例を示した図である。FIG. 18 is a diagram showing an example of a fringe pattern output by the lighting control unit of the modification 3 to the lighting device. 図19は、実施形態の検査システムに含まれる異常検出処理部の一例を示すブロック図である。FIG. 19 is a block diagram showing an example of an abnormality detection processing unit included in the inspection system of the embodiment. 図20は、形状の変化が比較的緩やかな異常領域を含むサンプルの側面図である。FIG. 20 is a side view of a sample including an abnormal region in which the shape changes relatively slowly. 図21は、異常領域の近傍における位相の変化の一例を示す図である。FIG. 21 is a diagram showing an example of a phase change in the vicinity of the abnormal region. 図22は、検査面の傾斜に応じた位相の逆行についての説明図である。FIG. 22 is an explanatory diagram of a phase reversal according to the inclination of the inspection surface. 図23は、実施形態の検査システムによって得られた位相画像であって、形状の変化が比較的緩やかな異常を含むサンプルの位相画像の一例を示す図である。FIG. 23 is a diagram showing an example of a phase image of a sample obtained by the inspection system of the embodiment and including an abnormality in which the shape change is relatively gradual. 図24は、図23のサンプルの時間相関画像の空間周波数領域における2次元パワースペクトルの一例を示すグラフである。FIG. 24 is a graph showing an example of a two-dimensional power spectrum in the spatial frequency region of the time-correlated image of the sample of FIG. 23. 図25は、実施形態の検査システムによって得られた位相画像であって、図24の周波数領域について逆フーリエ変換を実行して得られた位相画像の一例を示す図である。FIG. 25 is a diagram showing an example of a phase image obtained by the inspection system of the embodiment and obtained by performing an inverse Fourier transform on the frequency domain of FIG. 24.

<時間相関カメラの基本構成>
本実施形態の検査システムについて説明する。第1の実施形態の検査システム1は、被検査体を検査するために様々な構成を備えている。図1は、本実施形態の検査システムの構成例を示した図である。図1に示されるように、本実施形態の検査システム1は、PC100と、時間相関カメラ110と、照明装置120と、スクリーン130と、移動機構140と、を備えている。時間相関カメラ110は、撮像部の一例である。
<Basic configuration of time-correlated camera>
The inspection system of this embodiment will be described. The inspection system 1 of the first embodiment has various configurations for inspecting an inspected object. FIG. 1 is a diagram showing a configuration example of the inspection system of the present embodiment. As shown in FIG. 1, the inspection system 1 of the present embodiment includes a PC 100, a time correlation camera 110, a lighting device 120, a screen 130, and a moving mechanism 140. The time correlation camera 110 is an example of an imaging unit.

移動機構140は、被検査体150を固定するために用いられ、PC100からの制御に応じて、時間相関カメラ110が撮影可能な被検査体150の表面の位置と向きを変化させる。 The moving mechanism 140 is used to fix the inspected object 150, and changes the position and orientation of the surface of the inspected object 150 that can be photographed by the time correlation camera 110 according to the control from the PC 100.

照明装置120は、被検査体150に光を照射する装置であって、PC100からの縞パターンに従って、照射する光の強度を領域単位で制御できる。さらに、照明装置120は、周期的な時間の遷移に従って当該領域単位の光の強度を制御できる。換言すれば、照明装置120は、光の強度の周期的な時間変化および空間変化を与えることができる。なお、具体的な光の強度の制御手法については後述する。 The lighting device 120 is a device that irradiates the object to be inspected 150 with light, and can control the intensity of the irradiated light in units of regions according to the stripe pattern from the PC 100. Further, the illuminating device 120 can control the intensity of light in the region unit according to the periodic transition of time. In other words, the illuminating device 120 can provide periodic temporal and spatial changes in light intensity. A specific light intensity control method will be described later.

スクリーン130は、照明装置120から出力された光を拡散させた上で、被検査体150に対して面的に光を照射する。本実施形態のスクリーン130は、照明装置120から入力された周期的な時間変化および空間変化が与えられた光を、面的に被検査体150に照射する。なお、照明装置120とスクリーン130との間には、集光用のフレネルレンズ等の光学系部品(図示されず)が設けられてもよい。 The screen 130 diffuses the light output from the lighting device 120 and then irradiates the object to be inspected 150 with the light in a surface manner. The screen 130 of the present embodiment surfacely irradiates the object to be inspected 150 with light given a periodic time change and a spatial change input from the lighting device 120. An optical system component (not shown) such as a Fresnel lens for condensing light may be provided between the illumination device 120 and the screen 130.

なお、本実施形態は、照明装置120とスクリーン130とを組み合わせて、光強度の周期的な時間変化および空間変化を与える面的な照射部を構成する例について説明するが、このような組み合わせに制限するものではなく、例えば、LEDを面的に配置して照明部を構成してもよい。 In this embodiment, an example in which the lighting device 120 and the screen 130 are combined to form a surface irradiation unit that gives a periodic time change and a spatial change in light intensity will be described. It is not limited, and for example, LEDs may be arranged in a plane to form an illumination unit.

時間相関カメラ110は、光学系210と、イメージセンサ220と、データバッファ230と、制御部240と、参照信号出力部250と、を備えている。図2は、本実施形態の時間相関カメラ110の構成を示したブロック図である。 The time correlation camera 110 includes an optical system 210, an image sensor 220, a data buffer 230, a control unit 240, and a reference signal output unit 250. FIG. 2 is a block diagram showing the configuration of the time correlation camera 110 of the present embodiment.

光学系210は、撮影レンズ等を含み、時間相関カメラ110の外部の被写体(被検査体を含む)からの光束を透過し、その光束により形成される被写体の光学像を結像させる。 The optical system 210 includes a photographing lens and the like, transmits a light flux from an external subject (including an object to be inspected) of the time-correlation camera 110, and forms an optical image of the subject formed by the light flux.

イメージセンサ220は、光学系210を介して入射された光の強弱を光強度信号として画素毎に高速に出力可能なセンサとする。 The image sensor 220 is a sensor capable of outputting the intensity of light incident through the optical system 210 as a light intensity signal at high speed for each pixel.

本実施形態の光強度信号は、検査システムの照明装置120が被写体(被検査体を含む)に対して光を照射し、当該被写体からの反射光を、イメージセンサ220が受け取ったものである。 The light intensity signal of the present embodiment is obtained by irradiating a subject (including an object to be inspected) with light by the lighting device 120 of the inspection system and receiving the reflected light from the subject by the image sensor 220.

イメージセンサ220は、例えば従来のものと比べて高速に読み出し可能なセンサであり、行方向(x方向)、列方向(y方向)の2種類の方向に画素が配列された2次元平面状に構成されたものとする。そして、イメージセンサ220の各画素を、画素P(1,1),……,P(i,j),……,P(X,Y)とする(なお、本実施形態の画像サイズをX×Yとする。)。なお、イメージセンサ220の読み出し速度を制限するものではなく、従来と同様であってもよい。 The image sensor 220 is, for example, a sensor that can be read out at a higher speed than that of a conventional sensor, and has a two-dimensional plane in which pixels are arranged in two directions, a row direction (x direction) and a column direction (y direction). It shall be configured. Then, each pixel of the image sensor 220 is set to pixels P (1,1), ..., P (i, j), ..., P (X, Y) (note that the image size of this embodiment is X). × Y.). The reading speed of the image sensor 220 is not limited, and may be the same as the conventional one.

イメージセンサ220は、光学系210によって透過された、被写体(被検査体を含む)からの光束を受光して光電変換することで、被写体から反射された光の強弱を示した光強度信号(撮影信号)で構成される、2次元平面状のフレームを生成し、制御部240に出力する。本実施形態のイメージセンサ220は、読み出し可能な単位時間毎に、当該フレームを出力する。 The image sensor 220 receives a light beam from the subject (including the object to be inspected) transmitted by the optical system 210 and performs photoelectric conversion, thereby indicating a light intensity signal (photographing) indicating the intensity of the light reflected from the subject. A two-dimensional planar frame composed of signals) is generated and output to the control unit 240. The image sensor 220 of the present embodiment outputs the frame every readable unit time.

本実施形態の制御部240は、例えばCPU、ROM、およびRAM等で構成され、ROMに格納された検査プログラムを実行することで、転送部241と、読出部242と、強度画像用重畳部243と、第1の乗算器244と、第1の相関画像用重畳部245と、第2の乗算器246と、第2の相関画像用重畳部247と、画像出力部248と、を実現する。なお、CPU等で実現することに制限するものではなく、FPGA、またはASICで実現してもよい。 The control unit 240 of the present embodiment is composed of, for example, a CPU, a ROM, a RAM, and the like, and by executing an inspection program stored in the ROM, the transfer unit 241 and the reading unit 242, and the intensity image superimposing unit 243. The first multiplier 244, the first correlation image superimposition unit 245, the second multiplier 246, the second correlation image superimposition unit 247, and the image output unit 248 are realized. It should be noted that the present invention is not limited to the realization by a CPU or the like, and may be realized by an FPGA or an ASIC.

転送部241は、イメージセンサ220から出力された、光強度信号で構成されたフレームを、データバッファ230に、時系列順に蓄積する。 The transfer unit 241 stores the frames composed of the light intensity signals output from the image sensor 220 in the data buffer 230 in chronological order.

データバッファ230は、イメージセンサ220から出力された、光強度信号で構成されたフレームを、時系列順に蓄積する。 The data buffer 230 stores frames composed of light intensity signals output from the image sensor 220 in chronological order.

図3は、本実施形態の時間相関カメラ110で時系列順に蓄積されたフレームを表した概念図である。図3に示されるように、本実施形態のデータバッファ230には、時刻t(t=t0,t1,t2,……,tn)毎の複数の光強度信号G(1,1,t),……,G(i,j,t),……,G(X,Y,t)の組み合わせで構成された複数のフレームFk(k=1,2,……,n)が、時系列順に蓄積される。なお、時刻tで作成される一枚のフレームは、光強度信号G(1,1,t),……,G(i,j,t),……,G(X,Y,t)で構成される。 FIG. 3 is a conceptual diagram showing frames accumulated in chronological order by the time correlation camera 110 of the present embodiment. As shown in FIG. 3, the data buffer 230 of the present embodiment contains a plurality of light intensity signals G (1,1, t) for each time t (t = t0, t1, t2, ..., Tn). A plurality of frames Fk (k = 1, 2, ..., N) composed of a combination of G (i, j, t), ..., G (X, Y, t) are arranged in chronological order. Accumulate. One frame created at time t is a light intensity signal G (1,1, t), ..., G (i, j, t), ..., G (X, Y, t). It is composed.

本実施形態の光強度信号(撮像信号)G(1,1,t),……,G(i,j,t),……,G(X,Y,t)には、フレーム画像Fk(k=1,2,……,n)を構成する各画素P(1,1),……,P(i,j),……,P(X,Y)が対応づけられている。 The light intensity signal (imaging signal) G (1,1, t), ..., G (i, j, t), ..., G (X, Y, t) of the present embodiment includes the frame image Fk ( Each pixel P (1,1), ..., P (i, j), ..., P (X, Y) constituting k = 1, 2, ..., N) is associated with each other.

イメージセンサ220から出力されるフレームは、光強度信号のみで構成されており、換言すればモノクロの画像データとも考えることができる。なお、本実施形態は、解像度、感度、およびコスト等を考慮して、イメージセンサ220がモノクロの画像データを生成する例について説明するが、イメージセンサ220としてモノクロ用のイメージセンサに制限するものではなく、カラー用のイメージセンサを用いてもよい。 The frame output from the image sensor 220 is composed of only the light intensity signal, and in other words, it can be considered as monochrome image data. In this embodiment, an example in which the image sensor 220 generates monochrome image data in consideration of resolution, sensitivity, cost, etc. will be described, but the image sensor 220 is not limited to a monochrome image sensor. Instead, an image sensor for color may be used.

図2に戻り、本実施形態の読出部242は、データバッファ230から、光強度信号G(1,1,t),……,G(i,j,t),……,G(X,Y,t)をフレーム単位で、時系列順に読み出して、第1の乗算器244と、第2の乗算器246と、強度画像用重畳部243と、に出力する。 Returning to FIG. 2, the reading unit 242 of the present embodiment receives the light intensity signals G (1,1, t), ..., G (i, j, t), ..., G (X,) from the data buffer 230. Y, t) is read out in chronological order in frame units and output to the first multiplier 244, the second multiplier 246, and the intensity image superimposing unit 243.

本実施形態の時間相関カメラ110は、読出部242の出力先毎に画像データを生成する。換言すれば、時間相間カメラ110は、3種類の画像データを作成する。 The time correlation camera 110 of the present embodiment generates image data for each output destination of the reading unit 242. In other words, the time-phase camera 110 creates three types of image data.

本実施形態の時間相関カメラ110は、3種類の画像データとして、強度画像データと、2種類の時間相関画像データと、を生成する。なお、本実施形態は、3種類の画像データを生成することに制限するものではなく、強度画像データを生成しない場合や、1種類又は3種類以上の時間相関画像データを生成する場合も考えられる。時間相関カメラ110は、時間相関画像生成部の一例である。 The time-correlation camera 110 of the present embodiment generates intensity image data and two types of time-correlation image data as three types of image data. The present embodiment is not limited to generating three types of image data, and may be a case where the intensity image data is not generated or a case where one type or three or more types of time-correlated image data is generated. .. The time correlation camera 110 is an example of a time correlation image generation unit.

本実施形態のイメージセンサ220は、上述したように単位時間毎に、光強度信号で構成されたフレームを出力している。しかしながら、通常の画像データを生成するためには、撮影に必要な露光時間分の光強度信号が必要になる。そこで、本実施形態では、強度画像用重畳部243が、撮影に必要な露光時間分の複数のフレームを重畳して、強度画像データを生成する。なお、強度画像データの各画素値(光の強度を表す値)G(x,y)は、以下に示す式(1)から導き出すことができる。なお、露光時間は、t0とtnの時間差とする。 As described above, the image sensor 220 of the present embodiment outputs a frame composed of a light intensity signal for each unit time. However, in order to generate normal image data, a light intensity signal for the exposure time required for shooting is required. Therefore, in the present embodiment, the intensity image superimposition unit 243 superimposes a plurality of frames for the exposure time required for shooting to generate intensity image data. Each pixel value (value representing the intensity of light) G (x, y) of the intensity image data can be derived from the following equation (1). The exposure time is the time difference between t0 and tn.

Figure 0006909378
Figure 0006909378

これにより、従来のカメラの撮影と同様に、被写体(被検査体を含む)が撮影された強度画像データが生成される。そして、強度画像用重畳部243は、生成した強度画像データを、画像出力部248に出力する。 As a result, intensity image data in which the subject (including the object to be inspected) is photographed is generated as in the case of photographing with a conventional camera. Then, the intensity image superimposition unit 243 outputs the generated intensity image data to the image output unit 248.

時間相関画像データは、時間遷移に応じた光の強弱の変化を示す画像データである。つまり、本実施形態では、時系列順のフレーム毎に、当該フレームに含まれる光強度信号に対して、時間遷移を示した参照信号を乗算し、参照信号と光強度信号と乗算結果である時間相関値で構成された、時間相関値フレームを生成し、複数の時間相関値フレームを重畳することで、時間相関画像データを生成する。 The time-correlated image data is image data showing a change in the intensity of light according to a time transition. That is, in the present embodiment, for each frame in chronological order, the light intensity signal included in the frame is multiplied by the reference signal indicating the time transition, and the reference signal, the light intensity signal, and the time that is the multiplication result are multiplied. A time correlation value frame composed of correlation values is generated, and a time correlation image data is generated by superimposing a plurality of time correlation value frames.

ところで、時間相関画像データを用いて、被検査体の異常を検出するためには、イメージセンサ220に入力される光強度信号を、参照信号に同期させて変化させる必要がある。このために、照明装置120が、上述したように、スクリーン130を介して周期的に時間変化および縞の空間的な移動を与えるような、面的な光の照射を行うこととした。 By the way, in order to detect an abnormality of the object to be inspected by using the time-correlated image data, it is necessary to change the light intensity signal input to the image sensor 220 in synchronization with the reference signal. For this purpose, as described above, the illuminating device 120 is determined to irradiate surface light so as to periodically give a time change and spatial movement of fringes through the screen 130.

本実施形態では、2種類の時間相関画像データを生成する。参照信号は、時間遷移を表した信号であればよいが、本実施形態では、複素正弦波e-jωtを用いる。なお、角周波数ω、時刻tとする。参照信号を表す複素正弦波e-jωtが、上述した露光時間(換言すれば強度画像データ、時間相関画像を生成するために必要な時間)の一周期と相関をとるように、角周波数ωが設定されるものとする。換言すれば、照明装置120およびスクリーン130等の照明部によって形成された面的かつ動的な光は、被検査体150の表面(反射面)の各位置で第一の周期(時間周期)での時間的な照射強度の変化を与えるとともに、表面に沿った少なくとも一方向に沿った第二の周期(空間周期)での空間的な照射強度の増減分布を与える。この面的な光は、表面で反射される際に、当該表面のスペック(法線ベクトルの分布等)に応じて複素変調される。時間相関カメラ110は、表面で複素変調された光を受光し、第一の周期の参照信号を用いて直交検波(直交復調)することにより、複素信号としての時間相関画像データを得る。このような複素時間相関画像データに基づく変復調により、表面の法線ベクトルの分布に対応した特徴を検出することができる。 In this embodiment, two types of time-correlated image data are generated. The reference signal may be a signal representing a time transition, but in the present embodiment, a complex sine wave e- jωt is used. The angular frequency is ω and the time is t. The angular frequency ω is such that the complex sine wave e -jωt representing the reference signal correlates with one cycle of the above-mentioned exposure time (in other words, intensity image data, time required to generate a time-correlated image). It shall be set. In other words, the planar and dynamic light formed by the illuminating unit such as the illuminating device 120 and the screen 130 has a first period (time period) at each position on the surface (reflecting surface) of the inspected object 150. In addition to giving a change in the irradiation intensity over time, it also gives an increase / decrease distribution of the spatial irradiation intensity in a second cycle (spatial cycle) along at least one direction along the surface. When this surface light is reflected on a surface, it is complex-modulated according to the specifications of the surface (distribution of normal vector, etc.). The time-correlation camera 110 receives the light complex-modulated on the surface and performs orthogonal detection (orthogonal demodulation) using the reference signal of the first period to obtain time-correlation image data as a complex signal. By modulation / demodulation based on such complex time correlation image data, features corresponding to the distribution of the surface normal vector can be detected.

複素正弦波e-jωtは、e-jωt=cos(ωt)−j・sin(ωt)と表すこともできる。従って、時間相関画像データの各画素値C(x,y)は、以下に示す式(2)から導き出すことができる。 The complex sine wave e- jωt can also be expressed as e- jωt = cos (ωt) -j · sin (ωt). Therefore, each pixel value C (x, y) of the time-correlated image data can be derived from the following equation (2).

Figure 0006909378
Figure 0006909378

本実施形態では、式(2)において、実数部を表す画素値C1(x,y)と、虚数部を表す画素値C2(x,y)と、に分けて2種類の時間相関画像データを生成する。 In the present embodiment, in the equation (2), two types of time-correlated image data are divided into a pixel value C1 (x, y) representing a real part and a pixel value C2 (x, y) representing an imaginary part. Generate.

このため、参照信号出力部250は、第1の乗算器244と、第2の乗算器246と、に対してそれぞれ異なる参照信号を生成し、出力する。本実施形態の参照信号出力部250は、複素正弦波e-jωtの実数部に対応する第1の参照信号cosωtを第1の乗算器244に出力し、複素正弦波e-jωtの虚数部に対応する第2の参照信号sinωtを第2の乗算器246に出力する。このように本実施形態の参照信号出力部250は、互いにヒルベルト変換対をなす正弦波および余弦波の時間関数として表される2種類の参照信号を出力する例について説明するが、参照信号は時間関数のような時間遷移に応じて変化する参照信号であればよい。 Therefore, the reference signal output unit 250 generates and outputs different reference signals for the first multiplier 244 and the second multiplier 246, respectively. Reference signal output section 250 of this embodiment outputs the first reference signal cosωt corresponding to the real part of the complex sine wave e -Jeiomegati the first multiplier 244, the imaginary part of the complex sine wave e -Jeiomegati The corresponding second reference signal sinωt is output to the second multiplier 246. As described above, the reference signal output unit 250 of the present embodiment describes an example of outputting two types of reference signals represented as time functions of a sine wave and a cosine wave forming a Hilbert transform pair with each other, but the reference signal is a time. Any reference signal such as a function that changes according to a time transition may be used.

そして、第1の乗算器244は、読出部242から入力されたフレーム単位で、当該フレームの光強度信号毎に、参照信号出力部250から入力された複素正弦波e-jωtの実数部cosωtを乗算する。 Then, the first multiplier 244 outputs the real number part cosωt of the complex sine wave e -jωt input from the reference signal output unit 250 for each light intensity signal of the frame in units of frames input from the reading unit 242. Multiply.

第1の相関画像用重畳部245は、撮影に必要な露光時間分の複数のフレームについて、第1の乗算器244の乗算結果を画素毎に重畳する処理を行う。これにより、第1の時間相関画像データの各画素値C1(x,y)が、以下の式(3)から導出される。 The first correlation image superimposition unit 245 performs a process of superimposing the multiplication result of the first multiplier 244 on a pixel-by-pixel basis for a plurality of frames for the exposure time required for shooting. As a result, each pixel value C1 (x, y) of the first time-correlated image data is derived from the following equation (3).

Figure 0006909378
Figure 0006909378

そして、第2の乗算器246は、読出部242から入力されたフレームの光強度信号に対して、参照信号出力部250から入力された複素正弦波e-jωtの虚数部sinωtを乗算する。 Then, the second multiplier 246 multiplies the light intensity signal of the frame input from the reading unit 242 by the imaginary part sinωt of the complex sine wave e -jωt input from the reference signal output unit 250.

第2の相関画像用重畳部247は、撮影に必要な露光時間分の複数のフレームについて、第2の乗算器246の乗算結果を画素毎に重畳する処理を行う。これにより、第2の時間相関画像データの各画素値C2(x,y)が、以下の式(4)から導出される。 The second correlation image superimposition unit 247 performs a process of superimposing the multiplication result of the second multiplier 246 on a pixel-by-pixel basis for a plurality of frames for the exposure time required for shooting. As a result, each pixel value C2 (x, y) of the second time-correlated image data is derived from the following equation (4).

Figure 0006909378
Figure 0006909378

上述した処理を行うことで、2種類の時間相関画像データ、換言すれば2自由度を有する時間相関画像データを生成できる。 By performing the above-mentioned processing, it is possible to generate two types of time-correlated image data, in other words, time-correlated image data having two degrees of freedom.

また、本実施形態は、参照信号の種類を制限するものではない。例えば、本実施形態では、複素正弦波e-jωtの実部と虚部の2種類の時間相関画像データを作成するが、光の振幅と、光の位相と、による2種類の画像データを生成してもよい。 Moreover, this embodiment does not limit the type of a reference signal. For example, in the present embodiment , two types of time-correlated image data of the real part and the imaginary part of the complex sine wave e-jωt are created, but two types of image data are generated by the amplitude of light and the phase of light. You may.

なお、本実施形態の時間相関カメラ110は、時間相関画像データとして、複数系統分作成可能とする。これにより、例えば複数種類の幅の縞が組み合わされた光が照射された際に、上述した実部と虚部とによる2種類の時間相関画像データを、縞の幅毎に作成可能とする。このために、時間相関カメラ110は、2個の乗算器と2個の相関画像用重畳部とからなる組み合わせを、複数系統分備えるとともに、参照信号出力部250は、系統毎に適した角周波数ωによる参照信号を出力可能とする。 The time-correlated camera 110 of the present embodiment can create a plurality of systems as time-correlated image data. This makes it possible to create two types of time-correlated image data for each of the widths of the stripes, for example, when the light is irradiated with a combination of stripes having a plurality of types of widths. For this purpose, the time correlation camera 110 includes a combination of two multipliers and two correlation image superimposition units for a plurality of systems, and the reference signal output unit 250 has an angular frequency suitable for each system. The reference signal by ω can be output.

そして、画像出力部248が、2種類の時間相関画像データと、強度画像データと、をPC100に出力する。これにより、PC100が、2種類の時間相関画像データと、強度画像データと、を用いて、被検査体の異常を検出する。そのためには、被写体に対して光を照射する必要がある。 Then, the image output unit 248 outputs two types of time-correlated image data and intensity image data to the PC 100. As a result, the PC 100 detects the abnormality of the inspected object by using the two types of time-correlated image data and the intensity image data. For that purpose, it is necessary to irradiate the subject with light.

本実施形態の照明装置120は、高速に移動する縞パターンを照射する。図4は、本実施形態の照明装置120が照射する縞パターンの一例を示した図である。図4に示す例では、縞パターンをx方向にスクロール(移動)させている例とする。白い領域が縞に対応した明領域、黒い領域が縞と縞との間に対応した間隔領域(暗領域)である。 The lighting device 120 of the present embodiment irradiates a striped pattern that moves at high speed. FIG. 4 is a diagram showing an example of a striped pattern illuminated by the lighting device 120 of the present embodiment. In the example shown in FIG. 4, the stripe pattern is scrolled (moved) in the x direction. The white area is the bright area corresponding to the stripes, and the black area is the interval area (dark area) corresponding to the stripes.

本実施形態では、時間相関カメラ110が強度画像データおよび時間相関画像データを撮影する露光時間で、照明装置120が照射する縞パターンを一周期分移動させる。これにより、照明装置120は、光の強度の縞パターンの空間的な移動により光の強度の周期的な時間変化を与える。本実施形態では、図4の縞パターンが一周期分移動する時間を、露光時間と対応させることで、時間相関画像データの各画素には、少なくとも、縞パターン一周期分の光の強度信号に関する情報が埋め込まれる。 In the present embodiment, the fringe pattern irradiated by the illuminating device 120 is moved by one cycle at the exposure time at which the time-correlation camera 110 captures the intensity image data and the time-correlation image data. As a result, the illuminating device 120 gives a periodic time change of the light intensity by the spatial movement of the fringe pattern of the light intensity. In the present embodiment, by associating the time during which the fringe pattern of FIG. 4 moves by one cycle with the exposure time, each pixel of the time-correlated image data relates to at least one cycle of light intensity signal of the fringe pattern. Information is embedded.

図4に示されるように、本実施形態では、照明装置120が矩形波に基づく縞パターンを照射する例について説明するが、矩形波以外を用いてもよい。なお、照明光を拡散する拡散部材を用いることにより、矩形波の明暗の境界領域をぼかすことができる。スクリーン130は、拡散部材の一例である。 As shown in FIG. 4, in the present embodiment, an example in which the illuminating device 120 irradiates a fringe pattern based on a square wave will be described, but a wave other than the square wave may be used. By using a diffusing member that diffuses the illumination light, it is possible to blur the light-dark boundary region of the rectangular wave. The screen 130 is an example of a diffusion member.

本実施形態では、照明装置120が照射する縞パターンをA(1+cos(ωt+kx))と表す。すなわち、縞パターンには、複数の縞が反復的に(周期的に)含まれる。なお、被検査体に照射される光の強度は0〜2Aの間で調整可能とし、光の位相をkxとする。kは、縞の波数である。xは、位相が変化する方向である。 In the present embodiment, the fringe pattern irradiated by the illuminating device 120 is represented as A (1 + cos (ωt + kx)). That is, the fringe pattern includes a plurality of fringes repetitively (periodically). The intensity of the light applied to the object to be inspected can be adjusted between 0 and 2A, and the phase of the light is kx. k is the wave number of the stripe. x is the direction in which the phase changes.

そして、フレームの各画素の光強度信号f(x,y,t)の基本周波数成分は、以下の式(5)として表すことができる。式(5)で示されるように、x方向で縞の明暗が変化する。 Then, the fundamental frequency component of the light intensity signal f (x, y, t) of each pixel of the frame can be expressed by the following equation (5). As shown by the equation (5), the brightness of the stripe changes in the x direction.

f(x,y,t)=A(1+cos(ωt+kx))
=A+A/2{ej(ωt+kx)+e-j(ωt+kx)}……(5)
f (x, y, t) = A (1 + cos (ωt + kx))
= A + A / 2 {e j (ωt + kx) + e -j (ωt + kx) } …… (5)

式(5)で示されるように、照明装置120が照射する縞パターンの強度信号は、複素数として考えることができる。 As shown by the equation (5), the intensity signal of the fringe pattern irradiated by the illuminating device 120 can be considered as a complex number.

そして、イメージセンサ220には、当該照明装置120からの光が被写体(被検査体を含む)から反射して入力される。 Then, the light from the lighting device 120 is reflected from the subject (including the object to be inspected) and input to the image sensor 220.

したがって、イメージセンサ220に入力される光強度信号G(x,y,t)を、照明装置120が照射された際のフレームの各画素の光強度信号f(x,y,t)とできる。そこで、強度画像データを導出するための式(1)に式(5)を代入すると、式(6)を導出できる。なお、位相をkxとする。 Therefore, the light intensity signal G (x, y, t) input to the image sensor 220 can be the light intensity signal f (x, y, t) of each pixel of the frame when the illumination device 120 is irradiated. Therefore, by substituting the equation (5) into the equation (1) for deriving the intensity image data, the equation (6) can be derived. The phase is kx.

Figure 0006909378
Figure 0006909378

式(6)から、強度画像データの各画素には、露光時間Tに、照明装置120が出力している光の強度の中間値Aを乗じた値が入力されていることが確認できる。さらに、時間相関画像データを導出するための式(2)に式(5)を代入すると、式(7)を導出できる。なお、AT/2を振幅とし、kxを位相とする。 From the formula (6), it can be confirmed that a value obtained by multiplying the exposure time T by the median value A of the light intensity output by the lighting device 120 is input to each pixel of the intensity image data. Further, by substituting the equation (5) into the equation (2) for deriving the time-correlated image data, the equation (7) can be derived. AT / 2 is the amplitude and kx is the phase.

Figure 0006909378
Figure 0006909378

これにより、式(7)で示された複素数で示された時間相関画像データは、上述した2種類の時間相関画像データと置き換えることができる。つまり、上述した実部と虚部とで構成される時間相関画像データには、被検査体に照射された光強度変化における位相変化と振幅変化とが含まれている。換言すれば、本実施形態のPC100は、2種類の時間相関画像データに基づいて、照明装置120から照射された光の位相変化と、光の振幅変化と、を検出できる。そこで、本実施形態のPC100が、時間相関画像データおよび強度画像データに基づいて、画素毎に入る光の振幅を表した振幅画像データと、画素毎に入る光の位相変化を表した位相画像データと、を生成する。 Thereby, the time-correlation image data represented by the complex number represented by the equation (7) can be replaced with the above-mentioned two types of time-correlation image data. That is, the time-correlated image data composed of the real part and the imaginary part described above includes the phase change and the amplitude change in the light intensity change irradiated to the inspected object. In other words, the PC 100 of the present embodiment can detect a phase change of the light emitted from the lighting device 120 and a change in the amplitude of the light based on the two types of time-correlated image data. Therefore, the PC 100 of the present embodiment has, based on the time-correlated image data and the intensity image data, the amplitude image data representing the amplitude of the light entering each pixel and the phase image data representing the phase change of the light entering each pixel. And generate.

さらに、PC100は、生成した振幅画像データと位相画像データとに基づいて、被検査体の異常を検出する。 Further, the PC 100 detects an abnormality of the inspected object based on the generated amplitude image data and the phase image data.

ところで、被検査体の表面形状に凹凸に基づく異常が生じている場合、被検査体の表面の法線ベクトルの分布には異常に対応した変化が生じている。また、被検査体の表面に光を吸収するような異常が生じている場合、反射した光の強度に変化が生じる。法線ベクトルの分布の変化は、光の位相変化および振幅変化のうち少なくともいずれか一つとして検出される。そこで、本実施形態では、時間相関画像データおよび強度画像データを用いて、法線ベクトルの分布の変化に対応した、光の位相変化および振幅変化のうち少なくともいずれか一つを検出する。これにより、表面形状の異常を検出可能となる。次に、被検査体の異常、法線ベクトル、および光の位相変化又は振幅変化の関係について説明する。 By the way, when the surface shape of the object to be inspected has an abnormality due to unevenness, the distribution of the normal vector on the surface of the object to be inspected has a change corresponding to the abnormality. Further, when an abnormality such as absorbing light occurs on the surface of the object to be inspected, the intensity of the reflected light changes. A change in the distribution of the normal vector is detected as at least one of a phase change and an amplitude change of light. Therefore, in the present embodiment, at least one of the phase change and the amplitude change of the light corresponding to the change in the distribution of the normal vector is detected by using the time-correlated image data and the intensity image data. This makes it possible to detect an abnormality in the surface shape. Next, the relationship between the abnormality of the object to be inspected, the normal vector, and the phase change or amplitude change of light will be described.

図5は、第1の実施形態の時間相関カメラ110による、被検査体の異常の第1の検出例を示した図である。図5に示される例では、被検査体500に突形状の異常501がある状況とする。当該状況においては、異常501の点502の近傍領域においては、法線ベクトル521、522、523が異なる方向を向いていることを確認できる。そして、当該法線ベクトル521、522、523が異なる方向を向いていることで、異常501から反射した光に拡散(例えば、光511、512、513)が生じ、時間相関カメラ110のイメージセンサ220の任意の画素531に入る縞パターンの幅503が広くなる。 FIG. 5 is a diagram showing a first detection example of an abnormality of an inspected object by the time correlation camera 110 of the first embodiment. In the example shown in FIG. 5, it is assumed that the object to be inspected 500 has a protrusion-shaped abnormality 501. In this situation, it can be confirmed that the normal vectors 521, 522, and 523 are oriented in different directions in the region near the point 502 of the abnormality 501. Then, since the normal vectors 521, 522, and 523 are oriented in different directions, the light reflected from the abnormality 501 is diffused (for example, light 511, 512, 513), and the image sensor 220 of the time correlation camera 110 is generated. The width 503 of the striped pattern that fits in any pixel 531 of the above is widened.

図6は、図5に示される異常501が被検査体500にある場合に、当該異常に応じて変化する、光の振幅の例を表した図である。図6に示される例では、光の振幅を実部(Re)と、虚部(Im)に分けて2次元平面上に表している。図6では、図5の光511、512、513に対応する光の振幅611、612、613として示している。そして、光の振幅611、612、613は互いに打ち消し合い、イメージセンサ220の当該任意の画素531には、振幅621の光が入射する。 FIG. 6 is a diagram showing an example of the amplitude of light that changes according to the abnormality when the abnormality 501 shown in FIG. 5 is present in the inspected body 500. In the example shown in FIG. 6, the amplitude of light is divided into a real part (Re) and an imaginary part (Im) and represented on a two-dimensional plane. In FIG. 6, the amplitudes of the light corresponding to the light 511, 512, and 513 of FIG. 5 are shown as 611, 612, and 613. Then, the amplitudes 611, 612, and 613 of the light cancel each other out, and the light having the amplitude 621 is incident on the arbitrary pixel 531 of the image sensor 220.

したがって、図6に示される状況で、被検査体500の異常501が撮像された領域で振幅が小さいことが確認できる。換言すれば、振幅変化を示した振幅画像データで、周囲と比べて暗くなっている領域がある場合に、当該領域で光同士の振幅の打ち消し合いが生じていると推測できるため、当該領域に対応する被検査体500の位置で異常501が生じていると判断できる。 Therefore, in the situation shown in FIG. 6, it can be confirmed that the amplitude is small in the region where the abnormality 501 of the inspected body 500 is imaged. In other words, in the amplitude image data showing the amplitude change, if there is a region that is darker than the surroundings, it can be inferred that the amplitudes of the lights cancel each other out in that region. It can be determined that the abnormality 501 has occurred at the position of the corresponding object 500 to be inspected.

本実施形態の検査システム1は、図5の異常501のように傾きが急峻に変化しているものに限らず、緩やかに変化する異常も検出できる。図7は、第1の実施形態の時間相関カメラ110による、被検査体の異常の第2の検出例を示した図である。図7に示される例では、正常な場合は被検査体の表面が平面(換言すれば法線が平行)となるが、被検査体700に緩やかな勾配701が生じた状況とする。このような状況においては、勾配701上の法線ベクトル721、722、723も同様に緩やかに変化する。したがって、イメージセンサ220に入力する光711、712、713も少しずつずれていく。図7に示される例では、緩やかな勾配701のために光の振幅の打ち消し合いは生じないため、図5、図6で表したような光の振幅はほとんど変化しない。しかしながら、本来照明装置120およびスクリーン130から投影された光が、そのままイメージセンサに平行に入るはずが、緩やかな勾配701のために、照明装置120およびスクリーン130から投影された光が平行の状態でイメージセンサに入らないために、光に位相変化が生じる。従って、光の位相変化について、周囲等との違いを検出することで、図7に示したような緩やかな勾配701による異常を検出できる。 The inspection system 1 of the present embodiment can detect not only a steeply changing inclination as in the abnormality 501 of FIG. 5 but also a slowly changing abnormality. FIG. 7 is a diagram showing a second detection example of an abnormality of the inspected object by the time correlation camera 110 of the first embodiment. In the example shown in FIG. 7, the surface of the inspected object is normally flat (in other words, the normals are parallel), but the inspected object 700 has a gentle gradient 701. In such a situation, the normal vectors 721, 722, 723 on the gradient 701 also change slowly. Therefore, the lights 711, 712, and 713 input to the image sensor 220 also shift little by little. In the example shown in FIG. 7, since the light amplitudes do not cancel each other out due to the gentle gradient 701, the light amplitudes as shown in FIGS. 5 and 6 hardly change. However, the light originally projected from the lighting device 120 and the screen 130 should enter parallel to the image sensor as it is, but due to the gentle gradient 701, the light projected from the lighting device 120 and the screen 130 is parallel to each other. Since it does not enter the image sensor, the light undergoes a phase change. Therefore, by detecting the difference in the phase change of light from the surroundings and the like, it is possible to detect an abnormality due to a gentle gradient 701 as shown in FIG.

また、被検査体の表面形状(換言すれば、被検査体の法線ベクトルの分布)以外にも異常が生じる場合がある。図8は、第1の実施形態の時間相関カメラ110による、被検査体の異常の第3の検出例を示した図である。図8に示される例では、被検査体800に汚れ801が付着しているため、照明装置120から照射された光が吸収あるいは拡散反射し、時間相関カメラ110の、汚れ801を撮影している任意の画素領域では光がほとんど強度変化しない例を表している。換言すれば、汚れ801を撮影している任意の画素領域では、光強度は位相打ち消しを起こし振動成分がキャンセルされ、ほとんど直流的な明るさになる例を示している。 In addition, abnormalities may occur in addition to the surface shape of the object to be inspected (in other words, the distribution of the normal vector of the object to be inspected). FIG. 8 is a diagram showing a third detection example of an abnormality of the inspected object by the time correlation camera 110 of the first embodiment. In the example shown in FIG. 8, since the dirt 801 is attached to the object 800 to be inspected, the light emitted from the lighting device 120 is absorbed or diffusely reflected, and the dirt 801 of the time correlation camera 110 is photographed. It shows an example in which the intensity of light hardly changes in an arbitrary pixel region. In other words, in an arbitrary pixel region in which the dirt 801 is photographed, the light intensity causes phase cancellation, the vibration component is canceled, and the brightness becomes almost DC brightness.

このような場合、汚れ801を撮影している画素領域においては、光の振幅がほとんどないため、振幅画像データを表示した際に、周囲と比べて暗くなる領域が生じる。したがって、当該領域に対応する被検査体800の位置に、汚れ等の異常801があることを推定できる。 In such a case, since there is almost no amplitude of light in the pixel region in which the dirt 801 is photographed, when the amplitude image data is displayed, there is a region that is darker than the surroundings. Therefore, it can be estimated that there is an abnormality 801 such as dirt at the position of the inspected body 800 corresponding to the region.

このように、本実施形態では、時間相関画像データに基づいて、光の振幅の変化と、光の位相の変化と、を検出することで、被検査体に異常があることを推定できる。 As described above, in the present embodiment, it is possible to estimate that the object to be inspected has an abnormality by detecting the change in the amplitude of the light and the change in the phase of the light based on the time-correlated image data.

図1に戻り、PC100について説明する。PC100は、検出システム全体の制御を行う。PC100は、移動機構制御部101と、発光制御部102と、制御部103と、記憶部109と、を備える。記憶部109は、演算処理に用いられるデータや、演算処理結果等を記憶する。 Returning to FIG. 1, the PC 100 will be described. The PC 100 controls the entire detection system. The PC 100 includes a movement mechanism control unit 101, a light emission control unit 102, a control unit 103, and a storage unit 109. The storage unit 109 stores data used for arithmetic processing, arithmetic processing results, and the like.

移動機構制御部101は、被検査体150の時間相関カメラ110による撮像対象となる表面を変更するために、移動機構140を制御する。移動機構140は、例えば、ロボットアームである。本実施形態では、PC100において、被検査体150の撮影対象となる表面を複数設定しておく。そして、時間相関カメラ110が被検査体150の撮影が終了する毎に、移動機構制御部101が、当該設定に従って、時間相関カメラ110が設定された表面を撮影できるように、移動機構140が被検査体150を移動させる。なお、本実施形態は撮影が終了する毎に移動機構140を移動させ、撮影が開始する前に停止させることを繰り返すことに制限するものではなく、継続的に移動機構140を駆動させてもよい。なお、移動機構140は、搬送部、移動部、把持部、位置変更部、姿勢変更部等とも称されうる。 The moving mechanism control unit 101 controls the moving mechanism 140 in order to change the surface of the object to be inspected 150 to be imaged by the time correlation camera 110. The moving mechanism 140 is, for example, a robot arm. In the present embodiment, in the PC 100, a plurality of surfaces to be imaged of the object to be inspected 150 are set. Then, each time the time-correlation camera 110 finishes photographing the object to be inspected 150, the movement mechanism 140 is covered so that the movement mechanism control unit 101 can photograph the surface on which the time-correlation camera 110 is set according to the setting. The inspection body 150 is moved. The present embodiment is not limited to repeatedly moving the moving mechanism 140 each time the shooting is completed and stopping the moving mechanism 140 before the shooting starts, and the moving mechanism 140 may be continuously driven. .. The moving mechanism 140 may also be referred to as a transporting portion, a moving portion, a gripping portion, a position changing portion, a posture changing portion, or the like.

発光制御部102は、被検査体150を検査するために照明装置120が照射する縞パターンを出力する。本実施形態の発光制御部102は、少なくとも3枚以上の縞パターンを、照明装置120に受け渡し、当該縞パターンを露光時間中に切り替えて表示するように照明装置120に指示する。発光制御部102は、照明制御部とも称されうる。 The light emission control unit 102 outputs a fringe pattern irradiated by the lighting device 120 in order to inspect the object to be inspected 150. The light emission control unit 102 of the present embodiment delivers at least three or more striped patterns to the lighting device 120, and instructs the lighting device 120 to switch and display the striped patterns during the exposure time. The light emission control unit 102 may also be referred to as a lighting control unit.

図9は、発光制御部102が照明装置120に出力する縞パターンの例を示した図である。図9(B)に示す矩形波に従って、図9(A)に示す黒領域と白領域とが設定された縞パターンが出力されるように、発光制御部102が制御を行う。 FIG. 9 is a diagram showing an example of a fringe pattern output by the light emission control unit 102 to the lighting device 120. The light emission control unit 102 controls so that the fringe pattern in which the black region and the white region shown in FIG. 9A are set is output according to the rectangular wave shown in FIG. 9B.

本実施形態で照射する縞パターン毎の縞の間隔は、検出対象となる異常(欠陥)の大きさに応じて設定されるものとしてここでは詳しい説明を省略する。 The interval between the stripes for each stripe pattern to be irradiated in the present embodiment is set according to the size of the abnormality (defect) to be detected, and detailed description thereof will be omitted here.

また、縞パターンを出力するための矩形波の角周波数ωは、参照信号の角周波数ωと同じ値とする。 Further, the angular frequency ω of the square wave for outputting the fringe pattern is set to the same value as the angular frequency ω of the reference signal.

図9に示されるように、発光制御部102が出力する縞パターンは、矩形波として示すことができるが、スクリーン130(拡散部材)を介することで、縞パターンの境界領域をぼかす、すなわち、縞パターンにおける明領域(縞の領域)と暗領域(間隔の領域)との境界での光の強度変化を緩やかにする(鈍らせる)ことで、正弦波に近似させることができる。図10は、スクリーン130を介した後の縞パターンを表した波の形状の例を示した図である。図10に示されるように波の形状が、正弦波に近づくことで、計測精度を向上させることができる。また、縞に明度が多段階に変化するグレー領域を追加したり、グラデーションを与えたりしてもよい。また、カラーの縞を含む縞パターンを用いてもよい。 As shown in FIG. 9, the fringe pattern output by the light emission control unit 102 can be shown as a square wave, but the boundary region of the fringe pattern is blurred by passing through the screen 130 (diffusion member), that is, fringes. By slowing (blunting) the change in light intensity at the boundary between the bright region (striped region) and the dark region (interval region) in the pattern, it can be approximated to a sine wave. FIG. 10 is a diagram showing an example of the shape of a wave representing a striped pattern after passing through the screen 130. As shown in FIG. 10, when the shape of the wave approaches a sine wave, the measurement accuracy can be improved. In addition, a gray area in which the brightness changes in multiple stages may be added to the stripes, or a gradation may be given. Further, a fringe pattern including color fringes may be used.

図1に戻り、制御部103は、振幅−位相画像生成部104と、異常検出処理部105と、を備え、時間相関カメラ110から入力された強度画像データと、時間相関画像データと、により、被検査体150の検査面の法線ベクトルの分布と対応した特徴であって、周囲との違いによって異常を検出する特徴を算出するための処理を行う。なお、本実施形態は、検査を行うために、複素数で示した時間相関画像データ(複素時間相関画像データと称す)の代わりに、複素数相関画像データの実部と虚部とで分けた2種類の時間相関画像データを、時間相関カメラ110から受け取る。振幅−位相画像生成部104(制御部103)は、演算処理部の一例である。異常検出処理部105は、演算処理部および異常判別部の一例である。 Returning to FIG. 1, the control unit 103 includes an amplitude-phase image generation unit 104 and an abnormality detection processing unit 105, and is based on the intensity image data input from the time correlation camera 110 and the time correlation image data. A process is performed to calculate a feature that corresponds to the distribution of the normal vector of the inspection surface of the inspected object 150 and detects an abnormality due to a difference from the surroundings. In this embodiment, in order to perform the inspection, instead of the time correlation image data (referred to as complex time correlation image data) indicated by the complex number, two types of the complex number correlation image data are divided into a real part and an imaginary part. The time-correlated image data of the above is received from the time-correlated camera 110. The amplitude-phase image generation unit 104 (control unit 103) is an example of an arithmetic processing unit. The abnormality detection processing unit 105 is an example of an arithmetic processing unit and an abnormality determination unit.

振幅−位相画像生成部104は、時間相関カメラ110から入力された強度画像データと、時間相関画像データと、に基づいて、振幅画像データと、位相画像データと、を生成する。 The amplitude-phase image generation unit 104 generates amplitude image data and phase image data based on the intensity image data input from the time correlation camera 110 and the time correlation image data.

振幅画像データは、画素毎に入る光の振幅を表した画像データとする。位相画像データは、画素毎に入る光の位相を表した画像データとする。 The amplitude image data is image data representing the amplitude of light entering each pixel. The phase image data is image data representing the phase of light entering each pixel.

本実施形態は振幅画像データの算出手法を制限するものではないが、例えば、振幅−位相画像生成部104は、2種類の時間相関画像データの画素値C1(x,y)およびC2(x,y)から、式(8)を用いて、振幅画像データの各画素値F(x,y)を導き出せる。 The present embodiment does not limit the calculation method of the amplitude image data, but for example, the amplitude-phase image generation unit 104 has pixel values C1 (x, y) and C2 (x, y) of two types of time-correlation image data. From y), each pixel value F (x, y) of the amplitude image data can be derived using the equation (8).

Figure 0006909378
Figure 0006909378

そして、本実施形態では、振幅画像データの画素値(振幅)と、強度画像データの画素値と、に基づいて、異常が生じている領域があるか否かを判定できる。例えば、強度画像データの画素値(AT)を2で除算した値と、振幅画像データの振幅(打ち消し合いが生じない場合にはAT/2となる)と、がある程度一致する領域は異常が生じていないと推測できる。一方、一致していない領域については、振幅の打ち消し合いが生じていると推測できる。なお、具体的な手法については後述する。 Then, in the present embodiment, it is possible to determine whether or not there is an abnormality region based on the pixel value (amplitude) of the amplitude image data and the pixel value of the intensity image data. For example, an abnormality occurs in a region where the pixel value (AT) of the intensity image data divided by 2 and the amplitude of the amplitude image data (AT / 2 if there is no cancellation) match to some extent. I can guess that it is not. On the other hand, in the regions where they do not match, it can be inferred that the amplitudes cancel each other out. The specific method will be described later.

同様に、振幅−位相画像生成部104は、画素値C1(x,y)およびC2(x,y)から、式(9)を用いて、位相画像データの各画素値P(x,y)を導き出せる。 Similarly, the amplitude-phase image generation unit 104 uses the equation (9) from the pixel values C1 (x, y) and C2 (x, y) to obtain each pixel value P (x, y) of the phase image data. Can be derived.

Figure 0006909378
Figure 0006909378

異常検出処理部105は、振幅−位相画像生成部104により生成された振幅画像データ、および位相画像データにより、検査対象面の法線ベクトルの分布と対応した特徴であって、周囲との違いによって、被検査体150の異常に関連する特徴を検出する。本実施形態では、法線ベクトルの分布に対応した特徴として、複素時間相関画像の振幅の分布を用いた例について説明する。なお、複素時間相関画像の振幅の分布とは、複素時間相関画像の各画素の振幅の分布を示したデータであり、振幅画像データに相当する。 The abnormality detection processing unit 105 is a feature corresponding to the distribution of the normal vector of the surface to be inspected by the amplitude image data and the phase image data generated by the amplitude-phase image generation unit 104, and is different from the surroundings. , Detects anomalous features of the subject 150 to be inspected. In this embodiment, an example using the amplitude distribution of the complex time correlation image as a feature corresponding to the distribution of the normal vector will be described. The amplitude distribution of the complex time correlation image is data showing the amplitude distribution of each pixel of the complex time correlation image, and corresponds to the amplitude image data.

次に、本実施形態の異常検出処理部105における振幅に基づく異常検出処理について説明する。図11は、本実施形態の異常検出処理部105における当該処理の手順を示すフローチャートである。 Next, the abnormality detection processing based on the amplitude in the abnormality detection processing unit 105 of the present embodiment will be described. FIG. 11 is a flowchart showing the procedure of the processing in the abnormality detection processing unit 105 of the present embodiment.

まず、異常検出処理部105は、振幅画像データの各画素に格納された、光の振幅値(を表した画素値)から、当該画素を基準(例えば中心)として、N×N領域の平均振幅値を減算し(ステップS1101)、振幅の平均差分画像データを生成する。振幅の平均差分画像データは、振幅の勾配に対応する。なお、整数Nは実施の態様に応じて適切な値が設定されるものとする。 First, the abnormality detection processing unit 105 uses the amplitude value (representing pixel value) of light stored in each pixel of the amplitude image data as a reference (for example, the center) to mean the average amplitude in the N × N region. The value is subtracted (step S1101) to generate the average difference image data of the amplitude. The average difference image data of the amplitude corresponds to the gradient of the amplitude. It is assumed that an appropriate value of the integer N is set according to the embodiment.

次に、異常検出処理部105は、減算により生成された振幅の平均差分画像データに対して、予め定められた振幅の閾値を用いたマスク処理を行う(ステップS1102)。 Next, the abnormality detection processing unit 105 performs mask processing using a predetermined amplitude threshold value on the average difference image data of the amplitude generated by the subtraction (step S1102).

さらに、異常検出処理部105は、平均差分画像データのマスク領域内について画素毎に標準偏差を算出する(ステップS1103)。なお、本実施形態では、標準偏差に基づいた手法について説明するが、標準偏差を用いた場合に制限するものではなく、例えば平均値等を用いてもよい。 Further, the abnormality detection processing unit 105 calculates the standard deviation for each pixel in the mask area of the average difference image data (step S1103). In this embodiment, the method based on the standard deviation will be described, but the method is not limited to the case where the standard deviation is used, and for example, an average value or the like may be used.

そして、異常検出処理部105は、平均を引いた振幅画素値が−4.5σ(σ:標準偏差)より小さい値の画素を、異常(欠陥)がある領域として検出する(ステップS1104)。 Then, the abnormality detection processing unit 105 detects a pixel whose amplitude pixel value obtained by subtracting the average is smaller than −4.5σ (σ: standard deviation) as a region having an abnormality (defect) (step S1104).

上述した処理手順により、各画素の振幅値(換言すれば、振幅の分布)から、被検査体の異常を検出できる。しかしながら、本実施形態は、複素時間相関画像の振幅の分布から異常を検出することに制限するものではない。検査対象面の法線ベクトルの分布と対応した特徴として、位相の分布の勾配を用いてもよい。そこで、次に位相の分布の勾配を用いた例について説明する。 According to the processing procedure described above, the abnormality of the inspected object can be detected from the amplitude value of each pixel (in other words, the distribution of the amplitude). However, the present embodiment is not limited to detecting anomalies from the amplitude distribution of the complex time correlation image. As a feature corresponding to the distribution of the normal vector of the surface to be inspected, the gradient of the phase distribution may be used. Therefore, an example using the gradient of the phase distribution will be described next.

次に、本実施形態の異常検出処理部105における位相に基づく異常検出処理について説明する。図12は、本実施形態の異常検出処理部105における当該処理の手順を示すフローチャートである。 Next, the phase-based abnormality detection processing in the abnormality detection processing unit 105 of the present embodiment will be described. FIG. 12 is a flowchart showing the procedure of the processing in the abnormality detection processing unit 105 of the present embodiment.

まず、異常検出処理部105は、位相画像データの画素毎の光の位相値(を表した画素値)から、当該画素を基準(例えば中心)として、N×N領域の平均位相値を減算し(ステップS1201)、位相の平均差分画像データを生成する。位相の平均差分画像データは、位相の勾配に対応する。 First, the abnormality detection processing unit 105 subtracts the average phase value in the N × N region from the phase value (pixel value representing) of the light for each pixel of the phase image data with the pixel as a reference (for example, the center). (Step S1201), phase average difference image data is generated. The average difference image data of the phase corresponds to the gradient of the phase.

次に、異常検出処理部105は、減算により生成された位相の平均差分画像データの大きさ(絶対値)と、閾値とを比較し、平均差分画像データの大きさが閾値以上となる画素を、異常(欠陥)のある画素として検出する(ステップS1202)。 Next, the abnormality detection processing unit 105 compares the size (absolute value) of the average difference image data of the phase generated by the subtraction with the threshold value, and determines the pixels in which the size of the average difference image data is equal to or larger than the threshold value. , It is detected as a pixel having an abnormality (defect) (step S1202).

このS1202の検出結果により、異常検出処理部105は、平均差分画像データの正負、すなわち、画素の位相値と平均位相値との大小関係によって、凹凸を判別することができる(ステップS1203)。画素の位相値と平均位相値とのどちらが大きい場合に凸となるかは、各部の設定によって変化するが、大小関係が異なると、凹凸が異なる。 Based on the detection result of S1202, the abnormality detection processing unit 105 can determine the unevenness based on the positive / negative of the average difference image data, that is, the magnitude relationship between the phase value of the pixels and the average phase value (step S1203). Which of the pixel phase value and the average phase value is larger to be convex depends on the setting of each part, but if the magnitude relationship is different, the unevenness is different.

なお、他の手法によって得られた位相の分布の勾配から、異常を検出することができる。例えば、異常検出処理部105は、別の手法として、正規化された時間相関画像データのN×N領域の平均ベクトルと、正規化された各画素のベクトルとの差の大きさが、閾値よりも大きい場合に、異常(欠陥)がある画素として検出することができる。また、位相の分布の勾配に限られず、位相の分布に対応する情報に基づいて被検査体の異常を検出すればよい。 Anomalies can be detected from the gradient of the phase distribution obtained by another method. For example, in the abnormality detection processing unit 105, as another method, the magnitude of the difference between the average vector in the N × N region of the normalized time-correlated image data and the vector of each normalized pixel is larger than the threshold value. If it is also large, it can be detected as a pixel having an abnormality (defect). Further, the abnormality of the inspected object may be detected based on the information corresponding to the phase distribution, not limited to the gradient of the phase distribution.

次に、本実施形態の異常検出処理部105における振幅および強度に基づく異常検出処理について説明する。図13は、本実施形態の異常検出処理部105における当該処理の手順を示すフローチャートである。 Next, the abnormality detection processing based on the amplitude and the intensity in the abnormality detection processing unit 105 of the present embodiment will be described. FIG. 13 is a flowchart showing the procedure of the processing in the abnormality detection processing unit 105 of the present embodiment.

まず、異常検出処理部105は、時間相関画像データと強度画像データとから、各画素について、次の式(100)を用いて、振幅(を表す画素値)C(x,y)(式(7)参照)と強度(を表す画素値)G(x,y)(式(6)参照)との比R(x,y)を算出する(ステップS1301)。 First, the abnormality detection processing unit 105 uses the following equation (100) for each pixel from the time-correlation image data and the intensity image data, and the amplitude (pixel value representing) C (x, y) (formula (formula). The ratio R (x, y) of (see 7)) and the intensity (pixel value representing) G (x, y) (see equation (6)) is calculated (step S1301).

R(x,y)=C(x,y)/G(x,y)……(100) R (x, y) = C (x, y) / G (x, y) ... (100)

次に、異常検出処理部105は、比R(x,y)と閾値とを比較し、比R(x,y)の値が対応する閾値以下となる画素を、異常(欠陥)のある画素として検出する(ステップS1302)。また、異常検出処理部105は、比R(x,y)と閾値とを比較し、比R(x,y)の値が対応する別の閾値以上となる画素を、ムラ(汚れ等)のある画素として検出する(ステップS1303)。法線ベクトルの分布の異常により、振幅の打ち消し合い(減殺)が顕著となった場合には、強度に比べて振幅がより大きく下がる。一方、法線ベクトルの分布にはそれほどの異常は無いものの被検査体150の表面の汚れ等によって光の吸収が顕著となった場合には、振幅に比べて強度がより大きく下がる。よって、異常検出処理部105は、ステップS1302およびステップS1303による異常種別の検出が可能となる。 Next, the abnormality detection processing unit 105 compares the ratio R (x, y) with the threshold value, and selects pixels having a ratio R (x, y) value equal to or less than the corresponding threshold value as pixels having an abnormality (defect). (Step S1302). Further, the abnormality detection processing unit 105 compares the ratio R (x, y) with the threshold value, and determines that the pixel whose value of the ratio R (x, y) is equal to or larger than another corresponding threshold value is uneven (dirt, etc.). It is detected as a certain pixel (step S1303). When the amplitude cancellation (attenuation) becomes remarkable due to an abnormality in the distribution of the normal vector, the amplitude is much lower than the intensity. On the other hand, although the distribution of the normal vector is not so abnormal, when the light absorption becomes remarkable due to the dirt on the surface of the inspected object 150 or the like, the intensity is much lower than the amplitude. Therefore, the abnormality detection processing unit 105 can detect the abnormality type in steps S1302 and S1303.

次に、本実施形態の検査システムにおける被検査体の検査処理について説明する。図14は、本実施形態の検査システムにおける上述した処理の手順を示すフローチャートである。なお、被検査体150は、すでに移動機構140に固定された状態で、検査の初期位置に配置されているものとする。 Next, the inspection process of the object to be inspected in the inspection system of the present embodiment will be described. FIG. 14 is a flowchart showing the procedure of the above-described processing in the inspection system of the present embodiment. It is assumed that the inspected body 150 is already fixed to the moving mechanism 140 and is arranged at the initial position of the inspection.

本実施形態のPC100が、照明装置120に対して、被検査体を検査するための縞パターンを出力する(ステップS1401)。 The PC 100 of the present embodiment outputs a striped pattern for inspecting the object to be inspected to the lighting device 120 (step S1401).

照明装置120は、PC100から入力された縞パターンを格納する(ステップS1421)。そして、照明装置120は、格納された縞パターンを、時間遷移に従って変化するように表示する(ステップS1422)。なお、照明装置120が表示を開始する条件は、縞パターンが格納された際に制限するものではなく、例えば検査者が照明装置120に対して開始操作を行った際でもよい。 The lighting device 120 stores the striped pattern input from the PC 100 (step S1421). Then, the lighting device 120 displays the stored fringe pattern so as to change according to the time transition (step S1422). The condition for the lighting device 120 to start the display is not limited to the time when the striped pattern is stored, and may be, for example, when the inspector performs a start operation on the lighting device 120.

そして、PC100の制御部103が、時間相関カメラ110に対して、撮影の開始指示を送信する(ステップS1402)。 Then, the control unit 103 of the PC 100 transmits a shooting start instruction to the time correlation camera 110 (step S1402).

次に、時間相関カメラ110が、送信されてきた撮影指示に従って、被検査体150を含む領域について撮像を開始する(ステップS1411)。次に、時間相関カメラ110の制御部240が、強度画像データと、時間相関画像データと、を生成する(ステップS1412)。そして、時間相関カメラ110の制御部240が、強度画像データと、時間相関画像データと、を、PC100に出力する(ステップS1413)。 Next, the time-correlated camera 110 starts imaging the region including the inspected object 150 according to the transmitted imaging instruction (step S1411). Next, the control unit 240 of the time correlation camera 110 generates intensity image data and time correlation image data (step S1412). Then, the control unit 240 of the time correlation camera 110 outputs the intensity image data and the time correlation image data to the PC 100 (step S1413).

PC100の制御部103は、強度画像データと、時間相関画像データと、を受け取る(ステップS1403)。そして、振幅−位相画像生成部104は、受け取った強度画像データと時間相関画像データとから、振幅画像データと、位相画像データとを生成する(ステップS1404)。 The control unit 103 of the PC 100 receives the intensity image data and the time-correlated image data (step S1403). Then, the amplitude-phase image generation unit 104 generates the amplitude image data and the phase image data from the received intensity image data and the time correlation image data (step S1404).

そして、異常検出処理部105が、振幅画像データと、位相画像データとに基づいて、被検査体の異常検出制御を行う(ステップS1405)。そして、異常検出処理部105は、異常検出結果を、PC100が備える(図示しない)表示装置に出力する(ステップS1406)。 Then, the abnormality detection processing unit 105 performs abnormality detection control of the inspected object based on the amplitude image data and the phase image data (step S1405). Then, the abnormality detection processing unit 105 outputs the abnormality detection result to a display device (not shown) included in the PC 100 (step S1406).

異常検出結果の出力例としては、強度画像データを表示するとともに、振幅画像データと位相画像データとに基づいて異常が検出された領域に対応する、強度画像データの領域を、検査者が異常を認識できるように装飾表示するなどが考えられる。また、視覚に基づく出力に制限するものではなく、音声等で異常が検出されたことを出力してもよい。 As an output example of the abnormality detection result, the inspector displays an abnormality in the intensity image data area corresponding to the area in which the abnormality is detected based on the amplitude image data and the phase image data while displaying the intensity image data. It is conceivable to display decorations so that they can be recognized. Further, the output is not limited to the output based on the visual sense, and it may be output that an abnormality is detected by voice or the like.

制御部103は、当該被検査体の検査が終了したか否かを判定する(ステップS1407)。検査が終了していないと判定した場合(ステップS1407:No)、移動機構制御部101が、予め定められた設定に従って、次の検査対象となる被検査体の表面が、時間相関カメラ110で撮影できるように、アームの移動制御を行う(ステップS1408)。アームの移動制御が終了した後、制御部103が、再び時間相関カメラ110に対して、撮影の開始指示を送信する(ステップS1402)。 The control unit 103 determines whether or not the inspection of the object to be inspected has been completed (step S1407). When it is determined that the inspection has not been completed (step S1407: No), the moving mechanism control unit 101 photographs the surface of the object to be inspected next with the time correlation camera 110 according to a predetermined setting. The movement of the arm is controlled so as to be possible (step S1408). After the movement control of the arm is completed, the control unit 103 again transmits a shooting start instruction to the time correlation camera 110 (step S1402).

一方、制御部103は、当該被検査体の検査が終了したと判定した場合(ステップS1407:Yes)、終了指示を時間相関カメラ110に対して出力し(ステップS1409)、処理を終了する。 On the other hand, when the control unit 103 determines that the inspection of the object to be inspected has been completed (step S1407: Yes), the control unit 103 outputs an end instruction to the time correlation camera 110 (step S1409), and ends the process.

そして、時間相関カメラ110は、終了指示を受け付けたか否かを判定する(ステップS1414)。終了指示を受け付けていない場合(ステップS1414:No)、再びステップS1411から処理を行う。一方、終了指示を受け付けた場合(ステップS1414:Yes)、処理を終了する。 Then, the time correlation camera 110 determines whether or not the end instruction has been accepted (step S1414). If the end instruction is not accepted (step S1414: No), the process is performed again from step S1411. On the other hand, when the end instruction is received (step S1414: Yes), the process ends.

なお、照明装置120の終了処理は、検査者が行ってもよいし、他の構成からの指示に従って終了してもよい。 The termination process of the lighting device 120 may be performed by the inspector or may be terminated according to an instruction from another configuration.

また、本実施形態では、時間相関カメラ110を用いて生成された強度画像データと、時間相関画像データと、を生成する例について説明した。しかしながら、強度画像データと、時間相関画像データと、を生成するために時間相関カメラ110を用いることに制限するものではなく、アナログ的な処理で実現可能な時間相関カメラや、それと等価な動作をする撮像システムを用いてもよい。例えば、通常のデジタルスチルカメラが生成した画像データを出力し、情報処理装置が、デジタルスチルカメラが生成した画像データを、フレーム画像データとして用いて参照信号を重畳することで、時間相関画像データを生成してもよいし、イメージセンサ内で光強度信号に参照信号を重畳するようなデジタルカメラを用いて、時間相関画像データを生成してもよい。 Further, in the present embodiment, an example of generating the intensity image data generated by using the time correlation camera 110 and the time correlation image data has been described. However, it is not limited to using the time-correlation camera 110 to generate the intensity image data and the time-correlation image data, and a time-correlation camera that can be realized by analog processing and an operation equivalent thereto can be used. An imaging system may be used. For example, the image data generated by a normal digital still camera is output, and the information processing apparatus uses the image data generated by the digital still camera as frame image data and superimposes a reference signal to obtain time-correlated image data. It may be generated, or time-correlated image data may be generated by using a digital camera that superimposes a reference signal on the light intensity signal in the image sensor.

(変形例1)
本実施形態では、周囲との違いに基づいて、異常に関連する特徴を検出する例について説明したが、周囲との違いに基づいて当該特徴を検出することに制限するものではなく、参照形状のデータ(参照データ、例えば、時間相関データや、振幅画像データ、位相画像データ等)との差異に基づいて当該特徴を検出してもよい。この場合、参照データの場合とで、空間位相変調照明(縞パターン)の位置合わせおよび同期が必要となる。
(Modification example 1)
In the present embodiment, an example of detecting a feature related to an abnormality based on the difference from the surroundings has been described, but the feature is not limited to the detection based on the difference from the surroundings, and the reference shape is used. The feature may be detected based on the difference from the data (reference data, for example, time correlation data, amplitude image data, phase image data, etc.). In this case, it is necessary to align and synchronize the spatial phase modulation illumination (striped pattern) with the case of the reference data.

本変形例では、異常検出処理部105が、予め記憶部109に記憶された、参照表面から得られた振幅画像データおよび位相画像データと、被検査体150の振幅画像データおよび位相画像データと、を比較し、被検査体150の表面と参照表面との間で、光の振幅および光の位相とのうちいずれか一つ以上について所定の基準以上の違いがあるか否かを判定する。 In this modification, the abnormality detection processing unit 105 contains the amplitude image data and the phase image data obtained from the reference surface, which are stored in the storage unit 109 in advance, and the amplitude image data and the phase image data of the inspected object 150. Is compared, and it is determined whether or not there is a difference of a predetermined reference or more with respect to any one or more of the amplitude of light and the phase of light between the surface of the object to be inspected 150 and the reference surface.

本変形例は、第1の実施形態と同じ構成の検査システムを用い、参照表面として正常な被検査体の表面を用いる例とする。 In this modification, an inspection system having the same configuration as that of the first embodiment is used, and a normal surface of the object to be inspected is used as a reference surface.

照明装置120がスクリーン130を介してパターンを照射している間に、時間相関カメラ110が、正常な被検査体の表面を撮像し、時間相関画像データを生成する。そして、PC100が、時間相関カメラ110で生成された時間相関画像データを入力し、振幅画像データおよび位相画像データを生成し、PC100の記憶部109に振幅画像データおよび位相画像データを記憶させておく。そして、時間相関カメラ110が、異常が生じているか否かを判定したい被検査体を撮像し、時間相関画像データを生成する。そして、PC100が、時間相関画像データから、振幅画像データおよび位相画像データを生成した後、記憶部109に記憶されていた、正常な被検査体の振幅画像データおよび位相画像データと比較する。その際に、正常な被検査体の振幅画像データおよび位相画像データと、検査対象の被検査体の振幅画像データおよび位相画像データと、の比較結果を、異常を検出する特徴を示したデータとして出力する。そして、異常を検出する特徴が、当該所定の基準以上の場合に、被検査体150に対して異常があると推測できる。 While the illuminating device 120 illuminates the pattern through the screen 130, the time-correlated camera 110 images the surface of a normal subject to be inspected and generates time-correlated image data. Then, the PC 100 inputs the time correlation image data generated by the time correlation camera 110, generates the amplitude image data and the phase image data, and stores the amplitude image data and the phase image data in the storage unit 109 of the PC 100. .. Then, the time correlation camera 110 takes an image of the object to be inspected for which it is desired to determine whether or not an abnormality has occurred, and generates time correlation image data. Then, the PC 100 generates the amplitude image data and the phase image data from the time-correlation image data, and then compares the amplitude image data and the phase image data of the normal inspected object stored in the storage unit 109. At that time, the comparison result between the amplitude image data and the phase image data of the normal inspected object and the amplitude image data and the phase image data of the inspected object to be inspected is used as data showing the feature of detecting an abnormality. Output. Then, when the feature for detecting the abnormality is equal to or higher than the predetermined standard, it can be inferred that there is an abnormality in the object to be inspected 150.

これにより、本変形例では、正常な被検査体の表面と差異が生じているか否かを、換言すれば、被検査体の表面に異常が生じているか否かを判定できる。なお、振幅画像データおよび位相画像データの比較手法は、どのような手法を用いてもよいので、説明を省略する。 Thereby, in this modified example, it can be determined whether or not there is a difference from the surface of the normal object to be inspected, in other words, whether or not an abnormality has occurred on the surface of the object to be inspected. Since any method may be used as the method for comparing the amplitude image data and the phase image data, the description thereof will be omitted.

さらに、本変形例では参照表面との違いに基づいて、異常を検出する特徴を示したデータを出力する例について説明したが、参照表面との違いと、第1の実施形態で示した周囲との違いと、を組み合わせて、異常を検出する特徴を算出してもよい。組み合わせる手法は、どのような手法を用いてもよいので、説明を省略する。 Further, in this modification, an example of outputting data showing the characteristics of detecting anomalies based on the difference from the reference surface has been described, but the difference from the reference surface and the surroundings shown in the first embodiment have been described. May be combined with the difference in the above to calculate the characteristics for detecting anomalies. Any method may be used for the combination method, and the description thereof will be omitted.

(変形例2)
第1の実施形態では、x方向に縞パターンを動かして、被検査体の異常(欠陥)を検出する例について説明した。しかしながら、x方向に垂直なy方向で急峻に法線の分布が変化する異常(欠陥)が被検査体に生じている場合、x方向に縞パターンを動かすよりも、y方向に縞パターンを動かす方が欠陥の検出が容易になる場合がある。そこで、変形例では、x方向に移動する縞パターンと、y方向に移動する縞パターンとを、交互に切り替える例について説明する。
(Modification 2)
In the first embodiment, an example in which an abnormality (defect) of an inspected object is detected by moving a stripe pattern in the x direction has been described. However, when an abnormality (defect) in which the distribution of normals changes sharply in the y direction perpendicular to the x direction occurs in the inspected object, the fringe pattern is moved in the y direction rather than the fringe pattern is moved in the x direction. It may be easier to detect defects. Therefore, in the modified example, an example in which the fringe pattern moving in the x direction and the fringe pattern moving in the y direction are alternately switched will be described.

本変形例の発光制御部102は、所定の時間間隔毎に、照明装置120に出力する縞パターンを切り替える。これにより、照明装置120は、一つの検査面に対して、異なる方向に延びた複数の縞パターンを出力する。 The light emission control unit 102 of this modification switches the fringe pattern to be output to the lighting device 120 at predetermined time intervals. As a result, the lighting device 120 outputs a plurality of striped patterns extending in different directions on one inspection surface.

図15は、本変形例の発光制御部102が出力する縞パターンの切り替え例を示した図である。図15の(A)では、発光制御部102は、照明装置120が表示する縞パターンをx方向に遷移させる。その後、(B)に示されるように、発光制御部102は、照明装置120が表示する縞パターンをy方向に遷移させる。 FIG. 15 is a diagram showing an example of switching the fringe pattern output by the light emission control unit 102 of this modified example. In FIG. 15A, the light emission control unit 102 shifts the fringe pattern displayed by the lighting device 120 in the x direction. After that, as shown in (B), the light emission control unit 102 shifts the fringe pattern displayed by the lighting device 120 in the y direction.

そして、PC100の制御部103は、図15の(A)の縞パターン照射から得られた時間相関画像データに基づいて、異常検出を行い、図15の(B)の縞パターン照射から得られた時間相関画像データに基づいて、異常検出を行う。 Then, the control unit 103 of the PC 100 performs abnormality detection based on the time correlation image data obtained from the stripe pattern irradiation of FIG. 15 (A), and is obtained from the stripe pattern irradiation of FIG. 15 (B). Anomaly detection is performed based on the time-correlated image data.

図16は、本変形例の発光制御部102が、異常(欠陥)1601を含めた表面に縞パターンを照射した例を示した図である。図16に示す例では、異常(欠陥)1601が、x方向に延びている。この場合、発光制御部102は、x方向に交差するy方向、換言すれば異常(欠陥)1601の長手方向に交差する方向に縞パターンが移動するように設定する。当該設定により、検出精度を向上させることができる。 FIG. 16 is a diagram showing an example in which the light emission control unit 102 of this modified example irradiates the surface including the abnormality (defect) 1601 with a striped pattern. In the example shown in FIG. 16, the abnormality (defect) 1601 extends in the x direction. In this case, the light emission control unit 102 is set so that the fringe pattern moves in the y direction intersecting in the x direction, in other words, in the direction intersecting the longitudinal direction of the abnormality (defect) 1601. With this setting, the detection accuracy can be improved.

図17は、y方向、換言すれば欠陥1701の長手方向に直交する方向に縞パターンを変化させた場合における、異常(欠陥)1701と照明装置120上の縞パターンの関係を示した図である。図17に示されるように、y方向に幅が狭く、且つ当該y方向に交差するx方向を長手方向とする異常(欠陥)1701が生じている場合、照明装置120から照射された光は、x方向に交差するy方向で光の振幅の打ち消しが大きくなる。このため、PC100では、y方向に移動させた縞パターンに対応する振幅画像データから、当該異常(欠陥)を検出できる。 FIG. 17 is a diagram showing the relationship between the abnormality (defect) 1701 and the fringe pattern on the lighting device 120 when the fringe pattern is changed in the y direction, in other words, in the direction orthogonal to the longitudinal direction of the defect 1701. .. As shown in FIG. 17, when the width is narrow in the y direction and an abnormality (defect) 1701 having the x direction intersecting the y direction as the longitudinal direction occurs, the light emitted from the illuminating device 120 is emitted. The cancellation of the amplitude of light increases in the y direction intersecting the x direction. Therefore, the PC 100 can detect the abnormality (defect) from the amplitude image data corresponding to the fringe pattern moved in the y direction.

本変形例の検査システムにおいて、被検査体に生じる欠陥の長手方向がランダムな場合には、複数方向(例えば、x方向、および当該x方向に交差するy方向等)で縞パターンを表示することで、欠陥の形状を問わずに当該欠陥の検出が可能となり、異常(欠陥)の検出精度を向上させることができる。また、異常の形状に合わせた縞パターンを投影することで、異常の検出精度を向上させることができる。 In the inspection system of this modified example, when the longitudinal direction of the defect occurring in the inspected object is random, the stripe pattern is displayed in a plurality of directions (for example, the x direction and the y direction intersecting the x direction). Therefore, the defect can be detected regardless of the shape of the defect, and the accuracy of detecting an abnormality (defect) can be improved. Further, by projecting a fringe pattern that matches the shape of the abnormality, the accuracy of detecting the abnormality can be improved.

(変形例3)
また、上述した変形例2は、x方向の異常検出と、y方向の異常検出と、を行う際に、縞パターンを切り替える手法に制限するものでない。そこで、変形例3では、発光制御部102が照明装置120に出力する縞パターンをx方向およびy方向に同時に動かす例について説明する。
(Modification example 3)
Further, the above-described modification 2 is not limited to the method of switching the fringe pattern when performing the abnormality detection in the x direction and the abnormality detection in the y direction. Therefore, in the third modification, an example in which the light emission control unit 102 simultaneously moves the fringe pattern output to the lighting device 120 in the x-direction and the y-direction will be described.

図18は、本変形例の発光制御部102が照明装置120に出力する縞パターンの例を示した図である。図18に示される例では、発光制御部102が縞パターンを、方向1801に移動させる。 FIG. 18 is a diagram showing an example of a fringe pattern output to the lighting device 120 by the light emission control unit 102 of this modified example. In the example shown in FIG. 18, the light emission control unit 102 moves the fringe pattern in the direction 1801.

図18に示される縞パターンは、x方向では1周期1802の縞パターンを含み、y方向では一周期1803の縞パターンを含んでいる。つまり、図18に示される縞パターンは、幅が異なる交差する方向に延びた複数の縞を有している。なお、x方向の縞パターンの幅と、y方向の縞パターンの幅と、を異ならせる必要がある。これにより、x方向に対応する時間相関画像データと、y方向に対応する時間相関画像データと、を生成する際に、対応する参照信号を異ならせることができる。なお、縞パターンによる光の強度の変化の周期(周波数)が変化すればよいので、縞の幅を変化させるのに代えて、縞パターン(縞)の移動速度を変化させてもよい。 The fringe pattern shown in FIG. 18 includes a fringe pattern with one cycle of 1802 in the x direction and a fringe pattern with one cycle of 1803 in the y direction. That is, the fringe pattern shown in FIG. 18 has a plurality of fringes having different widths and extending in intersecting directions. It is necessary to make the width of the stripe pattern in the x direction different from the width of the stripe pattern in the y direction. Thereby, when the time-correlated image data corresponding to the x direction and the time-correlated image data corresponding to the y direction are generated, the corresponding reference signals can be made different. Since the cycle (frequency) of the change in light intensity due to the fringe pattern may be changed, the moving speed of the fringe pattern (strip) may be changed instead of changing the width of the fringe.

そして、時間相関カメラ110が、x方向の縞パターンに対応する参照信号に基づいて、x方向の縞パターンに対応する時間相関画像データを生成し、y方向の縞パターンに対応する参照信号に基づいて、y方向の縞パターンに対応する時間相関画像データを生成する。その後、PC100の制御部103は、x方向の縞パターンに対応する時間相関画像データに基づいて、異常検出を行った後、y方向の縞パターンに対応する時間相関画像データに基づいて、異常検出を行う。これにより、本変形例では、欠陥の生じた方向を問わずに検出が可能となり、異常(欠陥)の検出精度を向上させることができる。 Then, the time correlation camera 110 generates time-correlation image data corresponding to the fringe pattern in the x direction based on the reference signal corresponding to the fringe pattern in the x direction, and is based on the reference signal corresponding to the fringe pattern in the y direction. The time-correlated image data corresponding to the fringe pattern in the y direction is generated. After that, the control unit 103 of the PC 100 performs abnormality detection based on the time-correlation image data corresponding to the fringe pattern in the x direction, and then detects the abnormality based on the time-correlation image data corresponding to the fringe pattern in the y direction. I do. As a result, in this modified example, detection can be performed regardless of the direction in which the defect has occurred, and the accuracy of detecting an abnormality (defect) can be improved.

<位相逆行に基づく異常判定(1)>
図19は、異常検出処理部105のブロック図、図20は、形状の変化が比較的緩やかな異常領域Aaを含むサンプルの側面図、図21は、異常領域Aaの近傍における位相の変化を示す図、図22は、位相の逆行についての説明図である。
<Abnormality judgment based on phase reversal (1)>
FIG. 19 is a block diagram of the abnormality detection processing unit 105, FIG. 20 is a side view of a sample including an abnormality region Aa in which the shape change is relatively gradual, and FIG. 21 shows a phase change in the vicinity of the abnormality region Aa. FIG. 22 is an explanatory diagram for reversing the phase.

図19に示されるように、異常検出処理部105は、位相微分値算出部105a、位相逆行領域検出部105b、および異常判別部105cを有する。位相微分値算出部105aおよび位相逆行領域検出部105bは、演算処理部の一例である。 As shown in FIG. 19, the abnormality detection processing unit 105 includes a phase differential value calculation unit 105a, a phase retrograde region detection unit 105b, and an abnormality determination unit 105c. The phase differential value calculation unit 105a and the phase retrograde region detection unit 105b are examples of arithmetic processing units.

位相微分値算出部105aは、各画素における位相の方向微分値を算出する。方向微分値は、画像平面に沿った方向、例えば、x方向およびy方向のそれぞれの、方向微分値である。方向微分値は、隣接画素の位相差に基づいて算出することができ、隣接画素の位相差は、例えば、振幅および位相で定まる各画素の複素数(複素輝度値)の除算に基づいて算出することができる。 The phase differential value calculation unit 105a calculates the directional differential value of the phase in each pixel. The directional derivative is the directional derivative in each of the directions along the image plane, for example, the x-direction and the y-direction. The directional derivative can be calculated based on the phase difference of adjacent pixels, and the phase difference of adjacent pixels is calculated, for example, based on the division of the complex number (complex luminance value) of each pixel determined by the amplitude and phase. Can be done.

位相逆行領域検出部105bは、画像平面に沿った方向に向けて位相が逆行する位相逆行領域を検出する。位相逆行領域とは、正常領域(一般領域)とは逆向きに位相が増加する領域である。正常領域は、検出対象とする異常が確認されない領域である。 The phase retrograde region detection unit 105b detects a phase retrograde region in which the phase reverses in the direction along the image plane. The phase retrograde region is a region in which the phase increases in the direction opposite to the normal region (general region). The normal area is an area in which the abnormality to be detected is not confirmed.

位相逆行領域は、図20に示されるような、形状の変化が比較的緩やかな異常領域Aaと正常領域Anとの境界近傍に出現することがある。よって、位相逆行領域を検出することにより、異常領域Aaを特定することが可能となる。形状が急変する部分では、位相が逆行する領域は狭くなる(あるいは短くなる)。したがって、位相逆行領域の検出は、形状の変化が比較的緩やかな異常領域Aa、例えば、塗装時に塗料の滴が溜まったこと等による緩やかな膨らみや、緩やかな凹み等の検出に、適している。 The phase-reverse region may appear near the boundary between the abnormal region Aa and the normal region An, as shown in FIG. 20, in which the shape changes relatively slowly. Therefore, it is possible to identify the abnormal region Aa by detecting the phase reversal region. In the part where the shape changes suddenly, the region where the phase is reversed becomes narrower (or shorter). Therefore, the detection of the phase reversal region is suitable for detecting an abnormal region Aa in which the shape change is relatively gradual, for example, a gradual swelling due to accumulation of paint droplets during painting, a gradual dent, or the like. ..

図21の例では、位相順行領域Apでは、x方向に向かうにつれて各画素の位相φが増加するのに対して、位相逆行領域Arでは、x方向に向かうにつれて各画素の位相φが減少する。なお、位相φの範囲は、−πから+πまでに限定されているため、位相が増加している領域では、位相は+πに到達した時点で−πにスキップし、位相が減少している領域では、位相は−πに到達した位置で+πにスキップしている。図21に示されるように、位相順行領域Apにおける位相φの画像平面に沿ったx方向の方向微分値の符号は+(正)であるのに対し、位相逆行領域Arにおける位相φのx方向の方向微分値の符号は−(負)である。すなわち、位相逆行領域Arは、その位相φの方向微分値の符号(図22では−)が、位相順行領域Apの位相φの方向微分値の符号(図22では+)と異なる領域である。 In the example of FIG. 21, in the phase forward region Ap, the phase φ of each pixel increases toward the x direction, whereas in the phase retrograde region Ar, the phase φ of each pixel decreases toward the x direction. .. Since the range of phase φ is limited to −π to + π, in the region where the phase is increasing, the phase skips to −π when it reaches + π, and the phase is decreasing. Then, the phase skips to + π at the position where it reaches −π. As shown in FIG. 21, the sign of the directional differential value in the x direction along the image plane of the phase φ in the phase forward region Ap is + (positive), whereas the x of the phase φ in the phase retrograde region Ar is x. The sign of the directional differential value of the direction is- (negative). That is, the phase retrograde region Ar is a region in which the sign of the directional differential value of the phase φ (− in FIG. 22) is different from the sign of the directional differential value of the phase φ of the phase forward region Ap (+ in FIG. 22). ..

図22に示されるように、検査面がx方向に向かうにつれて緩やかに上る場合、すなわち、検査面のx方向の勾配が徐々に大きくなる場合、点1から点7にかけてはx方向に向かうにつれて位相は増大するが、点7と点8との間の位置から位相が逆行を開始し、点8から点11にかけてはx方向に向かうにつれて位相が減少する。また、点11と点12との間の位置から位相は順行に戻り、点12から点14にかけてはx方向に向かうにつれて位相が増大する。この場合、点1と点7との間の領域、および点12と点14との間の領域が位相順行領域Apであり、点8と点11との間の領域が位相逆行領域Arとなる。 As shown in FIG. 22, when the inspection surface gradually rises toward the x direction, that is, when the gradient of the inspection surface in the x direction gradually increases, the phase from point 1 to point 7 increases toward the x direction. However, the phase starts to reverse from the position between the points 7 and 8, and decreases from the point 8 to the point 11 in the x direction. Further, the phase returns to the forward direction from the position between the points 11 and 12, and the phase increases from the point 12 to the point 14 in the x direction. In this case, the region between the points 1 and 7 and the region between the points 12 and 14 is the phase forward region Ap, and the region between the points 8 and 11 is the phase retrograde region Ar. Become.

位相逆行領域検出部105bは、位相の方向微分値の符号によって各画素をグルーピングおよびラベリングすることにより、位相順行領域Apおよび位相逆行領域Arを検出する。すなわち、位相逆行領域検出部105bは、互いに隣接する複数の画素について位相の方向微分値の符号が同一であった場合に、当該複数の画素を、当該符号に基づいて、位相順行領域Apまたは位相逆行領域Arとする。なお、位相逆行領域検出部105bは、例えば、膨張や、収縮、オープニング、クロージング等のモフォロジー処理を施してもよい。また、位相逆行領域検出部105bは、位相順行領域検出部とも称されうる。 The phase retrograde region detection unit 105b detects the phase retrograde region Ap and the phase retrograde region Ar by grouping and labeling each pixel according to the sign of the directional derivative value of the phase. That is, when the phase retrograde region detection unit 105b has the same sign of the directional differential value of the phase for a plurality of pixels adjacent to each other, the phase retrograde region Ap or the phase forward region Ap or Let the phase retrograde region Ar be. The phase reversal region detection unit 105b may be subjected to morphology processing such as expansion, contraction, opening, and closing, for example. Further, the phase retrograde region detection unit 105b can also be referred to as a phase retrograde region detection unit.

異常判別部105cは、位相逆行領域検出部105bによる検出結果に基づいて、異常領域Aaを判別する。 The abnormality determination unit 105c determines the abnormality region Aa based on the detection result by the phase reversal region detection unit 105b.

具体的には、異常判別部105cは、例えば、位相逆行領域Arの少なくとも一部が対象領域M(図20,23,25参照)内に位置されていた場合であって、当該位相逆行領域Arの広さ(含まれる画素数)が所定の範囲内である場合に、当該位相逆行領域Arを異常領域Aaと判別することができる。対象領域Mは、所定の領域の一例である。また、広さが所定の範囲内にあるとは、広さが第一の閾値よりも大きくかつ第二の閾値よりも小さいことを意味する。この場合、第一の閾値は、例えば、検出対象としない微少な凹凸等の異常と区別するために設定されうる。また、第二の閾値は、例えば、典型的な異常領域Aaの大きさに基づいて経験的に設定されうる。 Specifically, the abnormality determination unit 105c is, for example, a case where at least a part of the phase retrograde region Ar is located in the target region M (see FIGS. 20, 23, 25), and the phase retrograde region Ar is the case. When the area (the number of pixels included) is within a predetermined range, the phase reversal region Ar can be determined as the abnormal region Aa. The target area M is an example of a predetermined area. Further, when the width is within a predetermined range, it means that the width is larger than the first threshold value and smaller than the second threshold value. In this case, the first threshold value can be set to distinguish from abnormalities such as minute irregularities that are not to be detected, for example. Also, the second threshold can be set empirically, for example, based on the size of a typical anomalous region Aa.

また、異常判別部105cは、例えば、位相順行領域Apが、異常領域Aaと判別された二つの位相逆行領域Arに挟まれていた場合や、異常領域Aaと判別された位相逆行領域Arに囲まれていた場合、異常領域Aaと判別された位相逆行領域Arと隣接していた場合等であって、当該位相順行領域Apの広さが第三の閾値よりも小さい場合には、当該位相順行領域Apを異常領域Aaと判別することができる。位相逆行領域Arは、形状の変化が比較的緩やかな異常領域Aaと正常領域Anとの境界近傍に出現するため、このような条件を満たす位相順行領域Apは、異常領域Aaと推定されうる。第三の閾値は、例えば、典型的な異常領域Aaの大きさに基づいて経験的に設定されうる。 Further, in the abnormality determination unit 105c, for example, when the phase forward region Ap is sandwiched between two phase retrograde regions Ar determined to be the abnormal region Aa, or in the phase retrograde region Ar determined to be the abnormal region Aa. When it is surrounded, when it is adjacent to the phase retrograde region Ar determined to be the abnormal region Aa, and when the width of the phase forward region Ap is smaller than the third threshold value, the relevant case is concerned. The phase forward region Ap can be determined as the abnormal region Aa. Since the phase retrograde region Ar appears near the boundary between the abnormal region Aa and the normal region An whose shape changes relatively slowly, the phase forward region Ap satisfying such a condition can be presumed to be the abnormal region Aa. .. The third threshold can be set empirically, for example, based on the size of a typical anomalous region Aa.

さらに、異常判別部105cは、位相逆行領域Arの振幅の代表値(例えば、平均値)が第四の閾値よりも小さい場合に、当該位相逆行領域Arを異常領域Aaと判別することができる。第四の閾値は、例えば、典型的な異常領域Aaの振幅に基づいて設定されてもよいし、異常領域Aaの周囲の正常領域の振幅に対する比率等で設定されてもよい。第四の閾値は、所定の値の一例である。 Further, the anomaly determination unit 105c can determine the phase retrograde region Ar as the anomaly region Aa when the representative value (for example, the average value) of the amplitude of the phase retrograde region Ar is smaller than the fourth threshold value. The fourth threshold value may be set based on, for example, the amplitude of a typical abnormal region Aa, or may be set as a ratio to the amplitude of a normal region around the abnormal region Aa. The fourth threshold is an example of a predetermined value.

<位相逆行に基づく異常判定(2)>
また、位相逆行領域検出部105bは、時間相関画像の空間周波数領域における周波数フィルタリングに基づいて、位相逆行領域Arを検出してもよい。具体的には、位相逆行領域検出部105bは、(1)複素時間相関画像に対して、x方向およびy方向についての2次元フーリエ変換(離散フーリエ変換、高速フーリエ変換)を実行し、(2)空間周波数領域において、周波数の符号が+(正)または−(負)の周波数領域を抽出し、(3)当該抽出した周波数領域について2次元逆フーリエ変換(逆離散フーリエ変換、逆高速フーリエ変換)を実行することにより、周波数フィルタリングされた時間相関画像を得る。位相の方向微分値の符号が+(正)である場合、周波数の符号は+(正)となり、位相の方向微分値の符号が−(負)である場合、周波数の符号は−(負)となる。よって、このような手法により、より容易にあるいはより確実に、位相逆行領域Arを検出することができる。
<Abnormality judgment based on phase reversal (2)>
Further, the phase retrograde region detection unit 105b may detect the phase retrograde region Ar based on the frequency filtering in the spatial frequency region of the time-correlated image. Specifically, the phase retrograde domain detection unit 105b executes (1) a two-dimensional Fourier transform (discrete Fourier transform, fast Fourier transform) in the x-direction and the y-direction on the complex time correlation image, and (2) ) In the spatial frequency domain, the frequency domain whose frequency code is + (positive) or-(negative) is extracted, and (3) two-dimensional inverse Fourier transform (inverse discrete Fourier transform, inverse fast Fourier transform) for the extracted frequency domain. ) To obtain a frequency-filtered time-correlated image. When the sign of the directional derivative of the phase is + (positive), the sign of the frequency is + (positive), and when the sign of the directional derivative of the phase is- (negative), the sign of the frequency is- (negative). It becomes. Therefore, by such a method, the phase reversal region Ar can be detected more easily or more reliably.

図23〜25は、空間周波数領域における周波数フィルタリングによる位相逆行領域Arの検出の、検証結果の一例を示している。図23は、形状の変化が比較的緩やかな異常(領域A1)を含むサンプルの位相画像の一例であり、図24は、図23のサンプルの時間相関画像の空間周波数領域における2次元パワースペクトルであり、図25は、図24の周波数領域SFFに対応した位相画像、すなわち周波数領域SFFについて逆フーリエ変換を実行して得られた位相画像である。図23では、検査面において−π(黒)から+π(白)にかけて位相が変化している様子が、白黒の縞模様によって示されている。図24の横軸は、図23,24のx方向における周波数、図24の縦軸は、図23,24のy方向における周波数である。また、周波数領域SFFは、x方向の周波数fxの範囲は、0<fx<Lxであり、y方向の周波数fyの範囲は、−Ly<fy<+Lyである。図25では、便宜上、図23とは白黒が反転されており、データが無い部分は白で示されている。 FIGS. 23 to 25 show an example of the verification result of the detection of the phase reversal region Ar by the frequency filtering in the spatial frequency region. FIG. 23 is an example of a phase image of a sample including an abnormality (region A1) in which the shape change is relatively gradual, and FIG. 24 is a two-dimensional power spectrum in the spatial frequency region of the time-correlated image of the sample of FIG. 23. 25 is a phase image corresponding to the frequency domain SFF of FIG. 24, that is, a phase image obtained by performing an inverse Fourier transform on the frequency domain SFF. In FIG. 23, a black-and-white striped pattern shows how the phase changes from −π (black) to + π (white) on the inspection surface. The horizontal axis of FIG. 24 is the frequency in the x direction of FIGS. 23 and 24, and the vertical axis of FIG. 24 is the frequency of the y direction of FIGS. 23 and 24. Further, in the frequency domain SFF, the range of the frequency fx in the x direction is 0 <fx <Lx, and the range of the frequency fy in the y direction is −Ly <fy <+ Ly. In FIG. 25, for convenience, black and white are reversed from those in FIG. 23, and the portion without data is shown in white.

図23を見れば、破線DL内の領域A1の部分で、位相が乱れていることがわかる。別のより詳しい分析によれば、当該領域A1の部分ではその周辺部分(正常領域An)と位相の進行方向が逆になっている。すなわち、正常領域Anでは、図23の右方向(x方向の反対方向)に向かうにつれて位相が増大し、領域A1では、図23の左方向(x方向)に向かうにつれて位相が増大している。ここで、図24のように、位相逆行領域検出部105bが、(1)図23の時間相関画像に対してx方向およびy方向についての2次元フーリエ変換を実行し、(2)さらに、x方向の+(正)の周波数領域SFFを抽出し、(3)当該周波数領域SFFについて2次元逆フーリエ変換を施して、図25に示されるような位相画像を得る。この場合、周波数が+(正)の領域A1、すなわち、位相の方向微分値が+(正)の領域A1として、位相逆行領域Arが検出される。 Looking at FIG. 23, it can be seen that the phase is disturbed in the portion of the region A1 in the broken line DL. According to another more detailed analysis, the traveling direction of the phase of the region A1 is opposite to that of the peripheral portion (normal region An). That is, in the normal region An, the phase increases toward the right direction (opposite direction in the x direction) of FIG. 23, and in the region A1, the phase increases toward the left direction (x direction) in FIG. 23. Here, as shown in FIG. 24, the phase retrograde domain detection unit 105b (1) executes a two-dimensional Fourier transform on the time-correlated image of FIG. 23 in the x-direction and the y-direction, and (2) further, x. The + (positive) frequency domain SFF in the direction is extracted, and (3) the frequency domain SFF is subjected to a two-dimensional inverse Fourier transform to obtain a phase image as shown in FIG. 25. In this case, the phase retrograde region Ar is detected as the region A1 having a frequency of + (positive), that is, the region A1 having a directional differential value of the phase of + (positive).

以上、説明したように、本実施形態では、位相逆行領域検出部105bは、時間相関画像の位相の画像平面に沿った方向(x方向,y方向)の方向微分値の符号が正常領域Anの符号と異なる位相逆行領域Arを検出し、異常判別部105cは、位相逆行領域検出部105bの検出結果に基づいて、異常領域Aaを判別する。位相逆行領域Arは、例えば、形状の変化が比較的緩やかな異常領域Aaと正常領域Anとの境界部分に出現する。よって、本実施形態によれば、例えば、位相の方向微分値の符号に基づいて、従来の手法では見つかり難かった、形状の変化が比較的緩やかな異常領域Aaを、より容易にあるいはより確実に判別することができる。 As described above, in the present embodiment, in the phase retrograde region detection unit 105b, the sign of the directional differential value in the direction (x direction, y direction) along the image plane of the phase of the time-correlation image is the normal region An. The phase retrograde region Ar different from the symbol is detected, and the abnormality determination unit 105c determines the abnormality region Aa based on the detection result of the phase retrograde region detection unit 105b. The phase-reverse region Ar appears, for example, at the boundary between the abnormal region Aa and the normal region An whose shape changes relatively slowly. Therefore, according to the present embodiment, for example, based on the sign of the directional derivative value of the phase, the abnormal region Aa in which the shape change is relatively gradual, which is difficult to find by the conventional method, can be more easily or more reliably obtained. It can be determined.

また、本実施形態では、異常判別部105cは、位相逆行領域Arの少なくとも一部が対象領域M(所定の領域)に含まれていた場合に(場所の条件)、当該位相逆行領域Arを異常領域Aaと判別してもよいし、異常判別部105cは、位相逆行領域Arの広さが所定の範囲内である場合に(広さの条件)、当該位相逆行領域Arを異常領域Aaと判別してもよいし、異常判別部105cは、位相逆行領域Arの振幅の代表値が第四の閾値(所定の値)よりも小さい場合に(振幅の条件)、当該当該位相逆行領域Arを異常領域Aaと判別してもよい。よって、本実施形態によれば、例えば、位相逆行領域Arの出現した場所や、広さ、振幅等に応じて、異常領域Aaをより精度良く検出することができる。なお、これらの条件は、OR条件(論理和)であってもよい。また、場所(位置)や、広さ(大きさ)、振幅以外のスペック(例えば、形状や、延びる方向等)を条件として、異常領域Aaを判別してもよい。また、これら各条件の種々の組み合わせにより、異常領域Aaを判別してもよい。 Further, in the present embodiment, when at least a part of the phase retrograde region Ar is included in the target region M (predetermined region) (location condition), the abnormality determination unit 105c makes the phase retrograde region Ar abnormal. It may be determined as the region Aa, or the abnormality determination unit 105c determines that the phase retrograde region Ar is the abnormal region Aa when the width of the phase retrograde region Ar is within a predetermined range (a condition of the width). Alternatively, the abnormality determination unit 105c abnormalizes the phase retrograde region Ar when the representative value of the amplitude of the phase retrograde region Ar is smaller than the fourth threshold value (a predetermined value) (amplitude condition). It may be determined as the region Aa. Therefore, according to the present embodiment, for example, the abnormal region Aa can be detected more accurately according to the place where the phase reversal region Ar appears, the width, the amplitude, and the like. Note that these conditions may be OR conditions (logical sum). Further, the abnormal region Aa may be determined on the condition of specifications other than the location (position), the width (size), and the amplitude (for example, the shape, the extending direction, etc.). Further, the abnormal region Aa may be determined by various combinations of these conditions.

また、本実施形態では、位相逆行領域検出部105bは、時間相関画像の空間周波数領域における周波数フィルタリングに基づいて位相逆行領域Arを検出する。よって、本実施形態によれば、例えば、より容易にかつより精度良く位相逆行領域Arを検出し、ひいては異常領域Aaを判別することができる。 Further, in the present embodiment, the phase retrograde region detection unit 105b detects the phase retrograde region Ar based on the frequency filtering in the spatial frequency region of the time-correlated image. Therefore, according to the present embodiment, for example, the phase reversal region Ar can be detected more easily and more accurately, and the abnormal region Aa can be discriminated.

上述した実施形態のPC100で実行される検査プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。 The inspection program executed on the PC100 of the above-described embodiment is a file in an installable format or an executable format on a computer such as a CD-ROM, a flexible disk (FD), a CD-R, or a DVD (Digital Versailles Disk). It is recorded and provided on a readable recording medium.

また、上述した実施形態のPC100で実行される検査プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、上述した実施形態のPC100で実行される検査プログラムおよび較正プログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。 Further, the inspection program executed by the PC 100 of the above-described embodiment may be stored on a computer connected to a network such as the Internet and provided by downloading via the network. Further, the inspection program and the calibration program executed by the PC100 of the above-described embodiment may be configured to be provided or distributed via a network such as the Internet.

本発明のいくつかの実施形態および変形例を説明したが、これらの実施形態および変形例は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態および変形例は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形例は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although some embodiments and modifications of the present invention have been described, these embodiments and modifications are presented as examples and are not intended to limit the scope of the invention. These novel embodiments and modifications can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.

1…検査システム、104…振幅−位相画像生成部(演算処理部)、105a…位相微分値算出部(演算処理部)、105b…位相逆行領域検出部(演算処理部)、105c…異常判別部、110…時間相関カメラ(撮像部、時間相関画像生成部)、120…照明装置(照明部)、Aa…異常領域、M…対象領域(所定の領域)、Ar…位相逆行領域、x,y…画像平面に沿った方向。 1 ... Inspection system, 104 ... Amplitude-phase image generation unit (calculation processing unit), 105a ... Phase differential value calculation unit (calculation processing unit), 105b ... Phase retrograde region detection unit (calculation processing unit), 105c ... Abnormality determination unit , 110 ... Time-correlated camera (imaging unit, time-correlated image generation unit), 120 ... Illumination device (illumination unit), Aa ... Abnormal region, M ... Target region (predetermined region), Ar ... Phase-reverse region, x, y … Direction along the image plane.

Claims (5)

光の強度の縞パターンの空間的な移動により光の強度の周期的な時間変化を与える面的な照明部と、
時間相関カメラまたはそれと等価な動作をする撮像システムによって強度と位相とによって表される複素画像である時間相関画像を生成する時間相関画像生成部と、
前記時間相関画像より、検査面の法線ベクトルの分布と対応した特徴であって、周囲との違いおよび参照表面との違いのうち少なくとも一方によって異常を検出する特徴を算出する、演算処理部と、
前記異常を検出する特徴に基づいて前記検査面を正常領域と異常領域とに区別する異常判別部と、
を備え、
前記演算処理部は、前記時間相関画像の位相の画像平面に沿った方向の方向微分値の符号が正常領域の符号と異なる位相逆行領域を検出する位相逆行領域検出部を含み、
前記異常判別部は、前記位相逆行領域に基づいて異常領域を判別する、検査システム。
A surface illumination unit that gives a periodic time change of light intensity by spatial movement of a fringe pattern of light intensity,
A time-correlation image generator that generates a time-correlation image, which is a complex image represented by intensity and phase, by a time-correlation camera or an imaging system that operates equivalently.
From the time correlation image, the arithmetic processing unit that calculates the feature corresponding to the distribution of the normal vector of the inspection surface and detects the abnormality by at least one of the difference from the surroundings and the difference from the reference surface. ,
An abnormality discriminating unit that distinguishes the inspection surface into a normal region and an abnormal region based on the feature of detecting the abnormality,
With
The arithmetic processing unit includes a phase retrograde region detection unit that detects a phase retrograde region in which the sign of the directional differential value in the direction along the image plane of the phase of the time-correlated image is different from the sign of the normal region.
The abnormality determination unit is an inspection system that determines an abnormality region based on the phase retrograde region.
前記異常判別部は、前記位相逆行領域の少なくとも一部が所定の領域に含まれていた場合に、当該位相逆行領域を異常領域と判別する、請求項1に記載の検査システム。 The inspection system according to claim 1, wherein the abnormality determination unit determines the phase retrograde region as an abnormal region when at least a part of the phase retrograde region is included in a predetermined region. 前記異常判別部は、前記位相逆行領域の広さが所定の範囲内である場合に、当該位相逆行領域を異常領域と判別する、請求項1または2に記載の検査システム。 The inspection system according to claim 1 or 2, wherein the abnormality determination unit determines the phase retrograde region as an abnormal region when the width of the phase retrograde region is within a predetermined range. 前記異常判別部は、前記位相逆行領域の振幅の代表値が所定の値よりも小さい場合に、当該位相逆行領域を異常領域と判別する、請求項1〜3のうちいずれか一つに記載の検査システム。 The abnormality determination unit according to any one of claims 1 to 3, wherein when the representative value of the amplitude of the phase retrograde region is smaller than a predetermined value, the abnormality determination unit determines the phase retrograde region as an abnormal region. Inspection system. 前記位相逆行領域検出部は、前記時間相関画像の空間周波数領域における周波数フィルタリングに基づいて前記位相逆行領域を検出する、請求項1〜4のうちいずれか一つに記載の検査システム。 The inspection system according to any one of claims 1 to 4, wherein the phase retrograde region detection unit detects the phase retrograde region based on frequency filtering in the spatial frequency region of the time-correlated image.
JP2017103472A 2016-09-14 2017-05-25 Inspection system Active JP6909378B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016179332 2016-09-14
JP2016179332 2016-09-14

Publications (2)

Publication Number Publication Date
JP2018048996A JP2018048996A (en) 2018-03-29
JP6909378B2 true JP6909378B2 (en) 2021-07-28

Family

ID=61766192

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017103472A Active JP6909378B2 (en) 2016-09-14 2017-05-25 Inspection system

Country Status (1)

Country Link
JP (1) JP6909378B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019178941A (en) * 2018-03-30 2019-10-17 リコーエレメックス株式会社 Inspection system and inspection method

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3388684B2 (en) * 1997-03-05 2003-03-24 株式会社オプトン 3D shape measurement method
JPH11132964A (en) * 1997-10-27 1999-05-21 Ricoh Co Ltd Method and device for detecting defect
JP2002048723A (en) * 2000-08-07 2002-02-15 Dainippon Printing Co Ltd Method and device for inspecting flaw in the vicinity of edge
JP2007172512A (en) * 2005-12-26 2007-07-05 Fujifilm Corp Method for quantitative evaluation of image quality, system thereof and program for calculating quantitative evaluation of image quality
JP5868132B2 (en) * 2011-11-14 2016-02-24 キヤノン株式会社 Imaging apparatus and image processing method
JP5994419B2 (en) * 2012-06-21 2016-09-21 富士通株式会社 Inspection method and inspection apparatus
JP2015094707A (en) * 2013-11-13 2015-05-18 リコーエレメックス株式会社 Visual inspection device
JP6433268B2 (en) * 2014-03-31 2018-12-05 国立大学法人 東京大学 Inspection system and inspection method
JP6425243B2 (en) * 2014-12-22 2018-11-21 国立研究開発法人産業技術総合研究所 Identification device and identification method

Also Published As

Publication number Publication date
JP2018048996A (en) 2018-03-29

Similar Documents

Publication Publication Date Title
JP6316068B2 (en) Inspection system and inspection method
JP6433268B2 (en) Inspection system and inspection method
JP6542586B2 (en) Inspection system
JP6553412B2 (en) Inspection system
JP6800463B2 (en) Inspection system and inspection method
JP6682251B2 (en) Inspection system and inspection method
JP6276092B2 (en) Inspection system and inspection method
JP6529248B2 (en) Inspection system and flexible lighting device
JP6420131B2 (en) Inspection system and inspection method
JP2018028527A (en) Inspection system
JP6909378B2 (en) Inspection system
JP6902684B2 (en) Image processing equipment and inspection system
JP2017101979A (en) Inspection system
JP2019002761A (en) Inspection system and inspection method
JP6781430B2 (en) Inspection system
JP6703415B2 (en) Inspection device and inspection method
JP2018116026A (en) Illumination device and light-transmissive member
JP6909377B2 (en) Inspection system and inspection method
JP6826813B2 (en) Inspection equipment and inspection method
JP2020012816A (en) Detection system and detection method
JP6529247B2 (en) Calibration system and inspection system
JP2018205039A (en) Image processing device and inspection system
JP2024017229A (en) Inspection system and inspection method
JP2024017231A (en) Inspection system and inspection method
JP2020101417A (en) Inspection system

Legal Events

Date Code Title Description
AA64 Notification of invalidation of claim of internal priority (with term)

Free format text: JAPANESE INTERMEDIATE CODE: A241764

Effective date: 20170627

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170629

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200522

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210331

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210413

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210511

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210510

R150 Certificate of patent or registration of utility model

Ref document number: 6909378

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150