JP2018112470A - Inspection system and inspection method - Google Patents

Inspection system and inspection method Download PDF

Info

Publication number
JP2018112470A
JP2018112470A JP2017002935A JP2017002935A JP2018112470A JP 2018112470 A JP2018112470 A JP 2018112470A JP 2017002935 A JP2017002935 A JP 2017002935A JP 2017002935 A JP2017002935 A JP 2017002935A JP 2018112470 A JP2018112470 A JP 2018112470A
Authority
JP
Japan
Prior art keywords
image
intensity
abnormality
area
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017002935A
Other languages
Japanese (ja)
Inventor
井上 靖之
Yasuyuki Inoue
靖之 井上
圭一 赤澤
Keiichi Akazawa
圭一 赤澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Elemex Corp
Original Assignee
Ricoh Elemex Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Elemex Corp filed Critical Ricoh Elemex Corp
Priority to JP2017002935A priority Critical patent/JP2018112470A/en
Publication of JP2018112470A publication Critical patent/JP2018112470A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To identify reference being used when an abnormality candidate area is identified from an intensity image, without depending on a paint color.SOLUTION: An inspection system of an embodiment comprises: a planar illumination unit that gives periodical time change and space change of light intensity to an object to be inspected; an image generation unit that generates an amplitude image, a phase image, and an intensity image from image data output from a time correlation camera or an imaging system performing an equivalent operation thereof; an area identification unit that identifies an abnormality candidate area where abnormality may exist in the object to be inspected, from each of the amplitude image, the phase image, and the intensity image; a feature calculation unit that calculates a plurality of features for determining the abnormality from the abnormality candidate area; and an abnormality determination unit that determines the abnormality by executing multivariate analysis using the plurality of features, and the area identification unit performs normalization processing on the intensity image and identifies the abnormality candidate area using the intensity image after the normalization processing is performed when the abnormality candidate area is identified from the intensity image.SELECTED DRAWING: Figure 1

Description

本発明の実施形態は、検査システムおよび検査方法に関する。   Embodiments described herein relate generally to an inspection system and an inspection method.

従来、周期的に変化する光を被検査体に照射し、当該被検査体の表面からの反射光を撮像することで、光の強度のみならず、光の時間遷移に関する情報をも含んだ時間相関画像を取得する技術が提案されている。このような時間相関画像は、たとえば、被検査体の異常を検出するために用いられる。   Conventionally, a time that includes not only the intensity of light but also information about temporal transition of light by irradiating the object to be inspected periodically and imaging the reflected light from the surface of the object to be inspected A technique for acquiring a correlation image has been proposed. Such a time correlation image is used, for example, to detect an abnormality of the object to be inspected.

特許第5669071号公報Japanese Patent No. 5666971

時間相関画像を用いた異常検出では、異常が存在する可能性がある異常候補領域を特定した後、当該異常候補領域から特徴を算出し、算出した特徴を用いた多変量解析を実行することで、異常判定が行われる場合がある。   In anomaly detection using temporal correlation images, after identifying an anomaly candidate area where an anomaly may be present, calculate features from the anomaly candidate area and perform multivariate analysis using the computed features. An abnormality determination may be performed.

ここで、被検査体が塗装製品である場合、塗装表面の形状の変化として表れない内層欠陥が存在する領域を、異常候補領域として精度よく特定することが望まれる。しかしながら、塗装表面の光の反射性能は、塗装色に応じて変化するため、たとえ同じ内層欠陥であっても、画像上の変化(たとえば強度画像における画素値の変化)としての表れやすさは、塗装色に応じて異なる。このため、従来では、内層欠陥が存在する領域としての異常候補領域を強度画像から精度よく特定するためには、異常候補領域に該当するか否かの判定基準を塗装色に応じて異ならせる必要があり、煩雑な処理が必要であった。   Here, when the object to be inspected is a coated product, it is desired to accurately identify an area where an inner layer defect that does not appear as a change in the shape of the painted surface exists as an abnormal candidate area. However, since the light reflection performance of the paint surface changes depending on the paint color, even if it is the same inner layer defect, the ease of appearing as a change on the image (for example, a change in pixel value in the intensity image) Depending on the paint color. For this reason, conventionally, in order to accurately identify an abnormal candidate region as a region in which an inner layer defect exists from an intensity image, it is necessary to make a determination criterion as to whether it corresponds to an abnormal candidate region depending on the paint color. And complicated processing was required.

そこで、強度画像から異常候補領域を特定する際に用いる基準を、塗装色によらずに同一化することが望まれる。   Therefore, it is desired to make the reference used when specifying the abnormal candidate region from the intensity image the same regardless of the paint color.

実施形態の検査システムは、被検査体に対して光の強度の周期的な時間変化および空間変化を与える面的な照明部と、時間相関カメラまたはそれと等価な動作をする撮像システムから出力される画像データから、振幅画像、位相画像、および強度画像を生成する画像生成部と、振幅画像、位相画像、および強度画像の各々から、被検査体において異常が存在する可能性がある異常候補領域を特定する領域特定部と、異常候補領域から、異常を判定するための複数の特徴を算出する特徴算出部と、複数の特徴を用いた多変量解析を実行することで、異常を判定する異常判定部と、を備え、領域特定部は、強度画像から異常候補領域を特定する場合、強度画像に正規化処理を施し、当該正規化処理が施された後の強度画像を用いて、異常候補領域を特定する。   The inspection system of the embodiment is output from a planar illumination unit that gives a periodic temporal change and a spatial change of light intensity to an object to be inspected, and a time correlation camera or an imaging system that performs an equivalent operation. An image generation unit that generates an amplitude image, a phase image, and an intensity image from image data, and an abnormality candidate region that may have an abnormality in the inspected object from each of the amplitude image, the phase image, and the intensity image An abnormality determination that determines an abnormality by executing a multivariate analysis using a plurality of features, a feature calculation unit that calculates a plurality of features for determining abnormality from the region specifying unit to be identified, and a candidate region for abnormality When the abnormality candidate area is specified from the intensity image, the area specifying unit performs a normalization process on the intensity image, and uses the intensity image after the normalization process to perform the abnormality candidate area. To identify.

図1は、実施形態の検査システムの構成例を示した図である。Drawing 1 is a figure showing the example of composition of the inspection system of an embodiment. 図2は、実施形態の時間相関カメラの構成を示したブロック図である。FIG. 2 is a block diagram illustrating a configuration of the time correlation camera of the embodiment. 図3は、実施形態の時間相関カメラで時系列順に蓄積されたフレームを表した概念図である。FIG. 3 is a conceptual diagram showing frames accumulated in time series in the time correlation camera of the embodiment. 図4は、実施形態の照明装置が照射する縞パターンの一例を示した図である。FIG. 4 is a diagram illustrating an example of a fringe pattern irradiated by the illumination device of the embodiment. 図5は、実施形態の時間相関カメラによる、被検査体の異常の第1の検出例を示した図である。FIG. 5 is a diagram illustrating a first detection example of abnormality of the inspection object by the time correlation camera of the embodiment. 図6は、実施形態において、図5に示される異常が被検査体にある場合に、当該異常に応じて変化する、光の振幅の例を表した図である。FIG. 6 is a diagram illustrating an example of the amplitude of light that changes in accordance with the abnormality when the abnormality illustrated in FIG. 図7は、実施形態の時間相関カメラによる、被検査体の異常の第2の検出例を示した図である。FIG. 7 is a diagram illustrating a second detection example of an abnormality of an object to be inspected by the time correlation camera of the embodiment. 図8は、実施形態の時間相関カメラによる、被検査体の異常の第3の検出例を示した図である。FIG. 8 is a diagram illustrating a third example of detection of abnormality of an object to be inspected by the time correlation camera of the embodiment. 図9は、実施形態の照明制御部が照明装置に出力する縞パターンの例を示した図である。FIG. 9 is a diagram illustrating an example of a fringe pattern output from the illumination control unit of the embodiment to the illumination device. 図10は、実施形態のスクリーンを介した後の縞パターンを表した波の形状の例を示した図である。FIG. 10 is a diagram illustrating an example of a wave shape representing a stripe pattern after passing through the screen of the embodiment. 図11は、実施形態による被検査体がメタリック塗装やパール塗装などが施された製品である場合における塗装表面の概略的構成を示した図である。FIG. 11 is a diagram illustrating a schematic configuration of a coating surface in a case where an object to be inspected according to the embodiment is a product to which metallic coating or pearl coating is applied. 図12は、振幅画像、位相画像、および強度画像の各々から抽出される異常候補領域と、当該異常候補領域に基づいて算出される特徴と、を説明するための図である。FIG. 12 is a diagram for explaining an abnormal candidate region extracted from each of the amplitude image, the phase image, and the intensity image, and a feature calculated based on the abnormal candidate region. 図13は、実施形態の検査システムが被検査体の検査を行う際に実行する一連の処理を示したフローチャートである。FIG. 13 is a flowchart showing a series of processes executed when the inspection system of the embodiment inspects an object to be inspected. 図14は、実施形態の検査システムが実行する異常候補領域の特定処理の詳細を示したフローチャートである。FIG. 14 is a flowchart showing details of the abnormality candidate area specifying process executed by the inspection system of the embodiment. 図15は、実施形態において用いられうるラプラシアンフィルタの具体例を示した図である。FIG. 15 is a diagram illustrating a specific example of a Laplacian filter that can be used in the embodiment. 図16は、実施形態における強度画像の具体例を示した図である。FIG. 16 is a diagram illustrating a specific example of the intensity image in the embodiment. 図17は、実施形態においてラプラシアン処理が施された後の強度画像の具体例を示した図である。FIG. 17 is a diagram illustrating a specific example of the intensity image after the Laplacian process is performed in the embodiment. 図18は、実施形態の検査システムが実行する特徴算出処理の詳細を示したフローチャートである。FIG. 18 is a flowchart showing details of the feature calculation processing executed by the inspection system of the embodiment. 図19は、実施形態における振幅画像の具体例を示した図である。FIG. 19 is a diagram illustrating a specific example of an amplitude image in the embodiment. 図20は、実施形態においてラプラシアン処理が施された後の強度画像の具体例における第2領域を示した図である。FIG. 20 is a diagram illustrating a second region in a specific example of the intensity image after the Laplacian process is performed in the embodiment. 図21は、実施形態において強度に関する特徴が算出される領域の具体例を示した図である。FIG. 21 is a diagram illustrating a specific example of a region in which a feature relating to strength is calculated in the embodiment. 図22は、第2変形例の照明制御部が出力する縞パターンの切り替え例を示した図である。FIG. 22 is a diagram illustrating a switching example of a fringe pattern output by the illumination control unit of the second modification. 図23は、第2変形例の照明制御部が、異常(欠陥)を含めた表面に縞パターンを照射した例を示した図である。FIG. 23 is a diagram illustrating an example in which the illumination control unit according to the second modification irradiates the surface including the abnormality (defect) with a stripe pattern. 図24は、第2変形例において、y方向に縞パターンを変化させた場合における、異常(欠陥)とスクリーン上の縞パターンの関係を示した図である。FIG. 24 is a diagram illustrating a relationship between an abnormality (defect) and a stripe pattern on the screen when the stripe pattern is changed in the y direction in the second modification. 図25は、第3変形例の照明制御部が照明装置に出力する縞パターンの例を示した図である。FIG. 25 is a diagram illustrating an example of a fringe pattern output from the illumination control unit of the third modified example to the illumination device.

(実施形態)
以下、実施形態の検査システムについて説明する。実施形態の検査システムは、被検査体を検査するために様々な構成を備えている。図1は、実施形態の検査システムの構成例を示した図である。図1に示されるように、実施形態の検査システムは、PC100と、時間相関カメラ110と、照明装置120と、スクリーン130と、アーム140と、を備えている。
(Embodiment)
Hereinafter, the inspection system of the embodiment will be described. The inspection system of the embodiment has various configurations for inspecting an object to be inspected. Drawing 1 is a figure showing the example of composition of the inspection system of an embodiment. As shown in FIG. 1, the inspection system according to the embodiment includes a PC 100, a time correlation camera 110, a lighting device 120, a screen 130, and an arm 140.

アーム140は、被検査体150を固定するために用いられ、PC100からの制御に応じて、時間相関カメラ110が撮像可能な被検査体150の表面の位置と向きを変化させる。   The arm 140 is used to fix the inspection object 150 and changes the position and orientation of the surface of the inspection object 150 that can be imaged by the time correlation camera 110 according to control from the PC 100.

照明装置120は、被検査体150に光を照射する装置であって、PC100からの縞パターンに従って、照射する光の強度を領域単位で制御できる。さらに、照明装置120は、周期的な時間の遷移に従って当該領域単位の光の強度を制御できる。換言すれば、照明装置120は、光の強度の周期的な時間変化および空間変化を与えることができる。なお、具体的な光の強度の制御手法については後述する。   The illuminating device 120 is a device that irradiates light to the object 150 to be inspected, and can control the intensity of irradiated light in units of regions in accordance with a stripe pattern from the PC 100. Furthermore, the illuminating device 120 can control the intensity | strength of the light of the said area unit according to periodic time transition. In other words, the lighting device 120 can give a periodic temporal change and a spatial change of the light intensity. A specific light intensity control method will be described later.

スクリーン130は、照明装置120から出力された光を拡散させた上で、被検査体150に対して面的に光を照射する。実施形態のスクリーン130は、照明装置120から入力された周期的な時間変化および空間変化が与えられた光を、面的に被検査体150に照射する。なお、照明装置120とスクリーン130との間には、集光用のフレネルレンズ等の光学系部品(図示されず)が設けられてもよい。   The screen 130 diffuses the light output from the illuminating device 120 and then irradiates the test object 150 with light in a plane. The screen 130 according to the embodiment irradiates the object 150 in a surface with the light input from the lighting device 120 and subjected to periodic time change and space change. An optical system component (not shown) such as a condensing Fresnel lens may be provided between the illumination device 120 and the screen 130.

なお、実施形態は、照明装置120とスクリーン130とを組み合わせて、光強度の周期的な時間変化および空間変化を与える面的な照明部を構成する例について説明するが、実施形態の照明部は、このような組み合わせに制限されるものではない。実施形態では、たとえば、LEDを面的に配置したり、大型モニタを配置したりするなどして、照明部を構成してもよい。   In addition, although embodiment demonstrates the example which comprises the planar illumination part which combines the illumination device 120 and the screen 130 and gives the periodic time change and spatial change of light intensity, the illumination part of embodiment is described. It is not limited to such a combination. In the embodiment, for example, the illumination unit may be configured by arranging LEDs on a surface or arranging a large monitor.

図2は、実施形態の時間相関カメラ110の構成を示したブロック図である。時間相関カメラ110は、光学系210と、イメージセンサ220と、データバッファ230と、制御部240と、参照信号出力部250と、を備えている。   FIG. 2 is a block diagram illustrating a configuration of the time correlation camera 110 according to the embodiment. The time correlation camera 110 includes an optical system 210, an image sensor 220, a data buffer 230, a control unit 240, and a reference signal output unit 250.

光学系210は、撮像レンズ等を含み、時間相関カメラ110の外部の被写体(被検査体150を含む)からの光束を透過し、その光束により形成される被写体の光学像を結像させる。   The optical system 210 includes an imaging lens and the like, transmits a light beam from a subject (including the inspection object 150) outside the time correlation camera 110, and forms an optical image of the subject formed by the light beam.

イメージセンサ220は、光学系210を介して入射された光の強弱を光強度信号として画素毎に高速に出力可能なセンサとする。   The image sensor 220 is a sensor that can output the intensity of light incident through the optical system 210 as a light intensity signal at high speed for each pixel.

実施形態の光強度信号は、検査システムの照明装置120が被写体(被検査体150を含む)に対して光を照射し、当該被写体からの反射光を、イメージセンサ220が受け取ったものである。   The light intensity signal of the embodiment is a signal obtained by the illumination device 120 of the inspection system irradiating a subject (including the inspected object 150) with light and the image sensor 220 receiving reflected light from the subject.

イメージセンサ220は、たとえば従来のものと比べて高速に読み出し可能なセンサであり、行方向(x方向)、列方向(y方向)の2種類の方向に画素が配列された2次元平面状に構成されたものとする。そして、イメージセンサ220の各画素を、画素P(1,1),……,P(i,j),……,P(X,Y)とする(なお、実施形態の画像サイズをX×Yとする。)。なお、イメージセンサ220の読み出し速度を制限するものではなく、従来と同様であってもよい。   The image sensor 220 is, for example, a sensor that can be read out at a higher speed than a conventional sensor, and has a two-dimensional planar shape in which pixels are arranged in two kinds of directions: a row direction (x direction) and a column direction (y direction). It shall be configured. Each pixel of the image sensor 220 is defined as a pixel P (1,1),..., P (i, j),..., P (X, Y) (Note that the image size of the embodiment is XX). Y.) Note that the reading speed of the image sensor 220 is not limited and may be the same as the conventional one.

イメージセンサ220は、光学系210によって透過された、被写体(被検査体150を含む)からの光束を受光して光電変換することで、被写体から反射された光の強弱を示した光強度信号(撮像信号)で構成される、2次元平面状のフレームを生成し、制御部240に出力する。実施形態のイメージセンサ220は、読み出し可能な単位時間毎に、当該フレームを出力する。   The image sensor 220 receives a light beam from the subject (including the inspected object 150) transmitted by the optical system 210 and photoelectrically converts the light intensity signal (intensity of light reflected from the subject) ( A two-dimensional planar frame composed of (imaging signals) is generated and output to the control unit 240. The image sensor 220 according to the embodiment outputs the frame for each readable unit time.

実施形態の制御部240は、たとえばCPU、ROM、およびRAM等で構成され、ROMに格納された検査プログラムを実行することで、転送部241と、読出部242と、強度画像用重畳部243と、第1の乗算器244と、第1の相関画像用重畳部245と、第2の乗算器246と、第2の相関画像用重畳部247と、画像出力部248と、を実現する。なお、CPU等で実現することに制限するものではなく、FPGA、またはASICで実現してもよい。   The control unit 240 according to the embodiment includes, for example, a CPU, a ROM, a RAM, and the like, and executes a test program stored in the ROM, thereby transferring a transfer unit 241, a reading unit 242, and an intensity image superimposing unit 243. The first multiplier 244, the first correlation image superimposing unit 245, the second multiplier 246, the second correlation image superimposing unit 247, and the image output unit 248 are realized. Note that the present invention is not limited to implementation with a CPU or the like, and may be implemented with an FPGA or an ASIC.

転送部241は、イメージセンサ220から出力された、光強度信号で構成されたフレームを、データバッファ230に、時系列順に蓄積する。   The transfer unit 241 stores the frames composed of the light intensity signals output from the image sensor 220 in the data buffer 230 in time series order.

データバッファ230は、イメージセンサ220から出力された、光強度信号で構成されたフレームを、時系列順に蓄積する。   The data buffer 230 accumulates frames composed of light intensity signals output from the image sensor 220 in time series.

図3は、実施形態の時間相関カメラ110で時系列順に蓄積されたフレームを表した概念図である。図3に示されるように、実施形態のデータバッファ230には、時刻t(t=t0,t1,t2,……,tn)毎の複数の光強度信号G(1,1,t),……,G(i,j,t),……,G(X,Y,t)の組み合わせで構成された複数のフレームFk(k=1,2,……,n)が、時系列順に蓄積される。なお、時刻tで生成される一枚のフレームは、光強度信号G(1,1,t),……,G(i,j,t),……,G(X,Y,t)で構成される。   FIG. 3 is a conceptual diagram illustrating frames accumulated in time series in the time correlation camera 110 according to the embodiment. As shown in FIG. 3, the data buffer 230 of the embodiment stores a plurality of light intensity signals G (1, 1, t),... At each time t (t = t0, t1, t2,..., Tn). .., G (i, j, t),..., G (X, Y, t), a plurality of frames Fk (k = 1, 2,..., N) are accumulated in chronological order. Is done. Note that one frame generated at time t is a light intensity signal G (1, 1, t),..., G (i, j, t), ..., G (X, Y, t). Composed.

実施形態の光強度信号(撮像信号)G(1,1,t),……,G(i,j,t),……,G(X,Y,t)には、フレームFk(k=1,2,……,n)を構成する各画素P(1,1),……,P(i,j),……,P(X,Y)が対応づけられている。   The light intensity signal (imaging signal) G (1,1, t),..., G (i, j, t),..., G (X, Y, t) of the embodiment has a frame Fk (k = Each pixel P (1, 1),..., P (i, j),.

イメージセンサ220から出力されるフレームは、光強度信号のみで構成されており、換言すればモノクロの画像データとも考えることができる。なお、実施形態は、解像度、感度、およびコスト等を考慮して、イメージセンサ220がモノクロの画像データを生成する例について説明するが、イメージセンサ220としてモノクロ用のイメージセンサに制限するものではなく、カラー用のイメージセンサを用いてもよい。   The frame output from the image sensor 220 includes only a light intensity signal, in other words, it can be considered as monochrome image data. In the embodiment, an example in which the image sensor 220 generates monochrome image data in consideration of resolution, sensitivity, cost, and the like will be described. However, the image sensor 220 is not limited to a monochrome image sensor. Alternatively, a color image sensor may be used.

図2に戻り、実施形態の読出部242は、データバッファ230から、光強度信号G(1,1,t),……,G(i,j,t),……,G(X,Y,t)をフレーム単位で、時系列順に読み出して、第1の乗算器244と、第2の乗算器246と、強度画像用重畳部243と、に出力する。   Returning to FIG. 2, the reading unit 242 of the embodiment receives the light intensity signals G (1,1, t),..., G (i, j, t),. , T) are read out in frame-by-frame order and output to the first multiplier 244, the second multiplier 246, and the intensity image superimposing unit 243.

実施形態の時間相関カメラ110は、読出部242の出力先毎に画像データを生成する。換言すれば、時間相間カメラ110は、3種類の画像データを生成する。   The time correlation camera 110 according to the embodiment generates image data for each output destination of the reading unit 242. In other words, the temporal phase camera 110 generates three types of image data.

実施形態の時間相関カメラ110は、3種類の画像データとして、強度画像データと、2種類の時間相関画像データと、を生成する。なお、実施形態は、強度画像データと、2種類の時間相関画像データと、を生成することに制限されるものではなく、強度画像データを生成しない場合や、1種類又は3種類以上の時間相関画像データを生成する場合なども考えられる。   The time correlation camera 110 according to the embodiment generates intensity image data and two types of time correlation image data as three types of image data. The embodiment is not limited to generating the intensity image data and the two types of time correlation image data. When the intensity image data is not generated, one type or three or more types of time correlations are used. A case where image data is generated is also conceivable.

実施形態のイメージセンサ220は、上述したように単位時間毎に、光強度信号で構成されたフレームを出力している。しかしながら、通常の画像データを生成するためには、撮像に必要な露光時間分の光強度信号が必要になる。そこで、実施形態では、強度画像用重畳部243が、撮像に必要な露光時間分の複数のフレームを重畳して、強度画像データを生成する。なお、強度画像データの各画素値(光の強度を表す値)G(x,y)は、以下に示す式(1)から導き出すことができる。なお、露光時間は、t0とtnの時間差とする。   As described above, the image sensor 220 according to the embodiment outputs a frame composed of a light intensity signal for each unit time. However, in order to generate normal image data, a light intensity signal corresponding to the exposure time necessary for imaging is required. Therefore, in the embodiment, the intensity image superimposing unit 243 generates intensity image data by superimposing a plurality of frames for an exposure time necessary for imaging. In addition, each pixel value (value representing the intensity of light) G (x, y) of the intensity image data can be derived from the following equation (1). The exposure time is the time difference between t0 and tn.

これにより、従来のカメラの撮像と同様に、被写体(被検査体150を含む)が撮像された強度画像データが生成される。そして、強度画像用重畳部243は、生成した強度画像データを、画像出力部248に出力する。   Thereby, the intensity image data in which the subject (including the inspected object 150) is imaged is generated in the same manner as the conventional camera imaging. Then, the intensity image superimposing unit 243 outputs the generated intensity image data to the image output unit 248.

時間相関画像データは、時間遷移に応じた光の強弱の変化を示す画像データである。つまり、実施形態では、時系列順のフレーム毎に、当該フレームに含まれる光強度信号に対して、時間遷移を示した参照信号を乗算し、参照信号と光強度信号との乗算結果である時間相関値で構成された、時間相関値フレームを生成し、複数の時間相関値フレームを重畳することで、時間相関画像データを生成する。   The time correlation image data is image data indicating changes in light intensity according to time transition. That is, in the embodiment, for each frame in time series order, the light intensity signal included in the frame is multiplied by the reference signal indicating the time transition, and the time that is the result of multiplying the reference signal and the light intensity signal is obtained. Temporal correlation image data is generated by generating a temporal correlation value frame composed of correlation values and superimposing a plurality of temporal correlation value frames.

ところで、時間相関画像データを用いて、被検査体150の異常を検出するためには、イメージセンサ220に入力される光強度信号を、参照信号に同期させて変化させる必要がある。このため、実施形態の照明装置120は、上述したように、スクリーン130を介して周期的に時間変化および縞の空間的な移動を与えるような、面的な光の照射を行うように構成される。   By the way, in order to detect an abnormality of the inspection object 150 using the time correlation image data, it is necessary to change the light intensity signal input to the image sensor 220 in synchronization with the reference signal. For this reason, as described above, the illumination device 120 according to the embodiment is configured to irradiate the surface light through the screen 130 so as to periodically change the time and spatially move the stripes. The

実施形態では、2種類の時間相関画像データを生成する。参照信号は、時間遷移を表した信号であればよいが、実施形態では、複素正弦波e-jωtを用いる。なお、角周波数ω、時刻tとする。参照信号を表す複素正弦波e-jωtが、上述した露光時間(換言すれば強度画像データ、および時間相関画像データを生成するために必要な時間)の一周期と相関をとるように、角周波数ωが設定されるものとする。換言すれば、照明装置120およびスクリーン130等の照明部によって形成された面的かつ動的な光は、被検査体150の表面(反射面)の各位置で第1の周期(時間周期)での時間的な照射強度の変化を与えるとともに、表面に沿った少なくとも一方向に沿った第2の周期(空間周期)での空間的な照射強度の増減分布を与える。この面的な光は、表面で反射される際に、当該表面のスペック(法線ベクトルの分布等)に応じて複素変調される。時間相関カメラ110は、表面で複素変調された光を受光し、第1の周期の参照信号を用いて直交検波(直交復調)することにより、複素信号としての時間相関画像データを得る。このような複素時間相関画像データに基づく変復調により、表面の法線ベクトルの分布に対応した特徴を検出することができる。 In the embodiment, two types of time correlation image data are generated. The reference signal may be a signal representing a time transition, but in the embodiment, a complex sine wave e −jωt is used. It is assumed that the angular frequency is ω and the time is t. The angular frequency so that the complex sine wave e −jωt representing the reference signal correlates with one period of the above-described exposure time (in other words, the time required to generate the intensity image data and the time correlation image data). Assume that ω is set. In other words, the planar and dynamic light formed by the illumination unit 120 and the illumination unit such as the screen 130 has a first period (time period) at each position on the surface (reflection surface) of the object 150 to be inspected. And a distribution of increase or decrease in spatial irradiation intensity in a second period (spatial period) along at least one direction along the surface. When this planar light is reflected by the surface, it is complex-modulated according to the specifications of the surface (normal vector distribution, etc.). The time correlation camera 110 receives the light complex-modulated on the surface and performs quadrature detection (orthogonal demodulation) using the reference signal of the first period, thereby obtaining time correlation image data as a complex signal. By modulation / demodulation based on such complex time correlation image data, it is possible to detect features corresponding to the surface normal vector distribution.

複素正弦波e-jωtは、e-jωt=cosωt−j・sinωtと表すこともできる。従って、時間相関画像データの各画素値C(x,y)は、以下に示す式(2)から導き出すことができる。 The complex sine wave e −jωt can also be expressed as e −jωt = cos ωt−j · sin ωt. Accordingly, each pixel value C (x, y) of the time correlation image data can be derived from the following equation (2).

実施形態では、式(2)において、実部を表す画素値C1(x,y)と、虚部を表す画素値C2(x,y)と、に分けて、2種類の時間相関画像データを生成する。   In the embodiment, in the formula (2), two types of time correlation image data are divided into a pixel value C1 (x, y) representing the real part and a pixel value C2 (x, y) representing the imaginary part. Generate.

このため、参照信号出力部250は、第1の乗算器244と、第2の乗算器246と、に対してそれぞれ異なる参照信号を生成し、出力する。実施形態の参照信号出力部250は、複素正弦波e-jωtの実部に対応する第1の参照信号cosωtを第1の乗算器244に出力し、複素正弦波e-jωtの虚部に対応する第2の参照信号sinωtを第2の乗算器246に出力する。このように、実施形態の参照信号出力部250は、一例として、互いにヒルベルト変換対をなす正弦波および余弦波の時間関数として表される2種類の参照信号を出力する。しかしながら、参照信号は、ここで説明する例に制限されるものではなく、時間関数のような、時間遷移に応じて変化する参照信号であればよい。 For this reason, the reference signal output unit 250 generates and outputs different reference signals for the first multiplier 244 and the second multiplier 246, respectively. Embodiment of the reference signal output section 250 outputs the first reference signal cosωt corresponding to the real part of the complex sine wave e -Jeiomegati the first multiplier 244, corresponding to the imaginary part of the complex sine wave e -Jeiomegati The second reference signal sin ωt is output to the second multiplier 246. As described above, the reference signal output unit 250 according to the embodiment outputs two types of reference signals expressed as time functions of a sine wave and a cosine wave that form a Hilbert transform pair as an example. However, the reference signal is not limited to the example described here, and may be a reference signal that changes according to a time transition, such as a time function.

そして、第1の乗算器244は、読出部242から入力されたフレーム単位で、当該フレームの光強度信号毎に、参照信号出力部250から入力された複素正弦波e-jωtの実部cosωtを乗算する。 Then, the first multiplier 244 calculates the real part cosωt of the complex sine wave e −jωt input from the reference signal output unit 250 for each light intensity signal of the frame in units of frames input from the reading unit 242. Multiply.

第1の相関画像用重畳部245は、撮像に必要な露光時間分の複数のフレームについて、第1の乗算器244の乗算結果を画素毎に重畳する処理を行う。これにより、第1の時間相関画像データの各画素値C1(x,y)が、以下の式(3)から導出される。   The first correlation image superimposing unit 245 performs a process of superimposing the multiplication result of the first multiplier 244 on a pixel-by-pixel basis for a plurality of frames for an exposure time necessary for imaging. Thereby, each pixel value C1 (x, y) of the first time correlation image data is derived from the following equation (3).

そして、第2の乗算器246は、読出部242から入力されたフレームの光強度信号に対して、参照信号出力部250から入力された複素正弦波e-jωtの虚部sinωtを乗算する。 Then, the second multiplier 246 multiplies the light intensity signal of the frame input from the reading unit 242 by the imaginary part sinωt of the complex sine wave e −jωt input from the reference signal output unit 250.

第2の相関画像用重畳部247は、撮像に必要な露光時間分の複数のフレームについて、第2の乗算器246の乗算結果を画素毎に重畳する処理を行う。これにより、第2の時間相関画像データの各画素値C2(x,y)が、以下の式(4)から導出される。   The second correlation image superimposing unit 247 performs a process of superimposing the multiplication result of the second multiplier 246 on a pixel-by-pixel basis for a plurality of frames corresponding to the exposure time necessary for imaging. Thereby, each pixel value C2 (x, y) of the second time correlation image data is derived from the following equation (4).

上述した処理を行うことで、2種類の時間相関画像データ、換言すれば2自由度を有する時間相関画像データを生成できる。   By performing the processing described above, two types of time correlation image data, in other words, time correlation image data having two degrees of freedom can be generated.

また、実施形態は、参照信号の種類を制限するものでない。たとえば、実施形態では、複素正弦波e-jωtの実部と虚部の2種類の時間相関画像データを生成するが、光の振幅と、光の位相と、による2種類の画像データを生成してもよい。 Further, the embodiment does not limit the type of reference signal. For example, in the embodiment, two types of time correlation image data of the real part and the imaginary part of the complex sine wave e −jωt are generated, but two types of image data based on the light amplitude and the light phase are generated. May be.

なお、実施形態の時間相関カメラ110は、時間相関画像データとして、複数系統分生成可能とする。これにより、たとえば複数種類の幅の縞が組み合わされた光が照射された際に、上述した実部と虚部とによる2種類の時間相関画像データを、縞の幅毎に生成可能とする。このために、時間相関カメラ110は、2個の乗算器と2個の相関画像用重畳部とからなる組み合わせを、複数系統分備えるとともに、参照信号出力部250は、系統毎に適した角周波数ωによる参照信号を出力可能とする。   Note that the time correlation camera 110 of the embodiment can generate a plurality of systems as time correlation image data. Thereby, for example, when light in which stripes having a plurality of widths are combined is irradiated, two types of time correlation image data of the real part and the imaginary part described above can be generated for each stripe width. For this purpose, the time correlation camera 110 includes a combination of two multipliers and two correlation image superimposing units for a plurality of systems, and the reference signal output unit 250 has an angular frequency suitable for each system. The reference signal by ω can be output.

そして、画像出力部248が、2種類の時間相関画像データと、強度画像データと、をPC100に出力する。これにより、PC100が、2種類の時間相関画像データと、強度画像データと、を用いて、被検査体150の異常を検出する。そのためには、被検査体150に対して光を照射する必要がある。   Then, the image output unit 248 outputs two types of time correlation image data and intensity image data to the PC 100. As a result, the PC 100 detects an abnormality of the inspected object 150 using the two types of time correlation image data and the intensity image data. For that purpose, it is necessary to irradiate the test object 150 with light.

実施形態の照明装置120は、高速に移動する縞パターンを照射する。図4は、実施形態の照明装置120が照射する縞パターンの一例を示した図である。図4に示す例では、縞パターンをx方向にスクロール(移動)させている例とする。白い領域が縞に対応した明領域、黒い領域が縞と縞との間に対応した間隔領域(暗領域)である。   The illuminating device 120 of embodiment irradiates the fringe pattern which moves at high speed. FIG. 4 is a diagram illustrating an example of a fringe pattern irradiated by the illumination device 120 of the embodiment. In the example shown in FIG. 4, the stripe pattern is scrolled (moved) in the x direction. A white area is a bright area corresponding to the stripe, and a black area is an interval area (dark area) corresponding to the stripe.

実施形態では、時間相関カメラ110が強度画像データおよび時間相関画像データを撮像する露光時間で、照明装置120が照射する縞パターンが一周期分移動する。これにより、照明装置120は、光の強度の縞パターンの空間的な移動により光の強度の周期的な時間変化を与える。実施形態では、図4の縞パターンが一周期分移動する時間を、露光時間と対応させることで、時間相関画像データの各画素には、少なくとも、縞パターン一周期分の光の強度信号に関する情報が埋め込まれる。   In the embodiment, the fringe pattern irradiated by the illuminating device 120 moves by one period with the exposure time when the time correlation camera 110 captures the intensity image data and the time correlation image data. Thereby, the illuminating device 120 gives the time change of the light intensity periodically by the spatial movement of the stripe pattern of the light intensity. In the embodiment, by associating the time during which the fringe pattern of FIG. 4 moves by one period with the exposure time, each pixel of the time-correlated image data has information on the light intensity signal for at least one period of the fringe pattern. Is embedded.

図4に示されるように、実施形態では、照明装置120が矩形波に基づく縞パターンを照射する例について説明するが、矩形波以外を用いてもよい。実施形態では、照明装置120がスクリーン130を介して照射されることで、矩形波の明暗の境界領域をぼかすことができる。   As shown in FIG. 4, in the embodiment, an example in which the illumination device 120 irradiates a stripe pattern based on a rectangular wave will be described, but other than a rectangular wave may be used. In the embodiment, the illumination device 120 is irradiated through the screen 130, so that the boundary area between the light and dark of the rectangular wave can be blurred.

実施形態では、照明装置120が照射する縞パターンを、A(1+cos(ωt+kx))と表す。すなわち、縞パターンには、複数の縞が反復的に(周期的に)含まれる。なお、被検査体150に照射される光の強度は0〜2Aの間で調整可能とし、光の位相kxとする。kは、縞の波数である。xは、位相が変化する方向である。   In the embodiment, the fringe pattern irradiated by the illumination device 120 is represented as A (1 + cos (ωt + kx)). That is, the stripe pattern includes a plurality of stripes repeatedly (periodically). Note that the intensity of light applied to the inspection object 150 can be adjusted between 0 and 2A, and is a light phase kx. k is the wave number of the stripe. x is the direction in which the phase changes.

そして、フレームの各画素の光強度信号f(x,y,t)の基本周波数成分は、以下の式(5)として表すことができる。式(5)で示されるように、x方向で縞の明暗が変化する。   The fundamental frequency component of the light intensity signal f (x, y, t) of each pixel in the frame can be expressed as the following equation (5). As shown in Expression (5), the brightness of the stripe changes in the x direction.

f(x,y,t)=A(1+cos(ωt+kx))
=A+A/2{ej(ωt+kx)+e-j(ωt+kx)} …(5)
f (x, y, t) = A (1 + cos (ωt + kx))
= A + A / 2 {e j (ωt + kx) + e −j (ωt + kx) } (5)

式(5)で示されるように、照明装置120が照射する縞パターンの強度信号は、複素数として考えることができる。   As shown in Expression (5), the intensity signal of the fringe pattern irradiated by the illumination device 120 can be considered as a complex number.

そして、イメージセンサ220には、当該照明装置120からの光が被写体(被検査体150を含む)から反射して入力される。   Then, the light from the illumination device 120 is reflected and input to the image sensor 220 from the subject (including the inspection object 150).

したがって、イメージセンサ220に入力される光強度信号G(x,y,t)を、照明装置120が照射された際のフレームの各画素の光強度信号f(x,y,t)とすることができる。そこで、強度画像データを導出するための式(1)に式(5)を代入すると、式(6)を導出できる。なお、位相をkxとする。   Therefore, the light intensity signal G (x, y, t) input to the image sensor 220 is used as the light intensity signal f (x, y, t) of each pixel of the frame when the illumination device 120 is irradiated. Can do. Therefore, when Expression (5) is substituted into Expression (1) for deriving intensity image data, Expression (6) can be derived. Note that the phase is kx.

式(6)から、強度画像データの各画素には、露光時間Tに、照明装置120が出力している光の強度の中間値Aを乗じた値が入力されていることが確認できる。さらに、時間相関画像データを導出するための式(2)に式(5)を代入すると、式(7)を導出できる。なお、AT/2を振幅とし、kxを位相とする。   From Expression (6), it can be confirmed that each pixel of the intensity image data is input with a value obtained by multiplying the exposure time T by the intermediate value A of the intensity of the light output from the illumination device 120. Further, when Expression (5) is substituted into Expression (2) for deriving time correlation image data, Expression (7) can be derived. Note that AT / 2 is the amplitude and kx is the phase.

これにより、式(7)で示された複素数で示された時間相関画像データは、上述した2種類の時間相関画像データと置き換えることができる。つまり、上述した実部と虚部とで構成される時間相関画像データには、被検査体150に照射された光強度変化における位相変化と振幅変化とが含まれている。換言すれば、実施形態のPC100は、2種類の時間相関画像データに基づいて、照明装置120から照射された光の位相変化と、光の振幅変化と、を検出できる。   Thereby, the time correlation image data shown by the complex number shown by Formula (7) is replaceable with the two types of time correlation image data mentioned above. That is, the time correlation image data composed of the real part and the imaginary part described above includes a phase change and an amplitude change in the light intensity change irradiated on the object 150. In other words, the PC 100 according to the embodiment can detect the phase change of the light emitted from the illumination device 120 and the light amplitude change based on the two types of time correlation image data.

そこで、実施形態のPC100は、時間相関画像データおよび強度画像データに基づいて、画素毎に入る光の位相変化を表した位相画像と、画素毎に入る光の振幅を表した振幅画像と、を生成する。また、PC100は、強度画像データに基づいて、画素毎に入る光の強度を表した強度画像を生成する。そして、PC100は、位相画像と、振幅画像と、強度画像と、の少なくともいずれかに基づいて、被検査体150の異常を検出する。   Therefore, the PC 100 according to the embodiment includes a phase image representing a phase change of light entering each pixel and an amplitude image representing the amplitude of light entering each pixel based on the time correlation image data and the intensity image data. Generate. In addition, the PC 100 generates an intensity image representing the intensity of light entering each pixel based on the intensity image data. Then, the PC 100 detects an abnormality of the inspected object 150 based on at least one of the phase image, the amplitude image, and the intensity image.

ところで、被検査体150の表面形状に凹凸に基づく異常が生じている場合、被検査体150の表面の法線ベクトルの分布には、異常に対応した変化が生じている。また、被検査体150の表面に光を吸収するような異常が生じている場合、反射した光の強度に変化が生じる。法線ベクトルの分布の変化は、光の位相変化および振幅変化のうち少なくともいずれか一つとして検出される。そこで、実施形態では、時間相関画像データを用いて、法線ベクトルの分布の変化に対応した、光の位相変化および振幅変化のうち少なくともいずれか一つを検出する。これにより、表面形状の異常が存在する可能性がある領域を特定することが可能となる。以下、被検査体150の異常、法線ベクトル、および光の位相変化又は振幅変化の関係について例を挙げて説明する。   By the way, when an abnormality based on the unevenness occurs in the surface shape of the inspection object 150, the distribution of the normal vectors on the surface of the inspection object 150 changes corresponding to the abnormality. In addition, when an abnormality that absorbs light occurs on the surface of the inspection object 150, the intensity of the reflected light changes. A change in the normal vector distribution is detected as at least one of a phase change and an amplitude change of light. Therefore, in the embodiment, using the time correlation image data, at least one of the light phase change and the amplitude change corresponding to the change in the normal vector distribution is detected. As a result, it is possible to specify a region where there is a possibility that a surface shape abnormality exists. Hereinafter, the relationship between the abnormality of the inspected object 150, the normal vector, and the light phase change or amplitude change will be described by way of example.

図5は、実施形態の時間相関カメラ110による、被検査体の異常の第1の検出例を示した図である。図5に示される例では、被検査体500に突形状の異常501がある状況とする。当該状況においては、異常501の点502の近傍領域においては、法線ベクトル521、522、523が異なる方向を向いていることを確認できる。そして、当該法線ベクトル521、522、523が異なる方向を向いていることで、異常501から反射した光に拡散(たとえば、光511、512、513)が生じ、時間相関カメラ110のイメージセンサ220の任意の画素531に入る縞パターンの幅503が広くなる。   FIG. 5 is a diagram illustrating a first detection example of abnormality of an object to be inspected by the time correlation camera 110 according to the embodiment. In the example shown in FIG. 5, it is assumed that the inspected object 500 has a projecting shape abnormality 501. In this situation, it can be confirmed that the normal vectors 521, 522, and 523 are in different directions in the region near the point 502 of the abnormality 501. Then, the normal vectors 521, 522, 523 are directed in different directions, so that diffusion (for example, light 511, 512, 513) occurs in the light reflected from the anomaly 501, and the image sensor 220 of the time correlation camera 110. The width 503 of the fringe pattern entering the arbitrary pixel 531 is increased.

図6は、図5に示される異常501が被検査体500にある場合に、当該異常に応じて変化する、光の振幅の例を表した図である。図6に示される例では、光の振幅を実部(Re)と虚部(Im)とに分けて2次元平面上に表している。図6では、図5の光511、512、513に対応する光の振幅611、612、613として示している。そして、光の振幅611、612、613は互いに打ち消し合い、イメージセンサ220の当該任意の画素531には、振幅621の光が入射する。   FIG. 6 is a diagram showing an example of the amplitude of light that changes in accordance with the abnormality 501 shown in FIG. In the example shown in FIG. 6, the amplitude of light is divided into a real part (Re) and an imaginary part (Im) and is represented on a two-dimensional plane. In FIG. 6, the light amplitudes 611, 612, and 613 corresponding to the lights 511, 512, and 513 in FIG. The light amplitudes 611, 612, and 613 cancel each other, and light having an amplitude 621 is incident on the arbitrary pixel 531 of the image sensor 220.

したがって、図6に示される状況では、被検査体500の異常501が撮像された領域で、局所的に振幅が小さいことが確認できる。換言すれば、振幅変化を示した振幅画像において、周囲と比べて暗くなっている領域がある場合に、当該領域で局所的に光同士の振幅の打ち消し合いが生じていると推測できるため、当該領域に対応する被検査体500の位置で、異常501が生じていると判断できる。なお、ここでは、突形状の異常501に対応する領域で、振幅画像が局所的に暗くなる場合を例示したが、キズなどの凹み状の異常に対応する領域でも、振幅画像は局所的に暗くなる。   Therefore, in the situation shown in FIG. 6, it can be confirmed that the amplitude is locally small in the region where the abnormality 501 of the inspection object 500 is imaged. In other words, when there is a region that is darker than the surroundings in the amplitude image showing the amplitude change, it can be assumed that there is local cancellation of the amplitude of the light in the region. It can be determined that an abnormality 501 has occurred at the position of the inspection object 500 corresponding to the region. Here, the case where the amplitude image is locally dark in the region corresponding to the protrusion-shaped abnormality 501 is illustrated, but the amplitude image is also locally dark in the region corresponding to the dent-like abnormality such as a scratch. Become.

実施形態の検査システムは、図5の異常501のように傾きが急峻に変化しているものに限らず、緩やかに変化する異常も検出できる。図7は、実施形態の時間相関カメラ110による、被検査体の異常の第2の検出例を示した図である。図7に示される例では、正常な場合は被検査体の表面が平面(換言すれば法線が平行)となるが、被検査体700に緩やかな勾配701が生じた状況とする。このような状況においては、勾配701上の法線ベクトル721、722、723も同様に緩やかに変化する。したがって、イメージセンサ220に入力する光711、712、713も少しずつずれていく。図7に示される例では、緩やかな勾配701のために光の振幅の打ち消し合いは生じないため、図5、図6で表したような光の振幅はほとんど変化しない。しかしながら、本来スクリーン130から投影された光が、そのままイメージセンサ220に平行に入るはずが、緩やかな勾配701のために、スクリーン130から投影された光が平行の状態でイメージセンサ220に入らないために、光に位相変化が生じる。従って、光の位相変化について、周囲等との違いを検出することで、図7に示したような緩やかな勾配701による異常を検出できる。   The inspection system of the embodiment is not limited to the one in which the inclination changes steeply like the abnormality 501 in FIG. 5, and can also detect an abnormality that changes gently. FIG. 7 is a diagram illustrating a second detection example of the abnormality of the inspected object by the time correlation camera 110 according to the embodiment. In the example shown in FIG. 7, the surface of the object to be inspected is flat (in other words, the normal line is parallel) in the normal state, but a gentle gradient 701 is generated on the object 700 to be inspected. In such a situation, the normal vectors 721, 722, and 723 on the gradient 701 also change gently. Accordingly, the light beams 711, 712, and 713 input to the image sensor 220 are also shifted little by little. In the example shown in FIG. 7, since the light amplitudes do not cancel each other due to the gentle gradient 701, the light amplitudes shown in FIGS. 5 and 6 hardly change. However, although the light originally projected from the screen 130 should enter the image sensor 220 as it is, the light projected from the screen 130 does not enter the image sensor 220 in a parallel state due to the gentle gradient 701. In addition, a phase change occurs in the light. Accordingly, by detecting the difference between the light phase change and the surroundings, an abnormality due to the gentle gradient 701 as shown in FIG. 7 can be detected.

また、被検査体の表面形状(換言すれば、被検査体の法線ベクトルの分布)以外にも異常が生じる場合がある。図8は、実施形態の時間相関カメラ110による、被検査体の異常の第3の検出例を示した図である。図8に示される例では、被検査体800に汚れ801が付着しているため、照明装置120から照射された光が吸収あるいは拡散反射し、時間相関カメラ110の、汚れ801を撮像している任意の画素領域では光の強度がほとんど変化しない例を表している。換言すれば、汚れ801を撮像している任意の画素領域では、光の強度変化が打ち消し合ってキャンセルされ、ほとんど直流的な明るさになる例を示している。   In addition, there may be an abnormality other than the surface shape of the inspection object (in other words, the distribution of the normal vector of the inspection object). FIG. 8 is a diagram illustrating a third example of detection of abnormality of an object to be inspected by the time correlation camera 110 according to the embodiment. In the example shown in FIG. 8, dirt 801 is attached to the object 800 to be inspected, so that the light irradiated from the illumination device 120 is absorbed or diffusely reflected, and the dirt 801 of the time correlation camera 110 is imaged. This represents an example in which the light intensity hardly changes in an arbitrary pixel region. In other words, in an arbitrary pixel area where the dirt 801 is imaged, changes in the light intensity cancel each other and cancel each other, resulting in almost direct current brightness.

このような場合、汚れ801を撮像している画素領域においては、光の振幅がほとんどないため、振幅画像を表示した際に、周囲と比べて暗くなる領域が生じる。したがって、当該領域に対応する被検査体800の位置に、汚れ801があることを推定できる。   In such a case, in the pixel region where the dirt 801 is imaged, there is almost no light amplitude. Therefore, when an amplitude image is displayed, a region darker than the surroundings is generated. Therefore, it can be estimated that the dirt 801 is present at the position of the inspection object 800 corresponding to the region.

このように、実施形態では、時間相関画像データに基づいて、光の振幅の変化と、光の位相の変化と、を検出することで、被検査体における、異常が存在する可能性がある領域を特定することができる。   As described above, in the embodiment, an area in which an abnormality may exist in the inspected object is detected by detecting the change in the amplitude of the light and the change in the phase of the light based on the time correlation image data. Can be specified.

図1に戻り、PC100について説明する。PC100は、検出システム全体の制御を行う。PC100は、アーム制御部101と、照明制御部102と、制御部103と、を備える。   Returning to FIG. 1, the PC 100 will be described. The PC 100 controls the entire detection system. The PC 100 includes an arm control unit 101, an illumination control unit 102, and a control unit 103.

アーム制御部101は、被検査体150の時間相関カメラ110による撮像対象となる表面を変更するために、アーム140を制御する。実施形態では、PC100において、被検査体150の撮像対象となる表面を複数設定しておく。そして、時間相関カメラ110が被検査体150の撮像が終了する毎に、アーム制御部101が、当該設定に従い、時間相関カメラ110が設定された表面を撮像できるようにアーム140を制御して、被検査体150を移動させる。なお、実施形態によるアーム140の移動方法は、撮像が終了する毎にアーム140を移動させ、撮像が開始する前に停止させるのを繰り返すことに制限されるものではなく、継続的にアーム140を駆動させることも含まれ得る。なお、アーム140は、搬送部、移動部、位置変更部、姿勢変更部等とも称されうる。   The arm control unit 101 controls the arm 140 in order to change the surface of the object 150 to be imaged by the time correlation camera 110. In the embodiment, a plurality of surfaces to be imaged of the inspection object 150 are set in the PC 100 in advance. Then, every time the time correlation camera 110 completes imaging of the inspection object 150, the arm control unit 101 controls the arm 140 so that the surface on which the time correlation camera 110 is set can be imaged according to the setting. The inspection object 150 is moved. Note that the moving method of the arm 140 according to the embodiment is not limited to repeating the movement of the arm 140 every time imaging is completed and stopping the imaging before the imaging is started, and the arm 140 is continuously moved. Driving can also be included. The arm 140 may also be referred to as a transport unit, a moving unit, a position changing unit, a posture changing unit, or the like.

照明制御部102は、被検査体150を検査するために照明装置120が照射する縞パターンを出力する。実施形態の照明制御部102は、少なくとも3枚以上の縞パターンを、照明装置120に受け渡し、当該縞パターンを露光時間中に切り替えて表示するように照明装置120に指示する。   The illumination control unit 102 outputs a fringe pattern irradiated by the illumination device 120 in order to inspect the inspected object 150. The illumination control unit 102 according to the embodiment transfers at least three or more stripe patterns to the illumination device 120 and instructs the illumination device 120 to switch and display the stripe patterns during the exposure time.

図9は、照明制御部102が照明装置120に出力する縞パターンの例を示した図である。図9(B)に示す矩形波に従って、図9(A)に示す黒領域と白領域とが設定された縞パターンが出力されるように、照明制御部102が制御を行う。   FIG. 9 is a diagram illustrating an example of a fringe pattern output from the illumination control unit 102 to the illumination device 120. In accordance with the rectangular wave shown in FIG. 9B, the illumination control unit 102 performs control so that the stripe pattern in which the black region and the white region shown in FIG. 9A are set is output.

実施形態で照射する縞パターン毎の縞の間隔は、検出対象となる異常(欠陥)の大きさに応じて設定されるものとして、ここでは詳しい説明を省略する。   The stripe interval for each stripe pattern irradiated in the embodiment is set according to the size of the abnormality (defect) to be detected, and detailed description thereof is omitted here.

また、縞パターンを出力するための矩形波の角周波数ωは、参照信号の角周波数ωと同じ値とする。   In addition, the angular frequency ω of the rectangular wave for outputting the fringe pattern is set to the same value as the angular frequency ω of the reference signal.

図9に示されるように、照明制御部102が出力する縞パターンは、矩形波として示すことができるが、スクリーン130を介することで、縞パターンの境界領域をぼかす、すなわち、縞パターンにおける明領域(縞の領域)と暗領域(間隔の領域)との境界での光の強度変化を緩やかにする(鈍らせる)ことで、正弦波に近似させることができる。図10は、スクリーン130を介した後の縞パターンを表した波の形状の例を示した図である。図10に示されるように波の形状が、正弦波に近づくことで、計測精度を向上させることができる。また、縞に明度が多段階に変化するグレー領域を追加したり、グラデーションを与えたりしてもよい。また、カラーの縞を含む縞パターンを用いてもよい。   As shown in FIG. 9, the fringe pattern output from the illumination control unit 102 can be shown as a rectangular wave, but the border area of the fringe pattern is blurred through the screen 130, that is, the bright area in the fringe pattern. By making the intensity change of light at the boundary between the (stripe region) and the dark region (interval region) gentle (dull), it can be approximated to a sine wave. FIG. 10 is a diagram illustrating an example of a wave shape representing a stripe pattern after passing through the screen 130. As shown in FIG. 10, the measurement accuracy can be improved by the wave shape approaching a sine wave. Further, a gray region in which the brightness changes in multiple steps may be added to the stripe, or a gradation may be given. Further, a stripe pattern including color stripes may be used.

図1に戻り、制御部103は、画像生成部104と、領域特定部105と、特徴算出部106と、異常判定部107と、を備える。制御部103は、時間相関カメラ110から入力されるデータに基づいて、振幅画像および位相画像(時間相関画像)と、強度画像とを生成し、生成した画像に基づいて、異常が存在する可能性のある領域(以下、異常候補領域と記載する)を特定する。そして、制御部103は、特定した異常候補領域に基づいて、異常を判定するための複数の特徴(特徴量)を算出し、算出した複数の特徴を用いた多変量解析を実行することで被検査体150の異常を判定する。なお、実施形態では、制御部103は、振幅成分と位相成分とで分けた極形式の複素数で示される時間相関画像データ(複素時間相関画像データと称されうる)ではなく、当該複素数を実部と虚部とで分けた2種類の時間相関画像データを、時間相関カメラ110から受け取るものとする。   Returning to FIG. 1, the control unit 103 includes an image generation unit 104, a region specification unit 105, a feature calculation unit 106, and an abnormality determination unit 107. The control unit 103 generates an amplitude image, a phase image (time correlation image), and an intensity image based on data input from the time correlation camera 110, and there is a possibility that an abnormality exists based on the generated image. A certain area (hereinafter referred to as an abnormal candidate area) is identified. Then, the control unit 103 calculates a plurality of features (feature amounts) for determining an abnormality based on the specified abnormality candidate region, and performs multivariate analysis using the calculated plurality of features. The abnormality of the inspection object 150 is determined. In the embodiment, the control unit 103 uses the complex number instead of the time correlation image data (which can be referred to as complex time correlation image data) indicated by the polar complex number divided by the amplitude component and the phase component. It is assumed that two types of time correlation image data divided by the imaginary part are received from the time correlation camera 110.

画像生成部104は、時間相関カメラ110から入力されるデータ(強度画像データや時間相関画像データなどといった画像データ)に基づいて、振幅画像、位相画像、および強度画像を生成する。前述したように、振幅画像とは、画素毎に入る光の振幅を表した画像であり、位相画像とは、画素毎に入る光の位相を表した画像であり、強度画像とは、画素毎に入る光の強度を表した画像である。   The image generation unit 104 generates an amplitude image, a phase image, and an intensity image based on data (image data such as intensity image data and time correlation image data) input from the time correlation camera 110. As described above, an amplitude image is an image that represents the amplitude of light entering each pixel, a phase image is an image that represents a phase of light entering each pixel, and an intensity image is a pixel-by-pixel. It is an image showing the intensity of light entering.

実施形態は、振幅画像の算出手法を制限するものではないが、たとえば、画像生成部104は、2種類の時間相関画像データの画素値C1(x,y)およびC2(x,y)から、下記の式(8)を用いて、振幅画像の各画素値F(x,y)を導き出すことが可能である。   Although the embodiment does not limit the calculation method of the amplitude image, for example, the image generation unit 104 determines from the pixel values C1 (x, y) and C2 (x, y) of the two types of time correlation image data. It is possible to derive each pixel value F (x, y) of the amplitude image using the following equation (8).

また、画像生成部104は、画素値C1(x,y)およびC2(x,y)から、下記の式(9)を用いて、位相画像の各画素値P(x,y)を導き出すことが可能である。   Further, the image generation unit 104 derives each pixel value P (x, y) of the phase image from the pixel values C1 (x, y) and C2 (x, y) using the following equation (9). Is possible.

なお、画像生成部104が時間相関カメラ110から入力される強度画像データに基づいて強度画像を生成することも可能であることは言うまでもないため、ここでは強度画像の各画素値の導出方法についての説明を省略する。   Note that it is needless to say that the image generation unit 104 can generate an intensity image based on the intensity image data input from the time correlation camera 110. Therefore, here, a method for deriving each pixel value of the intensity image will be described. Is omitted.

領域特定部105は、画像生成部104により生成された振幅画像、位相画像、および強度画像の各々から、異常が存在する可能性がある異常候補領域を特定する。領域特定部105は、たとえば、光の振幅が(周囲などとの関係で)局所的に変化する位置を含む領域を、振幅画像の異常候補領域として特定し、光の位相が局所的に変化する位置を含む領域を、位相画像の異常候補領域として特定する。これらの異常候補領域の特定の際には、ガウシアン処理(平滑化処理)や、ラプラシアン処理、閾値処理などといった様々な画像処理が用いられうる。   The area specifying unit 105 specifies an abnormality candidate area in which an abnormality may exist from each of the amplitude image, the phase image, and the intensity image generated by the image generation unit 104. For example, the region specifying unit 105 specifies a region including a position where the amplitude of light locally changes (in relation to the surroundings or the like) as an abnormal candidate region of the amplitude image, and the phase of the light changes locally. A region including the position is specified as an abnormal candidate region of the phase image. When specifying these abnormal candidate regions, various image processing such as Gaussian processing (smoothing processing), Laplacian processing, threshold processing, and the like can be used.

また、領域特定部105は、光の強度が(周囲などとの関係で)局所的に変化する位置を含む領域を、強度画像の異常候補領域として特定する。   Further, the region specifying unit 105 specifies a region including a position where the light intensity locally changes (in relation to the surroundings or the like) as an abnormal candidate region of the intensity image.

ここで、被検査体150が、メタリック塗装やパール塗装などが施された製品である場合を想定する。この場合、被検査体150の表面は、以下のような構成となる。   Here, it is assumed that the object to be inspected 150 is a product to which metallic coating or pearl coating is applied. In this case, the surface of the inspection object 150 has the following configuration.

図11は、実施形態による被検査体150がメタリック塗装やパール塗装などが施された製品である場合における塗装表面の概略的構成を示した図である。図11に示されるように、被検査体150がメタリック塗装やパール塗装などが施された製品である場合、当該被検査体150の表面は、下地層1101と、カラー層1102と、光拡散層1103と、上塗層1104と、によって構成される。   FIG. 11 is a diagram illustrating a schematic configuration of a coating surface in a case where an object to be inspected 150 according to the embodiment is a product to which metallic coating or pearl coating is applied. As shown in FIG. 11, in the case where the object to be inspected 150 is a product to which metallic coating or pearl coating is applied, the surface of the object to be inspected 150 includes a base layer 1101, a color layer 1102, and a light diffusion layer. 1103 and an overcoat layer 1104.

ここで、図11の例では、上塗層1104の下、より具体的にはカラー層1102と光拡散層1103との間に、塵芥1105が存在している。この塵芥1105は、上塗層1104の表面形状の変化として表れない、いわゆる内層欠陥を構成する。   Here, in the example of FIG. 11, dust 1105 exists below the topcoat layer 1104, more specifically, between the color layer 1102 and the light diffusion layer 1103. The dust 1105 constitutes a so-called inner layer defect that does not appear as a change in the surface shape of the overcoat layer 1104.

内層欠陥は、上塗層1104の表面形状の変化として表れないため、当該内層欠陥が存在する領域を振幅画像および位相画像の異常候補領域として特定することは困難である。しかしながら、内層欠陥は、被検査体150からの反射光の強度に影響を与えるため、内層欠陥が存在する領域を強度画像の異常候補領域として特定することは可能である。   Since the inner layer defect does not appear as a change in the surface shape of the topcoat layer 1104, it is difficult to specify the region where the inner layer defect exists as an abnormal candidate region of the amplitude image and the phase image. However, since the inner layer defect affects the intensity of the reflected light from the object 150, it is possible to specify the region where the inner layer defect exists as an abnormal candidate region of the intensity image.

ところで、被検査体150の表面の光の反射性能は、カラー層1102の色(塗装色)に応じて変化するため、たとえ同じ内層欠陥であっても、強度画像における画素値の変化としての表れやすさは、塗装色に応じて異なる。このため、従来では、内層欠陥が存在する領域としての異常候補領域を強度画像から精度よく特定するためには、異常候補領域に該当するか否かの判定基準を塗装色に応じて異ならせる必要があり、煩雑な処理が必要となる。   By the way, the light reflection performance on the surface of the object 150 to be inspected changes according to the color (paint color) of the color layer 1102, so even if it is the same inner layer defect, it appears as a change in pixel value in the intensity image. The ease depends on the paint color. For this reason, conventionally, in order to accurately identify an abnormal candidate region as a region in which an inner layer defect exists from an intensity image, it is necessary to make a determination criterion as to whether it corresponds to an abnormal candidate region depending on the paint color. And complicated processing is required.

そこで、実施形態では、強度画像から異常候補領域を特定する場合に、強度画像に正規化処理を施すことで塗装色の影響を排除し、塗装色の影響を排除した後の強度画像から、異常候補領域を特定することにした。これにより、強度画像から異常候補領域を特定する際に用いる基準を、塗装色によらずに同一化することができるので、強度画像からの異常候補領域の特定をより容易に行うことが可能になる。なお、強度画像から異常候補領域を具体的にどのように特定するかについては、領域特定部105が実行する処理の説明とともに、後で詳細に説明するため、ここではこれ以上の説明を省略する。   Therefore, in the embodiment, when an abnormality candidate region is specified from the intensity image, the influence of the paint color is eliminated by applying a normalization process to the intensity image, and the intensity image after the influence of the paint color is excluded from the abnormality image. Decided to identify candidate areas. As a result, it is possible to make the reference used when specifying the abnormal candidate region from the intensity image the same regardless of the paint color, making it possible to more easily specify the abnormal candidate region from the intensity image. Become. Note that how to specifically identify the abnormality candidate region from the intensity image will be described later in detail together with the description of the processing executed by the region specifying unit 105, and thus further description is omitted here. .

図1に戻り、特徴算出部106は、領域特定部105により特定された全ての異常候補領域から、異常を判定するための複数の特徴(振幅、位相、および強度に関する複数の特徴)を算出する。そして、異常判定部107は、特徴算出部106により算出された複数の特徴を用いた多変量解析を実行することで、被検査体150の異常を判定する。   Returning to FIG. 1, the feature calculation unit 106 calculates a plurality of features (a plurality of features related to amplitude, phase, and intensity) for determining an abnormality from all abnormality candidate regions specified by the region specifying unit 105. . Then, the abnormality determination unit 107 determines the abnormality of the inspected object 150 by executing multivariate analysis using a plurality of features calculated by the feature calculation unit 106.

多変量解析の手法としては、たとえば、MT法(マハラノビスタグチ法)などが挙げられる。MT法とは、多数の情報をマハラノビス距離という1つの尺度に集約し、マハラノビス距離の大小によって、検査対象の品質を判定する方法である。具体的に、MT法では、品質に問題が無い良品サンプルの特徴を表すデータに基づいて予め基準を作成し、作成した基準と、検査対象の特徴を表すデータとに基づいて、検査対象に対応するマハラノビス距離を算出し、算出したマハラノビス距離を所定の閾値と比較等することで、検査対象の品質を判定する。   Examples of the multivariate analysis method include the MT method (Mahalanobis Taguchi method). The MT method is a method in which a large amount of information is collected on one scale called Mahalanobis distance, and the quality of an inspection object is determined based on the magnitude of Mahalanobis distance. Specifically, in the MT method, a reference is created in advance based on data representing the characteristics of a non-defective sample with no quality problem, and the inspection target is handled based on the created standard and data representing the characteristics of the inspection target. The Mahalanobis distance to be calculated is calculated, and the quality of the inspection object is determined by comparing the calculated Mahalanobis distance with a predetermined threshold.

なお、実施形態では、多変量解析の手法として、MT法以外の手法が用いられてもよい。   In the embodiment, a technique other than the MT method may be used as a multivariate analysis technique.

ここで、実施形態では、以下に説明するように、MT法で用いられる複数の特徴のうち、強度に関する複数の特徴の一つとして、異常候補領域における強度の差分値、より具体的には強度値の最大値(MAX)および最小値(min)の差分値、が用いられる。この差分値は、「Range」とも称されうる。   Here, in the embodiment, as described below, as one of a plurality of features related to the strength among the plurality of features used in the MT method, a difference value of the strength in the abnormal candidate region, more specifically, the strength. A difference value between a maximum value (MAX) and a minimum value (min) is used. This difference value may also be referred to as “Range”.

なお、実施形態では、異常を判定するための特徴が、複数存在する。したがって、実施形態では、特徴算出部106は、強度の差分値以外の他の特徴も算出する。たとえば、特徴算出部106は、強度画像以外の他の画像(振幅画像または位相画像)から特定された異常候補領域、または当該異常候補領域に種々の画像処理を施した領域における画素値(振幅または位相)の最大値および最小値の差分値などを、他の特徴として算出しうる。   In the embodiment, there are a plurality of features for determining abnormality. Therefore, in the embodiment, the feature calculation unit 106 also calculates other features other than the intensity difference value. For example, the feature calculation unit 106 detects pixel values (amplitude or amplitude) in an abnormal candidate area specified from an image other than the intensity image (amplitude image or phase image), or an area obtained by performing various image processing on the abnormal candidate area. The difference value between the maximum value and the minimum value of (phase) can be calculated as another feature.

図12は、振幅画像、位相画像、および強度画像の各々から抽出される異常候補領域と、当該異常候補領域に基づいて算出される特徴と、を説明するための図である。図12の例では、領域Aが、振幅画像、位相画像、および強度画像の全てにおいて異常候補領域として特定され、領域Bが、振幅画像のみにおいて異常候補領域として特定され、領域Cが、位相画像および強度画像において異常候補領域として特定されている。なお、図12では、簡単化のため、同一の符号が付された領域(異常候補領域)が同一の外形を有するように図示されているが、振幅画像から特定された異常候補領域と、位相画像から特定された異常候補領域と、強度画像から特定された異常候補領域とは、それぞれ異なる外形を有しうる。   FIG. 12 is a diagram for explaining an abnormal candidate region extracted from each of the amplitude image, the phase image, and the intensity image, and a feature calculated based on the abnormal candidate region. In the example of FIG. 12, the region A is specified as an abnormal candidate region in all of the amplitude image, the phase image, and the intensity image, the region B is specified as an abnormal candidate region only in the amplitude image, and the region C is the phase image. And it is specified as an abnormal candidate region in the intensity image. In FIG. 12, for simplification, the regions with the same reference numerals (abnormality candidate regions) are illustrated as having the same outer shape, but the abnormal candidate region identified from the amplitude image and the phase The abnormality candidate area specified from the image and the abnormality candidate area specified from the intensity image may have different external shapes.

図12に示されるように、実施形態では、異常候補領域として特定された全ての領域A〜Cから、強度の最大値および最小値の差分値(Range)が算出される。すなわち、実施形態では、強度画像から特定された異常候補領域(領域AおよびC)のみならず、強度画像からは特定されていないものの他の画像(振幅画像および位相画像の少なくとも一方)から特定された異常候補領域(領域B)からも、強度の差分値が算出される。   As shown in FIG. 12, in the embodiment, the difference value (Range) between the maximum value and the minimum value of the intensity is calculated from all the areas A to C specified as the abnormality candidate areas. That is, in the embodiment, not only the abnormal candidate regions (regions A and C) specified from the intensity image but also other images (at least one of the amplitude image and the phase image) that are not specified from the intensity image are specified. The difference value of intensity is also calculated from the abnormal candidate region (region B).

強度画像以外の他の画像から異常候補領域(領域B)が特定されている場合、従来では、振幅画像の領域Bに対応した強度画像内の領域から、強度の差分値が算出されていた。しかしながら、たとえば長手側の縁が湾曲した細長形状の部分の表面が検査対象(撮像対象)となっている場合、その部分の強度画像は、湾曲した縁の部分において、異常の有無に関わらず相対的に暗くなる。このため、従来では、もし領域Bのような異常候補領域が上記の湾曲した縁の部分に位置するものとして特定されると、その異常候補領域における強度の差分値が異常の有無に関わらず大きくなるので、たとえ異常がなくても異常があるものとして検出される過検出が発生しうる。   When an abnormal candidate region (region B) is specified from an image other than the intensity image, conventionally, an intensity difference value is calculated from the region in the intensity image corresponding to the region B of the amplitude image. However, for example, when the surface of an elongated portion whose longitudinal edge is curved is an object to be inspected (imaging target), the intensity image of that portion is relative to the curved edge portion regardless of whether there is an abnormality. Becomes darker. For this reason, conventionally, if an abnormal candidate region such as the region B is specified as being located at the curved edge portion, the intensity difference value in the abnormal candidate region is large regardless of whether there is an abnormality. Therefore, even if there is no abnormality, overdetection that is detected as having an abnormality may occur.

そこで、実施形態では、湾曲した縁の部分においては異常の有無に関わらず強度の差分値が大きくなることに起因する上記の過検出を抑制するため、領域特定部105により特定された異常候補領域が強度画像から特定された領域であるか否かに応じて、強度の差分値を算出する対象の領域を異ならせることにした。   Therefore, in the embodiment, in order to suppress the above-described overdetection caused by the difference in strength being increased regardless of whether there is an abnormality in the curved edge portion, the abnormality candidate area specified by the area specifying unit 105 Depending on whether or not is an area specified from the intensity image, the area for calculating the intensity difference value is made different.

概略的に説明すると、実施形態による特徴算出部106は、異常候補領域が少なくとも強度画像から特定された領域である場合、当該異常候補領域に膨張処理を施した領域における強度値の最大値と、膨張処理を施していない異常候補領域における強度値の最小値と、の差分値を、強度の差分値として算出する。また、特徴算出部106は、異常候補領域が強度画像から特定された領域ではなく、かつ振幅画像および位相画像のうち少なくとも一方から特定された領域である場合、当該異常候補領域に対応した強度画像内の第1領域と、当該第1領域において強度値の勾配の変化が最も大きい位置を含む第2領域と、の論理積に対応した領域から、強度の差分値を算出する。なお、第1領域および第2領域がどのように設定されるかについては、特徴算出部106が実行する処理の説明とともに、後で詳細に説明するため、ここではこれ以上の説明を省略する。   In brief, the feature calculation unit 106 according to the embodiment, when the abnormality candidate area is an area specified from at least the intensity image, the maximum intensity value in the area where the abnormality candidate area is subjected to the expansion process, A difference value between the minimum value of the intensity values in the abnormal candidate region that has not been subjected to the expansion process is calculated as an intensity difference value. In addition, when the abnormality candidate area is not an area specified from the intensity image and is an area specified from at least one of the amplitude image and the phase image, the feature calculation unit 106 performs an intensity image corresponding to the abnormality candidate area. The intensity difference value is calculated from the area corresponding to the logical product of the first area of the first area and the second area including the position where the gradient of the intensity value is the largest in the first area. Note that how the first area and the second area are set will be described later in detail together with the description of the process executed by the feature calculation unit 106, and thus further description is omitted here.

なお、実施形態では、上述した通り、内層欠陥が存在する可能性がある領域をより確実に異常候補領域として判定するため、正規化処理によって塗装色の影響を排除した強度画像から、異常候補領域を特定していた。しかしながら、たとえば塗装色として暗い色が使用されている場合、仮に内層欠陥があったとしても、暗い色の影響により、内層欠陥が人の目では認識されないため、この場合は、内層欠陥を異常として判定しないことが望まれる。したがって、異常判定の際には、異常候補領域の特定の際と異なり、塗装色の影響を加味することが望まれる。   In the embodiment, as described above, in order to more reliably determine an area in which an inner layer defect may exist as an abnormal candidate area, the abnormal candidate area is determined from the intensity image in which the influence of the paint color is eliminated by normalization processing. Was identified. However, for example, when a dark color is used as the paint color, even if there is an inner layer defect, the inner layer defect is not recognized by the human eye due to the influence of the dark color. It is desirable not to judge. Therefore, unlike the case of specifying an abnormality candidate region, it is desirable to consider the influence of the paint color when determining an abnormality.

そこで、実施形態では、異常を判定するための複数の特徴のうち強度に関する複数の特徴を算出する場合、正規化処理を施していない強度画像を用いることで、異常判定の際に塗装色の影響が加味されるようにした。すなわち、実施形態による特徴算出部106は、強度画像に正規化処理を施すことなく、上述した強度の差分値を算出する。   Therefore, in the embodiment, when calculating a plurality of features related to intensity among a plurality of features for determining abnormality, the intensity image that has not been subjected to normalization processing is used to determine the influence of the paint color when determining abnormality. Was added. That is, the feature calculation unit 106 according to the embodiment calculates the above-described intensity difference value without performing normalization processing on the intensity image.

以下、実施形態において実行される処理について説明する。図13は、実施形態の検査システムが被検査体150の検査を行う際に実行する一連の処理を示したフローチャートである。以下では、被検査体150は、既にアーム140に固定された状態で、検査の初期位置に配置されているものとする。   Hereinafter, processing executed in the embodiment will be described. FIG. 13 is a flowchart showing a series of processing executed when the inspection system of the embodiment inspects the inspected object 150. In the following, it is assumed that the inspected object 150 is already fixed to the arm 140 and arranged at the initial position of the inspection.

図13に示されるように、実施形態のPC100は、まず、照明装置120に対して、被検査体150を検査するための縞パターンを出力する(S1301)。   As illustrated in FIG. 13, the PC 100 according to the embodiment first outputs a fringe pattern for inspecting the inspected object 150 to the illumination device 120 (S1301).

照明装置120は、PC100から入力された縞パターンを格納する(S1321)。そして、照明装置120は、格納された縞パターンを、時間遷移に従って変化するように表示する(S1322)。なお、照明装置120が表示を開始する条件は、縞パターンが格納されることに制限するものではなく、たとえば検査者が照明装置120に対して開始操作を行ったことであってもよい。   The illuminating device 120 stores the fringe pattern input from the PC 100 (S1321). And the illuminating device 120 displays the stored fringe pattern so that it may change according to a time transition (S1322). Note that the condition for starting display by the illumination device 120 is not limited to storing the fringe pattern, and may be that the inspector performs a start operation on the illumination device 120, for example.

そして、PC100の制御部103は、時間相関カメラ110に対して、撮像開始指示を送信する(S1302)。   Then, the control unit 103 of the PC 100 transmits an imaging start instruction to the time correlation camera 110 (S1302).

次に、時間相関カメラ110は、送信されてきた撮像開始指示に従って、被検査体150および当該被検査体150の周囲を含む領域について撮像を開始する(S1311)。そして、時間相関カメラ110の制御部240は、強度画像データと、時間相関画像データと、を生成する(S1312)。そして、時間相関カメラ110の制御部240は、強度画像データと、時間相関画像データと、を、PC100に出力する(S1313)。   Next, the time correlation camera 110 starts imaging the inspection object 150 and a region including the periphery of the inspection object 150 in accordance with the transmitted imaging start instruction (S1311). Then, the control unit 240 of the time correlation camera 110 generates intensity image data and time correlation image data (S1312). Then, the control unit 240 of the time correlation camera 110 outputs the intensity image data and the time correlation image data to the PC 100 (S1313).

PC100の制御部103は、強度画像データと、時間相関画像データと、を受け取る(S1303)。そして、画像生成部104は、受け取った強度画像データおよび時間相関画像データから、振幅画像、位相画像、および強度画像を生成する(S1304)。   The control unit 103 of the PC 100 receives the intensity image data and the time correlation image data (S1303). Then, the image generation unit 104 generates an amplitude image, a phase image, and an intensity image from the received intensity image data and time correlation image data (S1304).

そして、領域特定部105は、振幅画像、位相画像、および強度画像の各々から、異常が存在する可能性のある異常候補領域を特定する(S1305)。以下、このS1305における異常候補領域の特定処理の詳細について説明する。   Then, the area specifying unit 105 specifies an abnormality candidate area in which an abnormality may exist from each of the amplitude image, the phase image, and the intensity image (S1305). Details of the abnormality candidate area specifying process in S1305 will be described below.

図14は、実施形態の検査システムが実行する異常候補領域の特定処理(図13のS1305の処理)の詳細を示したフローチャートである。以下では、一例として、強度画像を用いた異常候補領域の特定処理についてのみ説明し、振幅画像および位相画像を用いた異常候補領域の特定処理については説明を省略する。   FIG. 14 is a flowchart illustrating details of the abnormality candidate area specifying process (the process of S1305 in FIG. 13) executed by the inspection system of the embodiment. Hereinafter, as an example, only the abnormality candidate area specifying process using the intensity image will be described, and the description of the abnormality candidate area specifying process using the amplitude image and the phase image will be omitted.

図14に示されるように、異常候補領域の特定処理において、領域特定部105は、まず、強度画像にガウシアン処理(平滑化処理)を施す(S1401)。これにより、図11に示されたような光拡散層1103のような、ランダムな光の拡散を引き起こす層が被検査体150内に存在する場合でも、当該光の拡散によって表れる強度画像の画素値の細かい変化の影響をキャンセルした強度画像を生成することができる。   As illustrated in FIG. 14, in the abnormality candidate region identification processing, the region identification unit 105 first performs Gaussian processing (smoothing processing) on the intensity image (S1401). Accordingly, even when a layer that causes random light diffusion, such as the light diffusion layer 1103 shown in FIG. 11, exists in the inspected object 150, the pixel value of the intensity image that appears by the diffusion of the light It is possible to generate an intensity image in which the influence of the minute change is canceled.

そして、領域特定部105は、ガウシアン処理が施された強度画像に、ラプラシアン処理を施す(S1402)。ラプラシアン処理とは、複数の画素を有した画像内における画素値の勾配の変化を算出する処理のことである。ラプラシアン処理は、2階微分に対応するので、画素値の緩やかな(定常的な)変化を無視することができる。したがって、ラプラシアン処理によれば、たとえば長手側の縁が湾曲した細長形状の部分の表面が検査対象(撮像対象)となっている場合であっても、当該湾曲した縁の部分の強度値が急峻に(局所的に)変化していない場合には、当該強度値の変化を無視することができる。   Then, the region specifying unit 105 performs Laplacian processing on the intensity image that has been subjected to Gaussian processing (S1402). Laplacian processing is processing for calculating a change in the gradient of pixel values in an image having a plurality of pixels. Since the Laplacian process corresponds to the second order differentiation, a gradual (steady) change in the pixel value can be ignored. Therefore, according to the Laplacian process, for example, even when the surface of an elongated portion with a curved edge on the long side is an inspection target (imaging target), the intensity value of the curved edge portion is steep. If the value does not change (locally), the change in the intensity value can be ignored.

図15は、実施形態において用いられうるラプラシアンフィルタの具体例を示した図である。この図15に示されたラプラシアンフィルタは、処理対象の画素の画素値と、処理対象の画素の周囲に隣接する8個の画素の画素値との差分をとるための、いわゆる8近傍ラプラシアンフィルタである。より具体的に、図15に示されたラプラシアンフィルタは、処理対象の画素の画素値を8倍した値から、処理対象の画素の周囲に隣接する8個の画素の画素値の総和を引いた値を、処理対象の画素の新たな画素値とするためのフィルタである。この計算により求められた新たな画素値が、ラプラシアン処理前の画素値の2階微分に相当する。   FIG. 15 is a diagram illustrating a specific example of a Laplacian filter that can be used in the embodiment. The Laplacian filter shown in FIG. 15 is a so-called 8-neighbor Laplacian filter for taking the difference between the pixel value of the pixel to be processed and the pixel values of eight pixels adjacent to the periphery of the pixel to be processed. is there. More specifically, the Laplacian filter shown in FIG. 15 subtracts the sum of the pixel values of eight adjacent pixels around the pixel to be processed from a value obtained by multiplying the pixel value of the pixel to be processed by eight. This is a filter for setting the value to a new pixel value of the pixel to be processed. The new pixel value obtained by this calculation corresponds to the second-order differentiation of the pixel value before Laplacian processing.

なお、実施形態では、図15に示された例とは異なるフィルタ係数を有したラプラシアンフィルタが用いられてもよい。以下、ラプラシアンフィルタによって得られる結果について、画像の具体例とともに簡単に説明する。   In the embodiment, a Laplacian filter having a filter coefficient different from the example shown in FIG. 15 may be used. Hereinafter, results obtained by the Laplacian filter will be briefly described together with specific examples of images.

図16は、実施形態における強度画像の具体例を示した図である。図17は、実施形態においてラプラシアン処理が施された後の強度画像の具体例を示した図である。これらの図16および図17に示されるように、ラプラシアンフィルタによれば、湾曲した縁の部分の影響が表れた強度画像1601から、当該縁の部分の影響がキャンセルされた画像1701を得ることができる。   FIG. 16 is a diagram illustrating a specific example of the intensity image in the embodiment. FIG. 17 is a diagram illustrating a specific example of the intensity image after the Laplacian process is performed in the embodiment. As shown in FIGS. 16 and 17, according to the Laplacian filter, an image 1701 in which the influence of the edge portion is canceled can be obtained from the intensity image 1601 in which the influence of the curved edge portion appears. it can.

図14に戻り、ラプラシアン処理(S1402)が終了すると、領域特定部105は、ラプラシアン処理が施された後の強度画像に、正規化処理を施す(S1403)。これにより、塗装色の影響が排除される。   Returning to FIG. 14, when the Laplacian process (S1402) is completed, the region specifying unit 105 performs a normalization process on the intensity image after the Laplacian process is performed (S1403). Thereby, the influence of the paint color is eliminated.

そして、領域特定部105は、正規化処理(S1403)が施された後の強度画像に対して、閾値処理を実行する(S1404)。たとえば、領域特定部105は、正規化処理が施された後の強度画像から、画素値が所定値以上であり、かつ面積が所定値以上の領域を抽出する。   Then, the region specifying unit 105 performs threshold processing on the intensity image after the normalization processing (S1403) is performed (S1404). For example, the region specifying unit 105 extracts a region having a pixel value greater than or equal to a predetermined value and an area greater than or equal to a predetermined value from the intensity image that has been subjected to the normalization process.

そして、領域特定部105は、閾値処理(S1404)によって抽出された領域を、強度画像の異常候補領域として特定する(S1405)。これにより、S1401から始まる一連の処理(異常候補領域の特定処理)が終了し、図13のS1306に処理が移行する。   Then, the region specifying unit 105 specifies the region extracted by the threshold processing (S1404) as an abnormal candidate region of the intensity image (S1405). As a result, a series of processes (abnormality candidate area specifying process) starting from S1401 ends, and the process proceeds to S1306 in FIG.

図13に戻り、異常候補領域の特定処理(S1305)が終了すると、特徴算出部106は、異常候補領域から、異常を判定するための複数の特徴を算出する(S1306)。以下、このS1306における特徴算出処理の詳細について説明する。   Returning to FIG. 13, when the abnormality candidate area specifying process (S1305) ends, the feature calculation unit 106 calculates a plurality of features for determining abnormality from the abnormality candidate area (S1306). Details of the feature calculation process in S1306 will be described below.

図18は、実施形態の検査システムが実行する特徴算出処理(図13のS1306の処理)の詳細を示したフローチャートである。以下では、一例として、強度に関する特徴(強度の差分値)を算出するための特徴算出処理についてのみ説明し、強度の差分値以外の他の特徴を算出するための特徴算出処理については、説明を省略する。   FIG. 18 is a flowchart showing details of the feature calculation process (the process of S1306 in FIG. 13) executed by the inspection system of the embodiment. In the following, as an example, only the feature calculation process for calculating the feature (intensity difference value) related to the intensity will be described, and the feature calculation process for calculating other features other than the intensity difference value will be described. Omitted.

図18に示されるように、特徴算出部106は、まず、強度画像にガウシアン処理(平滑化処理)を施す(S1801)。このS1801の処理は、上述した図14におけるS1401の処理と同様である。   As shown in FIG. 18, the feature calculation unit 106 first performs Gaussian processing (smoothing processing) on the intensity image (S1801). The processing in S1801 is the same as the processing in S1401 in FIG. 14 described above.

そして、特徴算出部106は、特徴を算出する対象となっている異常候補領域(以下、算出対象領域と記載する)が、少なくとも強度画像から特定された異常候補領域か否かを判断する(S1802)。   Then, the feature calculation unit 106 determines whether or not an abnormal candidate region (hereinafter referred to as a calculation target region) that is a target for calculating a feature is an abnormal candidate region specified from at least an intensity image (S1802). ).

算出対象領域が少なくとも強度画像から特定された異常候補領域であると判断された場合(S1802:Yes)、特徴算出部106は、当該異常候補領域を所定回数膨張させる(S1803)。膨張処理とは、ある領域に、当該領域の周囲の数ピクセル分の領域を追加する処理である。そして、特徴算出部106は、膨張処理が施された領域における画素値(平滑化後の強度値)の最大値と、膨張処理が施される前の領域における画素値(平滑化後の強度値)の最小値と、の差分値を、異常を判定するための特徴(強度に関する特徴)の一つとして算出する(S1804)。   When it is determined that the calculation target region is at least an abnormal candidate region specified from the intensity image (S1802: Yes), the feature calculation unit 106 expands the abnormal candidate region a predetermined number of times (S1803). The expansion process is a process of adding an area for several pixels around the area to a certain area. Then, the feature calculation unit 106 calculates the maximum pixel value (intensity value after smoothing) in the area subjected to the dilation process and the pixel value (intensity value after smoothing) in the area before the dilation process is performed. ) Is calculated as one of the characteristics (characteristics regarding strength) for determining abnormality (S1804).

一方、算出対象領域が、振幅画像および位相画像のうち少なくとも一方から特定された異常候補領域であると判断された場合(S1802:No)、特徴算出部106は、算出対象領域が、振幅画像および位相画像のうち一方のみから特定された異常候補領域であるか否かを判断する(S1805)。   On the other hand, when it is determined that the calculation target region is an abnormality candidate region identified from at least one of the amplitude image and the phase image (S1802: No), the feature calculation unit 106 determines that the calculation target region is the amplitude image and the phase image. It is determined whether or not the region is an abnormal candidate region identified from only one of the phase images (S1805).

算出対象領域が振幅画像および位相画像のうち一方のみから特定された異常候補領域であると判断された場合(S1805:Yes)、特徴算出部106は、当該異常候補領域に対応した強度画像内の領域を、第1領域として設定する(S1806)。   When it is determined that the calculation target region is an abnormality candidate region identified from only one of the amplitude image and the phase image (S1805: Yes), the feature calculation unit 106 includes the intensity image corresponding to the abnormality candidate region. The area is set as the first area (S1806).

一方、算出対象領域が振幅画像および位相画像の両方から特定された異常候補領域であると判断された場合(S1805:No)、特徴算出部106は、振幅画像から特定された異常候補領域と、位相画像から特定された異常候補領域と、の論理和に対応した領域を、第1領域として設定する(S1807)。   On the other hand, when it is determined that the calculation target region is an abnormality candidate region identified from both the amplitude image and the phase image (S1805: No), the feature calculation unit 106 includes the abnormality candidate region identified from the amplitude image, A region corresponding to the logical sum of the abnormality candidate region identified from the phase image is set as the first region (S1807).

S1806またはS1807における第1領域の設定が終了すると、特徴算出部106は、振幅画像にラプラシアン処理を施す(S1808)。なお、ラプラシアン処理については、前述したため、ここでは説明を省略する。   When the setting of the first area in S1806 or S1807 ends, the feature calculation unit 106 performs Laplacian processing on the amplitude image (S1808). Since the Laplacian process has been described above, the description thereof is omitted here.

そして、特徴算出部106は、ラプラシアン処理後の強度画像における上記の第1領域内で画素値が最も大きい画素を特定する(S1809)。そして、特徴算出部106は、S1809で特定した画素に、当該画素の周囲の数ピクセル分の領域を追加する膨張処理を実行する(S1810)。   Then, the feature calculation unit 106 identifies a pixel having the largest pixel value in the first region in the intensity image after the Laplacian process (S1809). Then, the feature calculation unit 106 performs an expansion process for adding a region for several pixels around the pixel to the pixel specified in S1809 (S1810).

そして、特徴算出部106は、S1810で膨張された領域に基づき、第2領域を設定する(S1811)。たとえば、特徴算出部106は、S1810で膨張された領域そのものを、第2領域として設定することができる。しかしながら、S1809で特定された画素が、第1領域の端部に位置する場合には、S1810で膨張された領域が、第1領域からはみ出すことになる。したがって、この場合、特徴算出部106は、S1810で膨張された領域そのものを第2領域として設定するのではなく、S1810で膨張された領域と、第1領域と、が重なる領域を、第2領域として設定する。   Then, the feature calculation unit 106 sets the second region based on the region expanded in S1810 (S1811). For example, the feature calculation unit 106 can set the area itself expanded in S1810 as the second area. However, if the pixel specified in S1809 is located at the end of the first area, the area expanded in S1810 will protrude from the first area. Therefore, in this case, the feature calculation unit 106 does not set the area expanded in S1810 itself as the second area, but sets the area where the area expanded in S1810 and the first area overlap as the second area. Set as.

そして、特徴算出部106は、上述したS1806またはS1807で特定された第1領域と、S1811で特定された第2領域と、の論理積に対応した領域を特定し、当該領域から、強度の差分値(平滑化後の強度値の最大値および最小値の差分値)を算出する(S1812)。   Then, the feature calculation unit 106 specifies an area corresponding to the logical product of the first area specified in S1806 or S1807 described above and the second area specified in S1811, and the intensity difference is determined from the area. The value (difference value between the maximum value and the minimum value of the intensity value after smoothing) is calculated (S1812).

ここで、図16、および図19〜図21を参照して、第1領域および第2領域が設定され、当該第1領域および第2領域に基づいて振幅の減衰量が算出されるまでの処理の流れについて、画像の具体例とともにより詳細に説明する。   Here, referring to FIG. 16 and FIGS. 19 to 21, processing until the first region and the second region are set and the amplitude attenuation amount is calculated based on the first region and the second region. The flow will be described in more detail with specific examples of images.

上述したように、図16は、実施形態における強度画像の具体例を示した図である。一方、図19は、実施形態における振幅画像の具体例を示した図である。以下では、一例として、強度画像1601(図16参照)および位相画像(不図示)からは異常候補領域が特定されず、振幅画像1901(図19参照)のみから異常候補領域1902(図19参照)が特定された場合について説明する。   As described above, FIG. 16 is a diagram illustrating a specific example of the intensity image in the embodiment. On the other hand, FIG. 19 is a diagram showing a specific example of an amplitude image in the embodiment. In the following, as an example, the abnormal candidate region is not specified from the intensity image 1601 (see FIG. 16) and the phase image (not shown), and the abnormal candidate region 1902 (see FIG. 19) is determined only from the amplitude image 1901 (see FIG. 19). The case where is specified will be described.

振幅画像1901のみから異常候補領域1902が特定された場合、前述したように、振幅画像1901の異常候補領域1902に対応した強度画像1601内の領域が、第1領域として設定される。そして、第1領域が設定されると、強度画像1601にラプラシアン処理が施され、当該ラプラシアン処理後の画像における第1領域から、画素値が最も大きい画素が特定される。そして、当該画素値が最も大きい画素を中心として膨張処理が施された領域が、第2領域として設定される。   When the abnormal candidate region 1902 is specified only from the amplitude image 1901, as described above, the region in the intensity image 1601 corresponding to the abnormal candidate region 1902 of the amplitude image 1901 is set as the first region. When the first region is set, the intensity image 1601 is subjected to Laplacian processing, and the pixel having the largest pixel value is specified from the first region in the image after the Laplacian processing. Then, an area on which the expansion process is performed around the pixel having the largest pixel value is set as the second area.

図20は、実施形態においてラプラシアン処理が施された後の強度画像の具体例(図17参照)における第2領域を示した図である。この図20(および図17)に示された画像1701は、図16に示された強度画像1601にラプラシアン処理が施されることで生成されたものである。図20に示された領域2001は、画像1701における第1領域に対応した領域(図19の異常候補領域1902に対応した領域)内で画素値が最も大きい画素を中心として膨張処理が施された領域を表す。したがって、図20の例では、領域2001が、第2領域として設定される。   FIG. 20 is a diagram illustrating a second region in a specific example (see FIG. 17) of the intensity image after the Laplacian process is performed in the embodiment. An image 1701 shown in FIG. 20 (and FIG. 17) is generated by performing Laplacian processing on the intensity image 1601 shown in FIG. The area 2001 shown in FIG. 20 is subjected to expansion processing centering on the pixel having the largest pixel value in the area corresponding to the first area in the image 1701 (area corresponding to the abnormal candidate area 1902 in FIG. 19). Represents an area. Therefore, in the example of FIG. 20, the area 2001 is set as the second area.

上記のように第1領域および第2領域が設定されると、当該第1領域および第2領域の論理積に対応した領域が、強度に関する特徴を算出する対象の領域として特定される。そして、このように特定された領域から、画素値(強度値)の最大値および最小値が抽出され、それらの差分値が、強度に関する特徴として算出される。   When the first area and the second area are set as described above, an area corresponding to the logical product of the first area and the second area is specified as an area for which a feature relating to strength is calculated. Then, the maximum value and the minimum value of the pixel value (intensity value) are extracted from the area thus identified, and the difference value between them is calculated as a feature relating to the intensity.

なお、上記では、第1領域と第2領域との論理積に対応した領域から強度の差分値を算出する例について説明したが、当該論理積に対応した領域と、第2領域とは、実際には同一となることが多い。したがって、実施形態では、論理積に対応した領域に替えて、第2領域から、強度の差分値が算出されてもよい。つまり、実施形態では、論理積に対応した領域から強度の差分値を算出することも可能であるし、第2領域から強度の差分値を算出することも可能である。   In the above description, the example in which the intensity difference value is calculated from the region corresponding to the logical product of the first region and the second region has been described. However, the region corresponding to the logical product and the second region are actually Are often the same. Therefore, in the embodiment, the intensity difference value may be calculated from the second area instead of the area corresponding to the logical product. That is, in the embodiment, it is possible to calculate the intensity difference value from the area corresponding to the logical product, and it is also possible to calculate the intensity difference value from the second area.

図21は、実施形態において強度に関する特徴が算出される領域の具体例を示した図である。この図21は、図16に示された強度画像1601に、図19で第1領域として特定された領域1902と、図20で第2領域として特定された領域2001と、を重ねて図示したものである。図21の例では、第1領域として特定された領域1902と、第2領域として特定された領域2001と、の論理積に対応した領域2101から、画素値の最大値および最小値が抽出され、それらの差分値が、強度に関する特徴として算出される。   FIG. 21 is a diagram illustrating a specific example of a region in which a feature relating to strength is calculated in the embodiment. FIG. 21 shows the intensity image 1601 shown in FIG. 16 with the region 1902 identified as the first region in FIG. 19 and the region 2001 identified as the second region in FIG. It is. In the example of FIG. 21, the maximum value and the minimum value of the pixel values are extracted from the area 2101 corresponding to the logical product of the area 1902 specified as the first area and the area 2001 specified as the second area. The difference value between them is calculated as a feature relating to strength.

図18に戻り、S1804またはS1812の処理によって差分値(強度に関する特徴)が算出されると、S1801から始まる一連の処理(特徴算出処理)が終了し、図13のS1307に処理が移行する。   Returning to FIG. 18, when the difference value (characteristic regarding strength) is calculated by the process of S1804 or S1812, a series of processes (characteristic calculation process) starting from S1801 is terminated, and the process proceeds to S1307 of FIG.

そして、図13に戻り、異常判定部107は、特徴算出部106により算出された複数の特徴を用いて、MT法などに基づく多変量解析を実行することで、被検査体150の異常を判定する(S1307)。S1307における異常判定処理の結果は、PC100が備える(図示しない)表示装置などに出力される。   Then, returning to FIG. 13, the abnormality determination unit 107 determines the abnormality of the inspected object 150 by executing multivariate analysis based on the MT method or the like using the plurality of features calculated by the feature calculation unit 106. (S1307). The result of the abnormality determination process in S1307 is output to a display device (not shown) provided in the PC 100.

なお、異常判定処理の結果の出力方法としては、たとえば、強度画像データを表示するとともに、振幅画像データと位相画像データとに基づいて異常が検出された領域に対応する、強度画像データの領域を、検査者が異常を認識できるように装飾表示する方法などが考えられる。なお、実施形態では、判定結果を視覚的に出力することに限らず、判定結果を音声などにより出力してもよい。   As an output method of the result of the abnormality determination process, for example, intensity image data is displayed, and an area of intensity image data corresponding to an area where an abnormality is detected based on amplitude image data and phase image data is displayed. A method of displaying the decoration so that the inspector can recognize the abnormality can be considered. In the embodiment, the determination result is not limited to visual output, and the determination result may be output by voice or the like.

上記のS1307の処理が終了すると、制御部103は、被検査体150の検査が終了したか否かを判定する(S1308)。検査が終了していないと判定された場合(S1308:No)、アーム制御部101が、予め定められた設定に従って、次の検査対象となる被検査体150の表面が、時間相関カメラ110で撮像できるように、アーム140の移動制御を行う(S1309)。そして、アーム140の移動制御が終了した後、制御部103が、再び時間相関カメラ110に対して、撮像の開始指示を送信する(S1302)。   When the process of S1307 is completed, the control unit 103 determines whether or not the inspection of the object 150 is completed (S1308). When it is determined that the inspection has not ended (S1308: No), the arm control unit 101 captures the surface of the inspection object 150 to be inspected next with the time correlation camera 110 according to a predetermined setting. The movement control of the arm 140 is performed so that it can be performed (S1309). Then, after the movement control of the arm 140 is completed, the control unit 103 transmits an imaging start instruction to the time correlation camera 110 again (S1302).

一方、制御部103は、被検査体150の検査が終了したと判定された場合(S1308:Yes)、終了指示を時間相関カメラ110に対して出力する(S1310)。これにより、PC100が実行する一連の処理が終了する。   On the other hand, when it determines with the test | inspection of the to-be-inspected object 150 having been complete | finished (S1308: Yes), the control part 103 outputs an completion | finish instruction | indication with respect to the time correlation camera 110 (S1310). As a result, a series of processes executed by the PC 100 is completed.

そして、時間相関カメラ110は、終了指示を受け付けたか否かを判定する(S1314)。終了指示を受け付けていない場合(S1314:No)、再びS1311からの処理が行われる。一方、終了指示を受け付けた場合(S1314:Yes)、処理が終了する。   Then, the time correlation camera 110 determines whether or not an end instruction has been received (S1314). If an end instruction has not been received (S1314: No), the processing from S1311 is performed again. On the other hand, when an end instruction is accepted (S1314: Yes), the process ends.

なお、照明装置120の終了処理は、検査者が行ってもよいし、他の構成からの指示に従って終了してもよい。   Note that the inspecting process of the illumination device 120 may be performed by an inspector, or may be ended in accordance with an instruction from another configuration.

以上により、実施形態の検査システムが被検査体の検査を行う際に実行する一連の処理が終了する。   With the above, a series of processes executed when the inspection system of the embodiment inspects the object to be inspected is completed.

なお、上述した実施形態では、時間相関カメラ110を用いて生成された強度画像データと、時間相関画像データと、を生成する例について説明した。しかしながら、強度画像データと、時間相関画像データと、を生成するために時間相関カメラ110を用いることに制限するものではなく、アナログ的な処理で実現可能な時間相関カメラや、それと等価な動作をする撮像システムを用いてもよい。たとえば、通常のデジタルスチルカメラが生成した画像データを出力し、情報処理装置が、デジタルスチルカメラが生成した画像データを、フレーム画像データとして用いて参照信号を重畳することで、時間相関画像データを生成してもよいし、イメージセンサ内で光強度信号に参照信号を重畳するようなデジタルカメラを用いて、時間相関画像データを生成してもよい。   In the above-described embodiment, the example in which the intensity image data generated using the time correlation camera 110 and the time correlation image data are generated has been described. However, the present invention is not limited to the use of the time correlation camera 110 for generating the intensity image data and the time correlation image data, and a time correlation camera that can be realized by analog processing or an operation equivalent thereto. An imaging system may be used. For example, image data generated by a normal digital still camera is output, and the information processing apparatus superimposes a reference signal using the image data generated by the digital still camera as frame image data, thereby generating time-correlated image data. The time correlation image data may be generated by using a digital camera that superimposes a reference signal on a light intensity signal in the image sensor.

以上説明したように、実施形態による領域特定部105は、強度画像から異常候補領域を特定する場合、強度画像に正規化処理を施し、当該正規化処理が施された後の強度画像を用いて、異常候補領域を特定する。これにより、強度画像に表れる塗装色の影響が正規化処理によって排除されるので、強度画像から異常候補領域を特定する際に用いる基準を、塗装色によらずに同一化することができる。   As described above, the area specifying unit 105 according to the embodiment, when specifying an abnormality candidate area from an intensity image, performs a normalization process on the intensity image and uses the intensity image that has been subjected to the normalization process. The abnormal candidate area is specified. As a result, the influence of the paint color appearing in the intensity image is eliminated by the normalization process, so that the reference used when specifying the abnormal candidate region from the intensity image can be made identical regardless of the paint color.

さらに、実施形態による特徴算出部106は、異常を判定するための複数の特徴のうちの強度に関する特徴を算出する場合、正規化処理が施されていない強度画像を用いて、強度に関する特徴を算出する。前述したように、異常判定の際には、異常候補領域の特定の際と異なり、塗装色の影響を加味することが望まれるが、実施形態によれば、正規化処理が施されていない強度画像、すなわち塗装色の影響を含んだ強度画像から算出した特徴に基づき、塗装色の影響を加味した異常判定が行われるので、上記の要望を実現することができる。   Furthermore, the feature calculation unit 106 according to the embodiment calculates a feature related to strength using a strength image that has not been subjected to normalization processing when calculating a feature related to strength among a plurality of features for determining abnormality. To do. As described above, in the abnormality determination, unlike the case of specifying the abnormality candidate region, it is desirable to consider the influence of the paint color. However, according to the embodiment, the strength that is not subjected to the normalization process Since the abnormality determination is performed in consideration of the influence of the paint color based on the feature calculated from the image, that is, the intensity image including the influence of the paint color, the above demand can be realized.

以下、実施形態のいくつかの変形例について説明する。   Hereinafter, some modified examples of the embodiment will be described.

(第1変形例)
上述した実施形態では、位相、振幅および強度の局所的な変化(周囲との違い)に基づいて、異常候補領域を特定する例について説明したが、周囲との違いに基づいて異常候補領域を特定することに制限するものではない。たとえば、第1変形例として、予め設定(取得)された参照形状のデータ(参照データ)との差異に基づいて異常候補領域を特定する場合も考えられる。この場合、空間位相変調照明(縞パターン)の位置合わせおよび同期の状況を、参照データを設定(取得)した時の状況に合わせることが必要となる。
(First modification)
In the above-described embodiment, the example in which the abnormal candidate region is identified based on the local change in phase, amplitude, and intensity (difference from the surroundings) has been described. However, the abnormal candidate region is identified based on the difference from the surroundings. You are not limited to doing that. For example, as a first modification, a case in which an abnormal candidate region is specified based on a difference from reference shape data (reference data) set (acquired) in advance may be considered. In this case, it is necessary to match the position and synchronization of the spatial phase modulation illumination (stripe pattern) with the situation when the reference data is set (acquired).

第1変形例では、領域特定部105が、予め(図示しない)記憶部に記憶された、参照表面から得られた位相画像、振幅画像および強度画像と、被検査体150の位相画像、振幅画像および強度画像と、を比較し、被検査体150の表面と参照表面との間で、光の位相、振幅および強度のうちいずれか1つ以上について所定の基準以上の違いがあるか否かを判定する。   In the first modification, the region specifying unit 105 stores a phase image, an amplitude image, and an intensity image obtained from the reference surface, which are stored in advance in a storage unit (not shown), and a phase image and an amplitude image of the inspected object 150. And the intensity image, and whether or not there is a difference more than a predetermined standard for any one or more of the phase, amplitude, and intensity of light between the surface of the inspected object 150 and the reference surface judge.

以下では、第1変形例において、実施形態と同じ構成の検査システムが用いられ、参照表面の例として、正常な被検査体の表面が用いられるものとする。   Hereinafter, in the first modification, an inspection system having the same configuration as that of the embodiment is used, and the surface of a normal inspection object is used as an example of the reference surface.

この場合、照明装置120がスクリーン130を介して縞パターンを照射している間に、時間相関カメラ110が、正常な被検査体の表面を撮像し、強度画像データと、時間相関画像データと、を生成する。そして、PC100が、時間相関カメラ110で生成された強度画像データおよび時間相関画像データから、位相画像、振幅画像および強度画像を生成し、PC100の記憶部(図示せず)に、生成した位相画像、振幅画像および強度画像を記憶させておく。そして、時間相関カメラ110が、異常が存在する可能性の有無を判定したい被検査体を撮像し、強度画像データと、時間相関画像データとを生成する。そして、PC100が、強度画像データおよび時間相関画像データから、位相画像、振幅画像および強度画像を生成した後、過去に記憶部に記憶した、正常な被検査体の位相画像、振幅画像および強度画像と、を比較する。その際、PC100は、正常な被検査体の位相画像、振幅画像および強度画像と、検査対象の被検査体の位相画像、振幅画像および強度画像との比較結果を、異常候補領域を特定するための特徴を表すデータとして出力するものとする。これにより、PC100は、異常候補領域を特定するための特徴が、所定の基準以上となっている画素(領域)を特定することで、位相画像、振幅画像および強度画像の各々の異常候補領域を特定することができる。   In this case, while the illumination device 120 irradiates the fringe pattern via the screen 130, the time correlation camera 110 images the surface of a normal object to be inspected, and intensity image data, time correlation image data, Is generated. Then, the PC 100 generates a phase image, an amplitude image, and an intensity image from the intensity image data and the time correlation image data generated by the time correlation camera 110, and generates the generated phase image in a storage unit (not shown) of the PC 100. The amplitude image and the intensity image are stored. Then, the time correlation camera 110 captures an image of an inspection object for which it is desired to determine whether or not there is a possibility of abnormality, and generates intensity image data and time correlation image data. Then, after the PC 100 generates the phase image, the amplitude image, and the intensity image from the intensity image data and the time correlation image data, the phase image, the amplitude image, and the intensity image of the normal inspection object stored in the storage unit in the past. And compare. At that time, the PC 100 specifies an abnormal candidate region by comparing the phase image, the amplitude image, and the intensity image of a normal inspection object with the phase image, the amplitude image, and the intensity image of the inspection object to be inspected. It is output as data representing the characteristics of As a result, the PC 100 identifies each abnormality candidate area of the phase image, the amplitude image, and the intensity image by identifying pixels (areas) whose characteristics for identifying the abnormality candidate area are equal to or greater than a predetermined reference. Can be identified.

以上の構成により、第1変形例では、正常な被検査体の表面と差異が生じているか否か、換言すれば、被検査体の表面に異常が存在する可能性の有無を判定できる。なお、位相画像、振幅画像および強度画像の比較手法は、どのような手法を用いてもよいので、説明を省略する。   With the above configuration, in the first modification, it is possible to determine whether or not there is a difference from the surface of a normal object to be inspected, in other words, whether or not there is a possibility that an abnormality exists on the surface of the object to be inspected. Note that any method may be used as a method for comparing the phase image, the amplitude image, and the intensity image, and the description thereof will be omitted.

第1変形例では、参照表面との違いに基づいて、異常候補領域を抽出するための特徴を示したデータを出力する例について説明した。しかしながら、第1変形例で説明した参照表面の違いを用いる技術と、実施形態で説明した周囲との違いを用いる技術と、を組み合わせて、異常候補領域を特定することも考えられる。なお、第1変形例の技術と、実施形態の技術と、を組み合わせる手法は、どのような手法を用いてもよいので、ここでは説明を省略する。   In the first modification, an example in which data indicating characteristics for extracting an abnormal candidate region is output based on the difference from the reference surface has been described. However, it is also conceivable to identify the abnormality candidate region by combining the technique using the difference in the reference surface described in the first modification and the technique using the difference between the surroundings described in the embodiment. Note that any technique may be used as a technique for combining the technique of the first modification and the technique of the embodiment, and the description thereof is omitted here.

(第2変形例)
また、上述した実施形態では、x方向に縞パターンを動かして、被検査体の異常(欠陥)を検出する例について説明した。しかしながら、x方向に垂直なy方向で急峻に法線の分布が変化する異常(欠陥)が被検査体に生じている場合、x方向に縞パターンを動かすよりも、y方向に縞パターンを動かす方が欠陥の検出が容易になる場合がある。そこで、第2変形例として、x方向に移動する縞パターンと、y方向に移動する縞パターンとを、交互に切り替える例について説明する。
(Second modification)
In the above-described embodiment, an example in which an abnormality (defect) of an inspection object is detected by moving a stripe pattern in the x direction has been described. However, when an abnormality (defect) in which the normal distribution changes sharply in the y direction perpendicular to the x direction is generated in the inspection object, the fringe pattern is moved in the y direction rather than in the x direction. It may be easier to detect defects. Therefore, as a second modification, an example in which a fringe pattern moving in the x direction and a fringe pattern moving in the y direction are alternately switched will be described.

第2変形例の照明制御部102は、所定の時間間隔毎に、照明装置120に出力する縞パターンを切り替える。これにより、照明装置120は、一つの検査対象面に対して、異なる方向に延びた複数の縞パターンを出力する。   The illumination control unit 102 of the second modified example switches the stripe pattern output to the illumination device 120 at every predetermined time interval. Thereby, the illuminating device 120 outputs the some fringe pattern extended in the different direction with respect to one test object surface.

図22は、第2変形例の照明制御部102が出力する縞パターンの切り替え例を示した図である。図22の(A)では、照明制御部102は、照明装置120が表示する縞パターンをx方向に遷移させる。その後、図22の(B)に示されるように、照明制御部102は、照明装置120が表示する縞パターンをy方向に遷移させる。   FIG. 22 is a diagram illustrating a switching example of a fringe pattern output by the illumination control unit 102 of the second modification. In FIG. 22A, the illumination control unit 102 transitions the stripe pattern displayed by the illumination device 120 in the x direction. Thereafter, as illustrated in FIG. 22B, the illumination control unit 102 changes the stripe pattern displayed by the illumination device 120 in the y direction.

そして、PC100の制御部103は、図22の(A)の縞パターン照射から得られた時間相関画像データに基づいて、異常検出を行い、図22の(B)の縞パターン照射から得られた時間相関画像データに基づいて、異常検出を行う。   Then, the control unit 103 of the PC 100 performs abnormality detection based on the time correlation image data obtained from the stripe pattern irradiation of FIG. 22A, and is obtained from the stripe pattern irradiation of FIG. Abnormality detection is performed based on the time correlation image data.

図23は、第2変形例の照明制御部102が、異常(欠陥)2301を含めた表面に縞パターンを照射した例を示した図である。図23に示される例では、異常(欠陥)2301が、x方向に延びている。この場合、照明制御部102は、x方向に交差するy方向、換言すれば異常(欠陥)2301の長手方向に交差する方向に縞パターンが移動するように設定する。当該設定により、検出精度を向上させることができる。   FIG. 23 is a diagram illustrating an example in which the illumination control unit 102 according to the second modification irradiates the surface including the abnormality (defect) 2301 with a stripe pattern. In the example shown in FIG. 23, the abnormality (defect) 2301 extends in the x direction. In this case, the illumination control unit 102 sets the fringe pattern to move in the y direction that intersects the x direction, in other words, the direction that intersects the longitudinal direction of the abnormality (defect) 2301. With this setting, detection accuracy can be improved.

図24は、図23においてy方向、換言すれば異常(欠陥)2301の長手方向に直交する方向に縞パターンを変化させた場合における、異常(欠陥)2301とスクリーン130上の縞パターンの関係を示した図である。図24に示されるように、y方向に幅が狭く、且つ当該y方向に交差するx方向を長手方向とする異常(欠陥)2301が生じている場合、照明装置120から照射された光は、x方向に交差するy方向で光の振幅の打ち消しが大きくなる。このため、PC100では、y方向に移動させた縞パターンに対応する振幅画像データから、当該異常(欠陥)2301を検出できる。   FIG. 24 shows the relationship between the abnormality (defect) 2301 and the fringe pattern on the screen 130 when the fringe pattern is changed in the y direction in FIG. 23, in other words, the direction orthogonal to the longitudinal direction of the abnormality (defect) 2301. FIG. As shown in FIG. 24, when an abnormality (defect) 2301 having a narrow width in the y direction and a longitudinal direction in the x direction crossing the y direction occurs, the light emitted from the illumination device 120 is In the y direction that intersects the x direction, the cancellation of the amplitude of light increases. For this reason, the PC 100 can detect the abnormality (defect) 2301 from the amplitude image data corresponding to the fringe pattern moved in the y direction.

第2変形例の検査システムにおいて、被検査体に生じる欠陥の長手方向がランダムな場合には、複数方向(例えば、x方向、および当該x方向に交差するy方向等)で縞パターンを表示することで、欠陥の形状を問わずに当該欠陥の検出が可能となり、異常(欠陥)の検出精度を向上させることができる。また、異常の形状に合わせた縞パターンを投影することで、異常の検出精度を向上させることができる。   In the inspection system of the second modified example, when the longitudinal direction of the defect generated in the inspection object is random, the fringe pattern is displayed in a plurality of directions (for example, the x direction and the y direction crossing the x direction). Thus, the defect can be detected regardless of the shape of the defect, and the abnormality (defect) detection accuracy can be improved. Further, by projecting a fringe pattern that matches the shape of the abnormality, the abnormality detection accuracy can be improved.

(第3変形例)
また、上述した第2変形例は、x方向の異常検出と、y方向の異常検出と、を行う際に、縞パターンを切り替える手法に制限するものでない。そこで、第3変形例として、照明制御部102が照明装置120に出力する縞パターンをx方向およびy方向に同時に動かす例について説明する。
(Third Modification)
Further, the second modification described above is not limited to the method of switching the fringe pattern when performing abnormality detection in the x direction and abnormality detection in the y direction. Therefore, as a third modification, an example in which the fringe pattern output from the illumination control unit 102 to the illumination device 120 is simultaneously moved in the x direction and the y direction will be described.

図25は、第3変形例の照明制御部102が照明装置120に出力する縞パターンの例を示した図である。図25に示される例では、照明制御部102が縞パターンを、方向2501に移動させる。   FIG. 25 is a diagram illustrating an example of a fringe pattern output from the illumination control unit 102 of the third modified example to the illumination device 120. In the example shown in FIG. 25, the illumination control unit 102 moves the fringe pattern in the direction 2501.

図25に示される縞パターンは、x方向では1周期2502の縞パターンを含み、y方向では一周期2503の縞パターンを含んでいる。つまり、図25に示される縞パターンは、幅が異なる交差する方向に延びた複数の縞を有している。ここで、第3変形例では、x方向の縞パターンの幅と、y方向の縞パターンの幅と、を異ならせる必要がある。これにより、x方向に対応する時間相関画像データと、y方向に対応する時間相関画像データと、を生成する際に、対応する参照信号を異ならせることができる。なお、縞パターンによる光の強度の変化の周期(周波数)が変化すればよいので、縞の幅を変化させるのに代えて、縞パターン(縞)の移動速度を変化させてもよい。   The stripe pattern shown in FIG. 25 includes a stripe pattern with one period 2502 in the x direction and a stripe pattern with one period 2503 in the y direction. That is, the stripe pattern shown in FIG. 25 has a plurality of stripes extending in the intersecting directions having different widths. Here, in the third modified example, it is necessary to make the width of the stripe pattern in the x direction different from the width of the stripe pattern in the y direction. Thereby, when generating the time correlation image data corresponding to the x direction and the time correlation image data corresponding to the y direction, the corresponding reference signals can be made different. In addition, since the period (frequency) of the change in the intensity of light due to the stripe pattern may be changed, the moving speed of the stripe pattern (stripe) may be changed instead of changing the width of the stripe.

そして、時間相関カメラ110が、x方向の縞パターンに対応する参照信号に基づいて、x方向の縞パターンに対応する時間相関画像データを生成し、y方向の縞パターンに対応する参照信号に基づいて、y方向の縞パターンに対応する時間相関画像データを生成する。そして、PC100の制御部103は、x方向の縞パターンに対応する時間相関画像データに基づいて、異常検出を行った後、y方向の縞パターンに対応する時間相関画像データに基づいて、異常検出を行う。これにより、第3変形例では、欠陥の生じた方向を問わずに検出が可能となり、異常(欠陥)の検出精度を向上させることができる。   Then, the time correlation camera 110 generates time correlation image data corresponding to the stripe pattern in the x direction based on the reference signal corresponding to the stripe pattern in the x direction, and based on the reference signal corresponding to the stripe pattern in the y direction. Thus, time correlation image data corresponding to the stripe pattern in the y direction is generated. Then, the control unit 103 of the PC 100 detects abnormality based on the time correlation image data corresponding to the stripe pattern in the x direction, and then detects abnormality based on the time correlation image data corresponding to the stripe pattern in the y direction. I do. Thereby, in the 3rd modification, it becomes possible to detect regardless of the direction where a defect has occurred, and the detection accuracy of abnormality (defect) can be improved.

上述した実施形態のPC100で実行される検査プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。   The inspection program executed by the PC 100 of the above-described embodiment is a file in an installable format or an executable format, and is a computer such as a CD-ROM, a flexible disk (FD), a CD-R, a DVD (Digital Versatile Disk). It is recorded on a readable recording medium and provided.

また、上述した実施形態のPC100で実行される検査プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、上述した実施形態のPC100で実行される検査プログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。   Further, the inspection program executed by the PC 100 of the above-described embodiment may be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. Further, the inspection program executed on the PC 100 according to the above-described embodiment may be provided or distributed via a network such as the Internet.

本発明のいくつかの実施形態および変形例を説明したが、これらの実施形態および変形例は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態および変形例は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形例は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although several embodiments and modifications of the present invention have been described, these embodiments and modifications are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments and modifications can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and equivalents thereof.

100…PC(検査システム)、104…画像生成部、105…領域特定部、106…特徴算出部、107…異常判定部、110…時間相関カメラ、120…照明装置(照明部)、130…スクリーン(照明部)。   DESCRIPTION OF SYMBOLS 100 ... PC (inspection system), 104 ... Image generation part, 105 ... Area specification part, 106 ... Feature calculation part, 107 ... Abnormality determination part, 110 ... Time correlation camera, 120 ... Illumination device (illumination part), 130 ... Screen (Lighting part).

Claims (12)

被検査体に対して光の強度の周期的な時間変化および空間変化を与える面的な照明部と、
時間相関カメラまたはそれと等価な動作をする撮像システムから出力される画像データから、振幅画像、位相画像、および強度画像を生成する画像生成部と、
前記振幅画像、前記位相画像、および前記強度画像の各々から、前記被検査体において異常が存在する可能性がある異常候補領域を特定する領域特定部と、
前記異常候補領域から、前記異常を判定するための複数の特徴を算出する特徴算出部と、
前記複数の特徴を用いた多変量解析を実行することで、前記異常を判定する異常判定部と、
を備え、
前記領域特定部は、前記強度画像から前記異常候補領域を特定する場合、前記強度画像に正規化処理を施し、当該正規化処理が施された後の前記強度画像を用いて、前記異常候補領域を特定する、
検査システム。
A planar illumination unit that gives periodic temporal and spatial changes in the intensity of light to the object to be inspected;
An image generation unit that generates an amplitude image, a phase image, and an intensity image from image data output from a time correlation camera or an imaging system that performs an equivalent operation;
An area specifying unit for specifying an abnormality candidate area in which an abnormality may exist in the inspection object from each of the amplitude image, the phase image, and the intensity image;
A feature calculator that calculates a plurality of features for determining the abnormality from the abnormality candidate region;
An abnormality determination unit that determines the abnormality by performing multivariate analysis using the plurality of features;
With
When specifying the abnormal candidate region from the intensity image, the region specifying unit performs a normalization process on the intensity image, and uses the intensity image after the normalization process, Identify
Inspection system.
前記領域特定部は、前記強度画像から前記異常候補領域を特定する場合、前記強度画像にラプラシアン処理を施し、当該ラプラシアン処理が施された後の前記強度画像に正規化処理を施し、当該正規化処理が施された後の前記強度画像を用いて、前記異常候補領域を特定する、
請求項1に記載の検査システム。
The region specifying unit, when specifying the abnormal candidate region from the intensity image, performs a Laplacian process on the intensity image, performs a normalization process on the intensity image after the Laplacian process, Using the intensity image after being processed, the abnormal candidate region is identified.
The inspection system according to claim 1.
前記領域特定部は、前記強度画像から前記異常候補領域を特定する場合、前記強度画像にガウシアン処理を施し、当該ガウシアン処理を施した後の前記強度画像にラプラシアン処理を施し、当該ラプラシアン処理が施された後の前記強度画像に正規化処理を施し、当該正規化処理が施された後の前記強度画像を用いて、前記異常候補領域を特定する、
請求項2に記載の検査システム。
The region specifying unit, when specifying the abnormal candidate region from the intensity image, performs Gaussian processing on the intensity image, performs Laplacian processing on the intensity image after the Gaussian processing, and performs the Laplacian processing. The intensity image after being subjected to normalization processing, and using the intensity image after the normalization processing has been performed, the abnormal candidate region is identified,
The inspection system according to claim 2.
前記特徴算出部は、前記複数の特徴のうちの強度に関する特徴を算出する場合、前記正規化処理が施されていない前記強度画像を用いて、前記強度に関する特徴を算出する、
請求項1〜3のいずれか1項に記載の検査システム。
The feature calculation unit calculates the feature related to the intensity using the intensity image that has not been subjected to the normalization process when calculating the feature related to the strength among the plurality of features.
The inspection system according to any one of claims 1 to 3.
前記特徴算出部は、前記異常候補領域が前記強度画像から特定された領域ではなく、かつ前記振幅画像および前記位相画像のうち少なくとも一方から特定された領域である場合、前記異常候補領域に対応した前記強度画像内の第1領域と、当該第1領域において画素値の勾配の変化が最も大きい位置を含む第2領域と、の論理積に対応した領域における強度値の最大値および最小値の差分値、または前記第2領域における前記強度値の最大値および最小値の差分値を、前記強度に関する特徴として算出する、
請求項4に記載の検査システム。
The feature calculation unit corresponds to the abnormal candidate area when the abnormal candidate area is not an area specified from the intensity image and is an area specified from at least one of the amplitude image and the phase image. Difference between the maximum value and the minimum value of the intensity value in the area corresponding to the logical product of the first area in the intensity image and the second area including the position where the change in the gradient of the pixel value is the largest in the first area. A value, or a difference value between the maximum value and the minimum value of the intensity values in the second region, is calculated as a feature relating to the intensity.
The inspection system according to claim 4.
前記特徴算出部は、前記異常候補領域が前記強度画像から特定された領域ではなく、かつ前記振幅画像および前記位相画像の両方から特定された領域である場合、前記振幅画像から特定された前記異常候補領域と、前記位相画像から特定された前記異常候補領域と、の論理和に対応した領域を、前記第1領域として設定する、
請求項5に記載の検査システム。
The feature calculation unit, when the abnormality candidate area is not an area specified from the intensity image and is an area specified from both the amplitude image and the phase image, the abnormality specified from the amplitude image An area corresponding to the logical sum of the candidate area and the abnormal candidate area specified from the phase image is set as the first area.
The inspection system according to claim 5.
前記特徴算出部は、前記強度画像にラプラシアン処理を施し、当該ラプラシアン処理が施された後の前記強度画像の前記第1領域において画素値が最も大きい画素を中心として膨張処理を施した領域を、前記第2領域として設定する、
請求項5または6に記載の検査システム。
The feature calculation unit performs a Laplacian process on the intensity image, and performs an expansion process on the pixel having the largest pixel value in the first area of the intensity image after the Laplacian process is performed. Set as the second area,
The inspection system according to claim 5 or 6.
前記特徴算出部は、前記膨張処理を施した領域と、前記第1領域と、が重なる領域を、前記第2領域として設定する、
請求項7に記載の検査システム。
The feature calculation unit sets a region where the region subjected to the expansion process and the first region overlap as the second region,
The inspection system according to claim 7.
前記特徴算出部は、前記強度画像にガウシアン処理を施し、当該ガウシアン処理を施した後の前記強度画像を用いて、前記第1領域および前記第2領域を設定する、
請求項5〜8のいずれか1項に記載の検査システム。
The feature calculation unit performs Gaussian processing on the intensity image, and sets the first region and the second region using the intensity image after the Gaussian processing is performed.
The inspection system according to any one of claims 5 to 8.
前記特徴算出部は、前記異常候補領域が前記強度画像から特定された領域である場合、前記強度画像から特定された前記異常候補領域に膨張処理を施した領域における前記強度値の最大値と、前記膨張処理を施していない前記異常候補領域における前記強度値の最小値と、の差分値を、前記強度に関する特徴として算出する、
請求項5〜9のいずれか1項に記載の検査システム。
When the abnormality candidate area is an area specified from the intensity image, the feature calculation unit has a maximum value of the intensity value in an area obtained by performing an expansion process on the abnormality candidate area specified from the intensity image; A difference value between the minimum value of the intensity value in the abnormality candidate region that has not been subjected to the expansion process is calculated as a feature related to the intensity,
The inspection system according to any one of claims 5 to 9.
前記異常判定部は、前記多変量解析として、MT(マハラノビスタグチ)法を用いた判定処理を実行することで、前記異常を判定する、
請求項1〜10のいずれか1項に記載の検査システム。
The abnormality determination unit determines the abnormality by executing a determination process using an MT (Mahalanobis Taguchi) method as the multivariate analysis.
The inspection system according to claim 1.
光の強度の周期的な時間変化および空間変化を与える面的な照明部により照らされた被検査体を撮像した時間相関カメラまたはそれと等価な動作をする撮像システムから出力される画像データから、振幅画像、位相画像、および強度画像を生成する画像生成ステップと、
前記振幅画像、前記位相画像、および前記強度画像の各々から、前記被検査体において異常が存在する可能性がある異常候補領域を特定する領域特定ステップと、
前記異常候補領域から、前記異常を判定するための複数の特徴を算出する特徴算出ステップと、
前記複数の特徴を用いた多変量解析を実行することで、前記異常を判定する異常判定ステップと、
を備え、
前記領域特定ステップは、前記強度画像から前記異常候補領域を特定する場合、前記強度画像に正規化処理を施し、当該正規化処理が施された後の前記強度画像を用いて、前記異常候補領域を特定するステップを含む、
検査方法。
Amplitude from image data output from a time-correlation camera or an imaging system that operates equivalently to image the object illuminated by a planar illumination unit that gives periodic temporal and spatial changes in light intensity An image generating step for generating an image, a phase image, and an intensity image;
An area specifying step for specifying an abnormal candidate area in which an abnormality may exist in the inspection object from each of the amplitude image, the phase image, and the intensity image;
A feature calculating step of calculating a plurality of features for determining the abnormality from the abnormality candidate region;
An abnormality determination step for determining the abnormality by performing multivariate analysis using the plurality of features;
With
In the region specifying step, when the abnormality candidate region is specified from the intensity image, the abnormality image is subjected to normalization processing, and the abnormality candidate region is used using the intensity image after the normalization processing is performed. Including the step of identifying
Inspection method.
JP2017002935A 2017-01-11 2017-01-11 Inspection system and inspection method Pending JP2018112470A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017002935A JP2018112470A (en) 2017-01-11 2017-01-11 Inspection system and inspection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017002935A JP2018112470A (en) 2017-01-11 2017-01-11 Inspection system and inspection method

Publications (1)

Publication Number Publication Date
JP2018112470A true JP2018112470A (en) 2018-07-19

Family

ID=62911207

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017002935A Pending JP2018112470A (en) 2017-01-11 2017-01-11 Inspection system and inspection method

Country Status (1)

Country Link
JP (1) JP2018112470A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117608326A (en) * 2024-01-19 2024-02-27 四川图林科技有限责任公司 Hemispherical harmonic oscillator vibration amplitude control system and method of hemispherical harmonic oscillator gyroscope

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002139446A (en) * 2000-10-31 2002-05-17 Nkk Corp Method and apparatus for detection of surface defect
JP2010287179A (en) * 2009-06-15 2010-12-24 Ricoh Elemex Corp Device, method, and program for inspecting image
JP2011232303A (en) * 2010-04-30 2011-11-17 Ricoh Elemex Corp Image inspection method and image inspection device
JP2012021919A (en) * 2010-07-16 2012-02-02 Keyence Corp Image processing system, image processing method and computer program
JP2012021909A (en) * 2010-07-15 2012-02-02 Keyence Corp Image processing device and visual inspection method
JP2012127934A (en) * 2010-11-26 2012-07-05 Fujitsu Ltd Inspection method and inspection device
JP2012211876A (en) * 2011-03-31 2012-11-01 Hitachi Chem Co Ltd Visual inspection device
JP2012229928A (en) * 2011-04-25 2012-11-22 Jfe Steel Corp Surface flaw detection method and surface flaw detection device
JP2015028482A (en) * 2007-03-28 2015-02-12 エス.オー.アイ.テック シリコン オン インシュレーター テクノロジーズS.O.I.Tec Silicon On Insulator Technologies Method and device for inspecting substrate surface defect
JP3197766U (en) * 2015-03-17 2015-06-04 バイスリープロジェクツ株式会社 Surface inspection device
WO2015152306A1 (en) * 2014-03-31 2015-10-08 国立大学法人東京大学 Inspection system and inspection method
JP2015197345A (en) * 2014-03-31 2015-11-09 国立大学法人 東京大学 inspection system and inspection method
US20160334340A1 (en) * 2014-01-22 2016-11-17 Tiama Method and device for the detection in particular of refracting defects
JP2016224707A (en) * 2015-05-29 2016-12-28 リコーエレメックス株式会社 Inspection system
JP2017003273A (en) * 2015-06-04 2017-01-05 東芝電子管デバイス株式会社 Moisture-proof body and radiation detector

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002139446A (en) * 2000-10-31 2002-05-17 Nkk Corp Method and apparatus for detection of surface defect
JP2015028482A (en) * 2007-03-28 2015-02-12 エス.オー.アイ.テック シリコン オン インシュレーター テクノロジーズS.O.I.Tec Silicon On Insulator Technologies Method and device for inspecting substrate surface defect
JP2010287179A (en) * 2009-06-15 2010-12-24 Ricoh Elemex Corp Device, method, and program for inspecting image
JP2011232303A (en) * 2010-04-30 2011-11-17 Ricoh Elemex Corp Image inspection method and image inspection device
JP2012021909A (en) * 2010-07-15 2012-02-02 Keyence Corp Image processing device and visual inspection method
JP2012021919A (en) * 2010-07-16 2012-02-02 Keyence Corp Image processing system, image processing method and computer program
JP2012127934A (en) * 2010-11-26 2012-07-05 Fujitsu Ltd Inspection method and inspection device
JP2012211876A (en) * 2011-03-31 2012-11-01 Hitachi Chem Co Ltd Visual inspection device
JP2012229928A (en) * 2011-04-25 2012-11-22 Jfe Steel Corp Surface flaw detection method and surface flaw detection device
US20160334340A1 (en) * 2014-01-22 2016-11-17 Tiama Method and device for the detection in particular of refracting defects
WO2015152306A1 (en) * 2014-03-31 2015-10-08 国立大学法人東京大学 Inspection system and inspection method
JP2015197345A (en) * 2014-03-31 2015-11-09 国立大学法人 東京大学 inspection system and inspection method
JP2015200632A (en) * 2014-03-31 2015-11-12 国立大学法人 東京大学 inspection system and inspection method
JP3197766U (en) * 2015-03-17 2015-06-04 バイスリープロジェクツ株式会社 Surface inspection device
JP2016224707A (en) * 2015-05-29 2016-12-28 リコーエレメックス株式会社 Inspection system
JP2017003273A (en) * 2015-06-04 2017-01-05 東芝電子管デバイス株式会社 Moisture-proof body and radiation detector

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117608326A (en) * 2024-01-19 2024-02-27 四川图林科技有限责任公司 Hemispherical harmonic oscillator vibration amplitude control system and method of hemispherical harmonic oscillator gyroscope
CN117608326B (en) * 2024-01-19 2024-03-29 四川图林科技有限责任公司 Hemispherical harmonic oscillator vibration amplitude control system and method of hemispherical harmonic oscillator gyroscope

Similar Documents

Publication Publication Date Title
US10739272B2 (en) Inspection system and inspection method
JP6316068B2 (en) Inspection system and inspection method
JP6542586B2 (en) Inspection system
WO2018159825A1 (en) Inspection system and inspection method
JP2016224707A (en) Inspection system
JP6276092B2 (en) Inspection system and inspection method
JP2018009849A (en) Inspection system and inspection method
JP2017101977A (en) Inspection system and inspection method
JP2018028527A (en) Inspection system
JP6420131B2 (en) Inspection system and inspection method
JP2018112470A (en) Inspection system and inspection method
JP2018115937A (en) Inspection system
JP2019002761A (en) Inspection system and inspection method
JP6703415B2 (en) Inspection device and inspection method
JP6781430B2 (en) Inspection system
JP6909378B2 (en) Inspection system
JP2017101979A (en) Inspection system
JP6902684B2 (en) Image processing equipment and inspection system
JP2018112471A (en) Inspection system and inspection method
JP6826813B2 (en) Inspection equipment and inspection method
JP2020012816A (en) Detection system and detection method
JP6909377B2 (en) Inspection system and inspection method
JP2020101417A (en) Inspection system
JP2019002873A (en) Inspection system and inspection method
JP2019174288A (en) Inspection system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200908

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210309