JP2021135200A - Image inspection device and image inspection method - Google Patents

Image inspection device and image inspection method Download PDF

Info

Publication number
JP2021135200A
JP2021135200A JP2020032240A JP2020032240A JP2021135200A JP 2021135200 A JP2021135200 A JP 2021135200A JP 2020032240 A JP2020032240 A JP 2020032240A JP 2020032240 A JP2020032240 A JP 2020032240A JP 2021135200 A JP2021135200 A JP 2021135200A
Authority
JP
Japan
Prior art keywords
image
unit
shape information
shape
striped pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020032240A
Other languages
Japanese (ja)
Other versions
JP7393737B2 (en
Inventor
泰之 池田
Yasuyuki Ikeda
泰之 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2020032240A priority Critical patent/JP7393737B2/en
Publication of JP2021135200A publication Critical patent/JP2021135200A/en
Application granted granted Critical
Publication of JP7393737B2 publication Critical patent/JP7393737B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

To provide an image inspection device that enables a device used to inspect an object by photographing one image, to be more freely arranged.SOLUTION: An image inspection device (1, 2) comprises: a projection part (10) which irradiates an object with light having a striped pattern with a uniform pitch to project an image of the striped pattern on the object; a photography part (20) which photographs the image of the striped pattern projected on the object; a shape information calculation part (320) which calculates shape information on the object based upon image features extracted from the striped pattern included in the image; and an inspection part (330) which inspects the object based upon the shape information, the striped pattern included in the image having an irregular pitch.SELECTED DRAWING: Figure 1

Description

本発明は、画像検査装置及び画像検査方法に関する。 The present invention relates to an image inspection device and an image inspection method.

従来、光源から物体に光を照射して像を投影し、投影した像を撮影することにより得られた画像を用いて物体の形状の計測を行う技術が知られている。例えば、特許文献1には、物体面に格子像を投影し、格子像における特定の周波数成分の位相を求め、その位相を用いて物体面の位置を計測する技術が記載されている。 Conventionally, there is known a technique of irradiating an object with light from a light source, projecting an image, and measuring the shape of the object using an image obtained by photographing the projected image. For example, Patent Document 1 describes a technique of projecting a lattice image on an object surface, obtaining the phase of a specific frequency component in the lattice image, and measuring the position of the object surface using the phase.

国際公開第2016/001985号International Publication No. 2016/001985

位相シフト法を用いる方法も知られているが、位相シフト法では複数の画像を撮影する必要がある。一方、特許文献1に記載の技術では、1枚の画像で物体の形状を計測することができるため、複数の画像を撮影する必要がある位相シフト法に比べて、計測にかかる時間が短縮される。 A method using the phase shift method is also known, but the phase shift method requires taking a plurality of images. On the other hand, in the technique described in Patent Document 1, since the shape of an object can be measured with one image, the time required for measurement is shortened as compared with the phase shift method in which a plurality of images need to be taken. NS.

しかしながら、特許文献1に記載の技術では、物体の表面に投影される格子像のピッチが均一であることが前提となっている。このため、特許文献1に記載の技術では、像を投影する光源あるいは像を撮影するためのカメラなど、計測に用いられる装置の配置の自由度が低い。 However, the technique described in Patent Document 1 is based on the premise that the pitch of the lattice image projected on the surface of the object is uniform. Therefore, in the technique described in Patent Document 1, the degree of freedom in arranging a device used for measurement, such as a light source for projecting an image or a camera for capturing an image, is low.

そこで、本発明は、1枚の画像の撮影による対象物の検査に用いられる装置を、より自由に配置することを可能とする画像検査装置及び画像検査方法を提供することを目的とする。 Therefore, an object of the present invention is to provide an image inspection device and an image inspection method that enable more freely arranging devices used for inspecting an object by taking a single image.

本発明の一態様に係る画像検査装置は、均一なピッチを有する縞パターンの光を対象物に照射し、縞パターンの画像を対象物に投影する投影部と、対象物に投影された縞パターンの画像を撮影する撮影部と、画像に含まれる縞パターンから抽出される画像特徴に基づいて、対象物の形状情報を算出する形状情報算出部と、形状情報に基づき対象物を検査する検査部と、を備え、画像に含まれる縞パターンは、不均一なピッチを有する。 The image inspection apparatus according to one aspect of the present invention has a projection unit that irradiates an object with a striped pattern of light having a uniform pitch and projects an image of the striped pattern onto the object, and a striped pattern projected onto the object. An imaging unit that captures an image of The striped pattern included in the image has a non-uniform pitch.

この態様によれば、1枚の画像の撮影により対象物を検査することができる。また、対象物に投影される縞パターンのピッチが不均一な状態を維持したまま、投影部及び撮影部の配置を適宜変更することができる。このため、均一なピッチを有する縞パターンの画像が対象物に投影される場合よりも、対象物の検査に用いられる装置の配置がより自由になる。 According to this aspect, the object can be inspected by taking one image. Further, the arrangement of the projection unit and the photographing unit can be appropriately changed while maintaining the non-uniform pitch of the fringe pattern projected on the object. Therefore, the arrangement of the device used for inspecting the object becomes more free than when the image of the striped pattern having a uniform pitch is projected on the object.

上記態様において、検査部は、対象物における異常の位置を検出してもよい。 In the above aspect, the inspection unit may detect the position of the abnormality in the object.

この態様によれば、より詳細に対象物を検査することが可能となる。 According to this aspect, it is possible to inspect the object in more detail.

上記態様において、形状情報算出部は、縞パターンの画像における複数の位置の各々に対応する形状情報を算出し、算出した形状情報を二次元でマッピングすることにより第1形状画像を生成してもよい。 In the above aspect, the shape information calculation unit may generate the first shape image by calculating the shape information corresponding to each of the plurality of positions in the striped pattern image and mapping the calculated shape information in two dimensions. good.

この態様によれば、形状情報を用いることにより、より適切な検査を行うことが可能になる。 According to this aspect, more appropriate inspection can be performed by using the shape information.

上記態様において、検査部は、特定の物品の形状を二次元で表現した第2形状画像と、第1形状画像とに基づき、対象物の異常を検出してもよい。 In the above aspect, the inspection unit may detect an abnormality of the object based on the second shape image in which the shape of the specific article is represented in two dimensions and the first shape image.

この態様によれば、より適切に対象物を検査することができる。 According to this aspect, the object can be inspected more appropriately.

上記態様において、第1形状画像及び第2形状画像の位置ずれを補正する補正部を、さらに備えしてもよい。 In the above aspect, a correction unit for correcting the positional deviation of the first shape image and the second shape image may be further provided.

この態様によれば、補正前の第1形状画像及び第2形状画像に位置ずれがある場合にも、検査部は、適切に対象物を検査することが可能になる。 According to this aspect, even when there is a positional deviation between the first shape image and the second shape image before correction, the inspection unit can appropriately inspect the object.

上記態様において、検査部は、第1形状画像に含まれる形状情報を閾値と比較して2値化し、第1形状画像における2値のうちのいずれかに対応する面積に基づいて、対象物を検査してもよい。 In the above aspect, the inspection unit binarizes the shape information included in the first shape image with a threshold value, and determines the object based on the area corresponding to any of the binary values in the first shape image. You may inspect.

この態様によれば、検査部は、より適切に対象物を検査することが可能となる。 According to this aspect, the inspection unit can inspect the object more appropriately.

上記態様において、投影部は、拡散光を照射する平板状の照明であり、縞パターンの光を対象物に照射してもよい。 In the above aspect, the projection unit is a flat plate-shaped illumination that irradiates diffused light, and the object may be irradiated with light having a striped pattern.

この態様によれば、より簡便に縞パターンの光を照射することが可能になる。 According to this aspect, it becomes possible to irradiate the light of the striped pattern more easily.

上記態様において、投影部は、縞の方向が互いに異なる複数の縞パターンの光を対象物に照射し、撮影部は、複数の縞パターンのそれぞれの画像を撮影し、形状情報算出部は、複数の縞パターンのそれぞれの画像について形状情報を算出して、算出した複数の縞パターンの形状情報を合成し、検査部は、合成された形状情報に基づき対象物を検査してもよい。 In the above aspect, the projection unit irradiates the object with light of a plurality of stripe patterns having different stripe directions, the photographing unit captures each image of the plurality of stripe patterns, and the shape information calculation unit has a plurality of images. Shape information may be calculated for each image of the fringe pattern of the above, and the shape information of the plurality of calculated fringe patterns may be combined, and the inspection unit may inspect the object based on the combined shape information.

この態様によれば、検査部は、複数の縞パターンの画像に基づく形状情報を用いることができるため、より適切な対象物の検査を行うことができる。 According to this aspect, since the inspection unit can use the shape information based on the images of the plurality of striped patterns, it is possible to inspect a more appropriate object.

本発明の他の態様に係る画像検査方法は、均一なピッチを有する縞パターンの光を対象物に照射し、縞パターンの画像を対象物に投影することと、対象物に投影された縞パターンの画像を撮影することと、画像における縞パターンから抽出される画像特徴に基づいて、対象物の形状情報を算出することと、形状情報に基づき対象物を検査することと、を含み、画像に含まれる縞パターンは、不均一なピッチを有する。 An image inspection method according to another aspect of the present invention is to irradiate an object with light of a striped pattern having a uniform pitch and project an image of the striped pattern onto the object, and a striped pattern projected onto the object. The image includes taking an image of the object, calculating the shape information of the object based on the image feature extracted from the stripe pattern in the image, and inspecting the object based on the shape information. The included striped pattern has a non-uniform pitch.

この態様によれば、1枚の画像の撮影により対象物を検査することができる。また、対象物に投影される縞パターンのピッチが不均一な状態を維持したまま、投影部及び撮影部の配置を適宜変更することができる。このため、均一なピッチを有する縞パターンの画像が対象物に投影される場合よりも、対象物の検査に用いられる装置の配置がより自由になる。 According to this aspect, the object can be inspected by taking one image. Further, the arrangement of the projection unit and the photographing unit can be appropriately changed while maintaining the non-uniform pitch of the fringe pattern projected on the object. Therefore, the arrangement of the device used for inspecting the object becomes more free than when the image of the striped pattern having a uniform pitch is projected on the object.

本発明によれば、1枚の画像の撮影による対象物の検査に用いられる装置を、より自由に配置することを可能とする画像検査装置及び画像検査方法を提供することができる。 According to the present invention, it is possible to provide an image inspection device and an image inspection method that enable more freely arranging devices used for inspecting an object by taking one image.

本発明の一実施形態に係る画像検査装置の構成を示す図である。It is a figure which shows the structure of the image inspection apparatus which concerns on one Embodiment of this invention. 撮影部が撮影する縞パターンの画像の一例を示す図である。It is a figure which shows an example of the image of the stripe pattern which the photographing part takes. 処理部の構成の一例を示す機能ブロック図である。It is a functional block diagram which shows an example of the structure of a processing part. 本発明の一実施形態に係る形状情報算出部の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the shape information calculation part which concerns on one Embodiment of this invention. ピッチ推定部が図2に示した画像にピッチ推定処理を行うことにより生成した、ピッチ分布画像を示す図である。It is a figure which shows the pitch distribution image generated by the pitch estimation part performing the pitch estimation process on the image shown in FIG. 位相算出部が図5に示したピッチ分布画像を用いて生成した、位相分布を示す第1位相画像を示す図である。It is a figure which shows the 1st phase image which shows the phase distribution, which was generated by the phase calculation part using the pitch distribution image shown in FIG. 位相接続部が図6に示した第1位相画像の位相を接続することにより生成される、第2位相画像を示す図である。It is a figure which shows the 2nd phase image generated by connecting the phase of the 1st phase image shown in FIG. 6 by a phase connection part. 角度算出部が形状情報を算出する方法について説明するための図である。It is a figure for demonstrating the method which the angle calculation part calculates shape information. 画像生成部が算出された角度Ψを二次元でマッピングすることにより生成した形状画像を示す図である。It is a figure which shows the shape image generated by mapping the angle Ψ calculated by the image generation part in two dimensions. 検査部が図9に示した形状画像に含まれる角度Ψを2値化することにより生成した、2値画像を示す図である。It is a figure which shows the binary image generated by the inspection part binarizing the angle Ψ included in the shape image shown in FIG. 本実施形態に係る処理部の物理的構成を示す図である。It is a figure which shows the physical structure of the processing part which concerns on this embodiment. 本実施形態に係る画像検査装置の処理を示すフローチャートである。It is a flowchart which shows the process of the image inspection apparatus which concerns on this embodiment. 図12に示す処理におけるステップS170の形状情報算出処理を示すフローチャートである。It is a flowchart which shows the shape information calculation process of step S170 in the process shown in FIG. 図12に示す処理におけるステップS190の検査処理を示すフローチャートである。It is a flowchart which shows the inspection process of step S190 in the process shown in FIG. 第2実施形態に係る処理部の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the processing part which concerns on 2nd Embodiment. 差分値Δφを二次元でマッピングすることにより得られる差分画像である。It is a difference image obtained by mapping the difference value Δφ in two dimensions. 第3実施形態に係る画像検査装置の構成を示す図である。It is a figure which shows the structure of the image inspection apparatus which concerns on 3rd Embodiment.

添付図面を参照して、本発明の好適な実施形態について説明する。 Preferred embodiments of the present invention will be described with reference to the accompanying drawings.

[第1実施形態]
図1は、第1実施形態に係る画像検査装置1の構成を示す図である。図1に示すように、第1実施形態に係る画像検査装置1は、主として、投影部10、撮影部20及び処理部30を備える。
[First Embodiment]
FIG. 1 is a diagram showing a configuration of an image inspection device 1 according to the first embodiment. As shown in FIG. 1, the image inspection apparatus 1 according to the first embodiment mainly includes a projection unit 10, an imaging unit 20, and a processing unit 30.

投影部10は、光を照射する各種の公知の照明である。第1実施形態では、投影部10は、拡散光を照射する平板状の照明である。投影部10は、均一なピッチを有する縞パターンの光を対象物40に照射し、縞パターンの画像を対象物40に投影する。本実施形態では、投影部10は、正弦波の縞パターンの光を照射するものとして説明するが、これに限定されるものではない。また、縞パターンのピッチは、対象物40などに応じて適宜変更することができる。 The projection unit 10 is various known illuminations that irradiate light. In the first embodiment, the projection unit 10 is a flat plate-shaped illumination that irradiates diffused light. The projection unit 10 irradiates the object 40 with light having a striped pattern having a uniform pitch, and projects an image of the striped pattern onto the object 40. In the present embodiment, the projection unit 10 is described as irradiating light with a sine wave fringe pattern, but the present invention is not limited to this. Further, the pitch of the striped pattern can be appropriately changed according to the object 40 and the like.

対象物40は、検査の対象となる物品であり、例えばガラスなどであって良い。また、対象物40の表面には、欠陥以外の急峻な凹凸が含まれず、模様などが付されていないことが好ましい。 The object 40 is an article to be inspected, and may be, for example, glass. Further, it is preferable that the surface of the object 40 does not include steep irregularities other than defects and has no pattern or the like.

投影部10は、平板の面に対して垂直な方向(矢印14の方向)に光を照射する。このとき、投影部10の面に平行な方向(矢印12の方向)と対象物40の表面に接する方向(矢印41の方向)が平行であるとき、対象物40の表面には均一なピッチを有する縞パターンの画像が投影される。本実施形態では、矢印12の方向が、矢印41の方向に対して傾いているため、対象物40に投影される縞パターンは、不均一なピッチを有している。 The projection unit 10 irradiates light in a direction perpendicular to the surface of the flat plate (direction of arrow 14). At this time, when the direction parallel to the surface of the projection unit 10 (direction of arrow 12) and the direction in contact with the surface of the object 40 (direction of arrow 41) are parallel, a uniform pitch is applied to the surface of the object 40. The image of the striped pattern to have is projected. In the present embodiment, since the direction of the arrow 12 is inclined with respect to the direction of the arrow 41, the fringe pattern projected on the object 40 has a non-uniform pitch.

撮影部20は、画像を撮影する各種の公知のカメラで構成されている。撮影部20は、対象物40に投影された縞パターンの画像を撮影する。撮影部20は、撮影した画像のデータ(以下、「画像データ」と称する。)を処理部30に伝達する。 The photographing unit 20 is composed of various known cameras that capture images. The photographing unit 20 photographs an image of the striped pattern projected on the object 40. The photographing unit 20 transmits the captured image data (hereinafter, referred to as “image data”) to the processing unit 30.

図2は、撮影部20が撮影する縞パターンの画像の一例を示す図である。図2に示す画像500に含まれる縞パターンは、矢印502で示された方向に変化している。また、縞パターンのピッチは不均一となっている。具体的には、矢印502の方向に進むにつれて、ピッチが大きくなっている。例えば、左側の矢印506で示されたピッチよりも、右側の矢印508で示されたピッチの方が大きくなっている。 FIG. 2 is a diagram showing an example of an image of a striped pattern photographed by the photographing unit 20. The striped pattern included in the image 500 shown in FIG. 2 changes in the direction indicated by the arrow 502. Moreover, the pitch of the striped pattern is non-uniform. Specifically, the pitch increases as it advances in the direction of arrow 502. For example, the pitch indicated by the arrow 508 on the right side is larger than the pitch indicated by the arrow 506 on the left side.

また、対象物の表面において、破線で囲まれた領域504に線状のへこみがある。本実施形態では、このへこみが対象物の欠陥であるものとして説明する。 Further, on the surface of the object, there is a linear dent in the area 504 surrounded by the broken line. In the present embodiment, this dent will be described as a defect of the object.

処理部30は、撮影部20が取得した画像データを用いて形状情報を算出し、形状情報に基づき対象物40を検査する。処理部30の機能については、図3を参照して詳細に説明する。 The processing unit 30 calculates shape information using the image data acquired by the photographing unit 20, and inspects the object 40 based on the shape information. The function of the processing unit 30 will be described in detail with reference to FIG.

図3は、処理部30の構成の一例を示す機能ブロック図である。図3に示すように、処理部30は、画像取得部310、形状情報算出部320、検査部330及び記憶部340を備える。 FIG. 3 is a functional block diagram showing an example of the configuration of the processing unit 30. As shown in FIG. 3, the processing unit 30 includes an image acquisition unit 310, a shape information calculation unit 320, an inspection unit 330, and a storage unit 340.

画像取得部310は、撮影部20から画像データを取得する。画像取得部310は、取得した画像データを形状情報算出部320及び記憶部340に伝達する。 The image acquisition unit 310 acquires image data from the photographing unit 20. The image acquisition unit 310 transmits the acquired image data to the shape information calculation unit 320 and the storage unit 340.

形状情報算出部320は、画像に含まれる縞パターンから抽出される画像特徴に基づいて、対象物40の形状情報を算出する。形状情報は、対象物40の表面の形状に関する情報である。また、第1実施形態において、画像特徴は、対象物の画像に含まれる縞パターンの位相である。図4を参照して、形状情報算出部320の機能についてより詳細に説明する。 The shape information calculation unit 320 calculates the shape information of the object 40 based on the image features extracted from the stripe pattern included in the image. The shape information is information regarding the shape of the surface of the object 40. Further, in the first embodiment, the image feature is the phase of the fringe pattern included in the image of the object. The function of the shape information calculation unit 320 will be described in more detail with reference to FIG.

図4は、第1実施形態に係る形状情報算出部320の構成を示す機能ブロック図である。図4に示すように、形状情報算出部320は、ピッチ推定部322、位相算出部324、位相接続部326、角度算出部328及び画像生成部329を備える。 FIG. 4 is a functional block diagram showing the configuration of the shape information calculation unit 320 according to the first embodiment. As shown in FIG. 4, the shape information calculation unit 320 includes a pitch estimation unit 322, a phase calculation unit 324, a phase connection unit 326, an angle calculation unit 328, and an image generation unit 329.

ピッチ推定部322は、画像に含まれる複数の画素の各々に対応するピッチを推定するピッチ推定処理を行う。具体的には、ピッチ推定部322は、まず、複数の画素の1つを抽出する。ピッチ推定部322は、抽出した画素を中心として、縞パターンが変化する方向(例えば、図2に示す画像500では左右の方向)に複数の画素が並んだ画素群を抽出する。ピッチ推定部322は、この画素群の画素値により表現された縞のピッチを、抽出した画素に対応するピッチとして推定する。このとき、ピッチ推定部322は、ピッチが異なる複数の正弦波の各々と画素群との相関係数を算出する。ピッチ推定部322は、算出した相関係数に応じて、画素群の画素値により表現された縞のピッチを、複数の正弦波のいずれかのピッチとして推定する。ピッチ推定部322は、このようなピッチ推定処理を複数の画素の各々について行うことで、画像のピッチ分布を生成する。 The pitch estimation unit 322 performs pitch estimation processing for estimating the pitch corresponding to each of the plurality of pixels included in the image. Specifically, the pitch estimation unit 322 first extracts one of the plurality of pixels. The pitch estimation unit 322 extracts a pixel group in which a plurality of pixels are arranged in a direction in which the stripe pattern changes (for example, in the left-right direction in the image 500 shown in FIG. 2) with the extracted pixels as the center. The pitch estimation unit 322 estimates the pitch of the stripes represented by the pixel values of this pixel group as the pitch corresponding to the extracted pixels. At this time, the pitch estimation unit 322 calculates the correlation coefficient between each of the plurality of sine waves having different pitches and the pixel group. The pitch estimation unit 322 estimates the pitch of the fringes represented by the pixel values of the pixel group as one of a plurality of sine waves according to the calculated correlation coefficient. The pitch estimation unit 322 generates a pitch distribution of an image by performing such a pitch estimation process for each of the plurality of pixels.

図5は、ピッチ推定部322が図2に示した画像500にピッチ推定処理を行うことにより生成した、ピッチ分布画像510を示す図である。ピッチ分布画像510では、ピッチが大きいほど画素が白くなっている。したがって、右側ほどピッチが大きくなっている。 FIG. 5 is a diagram showing a pitch distribution image 510 generated by the pitch estimation unit 322 by performing a pitch estimation process on the image 500 shown in FIG. In the pitch distribution image 510, the larger the pitch, the whiter the pixels. Therefore, the pitch is larger toward the right side.

位相算出部324は、画像に含まれる画素に対応する位相を算出する位相算出処理を行う。具体的には、位相算出部324は、ピッチ分布画像510に含まれる複数の画素の1つを抽出する。位相算出部324は、さらに、抽出した画素に対応する推定されたピッチに応じた数の画素が縞パターンの変化する方向に並んだ画素群を抽出する。位相算出部324は、抽出した画素群に対して画素値を離散フーリエ変換することで得られる所定の周波数成分(例えば基本周波数)の位相を算出する。位相算出部324は、複数の画素の各々について、位相算出処理を行うことにより、位相分布を生成する。 The phase calculation unit 324 performs a phase calculation process for calculating the phase corresponding to the pixels included in the image. Specifically, the phase calculation unit 324 extracts one of a plurality of pixels included in the pitch distribution image 510. The phase calculation unit 324 further extracts a pixel group in which a number of pixels corresponding to the estimated pitch corresponding to the extracted pixels are arranged in the direction in which the fringe pattern changes. The phase calculation unit 324 calculates the phase of a predetermined frequency component (for example, fundamental frequency) obtained by performing a discrete Fourier transform on the extracted pixel group. The phase calculation unit 324 generates a phase distribution by performing a phase calculation process for each of the plurality of pixels.

図6は、位相算出部324が図5に示したピッチ分布画像510を用いて生成した、位相分布を示す第1位相画像520を示す図である。第1位相画像520における色の濃さは位相の大きさ(−π〜+π)を示している。図6に示すように、左右の方向(すなわち、縞パターンの変化する方向)に沿って移動すると、黒い部分(位相:−π)と白い部分(位相:+π)との間には境界が生じている。 FIG. 6 is a diagram showing a first phase image 520 showing the phase distribution generated by the phase calculation unit 324 using the pitch distribution image 510 shown in FIG. The color density in the first phase image 520 indicates the magnitude of the phase (−π to + π). As shown in FIG. 6, when moving along the left-right direction (that is, the direction in which the fringe pattern changes), a boundary is created between the black part (phase: −π) and the white part (phase: + π). ing.

位相接続部326は、第1位相画像520における位相の境界を接続する。より具体的には、位相接続部326は、位相が+πから−πに変化する度に、+2πだけ位相を足すことにより、位相が不連続となっている境界を接続する。これにより、位相が連続的にマッピングされた第2位相画像530が生成される。 The phase connection unit 326 connects the phase boundaries in the first phase image 520. More specifically, the phase connection unit 326 connects the boundaries in which the phases are discontinuous by adding the phases by + 2π each time the phase changes from + π to −π. As a result, a second phase image 530 in which the phases are continuously mapped is generated.

図7は、位相接続部326が図6に示した第1位相画像520の位相を接続することにより生成される、第2位相画像530を示す図である。第2位相画像530における色の濃さは、位相の大きさを示している。図7に示しように、第2位相画像530では、位相が滑らかに接続されている。 FIG. 7 is a diagram showing a second phase image 530 generated by connecting the phases of the first phase image 520 shown in FIG. 6 by the phase connecting unit 326. The color intensity in the second phase image 530 indicates the magnitude of the phase. As shown in FIG. 7, in the second phase image 530, the phases are smoothly connected.

角度算出部328は、第2位相画像530における位相を後述する角度に変換する。図8を参照して、角度算出部328が角度を算出する方法について説明する。 The angle calculation unit 328 converts the phase in the second phase image 530 into an angle described later. A method of calculating the angle by the angle calculation unit 328 will be described with reference to FIG.

ここでは、投影部10は、ピッチPを有する正弦波の縞パターンを対象物の表面に投影しているものとする。まず、凹凸のない平らな対象物の表面44に縞パターンの画像が投影される場合について説明する。このとき、撮影部20は、対象物の表面44に投影された縞パターンの画像を撮影する。 Here, it is assumed that the projection unit 10 projects a sine wave fringe pattern having a pitch P onto the surface of the object. First, a case where an image of a striped pattern is projected on the surface 44 of a flat object having no unevenness will be described. At this time, the photographing unit 20 photographs an image of the striped pattern projected on the surface 44 of the object.

撮影部20の光軸26は、対象物の表面44で正反射し、光軸18が投影部10の点Oに到達するものとする。撮影部20のレンズ24から対象物の表面44までの距離はW、対象物の表面44から投影部10の点Oまでの距離はVである。投影部10のX軸方向は、投影部10の平面に平行で、縞パターンの位相が変化する方向である。投影部10のZ軸方向は、投影部10の平面に垂直な方向である。対象物の表面44で正反射した光軸18は、Z軸と角度θで交わる。また、撮影部20の素子上にu軸があり、撮影部の焦点距離をfとする。 It is assumed that the optical axis 26 of the photographing unit 20 is specularly reflected by the surface 44 of the object, and the optical axis 18 reaches the point O of the projection unit 10. The distance from the lens 24 of the photographing unit 20 to the surface 44 of the object is W, and the distance from the surface 44 of the object to the point O of the projection unit 10 is V. The X-axis direction of the projection unit 10 is parallel to the plane of the projection unit 10 and is a direction in which the phase of the fringe pattern changes. The Z-axis direction of the projection unit 10 is a direction perpendicular to the plane of the projection unit 10. The optical axis 18 that is specularly reflected by the surface 44 of the object intersects the Z axis at an angle θ. Further, there is a u-axis on the element of the photographing unit 20, and the focal length of the photographing unit is f.

このとき、投影部10の座標Xと撮影部20の座標uとの関係は次の式(1)で表される。 At this time, the relationship between the coordinates X of the projection unit 10 and the coordinates u of the photographing unit 20 is expressed by the following equation (1).

Figure 2021135200
Figure 2021135200

ここで、座標uの画素において観測される縞パターンの位相をφとすると、投影部10の座標Xと位相φの間には、X=φP/2πの関係がある。この関係を式(1)に代入すると、次の式(2)が導かれる。 Here, assuming that the phase of the fringe pattern observed in the pixel of the coordinate u is φ, there is a relationship of X = φP / 2π between the coordinate X of the projection unit 10 and the phase φ. Substituting this relationship into equation (1) leads to the following equation (2).

Figure 2021135200
Figure 2021135200

座標uと位相φとの関係を求める方法は、観測された複数の座標uと位相φとの組み合わせから、最小二乗法等を用いて近似する方法がある。この方法の考えを採用する場合には、位相φは、定数A、B及びCにより、分数の関数を用いた次の式(3)で表される。 As a method of obtaining the relationship between the coordinate u and the phase φ, there is a method of approximating by using the least squares method or the like from the combination of the plurality of observed coordinates u and the phase φ. When adopting the idea of this method, the phase φ is represented by the following equation (3) using the function of the fraction by the constants A, B and C.

Figure 2021135200
Figure 2021135200

次に、対象物の表面に欠陥が生じており、表面の法線方向が角度Ψだけ傾いている場合について説明する。この場合、対象物の表面46で反射する光軸17の方向は、表面44が平らである場合に比べて2Ψだけ傾いている。これにより、投影部10の座標uで観測される縞パターンの位置は、対象物の表面44が平らである場合と比べて距離dxだけずれ、観測される位相φ’は、次の式(4)で表される。 Next, a case where a defect is generated on the surface of the object and the normal direction of the surface is tilted by an angle Ψ will be described. In this case, the direction of the optical axis 17 reflected by the surface 46 of the object is tilted by 2Ψ as compared with the case where the surface 44 is flat. As a result, the position of the fringe pattern observed at the coordinates u of the projection unit 10 is deviated by the distance dx as compared with the case where the surface 44 of the object is flat, and the observed phase φ'is the following equation (4). ).

Figure 2021135200
Figure 2021135200

上の式(4)を角度Ψについて解くと、次の式(5)が導かれる。 Solving the above equation (4) for the angle Ψ leads to the following equation (5).

Figure 2021135200
Figure 2021135200

撮影部20の座標uにおける縞パターンの位相φ’を観測し、式(5)を用いることにより、対象物の欠陥の表面46における角度Ψを取得することができる。 By observing the phase φ'of the fringe pattern at the coordinates u of the photographing unit 20 and using Eq. (5), the angle Ψ on the surface 46 of the defect of the object can be obtained.

本実施形態では、角度算出部328は、ここで説明した方法により、第2位相画像530に含まれる複数の位相の各々に対応する角度Ψを算出する。本実施形態では、角度Ψが形状情報であるものとして説明する。 In the present embodiment, the angle calculation unit 328 calculates the angle Ψ corresponding to each of the plurality of phases included in the second phase image 530 by the method described here. In this embodiment, it is assumed that the angle Ψ is the shape information.

なお、角度算出部328が座標uと位相φとの関係を求める方法は、上述した方法に限らず、上の式(2)に各パラメータを入力することで求める方法であってもよい。 The method by which the angle calculation unit 328 obtains the relationship between the coordinates u and the phase φ is not limited to the method described above, and may be a method obtained by inputting each parameter into the above equation (2).

画像生成部329は、算出された形状情報を二次元でマッピングすることにより形状画像(第1形状画像)を生成する。本実施形態では、画像生成部329は、算出された角度Ψを二次元でマッピングすることにより形状画像を生成する。 The image generation unit 329 generates a shape image (first shape image) by mapping the calculated shape information in two dimensions. In the present embodiment, the image generation unit 329 generates a shape image by mapping the calculated angle Ψ in two dimensions.

図9は、画像生成部329が算出された角度Ψを二次元でマッピングすることにより生成した形状画像540を示す図である。図9では、角度Ψが大きいほど画素が白くなっている。特に、破線の四角で囲まれた領域542において、画素が白くなっている。この領域542は、図2に示した画像500における領域504に含まれるへこみの部分に対応している。 FIG. 9 is a diagram showing a shape image 540 generated by two-dimensionally mapping the calculated angle Ψ by the image generation unit 329. In FIG. 9, the larger the angle Ψ, the whiter the pixels. In particular, the pixels are white in the area 542 surrounded by the broken line square. This region 542 corresponds to a dented portion included in the region 504 in the image 500 shown in FIG.

検査部330は、形状情報に基づき対象物を検査する。本実施形態では、まず、検査部330は、形状画像に含まれる角度Ψの各々と閾値Tとを比較して2値化する。具体的には、検査部330は、角度Ψが閾値T以上である画素を白に変換し、角度Ψが閾値T未満である画素を黒に変換することにより、2値画像を生成する。 The inspection unit 330 inspects the object based on the shape information. In the present embodiment, first, the inspection unit 330 compares each of the angles Ψ included in the shape image with the threshold value T and binarizes them. Specifically, the inspection unit 330 generates a binary image by converting pixels having an angle Ψ of the threshold value T or more into white and pixels having an angle Ψ of less than the threshold value T of black.

図10は、検査部330が図9に示した形状画像540に含まれる角度Ψを2値化することにより生成した、2値画像550を示す図である。上述したように、白い領域は閾値T以上の角度Ψに対応し、黒い領域は閾値T未満である角度Ψに対応している。白い領域が広くなるほど、対象物に欠陥が存在している可能性が高いと考えられる。 FIG. 10 is a diagram showing a binary image 550 generated by the inspection unit 330 by binarizing the angle Ψ included in the shape image 540 shown in FIG. 9. As described above, the white region corresponds to the angle Ψ above the threshold T and the black region corresponds to the angle Ψ below the threshold T. The wider the white area, the more likely it is that the object has defects.

本実施形態では、検査部330は、白い領域の面積に基づいて対象物を検査する。より具体的には、検査部330は、白い領域の面積と閾値とを比較し、比較結果に基づき対象物を検査することができる。例えば、検査部330は、白い領域の面積が閾値A以上である場合には、対象物に欠陥が存在すると判定する。一方、検査部330は、白い領域の面積が閾値A未満である場合には、対象物に欠陥が存在しないと判定することができる。 In this embodiment, the inspection unit 330 inspects the object based on the area of the white area. More specifically, the inspection unit 330 can compare the area of the white region with the threshold value and inspect the object based on the comparison result. For example, when the area of the white area is equal to or larger than the threshold value A, the inspection unit 330 determines that the object has a defect. On the other hand, when the area of the white region is less than the threshold value A, the inspection unit 330 can determine that there is no defect in the object.

記憶部340は、処理部30による処理に関わる各種の情報を記憶する。例えば、記憶部340は、画像取得部310が取得した画像データ、形状情報算出部320が算出した形状情報及び検査部330が検査した結果などの各種の情報を記憶する。記憶部340が記憶している情報は、必要に応じて形状情報算出部320及び検査部330により参照される。 The storage unit 340 stores various information related to processing by the processing unit 30. For example, the storage unit 340 stores various information such as image data acquired by the image acquisition unit 310, shape information calculated by the shape information calculation unit 320, and inspection results by the inspection unit 330. The information stored in the storage unit 340 is referred to by the shape information calculation unit 320 and the inspection unit 330 as necessary.

図11は、本実施形態に係る処理部30の物理的構成を示す図である。処理部30は、演算部に相当するCPU(Central Processing Unit)30aと、記憶部340に相当するRAM(Random Access Memory)30bと、記憶部340に相当するROM(Read only Memory)30cと、通信部30dと、入力部30eと、表示部30fと、を有する。これらの各構成は、バスを介して相互にデータ送受信可能に接続される。なお、本例では処理部30が一台のコンピュータで構成される場合について説明するが、処理部30は、複数のコンピュータが組み合わされて実現されてもよい。また、図11で示す構成は一例であり、処理部30はこれら以外の構成を有してもよいし、これらの構成のうち一部を有さなくてもよい。 FIG. 11 is a diagram showing a physical configuration of the processing unit 30 according to the present embodiment. The processing unit 30 communicates with a CPU (Central Processing Unit) 30a corresponding to a calculation unit, a RAM (Random Access Memory) 30b corresponding to a storage unit 340, and a ROM (Read only Memory) 30c corresponding to a storage unit 340. It has a unit 30d, an input unit 30e, and a display unit 30f. Each of these configurations is connected to each other via a bus so that data can be transmitted and received. In this example, the case where the processing unit 30 is composed of one computer will be described, but the processing unit 30 may be realized by combining a plurality of computers. Further, the configuration shown in FIG. 11 is an example, and the processing unit 30 may have configurations other than these, or may not have a part of these configurations.

CPU30aは、RAM30b又はROM30cに記憶されたプログラムの実行に関する制御やデータの演算、加工を行う制御部である。CPU30aは、縞パターンの光が照射された対象物の画像に基づいて、対象物の検査を行うプログラム(画像検査プログラム)を実行する演算部である。CPU30aは、入力部30eや通信部30dから種々のデータを受け取り、データの演算結果を表示部30fに表示したり、RAM30bに格納したりする。 The CPU 30a is a control unit that controls execution of a program stored in the RAM 30b or ROM 30c, calculates data, and processes data. The CPU 30a is a calculation unit that executes a program (image inspection program) for inspecting the object based on the image of the object irradiated with the light of the striped pattern. The CPU 30a receives various data from the input unit 30e and the communication unit 30d, displays the calculation result of the data on the display unit 30f, and stores the data in the RAM 30b.

RAM30bは、記憶部340のうちデータの書き換えが可能なものであり、例えば半導体記憶素子で構成されてよい。RAM30bは、CPU30aが実行するプログラム、対象物の画像といったデータを記憶してよい。なお、これらは例示であって、RAM30bには、これら以外のデータが記憶されていてもよいし、これらの一部が記憶されていなくてもよい。 The RAM 30b is a storage unit 340 in which data can be rewritten, and may be composed of, for example, a semiconductor storage element. The RAM 30b may store data such as a program executed by the CPU 30a and an image of an object. It should be noted that these are examples, and data other than these may be stored in the RAM 30b, or a part of these may not be stored.

ROM30cは、記憶部340のうちデータの読み出しが可能なものであり、例えば半導体記憶素子で構成されてよい。ROM30cは、例えば画像検査プログラムや、書き換えが行われないデータを記憶してよい。 The ROM 30c can read data from the storage unit 340, and may be composed of, for example, a semiconductor storage element. The ROM 30c may store, for example, an image inspection program or data that is not rewritten.

通信部30dは、処理部30を他の機器に接続するインターフェースである。通信部30dは、インターネット等の通信ネットワークに接続されてよい。 The communication unit 30d is an interface for connecting the processing unit 30 to another device. The communication unit 30d may be connected to a communication network such as the Internet.

入力部30eは、ユーザからデータの入力を受け付けるものであり、例えば、キーボード及びタッチパネルを含んでよい。 The input unit 30e receives data input from the user, and may include, for example, a keyboard and a touch panel.

表示部30fは、CPU30aによる演算結果を視覚的に表示するものであり、例えば、LCD(Liquid Crystal Display)により構成されてよい。表示部30fは、撮影した対象物の画像を表示してよい。 The display unit 30f visually displays the calculation result by the CPU 30a, and may be configured by, for example, an LCD (Liquid Crystal Display). The display unit 30f may display an image of the captured object.

画像検査プログラムは、RAM30bやROM30c等のコンピュータによって読み取り可能な記憶媒体に記憶されて提供されてもよいし、通信部30dにより接続される通信ネットワークを介して提供されてもよい。処理部30では、CPU30aが画像検査プログラムを実行することにより、図3及び図4を用いて説明した様々な動作が実現される。なお、これらの物理的な構成は例示であって、必ずしも独立した構成でなくてもよい。例えば、処理部30は、CPU30aとRAM30bやROM30cが一体化したLSI(Large-Scale Integration)を備えていてもよい。 The image inspection program may be stored in a storage medium readable by a computer such as a RAM 30b or a ROM 30c and provided, or may be provided via a communication network connected by a communication unit 30d. In the processing unit 30, the CPU 30a executes the image inspection program to realize various operations described with reference to FIGS. 3 and 4. It should be noted that these physical configurations are examples and do not necessarily have to be independent configurations. For example, the processing unit 30 may include an LSI (Large-Scale Integration) in which the CPU 30a and the RAM 30b or ROM 30c are integrated.

以上、本実施形態に係る画像検査装置1の構成及び機能について説明した。次に、図12〜図14を参照して、本実施形態に係る画像検査装置1の処理について説明する。図12は、本実施形態に係る画像検査装置1の処理を示すフローチャートである。また、図13は、図12に示す処理におけるステップS170の形状情報算出処理を示すフローチャートである。さらに、図14は、図12に示す処理におけるステップS190の検査処理を示すフローチャートである。以下、図12〜図14に沿って、画像検査装置1の処理について説明する。 The configuration and function of the image inspection device 1 according to the present embodiment have been described above. Next, the processing of the image inspection apparatus 1 according to the present embodiment will be described with reference to FIGS. 12 to 14. FIG. 12 is a flowchart showing the processing of the image inspection device 1 according to the present embodiment. Further, FIG. 13 is a flowchart showing the shape information calculation process of step S170 in the process shown in FIG. Further, FIG. 14 is a flowchart showing the inspection process of step S190 in the process shown in FIG. Hereinafter, the processing of the image inspection apparatus 1 will be described with reference to FIGS. 12 to 14.

まず、投影部10が、対象物40に縞パターンの光を照射する(ステップS110)。これにより、対象物に縞パターンの画像が投影される。次いで、撮影部20が、対象物40に投影された縞パターンの画像を撮影する(ステップS130)。 First, the projection unit 10 irradiates the object 40 with light in a striped pattern (step S110). As a result, an image of the striped pattern is projected on the object. Next, the photographing unit 20 photographs an image of the striped pattern projected on the object 40 (step S130).

次いで、画像取得部310は、撮影部20から画像データを取得する(ステップS150)。次いで、形状情報算出部320は、形状画像生成処理を行う(ステップS170)。具体的には、処理部30は、画像データに基づき形状情報を算出して、形状画像を生成する。図12を参照して、形状画像生成処理についてより詳細に説明する。 Next, the image acquisition unit 310 acquires image data from the photographing unit 20 (step S150). Next, the shape information calculation unit 320 performs a shape image generation process (step S170). Specifically, the processing unit 30 calculates shape information based on the image data and generates a shape image. The shape image generation process will be described in more detail with reference to FIG.

図12は、形状情報算出処理の手順を示すフローチャートである。まず、ピッチ推定部322は、画像データに対してピッチ推定処理を行い、ピッチ分布画像を生成する(ステップS171)。次いで、位相算出部324は、ピッチ分布画像に基づき、第1位相画像を生成する(ステップS173)。次いで、位相接続部326は、第1位相画像について位相接続を行うことにより、第2位相画像を生成する(ステップS175)。次いで、角度算出部328は、第2位相画像に基づき、形状情報として角度Ψを算出する(ステップS177)。次いで、画像生成部329は、算出された角度Ψを二次元でマッピングすることにより、形状画像を生成する(ステップS179)。形状画像が生成されると、形状情報算出処理が終了する。 FIG. 12 is a flowchart showing the procedure of the shape information calculation process. First, the pitch estimation unit 322 performs pitch estimation processing on the image data to generate a pitch distribution image (step S171). Next, the phase calculation unit 324 generates a first phase image based on the pitch distribution image (step S173). Next, the phase connection unit 326 generates a second phase image by making a phase connection with respect to the first phase image (step S175). Next, the angle calculation unit 328 calculates the angle Ψ as shape information based on the second phase image (step S177). Next, the image generation unit 329 generates a shape image by mapping the calculated angle Ψ in two dimensions (step S179). When the shape image is generated, the shape information calculation process ends.

図12に戻って、画像検査装置1の処理の続きを説明する。ステップS170において形状画像生成処理が行われると、検査部330は、検査処理を行う(ステップS190)。図14を参照して、検査処理についてより詳細に説明する。 Returning to FIG. 12, the continuation of the processing of the image inspection apparatus 1 will be described. When the shape image generation process is performed in step S170, the inspection unit 330 performs the inspection process (step S190). The inspection process will be described in more detail with reference to FIG.

まず、検査部330は、図10を参照して説明したように、白い領域と黒い領域で形成された2値画像を生成する(ステップS191)。次いで、検査部330は、白い領域の面積が閾値以上であるか否かを判定する(ステップS193)。白い領域の面積が閾値以上であると判定された場合には(ステップS193:YES)、検査部330は、対象物に欠陥があると判定する(ステップS195)。一方、白い領域の面積が閾値以上であると判定された場合には(ステップS193:NO)、検査部330は、対象物に欠陥がないと判定する(ステップS197)。検査部330が対象物の欠陥の有無を判定すると、図11に示す処理は終了する。 First, the inspection unit 330 generates a binary image formed by a white region and a black region, as described with reference to FIG. 10 (step S191). Next, the inspection unit 330 determines whether or not the area of the white region is equal to or larger than the threshold value (step S193). When it is determined that the area of the white region is equal to or larger than the threshold value (step S193: YES), the inspection unit 330 determines that the object is defective (step S195). On the other hand, when it is determined that the area of the white region is equal to or larger than the threshold value (step S193: NO), the inspection unit 330 determines that the object has no defect (step S197). When the inspection unit 330 determines the presence or absence of defects in the object, the process shown in FIG. 11 ends.

以上、第1実施形態について説明した。本実施形態によれば、対象物40に投影される画像に含まれる縞パターンが不均一なピッチを有するように、投影部10及び撮影部20が配置されている。このため、均一なピッチを有する縞パターンの画像が対象物40に投影される場合と比べて、投影部10及び撮影部20の配置がより自由になる。この結果、対象物40を検査する位置に応じて、投影部10及び撮影部20を所望の位置に配置することが簡便となる。例えば、投影部10の平面に平行な方向(図1の矢印12の方向)と対象物40の表面に平行な方向(図1の矢印41の方向)が異なるように投影部10を配置できる。従って、本実施形態に係る画像検査装置1によれば、特許文献1に記載の技術に比べて、投影部10をより自由に配置することが可能になっている。 The first embodiment has been described above. According to the present embodiment, the projection unit 10 and the photographing unit 20 are arranged so that the fringe pattern included in the image projected on the object 40 has a non-uniform pitch. Therefore, the arrangement of the projection unit 10 and the photographing unit 20 becomes more free than in the case where the image of the striped pattern having a uniform pitch is projected on the object 40. As a result, it becomes convenient to arrange the projection unit 10 and the photographing unit 20 at desired positions according to the position where the object 40 is inspected. For example, the projection unit 10 can be arranged so that the direction parallel to the plane of the projection unit 10 (direction of arrow 12 in FIG. 1) and the direction parallel to the surface of the object 40 (direction of arrow 41 in FIG. 1) are different. Therefore, according to the image inspection apparatus 1 according to the present embodiment, the projection unit 10 can be arranged more freely as compared with the technique described in Patent Document 1.

また、本実施形態では、1枚の画像を用いることで対象物40を検査することができる。このため、短時間で対象物40を検査することが可能となる。このため、本実施形態に係る画像検査装置1によれば、複数の画像を撮影するよりも短時間で対象物を検査することが可能になる。 Further, in the present embodiment, the object 40 can be inspected by using one image. Therefore, the object 40 can be inspected in a short time. Therefore, according to the image inspection device 1 according to the present embodiment, it is possible to inspect an object in a shorter time than when a plurality of images are taken.

さらに、本実施形態に係る画像検査装置1によれば、対象物40に存在する緩やかな欠陥も検出することが可能である。 Further, according to the image inspection apparatus 1 according to the present embodiment, it is possible to detect a gentle defect existing in the object 40.

本実施形態では、検査部330は、対象物の表面の角度Ψを形状情報として用いることで対象物を検査する。これに限らず、検査部330は、縞パターンから抽出される画像特徴に基づく、各種の形状情報を用いて対象物を検査することができる。具体的には、検査部330は、縞パターンの位相に基づく各種の形状情報を用いて対象物を検査することができる。 In the present embodiment, the inspection unit 330 inspects the object by using the angle Ψ of the surface of the object as shape information. Not limited to this, the inspection unit 330 can inspect the object by using various shape information based on the image features extracted from the stripe pattern. Specifically, the inspection unit 330 can inspect the object by using various shape information based on the phase of the stripe pattern.

例えば、形状情報算出部320は、位相接続部326が生成した第2位相分布の位相φ’(u)に対して微分を行い、微分値dφ’(u)/duを形状情報として算出することができる。検査部330は、例えば、閾値を超える微分値dφ’(u)/duが存在する場合には、対象物に欠陥があると判定することができる。なお、形状情報算出部320は、位相φ’(u)の微分を行う前に、第2位相分布に前処理としてガウシアンフィルタなどの空間フィルタによる平滑化を行い、特定の幅を有する領域における位相φ’(u)の微分を行ってもよい。 For example, the shape information calculation unit 320 differentiates the phase φ'(u) of the second phase distribution generated by the phase connection unit 326, and calculates the differential value dφ'(u) / du as the shape information. Can be done. For example, when the differential value dφ'(u) / du exceeding the threshold value is present, the inspection unit 330 can determine that the object is defective. Before differentiating the phase φ'(u), the shape information calculation unit 320 smoothes the second phase distribution with a spatial filter such as a Gaussian filter as preprocessing, and the phase in a region having a specific width. Differentiation of φ'(u) may be performed.

また、後述するように、形状情報算出部320は、位相φ’(u)と平坦な表面に投影された縞パターンの位相φ(u)との差分値を形状情報として算出することもできる。 Further, as will be described later, the shape information calculation unit 320 can also calculate the difference value between the phase φ'(u) and the phase φ (u) of the fringe pattern projected on the flat surface as the shape information.

本実施形態では、画像生成部329は、角度Ψを二次元でマッピングすることで形状画像を生成するものとして説明した。これに限らず、画像生成部329は、角度Ψに対して空間フィルタをかけることにより形状画像を生成してもよい。例えば、画像生成部329は、ラプラシアンオブガウシアンなどの空間フィルタを用いて、特定の周波数帯域の縞パターンの画像を選択的に生成することができる。検査部330は、このようにして生成された形状情報が閾値を超える場合には、対象物に欠陥が存在すると判定してもよい。 In the present embodiment, the image generation unit 329 has been described as generating a shape image by mapping the angle Ψ in two dimensions. Not limited to this, the image generation unit 329 may generate a shape image by applying a spatial filter to the angle Ψ. For example, the image generation unit 329 can selectively generate an image of a fringe pattern in a specific frequency band by using a spatial filter such as a Laplacian of Gaussian. When the shape information generated in this way exceeds the threshold value, the inspection unit 330 may determine that the object has a defect.

また、形状情報算出部320は、対象物の表面が凸面である場合と凹面である場合とで、角度Ψの符号が反対であることを利用して、凸面及び凹面のいずれかの角度Ψを選択的に取得してもよい。 Further, the shape information calculation unit 320 utilizes the fact that the sign of the angle Ψ is opposite between the case where the surface of the object is convex and the case where the surface is concave, and determines the angle Ψ of either the convex surface or the concave surface. It may be acquired selectively.

また、本実施形態では、検査部330は、対象物の欠陥の有無を判定するものとして説明した。検査部330は、さらに、対象物に存在する欠陥(異常)の位置を検出してもよい。例えば、検査部330は、図10に示した2値画像550における白い領域の位置を欠陥の位置として検出してもよい。 Further, in the present embodiment, the inspection unit 330 has been described as determining the presence or absence of defects in the object. The inspection unit 330 may further detect the position of a defect (abnormality) existing in the object. For example, the inspection unit 330 may detect the position of the white region in the binary image 550 shown in FIG. 10 as the position of the defect.

[第2実施形態]
第2実施形態では第1実施形態と共通の事柄についての記述を省略し、異なる点についてのみ説明する。上記実施形態では、主に、検査部330は角度Ψを用いて対象物を検査するものとして説明した。第2実施形態では、検査部330は、角度Ψを用いずに、位相接続部326が生成した位相に基づく形状情報により対象物を検査する。
[Second Embodiment]
In the second embodiment, the description of the matters common to the first embodiment will be omitted, and only the differences will be described. In the above embodiment, it has been described that the inspection unit 330 mainly inspects the object using the angle Ψ. In the second embodiment, the inspection unit 330 inspects the object by the shape information based on the phase generated by the phase connection unit 326 without using the angle Ψ.

図15は、第2実施形態に係る処理部31の構成を示す機能ブロック図である。第2実施形態に係る処理部31は、第1実施形態に係る処理部30が備える画像取得部310、形状情報算出部320、検査部330及び記憶部340に加えて、補正部350を備える。 FIG. 15 is a functional block diagram showing the configuration of the processing unit 31 according to the second embodiment. The processing unit 31 according to the second embodiment includes a correction unit 350 in addition to the image acquisition unit 310, the shape information calculation unit 320, the inspection unit 330, and the storage unit 340 included in the processing unit 30 according to the first embodiment.

補正部350は、画像の位置ずれを補正する。より具体的には、補正部350は、形状情報算出部320により生成された第1形状画像(本実施形態では、第2位相画像)及び後述する第2形状画像の位置ずれを補正する。これにより、補正前の第1形状画像及び第2形状画像に位置ずれが生じている場合にも、検査部330は適切に対象物を検査することが可能になる。 The correction unit 350 corrects the misalignment of the image. More specifically, the correction unit 350 corrects the positional deviation of the first shape image (second phase image in this embodiment) generated by the shape information calculation unit 320 and the second shape image described later. As a result, even when the first shape image and the second shape image before correction are displaced, the inspection unit 330 can appropriately inspect the object.

第2実施形態では、予め良品であることが分かっている物品の形状を二次元で表現した形状画像(「第2形状画像」とも称する。)が用意されている。用意された第2形状画像は、記憶部340に記憶されている。本実施形態では、第2形状画像は、欠陥のない平坦の物品に縞パターンが投影された場合の縞パターンの位相φを、二次元でマッピングすることにより生成された画像である。 In the second embodiment, a shape image (also referred to as a “second shape image”) that two-dimensionally represents the shape of an article that is known to be a non-defective product is prepared. The prepared second shape image is stored in the storage unit 340. In the present embodiment, the second shape image is an image generated by two-dimensionally mapping the phase φ of the fringe pattern when the fringe pattern is projected on a flat article without defects.

本実施形態では、検査部330は、位相接続部326により生成された第2位相画像を第1形状画像として用いる。検査部330は、第2位相画像及び第2形状画像に基づき、対象物を検査する。例えば、形状情報算出部320は、第2位相画像の位相φ’と第2形状画像の位相φとの差分値Δφを算出する。図16は、差分値Δφを二次元でマッピングすることにより得られる差分画像560である。差分値Δφが大きい領域ほど、白く表示されている。検査部330は、例えば、差分画像に閾値以上である差分値Δφが含まれる場合には、対象物に欠陥がないと判定してもよい。 In the present embodiment, the inspection unit 330 uses the second phase image generated by the phase connection unit 326 as the first shape image. The inspection unit 330 inspects the object based on the second phase image and the second shape image. For example, the shape information calculation unit 320 calculates the difference value Δφ between the phase φ ′ of the second phase image and the phase φ of the second shape image. FIG. 16 is a difference image 560 obtained by mapping the difference value Δφ in two dimensions. The larger the difference value Δφ is, the whiter it is displayed. For example, when the difference image contains a difference value Δφ which is equal to or larger than the threshold value, the inspection unit 330 may determine that the object has no defect.

検査部330が第1形状画像と第2形状画像とを比較する際に、予め、補正部350が第1形状画像及び第2形状画像の位置ずれを補正してよい。これにより、補正前の第1形状画像及び第2形状画像が位置ずれを有している場合であっても、検査部330が適切に対象物を検査することが可能になる。 When the inspection unit 330 compares the first shape image with the second shape image, the correction unit 350 may correct the misalignment of the first shape image and the second shape image in advance. As a result, even when the first shape image and the second shape image before correction have a positional deviation, the inspection unit 330 can appropriately inspect the object.

なお、検査部330は、必要に応じて、第1形状画像を射影変換してもよい。対象物の表面がほぼ平面であると仮定すると、縞パターンの射影変換パラメータを推定することも可能である。射影変換パラメータを推定する方法には、投影される縞パターンの上に、特定のパターンを重ねて投影する方法が挙げられる。また、射影変換パラメータを推定する方法は、対象物の形状情報(例えば、対象物の輪郭など)を用いる方法であってもよい。 The inspection unit 330 may project the first shape image as necessary. Assuming that the surface of the object is almost flat, it is also possible to estimate the projective transformation parameters of the fringe pattern. Examples of the method of estimating the projective transformation parameter include a method of superimposing a specific pattern on the projected fringe pattern and projecting the pattern. Further, the method of estimating the projective transformation parameter may be a method of using the shape information of the object (for example, the contour of the object).

以上、第2実施形態について説明した。 The second embodiment has been described above.

(補足)
本実施形態では、検査部330は、位相接続部326により位相接続されることで生成された第2位相画像の位相φ’と欠陥のない平坦の物品に縞パターンが投影された場合の位相φとの差分値を用いて検査するものとして説明した。これに限らず、検査部330は、位相接続部326により位相接続される前の第1位相画像と、欠陥のない平坦の物品に縞パターンが投影された場合の位相との差分値を用いて検査してもよい。
(supplement)
In the present embodiment, the inspection unit 330 has a phase φ'of the second phase image generated by phase connection by the phase connection unit 326 and a phase φ when a striped pattern is projected on a flat article without defects. It was explained as the one to be inspected using the difference value with. Not limited to this, the inspection unit 330 uses the difference value between the first phase image before the phase connection by the phase connection unit 326 and the phase when the fringe pattern is projected on a flat article without defects. You may inspect.

本実施形態では、検査部330は、対象物の位相値φ’と良品の位相値φとの差分値Δφを用いて、対象物を検査するものとして説明した。これに限らず、検査部330は、対象物の表面の角度Ψと良品の表面の角度との差分を用いて、対象物を検査してもよい。 In the present embodiment, the inspection unit 330 has been described as inspecting the object by using the difference value Δφ between the phase value φ'of the object and the phase value φ of the non-defective product. Not limited to this, the inspection unit 330 may inspect the object by using the difference between the angle Ψ of the surface of the object and the angle of the surface of the non-defective product.

また、本実施形態では、検査部330は、欠陥のない物品の形状画像と、対象物に投影された縞パターンの画像に基づく形状画像とを比較して対象物を検査するものとして説明した。これに限らず、検査部330は、欠陥を有する物品の形状画像と、対象物に投影された縞パターンの画像に基づく形状画像とを比較して対象物を検査してもよい。 Further, in the present embodiment, the inspection unit 330 has been described as inspecting the object by comparing the shape image of the article without defects with the shape image based on the image of the striped pattern projected on the object. Not limited to this, the inspection unit 330 may inspect the object by comparing the shape image of the defective article with the shape image based on the image of the striped pattern projected on the object.

[第3実施形態]
図17は、第3実施形態に係る画像検査装置2の構成を示す図である。図17に示す画像検査装置2は、図1に示した画像検査装置1と異なり、反射板19をさらに備える。投影部10は、反射板19に縞パターンの光を反射させて対象物40に縞パターンの画像を投影する。この場合にも、投影部10は、反射板19を介して、対象物40の表面にピッチが不均一な縞パターンの画像を投影することができる。
[Third Embodiment]
FIG. 17 is a diagram showing a configuration of an image inspection device 2 according to a third embodiment. The image inspection device 2 shown in FIG. 17 is different from the image inspection device 1 shown in FIG. 1 and further includes a reflector 19. The projection unit 10 reflects the light of the striped pattern on the reflector 19 and projects the image of the striped pattern on the object 40. Also in this case, the projection unit 10 can project an image of a striped pattern having a non-uniform pitch on the surface of the object 40 via the reflector 19.

以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素及びその配置、材料、条件、形状、サイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。 The embodiments described above are for facilitating the understanding of the present invention, and are not for limiting and interpreting the present invention. Each element included in the embodiment and its arrangement, material, condition, shape, size, etc. are not limited to those exemplified, and can be changed as appropriate. In addition, the configurations shown in different embodiments can be partially replaced or combined.

上記実施形態では、主に、投影部10が1つの縞パターンの光を対象物40に照射するものとして説明した。これに限らず、投影部10は、縞の方向が互いに異なる複数の縞パターンの光を対象物40に照射してもよい。例えば、投影部10は、例えば画像を表示可能なディスプレイにより、縞の方向が互いに90°異なる2つの縞パターンの光を順番に対象物40に照射してもよい。形状情報算出部320は、複数の縞パターンのそれぞれの画像について形状情報を算出して、算出した前記複数の縞パターンの形状情報を合成することができる。検査部330は、合成された形状情報に基づき対象物40を検査することにより、より精度よく対象物40を検査することができる。 In the above embodiment, it has been described that the projection unit 10 mainly irradiates the object 40 with the light of one striped pattern. Not limited to this, the projection unit 10 may irradiate the object 40 with light having a plurality of stripe patterns in which the directions of the stripes are different from each other. For example, the projection unit 10 may sequentially irradiate the object 40 with light of two stripe patterns whose stripe directions differ from each other by 90 ° by, for example, a display capable of displaying an image. The shape information calculation unit 320 can calculate the shape information for each image of the plurality of stripe patterns and synthesize the calculated shape information of the plurality of stripe patterns. The inspection unit 330 can inspect the object 40 more accurately by inspecting the object 40 based on the synthesized shape information.

[附記]
均一なピッチを有する縞パターンの光を対象物に照射し、縞パターンの画像を対象物に投影する投影部(10)と、
前記対象物に投影された縞パターンの画像を撮影する撮影部(20)と、
前記画像に含まれる縞パターンから抽出される画像特徴に基づいて、前記対象物の形状情報を算出する形状情報算出部(320)と、
前記形状情報に基づき前記対象物を検査する検査部(330)と、を備え、
前記画像に含まれる縞パターンは、不均一なピッチを有する、
画像検査装置(1,2)。
[Appendix]
A projection unit (10) that irradiates an object with light having a striped pattern having a uniform pitch and projects an image of the striped pattern onto the object.
An imaging unit (20) that captures an image of a striped pattern projected on the object, and
A shape information calculation unit (320) that calculates shape information of the object based on image features extracted from the stripe pattern included in the image, and
An inspection unit (330) that inspects the object based on the shape information is provided.
The striped pattern contained in the image has a non-uniform pitch.
Image inspection device (1, 2).

1,2…画像検査装置、10…投影部、20…撮影部、30,31…処理部、40…対象物、310…画像取得部、320…形状情報算出部、329…画像生成部、330…検査部、350…補正部、500…画像、520…第1位相画像、530…第2位相画像、540…形状画像 1,2 ... Image inspection device, 10 ... Projection unit, 20 ... Imaging unit, 30, 31 ... Processing unit, 40 ... Object, 310 ... Image acquisition unit, 320 ... Shape information calculation unit, 329 ... Image generation unit, 330 ... Inspection unit, 350 ... Correction unit, 500 ... Image, 520 ... First phase image, 530 ... Second phase image, 540 ... Shape image

Claims (9)

均一なピッチを有する縞パターンの光を対象物に照射し、縞パターンの画像を対象物に投影する投影部と、
前記対象物に投影された縞パターンの画像を撮影する撮影部と、
前記画像に含まれる縞パターンから抽出される画像特徴に基づいて、前記対象物の形状情報を算出する形状情報算出部と、
前記形状情報に基づき前記対象物を検査する検査部と、を備え、
前記画像に含まれる縞パターンは、不均一なピッチを有する、
画像検査装置。
A projection unit that irradiates an object with light of a striped pattern having a uniform pitch and projects an image of the striped pattern onto the object.
An imaging unit that captures an image of the striped pattern projected on the object, and
A shape information calculation unit that calculates shape information of the object based on image features extracted from the fringe pattern included in the image, and a shape information calculation unit.
It is provided with an inspection unit that inspects the object based on the shape information.
The striped pattern contained in the image has a non-uniform pitch.
Image inspection equipment.
前記検査部は、前記対象物における異常の位置を検出する、
請求項1に記載の画像検査装置。
The inspection unit detects the position of the abnormality in the object.
The image inspection apparatus according to claim 1.
前記形状情報算出部は、前記縞パターンの画像における複数の位置の各々に対応する形状情報を算出し、算出した形状情報を二次元でマッピングすることにより第1形状画像を生成する、
請求項1又は2に記載の画像検査装置。
The shape information calculation unit calculates shape information corresponding to each of a plurality of positions in the striped pattern image, and generates a first shape image by mapping the calculated shape information in two dimensions.
The image inspection apparatus according to claim 1 or 2.
前記検査部は、特定の物品の形状を二次元で表現した第2形状画像と、前記第1形状画像とに基づき、前記対象物の異常を検出する、
請求項3に記載の画像検査装置。
The inspection unit detects an abnormality of the object based on the second shape image representing the shape of a specific article in two dimensions and the first shape image.
The image inspection apparatus according to claim 3.
前記第1形状画像及び前記第2形状画像の位置ずれを補正する補正部を、さらに備える、
請求項4に記載の画像検査装置。
A correction unit for correcting the positional deviation of the first shape image and the second shape image is further provided.
The image inspection apparatus according to claim 4.
前記検査部は、前記第1形状画像に含まれる形状情報を閾値と比較して2値化し、前記第1形状画像における前記2値のうちのいずれかに対応する面積に基づいて、前記対象物を検査する、
請求項3に記載の画像検査装置。
The inspection unit binarizes the shape information included in the first shape image with a threshold value, and based on the area corresponding to any of the two values in the first shape image, the object is described. Inspect,
The image inspection apparatus according to claim 3.
前記投影部は、拡散光を照射する平板状の照明であり、前記縞パターンの光を前記対象物に照射する、
請求項1から6のいずれか1項に記載の画像検査装置。
The projection unit is a flat plate-shaped illumination that irradiates diffused light, and irradiates the object with the light of the striped pattern.
The image inspection apparatus according to any one of claims 1 to 6.
前記投影部は、縞の方向が互いに異なる複数の縞パターンの光を前記対象物に照射し、
前記撮影部は、前記複数の縞パターンのそれぞれの画像を撮影し、
前記形状情報算出部は、前記複数の縞パターンのそれぞれの画像について形状情報を算出して、算出した前記複数の縞パターンの形状情報を合成し、
前記検査部は、合成された形状情報に基づき前記対象物を検査する、
請求項1から7のいずれか1項に記載の画像検査装置。
The projection unit irradiates the object with light having a plurality of stripe patterns having different stripe directions.
The photographing unit captures an image of each of the plurality of striped patterns.
The shape information calculation unit calculates shape information for each image of the plurality of stripe patterns, and synthesizes the calculated shape information of the plurality of stripe patterns.
The inspection unit inspects the object based on the synthesized shape information.
The image inspection apparatus according to any one of claims 1 to 7.
均一なピッチを有する縞パターンの光を対象物に照射し、縞パターンの画像を対象物に投影することと、
前記対象物に投影された前記縞パターンの画像を撮影することと、
前記画像における前記縞パターンから抽出される画像特徴に基づいて、前記対象物の形状情報を算出することと、
前記形状情報に基づき前記対象物を検査することと、を含み、
前記画像に含まれる縞パターンは、不均一なピッチを有する、
画像検査方法。
By irradiating an object with light of a striped pattern having a uniform pitch and projecting an image of the striped pattern onto the object,
Taking an image of the striped pattern projected on the object and
To calculate the shape information of the object based on the image features extracted from the striped pattern in the image,
Inspecting the object based on the shape information, including
The striped pattern contained in the image has a non-uniform pitch.
Image inspection method.
JP2020032240A 2020-02-27 2020-02-27 Image inspection device and image inspection method Active JP7393737B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020032240A JP7393737B2 (en) 2020-02-27 2020-02-27 Image inspection device and image inspection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020032240A JP7393737B2 (en) 2020-02-27 2020-02-27 Image inspection device and image inspection method

Publications (2)

Publication Number Publication Date
JP2021135200A true JP2021135200A (en) 2021-09-13
JP7393737B2 JP7393737B2 (en) 2023-12-07

Family

ID=77660997

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020032240A Active JP7393737B2 (en) 2020-02-27 2020-02-27 Image inspection device and image inspection method

Country Status (1)

Country Link
JP (1) JP7393737B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023029096A (en) * 2021-08-20 2023-03-03 株式会社ニューギン game machine
JP2023029099A (en) * 2021-08-20 2023-03-03 株式会社ニューギン game machine
JP2023029095A (en) * 2021-08-20 2023-03-03 株式会社ニューギン game machine

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4562126B2 (en) 2004-09-29 2010-10-13 大日本スクリーン製造株式会社 Defect detection apparatus and defect detection method
JP4715944B2 (en) 2009-04-03 2011-07-06 オムロン株式会社 Three-dimensional shape measuring apparatus, three-dimensional shape measuring method, and three-dimensional shape measuring program
DE102010064593A1 (en) 2009-05-21 2015-07-30 Koh Young Technology Inc. Form measuring device and method
JP2011064482A (en) 2009-09-15 2011-03-31 Kurabo Ind Ltd Device and method of high-speed three-dimensional measurement
JP5564348B2 (en) 2010-07-15 2014-07-30 株式会社キーエンス Image processing apparatus and appearance inspection method
JP6486010B2 (en) 2014-03-11 2019-03-20 国立大学法人 和歌山大学 Shape measuring apparatus and shape measuring method
JP6308637B1 (en) 2017-05-08 2018-04-11 国立大学法人福井大学 3D measurement method and apparatus using feature quantity

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023029096A (en) * 2021-08-20 2023-03-03 株式会社ニューギン game machine
JP2023029099A (en) * 2021-08-20 2023-03-03 株式会社ニューギン game machine
JP2023029095A (en) * 2021-08-20 2023-03-03 株式会社ニューギン game machine

Also Published As

Publication number Publication date
JP7393737B2 (en) 2023-12-07

Similar Documents

Publication Publication Date Title
JP2021135200A (en) Image inspection device and image inspection method
TW544509B (en) Method and system for measuring the relief of an object
TWI432699B (en) Method for inspecting measurement object
US6735745B2 (en) Method and system for detecting defects
US8432395B2 (en) Method and apparatus for surface contour mapping
JP4986679B2 (en) Non-stationary object three-dimensional image measurement apparatus, three-dimensional image measurement method, and three-dimensional image measurement program
JP4894628B2 (en) Appearance inspection method and appearance inspection apparatus
EP1643210A1 (en) Method and apparatus for measuring shape of an object
KR20010040339A (en) Method and apparatus for three dimensional inspection of electronic components
JP2010538269A (en) System and method for three-dimensional measurement of the shape of a tangible object
JP2003279329A (en) Three-dimensional measuring apparatus
JP5385703B2 (en) Inspection device, inspection method, and inspection program
JP2013186100A (en) Shape inspection method and device
TWI583920B (en) Measuring system of specular object and measuring method thereof
JP6894280B2 (en) Inspection method and inspection equipment
KR100558943B1 (en) method for testing flat panel display
JPH11257930A (en) Three-dimensional shape measuring apparatus
Liu et al. A method to reduce the systematic error of line-structured light sensors based on light plane correction
JP2012093234A (en) Three-dimensional shape measurement device, three-dimensional shape measurement method, structure manufacturing method, and structure manufacturing system
JPH07260451A (en) Three dimensional shape measuring system
KR100341867B1 (en) Automatic Evaluation System of Fabric Wrinkles and Seam Puckers and Their Method
JP2003504607A (en) Apparatus and method for three-dimensional inspection of electronic components
JP4035558B2 (en) Surface inspection device
EP3149703B1 (en) Determining quantitative three-dimensional surface topography from two-dimensional microscopy images
Wang et al. Automated coplanarity inspection of BGA solder balls by structured light

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231109

R150 Certificate of patent or registration of utility model

Ref document number: 7393737

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150