JP7247031B2 - inspection equipment - Google Patents

inspection equipment Download PDF

Info

Publication number
JP7247031B2
JP7247031B2 JP2019120293A JP2019120293A JP7247031B2 JP 7247031 B2 JP7247031 B2 JP 7247031B2 JP 2019120293 A JP2019120293 A JP 2019120293A JP 2019120293 A JP2019120293 A JP 2019120293A JP 7247031 B2 JP7247031 B2 JP 7247031B2
Authority
JP
Japan
Prior art keywords
height
image data
data
illumination
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019120293A
Other languages
Japanese (ja)
Other versions
JP2021004863A (en
Inventor
真達 下平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keyence Corp
Original Assignee
Keyence Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keyence Corp filed Critical Keyence Corp
Priority to JP2019120293A priority Critical patent/JP7247031B2/en
Publication of JP2021004863A publication Critical patent/JP2021004863A/en
Application granted granted Critical
Publication of JP7247031B2 publication Critical patent/JP7247031B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、測定対象物の高さを検査する検査装置に関する。 The present invention relates to an inspection device for inspecting the height of an object to be measured.

三角測距方式の検査装置においては、例えば投光部により測定対象物の表面に構造化光が照射され、その反射光が1次元または2次元に配列された画素を有する受光部により受光される。受光部により得られる受光量分布のデータに基づいて、測定対象物の高さ画像を示す高さ画像データが生成される。 In a triangulation type inspection apparatus, for example, a light projecting section irradiates a surface of an object to be measured with structured light, and the reflected light is received by a light receiving section having pixels arranged one-dimensionally or two-dimensionally. . Height image data representing a height image of the object to be measured is generated based on the data of the light-receiving amount distribution obtained by the light-receiving unit.

高さ画像データの生成に関して、測定対象物に対する構造化光の照射方向、測定対象物から反射する構造化光を受ける受光方向または測定対象物の形状によっては、測定対象物の表面上で測定不可能な部分が生じる可能性がある。 Regarding the generation of height image data, depending on the irradiation direction of the structured light to the measurement object, the light reception direction of the structured light reflected from the measurement object, or the shape of the measurement object, there may be an unmeasurable area on the surface of the measurement object. Possible parts may occur.

そこで、測定対象物に向けて構造化光を複数の方向において順次照射するとともに測定対象物により一方向に反射される構造化光を順次受光することにより複数の照射方向にそれぞれ対応する複数の高さ画像データを生成し、それらを合成する方法がある。あるいは、測定対象物に向かう一方向に構造化光を照射するとともに測定対象物から複数の方向に反射する構造化光をそれぞれ受光することにより複数の受光方向にそれぞれ対応する複数の高さ画像データを生成し、それらを合成する方法がある。複数の方向にそれぞれ対応する複数の高さ画像データが合成されることにより、測定不可能な部分が低減された高さ画像データが生成される。 Therefore, by sequentially irradiating the object to be measured with structured light in a plurality of directions and by sequentially receiving the structured light reflected in one direction by the object to be measured, a plurality of heights corresponding to a plurality of irradiation directions are obtained. There is a method to generate the image data and synthesize them. Alternatively, a plurality of height image data corresponding to a plurality of light receiving directions can be obtained by irradiating structured light in one direction toward the measurement object and receiving structured light reflected from the measurement object in a plurality of directions. , and there is a way to compose them. By synthesizing a plurality of height image data respectively corresponding to a plurality of directions, height image data with reduced unmeasurable portions is generated.

例えば、特許文献1に記載された三次元計測装置においては、一のプロジェクタから測定対象物に構造化光が照射される。構造化光が照射された測定対象物が複数の位置に配置された複数の撮像手段により撮像される。各撮像手段により得られた画像を用いて測定対象物の三次元点群(高さ画像データ)が計測される。複数の撮像手段にそれぞれ対応する複数の三次元点群の計測結果が統合される。 For example, in the three-dimensional measurement apparatus described in Patent Document 1, one projector irradiates a measurement object with structured light. The object to be measured irradiated with structured light is imaged by a plurality of imaging means arranged at a plurality of positions. A three-dimensional point cloud (height image data) of the object to be measured is measured using the images obtained by each imaging means. Measurement results of a plurality of three-dimensional point groups respectively corresponding to a plurality of imaging means are integrated.

特許第5633058号Patent No. 5633058

複数の三次元点群の計測結果の統合時には、複数の三次元点群の間で、互いに対応する画素ごとに信頼度が比較され、信頼度の高い計測結果が当該画素についての最終的な計測結果の候補として残される。画素ごとに残された計測結果から最終的な計測結果が得られる。 When integrating the measurement results of multiple 3D point clouds, the reliability is compared for each corresponding pixel among the multiple 3D point clouds, and the highly reliable measurement result is the final measurement for that pixel. Retained as a candidate result. A final measurement result is obtained from the measurement results left for each pixel.

特許文献1に記載された技術において、信頼度の比較は構造化光を用いた位相解析時に得られる各画素の輝度の振幅を比較することにより行われる。具体的には、ある画素について、複数の撮像手段のうち輝度の振幅が大きいと判定された撮像手段に対応する計測結果が残される。 In the technique described in Patent Document 1, reliability comparison is performed by comparing the amplitude of luminance of each pixel obtained during phase analysis using structured light. Specifically, for a certain pixel, a measurement result corresponding to an imaging means determined to have a large luminance amplitude among a plurality of imaging means is left.

この場合、例えばハレーションの発生に起因して飽和した計測値が採用されることおよび影の発生に起因してノイズレベルの計測値が採用されることが低減される。しかしながら、上記のように画素ごとの輝度の振幅を用いても、適切な信頼度の比較を行うことができない可能性がある。 In this case, for example, adoption of a saturated measurement value due to the occurrence of halation and adoption of a noise level measurement value due to the occurrence of shadows is reduced. However, even if the luminance amplitude for each pixel is used as described above, it may not be possible to perform an appropriate reliability comparison.

例えば、測定対象物の形状、表面状態および材料によっては、測定対象物への構造化光の照射時にその表面上で多重反射が発生する場合がある。この場合、多重反射の発生部分においては、輝度の振幅が小さくならない(減衰しない)可能性がある。そのため、当該部分について多重反射の成分を含む計測結果が最終的な計測結果の候補として残されると、測定対象物の検査の正確性が低下する。 For example, depending on the shape, surface condition and material of the measurement object, multiple reflections may occur on the surface of the measurement object when structured light is irradiated onto the measurement object. In this case, there is a possibility that the amplitude of luminance will not decrease (will not be attenuated) at the portion where multiple reflection occurs. Therefore, if a measurement result containing a component of multiple reflection is left as a candidate for the final measurement result for that portion, the accuracy of the inspection of the object to be measured decreases.

本発明の目的は、測定対象物の高さについて検査の正確性を向上させることを可能にする検査装置を提供することである。 SUMMARY OF THE INVENTION It is an object of the present invention to provide an inspection apparatus capable of improving the accuracy of inspection of the height of an object to be measured.

(1)第1の発明に係る検査装置は、互いに異なる4方向から構造化光を複数のパターンに変化させつつ測定対象物に照射する第1の照明部、第2の照明部、第3の照明部および第4の照明部と、測定対象物から反射される構造化光を受光することにより、第1の照明部に対応する複数の第1のパターン画像データを生成し、第2の照明部に対応する複数の第2のパターン画像データを生成し、第3の照明部に対応する複数の第3のパターン画像データを生成し、第4の照明部に対応する複数の第4のパターン画像データを生成する撮像部と、複数の第1のパターン画像データに基づいて測定対象物の第1の高さ画像データを生成し、複数の第2のパターン画像データに基づいて測定対象物の第2の高さ画像データを生成し、複数の第3のパターン画像データに基づいて測定対象物の第3の高さ画像データを生成し、複数の第4のパターン画像データに基づいて測定対象物の第4の高さ画像データを生成するデータ生成部と、第1~第4の高さ画像データを合成することにより合成高さ画像データを生成する画像処理部とを備え、画像処理部は、第1~第4の高さ画像データにおける互いに対応する各同一の画素位置の高さデータから予め定められた条件に従う2つの高さデータを抽出してそれらの差分を算出するとともに、算出された差分が予め定められた許容範囲内にあるか否かを判定し、算出された差分が許容範囲内にある場合に差分の算出に用いられた2つの高さデータのうち少なくとも一方の高さデータに基づいて合成高さ画像データの当該画素位置の高さデータを決定し、算出された差分が許容範囲内にない場合に合成高さ画像データの当該画素位置の高さデータを無効値に設定し、予め定められた条件は、各同一の画素位置の高さデータのうち各2つの高さデータの差分がそれぞれ算出された場合に、算出された複数の差分のうち最小の差分の算出に用いられた2つの高さデータを抽出することである。 (1) An inspection apparatus according to a first invention includes a first illumination unit, a second illumination unit, and a third illumination unit that irradiate a measurement object with structured light from four different directions while changing the patterns into a plurality of patterns. A plurality of first pattern image data corresponding to the first illumination unit are generated by receiving the structured light reflected from the object to be measured by the illumination unit and the fourth illumination unit, and the second illumination unit generating a plurality of second pattern image data corresponding to the illumination portion; generating a plurality of third pattern image data corresponding to the third illumination portion; generating a plurality of fourth pattern image data corresponding to the fourth illumination portion; an imaging unit that generates image data; a first height image data of the measurement object based on the plurality of first pattern image data; and a measurement object based on the plurality of second pattern image data. generating second height image data; generating third height image data of the measurement object based on the plurality of third pattern image data; and generating measurement object based on the plurality of fourth pattern image data; An image processing unit comprising: a data generation unit that generates fourth height image data of an object; and an image processing unit that generates synthesized height image data by synthesizing the first to fourth height image data. extracts two height data according to a predetermined condition from the height data of the same pixel positions corresponding to each other in the first to fourth height image data, calculates the difference between them, and calculates determines whether the calculated difference is within a predetermined allowable range, and if the calculated difference is within the allowable range, at least one of the two height data used to calculate the difference is determined. The height data at the pixel position of the composite height image data is determined based on the height data, and if the calculated difference is not within the allowable range, the height data at the pixel position of the composite height image data is set to an invalid value. , and the predetermined condition is the minimum difference among the plurality of calculated differences when the difference between each two height data among the height data at the same pixel position is calculated. It is to extract the two height data used for the calculation.

その検査装置においては、第1~第4の照明部の各々から構造化光が複数のパターンに変化されつつ測定対象物に複数回照射される。撮像部において、測定対象物から反射される構造化光が受光される。それにより、第1の照明部に対応する複数の第1パターン画像データが生成され、複数の第1パターン画像データに基づいて第1の高さ画像データが生成される。また、第2の照明部に対応する複数の第2のパターン画像データが生成され、複数の第2パターン画像データに基づいて第2の高さ画像データが生成される。また、第3の照明部に対応する複数の第3のパターン画像データが生成され、複数の第3パターン画像データに基づいて第3の高さ画像データが生成される。また、第4の照明部に対応する複数の第4のパターン画像データが生成され、複数の第4パターン画像データに基づいて第4の高さ画像データが生成される。 In the inspection apparatus, the object to be measured is irradiated a plurality of times with structured light from each of the first to fourth illumination units while being changed into a plurality of patterns. The imaging unit receives structured light reflected from the object to be measured. Thereby, a plurality of first pattern image data corresponding to the first illumination section are generated, and the first height image data are generated based on the plurality of first pattern image data. Also, a plurality of second pattern image data corresponding to the second illumination units are generated, and second height image data is generated based on the plurality of second pattern image data. Also, a plurality of third pattern image data corresponding to the third illumination unit are generated, and third height image data is generated based on the plurality of third pattern image data. Also, a plurality of fourth pattern image data corresponding to the fourth illumination section are generated, and fourth height image data is generated based on the plurality of fourth pattern image data.

第1~第4の高さ画像データが合成され、合成高さ画像データが生成される。この合成時には、第1~第4の高さ画像データにおける互いに対応する各同一の画素位置の高さデータから予め定められた条件に従う2つの高さデータが抽出され、それらの差分が算出される。また、算出された差分が許容範囲内にあるか否かが判定される。 The first to fourth height image data are synthesized to generate synthesized height image data. At the time of this synthesis, two height data according to a predetermined condition are extracted from the height data of the same pixel positions corresponding to each other in the first to fourth height image data, and the difference between them is calculated. . Also, it is determined whether or not the calculated difference is within the allowable range.

ここで、算出された差分が許容範囲内にある場合、差分の算出に用いられた2つの高さデータは当該画素位置に対応する測定対象物の部分の真の高さに対して許容誤差範囲内にある高さを示す正確性の高いデータである。そこで、算出された差分が許容範囲内にある場合には、差分の算出に用いられた2つの高さデータのうち少なくとも一方の高さデータに基づいて、合成高さ画像データの当該画素位置の高さデータが決定される。 Here, when the calculated difference is within the allowable range, the two height data used for calculating the difference are within the allowable error range with respect to the true height of the portion of the measurement object corresponding to the pixel position. This is highly accurate data that indicates the height within. Therefore, when the calculated difference is within the allowable range, based on at least one height data of the two height data used to calculate the difference, the pixel position of the synthetic height image data is calculated. Height data is determined.

一方、算出された差分が許容範囲内にない場合、差分の算出に用いられた2つの高さデータは真の高さに対して許容誤差範囲から外れた高さを示す正確性の低いデータである可能性が高い。そこで、算出された差分が許容範囲内にない場合には、合成高さ画像データにおいて当該画素位置の高さデータが無効値に設定される。 On the other hand, if the calculated difference is not within the allowable range, the two height data used to calculate the difference are low-accuracy data indicating a height outside the allowable error range with respect to the true height. Very likely. Therefore, if the calculated difference is not within the allowable range, the height data at the pixel position is set to an invalid value in the combined height image data.

これにより、合成高さ画像データの各画素位置においては、正確性の高い高さデータの値が示されるが、正確性の低い高さデータの値は示されない。したがって、生成された合成高さ画像データを用いることにより、測定対象物の高さについて検査の正確性を向上させることが可能になる。 As a result, at each pixel position of the synthetic height image data, the value of height data with high accuracy is indicated, but the value of height data with low accuracy is not indicated. Therefore, by using the generated synthetic height image data, it is possible to improve the accuracy of inspection of the height of the object to be measured.

また、予め定められた条件は、各同一の画素位置の高さデータのうち各2つの高さデータの差分がそれぞれ算出された場合に、算出された複数の差分のうち最小の差分の算出に用いられた2つの高さデータを抽出することであ Further, the predetermined condition is to calculate the minimum difference among the plurality of calculated differences when the difference between each two height data among the height data at the same pixel position is calculated. It is to extract the two height data used.

上記の条件に従って抽出される2つの高さデータは、各同一の画素位置の高さデータのうち特に高い正確性を有すると考えられる。したがって、合成高さ画像データの正確性がより向上する。 The two height data extracted according to the above conditions are considered to have particularly high accuracy among the height data at the same pixel position. Therefore, the accuracy of synthetic height image data is further improved.

)画像処理部は、各同一の画素位置の高さデータのうち予め定められた条件に従う2つの高さデータの差分が許容範囲内にある場合に差分の算出に用いられた2つの高さデータの平均値、または2つの高さデータのうち一方の値を合成高さ画像データの当該画素位置の高さデータの値として決定してもよい。 ( 2 ) If the difference between the two height data in accordance with a predetermined condition among the height data at the same pixel position is within the allowable range, the image processing unit The average value of the height data or one of the two height data values may be determined as the height data value at the pixel position of the composite height image data.

この場合、合成高さ画像データの各画素位置の高さデータの値が容易かつ適切に算出される。 In this case, the value of the height data at each pixel position of the synthetic height image data is calculated easily and appropriately.

(3)第2の発明に係る検査装置は、互いに異なる4方向から構造化光を複数のパターンに変化させつつ測定対象物に照射する第1の照明部、第2の照明部、第3の照明部および第4の照明部と、測定対象物から反射される構造化光を受光することにより、第1の照明部に対応する複数の第1のパターン画像データを生成し、第2の照明部に対応する複数の第2のパターン画像データを生成し、第3の照明部に対応する複数の第3のパターン画像データを生成し、第4の照明部に対応する複数の第4のパターン画像データを生成する撮像部と、複数の第1のパターン画像データに基づいて測定対象物の第1の高さ画像データを生成し、複数の第2のパターン画像データに基づいて測定対象物の第2の高さ画像データを生成し、複数の第3のパターン画像データに基づいて測定対象物の第3の高さ画像データを生成し、複数の第4のパターン画像データに基づいて測定対象物の第4の高さ画像データを生成するデータ生成部と、第1~第4の高さ画像データを合成することにより合成高さ画像データを生成する画像処理部とを備え、画像処理部は、第1~第4の高さ画像データにおける互いに対応する各同一の画素位置の高さデータから予め定められた条件に従う2つの高さデータを抽出してそれらの差分を算出するとともに、算出された差分が予め定められた許容範囲内にあるか否かを判定し、算出された差分が許容範囲内にある場合に差分の算出に用いられた2つの高さデータの平均値、または2つの高さデータのうち一方の値を合成高さ画像データの当該画素位置の高さデータの値として決定し、算出された差分が許容範囲内にない場合に合成高さ画像データの当該画素位置の高さデータを無効値に設定する。 (3) An inspection apparatus according to a second aspect of the present invention includes a first illumination section, a second illumination section, and a third illumination section that irradiate an object to be measured while changing structured light from four different directions into a plurality of patterns. A plurality of first pattern image data corresponding to the first illumination unit are generated by receiving the structured light reflected from the object to be measured by the illumination unit and the fourth illumination unit, and the second illumination unit generating a plurality of second pattern image data corresponding to the illumination portion; generating a plurality of third pattern image data corresponding to the third illumination portion; generating a plurality of fourth pattern image data corresponding to the fourth illumination portion; an imaging unit that generates image data; a first height image data of the measurement object based on the plurality of first pattern image data; and a measurement object based on the plurality of second pattern image data. generating second height image data; generating third height image data of the measurement object based on the plurality of third pattern image data; and generating measurement object based on the plurality of fourth pattern image data; An image processing unit comprising: a data generation unit that generates fourth height image data of an object; and an image processing unit that generates synthesized height image data by synthesizing the first to fourth height image data. extracts two height data according to a predetermined condition from the height data of the same pixel positions corresponding to each other in the first to fourth height image data, calculates the difference between them, and calculates It is determined whether the calculated difference is within a predetermined allowable range, and if the calculated difference is within the allowable range, the average value of the two height data used to calculate the difference, or 2 One of the two height data is determined as the value of the height data at the pixel position of the composite height image data, and if the calculated difference is not within the allowable range, the pixel position of the composite height image data set the height data to an invalid value.

第3の発明に係る検査装置は、互いに異なる4方向から構造化光を複数のパターンに変化させつつ測定対象物に照射する第1の照明部、第2の照明部、第3の照明部および第4の照明部と、測定対象物から反射される構造化光を受光することにより、第1の照明部に対応する複数の第1のパターン画像データを生成し、第2の照明部に対応する複数の第2のパターン画像データを生成し、第3の照明部に対応する複数の第3のパターン画像データを生成し、第4の照明部に対応する複数の第4のパターン画像データを生成する撮像部と、複数の第1のパターン画像データに基づいて測定対象物の第1の高さ画像データを生成し、複数の第2のパターン画像データに基づいて測定対象物の第2の高さ画像データを生成し、複数の第3のパターン画像データに基づいて測定対象物の第3の高さ画像データを生成し、複数の第4のパターン画像データに基づいて測定対象物の第4の高さ画像データを生成するデータ生成部と、第1~第4の高さ画像データを合成することにより合成高さ画像データを生成する画像処理部とを備え、画像処理部は、第1~第4の高さ画像データにおける互いに対応する各同一の画素位置の高さデータから予め定められた条件に従う2つの高さデータを抽出してそれらの差分を算出するとともに、算出された差分が予め定められた許容範囲内にあるか否かを判定し、算出された差分が許容範囲内にある場合に差分の算出に用いられた2つの高さデータのうち少なくとも一方の高さデータに基づいて合成高さ画像データの当該画素位置の高さデータを決定し、算出された差分が許容範囲内にない場合に合成高さ画像データの当該画素位置の高さデータを無効値に設定し、データ生成部は、第1~第4の高さ画像データの各々の生成時に、当該照明部に対応して生成される複数のパターン画像データと予め定められた受光判定条件とに基づいて、生成されるべき高さ画像データの各画素位置に対応する測定対象物の部分が構造化光を撮像部に反射することが不可能な照明不可能部分であるか否かを判定し、照明不可能部分に対応する画素位置の高さデータを照明無効値に設定し、画像処理部は、予め定められた条件に従う2つの高さデータの差分の算出に照明無効値を用いな( 4 ) An inspection apparatus according to a third aspect of the present invention includes a first illumination section, a second illumination section, and a third illumination section that irradiate an object to be measured while changing structured light from four different directions into a plurality of patterns. A plurality of first pattern image data corresponding to the first illumination unit are generated by receiving the structured light reflected from the object to be measured by the illumination unit and the fourth illumination unit, and the second illumination unit generating a plurality of second pattern image data corresponding to the illumination portion; generating a plurality of third pattern image data corresponding to the third illumination portion; generating a plurality of fourth pattern image data corresponding to the fourth illumination portion; an imaging unit that generates image data; a first height image data of the measurement object based on the plurality of first pattern image data; and a measurement object based on the plurality of second pattern image data. generating second height image data; generating third height image data of the measurement object based on the plurality of third pattern image data; and generating measurement object based on the plurality of fourth pattern image data; An image processing unit comprising: a data generation unit that generates fourth height image data of an object; and an image processing unit that generates synthesized height image data by synthesizing the first to fourth height image data. extracts two height data according to a predetermined condition from the height data of the same pixel positions corresponding to each other in the first to fourth height image data, calculates the difference between them, and calculates determines whether the calculated difference is within a predetermined allowable range, and if the calculated difference is within the allowable range, at least one of the two height data used to calculate the difference is determined. The height data at the pixel position of the composite height image data is determined based on the height data, and if the calculated difference is not within the allowable range, the height data at the pixel position of the composite height image data is set to an invalid value. , and the data generation unit, when generating each of the first to fourth height image data, sets the plurality of pattern image data generated corresponding to the illumination unit and the predetermined light reception determination condition to Based on this, it is determined whether or not the portion of the measurement object corresponding to each pixel position of the height image data to be generated is an unilluminatable portion that cannot reflect the structured light to the imaging unit. , the height data of the pixel position corresponding to the non-illumination portion is set as the illumination invalid value, and the image processing unit does not use the illumination invalid value for calculating the difference between the two height data according to the predetermined condition. .

この場合、第1~第4の高さ画像データにおいて照明不可能部分を示す画素位置の高さデータの値が、合成高さ画像データの生成に用いられない。それにより、照明不可能部分に起因する不安定な高さの成分が合成高さ画像データに残ることが防止される。 In this case, the height data values of the pixel positions indicating the unilluminated portion in the first to fourth height image data are not used for generating the synthetic height image data. This prevents unstable height components due to non-illumination areas from remaining in the synthetic height image data.

)画像処理部は、各画素位置の4つの高さデータのうち1つの高さデータのみが照明無効値以外の値を示しかつ他の高さデータが照明無効値に設定されている場合に、当該画素位置の高さデータとして1つの高さデータを設定するかまたは当該画素位置の高さデータの値を無効値に設定するかをさらに選択可能に構成されてもよい。 ( 5 ) When only one height data out of four height data at each pixel position indicates a value other than an illumination invalid value and the other height data is set to an illumination invalid value In addition, it may be possible to further select whether to set one height data as the height data of the pixel position or set the value of the height data of the pixel position to an invalid value.

この場合、測定対象物の形状、材質および表面状態等に応じて適切な合成高さ画像データを生成することが可能になる。
(6)第1の照明部と第2の照明部とは、第1の方向において撮像部を挟んで互いに対向するように配置され、第3の照明部と第4の照明部とは、第1の方向に交差する第2の方向において撮像部を挟んで互いに対向するように配置されてもよい。
この場合、測定対象物の表面の広い範囲に渡って構造化光を照射することができる。したがって、測定対象物の表面の広い範囲に渡って高い正確性を有する合成高さ画像データを取得することができる。
In this case, appropriate synthetic height image data can be generated according to the shape, material, surface condition, etc. of the object to be measured.
(6) The first illumination unit and the second illumination unit are arranged to face each other with the imaging unit interposed in the first direction, and the third illumination unit and the fourth illumination unit are arranged in the first direction. They may be arranged so as to face each other across the imaging unit in a second direction that intersects with the first direction.
In this case, it is possible to irradiate the structured light over a wide range of the surface of the object to be measured. Therefore, synthetic height image data with high accuracy can be acquired over a wide range of the surface of the object to be measured.

本発明によれば、測定対象物の高さについて検査の正確性が向上する。 According to the present invention, the accuracy of inspection for the height of the object to be measured is improved.

本発明の一実施の形態に係る検査装置の構成を示すブロック図である。1 is a block diagram showing the configuration of an inspection device according to one embodiment of the present invention; FIG. 本発明の一実施の形態に係る検査装置の構成を示すブロック図である。1 is a block diagram showing the configuration of an inspection device according to one embodiment of the present invention; FIG. 図1の各照明部の構成の一例を示す図である。FIG. 2 is a diagram showing an example of a configuration of each illumination unit in FIG. 1; FIG. 三角測距方式の原理を説明するための図である。It is a figure for demonstrating the principle of a triangulation ranging method. 図1の検査装置により実行される検査処理の一例を示すフローチャートである。2 is a flowchart showing an example of inspection processing executed by the inspection apparatus of FIG. 1; (a)は高さ画像データの正確性を説明するための測定対象物の一例を示す外観斜視図であり、(b)は(a)の測定対象物Sの平面図であり、(c)は(a)の測定対象物の端面図である。(a) is an external perspective view showing an example of a measurement object for explaining the accuracy of height image data, (b) is a plan view of the measurement object S in (a), and (c). is an end view of the object to be measured of (a). 図6の測定対象物の検査時における図2の複数の照明部および撮像部と測定対象物との位置関係の一例を示す模式的斜視図である。FIG. 7 is a schematic perspective view showing an example of a positional relationship between a plurality of illumination units and imaging units shown in FIG. 2 and a measurement object during inspection of the measurement object shown in FIG. 6; (a)は図7の一の照明部から測定対象物に構造化光が照射される状態を示す側面図であり、(b)は(a)の構造化光の照射により取得される高さ画像を示す図である。(a) is a side view showing a state in which the object to be measured is irradiated with structured light from one illumination unit in FIG. 7, and (b) is the height obtained by irradiation of the structured light in (a). FIG. 4 is a diagram showing an image; (a)は図7の他の照明部から測定対象物に構造化光が照射される状態を示す側面図であり、(b)は(a)の構造化光の照射により取得される高さ画像を示す図である。(a) is a side view showing a state in which the object to be measured is irradiated with structured light from another illumination unit in FIG. 7, and (b) is the height obtained by irradiation of the structured light in (a). FIG. 4 is a diagram showing an image; (a)は図7のさらに他の照明部から測定対象物に構造化光が照射される状態を示す側面図であり、(b)は(a)の構造化光の照射により取得される高さ画像を示す図である。(a) is a side view showing a state in which the object to be measured is irradiated with structured light from still another illumination unit in FIG. 7; FIG. 10 is a diagram showing a sparse image; (a)は図7のさらに他の照明部から測定対象物に構造化光が照射される状態を示す側面図であり、(b)は(a)の構造化光の照射により取得される高さ画像を示す図である。(a) is a side view showing a state in which the object to be measured is irradiated with structured light from still another illumination unit in FIG. 7; FIG. 10 is a diagram showing a sparse image; 本発明の一実施の形態に係る合成処理の概念を示す図である。It is a figure which shows the concept of the compositing process which concerns on one embodiment of this invention. 本発明の一実施の形態に係る合成処理により生成される合成高さ画像データに基づく高さ画像の一例を示す図である。It is a figure which shows an example of the height image based on the synthetic|combination height image data produced|generated by the synthetic|combination process which concerns on one embodiment of this invention. 本発明の一実施の形態に係る合成処理のフローチャートである。4 is a flow chart of synthesis processing according to an embodiment of the present invention; 他の実施の形態に係る合成処理のフローチャートである。10 is a flow chart of composition processing according to another embodiment.

以下、本発明の一実施の形態に係る検査装置について図面を参照しながら説明する。 An inspection apparatus according to an embodiment of the present invention will be described below with reference to the drawings.

[1]検査装置の構成
図1および図2は、本発明の一実施の形態に係る検査装置の構成を示すブロック図である。図1および図2に示すように、検査装置300は、ヘッド部100、コントローラ部200、操作部310および表示部320を備える。コントローラ部200は、プログラマブルロジックコントローラ等の外部機器400に接続される。
[1] Configuration of Inspection Apparatus FIGS. 1 and 2 are block diagrams showing the configuration of an inspection apparatus according to an embodiment of the present invention. As shown in FIGS. 1 and 2, the inspection apparatus 300 includes a head section 100, a controller section 200, an operation section 310 and a display section 320. FIG. The controller section 200 is connected to an external device 400 such as a programmable logic controller.

図1に太い矢印で示すように、複数の測定対象物Sが、ヘッド部100の下方の空間を通過するようにベルトコンベア301により順次搬送される。各測定対象物Sがヘッド部100の下方の空間を通過する際には、当該測定対象物Sがヘッド部100の下方の所定の位置で一時的に静止するように、ベルトコンベア301が一定時間停止する。 As indicated by thick arrows in FIG. 1, a plurality of objects S to be measured are sequentially conveyed by the belt conveyor 301 so as to pass through the space below the head section 100 . When each measurement object S passes through the space below the head unit 100, the belt conveyor 301 is moved for a certain period of time so that the measurement object S temporarily stops at a predetermined position below the head unit 100. Stop.

ヘッド部100は、例えば投受光一体の撮像デバイスであり、複数の照明部110、撮像部120および演算部130を含む。なお、図2においては、演算部130の図示が省略されている。本実施の形態においては、4個の照明部110が90度間隔で撮像部120を取り囲むように設けられている。 The head unit 100 is, for example, an imaging device that integrates light emitting and receiving, and includes a plurality of lighting units 110 , an imaging unit 120 and a computing unit 130 . 2, illustration of the calculation unit 130 is omitted. In this embodiment, four illumination units 110 are provided so as to surround the imaging unit 120 at intervals of 90 degrees.

各照明部110は、任意のパターンを有する赤色、青色、緑色または白色の光を斜め上方から測定対象物Sに照射可能に構成される。また、各照明部110は、パターンを有しない赤色、青色、緑色または白色の一様な光を斜め上方から測定対象物Sに照射可能に構成される。以下、任意のパターンを有する光を構造化光と呼び、一様な光を一様光と呼ぶ。 Each illumination unit 110 is configured to be able to irradiate the measurement object S with red, blue, green, or white light having an arbitrary pattern from obliquely above. In addition, each lighting unit 110 is configured to be able to irradiate the measurement object S with uniform red, blue, green, or white light having no pattern from obliquely above. Hereinafter, light having an arbitrary pattern is called structured light, and uniform light is called uniform light.

また、4個の照明部110を区別する場合は、4個の照明部110をそれぞれ照明部110A,110B,110C,110Dと呼ぶ。照明部110Aと照明部110Bとは撮像部120を挟んで対向する。また、照明部110Cと照明部110Dとは撮像部120を挟んで対向する。照明部110の構成については後述する。 Moreover, when distinguishing the four illumination parts 110, the four illumination parts 110 are each called illumination part 110A, 110B, 110C, and 110D. The illumination unit 110A and the illumination unit 110B face each other with the imaging unit 120 interposed therebetween. Also, the illumination unit 110C and the illumination unit 110D face each other with the imaging unit 120 interposed therebetween. A configuration of the illumination unit 110 will be described later.

撮像部120は、図1に示すように、撮像素子121および受光レンズ122,123を含む。受光レンズ122,123のうち少なくとも受光レンズ122は、テレセントリックレンズである。測定対象物Sにより上方に反射された構造化光は、撮像部120の受光レンズ122,123により集光および結像された後、撮像素子121により受光される。撮像素子121は、例えばモノクロCCD(電荷結合素子)であり、各画素から受光量に対応するアナログの電気信号を出力することにより画像データを生成する。撮像素子121は、CMOS(相補性金属酸化膜半導体)イメージセンサ等の他の撮像素子であってもよい。 The imaging unit 120 includes an imaging element 121 and light receiving lenses 122 and 123, as shown in FIG. At least the light receiving lens 122 of the light receiving lenses 122 and 123 is a telecentric lens. The structured light reflected upward by the measurement object S is collected and imaged by the light receiving lenses 122 and 123 of the imaging unit 120 and then received by the imaging device 121 . The imaging element 121 is, for example, a monochrome CCD (charge-coupled device), and generates image data by outputting an analog electrical signal corresponding to the amount of light received from each pixel. The imaging device 121 may be another imaging device such as a CMOS (Complementary Metal Oxide Semiconductor) image sensor.

以下の説明では、構造化光が測定対象物Sに照射された状態で撮像部120により生成される測定対象物Sの画像を示す画像データをパターン画像データと呼ぶ。これに対し、一様光が測定対象物Sに照射された状態で撮像部120により生成される測定対象物Sの画像を示す画像データをテクスチャ画像データと呼ぶ。 In the following description, image data representing an image of the measurement object S generated by the imaging unit 120 while the measurement object S is irradiated with structured light will be referred to as pattern image data. On the other hand, image data representing an image of the measurement object S generated by the imaging unit 120 while the measurement object S is irradiated with uniform light is called texture image data.

演算部130は、例えばFPGA(フィールドプログラマブルゲートアレイ)により実現され、撮像処理部131、演算処理部132、画像処理部133、記憶部134および出力処理部135を含む。本実施の形態においては、演算部130はFPGAにより実現されるが、本発明はこれに限定されない。演算部130は、CPU(中央演算処理装置)およびRAM(ランダムアクセスメモリ)により実現されてもよいし、マイクロコンピュータにより実現されてもよい。 The calculation unit 130 is implemented by, for example, an FPGA (Field Programmable Gate Array), and includes an imaging processing unit 131 , a calculation processing unit 132 , an image processing unit 133 , a storage unit 134 and an output processing unit 135 . In the present embodiment, arithmetic unit 130 is realized by FPGA, but the present invention is not limited to this. Arithmetic unit 130 may be realized by a CPU (central processing unit) and RAM (random access memory), or may be realized by a microcomputer.

撮像処理部131は、4個の照明部110および撮像部120の動作を制御する。演算処理部132は、4個の照明部110の各々について、複数のパターン画像データに基づいて測定対象物Sの高さ画像を示す高さ画像データを生成する。高さ画像データは、複数の画素位置にそれぞれ対応する測定対象物Sの複数の部分の高さを示す複数の高さデータにより構成される。 The imaging processing unit 131 controls operations of the four lighting units 110 and the imaging units 120 . The arithmetic processing unit 132 generates height image data representing a height image of the measurement object S based on the plurality of pattern image data for each of the four illumination units 110 . The height image data is composed of a plurality of height data indicating heights of a plurality of portions of the measuring object S respectively corresponding to a plurality of pixel positions.

画像処理部133は、演算処理部132により複数の照明部110にそれぞれ対応して生成された複数の高さ画像データを合成することにより、合成高さ画像データを生成する。また、画像処理部133は、複数の照明部110にそれぞれ対応して撮像部120により生成された複数のテクスチャ画像データを合成することにより、合成テクスチャ画像データを生成する。画像処理部133の詳細については後述する。 The image processing unit 133 generates synthetic height image data by synthesizing a plurality of height image data generated corresponding to the plurality of illumination units 110 by the arithmetic processing unit 132 . Further, the image processing unit 133 generates synthesized texture image data by synthesizing a plurality of pieces of texture image data generated by the imaging unit 120 corresponding to the plurality of illumination units 110 respectively. Details of the image processing unit 133 will be described later.

記憶部134は、演算部130における作業領域として用いられるとともに、撮像部120、演算処理部132および画像処理部133により生成されたパターン画像データ、高さ画像データ、合成高さ画像データ、テクスチャ画像データおよび合成テクスチャ画像データを一時的に記憶する。出力処理部135は、記憶部134に記憶された合成高さ画像データまたは合成テクスチャ画像データを出力する。 The storage unit 134 is used as a work area in the calculation unit 130, and stores pattern image data, height image data, synthetic height image data, and texture images generated by the imaging unit 120, the calculation processing unit 132, and the image processing unit 133. Temporarily store data and synthetic texture image data. The output processing unit 135 outputs the synthetic height image data or synthetic texture image data stored in the storage unit 134 .

コントローラ部200は、ヘッド制御部210、画像メモリ220および検査部230を含む。ヘッド制御部210は、外部機器400により与えられる指令に基づいて、ヘッド部100の動作を制御する。画像メモリ220は、演算部130により出力された合成高さ画像データまたは合成テクスチャ画像データを記憶する。 Controller section 200 includes head control section 210 , image memory 220 and inspection section 230 . The head control section 210 controls the operation of the head section 100 based on commands given by the external device 400 . The image memory 220 stores the synthetic height image data or the synthetic texture image data output by the calculation unit 130 .

検査部230は、使用者により指定された検査内容と、画像メモリ220に記憶された合成高さ画像データまたは合成テクスチャ画像データとに基づいてエッジ検出または寸法計測等の処理を実行する。また、検査部230は、計測値を所定のしきい値と比較することにより、測定対象物Sの良否を判定し、判定結果を外部機器400に与える。 The inspection unit 230 executes processing such as edge detection or dimension measurement based on the inspection content specified by the user and the synthetic height image data or synthetic texture image data stored in the image memory 220 . The inspection unit 230 also compares the measured value with a predetermined threshold value to determine whether the measurement object S is good or bad, and gives the determination result to the external device 400 .

コントローラ部200には、操作部310および表示部320が接続される。操作部310は、キーボード、ポインティングデバイスまたは専用のコンソールを含む。ポインティングデバイスとしては、マウスまたはジョイスティック等が用いられる。使用者は、操作部310を操作することにより、コントローラ部200に所望の検査内容を指定することができる。 An operation unit 310 and a display unit 320 are connected to the controller unit 200 . Operation unit 310 includes a keyboard, pointing device, or dedicated console. A mouse, a joystick, or the like is used as the pointing device. The user can designate desired examination contents to the controller unit 200 by operating the operation unit 310 .

表示部320は、例えばLCD(液晶ディスプレイ)パネルまたは有機EL(エレクトロルミネッセンス)パネルにより構成される。表示部320は、画像メモリ220に記憶された合成高さ画像データに基づく高さ画像等を表示する。また、表示部320は、検査部230による測定対象物Sの判定結果を表示する。 The display unit 320 is configured by, for example, an LCD (liquid crystal display) panel or an organic EL (electroluminescence) panel. The display unit 320 displays a height image or the like based on the synthetic height image data stored in the image memory 220 . The display unit 320 also displays the determination result of the measurement object S by the inspection unit 230 .

図3は、図1の各照明部110の構成の一例を示す図である。図3に示すように、各照明部110は、光源111,112,113、ダイクロイックミラー114,115、照明レンズ116、ミラー117、パターン生成部118および投光レンズ119を含む。光源111,112,113は、例えばLED(発光ダイオード)であり、緑色光、青色光および赤色光をそれぞれ出射する。各光源111~113はLED以外の他の光源であってもよい。 FIG. 3 is a diagram showing an example of the configuration of each illumination unit 110 in FIG. 1. As shown in FIG. As shown in FIG. 3, each illumination section 110 includes light sources 111 , 112 and 113 , dichroic mirrors 114 and 115 , illumination lens 116 , mirror 117 , pattern generator 118 and projection lens 119 . The light sources 111, 112, and 113 are LEDs (light emitting diodes), for example, and emit green light, blue light, and red light, respectively. Each of the light sources 111-113 may be light sources other than LEDs.

ダイクロイックミラー114は、光源111により出射された緑色光と光源112により出射された青色光とを重ね合わせ可能に配置される。ダイクロイックミラー115は、ダイクロイックミラー114により重ね合わされた光と光源113により出射された赤色光とを重ね合わせ可能に配置される。これにより、光源111~113によりそれぞれ出射された光が共通の光路上で重ね合わされ、白色光が生成可能となる。 The dichroic mirror 114 is arranged so that the green light emitted by the light source 111 and the blue light emitted by the light source 112 can be superimposed. The dichroic mirror 115 is arranged so that the light superimposed by the dichroic mirror 114 and the red light emitted by the light source 113 can be superimposed. Thereby, the lights emitted by the light sources 111 to 113 are superimposed on a common optical path, and white light can be generated.

照明レンズ116は、ダイクロイックミラー115を通過または反射した光を集光する。ミラー117は、照明レンズ116により集光された光をパターン生成部118に反射する。パターン生成部118は、例えばDMD(デジタルマイクロミラーデバイス)であり、入射した光に任意のパターンを付与する。パターン生成部118は、LCDまたはLCOS(反射型液晶素子)であってもよい。投光レンズ119は、パターン生成部118の光生成面からの光を拡大しつつ図1の測定対象物Sに照射する。なお、投光レンズ119は、パターン生成部118からの光を平行化して測定対象物Sに照射可能に構成されてもよい。 The illumination lens 116 collects light that has passed through or is reflected by the dichroic mirror 115 . The mirror 117 reflects the light condensed by the illumination lens 116 to the pattern generator 118 . The pattern generation unit 118 is, for example, a DMD (digital micromirror device), and imparts an arbitrary pattern to incident light. The pattern generator 118 may be an LCD or LCOS (reflective liquid crystal element). The light projection lens 119 magnifies the light from the light generation surface of the pattern generation unit 118 and irradiates the measurement object S in FIG. Note that the light projection lens 119 may be configured to collimate the light from the pattern generation unit 118 and irradiate the measurement object S with the light.

図1の撮像処理部131は、光源111~113による光の出射を制御するとともに、パターン生成部118により光に付与されるパターンを制御する。これにより、赤色、青色、緑色または白色の構造化光と赤色、青色、緑色または白色の一様光とを選択的に照明部110から出射することが可能となる。なお、本実施の形態では、白色の構造化光または一様光が、各照明部110から測定対象物Sに選択的に照射される。 The imaging processing unit 131 in FIG. 1 controls the emission of light from the light sources 111 to 113 and also controls the pattern given to the light by the pattern generation unit 118 . Accordingly, it is possible to selectively emit red, blue, green, or white structured light and red, blue, green, or white uniform light from illumination section 110 . Note that, in the present embodiment, white structured light or uniform light is selectively emitted from each illumination unit 110 to the measurement object S. As shown in FIG.

[2]高さ画像データの生成
検査装置300においては、ヘッド部100に固有の三次元座標系(以下、装置座標系と呼ぶ。)が定義される。本例の装置座標系は、原点と互いに直交するX軸、Y軸およびZ軸とを含む。以下の説明では、装置座標系のX軸に平行な方向をX方向と呼び、Y軸に平行な方向をY方向と呼び、Z軸に平行な方向をZ方向と呼ぶ。X方向およびY方向は、ベルトコンベア301の上面(以下、基準面と呼ぶ。)に平行な面内で互いに直交する。Z方向は、基準面に対して直交する。
[2] Generation of Height Image Data In the inspection device 300, a three-dimensional coordinate system (hereinafter referred to as device coordinate system) unique to the head unit 100 is defined. The device coordinate system of this example includes an origin and mutually orthogonal X, Y, and Z axes. In the following description, the direction parallel to the X axis of the apparatus coordinate system is called the X direction, the direction parallel to the Y axis is called the Y direction, and the direction parallel to the Z axis is called the Z direction. The X direction and the Y direction are orthogonal to each other within a plane parallel to the upper surface of the belt conveyor 301 (hereinafter referred to as a reference plane). The Z direction is orthogonal to the reference plane.

ヘッド部100においては、三角測距方式により測定対象物Sの高さ画像を示す高さ画像データが生成される。図4は、三角測距方式の原理を説明するための図である。図4には、X方向、Y方向およびZ方向がそれぞれ矢印で示される。図4に示すように、照明部110から出射される光の光軸と撮像部120に入射する光の光軸との間の角度αが予め設定される。角度αは、0度よりも大きく90度よりも小さい。 In the head unit 100, height image data representing a height image of the measurement object S is generated by a triangulation method. FIG. 4 is a diagram for explaining the principle of the triangulation method. The X, Y and Z directions are indicated by arrows in FIG. As shown in FIG. 4, an angle α between the optical axis of the light emitted from the illumination section 110 and the optical axis of the light incident on the imaging section 120 is set in advance. The angle α is greater than 0 degrees and less than 90 degrees.

ヘッド部100の下方に測定対象物Sが存在しない場合、照明部110から出射される光は、基準面Rの点Oにより反射され、撮像部120に入射する。一方、ヘッド部100の下方に測定対象物Sが存在する場合、照明部110から出射される光は、測定対象物Sの表面の点Aにより反射され、撮像部120に入射する。これにより、測定対象物Sが撮像され、測定対象物Sの画像を示す画像データが生成される。 When the measurement object S does not exist below the head unit 100 , the light emitted from the illumination unit 110 is reflected by the point O on the reference plane R and enters the imaging unit 120 . On the other hand, when the measurement object S exists below the head unit 100 , the light emitted from the illumination unit 110 is reflected by the point A on the surface of the measurement object S and enters the imaging unit 120 . As a result, the measurement object S is imaged, and image data representing an image of the measurement object S is generated.

点Oと点Aとの間のX方向における距離をdとすると、基準面Rに対する測定対象物Sの点Aの高さhは、h=d÷tan(α)により与えられる。演算部130は、撮像部120により生成される画像データに基づいて、距離dを算出する。また、演算部130は、算出された距離dに基づいて、測定対象物Sの表面の点Aの高さhを算出する。測定対象物Sの表面の全ての点の高さを算出することにより、光が照射された全ての点について装置座標系で表される座標を特定することができる。それにより、測定対象物Sの高さ画像データが生成される。 Assuming that the distance in the X direction between the points O and A is d, the height h of the point A of the measuring object S with respect to the reference plane R is given by h=d/tan(α). The calculator 130 calculates the distance d based on the image data generated by the imaging unit 120 . Further, the calculation unit 130 calculates the height h of the point A on the surface of the measurement object S based on the calculated distance d. By calculating the heights of all the points on the surface of the measurement object S, it is possible to specify the coordinates expressed in the apparatus coordinate system for all the points irradiated with light. Thereby, height image data of the measuring object S is generated.

測定対象物Sの表面の全ての点に光を照射するために、各照明部110から種々のパターンを有する構造化光が順次出射される。本実施の形態においては、Y方向に平行でかつX方向に並ぶような直線状の断面を有する縞状の構造化光(以下、縞状光と呼ぶ。)が、その空間位相が変化されつつ各照明部110から複数回出射される。また、Y方向に平行な直線状の断面を有しかつ明部分と暗部分とがX方向に並ぶコード状の構造化光(以下、コード状光と呼ぶ。)が、その明部分および暗部分がグレイコード状に変化されつつ各照明部110から複数回出射される。 In order to illuminate all points on the surface of the measurement object S, structured light having various patterns is sequentially emitted from each illumination unit 110 . In the present embodiment, striped structured light (hereinafter referred to as striped light) having a linear cross section parallel to the Y direction and aligned in the X direction is changed in spatial phase. The light is emitted from each illumination unit 110 multiple times. In addition, a code-like structured light (hereinafter referred to as code-like light) having a linear cross section parallel to the Y direction and having a bright portion and a dark portion aligned in the X direction is composed of the bright portion and the dark portion. is emitted from each lighting unit 110 a plurality of times while being changed in a gray code manner.

[3]検査処理の基本的なフロー
図5は、図1の検査装置300により実行される検査処理の一例を示すフローチャートである。本例の検査処理においては、合成高さ画像データおよび合成テクスチャ画像データがこの順で生成される。図5に示すように、まず撮像処理部131は、照明部110A~110Dのうち、いずれか1つの照明部110を選択する(ステップS11)。次に、撮像処理部131は、所定のパターンを有する白色の構造化光を出射するように、ステップS11または後述するステップS19で選択された照明部110を制御する(ステップS12)。
[3] Basic Flow of Inspection Processing FIG. 5 is a flowchart showing an example of inspection processing executed by the inspection apparatus 300 of FIG. In the inspection process of this example, synthetic height image data and synthetic texture image data are generated in this order. As shown in FIG. 5, the imaging processing unit 131 first selects one of the illumination units 110A to 110D (step S11). Next, the imaging processing unit 131 controls the illumination unit 110 selected in step S11 or step S19 described later so as to emit white structured light having a predetermined pattern (step S12).

また、撮像処理部131は、ステップS12における構造化光の出射と同期して測定対象物Sを撮像するように撮像部120を制御する(ステップS13)。これにより、測定対象物Sのパターン画像データが撮像部120により生成される。その後、撮像処理部131は、ステップS13で生成されたパターン画像データを記憶部134に記憶させる(ステップS14)。続いて、撮像処理部131は、所定の回数撮像が実行されたか否かを判定する(ステップS15)。 In addition, the imaging processing unit 131 controls the imaging unit 120 so as to capture an image of the measurement object S in synchronization with emission of the structured light in step S12 (step S13). As a result, pattern image data of the measuring object S is generated by the imaging unit 120 . After that, the imaging processing unit 131 causes the storage unit 134 to store the pattern image data generated in step S13 (step S14). Subsequently, the imaging processing unit 131 determines whether or not imaging has been performed a predetermined number of times (step S15).

ステップS15で、所定の回数撮像が実行されていない場合、撮像処理部131は、構造化光のパターンを変更するように図3のパターン生成部118を制御し(ステップS16)、ステップS12に戻る。所定の回数撮像が実行されるまで、ステップS12~S16が繰り返される。これにより、パターンが変化されつつ縞状光およびコード状光が測定対象物Sに順次照射されたときの複数のパターン画像データが記憶部134に記憶される。なお、縞状光とコード状光とは、いずれが先に出射されてもよい。 In step S15, if imaging has not been performed a predetermined number of times, the imaging processing unit 131 controls the pattern generation unit 118 in FIG. 3 to change the pattern of structured light (step S16), and returns to step S12. . Steps S12 to S16 are repeated until imaging is performed a predetermined number of times. As a result, a plurality of pattern image data are stored in the storage unit 134 when the measuring object S is sequentially irradiated with the striped light and the coded light while the pattern is changed. Either the striped light or the coded light may be emitted first.

ステップS15で、所定の回数撮像が実行された場合、演算処理部132は、記憶部134に記憶された複数のパターン画像データについて演算を行うことにより、高さ画像データを生成する(ステップS17)。 In step S15, when the predetermined number of times of imaging is performed, the arithmetic processing unit 132 generates height image data by performing arithmetic operations on the plurality of pattern image data stored in the storage unit 134 (step S17). .

ここで、一の照明部110について生成される複数のパターン画像データの互いに対応する同一の画素位置の複数の画素の値(輝度値)のばらつきの大きさが所定のしきい値以下であることは、当該複数の画素に対応する測定対象物Sの部分に光が到達せずに影が発生していることを意味する。または、一の照明部110について生成される複数のパターン画像データの互いに対応する同一の画素位置の複数の画素の値のばらつきの大きさが所定のしきい値以下であることは、当該複数の画素に対応する測定対象物Sの部分からの反射光が撮像部120に入射しないことを意味する。 Here, the magnitude of variations in the values (luminance values) of a plurality of pixels at the same pixel position corresponding to each other in the plurality of pattern image data generated for one illumination unit 110 is equal to or less than a predetermined threshold. means that light does not reach portions of the measuring object S corresponding to the plurality of pixels, and shadows are generated. Alternatively, the variation in the values of the plurality of pixels at the same pixel position corresponding to each other in the plurality of pattern image data generated for one lighting unit 110 is equal to or less than a predetermined threshold value. It means that the reflected light from the portion of the measurement object S corresponding to the pixel does not enter the imaging section 120 .

そこで、演算処理部132は、高さ画像データの生成時に、構造化光を撮像部120へ反射することが不可能な測定対象物Sの部分(以下、照明不可能部分と呼ぶ。)に対応する画素位置の高さデータの値を予め定められた照明無効値に設定する。 Therefore, when generating the height image data, the arithmetic processing unit 132 corresponds to a portion of the measurement object S that cannot reflect the structured light to the imaging unit 120 (hereinafter referred to as a non-illumination portion). The value of the height data of the pixel position to be detected is set to a predetermined illumination invalid value.

具体的には、演算処理部132は、ステップS12~S16で生成された複数のパターン画像データの互いに対応する同一の画素位置の複数の画素について、複数の画素データの値のばらつきの大きさが所定のしきい値以下であるか否かを判定する。そこで、演算処理部132は、複数の値のばらつきの大きさが所定のしきい値以下である場合に、高さ画像データにおいて複数のパターン画像データの互いに対応する同一の画素位置の複数の画素に対応する高さデータの値を照明無効値に設定する。このようにして、高さ画像データにおいて照明不可能部分に対応する画素位置の高さデータの値が照明無効値に設定される。照明無効値は、例えば0である。複数の値のばらつきの大きさを判定するための上記のしきい値は、測定対象物Sの検査前に、受光判定条件として予め図1の記憶部134に記憶される。 Specifically, the arithmetic processing unit 132 determines the degree of variation in the values of the plurality of pixel data for the plurality of pixels at the same pixel position corresponding to each other in the plurality of pattern image data generated in steps S12 to S16. It is determined whether or not it is equal to or less than a predetermined threshold. Therefore, when the magnitude of variation in the plurality of values is equal to or less than a predetermined threshold value, the arithmetic processing unit 132 calculates a plurality of pixels at the same pixel positions corresponding to each other in the plurality of pattern image data in the height image data. Set the height data value corresponding to the lighting invalid value. In this way, the value of the height data of the pixel position corresponding to the non-illumination portion in the height image data is set as the illumination invalid value. The lighting disabled value is 0, for example. The above-mentioned threshold value for determining the magnitude of variation of a plurality of values is stored in advance in the storage unit 134 of FIG.

次に、演算処理部132は、複数の照明部110にそれぞれ対応する所定数(本例では4個)の高さ画像データが生成されたか否かを判定する(ステップS18)。所定数の高さ画像データが生成されていない場合、撮像処理部131は、他の照明部110を選択し(ステップS19)、ステップS12に戻る。所定数の高さ画像データが生成されるまで、ステップS12~S19が繰り返される。 Next, the arithmetic processing unit 132 determines whether or not a predetermined number (four in this example) of height image data corresponding to each of the plurality of illumination units 110 has been generated (step S18). If the predetermined number of height image data has not been generated, the imaging processing unit 131 selects another lighting unit 110 (step S19), and returns to step S12. Steps S12 to S19 are repeated until a predetermined number of height image data are generated.

ステップS18で、所定数の高さ画像データが生成された場合、画像処理部133は、生成された所定数の高さ画像データを合成する合成処理を行う(ステップS20)。これにより、合成高さ画像データが生成される。合成処理の詳細については後述する。また、出力処理部135は、ステップS20で生成された合成高さ画像データをコントローラ部200に出力する(ステップS21)。これにより、コントローラ部200の画像メモリ220に合成高さ画像データが蓄積される。 When the predetermined number of height image data is generated in step S18, the image processing unit 133 performs synthesis processing for synthesizing the generated predetermined number of height image data (step S20). Thereby, synthetic height image data is generated. Details of the combining process will be described later. Also, the output processing unit 135 outputs the synthetic height image data generated in step S20 to the controller unit 200 (step S21). Thereby, the synthetic height image data is accumulated in the image memory 220 of the controller section 200 .

続いて、ヘッド部100においてテクスチャ生成処理が実行される(ステップS22)。テクスチャ生成処理においては、撮像処理部131は、白色の一様光が順次出射されるように複数の照明部110を制御する。また、撮像処理部131は、各一様光の出射と同期して測定対象物Sを撮像するように撮像部120を制御する。それにより、複数の照明部110にそれぞれ対応する複数のテクスチャ画像データが生成される。さらに、画像処理部133は、生成された複数のテクスチャ画像データを合成する。それにより、合成テクスチャ画像データが生成される。また、出力処理部135は、生成された合成テクスチャ画像データをコントローラ部200に出力する。これにより、コントローラ部200の画像メモリ220に合成テクスチャ画像データが蓄積される。 Subsequently, texture generation processing is executed in the head unit 100 (step S22). In texture generation processing, the imaging processing unit 131 controls the plurality of lighting units 110 so that white uniform light is sequentially emitted. In addition, the imaging processing unit 131 controls the imaging unit 120 so as to image the measurement object S in synchronization with the emission of each uniform light. Thereby, a plurality of texture image data corresponding to the plurality of lighting units 110 are generated. Furthermore, the image processing unit 133 synthesizes a plurality of generated texture image data. Thereby, synthetic texture image data is generated. The output processing unit 135 also outputs the generated synthetic texture image data to the controller unit 200 . As a result, the synthetic texture image data is accumulated in the image memory 220 of the controller unit 200 .

その後、コントローラ部200において判定処理が実行される(ステップS23)。判定処理においては、検査部230は、画像メモリ220に蓄積された合成高さ画像データおよび合成テクスチャ画像データのうち少なくとも一方と画像メモリ220に予め設定された各種しきい値とに基づいて測定対象物Sの良否を判定(検査)する。なお、検査部230は、ステップS23における判定結果を表示部320に表示してもよいし、外部機器400に与えてもよい。 Thereafter, determination processing is executed in the controller unit 200 (step S23). In the determination process, the inspection unit 230 determines the object to be measured based on at least one of the synthesized height image data and synthesized texture image data accumulated in the image memory 220 and various threshold values preset in the image memory 220. Determining (inspecting) whether the object S is good or bad. Note that the inspection unit 230 may display the determination result in step S<b>23 on the display unit 320 or may provide it to the external device 400 .

上記のステップS11~S21までの一連の処理とステップS22のテクスチャ生成処理とは、いずれが先に実行されてもよいし、部分的に並列して実行されてもよい。 Either of the series of processes from steps S11 to S21 and the texture generation process of step S22 may be executed first, or may be partially executed in parallel.

[4]高さ画像データの正確性
本実施の形態においては、測定対象物Sの複数の部分の各々について、当該部分の真の高さに対する当該部分に対応する高さ画像データの画素が示す値(高さデータが示す値)の一致度を高さ画像データの正確性と呼ぶ。真の高さに対して高さ画像データの値が一致しているかほぼ一致している場合に、高さ画像データの正確性は高いとされる。一方、真の高さに対して高さ画像データの値が大きく外れている場合に、高さ画像データの正確性は低いとされる。
[4] Accuracy of height image data In the present embodiment, for each of a plurality of portions of the measurement object S, pixels of the height image data corresponding to the portion with respect to the true height of the portion indicate The degree of matching of values (values indicated by height data) is called accuracy of height image data. Height image data is said to be highly accurate if the values of the height image data match or nearly match the true height. On the other hand, when the value of the height image data deviates greatly from the true height, the accuracy of the height image data is considered to be low.

高さ画像データの正確性について具体例を参照しつつ説明する。図6(a)は高さ画像データの正確性を説明するための測定対象物Sの一例を示す外観斜視図であり、図6(b)は図6(a)の測定対象物Sの平面図であり、図6(c)は図6(a)の測定対象物Sの端面図である。 The accuracy of height image data will be described with reference to specific examples. FIG. 6(a) is an external perspective view showing an example of the measurement object S for explaining the accuracy of the height image data, and FIG. 6(b) is a plane of the measurement object S in FIG. 6(a). 6(c) is an end view of the measurement object S of FIG. 6(a).

図6(a)~(c)に示すように、本例の測定対象物Sは、例えば表面に光沢がある金属材料により形成され、ベース部s0および壁部Wを有する。ベース部s0は、一方向に延びる矩形板状に形成され、一端面s01、他端面s02、上面および下面を有する。壁部Wは、ベース部s0の上面の一部から上方に突出するように形成され、ベース部s0の上面に平行な略U字形状の断面を有する。壁部Wの内側の空間GSは、ベース部s0における他端面s02から一端面s01に向く方向に開放されている。ベース部s0の上面は、ベース部s0の下面を基準として均一な高さを有する。また、壁部Wの上面も、ベース部s0の下面を基準として均一な高さを有する。 As shown in FIGS. 6A to 6C, the measurement object S of this example is made of, for example, a metallic material with a glossy surface, and has a base portion s0 and a wall portion W. As shown in FIG. The base portion s0 is formed in a rectangular plate shape extending in one direction and has one end surface s01, the other end surface s02, an upper surface and a lower surface. The wall portion W is formed to protrude upward from a portion of the upper surface of the base portion s0, and has a substantially U-shaped cross section parallel to the upper surface of the base portion s0. A space GS inside the wall portion W is open in a direction from the other end surface s02 to the one end surface s01 of the base portion s0. The top surface of the base part s0 has a uniform height with respect to the bottom surface of the base part s0. Moreover, the upper surface of the wall portion W also has a uniform height with the lower surface of the base portion s0 as a reference.

図7は、図6の測定対象物Sの検査時における図2の複数の照明部110および撮像部120と測定対象物Sとの位置関係の一例を示す模式的斜視図である。図7では、複数の照明部110と撮像部120との位置関係の把握を容易にするために、図2の4個の照明部110A,110B,110C,110Dおよび撮像部120が丸印で示される。また、撮像部120を通ってX方向およびY方向にそれぞれ平行に延びる2本の直線が一点鎖線で示される。 FIG. 7 is a schematic perspective view showing an example of the positional relationship between the plurality of illumination units 110 and imaging units 120 shown in FIG. 2 and the measurement object S when the measurement object S shown in FIG. 6 is inspected. In FIG. 7, the four illumination units 110A, 110B, 110C, and 110D and the imaging unit 120 shown in FIG. be Also, two straight lines extending parallel to each other in the X direction and the Y direction through the imaging unit 120 are indicated by one-dot chain lines.

撮像部120は、撮像視野が下方に向くようにかつ撮像部120の光学系(図1の受光レンズ122,123)の光軸がZ方向に平行となるようにベルトコンベア301の上方に配置されている。一方、照明部110A,110Bは、Z方向における撮像部120と同じかまたはほぼ同じ高さ位置で、X方向において撮像部120を挟むように対称に配置されている。照明部110C,110Dは、Z方向における撮像部120と同じかまたはほぼ同じ高さ位置で、Y方向において撮像部120を挟むように対称に配置されている。 The imaging unit 120 is arranged above the belt conveyor 301 so that the imaging field of view faces downward and the optical axis of the optical system of the imaging unit 120 (the light receiving lenses 122 and 123 in FIG. 1) is parallel to the Z direction. ing. On the other hand, the illumination units 110A and 110B are arranged symmetrically so as to sandwich the imaging unit 120 in the X direction at the same or substantially the same height position as the imaging unit 120 in the Z direction. The illumination units 110C and 110D are arranged symmetrically so as to sandwich the imaging unit 120 in the Y direction at the same or approximately the same height position as the imaging unit 120 in the Z direction.

測定対象物Sは、撮像部120の下方でかつ撮像部120の光学系の光軸上に位置する。また、測定対象物Sは、一端面s01が照明部110Aの方向に向きかつ他端面s02が照明部110Bの方向に向くように、ベルトコンベア301上でX方向に平行に配置されている。 The measurement object S is positioned below the imaging unit 120 and on the optical axis of the optical system of the imaging unit 120 . The measurement object S is arranged parallel to the X direction on the belt conveyor 301 so that one end surface s01 faces the direction of the illumination unit 110A and the other end surface s02 faces the direction of the illumination unit 110B.

測定対象物Sの検査時には、図7に示すように、測定対象物Sの中心が撮像部120の光学系の光軸上に位置する状態でベルトコンベア301が一時停止する。また、上記の検査処理におけるステップS11~S19の処理により、図7に太い実線の矢印で示すように、各照明部110A,110B,110C,110Dから測定対象物Sに複数のパターンを含む一連の構造化光が順次照射される。このとき、図7に太い二点鎖線の矢印で示すように、測定対象物Sから反射されて上方に進行する各構造化光が、撮像部120の図1の撮像素子121により受光される。それにより、照明部ごとに一連の構造化光に対応する一連のパターン画像データが生成される。 When inspecting the measuring object S, the belt conveyor 301 is temporarily stopped while the center of the measuring object S is positioned on the optical axis of the optical system of the imaging unit 120, as shown in FIG. In addition, by the processing of steps S11 to S19 in the above inspection processing, as indicated by thick solid line arrows in FIG. Structured light is applied sequentially. At this time, each structured light reflected from the measurement object S and traveling upward is received by the imaging device 121 of the imaging unit 120 shown in FIG. Thereby, a series of pattern image data corresponding to a series of structured light is generated for each illumination section.

ここで、各照明部110から測定対象物Sに照射される構造化光の進行方向は、撮像部120の光学系の光軸に対して傾斜している。そのため、測定対象物Sの形状によっては、構造化光の照射方向ごとに、上記の照明不可能部分が生じる可能性がある。あるいは、測定対象物Sの表面状態によっては、構造化光の照射方向ごとに撮像部120の撮像視野内で構造化光の多重反射が発生する部分(以下、多重反射部分と呼ぶ。)が生じる可能性がある。これらの部分については、高い正確性を有する高さ画像データを得ることができない。 Here, the traveling direction of the structured light emitted from each illumination unit 110 to the measurement object S is inclined with respect to the optical axis of the optical system of the imaging unit 120 . Therefore, depending on the shape of the object S to be measured, there is a possibility that the above non-illuminatable portion may occur for each irradiation direction of the structured light. Alternatively, depending on the surface state of the measurement object S, there is a portion where multiple reflection of structured light occurs (hereinafter referred to as a multiple reflection portion) within the imaging field of view of the imaging unit 120 for each irradiation direction of the structured light. there is a possibility. Height image data with high accuracy cannot be obtained for these portions.

図8(a)は図7の一の照明部110Aから測定対象物Sに構造化光が照射される状態を示す側面図であり、図8(b)は図8(a)の構造化光の照射により取得される高さ画像を示す図である。 8A is a side view showing a state in which the measurement object S is irradiated with the structured light from one illumination unit 110A in FIG. 7, and FIG. 8B is the structured light of FIG. 8A. It is a figure which shows the height image acquired by irradiation of.

図8(a)ならびに後述する図9(a)、図10(a)および図11(a)では、各照明部110A~110Dから測定対象物Sに照射される構造化光の照射範囲がハッチングにより示される。また、図8(b)ならびに後述する図9(b)、図10(b)および図11(b)に示される高さ画像においては、測定対象物Sの表面上の各部の高さがドットパターンの濃度で表される。本例では、ドットパターンの濃度が高いほど対応する部分の高さが低いことを示し、ドットパターンの濃度が低いほど対応する部分の高さが高いことを示す。さらに、図8(b)ならびに後述する図9(b)、図10(b)および図11(b)に示される高さ画像においては、上記の照明不可能部分に対応する部分が濃いハッチングにより表され、上記の多重反射部分に対応する部分が空白で表される。本例の照明不可能部分は、影の発生部分である。 In FIG. 8(a) and FIGS. 9(a), 10(a), and 11(a), which will be described later, the irradiation range of the structured light irradiated from each of the illumination units 110A to 110D onto the measurement object S is hatched. is indicated by In the height images shown in FIG. 8(b) and FIG. 9(b), FIG. 10(b) and FIG. It is represented by the density of the pattern. In this example, the higher the density of the dot pattern, the lower the height of the corresponding portion, and the lower the density of the dot pattern, the higher the height of the corresponding portion. Furthermore, in the height images shown in FIG. 8(b) and later-described FIGS. 9(b), 10(b) and 11(b), portions corresponding to the non-illumination portions are indicated by dark hatching. , and the portions corresponding to the above multiple reflection portions are represented by blanks. The unilluminatable portion in this example is a shadowed portion.

図8(a)に示すように、照明部110Aからベース部s0の他端面s02に向かって進行する構造化光は、壁部Wにより遮光される。それにより、図8(a)に太い実線で示すように、ベース部s0の他端面s02の近傍には照明不可能部分ssが発生する。 As shown in FIG. 8A, the wall portion W blocks the structured light traveling from the illumination portion 110A toward the other end face s02 of the base portion s0. As a result, as indicated by a thick solid line in FIG. 8A, a non-illumination portion ss is generated in the vicinity of the other end surface s02 of the base portion s0.

また、図8(a)に二点鎖線の矢印a1で示すように、照明部110Aからベース部s0の一端面s01に向かって進行する構造化光は、その一端面s01により反射され、ベルトコンベア301の上面のうち当該一端面s01の近傍部分に入射する。さらに、図8(a)に二点鎖線の矢印a2で示すように、照明部110Aから壁部Wの内側の空間GSに向かって進行する構造化光の一部は、その壁部Wの内面の一部により反射され、ベース部s0の上面の一部に入射する。それにより、ベルトコンベア301およびベース部s0の上面の一部分には、多重反射部分rrが発生する。 Further, as indicated by a two-dot chain line arrow a1 in FIG. 8(a), the structured light traveling from the illumination unit 110A toward one end surface s01 of the base unit s0 is reflected by the one end surface s01 and conveyed to the belt conveyor. It is incident on a portion of the upper surface of 301 in the vicinity of the one end surface s01. Furthermore, as indicated by a two-dot chain line arrow a2 in FIG. and is incident on a portion of the upper surface of the base portion s0. As a result, the belt conveyor 301 and a portion of the upper surface of the base portion s0 generate a multiple reflection portion rr.

その結果、図8(b)に示すように、照明部110Aについての高さ画像には、壁部W、ベース部s0およびベルトコンベア301の上面の高さをそれぞれ示す壁画像wi、ベース画像s0iおよびコンベア画像301iとともに、照明不可能部分ssおよび多重反射部分rrをそれぞれ示す照明不可能画像ssiおよび多重反射画像rriが含まれる。照明不可能画像ssiを構成する各画素の値は、上記の照明無効値に設定されている。照明不可能画像ssiおよび多重反射画像rriの表示部分は、本来的に壁部W、ベース部s0およびベルトコンベア301の上面のいずれかの高さが表されるべき部分である。そのため、照明部110Aについて取得される高さ画像データは、局部的に低い正確性を有する。 As a result, as shown in FIG. 8B, the height image of the illumination unit 110A includes a wall image wi and a base image s0i respectively indicating the heights of the wall W, the base s0, and the top surface of the belt conveyor 301. and the conveyor image 301i, an unilluminated image ssi and a multiple reflected image rri showing the unilluminated portion ss and the multiple reflected portion rr, respectively. The value of each pixel constituting the non-illumination image ssi is set to the illumination invalid value. The display portions of the non-illumination image ssi and the multiple reflection image rri are originally portions where the height of any one of the wall portion W, the base portion s0, and the top surface of the belt conveyor 301 should be displayed. Therefore, the height image data acquired for the illumination section 110A has locally low accuracy.

図9(a)は図7の他の照明部110Bから測定対象物Sに構造化光が照射される状態を示す側面図であり、図9(b)は図9(a)の構造化光の照射により取得される高さ画像を示す図である。図10(a)は図7のさらに他の照明部110Cから測定対象物Sに構造化光が照射される状態を示す側面図であり、図10(b)は図10(a)の構造化光の照射により取得される高さ画像を示す図である。図11(a)は図7のさらに他の照明部110Dから測定対象物Sに構造化光が照射される状態を示す側面図であり、図11(b)は図11(a)の構造化光の照射により取得される高さ画像を示す図である。 9A is a side view showing a state in which the measurement object S is irradiated with structured light from another illumination unit 110B in FIG. 7, and FIG. 9B is a side view showing the structured light in FIG. It is a figure which shows the height image acquired by irradiation of. FIG. 10(a) is a side view showing a state in which the measurement object S is irradiated with structured light from still another illumination unit 110C in FIG. 7, and FIG. 10(b) is a structured light shown in FIG. It is a figure which shows the height image acquired by irradiation of light. FIG. 11(a) is a side view showing a state in which the measurement object S is irradiated with structured light from still another illumination unit 110D in FIG. 7, and FIG. 11(b) is a structured light shown in FIG. It is a figure which shows the height image acquired by irradiation of light.

図9(a)、図10(a)および図11(a)の例においても、図8(a)の例と同様に、各照明部110B,110C,110Dから測定対象物Sに構造化光が照射されることにより、ベルトコンベア301およびベース部s0の上面の一部分には、照明不可能部分ssおよび多重反射部分rrが発生する。図9(a)、図10(a)および図11(a)では、照明不可能部分ssが太線または太い点線で示される。また、多重反射部分rrの発生要因となる構造化光の進行経路が二点鎖線の矢印で示される。 In the examples of FIGS. 9A, 10A, and 11A, similarly to the example of FIG. 8A, structured light is emitted from each of the illumination units 110B, 110C, and 110D to the measurement object S. is irradiated, a non-illumination portion ss and a multiple reflection portion rr are generated on a part of the upper surface of the belt conveyor 301 and the base portion s0. In FIGS. 9(a), 10(a) and 11(a), the unilluminatable portion ss is indicated by a thick line or a thick dotted line. Also, the traveling path of the structured light that causes the multiple reflection portion rr is indicated by a two-dot chain line arrow.

それにより、図9(b)、図10(b)および図11(b)に示すように、各照明部110B,110C,110Dについての高さ画像には、壁画像wi、ベース画像s0iおよびコンベア画像301iとともに、照明不可能画像ssiおよび多重反射画像rriが含まれる。そのため、各照明部110B,110C,110Dについて取得される高さ画像データは、照明部110Aについて取得される高さ画像データと同様に、局部的に低い正確性を有する。 As a result, as shown in FIGS. 9B, 10B and 11B, the height images of the lighting units 110B, 110C and 110D include the wall image wi, the base image s0i and the conveyor Along with image 301i, non-illumination image ssi and multiple reflection image rri are included. Therefore, the height image data acquired for each of the illumination units 110B, 110C, and 110D has locally low accuracy, as is the height image data acquired for the illumination unit 110A.

ここで、照明不可能部分ssおよび多重反射部分rrの発生位置は、構造化光の照射方向に応じて異なる。したがって、4つの照明部110A,110B,110C,110Dにそれぞれ対応する4つの高さ画像データを比較した場合、照明不可能画像ssiおよび多重反射画像rriの画素位置は互いに異なる。 Here, the positions where the non-illumination portion ss and the multiple reflection portion rr are generated differ according to the irradiation direction of the structured light. Therefore, when the four height image data corresponding to the four illumination units 110A, 110B, 110C, and 110D are compared, the pixel positions of the non-illumination image ssi and the multiple reflection image rri are different from each other.

複数の照明部110について生成される複数の高さ画像データを合成する場合に、正確性の低い高さ画像データの成分が合成高さ画像データに残留すると、合成高さ画像データの全体的な正確性が低下する。すなわち、照明不可能画像ssiおよび多重反射画像rriを構成する複数の画素の値が合成高さ画像データの生成に用いられると、合成高さ画像データの全体的な正確性が低下する。そこで、本実施の形態では、より高い正確性を有する合成高さ画像データを得るための合成処理が行われる。以下、図5のステップS20で実行される合成処理の詳細について説明する。 When combining a plurality of height image data generated for a plurality of lighting units 110, if a component of the height image data with low accuracy remains in the combined height image data, the overall height image data of the combined height image data Less accurate. That is, if the values of a plurality of pixels forming the non-illumination image ssi and the multiple reflection image rri are used to generate the synthetic height image data, the overall accuracy of the synthetic height image data is reduced. Therefore, in the present embodiment, synthesis processing is performed to obtain synthetic height image data with higher accuracy. Details of the synthesizing process executed in step S20 of FIG. 5 will be described below.

[5]高さ画像データの合成処理
図12は本発明の一実施の形態に係る合成処理の概念を示す図である。図12に示すように、本実施の形態に係る合成処理では、まず4つの照明部110A~110Dにそれぞれ対応して生成された4つの高さ画像データが用意される。
[5] Synthesis Processing of Height Image Data FIG. 12 is a diagram showing the concept of synthesis processing according to an embodiment of the present invention. As shown in FIG. 12, in the synthesizing process according to the present embodiment, first, four height image data generated corresponding to the four lighting units 110A to 110D are prepared.

4つの高さ画像データは、共通の一の撮像部120を用いて生成される。そのため、4つの高さ画像データは、互いに対応する同一の画素位置の4つの画素piの組を複数有する。図12の上段には、互いに対応する4つの画素piの複数組のうちの一部の組pg1,pg2,pg3,…,pgn(nは、一の高さ画像データの画素の総数)がそれぞれ太い一点鎖線と白抜きの矢印とで示される。 The four height image data are generated using one common imaging unit 120 . Therefore, the four height image data have a plurality of sets of four pixels pi at the same pixel positions corresponding to each other. In the upper part of FIG. 12, partial sets pg1, pg2, pg3, . It is indicated by a thick dashed line and a white arrow.

次に、各組pg1~pgnの互いに対応する同一の画素位置の4つの画素piの値のうち予め定められた組み合わせ条件に従う2つの値が抽出される。本例の組み合わせ条件は、第1の抽出条件および第2の抽出条件を含み、測定対象物Sの検査前に、予め図1の記憶部134に記憶される。 Next, two values according to a predetermined combination condition are extracted from the values of the four pixels pi at the same corresponding pixel position in each of the sets pg1 to pgn. The combination conditions of this example include the first extraction condition and the second extraction condition, and are stored in advance in the storage unit 134 of FIG. 1 before the measurement object S is inspected.

第1の抽出条件は、各組pg1~pgnの複数の画素piの値から照明無効値を除く高さデータを抽出することである。これにより、複数の画素piの値から、照明無効値の成分を排除することができる。 The first extraction condition is to extract height data excluding illumination invalid values from the values of a plurality of pixels pi in each set pg1 to pgn. As a result, the illumination invalid value component can be eliminated from the values of the plurality of pixels pi.

第2の抽出条件は、第1の抽出条件で複数の高さデータの値が抽出された場合に使用される条件であり、抽出された複数の高さデータのうち各2つの高さの差分がそれぞれ算出された場合に、算出された複数の差分のうち最小の差分の算出に用いられた2つの高さデータを抽出することである。これにより、複数の画素piの高さデータから、正確性が高いと考えられる2つの高さデータを抽出することができる。 The second extraction condition is a condition used when a plurality of height data values are extracted under the first extraction condition, and is a difference between two heights among the plurality of extracted height data. are calculated, two height data used for calculating the minimum difference among the plurality of calculated differences are extracted. As a result, two pieces of height data that are considered to be highly accurate can be extracted from the height data of a plurality of pixels pi.

例えば、図12の中段に示すように、各組pg1~pgnの互いに対応する4つの画素piに、4つの照明部110A,110B,110C,110Dにそれぞれ対応する4つの高さデータの値va,vb,vc,vdが設定されている場合に、それらの値va,vb,vc,vdが昇順または降順に並べられる。 For example, as shown in the middle part of FIG. 12, four height data values va, If vb, vc, vd are set, their values va, vb, vc, vd are sorted in ascending or descending order.

次に、第1の抽出条件に従って、各組pg1~pgnについて値va,vb,vc,vdのうち照明無効値を除く値が高さを示すものとして抽出される。照明無効値が0であるとすると、図12の中段の例では、組pg1について値va,vb,vcが抽出され、組pg2について値vb,vc,vdが抽出され、組pg3について値va,vb,vc,vdが抽出される。 Next, according to the first extraction condition, the values va, vb, vc, and vd excluding the invalid illumination value are extracted as indicating the height for each of the sets pg1 to pgn. Assuming that the illumination invalid value is 0, in the middle example of FIG. vb, vc, vd are extracted.

次に、第2の抽出条件に従って、各組pg1~pgnについて昇順または降順で互いに隣り合う各2つの高さの差分diが算出され、最も小さい差分diの算出に用いられた2つの高さデータの値が抽出される。図12の中段の例では、太い点線で示すように、組pg1について値va,vbが抽出され、組pg2について値vc,vdが抽出され、組pg3について値vc,vdが抽出される。 Next, according to the second extraction condition, the difference di between two heights adjacent to each other is calculated in ascending or descending order for each pair pg1 to pgn, and the two height data used to calculate the smallest difference di. is extracted. In the middle example of FIG. 12, as indicated by the thick dotted lines, values va and vb are extracted for the set pg1, values vc and vd are extracted for the set pg2, and values vc and vd are extracted for the set pg3.

続いて、各組pg1~pgnについて抽出された2つの高さデータの差分が、予め定められた許容範囲内の値であるか否かが判定される。許容範囲は、測定対象物Sの検査に要求される精度等を考慮して定められ、測定対象物Sの検査前に、予め図1の記憶部134に記憶される。 Subsequently, it is determined whether or not the difference between the two height data extracted for each of the sets pg1 to pgn is within a predetermined allowable range. The permissible range is determined in consideration of the accuracy required for inspection of the measurement object S, and is stored in advance in the storage unit 134 of FIG. 1 before the measurement object S is inspected.

この場合、一の組について抽出された2つの高さデータの差分が許容範囲内にある場合には、それらの2つの高さデータが示す値は当該組に対応する測定対象物Sの部分の真の高さに対して許容誤差範囲内にあり、正確性が高いと考えられる。そこで、各組pg1~pgnについて抽出された2つの高さデータの差分が許容範囲内の値である場合には、2つの高さデータから予め定められた方法に従って求められる高さデータが決定される。また、決定された高さデータの値が、合成高さ画像データにおいて当該組の複数の画素に対応する対象画素が示す合成有効値として設定される。予め定められた方法は、2つの高さデータから平均高さを算出する方法であってもよいし、2つの高さデータのうち一方の高さを選択する方法であってもよい。 In this case, when the difference between the two height data extracted for one set is within the allowable range, the value indicated by the two height data is the portion of the measurement object S corresponding to the set. It is considered to be highly accurate as it is within the allowable error range for the true height. Therefore, when the difference between the two height data extracted for each of the sets pg1 to pgn is a value within the allowable range, height data obtained from the two height data according to a predetermined method is determined. be. Also, the determined height data value is set as a synthetic effective value indicated by the target pixel corresponding to the plurality of pixels of the set in the synthetic height image data. The predetermined method may be a method of calculating an average height from two pieces of height data, or a method of selecting one height from two pieces of height data.

一方、一の組について抽出された2つの高さデータの差分が許容範囲内にない場合には、それらの2つの高さデータのうち少なくとも一方は当該組に対応する測定対象物Sの部分の真の高さに対して許容誤差範囲から外れ、正確性が低いと考えられる。そこで、各組pg1~pgnについて抽出された2つの高さデータの差分が許容範囲内にない場合には、合成高さ画像データにおいて当該組に対応する対象画素の高さデータの値が、予め定められた合成無効値に設定される。これにより、多重反射部分rrに起因する正確性の低い成分が合成高さ画像データに残留することが低減される。合成無効値は、例えば0である。 On the other hand, if the difference between the two height data extracted for one set is not within the allowable range, at least one of the two height data is the portion of the measurement object S corresponding to the set. It is considered to be out of the allowable error range for the true height and the accuracy is low. Therefore, if the difference between the two height data extracted for each set pg1 to pgn is not within the allowable range, the value of the height data of the target pixel corresponding to the set in the synthesized height image data is Set to the defined synthetic invalid value. This reduces the amount of low-accuracy components remaining in the combined height image data due to the multiple reflection portions rr. The synthetic invalid value is 0, for example.

図12の下段の例では、太い実線の矢印で示すように、組pg1の値va,vbの差分が許容範囲内であることにより、値va,vbに基づく合成有効値が組pg1に対応する合成高さ画像データの対象画素tpiの高さデータの値として設定される。また、太い二点鎖線の矢印で示すように、組pg2の値vc,vdの差分が許容範囲外であることにより、合成無効値が組pg2に対応する合成高さ画像データの対象画素tpiの高さデータの値として設定される。さらに、太い点線の矢印で示すように、組pg3の値vc,vdの差分が許容範囲内であることにより、値vc,vdに基づく合成有効値が組pg3に対応する合成高さ画像データの対象画素tpiの高さデータの値として設定される。 In the example in the lower part of FIG. 12, as indicated by the thick solid arrow, the difference between the values va and vb of the pair pg1 is within the allowable range, so that the synthetic effective value based on the values va and vb corresponds to the pair pg1. It is set as the height data value of the target pixel tpi of the composite height image data. In addition, as indicated by the thick two-dot chain line arrow, the difference between the values vc and vd of the group pg2 is outside the allowable range, so that the synthesis invalid value is the target pixel tpi of the synthetic height image data corresponding to the group pg2. Set as height data value. Furthermore, as indicated by the thick dotted arrow, the difference between the values vc and vd of the set pg3 is within the allowable range, so that the composite effective value based on the values vc and vd is the composite height image data corresponding to the set pg3. It is set as the height data value of the target pixel tpi.

上記のようにして、全ての組pg1~pgnにそれぞれ対応する合成高さ画像データの全ての対象画素tpiの値が設定されることにより、合成高さ画像データの生成が完了し、合成処理が終了する。 By setting the values of all the target pixels tpi of the synthetic height image data corresponding to all the sets pg1 to pgn as described above, the generation of the synthetic height image data is completed, and the synthesis process is started. finish.

なお、図12の例では、各組pg1~pgnの複数の画素piが示す複数の高さのうち予め定められた組み合わせ条件に従って2つの高さデータが抽出されている。しかしながら、例えば一の組の複数の画素piの全ての高さデータが照明無効値に設定されている場合には、高さデータについての上記の差分の算出を行うことができない。また、一の組の複数の画素piの高さデータうちの1つの高さデータのみが照明無効値以外の値(有効な高さの値)を示す場合にも、高さデータについての上記の差分の算出を行うことができない。そこで、本実施の形態では、一の組の複数の画素piの高さデータの全てが照明無効値に設定されている場合、および一の組の複数の画素piの高さデータのうちの1つの高さデータのみが照明無効値以外の値を示す場合にも、合成高さ画像データにおいて当該一の組に対応する対象画素の値が予め定められた合成無効値に設定される。 In the example of FIG. 12, two height data are extracted according to a predetermined combination condition among the heights indicated by the pixels pi of each set pg1 to pgn. However, if, for example, all the height data of a set of multiple pixels pi are set to the illumination invalid value, the above difference cannot be calculated for the height data. Also, when only one height data among the height data of a plurality of pixels pi in one set indicates a value (effective height value) other than an illumination invalid value, the above-mentioned height data Difference calculation cannot be performed. Therefore, in the present embodiment, when all of the height data of the plurality of pixels pi in one set are set to the lighting invalid value, and when one of the height data of the plurality of pixels pi in the one set Even when only one height data indicates a value other than the illumination invalid value, the value of the target pixel corresponding to the one set in the combined height image data is set to the predetermined combined invalid value.

図13は、本発明の一実施の形態に係る合成処理により生成される合成高さ画像データに基づく高さ画像の一例を示す図である。図13の高さ画像は、図8(b)、図9(b)、図10(b)および図11(b)の高さ画像を示す複数の高さ画像データを合成することにより得られた合成高さ画像データが示す高さ画像である。図13に示すように、本実施の形態に係る合成処理により生成される高さ画像においては、図8(b)、図9(b)、図10(b)および図11(b)の高さ画像に現れる多重反射画像rriが排除されている。また、高さ画像全体に対する照明不可能画像ssiの割合も十分に低減されている。 FIG. 13 is a diagram showing an example of a height image based on synthetic height image data generated by synthesizing processing according to one embodiment of the present invention. The height image of FIG. 13 is obtained by synthesizing a plurality of height image data representing the height images of FIGS. 8(b), 9(b), 10(b) and 11(b). 10 is a height image indicated by combined height image data. As shown in FIG. 13, in the height image generated by the synthesizing process according to the present embodiment, the heights of FIGS. 8B, 9B, 10B and 11B are shown. The multiple reflection image rri that appears in the s image is eliminated. Also, the ratio of the non-illumination image ssi to the entire height image is sufficiently reduced.

図14は、本発明の一実施の形態に係る合成処理のフローチャートである。合成処理の開始時点では、図5のステップS11~S19の処理により、演算処理部132において予め複数(本例では4つ)の照明部110A~110Dについてそれぞれ複数(本例では4つ)の高さ画像データが生成されているものとする。 FIG. 14 is a flowchart of synthesis processing according to one embodiment of the present invention. At the start of the synthesizing process, a plurality (four in this example) of the lighting units 110A to 110D are obtained in advance in the arithmetic processing unit 132 by the processing of steps S11 to S19 in FIG. It is assumed that image data has been generated.

図14に示すように、合成処理が開始されると、図1の画像処理部133は、複数の高さ画像データの互いに対応する同一の画素位置の複数の画素piの複数の組pg1~pgnのうち一の組を注目組として選択する(ステップS31)。 As shown in FIG. 14, when the synthesizing process is started, the image processing unit 133 of FIG. 1 generates a plurality of sets pg1 to pgn of a plurality of pixels pi at the same pixel positions corresponding to each other in the height image data. , is selected as a set of interest (step S31).

次に、画像処理部133は、注目組の複数(本例では4つ)の画素piの複数の高さデータのうち予め定められた組み合わせ条件に従う2つの高さデータを抽出する(ステップS32)。この場合、上記のように、複数の画素piの高さデータの全てが照明無効値に設定されている場合、および一の組の複数の画素piのうちの1つの画素の高さデータのみが照明無効値以外の値(有効な高さの値)を示す場合には、2つの高さを抽出することができない。 Next, the image processing unit 133 extracts two pieces of height data according to a predetermined combination condition among the pieces of height data of the plurality of (four in this example) pixels pi in the set of interest (step S32). . In this case, as described above, when all of the height data of a plurality of pixels pi are set to illumination invalid values, and when only the height data of one pixel out of a set of a plurality of pixels pi is If a value (effective height value) other than the lighting invalid value is indicated, two heights cannot be extracted.

そこで、画像処理部133は、ステップS32の処理で2つの高さデータが抽出されたか否かを判定する(ステップS33)。2つの高さデータが抽出された場合、画像処理部133は、抽出された2つの高さデータの差分が予め定められた許容範囲内にあるか否かを判定する(ステップS34)。 Therefore, the image processing unit 133 determines whether or not two pieces of height data are extracted in the process of step S32 (step S33). When two height data are extracted, the image processing unit 133 determines whether the difference between the two extracted height data is within a predetermined allowable range (step S34).

抽出された2つの高さデータの差分が許容範囲内にある場合、画像処理部133は、予め定められた方法に従って、検出された2つの高さデータから合成有効値を決定する(ステップS35)。また、画像処理部133は、決定された合成有効値を、注目組に対応する対象画素の高さデータの値として設定する(ステップS36)。 If the difference between the two extracted height data is within the allowable range, the image processing unit 133 determines a combined effective value from the two detected height data according to a predetermined method (step S35). . Further, the image processing unit 133 sets the determined combined effective value as the height data value of the target pixel corresponding to the set of interest (step S36).

上記のステップS33において2つの高さデータが抽出されない場合、または上記のステップS34において抽出された2つの高さデータの差分が許容範囲内にない場合、画像処理部133は、注目組に対応する対象画素の高さデータの値を合成無効値に設定する(ステップS37)。 If the two pieces of height data are not extracted in step S33 above, or if the difference between the two pieces of height data extracted in step S34 above is not within the allowable range, the image processing unit 133 selects The value of the height data of the target pixel is set to the synthesis invalid value (step S37).

ステップS36およびステップS37のいずれかの処理後、画像処理部133は、複数の組pg1~pgnの全てが注目組として選択されたか否かを判定する(ステップS38)。複数の組pg1~pgnの全てが注目組として選択されたことは、合成高さ画像データにおける全ての対象画素の高さデータの値が設定されたこと、すなわち合成高さ画像データの生成が完了したことを意味する。それにより、合成処理が終了する。一方、複数の組pg1~pgnの全てが注目組として選択されていない場合、画像処理部133は、複数の組pg1~pgnのうち注目組とされていない他の組を新たに注目組として選択し(ステップS39)、ステップS32の処理に進む。 After the processing of either step S36 or step S37, the image processing unit 133 determines whether or not all of the plurality of sets pg1 to pgn have been selected as the set of interest (step S38). The fact that all of the plurality of groups pg1 to pgn have been selected as the group of interest means that the values of the height data of all the target pixels in the synthetic height image data have been set, that is, the generation of the synthetic height image data has been completed. means that This completes the compositing process. On the other hand, when all of the plurality of pairs pg1 to pgn have not been selected as the group of interest, the image processing unit 133 newly selects another pair of the plurality of pairs pg1 to pgn that is not the group of interest as the group of interest. (step S39), and the process proceeds to step S32.

[6]実施の形態の効果
(1)上記の検査装置300においては、複数の照明部110の各々から構造化光が複数のパターンに変化されつつ測定対象物Sに複数回照射される。撮像部120において、測定対象物Sから反射される構造化光が受光されることにより、各照明部110に対応する複数のパターン画像データが生成される。各照明部110について、当該照明部110に対応する複数のパターン画像に基づいて高さ画像データが生成される。
[6] Effects of the Embodiments (1) In the inspection apparatus 300 described above, the structured light from each of the plurality of illumination units 110 is irradiated onto the measurement object S a plurality of times while being changed into a plurality of patterns. In the imaging unit 120 , a plurality of pattern image data corresponding to each illumination unit 110 are generated by receiving the structured light reflected from the measurement object S. Height image data is generated for each illumination unit 110 based on a plurality of pattern images corresponding to the illumination unit 110 .

複数の照明部110についての複数の高さ画像データが合成され、合成高さ画像データが生成される。この合成時には、複数の高さ画像データの互いに対応する同一の画素位置の複数の画素piの各組pg1~pgnについて、複数の画素piが示す複数の高さデータのうち組み合わせ条件に従う2つの高さデータの差分が算出される。また、算出された差分が許容範囲内にあるか否かが判定される。 A plurality of height image data for a plurality of lighting units 110 are synthesized to generate synthetic height image data. At the time of this synthesis, for each set pg1 to pgn of a plurality of pixels pi at the same pixel position corresponding to each other in the plurality of height image data, two height data of the plurality of height data indicated by the plurality of pixels pi are selected according to the combination condition. The difference of the height data is calculated. Also, it is determined whether or not the calculated difference is within the allowable range.

算出された差分が許容範囲内にある場合、差分の算出に用いられた2つの高さデータは当該画素位置に対応する測定対象物Sの部分の真の高さに対して許容誤差範囲内にある高さを示す正確性の高いデータである。そこで、算出された差分が許容範囲内にある場合には、差分の算出に用いられた2つの高さデータから予め定められた方法に従って求められる高さデータが決定される。また、決定された高さデータが、合成高さ画像データにおいて当該画素位置に対応する対象画素が示す合成有効値として設定される。 If the calculated difference is within the allowable range, the two height data used to calculate the difference are within the allowable error range with respect to the true height of the portion of the measurement object S corresponding to the pixel position. This is highly accurate data indicating a certain height. Therefore, when the calculated difference is within the allowable range, the height data obtained according to a predetermined method is determined from the two height data used to calculate the difference. Also, the determined height data is set as a synthesized effective value indicated by the target pixel corresponding to the pixel position in the synthesized height image data.

一方、算出された差分が許容範囲内にない場合、差分の算出に用いられた2つの高さデータは真の高さに対して許容誤差範囲から外れた高さを示す正確性の低いデータである可能性が高い。そこで、算出された差分が許容範囲内にない場合には、合成高さ画像データにおいて当該画素位置に対応する対象画素の高さデータの値が予め定められた合成無効値に設定される。 On the other hand, if the calculated difference is not within the allowable range, the two height data used to calculate the difference are low-accuracy data indicating a height outside the allowable error range with respect to the true height. Very likely. Therefore, when the calculated difference is not within the allowable range, the value of the height data of the target pixel corresponding to the pixel position in the combined height image data is set to a predetermined combined invalid value.

これにより、最終的に生成された合成高さ画像データにおいては、対象画素ごとに正確性の高い高さデータの値が合成有効値で示されるが、正確性の低い高さデータの値は示されない。したがって、生成された合成高さ画像データを用いることにより、測定対象物の高さについて検査の正確性を向上させることが可能になる。 As a result, in the synthesized height image data finally generated, the value of height data with high accuracy is indicated by the synthetic effective value for each target pixel, but the value of height data with low accuracy is indicated. not. Therefore, by using the generated synthetic height image data, it is possible to improve the accuracy of inspection of the height of the object to be measured.

(2)本実施の形態では、図14の合成処理におけるステップS32の処理で、予め定められた組み合わせ条件に従って2つの値が抽出される。上記の組み合わせ条件は、各組pg1~pgnに対応する複数の画素piの値から照明無効値の成分が排除されるようにかつ複数の画素piの高さデータから正確性が高いと推定される2つの高さデータが抽出されるように定められている。したがって、抽出された2つの高さデータに基づいて合成有効値が決定されることにより合成高さ画像データの正確性がより向上する。 (2) In the present embodiment, two values are extracted according to a predetermined combination condition in the process of step S32 in the synthesizing process of FIG. The above combination conditions are estimated to be highly accurate from the height data of the plurality of pixels pi so that the illumination invalid value component is excluded from the values of the plurality of pixels pi corresponding to each of the sets pg1 to pgn. Two height data are defined to be extracted. Therefore, by determining the composite effective value based on the two extracted height data, the accuracy of the composite height image data is further improved.

(3)本実施の形態では、照明部110A,110BはX方向において撮像部120を挟んで互いに対向するように配置されている。また、照明部110C,110DはY方向において撮像部120を挟んで互いに対向するように配置されている。 (3) In the present embodiment, illumination units 110A and 110B are arranged to face each other with imaging unit 120 interposed therebetween in the X direction. Also, the illumination units 110C and 110D are arranged so as to face each other with the imaging unit 120 interposed therebetween in the Y direction.

この場合、測定対象物Sの表面の広い範囲に渡って構造化光を照射することができる。したがって、測定対象物Sの表面の広い範囲に渡って高い正確性を有する合成高さ画像データを取得することができる。 In this case, a wide range of the surface of the measurement object S can be irradiated with the structured light. Therefore, synthetic height image data with high accuracy over a wide range of the surface of the measurement object S can be obtained.

[7]他の実施の形態
(1)上記の実施の形態に係る合成処理においては、注目組の複数の画素piが示す複数の高さのうち組み合わせ条件に従う2つの高さデータが抽出されない場合に、注目組に対応する合成高さ画像データの対象画素の値(高さデータの値)が合成無効値に設定されるが、本発明はこれに限定されない。
[7] Other Embodiments (1) In the synthesizing process according to the above embodiments, when two height data complying with the combination condition are not extracted from the plurality of heights indicated by the plurality of pixels pi of the set of interest. In addition, the value of the target pixel (height data value) of the synthesized height image data corresponding to the set of interest is set to the invalid synthesis value, but the present invention is not limited to this.

注目組における複数の画素piの複数の高さデータのうち組み合わせ条件に従う2つの高さデータが抽出されない場合でも、注目組の複数の画素piのうち1つの高さデータの値が正確性の高い有効な値を示す場合には、その1つの画素の高さデータの値が合成有効値として決定されてもよい。 Even if two height data complying with the combination condition are not extracted from the plurality of height data of the plurality of pixels pi in the set of interest, the value of one height data out of the plurality of pixels pi of the set of interest is highly accurate. If it indicates a valid value, the height data value of that one pixel may be determined as the combined valid value.

図15は、他の実施の形態に係る合成処理のフローチャートである。図15の他の実施の形態に係る合成処理について、上記実施の形態に係る図14の合成処理と異なる点を説明する。 FIG. 15 is a flowchart of composition processing according to another embodiment. A description will be given of the difference between the composition processing according to another embodiment shown in FIG. 15 and the composition processing shown in FIG. 14 according to the above-described embodiment.

図15の合成処理においては、ステップS33の処理で2つの高さデータが抽出されない場合に、画像処理部133は、注目組の全ての画素の高さデータの値が照明無効値に設定されているか否かを判定する(ステップS41)。 In the synthesizing process of FIG. 15, if two pieces of height data are not extracted in the process of step S33, the image processing unit 133 sets the height data values of all the pixels in the group of interest to the lighting invalid value. It is determined whether or not there is (step S41).

ステップS41において注目組の全ての画素の高さデータの値が照明無効値に設定されている場合には、画像処理部133は、上記実施の形態と同様に、ステップS37に進む。それにより、注目組に対応する対象画素の高さデータの値が合成無効値に設定される(ステップS37)。 In step S41, when the height data values of all the pixels in the group of interest are set to the illumination invalid value, the image processing unit 133 proceeds to step S37, as in the above embodiment. As a result, the value of the height data of the target pixel corresponding to the group of interest is set to the synthesis invalid value (step S37).

一方、ステップS41において、注目組の全ての画素の高さデータの値が照明無効値に設定されていない場合には、注目組の複数の画素のうち1つの画素の高さデータの値は、その注目組に対応する測定対象物Sの部分の高さを正確に示している可能性がある。例えば、ゴム等で形成された測定対象物Sは、多重反射が発生しにくい表面状態を有する場合がある。このような測定対象物Sに関しては、注目組の各画素の値は、照明無効値でない限り、その注目組に対応する測定対象物Sの部分の高さを正確に示している可能性が高い。 On the other hand, in step S41, if the height data values of all the pixels in the group of interest are not set to the lighting invalid value, the value of the height data of one of the plurality of pixels in the group of interest is There is a possibility that the height of the portion of the measurement object S corresponding to the set of interest is indicated accurately. For example, the measurement object S made of rubber or the like may have a surface condition that makes it difficult for multiple reflections to occur. Regarding such a measurement object S, the value of each pixel in the set of interest is highly likely to accurately indicate the height of the portion of the measurement object S corresponding to the set of interest unless it is an illumination invalid value. .

そこで、本例では、ステップS41において注目組の全ての画素の値が照明無効値に設定されていない場合に、画像処理部133は、注目組の複数の画素のうち1つの画素の高さデータの値を合成有効値として決定する(ステップS42)。その後、画像処理部133は、ステップS36の処理に進む。 Therefore, in this example, if the values of all the pixels in the group of interest are not set to the illumination invalid value in step S41, the image processing unit 133 calculates the height data of one pixel among the plurality of pixels in the group of interest. is determined as a synthesized effective value (step S42). After that, the image processing unit 133 proceeds to the process of step S36.

上記の図15の合成処理によれば、合成高さ画像データにおいて合成無効値が設定される対象画素の数を低減することができる。 According to the synthesizing process of FIG. 15, the number of target pixels for which the invalid synthesizing value is set can be reduced in the synthetic height image data.

本例の検査装置300は、演算部130において実行されるべき合成処理として、図14の合成処理と図15の合成処理とが使用者により選択可能に構成されてもよい。この場合、例えば図1のコントローラ部200は、使用者による操作部310の操作に応答して、図14および図15の合成処理のうち実行されるべき合成処理の選択を受け付ける。また、画像処理部133は、測定対象物Sの検査時に、使用者により選択された合成処理を実行する。これにより、測定対象物Sの形状、材質および表面状態等に応じて適切な合成高さ画像データを生成することが可能になる。 The inspection apparatus 300 of this example may be configured such that the user can select the combining process of FIG. 14 and the combining process of FIG. In this case, for example, the controller unit 200 in FIG. 1 accepts selection of the combining process to be executed from among the combining processes in FIGS. 14 and 15 in response to the operation of the operation unit 310 by the user. In addition, the image processing unit 133 executes a synthesis process selected by the user when the measurement object S is inspected. This makes it possible to generate appropriate synthetic height image data according to the shape, material, surface state, and the like of the object S to be measured.

(2)上記実施の形態に係る合成処理においては、各組pg1~pgnの複数の画素piの値のうち組み合わせ条件に従う2つ高さデータの値が抽出される。ここで、組み合わせ条件は、各組pg1~pgnの複数の画素piの値から特定の2つの照明部110に対応する2つの高さデータの値を抽出することであってもよい。 (2) In the synthesizing process according to the above embodiment, two height data values according to the combination condition are extracted from the values of the plurality of pixels pi in each of the sets pg1 to pgn. Here, the combination condition may be to extract two height data values corresponding to two specific lighting units 110 from the values of a plurality of pixels pi in each set pg1 to pgn.

例えば、検査装置300において互いに対向する一対の照明部110が複数設けられる場合に、予め定められた一方向において互いに対向する2つの照明部110に対応する2つの画素piの高さデータの値が抽出されてもよい。または、検査装置300において互いに対向する一対の照明部110が複数対設けられる場合に、各対の照明部110にそれぞれ対応する2つ画素piの高さデータの値の差分を算出し、差分が最小となる2つの画素piの高さデータの値が抽出されてもよい。 For example, when a plurality of pairs of illumination units 110 facing each other are provided in the inspection apparatus 300, the height data values of two pixels pi corresponding to the two illumination units 110 facing each other in one predetermined direction are may be extracted. Alternatively, when a plurality of pairs of illumination units 110 facing each other are provided in the inspection apparatus 300, the difference between the height data values of two pixels pi corresponding to each pair of illumination units 110 is calculated, and the difference is Values of height data of two pixels pi that are the smallest may be extracted.

このような組み合わせ条件において、抽出される2つ高さデータの値の間に、当該組に属する他の高さデータの値が存在する場合には、抽出された2つの高さデータの値に加えて、他の高さデータの値を用いることにより合成有効値が決定されてもよい。この場合、合成有効値は、3つの高さデータの値に基づいて決定される。このように、合成有効値は、2以上の複数の高さデータの値に基づいて決定されてもよい。 In such a combination condition, if there is another height data value belonging to the group between the two extracted height data values, the two extracted height data values Additionally, the composite effective value may be determined by using other height data values. In this case, the composite valid value is determined based on the three height data values. In this way, the composite effective value may be determined based on two or more height data values.

(3)上記実施の形態に係る検査装置300は、1個の撮像部120に対して4個の照明部110を有するが、本発明はこれに限定されない。検査装置300は、1個の撮像部120に対して4つ以上の照明部110を有していればよい。したがって、検査装置300は、5つまたは6つの照明部110を有してもよい。この場合においても、上記実施の形態の例と同様に合成処理が行われることにより、測定対象物の高さについて検査の正確性を向上させることが可能になる。 (3) Although inspection apparatus 300 according to the above embodiment has four illumination units 110 for one imaging unit 120, the present invention is not limited to this. The inspection apparatus 300 may have four or more illumination units 110 for one imaging unit 120 . Therefore, inspection device 300 may have five or six illumination units 110 . Even in this case, by performing the synthesis process in the same manner as in the above embodiment, it is possible to improve the accuracy of the inspection of the height of the object to be measured.

[8]請求項の各構成要素と実施の形態の各部との対応関係
請求項の各構成要素と実施の形態の各部との対応の例について説明する。上記実施の形態においては、測定対象物Sが測定対象物の例であり、照明部110Aが第1の照明部の例であり、照明部110Bが第2の照明部の例であり、照明部110Cが第3の照明部の例であり、照明部110Dが第4の照明部の例である。
[8] Correspondence between each component of the claims and each part of the embodiment An example of correspondence between each component of the claims and each part of the embodiment will be described. In the above embodiment, the measurement object S is an example of the measurement object, the illumination unit 110A is an example of the first illumination unit, the illumination unit 110B is an example of the second illumination unit, and the illumination unit 110C is an example of a third lighting section, and lighting section 110D is an example of a fourth lighting section.

また、撮像部120が撮像部の例であり、撮像処理部131および演算処理部132がデータ生成部の例であり、画像処理部133が画像処理部の例であり、X方向(またはY方向)が第1の方向の例であり、Y方向(またはX方向)が第2の方向の例であり、組み合わせ条件が予め定められた条件の例であり、合成無効値が無効値の例である。 The imaging unit 120 is an example of an imaging unit, the imaging processing unit 131 and the arithmetic processing unit 132 are examples of a data generation unit, the image processing unit 133 is an example of an image processing unit, and the X direction (or Y direction) is an example of an image processing unit. ) is an example of the first direction, the Y direction (or X direction) is an example of the second direction, the combination condition is an example of a predetermined condition, and the combined invalid value is an example of an invalid value be.

請求項の各構成要素として、請求項に記載されている構成または機能を有する他の種々の要素を用いることもできる。
[9]参考形態
(1)参考形態に係る検査装置は、互いに異なる4方向から構造化光を複数のパターンに変化させつつ測定対象物に照射する第1の照明部、第2の照明部、第3の照明部および第4の照明部と、測定対象物から反射される構造化光を受光することにより、第1の照明部に対応する複数の第1のパターン画像データを生成し、第2の照明部に対応する複数の第2のパターン画像データを生成し、第3の照明部に対応する複数の第3のパターン画像データを生成し、第4の照明部に対応する複数の第4のパターン画像データを生成する撮像部と、複数の第1のパターン画像データに基づいて測定対象物の第1の高さ画像データを生成し、複数の第2のパターン画像データに基づいて測定対象物の第2の高さ画像データを生成し、複数の第3のパターン画像データに基づいて測定対象物の第3の高さ画像データを生成し、複数の第4のパターン画像データに基づいて測定対象物の第4の高さ画像データを生成するデータ生成部と、第1~第4の高さ画像データを合成することにより合成高さ画像データを生成する画像処理部とを備え、画像処理部は、第1~第4の高さ画像データにおける互いに対応する各同一の画素位置の高さデータから予め定められた条件に従う2つの高さデータを抽出してそれらの差分を算出するとともに、算出された差分が予め定められた許容範囲内にあるか否かを判定し、算出された差分が許容範囲内にある場合に差分の算出に用いられた2つの高さデータのうち少なくとも一方の高さデータに基づいて合成高さ画像データの当該画素位置の高さデータを決定し、算出された差分が許容範囲内にない場合に合成高さ画像データの当該画素位置の高さデータを無効値に設定する。
その検査装置においては、第1~第4の照明部の各々から構造化光が複数のパターンに変化されつつ測定対象物に複数回照射される。撮像部において、測定対象物から反射される構造化光が受光される。それにより、第1の照明部に対応する複数の第1パターン画像データが生成され、複数の第1パターン画像データに基づいて第1の高さ画像データが生成される。また、第2の照明部に対応する複数の第2のパターン画像データが生成され、複数の第2パターン画像データに基づいて第2の高さ画像データが生成される。また、第3の照明部に対応する複数の第3のパターン画像データが生成され、複数の第3パターン画像データに基づいて第3の高さ画像データが生成される。また、第4の照明部に対応する複数の第4のパターン画像データが生成され、複数の第4パターン画像データに基づいて第4の高さ画像データが生成される。
第1~第4の高さ画像データが合成され、合成高さ画像データが生成される。この合成時には、第1~第4の高さ画像データにおける互いに対応する各同一の画素位置の高さデータから予め定められた条件に従う2つの高さデータが抽出され、それらの差分が算出される。また、算出された差分が許容範囲内にあるか否かが判定される。
ここで、算出された差分が許容範囲内にある場合、差分の算出に用いられた2つの高さデータは当該画素位置に対応する測定対象物の部分の真の高さに対して許容誤差範囲内にある高さを示す正確性の高いデータである。そこで、算出された差分が許容範囲内にある場合には、差分の算出に用いられた2つの高さデータのうち少なくとも一方の高さデータに基づいて、合成高さ画像データの当該画素位置の高さデータが決定される。
一方、算出された差分が許容範囲内にない場合、差分の算出に用いられた2つの高さデータは真の高さに対して許容誤差範囲から外れた高さを示す正確性の低いデータである可能性が高い。そこで、算出された差分が許容範囲内にない場合には、合成高さ画像データにおいて当該画素位置の高さデータが無効値に設定される。
これにより、合成高さ画像データの各画素位置においては、正確性の高い高さデータの値が示されるが、正確性の低い高さデータの値は示されない。したがって、生成された合成高さ画像データを用いることにより、測定対象物の高さについて検査の正確性を向上させることが可能になる。
(2)予め定められた条件は、各同一の画素位置の高さデータのうち各2つの高さデータの差分がそれぞれ算出された場合に、算出された複数の差分のうち最小の差分の算出に用いられた2つの高さデータを抽出することであってもよい。
上記の条件に従って抽出される2つの高さデータは、各同一の画素位置の高さデータのうち特に高い正確性を有すると考えられる。したがって、合成高さ画像データの正確性がより向上する。
(3)画像処理部は、各同一の画素位置の高さデータのうち予め定められた条件に従う2つの高さデータの差分が許容範囲内にある場合に差分の算出に用いられた2つの高さデータの平均値、または2つの高さデータのうち一方の値を合成高さ画像データの当該画素位置の高さデータの値として決定してもよい。
この場合、合成高さ画像データの各画素位置の高さデータの値が容易かつ適切に算出される。
(4)第1の照明部と第2の照明部とは、第1の方向において撮像部を挟んで互いに対向するように配置され、第3の照明部と第4の照明部とは、第1の方向に交差する第2の方向において撮像部を挟んで互いに対向するように配置されてもよい。
この場合、測定対象物の表面の広い範囲に渡って構造化光を照射することができる。したがって、測定対象物の表面の広い範囲に渡って高い正確性を有する合成高さ画像データを取得することができる。
(5)データ生成部は、第1~第4の高さ画像データの各々の生成時に、当該照明部に対応して生成される複数のパターン画像データと予め定められた受光判定条件とに基づいて、生成されるべき高さ画像データの各画素位置に対応する測定対象物の部分が構造化光を撮像部に反射することが不可能な照明不可能部分であるか否かを判定し、照明不可能部分に対応する画素位置の高さデータを照明無効値に設定し、画像処理部は、予め定められた条件に従う2つの高さデータの差分の算出に照明無効値を用いなくてもよい。
この場合、第1~第4の高さ画像データにおいて照明不可能部分を示す画素位置の高さデータの値が、合成高さ画像データの生成に用いられない。それにより、照明不可能部分に起因する不安定な高さの成分が合成高さ画像データに残ることが防止される。
(6)画像処理部は、各画素位置の4つの高さデータのうち1つの高さデータのみが照明無効値以外の値を示しかつ他の高さデータが照明無効値に設定されている場合に、当該画素位置の高さデータとして1つの高さデータを設定するかまたは当該画素位置の高さデータの値を無効値に設定するかをさらに選択可能に構成されてもよい。
この場合、測定対象物の形状、材質および表面状態等に応じて適切な合成高さ画像データを生成することが可能になる。
Various other elements having the structure or function described in the claims can be used as each component of the claims.
[9] Reference form
(1) An inspection apparatus according to a reference embodiment includes a first illumination unit, a second illumination unit, and a third illumination unit that irradiate an object to be measured while changing structured light from four different directions into a plurality of patterns. and a fourth illumination unit, and receive structured light reflected from the object to be measured to generate a plurality of first pattern image data corresponding to the first illumination unit, and to the second illumination unit generating a plurality of corresponding second pattern image data, generating a plurality of third pattern image data corresponding to the third illumination section, and generating a plurality of fourth pattern image data corresponding to the fourth illumination section; an imaging unit that generates first height image data of the measurement object based on the plurality of first pattern image data; and generates a second height image data of the measurement object based on the plurality of second pattern image data; generating height image data of the measurement object based on the plurality of third pattern image data; generating third height image data of the measurement object based on the plurality of fourth pattern image data; a data generation unit that generates fourth height image data; and an image processing unit that generates combined height image data by combining the first to fourth height image data, the image processing unit comprising: Two height data according to a predetermined condition are extracted from the height data of the same pixel positions corresponding to each other in the first to fourth height image data, and the difference between them is calculated. Determining whether the difference is within a predetermined allowable range, and height data of at least one of the two height data used to calculate the difference if the calculated difference is within the allowable range Determine the height data at the pixel position of the composite height image data based on the above, and set the height data at the pixel position of the composite height image data to an invalid value if the calculated difference is not within the allowable range. do.
In the inspection apparatus, the object to be measured is irradiated a plurality of times with structured light from each of the first to fourth illumination units while being changed into a plurality of patterns. The imaging unit receives structured light reflected from the object to be measured. Thereby, a plurality of first pattern image data corresponding to the first illumination section are generated, and the first height image data are generated based on the plurality of first pattern image data. Also, a plurality of second pattern image data corresponding to the second illumination units are generated, and second height image data is generated based on the plurality of second pattern image data. Also, a plurality of third pattern image data corresponding to the third illumination unit are generated, and third height image data is generated based on the plurality of third pattern image data. Also, a plurality of fourth pattern image data corresponding to the fourth illumination section are generated, and fourth height image data is generated based on the plurality of fourth pattern image data.
The first to fourth height image data are synthesized to generate synthesized height image data. At the time of this synthesis, two height data according to a predetermined condition are extracted from the height data of the same pixel positions corresponding to each other in the first to fourth height image data, and the difference between them is calculated. . Also, it is determined whether or not the calculated difference is within the allowable range.
Here, when the calculated difference is within the allowable range, the two height data used for calculating the difference are within the allowable error range with respect to the true height of the portion of the measurement object corresponding to the pixel position. This is highly accurate data that indicates the height within. Therefore, when the calculated difference is within the allowable range, based on at least one height data of the two height data used to calculate the difference, the pixel position of the synthetic height image data is calculated. Height data is determined.
On the other hand, if the calculated difference is not within the allowable range, the two height data used to calculate the difference are low-accuracy data indicating a height outside the allowable error range with respect to the true height. Very likely. Therefore, if the calculated difference is not within the allowable range, the height data at the pixel position is set to an invalid value in the combined height image data.
As a result, at each pixel position of the synthetic height image data, the value of height data with high accuracy is indicated, but the value of height data with low accuracy is not indicated. Therefore, by using the generated synthetic height image data, it is possible to improve the accuracy of inspection of the height of the object to be measured.
(2) The predetermined condition is the calculation of the minimum difference among the plurality of calculated differences when the difference between each two height data of the height data at the same pixel position is calculated. It may be to extract the two height data used for .
The two height data extracted according to the above conditions are considered to have particularly high accuracy among the height data at the same pixel position. Therefore, the accuracy of synthetic height image data is further improved.
(3) If the difference between the two height data in accordance with a predetermined condition among the height data at the same pixel position is within the allowable range, the image processing unit The average value of the height data or one of the two height data values may be determined as the height data value at the pixel position of the composite height image data.
In this case, the value of the height data at each pixel position of the synthetic height image data is calculated easily and appropriately.
(4) The first illumination unit and the second illumination unit are arranged to face each other with the imaging unit interposed in the first direction, and the third illumination unit and the fourth illumination unit are arranged in the first direction. They may be arranged so as to face each other across the imaging unit in a second direction that intersects with the first direction.
In this case, it is possible to irradiate the structured light over a wide range of the surface of the object to be measured. Therefore, synthetic height image data with high accuracy can be acquired over a wide range of the surface of the object to be measured.
(5) The data generation unit, when generating each of the first to fourth height image data, based on a plurality of pattern image data generated corresponding to the illumination unit and a predetermined light reception determination condition. determining whether or not a portion of the measurement object corresponding to each pixel position of the height image data to be generated is an unilluminatable portion that cannot reflect the structured light to the imaging unit; The height data of the pixel position corresponding to the non-illumination portion is set as the illumination invalid value, and the image processing unit calculates the difference between the two height data according to the predetermined condition without using the illumination invalid value. good.
In this case, the height data values of the pixel positions indicating the unilluminated portion in the first to fourth height image data are not used for generating the synthetic height image data. This prevents unstable height components due to non-illumination areas from remaining in the synthesized height image data.
(6) When only one height data out of four height data at each pixel position indicates a value other than an illumination invalid value and the other height data is set to an illumination invalid value In addition, it may be possible to further select whether to set one height data as the height data of the pixel position or set the value of the height data of the pixel position to an invalid value.
In this case, appropriate synthetic height image data can be generated according to the shape, material, surface condition, etc. of the object to be measured.

100…ヘッド部,110,110A~110D…照明部,111~113…光源,114,115…ダイクロイックミラー,116…照明レンズ,117…ミラー,118…パターン生成部,119…投光レンズ,120,120A~120D…撮像部,121…撮像素子,122,123…受光レンズ,130…演算部,131…撮像処理部,132…演算処理部,133…画像処理部,134…記憶部,135…出力処理部,200…コントローラ部,210…ヘッド制御部,220…画像メモリ,230…検査部,300…検査装置,301…ベルトコンベア,301i…コンベア画像,310…操作部,320…表示部,400…外部機器,pg1~pgn…組,pi…画素,rr…多重反射部分,rri…多重反射画像,S…測定対象物,s0…ベース部,s01…一端面,s02…他端面,s0i…ベース画像,ss…照明不可能部分,ssi…照明不可能画像,tpi…対象画素,W…壁部,wi…壁画像 DESCRIPTION OF SYMBOLS 100... Head part 110,110A-110D... Illumination part, 111-113... Light source, 114, 115... Dichroic mirror, 116... Illumination lens, 117... Mirror, 118... Pattern generation part, 119... Projector lens, 120, Reference numerals 120A to 120D: Imaging unit 121: Imaging element 122, 123: Light receiving lens 130: Calculation unit 131: Image pickup processing unit 132: Calculation processing unit 133: Image processing unit 134: Storage unit 135: Output DESCRIPTION OF SYMBOLS Processing part 200... Controller part 210... Head control part 220... Image memory 230... Inspection part 300... Inspection apparatus 301... Belt conveyor 301i... Conveyor image 310... Operation part 320... Display part 400 External device, pg1 to pgn, group, pi, pixel, rr, multiple reflection portion, rri, multiple reflection image, S, object to be measured, s0, base portion, s01, one end surface, s02, other end surface, s0i, base Image, ss... non-illumination portion, ssi... non-illumination image, tpi... target pixel, W... wall portion, wi... wall image

Claims (6)

互いに異なる4方向から構造化光を複数のパターンに変化させつつ測定対象物に照射する第1の照明部、第2の照明部、第3の照明部および第4の照明部と、
測定対象物から反射される構造化光を受光することにより、前記第1の照明部に対応する複数の第1のパターン画像データを生成し、前記第2の照明部に対応する複数の第2のパターン画像データを生成し、前記第3の照明部に対応する複数の第3のパターン画像データを生成し、前記第4の照明部に対応する複数の第4のパターン画像データを生成する撮像部と、
前記複数の第1のパターン画像データに基づいて測定対象物の第1の高さ画像データを生成し、前記複数の第2のパターン画像データに基づいて測定対象物の第2の高さ画像データを生成し、前記複数の第3のパターン画像データに基づいて測定対象物の第3の高さ画像データを生成し、前記複数の第4のパターン画像データに基づいて測定対象物の第4の高さ画像データを生成するデータ生成部と、
前記第1~第4の高さ画像データを合成することにより合成高さ画像データを生成する画像処理部とを備え、
前記画像処理部は、前記第1~第4の高さ画像データにおける互いに対応する各同一の画素位置の高さデータから予め定められた条件に従う2つの高さデータを抽出してそれらの差分を算出するとともに、算出された差分が予め定められた許容範囲内にあるか否かを判定し、前記算出された差分が前記許容範囲内にある場合に前記差分の算出に用いられた2つの高さデータのうち少なくとも一方の高さデータに基づいて前記合成高さ画像データの当該画素位置の高さデータを決定し、前記算出された差分が前記許容範囲内にない場合に前記合成高さ画像データの当該画素位置の高さデータを無効値に設定し、
前記予め定められた条件は、各同一の画素位置の高さデータのうち各2つの高さデータの差分がそれぞれ算出された場合に、算出された複数の差分のうち最小の差分の算出に用いられた2つの高さデータを抽出することである、検査装置。
a first illumination unit, a second illumination unit, a third illumination unit, and a fourth illumination unit that irradiate an object to be measured while changing the structured light from four different directions into a plurality of patterns;
generating a plurality of first pattern image data corresponding to the first illumination unit by receiving structured light reflected from the measurement target; and generating a plurality of second pattern image data corresponding to the second illumination unit , generating a plurality of third pattern image data corresponding to the third lighting unit, and generating a plurality of fourth pattern image data corresponding to the fourth lighting unit Department and
generating first height image data of the measurement object based on the plurality of first pattern image data, and generating second height image data of the measurement object based on the plurality of second pattern image data; , generating third height image data of the measurement object based on the plurality of third pattern image data, and generating a fourth height image data of the measurement object based on the plurality of fourth pattern image data a data generator that generates height image data;
an image processing unit that generates synthesized height image data by synthesizing the first to fourth height image data,
The image processing unit extracts two height data according to a predetermined condition from the height data of the same pixel positions corresponding to each other in the first to fourth height image data, and calculates the difference between them. It is determined whether the calculated difference is within a predetermined allowable range, and if the calculated difference is within the allowable range, the two heights used to calculate the difference are determining the height data of the pixel position of the synthetic height image data based on the height data of at least one of the height data, and determining the synthetic height image if the calculated difference is not within the allowable range; Set the height data of the pixel position in the data to an invalid value ,
The predetermined condition is used to calculate the minimum difference among a plurality of calculated differences when the difference between each two height data among the height data at the same pixel position is calculated. The inspection device is to extract the two height data obtained .
前記画像処理部は、各同一の画素位置の高さデータのうち予め定められた条件に従う2つの高さデータの差分が前記許容範囲内にある場合に前記差分の算出に用いられた2つの高さデータの平均値、または2つの高さデータのうち一方の値を前記合成高さ画像データの当該画素位置の高さデータの値として決定する、請求項1記載の検査装置。 If the difference between the two height data according to a predetermined condition among the height data at the same pixel position is within the allowable range, the image processing unit calculates the difference between the two height data used to calculate the difference. 2. The inspection apparatus according to claim 1 , wherein an average value of height data or one of two height data values is determined as the height data value at the pixel position of said combined height image data. 互いに異なる4方向から構造化光を複数のパターンに変化させつつ測定対象物に照射する第1の照明部、第2の照明部、第3の照明部および第4の照明部と、
測定対象物から反射される構造化光を受光することにより、前記第1の照明部に対応する複数の第1のパターン画像データを生成し、前記第2の照明部に対応する複数の第2のパターン画像データを生成し、前記第3の照明部に対応する複数の第3のパターン画像データを生成し、前記第4の照明部に対応する複数の第4のパターン画像データを生成する撮像部と、
前記複数の第1のパターン画像データに基づいて測定対象物の第1の高さ画像データを生成し、前記複数の第2のパターン画像データに基づいて測定対象物の第2の高さ画像データを生成し、前記複数の第3のパターン画像データに基づいて測定対象物の第3の高さ画像データを生成し、前記複数の第4のパターン画像データに基づいて測定対象物の第4の高さ画像データを生成するデータ生成部と、
前記第1~第4の高さ画像データを合成することにより合成高さ画像データを生成する画像処理部とを備え、
前記画像処理部は、前記第1~第4の高さ画像データにおける互いに対応する各同一の画素位置の高さデータから予め定められた条件に従う2つの高さデータを抽出してそれらの差分を算出するとともに、算出された差分が予め定められた許容範囲内にあるか否かを判定し、前記算出された差分が前記許容範囲内にある場合に前記差分の算出に用いられた2つの高さデータの平均値、または2つの高さデータのうち一方の値を前記合成高さ画像データの当該画素位置の高さデータの値として決定し、前記算出された差分が前記許容範囲内にない場合に前記合成高さ画像データの当該画素位置の高さデータを無効値に設定する、検査装置。
a first illumination unit, a second illumination unit, a third illumination unit, and a fourth illumination unit that irradiate an object to be measured while changing the structured light from four different directions into a plurality of patterns;
generating a plurality of first pattern image data corresponding to the first illumination unit by receiving structured light reflected from the measurement target; and generating a plurality of second pattern image data corresponding to the second illumination unit , generating a plurality of third pattern image data corresponding to the third lighting unit, and generating a plurality of fourth pattern image data corresponding to the fourth lighting unit Department and
generating first height image data of the measurement object based on the plurality of first pattern image data, and generating second height image data of the measurement object based on the plurality of second pattern image data; , generating third height image data of the measurement object based on the plurality of third pattern image data, and generating a fourth height image data of the measurement object based on the plurality of fourth pattern image data a data generator that generates height image data;
an image processing unit that generates synthesized height image data by synthesizing the first to fourth height image data,
The image processing unit extracts two height data according to a predetermined condition from the height data of the same pixel positions corresponding to each other in the first to fourth height image data, and calculates the difference between them. It is determined whether the calculated difference is within a predetermined allowable range, and if the calculated difference is within the allowable range, the two heights used to calculate the difference are determining the average value of the height data or one of the two height data values as the value of the height data at the pixel position of the composite height image data , and the calculated difference is not within the allowable range; setting the height data of the pixel position of the composite height image data to an invalid value if the height image data is in the above-mentioned case .
互いに異なる4方向から構造化光を複数のパターンに変化させつつ測定対象物に照射する第1の照明部、第2の照明部、第3の照明部および第4の照明部と、
測定対象物から反射される構造化光を受光することにより、前記第1の照明部に対応する複数の第1のパターン画像データを生成し、前記第2の照明部に対応する複数の第2のパターン画像データを生成し、前記第3の照明部に対応する複数の第3のパターン画像データを生成し、前記第4の照明部に対応する複数の第4のパターン画像データを生成する撮像部と、
前記複数の第1のパターン画像データに基づいて測定対象物の第1の高さ画像データを生成し、前記複数の第2のパターン画像データに基づいて測定対象物の第2の高さ画像データを生成し、前記複数の第3のパターン画像データに基づいて測定対象物の第3の高さ画像データを生成し、前記複数の第4のパターン画像データに基づいて測定対象物の第4の高さ画像データを生成するデータ生成部と、
前記第1~第4の高さ画像データを合成することにより合成高さ画像データを生成する画像処理部とを備え、
前記画像処理部は、前記第1~第4の高さ画像データにおける互いに対応する各同一の画素位置の高さデータから予め定められた条件に従う2つの高さデータを抽出してそれらの差分を算出するとともに、算出された差分が予め定められた許容範囲内にあるか否かを判定し、前記算出された差分が前記許容範囲内にある場合に前記差分の算出に用いられた2つの高さデータのうち少なくとも一方の高さデータに基づいて前記合成高さ画像データの当該画素位置の高さデータを決定し、前記算出された差分が前記許容範囲内にない場合に前記合成高さ画像データの当該画素位置の高さデータを無効値に設定し、
記データ生成部は、前記第1~第4の高さ画像データの各々の生成時に、当該照明部に対応して生成される複数のパターン画像データと予め定められた受光判定条件とに基づいて、生成されるべき高さ画像データの各画素位置に対応する測定対象物の部分が構造化光を前記撮像部に反射することが不可能な照明不可能部分であるか否かを判定し、前記照明不可能部分に対応する画素位置の高さデータを照明無効値に設定し、
前記画像処理部は、前記予め定められた条件に従う2つの高さデータの差分の算出に前記照明無効値を用いない、検査装置。
a first illumination unit, a second illumination unit, a third illumination unit, and a fourth illumination unit that irradiate an object to be measured while changing the structured light from four different directions into a plurality of patterns;
generating a plurality of first pattern image data corresponding to the first illumination unit by receiving structured light reflected from the measurement target; and generating a plurality of second pattern image data corresponding to the second illumination unit , generating a plurality of third pattern image data corresponding to the third lighting unit, and generating a plurality of fourth pattern image data corresponding to the fourth lighting unit Department and
generating first height image data of the measurement object based on the plurality of first pattern image data, and generating second height image data of the measurement object based on the plurality of second pattern image data; , generating third height image data of the measurement object based on the plurality of third pattern image data, and generating a fourth height image data of the measurement object based on the plurality of fourth pattern image data a data generator that generates height image data;
an image processing unit that generates synthesized height image data by synthesizing the first to fourth height image data,
The image processing unit extracts two height data according to a predetermined condition from the height data of the same pixel positions corresponding to each other in the first to fourth height image data, and calculates the difference between them. It is determined whether the calculated difference is within a predetermined allowable range, and if the calculated difference is within the allowable range, the two heights used to calculate the difference are determining the height data of the pixel position of the synthetic height image data based on the height data of at least one of the height data, and determining the synthetic height image if the calculated difference is not within the allowable range; Set the height data of the pixel position in the data to an invalid value,
The data generation unit, when generating each of the first to fourth height image data, based on a plurality of pattern image data generated corresponding to the illumination unit and a predetermined light reception determination condition. determines whether or not a portion of the object to be measured corresponding to each pixel position of the height image data to be generated is an unilluminatable portion where structured light cannot be reflected to the imaging unit. , setting the height data of the pixel position corresponding to the non-illumination portion to an illumination invalid value;
The inspection apparatus, wherein the image processing unit does not use the illumination invalid value for calculating a difference between two pieces of height data according to the predetermined condition.
前記画像処理部は、各画素位置の4つの高さデータのうち1つの高さデータのみが前記照明無効値以外の値を示しかつ他の高さデータが前記照明無効値に設定されている場合に、当該画素位置の高さデータとして前記1つの高さデータを設定するかまたは当該画素位置の高さデータの値を前記無効値に設定するかをさらに選択可能に構成された、請求項記載の検査装置。 When only one height data out of four height data at each pixel position indicates a value other than the illumination invalid value and the other height data is set to the illumination invalid value and ( 4 ) further selectable between setting said one height data as the height data of said pixel position and setting the height data value of said pixel position to said invalid value. Inspection equipment as described. 前記第1の照明部と前記第2の照明部とは、第1の方向において前記撮像部を挟んで互いに対向するように配置され、
前記第3の照明部と前記第4の照明部とは、前記第1の方向に交差する第2の方向において前記撮像部を挟んで互いに対向するように配置された、請求項1~のいずれか一項に記載の検査装置。
the first illumination unit and the second illumination unit are arranged to face each other with the imaging unit interposed in a first direction;
The third illumination unit and the fourth illumination unit are arranged to face each other with the imaging unit interposed therebetween in a second direction that intersects with the first direction. An inspection device according to any one of the preceding paragraphs.
JP2019120293A 2019-06-27 2019-06-27 inspection equipment Active JP7247031B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019120293A JP7247031B2 (en) 2019-06-27 2019-06-27 inspection equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019120293A JP7247031B2 (en) 2019-06-27 2019-06-27 inspection equipment

Publications (2)

Publication Number Publication Date
JP2021004863A JP2021004863A (en) 2021-01-14
JP7247031B2 true JP7247031B2 (en) 2023-03-28

Family

ID=74097181

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019120293A Active JP7247031B2 (en) 2019-06-27 2019-06-27 inspection equipment

Country Status (1)

Country Link
JP (1) JP7247031B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001280926A (en) 2000-03-30 2001-10-10 Matsushita Electric Ind Co Ltd Three-dimensional measuring instrument, three- dimensional measuring method, and method of inspecting component using the instrument and the method
JP2010271316A (en) 2009-05-21 2010-12-02 Koh Young Technology Inc Device and method for measuring shape
JP2014109489A (en) 2012-11-30 2014-06-12 Keyence Corp Measurement microscope device and image photographing method employing the same
JP5633058B1 (en) 2013-07-19 2014-12-03 株式会社三次元メディア 3D measuring apparatus and 3D measuring method
JP2015078935A (en) 2013-10-17 2015-04-23 株式会社キーエンス Three-dimensional image processor, three-dimensional image processing method, three-dimensional image processing program, and computer readable recording medium and recording device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001280926A (en) 2000-03-30 2001-10-10 Matsushita Electric Ind Co Ltd Three-dimensional measuring instrument, three- dimensional measuring method, and method of inspecting component using the instrument and the method
JP2010271316A (en) 2009-05-21 2010-12-02 Koh Young Technology Inc Device and method for measuring shape
JP2014109489A (en) 2012-11-30 2014-06-12 Keyence Corp Measurement microscope device and image photographing method employing the same
JP5633058B1 (en) 2013-07-19 2014-12-03 株式会社三次元メディア 3D measuring apparatus and 3D measuring method
JP2015078935A (en) 2013-10-17 2015-04-23 株式会社キーエンス Three-dimensional image processor, three-dimensional image processing method, three-dimensional image processing program, and computer readable recording medium and recording device

Also Published As

Publication number Publication date
JP2021004863A (en) 2021-01-14

Similar Documents

Publication Publication Date Title
CN107525479B (en) Method for identifying points or regions on the surface of an object, optical sensor and storage medium
US11216687B2 (en) Image detection scanning method for object surface defects and image detection scanning system thereof
CN103673925B (en) For measuring information processor and the method for target object
JP5648749B2 (en) Shape measuring apparatus and shape measuring method
JP6184289B2 (en) 3D image processing apparatus, 3D image processing method, 3D image processing program, computer-readable recording medium, and recorded apparatus
KR20110119531A (en) Shape measuring device and calibration method
JP2007206797A (en) Image processing method and image processor
CN105372259B (en) Measurement apparatus, base board checking device and its control method, storage media
US11493331B2 (en) Three-dimensional shape measuring apparatus, three-dimensional shape measuring method, three-dimensional shape measuring computer-readable storage medium, and three-dimensional shape measuring computer-readable storage device
JP2008145139A (en) Shape measuring device
JP2003202214A (en) Shape measuring device and shape measuring method
US10909702B2 (en) Inspection device
US11170518B2 (en) Inspection device for generating height data of a measurement target
JP7247031B2 (en) inspection equipment
US11017543B2 (en) Inspection device
JP5867123B2 (en) Three-dimensional shape measuring apparatus and calibration method
JP7349827B2 (en) Inspection equipment
JP2002131031A (en) Method and device for measuring three-dimensional shape
JP2020128933A (en) Inspection device
JP6506784B2 (en) Inspection information display device, inspection information display method and inspection information display program
KR102171773B1 (en) Inspection area determination method and visual inspection apparatus using the same
JP2011252835A (en) Three dimensional shape measuring device
JP2016008837A (en) Shape measuring method, shape measuring device, structure manufacturing system, structure manufacturing method, and shape measuring program
JP7247032B2 (en) inspection equipment
JP2020128932A (en) Inspection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230315

R150 Certificate of patent or registration of utility model

Ref document number: 7247031

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150