JP7164476B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP7164476B2
JP7164476B2 JP2019061727A JP2019061727A JP7164476B2 JP 7164476 B2 JP7164476 B2 JP 7164476B2 JP 2019061727 A JP2019061727 A JP 2019061727A JP 2019061727 A JP2019061727 A JP 2019061727A JP 7164476 B2 JP7164476 B2 JP 7164476B2
Authority
JP
Japan
Prior art keywords
pattern
light
image
lcd
height
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019061727A
Other languages
Japanese (ja)
Other versions
JP2020159964A (en
Inventor
典正 眞弓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keyence Corp
Original Assignee
Keyence Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keyence Corp filed Critical Keyence Corp
Priority to JP2019061727A priority Critical patent/JP7164476B2/en
Publication of JP2020159964A publication Critical patent/JP2020159964A/en
Application granted granted Critical
Publication of JP7164476B2 publication Critical patent/JP7164476B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、測定対象物を照明する照明部と測定対象物から反射した光を受光する撮像部とを備えた画像処理装置に関し、特に測定対象物の三次元形状を取得可能な構造の技術分野に属する。 The present invention relates to an image processing apparatus having an illumination unit that illuminates an object to be measured and an imaging unit that receives light reflected from the object to be measured, and more particularly to a technical field of a structure capable of acquiring a three-dimensional shape of the object to be measured. belongs to

従来より、この種の画像処理装置として、位置により異なる光強度分布を有するパターン光を測定対象物に投影して測定対象物から反射した光を受光し、受光量に基づいて得られた高さ情報を利用して測定対象物の三次元形状を取得する、いわゆるパターン投影法が知られている。パターン投影法としては、照度分布を例えば正弦波状に変動させたパターン光を、位相を変えて複数回投影してその都度撮像する位相シフト法等がある。 Conventionally, as this type of image processing apparatus, a pattern light having a light intensity distribution that varies depending on the position is projected onto an object to be measured, the light reflected from the object to be measured is received, and the height obtained based on the amount of received light is measured. A so-called pattern projection method is known that obtains the three-dimensional shape of an object to be measured using information. As a pattern projection method, there is a phase shift method in which pattern light whose illuminance distribution is varied, for example, sinusoidally is projected a plurality of times with different phases and an image is captured each time.

特許文献1には、パターン光を生成して投影する照明装置として、光源と、光源から出射された光を集光する集光レンズと、集光レンズによって集束された光が入射する液晶パネルとを備え、液晶パネルに形成されたパターンを測定対象物に投影するように構成されたものが開示されている。 Patent Document 1 discloses an illumination device that generates and projects pattern light, including a light source, a condenser lens that collects light emitted from the light source, and a liquid crystal panel that receives the light converged by the condenser lens. and configured to project a pattern formed on a liquid crystal panel onto an object to be measured.

特開2015-21760号公報Japanese Unexamined Patent Application Publication No. 2015-21760

ところで、特許文献1では照明装置によってパターン光を生成し、そのパターン光の投影が完了してから、撮像装置によって測定対象物を撮像し、その後、別のパターン光を生成し、そのパターン光の投影が完了してから撮像する処理を1つの測定対象物に対して繰り返し行うので、1つの測定対象物の測定が完了するまでの間に、外乱光の明るさが変動することが考えられる。 By the way, in Japanese Unexamined Patent Application Publication No. 2002-100001, pattern light is generated by an illumination device, and after the projection of the pattern light is completed, an image of an object to be measured is captured by an imaging device, then another pattern light is generated, and the pattern light is Since the image capturing process is repeated for one measurement object after the projection is completed, the brightness of the disturbance light may fluctuate until the measurement of one measurement object is completed.

測定の途中で外乱光の明るさが変動してしまうと、測定対象物からの反射光の強度がパターン光とは全く別の要因で変動することになり、その結果、測定結果に誤差が生じてしまうおそれがあった。 If the brightness of the ambient light fluctuates during the measurement, the intensity of the reflected light from the object to be measured fluctuates due to a factor completely different from that of the pattern light, resulting in errors in the measurement results. There was a risk that I would lose it.

本発明は、かかる点に鑑みてなされたものであり、その目的とするところは、外乱光の明るさの変動に起因して生じる測定誤差を減少させることにある。 The present invention has been made in view of such a point, and an object of the present invention is to reduce measurement errors caused by fluctuations in the brightness of ambient light.

上記目的を達成するために、第1の発明は、測定対象物の三次元形状を測定する画像処理装置において、光源と、前記光源から出射された光が入射され、測定対象物に周期的なパターン光を照射するパターン生成部と、前記パターンの位相を順次シフトさせるように前記パターン生成部を制御するとともに、前記パターン生成部の制御の際、互いに位相が180度異なるパターンを連続的に生成させる照明制御部と、前記パターン光が照射された都度、測定対象物から反射した光を受光し、複数のパターン画像を生成する撮像部と、前記複数のパターン画像に基づいて、測定対象物の三次元形状を測定する測定部とを備えていることを特徴とする。 To achieve the above object, a first invention provides an image processing apparatus for measuring a three-dimensional shape of a measurement object, comprising: a light source; A pattern generation unit that irradiates pattern light, and the pattern generation unit is controlled to sequentially shift the phase of the pattern, and when the pattern generation unit is controlled, patterns that are 180 degrees out of phase with each other are continuously generated. an illumination control unit that controls the measurement object, an imaging unit that receives the light reflected from the measurement object each time the pattern light is irradiated and generates a plurality of pattern images, and a measurement object based on the plurality of pattern images and a measuring unit for measuring a three-dimensional shape.

この構成によれば、照明制御部がパターン生成部を制御すると、位相を順次シフトさせたパターン光をパターン生成部が測定対象物に照射する。撮像部は、パターン光が測定対象物に照射された都度、測定対象物から反射した光を受光して複数のパターン画像を生成する。生成された複数のパターン画像に基づいて、測定部が測定対象物の三次元形状を測定する。 According to this configuration, when the illumination control section controls the pattern generation section, the pattern generation section irradiates the measurement object with the pattern light whose phase is sequentially shifted. The imaging unit receives the light reflected from the object to be measured and generates a plurality of pattern images each time the object to be measured is irradiated with the pattern light. A measurement unit measures the three-dimensional shape of the measurement object based on the plurality of pattern images generated.

照明制御部がパターン生成部を制御する際、互いに位相が180度異なるパターンを連続的に生成させるので、測定対象物に順次照射されるパターン光のうち、奇数番目に照射されるパターン光と、偶数番目に照射されるパターン光との位相が逆位相の関係になる。これにより、逆位相同士のパターン光の照射間隔を狭めることができる。 When the illumination control unit controls the pattern generation unit, patterns having phases different from each other by 180 degrees are continuously generated. The phases of the even-numbered pattern light beams are opposite to each other. As a result, it is possible to narrow the irradiation interval of the pattern lights having opposite phases.

ここで、位相の計算は、以下の式によって行われるので、互いに逆位相同士のパターンが投影される時間間隔が重要になる。 Here, since the phase calculation is performed by the following formula, the time interval between the projections of the patterns of opposite phases is important.

位相φ=tan-1{(I270°-I90°)/(I0°-I180°)}
つまり、逆位相同士のパターン光の照射間隔を狭めれば狭めるほど、外乱光の明るさ変動を極小化することができるので、上述したように逆位相のパターンを連続的に照射することで、1つの測定対象物の測定が完了するまでの間に外乱光の明るさが変動したとしても、その変動の影響が抑制される。
Phase φ=tan −1 {(I 270° −I 90° )/(I −I 180° )}
In other words, the narrower the irradiation interval of the pattern lights of opposite phases, the more the fluctuation in the brightness of the disturbance light can be minimized. Even if the brightness of ambient light fluctuates until the measurement of one measurement object is completed, the influence of the fluctuation is suppressed.

第2の発明は、前記光源は、中心に開口部が形成された照明ハウジング内において前記開口部の中心を対称の中心として互いに点対称に設けられた第1光源及び第2光源を含み、前記パターン生成部は、前記第1光源に対応して設けられる第1パターン生成部と、前記第2光源に対応して設けられる第2パターン生成部とを含み、前記照明制御部は、前記第1パターン生成部及び前記第2パターン生成部のうち、一方のパターン生成部がパターンの切替を行っている間に、パターンの生成が完了した他方のパターン生成部からパターン光を照射させるように構成されていることを特徴とする。 In a second aspect of the present invention, the light source includes a first light source and a second light source provided point-symmetrically with respect to each other about the center of the opening in an illumination housing having an opening formed in the center, The pattern generation section includes a first pattern generation section provided corresponding to the first light source and a second pattern generation section provided corresponding to the second light source, and the illumination control section includes the first pattern generation section provided corresponding to the second light source. While one of the pattern generation unit and the second pattern generation unit is switching patterns, the other pattern generation unit that has completed pattern generation emits pattern light. It is characterized by

この構成によれば、第1パターン生成部及び第2パターン生成部が互いに照明ハウジングの開口部の周方向に離れて設けられているので、測定対象物に対して少なくとも異なる2方向からパターン光を照射することができ、死角となる範囲を減少させることができる。この場合に、例えば第1パターン生成部がパターンの切替を行っている間に、第2パターン生成部でパターンの生成が完了しているときには、第2パターン生成部から測定対象物にパターン光を照射することができる。つまり、いずれかのパターン生成部がパターンの切替を行っている間に、別のパターン生成部から測定対象物にパターン光を照射することができるので、三次元形状の測定を高速化することができる。 According to this configuration, since the first pattern generation section and the second pattern generation section are spaced apart from each other in the circumferential direction of the opening of the illumination housing, the pattern light is projected onto the object to be measured from at least two different directions. It is possible to irradiate and reduce the range of blind spots. In this case, for example, when pattern generation is completed by the second pattern generation unit while the first pattern generation unit is switching patterns, pattern light is emitted from the second pattern generation unit to the object to be measured. Can be irradiated. In other words, while one of the pattern generation units is switching the pattern, another pattern generation unit can irradiate the measurement object with pattern light, thereby speeding up the measurement of the three-dimensional shape. can.

第3の発明は、前記光源は、前記照明ハウジング内において前記第1光源及び前記第2光源から前記開口部の周方向に離れるとともに前記開口部の中心を対称の中心として互いに点対称に設けられた第3光源及び第4光源を含み、前記パターン生成部は、前記第3光源に対応して設けられる第3パターン生成部と、前記第4光源に対応して設けられる第4パターン生成部を含み、前記照明制御部は、前記第1パターン生成部、前記第2パターン生成部、前記第3パターン生成部及び前記第4パターン生成部のうち、任意のパターン生成部がパターンの切替を行っている間に、パターンの生成が完了したパターン生成部からパターン光を照射させるように構成されていることを特徴とする。 In a third aspect of the invention, the light sources are spaced apart from the first light source and the second light source in the circumferential direction of the opening in the lighting housing and are provided point-symmetrically with respect to the center of the opening. a third light source and a fourth light source, wherein the pattern generation unit includes a third pattern generation unit provided corresponding to the third light source and a fourth pattern generation unit provided corresponding to the fourth light source and the illumination control unit is configured such that an arbitrary pattern generation unit among the first pattern generation unit, the second pattern generation unit, the third pattern generation unit, and the fourth pattern generation unit performs pattern switching. It is characterized in that the pattern light is emitted from the pattern generation unit that has completed the pattern generation while the light is on.

この構成によれば、第1パターン生成部、第2パターン生成部、第3パターン生成部及び第4パターン生成部が互いに照明ハウジングの開口部の周方向に離れて設けられているので、測定対象物に対して少なくとも異なる4方向からパターン光を照射することができ、死角となる範囲をより一層減少させることができる。この場合に、いずれかのパターン生成部がパターンの切替を行っている間に、別のパターン生成部から測定対象物にパターン光を照射することができるので、三次元形状の測定を高速化することができる。 According to this configuration, since the first pattern generation section, the second pattern generation section, the third pattern generation section, and the fourth pattern generation section are provided apart from each other in the circumferential direction of the opening of the illumination housing, the measurement target The object can be irradiated with the patterned light from at least four different directions, and the dead angle range can be further reduced. In this case, while one of the pattern generation units is switching the pattern, another pattern generation unit can irradiate the object to be measured with pattern light, thereby speeding up the measurement of the three-dimensional shape. be able to.

第4の発明は、前記パターン生成部は、液晶パネルであることを特徴とする。 A fourth aspect of the invention is characterized in that the pattern generating section is a liquid crystal panel.

一般的に、液晶パネルでパターンを生成する場合には、1のパターンを生成した後、別のパターンの生成が完了するまでに要する時間が長くなることがある。このことは1つの測定対象物の測定に要する時間が長引く要因となるので、外乱光の明るさ変動の悪影響が顕著化するおそれがある。本発明では、液晶パネルでパターンを生成するので、外乱光の明るさ変動の悪影響が顕著化するおそれがあるが、これを、互いに位相が180度異なるパターンを連続的に生成するという構成によって抑制することができる。つまり、コストの面で有利な液晶パネルを利用しながら、外乱光の明るさ変動の悪影響を抑制することができる。 In general, when patterns are generated on a liquid crystal panel, it may take a long time to complete the generation of another pattern after one pattern is generated. This is a factor that prolongs the time required to measure one measurement object, so there is a risk that the adverse effects of brightness fluctuations of ambient light will become more pronounced. In the present invention, since the pattern is generated by the liquid crystal panel, there is a possibility that the adverse effect of the fluctuation of the brightness of the disturbance light may become significant. can do. That is, it is possible to suppress the adverse effect of brightness fluctuations of ambient light while using a liquid crystal panel that is advantageous in terms of cost.

第5の発明は、前記撮像部はカラーカメラで構成されていることを特徴とする。 A fifth aspect of the invention is characterized in that the imaging section is composed of a color camera.

撮像部をカラーカメラとすることで、例えば検査対象物の二次元画像をカラー画像として使用者に提供することができる。 By using a color camera as the imaging unit, for example, a two-dimensional image of an object to be inspected can be provided to the user as a color image.

また、外乱光の明るさの変動を抑制する方法としては、例えば、バンドパスフィルタを適用する方法があるが、上述したカラーカメラの場合、カラー撮像時の色合いを適切にするためにバンドパスフィルタを適用することができない。本発明によれば、カラーカメラを用いる場合にバンドパスフィルタを適用することなく、互いに位相が180度異なるパターンを連続的に生成するという構成によって外乱光の明るさの変動を抑制することができる。 In addition, as a method of suppressing fluctuations in the brightness of ambient light, for example, there is a method of applying a bandpass filter. cannot be applied. According to the present invention, when a color camera is used, variations in the brightness of ambient light can be suppressed by continuously generating patterns that are 180 degrees out of phase with each other without applying a band-pass filter. .

第6の発明は、前記照明制御部は、位相シフト画像を生成するための位相シフト用パターン光と、空間コード画像を生成するための空間コード用パターン光とを前記パターン生成部に生成させ、前記位相シフト用パターン光の生成の際、互いに位相が180度異なるパターンを連続的に生成させ、前記撮像部は、前記位相シフト用パターン光が照射されたときに測定対象物から反射した光を受光して位相シフト画像を生成し、前記空間コード用パターン光が照射されたときに測定対象物から反射した光を受光して空間コード画像を生成するように構成され、前記測定部は、前記位相シフト画像及び前記空間コード画像に基づいて、位相シフト法及び空間コード化法を適用して測定対象物の三次元形状を測定するように構成されていることを特徴とする。 In a sixth aspect of the invention, the illumination control unit causes the pattern generation unit to generate phase shift pattern light for generating a phase shift image and spatial code pattern light for generating a space code image, When the phase-shifting pattern light is generated, patterns having phases different from each other by 180 degrees are continuously generated, and the imaging unit captures the light reflected from the measurement object when the phase-shifting pattern light is irradiated. It is configured to receive light to generate a phase shift image, and to generate a space code image by receiving light reflected from an object to be measured when the space code pattern light is irradiated. It is characterized in that the three-dimensional shape of the object to be measured is measured by applying a phase shift method and a space encoding method based on the phase shift image and the space code image.

この構成によれば、位相シフト画像及び空間コード画像をそれぞれ生成し、位相シフト法及び空間コード化法を適用して測定対象物の三次元形状を測定することができるので、測定範囲を拡大することができる。この場合、位相シフト法は空間コード化法に比べて外乱光の明るさ変動の悪影響を強く受けるが、本発明では、位相シフト用パターン光の生成の際、互いに位相が180度異なるパターンを連続的に生成させるようにしているので、外乱光の明るさの変動を抑制することができる。 According to this configuration, the phase shift image and the space code image are generated respectively, and the three-dimensional shape of the measurement object can be measured by applying the phase shift method and the space encoding method, so that the measurement range can be expanded. be able to. In this case, the phase shift method is more adversely affected by brightness fluctuations of ambient light than the spatial encoding method. Since it is made to generate|occur|produce uniformly, the fluctuation|variation of the brightness of disturbance light can be suppressed.

本発明によれば、パターン生成部を制御する際、互いに位相が180度異なるパターンを連続的に生成させるようにしたので、測定対象物に順次照射されるパターン光のうち、奇数番目に照射されるパターン光と、偶数番目に照射されるパターン光との位相が逆位相の関係になる。これにより、1つの測定対象物の測定が完了するまでの間に外乱光の明るさが変動したとしても、その変動の影響を抑制することができ、測定結果の誤差を減少させることができる。 According to the present invention, when the pattern generator is controlled, the patterns whose phases are different from each other by 180 degrees are continuously generated. The phases of the pattern light applied to the even-numbered pattern light and the pattern light applied to the even-numbered order have an opposite phase relationship. As a result, even if the brightness of ambient light fluctuates until the measurement of one measurement object is completed, the influence of the fluctuation can be suppressed, and errors in the measurement results can be reduced.

本発明の実施形態に係る画像処理装置のシステム構成例を示す図である。1 is a diagram showing a system configuration example of an image processing apparatus according to an embodiment of the present invention; FIG. コントローラ部のブロック図である。3 is a block diagram of a controller unit; FIG. 撮像装置のブロック図である。1 is a block diagram of an imaging device; FIG. 照明装置の平面図である。It is a top view of an illuminating device. 実施形態2に係る照明装置の底面図である。FIG. 10 is a bottom view of the lighting device according to Embodiment 2; 図5におけるVI-VI線断面図である。FIG. 6 is a sectional view taken along the line VI-VI in FIG. 5; 高さ測定部による高さ測定手法を説明する図である。It is a figure explaining the height measurement method by a height measurement part. パターン光の生成要領を説明する図である。It is a figure explaining the generation point of pattern light. 照明装置のブロック図である。It is a block diagram of an illuminating device. 第1~第4LCDにパターンを形成して投光する順序を説明する図である。FIG. 10 is a diagram for explaining the order of forming patterns on the first to fourth LCDs and projecting light; パターン光の照射順を示す図である。It is a figure which shows the irradiation order of pattern light. 逆位相同士の投光間隔を示す図である。It is a figure which shows the light projection interval of opposite phases. 1方向のみで撮像する場合と、2方向切替で撮像する場合のタイミングチャートである。10A and 10B are timing charts for imaging in only one direction and imaging by switching between two directions; 外乱光の明るさの変化の一例を示すグラフである。7 is a graph showing an example of changes in brightness of ambient light; 外乱光の明るさ変動によって生じる位相計算誤差を示すグラフである。7 is a graph showing phase calculation errors caused by brightness fluctuations of ambient light; パターン光の投光順を逆位相連続にした場合と、通常の投光順にした場合の位相誤差の差を示すグラフである。FIG. 10 is a graph showing the difference in phase error between the case where pattern light projection order is reverse phase continuous and the case where pattern light projection order is normal pattern light projection order; FIG. パターン画像セットから中間画像及び信頼度画像を生成する手順を、画像例を使用して説明した図である。FIG. 10 is a diagram illustrating the procedure for generating an intermediate image and a reliability image from a pattern image set using example images; パターン画像セットから中間画像及び信頼度画像を生成する手順を示す図である。FIG. 10 is a diagram showing a procedure for generating intermediate images and reliability images from a pattern image set; 三次元判別機能を実現するユーザーインターフェースを示す図である。FIG. 4 is a diagram showing a user interface that implements a three-dimensional discrimination function; 断面指示を行う際に表示されるユーザーインターフェースを示す図である。FIG. 10 is a diagram showing a user interface displayed when a section is instructed; 指示された断面が表示されたユーザーインターフェースを示す図である。FIG. 10 is a diagram showing a user interface in which an indicated cross section is displayed; 許容範囲を縮小した場合の図21相当図である。FIG. 21 is a view corresponding to FIG. 21 when the allowable range is reduced; 新たに測定対象物の三次元形状を入力して許容範囲との比較を行った状態が表示されたユーザーインターフェースを示す図である。FIG. 10 is a diagram showing a user interface displaying a state in which a new three-dimensional shape of an object to be measured is input and compared with an allowable range; 比較的大きな突起状の測定対象物の欠けを検出する場合の許容範囲設定のイメージ図である。FIG. 10 is an image diagram of allowable range setting when detecting chipping of a comparatively large protruding measurement target. 比較的小さな突起状の測定対象物の欠けを検出する場合の許容範囲設定のイメージ図である。FIG. 10 is an image diagram of allowable range setting when detecting chipping of a comparatively small projecting measurement target. 膨張フィルタを登録三次元形状と入力三次元形状の両方にかける場合を説明する図である。FIG. 10 is a diagram for explaining a case where an expansion filter is applied to both a registered three-dimensional shape and an input three-dimensional shape; 本実施例のデータフローダイアグラムである。It is a data flow diagram of a present Example. 別の例に係るデータフローダイアグラムである。FIG. 4 is a dataflow diagram according to another example; FIG. 背景平面の処理のイメージ図である。FIG. 10 is an image diagram of processing of a background plane; 背景平面に加えて上限平面が設定された場合の処理のイメージ図である。FIG. 10 is an image diagram of processing when an upper limit plane is set in addition to a background plane; 背景平面処理に係るデータフローダイアグラムである。FIG. 4 is a data flow diagram for background plane processing; FIG. 許容範囲上限と許容範囲下限のそれぞれに対して背景平面処理を適用する場合のデータフローである。It is a data flow when background plane processing is applied to each of the upper limit of the allowable range and the lower limit of the allowable range. 高さ2値化機能を実現するユーザーインターフェースを示す図である。FIG. 10 is a diagram showing a user interface that implements a height binarization function; 所定の水平面内に位置する部分が無い状態を示す図33相当図である。FIG. 34 is a view equivalent to FIG. 33 showing a state in which there is no portion positioned within a predetermined horizontal plane; ズーム機能によって拡大表示した場合の図33相当図である。FIG. 33 is a view equivalent to FIG. 33 when enlarged display is performed by a zoom function; 高さ2値化画像での形状比較機能を実現するユーザーインターフェースを示す図である。FIG. 10 is a diagram showing a user interface that implements a shape comparison function in height binarized images; 検査する輪郭を選択するためのユーザーインターフェースを示す図である。FIG. 10 illustrates a user interface for selecting contours to inspect; 輪郭の検出結果を表示した状態を示す図37相当図である。FIG. 37 is a view equivalent to FIG. 37 showing a state in which contour detection results are displayed; 許容範囲を拡大した場合の図38相当図である。FIG. 38 is a view corresponding to FIG. 38 when the allowable range is expanded; 運転モード時に品種違いの三次元形状を入力した場合の表示例を示す図39相当図である。FIG. 39 is a view equivalent to FIG. 39 showing a display example when three-dimensional shapes of different types are input in the operation mode;

以下、本発明の実施形態を図面に基づいて詳細に説明する。尚、以下の好ましい実施形態の説明は、本質的に例示に過ぎず、本発明、その適用物或いはその用途を制限することを意図するものではない。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail based on the drawings. It should be noted that the following description of preferred embodiments is essentially merely illustrative, and is not intended to limit the invention, its applications, or its uses.

以下、本発明の実施形態を図面に基づいて詳細に説明する。尚、以下の好ましい実施形態の説明は、本質的に例示に過ぎず、本発明、その適用物或いはその用途を制限することを意図するものではない。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail based on the drawings. It should be noted that the following description of preferred embodiments is essentially merely illustrative, and is not intended to limit the invention, its applications, or its uses.

図1は、本発明の実施形態に係る画像処理装置1のシステム構成例を示す図である。画像処理装置1は、撮像装置2と、照明装置3と、コントローラ部4と、表示部5と、コンソール部6と、マウス7とを備えており、測定対象物Wの三次元形状を測定することによって高さ画像を得て、この高さ画像に基づいて測定対象物Wに対して各種検査を行うことができるように構成されている。 FIG. 1 is a diagram showing a system configuration example of an image processing apparatus 1 according to an embodiment of the present invention. The image processing apparatus 1 includes an imaging device 2, an illumination device 3, a controller section 4, a display section 5, a console section 6, and a mouse 7, and measures the three-dimensional shape of the object W to be measured. Thus, a height image is obtained, and various inspections can be performed on the object W to be measured based on this height image.

測定対象物Wは、例えばベルトコンベア等の搬送装置の載置面100に載置した状態としておき、この載置面100に載置した測定対象物Wに対して高さの測定や各種検査等を行う。高さの測定中、測定対象物Wは静止させておくのが好ましい。 The object W to be measured is placed on a mounting surface 100 of a conveying device such as a belt conveyor, for example, and the height of the object W placed on the mounting surface 100 is measured and various inspections are performed. I do. The object W to be measured is preferably kept stationary during the height measurement.

画像処理装置1は、プログラマブル・ロジック・コントローラ(PLC)101に信号線101aによって有線接続することができるが、これに限らず、画像処理装置1及びPLC101に従来から周知の通信モジュールを内蔵し、画像処理装置1と、PLC101とを無線接続するようにしてもよい。PLC101は、搬送装置及び画像処理装置1をシーケンス制御するための制御装置であり、汎用のPLCを利用することができる。画像処理装置1をPLC101に接続することなく使用することもできる。 The image processing device 1 can be wired to a programmable logic controller (PLC) 101 via a signal line 101a. The image processing device 1 and the PLC 101 may be wirelessly connected. The PLC 101 is a control device for sequence-controlling the conveying device and the image processing device 1, and can use a general-purpose PLC. The image processing device 1 can also be used without being connected to the PLC 101 .

表示部5は、例えば液晶表示パネル等からなるディスプレイ装置であり、表示手段を構成している。表示部5には、例えば、画像処理装置1を操作するための操作用ユーザーインターフェース、画像処理装置1を設定するための設定用ユーザーインターフェース、測定対象物の高さ測定結果を表示するための高さ測定結果表示用ユーザーインターフェース、測定対象物の各種検査結果を表示するための検査結果表示用ユーザーインターフェース等を表示させることができる。画像処理装置1の使用者が表示部5を視認することで画像処理装置1の操作及び設定を行うことが可能になるとともに、測定対象物Wの測定結果や検査結果等を把握することができ、さらに、画像処理装置1の動作状態を把握することもできる。 The display unit 5 is a display device such as a liquid crystal display panel, and constitutes display means. The display unit 5 includes, for example, an operation user interface for operating the image processing apparatus 1, a setting user interface for setting the image processing apparatus 1, and a height display for displaying the height measurement result of the object to be measured. A user interface for displaying measurement results, a user interface for displaying inspection results for displaying various inspection results of the object to be measured, and the like can be displayed. A user of the image processing apparatus 1 can operate and set the image processing apparatus 1 by viewing the display unit 5, and can grasp the measurement results, inspection results, and the like of the measurement object W. Furthermore, the operating state of the image processing apparatus 1 can also be grasped.

図2に示すように、表示部5は、コントローラ部4が有する表示制御部46に接続されており、表示制御部46によって制御されて前記したユーザーインターフェースや高さ画像等を表示させることができるように構成されている。 As shown in FIG. 2, the display unit 5 is connected to a display control unit 46 included in the controller unit 4, and can be controlled by the display control unit 46 to display the above-described user interface, height image, and the like. is configured as

コンソール部6は、使用者が画像処理装置1を操作したり、各種情報を入力するための入力手段であり、コントローラ部4に接続されている。また、マウス7も同様に使用者が画像処理装置1を操作したり、各種情報を入力するための入力手段であり、コントローラ部4に接続されている。コンソール部6及びマウス7は入力手段の一例であり、入力手段としては、例えば表示部5に設けたタッチパネルスクリーン等であってもよいし、音声入力装置であってもよく、これらを複数組み合わせて構成することもできる。タッチパネルスクリーンの場合、表示手段と入力手段とを1つのデバイスで実現できる。 The console section 6 is input means for the user to operate the image processing apparatus 1 and input various information, and is connected to the controller section 4 . The mouse 7 is also input means for the user to operate the image processing apparatus 1 and input various information, and is connected to the controller section 4 . The console unit 6 and the mouse 7 are examples of input means, and the input means may be, for example, a touch panel screen provided in the display unit 5 or a voice input device. Can also be configured. In the case of a touch panel screen, display means and input means can be realized by one device.

コントローラ部4には、コントローラ部4の制御プログラムを生成し、記憶しておくための汎用のパーソナルコンピュータPCを接続することもできる。また、パーソナルコンピュータPCには、画像処理に関する各種設定を行う画像処理プログラムをインストールして、コントローラ部4で行う画像処理の各種設定を行うこともできる。あるいは、このパーソナルコンピュータPCで動作するソフトウェアによって画像処理の処理順序を規定する処理順序プログラムを生成することができる。コントローラ部4では、その処理順序に従って各画像処理が順次実行される。パーソナルコンピュータPCとコントローラ部4とは、通信ネットワークを介して接続されており、パーソナルコンピュータPC上で生成された処理順序プログラムは、例えば表示部5の表示態様を規定するレイアウト情報等と共にコントローラ部4に転送される。また逆に、コントローラ部4から処理順序プログラムやレイアウト情報等を取り込んで、パーソナルコンピュータPC上で編集することもできる。尚、上記プログラムは、パーソナルコンピュータPCだけでなく、コントローラ部4においても生成できるようにしてもよい。 A general-purpose personal computer PC for generating and storing a control program for the controller section 4 can also be connected to the controller section 4 . Also, an image processing program for performing various settings related to image processing can be installed in the personal computer PC, and various settings for image processing performed by the controller unit 4 can be performed. Alternatively, a processing order program that defines the processing order of image processing can be generated by software operating on this personal computer PC. In the controller section 4, each image processing is sequentially executed according to the processing order. The personal computer PC and the controller unit 4 are connected via a communication network. transferred to Conversely, the processing order program, layout information, etc. can be read from the controller unit 4 and edited on the personal computer PC. Note that the above program may be generated not only by the personal computer PC but also by the controller section 4 .

また、コントローラ部4は専用のハードウェアで構築することもできるが、本発明はこの構成に限定されるものではない。例えば、汎用のパーソナルコンピュータPCやワークステーション等に専用の画像処理プログラムや検査処理プログラム、高さ測定プログラム等をインストールしたものをコントローラ部として機能させることもできる。この場合、パーソナルコンピュータPCやワークステーション等に、撮像装置2、照明装置3、表示部5、コンソール部6及びマウス7を接続すればよい。 Also, the controller unit 4 can be constructed with dedicated hardware, but the present invention is not limited to this configuration. For example, a general-purpose personal computer PC, a work station, or the like installed with a dedicated image processing program, an inspection processing program, a height measurement program, or the like may function as the controller unit. In this case, the imaging device 2, the lighting device 3, the display section 5, the console section 6, and the mouse 7 may be connected to a personal computer PC, workstation, or the like.

また、画像処理装置1の機能については後述するが、画像処理装置1の全ての機能をコントローラ部4で実現するようにしてもよいし、汎用のパーソナルコンピュータPCで実現するようにしてもよい。また、画像処理装置1の一部の機能をコントローラ部4で実現し、残りの機能を汎用のパーソナルコンピュータPCで実現するようにしてもよい。画像処理装置1の機能は、ソフトウェアで実現することもできるし、ハードウェアの組み合わせによって実現することもできる。 Further, although the functions of the image processing apparatus 1 will be described later, all the functions of the image processing apparatus 1 may be realized by the controller section 4 or may be realized by a general-purpose personal computer PC. Alternatively, part of the functions of the image processing apparatus 1 may be realized by the controller unit 4, and the remaining functions may be realized by a general-purpose personal computer PC. The functions of the image processing apparatus 1 can be realized by software, or by a combination of hardware.

撮像装置2、照明装置3、表示部5、コンソール部6及びマウス7をコントローラ部4に接続するためのインターフェースは、専用のインターフェースであってもよいし、例えば既存の通信規格、例えばイーサーネット(商品名)やUSB、RS-232C等を利用することもできる。 The interface for connecting the imaging device 2, lighting device 3, display unit 5, console unit 6, and mouse 7 to the controller unit 4 may be a dedicated interface, or an existing communication standard such as Ethernet ( product name), USB, RS-232C, etc. can also be used.

測定対象物Wの高さを表す高さ画像とは、図4に示す照明装置3が有する開口部30aの中心軸A(図1に示す)方向における測定対象物Wの高さを表す画像であり、距離画像ということもできる。高さ画像は、測定対象物Wの載置面(基準面ともいう)100を基準とした高さとして表示することもできるし、照明装置3との前記中心軸A方向における相対距離として表示することもでき、高さに応じて各画素の濃淡値が変化する画像である。換言すれば、高さ画像は、測定対象物Wの載置面100を基準とした高さに基づいて濃淡値が決定される画像といもいえるし、照明装置3との前記中心軸A方向における相対距離に基づいて濃淡値が決定される画像ともいえる。また、高さ画像は、測定対象物Wの載置面100を基準とした高さに応じた濃淡値を有する多値画像といもいえるし、照明装置3との前記中心軸A方向における相対距離に応じた濃淡値を有する多値画像ともいえる。さらに、高さ画像は、輝度画像の画素毎に、測定対象物Wの載置面100を基準とした高さを濃淡値に変換した多値画像ともいえるし、輝度画像の画素毎に、照明装置3との前記中心軸A方向における相対距離を濃淡値に変換した多値画像ともいえる。 The height image representing the height of the measurement object W is an image representing the height of the measurement object W in the direction of the central axis A (shown in FIG. 1) of the opening 30a of the illumination device 3 shown in FIG. It can also be called a distance image. The height image can be displayed as a height with reference to the placement surface (also referred to as a reference surface) 100 of the object W to be measured, or as a relative distance to the illumination device 3 in the direction of the central axis A. It is an image in which the grayscale value of each pixel changes according to the height. In other words, the height image can be said to be an image whose gradation value is determined based on the height of the object W to be measured with respect to the placement surface 100. It can also be said that it is an image whose grayscale value is determined based on the relative distance. Further, the height image can be said to be a multivalued image having gradation values corresponding to the height of the measurement object W with respect to the mounting surface 100, and the relative distance from the illumination device 3 in the direction of the central axis A It can also be said to be a multivalued image having grayscale values corresponding to . Furthermore, the height image can be said to be a multivalued image obtained by converting the height of the measurement object W with respect to the placement surface 100 of the measurement object W into a gray value for each pixel of the luminance image. It can also be said to be a multivalued image obtained by converting the relative distance to the device 3 in the direction of the central axis A into a grayscale value.

また、高さ画像は測定対象物Wの高さ情報を含む画像であり、例えば距離画像に光学的な輝度画像をテクスチャ情報として合成して貼り付けた三次元の合成画像も高さ画像とすることができる。高さ画像は、三次元状に表示されるものに限られず、二次元状に表示されるものも含まれる。 A height image is an image containing height information of the object W to be measured. For example, a three-dimensional composite image obtained by synthesizing and pasting an optical luminance image as texture information to a distance image is also regarded as a height image. be able to. Height images are not limited to those displayed three-dimensionally, and those displayed two-dimensionally are also included.

測定対象物の三次元形状を測定する際、高さを求めると考えるか、深さを求めると考えるかの違いで、Z軸方向の座標系が反転する。そのため、「小さな高さを求める」という計算は、「大きな深さを求める」という計算と等価になる。また、高さを求めると考える場合、高さカメラということができるが、深さを求める場合には、深さカメラということもできる。いずれにしても本実施形態を適用することができるので、以下、高さ画像に統一してその一例を説明する。 When measuring the three-dimensional shape of an object to be measured, the coordinate system in the Z-axis direction is inverted depending on whether the height is to be determined or the depth is to be determined. Therefore, the calculation "finding a small height" is equivalent to the calculation "finding a large depth". In addition, when it is considered to obtain height, it can be called a height camera, but when it is considered to obtain depth, it can also be called a depth camera. Since the present embodiment can be applied in any case, an example thereof will be described below by using a height image.

上述したような高さ画像を得る手法としては、大きく分けて2つの方式があり、一つは、通常の画像を得るための照明条件で撮像した画像を用いて距離画像を生成するパッシブ方式(受動計測方式)、もう一つは、高さ方向の計測をするための光を測定対象物Wに能動的に照射して距離画像を生成するアクティブ方式(能動計測方式)である。本実施形態では、アクティブ方式により高さ画像を得るようにしており、具体的には、パターン投影法を利用している。 Methods for obtaining height images as described above are broadly divided into two methods. One is a passive method ( passive measurement method), and the other is an active method (active measurement method) in which a distance image is generated by actively irradiating the measurement object W with light for measuring in the height direction. In this embodiment, a height image is obtained by an active method, and more specifically, a pattern projection method is used.

パターン投影法は、測定対象物Wに投影する測定用パターン光(単にパターン光ともいう)が有するパターンの形状や位相等をずらして複数の画像を取得し、取得した複数の画像を解析することで測定対象物Wの三次元形状を得る方法である。パターン投影法には幾つか種類があり、例えば、正弦波縞模様パターンの位相をずらして複数(最低3枚)の画像を取得し、複数の画像から画素毎に正弦波の位相を求め、求めた位相を利用して測定対象物Wの表面の三次元座標を得る位相シフト法や、測定対象物Wに投影するパターン自体を撮影毎に異ならせ、例えば白黒デューティ比50%で縞幅が全体の半分、4分の1、8分の1、16分の1、…と細かくなっていく縞パターンを順次投影し、それぞれのパターンにてパターン投影画像を取得し、測定対象物Wの高さの絶対位相を求める空間コード法等がある。正弦波状のパターン光及び縞パターン光は、一次元方向に変化する周期的な照度分布を有するパターン光である。尚、測定用パターン光を測定対象物Wに「投影」することと、測定用パターン光を測定対象物Wに「照射」することとは同義である。 In the pattern projection method, a plurality of images are acquired by shifting the shape, phase, etc. of the pattern of the measurement pattern light (simply referred to as pattern light) projected onto the measurement object W, and the acquired plurality of images are analyzed. is a method of obtaining the three-dimensional shape of the object W to be measured. There are several types of pattern projection methods. A phase shift method that obtains the three-dimensional coordinates of the surface of the measurement object W using the phase obtained by the measurement, or a pattern that is projected onto the measurement object W is changed for each photographing, for example, the black-and-white duty ratio is 50%, and the fringe width is the entire width. 1/4, 1/8, 1/16, . There is a spatial code method for obtaining the absolute phase of . The sinusoidal pattern light and the striped pattern light are pattern light having a periodic illumination distribution that changes in one dimension. Note that “projecting” the measurement pattern light onto the measurement object W and “irradiating” the measurement object W with the measurement pattern light are synonymous.

本実施形態に係る画像処理装置1では、上述した位相シフト法と空間コード法とを組み合わせて高さ画像を生成するが、これに限られるものではなく、位相シフト法のみで高さ画像を生成してもよいし、空間コード法のみで高さ画像を生成してもよい。また、従来から周知の他のアクティブ方式を利用して測定対象物Wの高さ画像を生成してもよい。 In the image processing apparatus 1 according to the present embodiment, the height image is generated by combining the phase shift method and the spatial code method described above, but the height image is not limited to this, and the height image is generated only by the phase shift method. Alternatively, the height image may be generated only by the spatial coding method. Also, the height image of the object W to be measured may be generated using another known active method.

画像処理装置1による測定対象物Wの高さを測定する手法の概略は次の通りである。まず、照明装置3の第1投光部31及び第2投光部32でそれぞれ生成した第1測定用パターン光及び第2測定用パターン光を互いに異なる方向から測定対象物Wに照射し、測定対象物Wから反射した第1測定用パターン光を撮像装置2が受光して複数の第1パターン画像からなる第1パターン画像セットを生成するとともに、測定対象物Wから反射した第2測定用パターン光を撮像装置2が受光して複数の第2パターン画像からなる第2パターン画像セットを生成する。その後、複数の第1パターン画像セットに基づいて各画素が測定対象物Wへの第1測定用パターン光の照射角度情報を有する第1角度画像を生成するとともに、複数の第2パターン画像に基づいて各画素が測定対象物への第2測定用パターン光の照射角度情報を有する第2角度画像を生成する。次いで、第1角度画像の各画素の照射角度情報及び第2角度画像の各画素の照射角度情報と、第1投光部31及び第2投光部32の相対位置情報とにしたがって、測定対象物Wの高さを表す高さ画像を生成し、この高さ画像から測定対象物Wの高さを得る。 The outline of the method for measuring the height of the object W to be measured by the image processing device 1 is as follows. First, the measurement object W is irradiated with the first measurement pattern light and the second measurement pattern light respectively generated by the first light projection unit 31 and the second light projection unit 32 of the illumination device 3 from different directions, and the measurement is performed. The imaging device 2 receives the first measurement pattern light reflected from the object W to generate a first pattern image set including a plurality of first pattern images, and the second measurement pattern reflected from the measurement object W. The light is received by imaging device 2 to generate a second pattern image set comprising a plurality of second pattern images. After that, based on the plurality of first pattern image sets, each pixel generates a first angle image having irradiation angle information of the first measurement pattern light on the measurement object W, and based on the plurality of second pattern images to generate a second angle image in which each pixel has irradiation angle information of the second pattern light for measurement onto the object to be measured. Next, according to the irradiation angle information of each pixel of the first angle image, the irradiation angle information of each pixel of the second angle image, and the relative position information of the first light projection unit 31 and the second light projection unit 32, A height image representing the height of the object W is generated, and the height of the object W to be measured is obtained from this height image.

また、必須ではないが、この画像処理装置1においては、図4に示すように、照明装置3が第1投光部31及び第2投光部32の他に、第3投光部33及び第4投光部34を備えている。したがって、照明装置3の第3投光部33及び第4投光部34でそれぞれ生成した第3測定用パターン光及び第4測定用パターン光を互いに異なる方向から測定対象物Wに照射することもできる。この場合、測定対象物Wから反射した第3測定用パターン光を撮像装置2が受光して複数の第3パターン画像からなる第3パターン画像セットを生成するとともに、測定対象物Wから反射した第4測定用パターン光を撮像装置2が受光して複数の第4パターン画像からなる第4パターン画像セットを生成する。その後、複数の第3パターン画像に基づいて各画素が測定対象物Wへの第3測定用パターン光の照射角度情報を有する第3角度画像を生成するとともに、複数の第4パターン画像に基づいて各画素が測定対象物への第4測定用パターン光の照射角度情報を有する第4角度画像を生成する。次いで、第3角度画像の各画素の照射角度情報及び第4角度画像の各画素の照射角度情報と、第3投光部33及び第4投光部34の相対位置情報とにしたがって、測定対象物Wの高さを表す高さ画像を生成し、この高さ画像から測定対象物Wの高さを得る。 Although not essential, in the image processing apparatus 1, as shown in FIG. A fourth light projecting section 34 is provided. Therefore, it is also possible to irradiate the measurement target W with the third measurement pattern light and the fourth measurement pattern light respectively generated by the third light projecting section 33 and the fourth light projecting section 34 of the illumination device 3 from different directions. can. In this case, the imaging device 2 receives the third measurement pattern light reflected from the measurement object W to generate a third pattern image set including a plurality of third pattern images, and the third pattern light reflected from the measurement object W is generated. 4 The imaging device 2 receives the pattern light for measurement and generates a fourth pattern image set composed of a plurality of fourth pattern images. After that, based on the plurality of third pattern images, each pixel generates a third angle image having irradiation angle information of the third measurement pattern light onto the measurement object W, and based on the plurality of fourth pattern images, Each pixel generates a fourth angle image having irradiation angle information of the fourth measurement pattern light onto the measurement object. Next, according to the irradiation angle information of each pixel of the third angle image, the irradiation angle information of each pixel of the fourth angle image, and the relative position information of the third light projecting unit 33 and the fourth light projecting unit 34, A height image representing the height of the object W is generated, and the height of the object W to be measured is obtained from this height image.

(位相シフト法)
ここで、位相シフト法について説明する。位相シフト法において、照度分布を正弦波状に変動させたパターンを有するパターン光を測定対象物に順次投影する場合、正弦波の位相の異なる3つ以上のパターンのパターン光を投影する。高さ測定点の各明度値をパターン光の投影方向とは別の角度からパターン毎に撮像した画像から得て、各明度値よりパターン光の位相値を計算する。測定点の高さに応じて、測定点に投影されたパターン光の位相が変化し、基準となる位置で反射されたパターン光により観察される位相とは異なった位相の光が観察されることになる。そこで、測定点におけるパターン光の位相を計算し、三角測量の原理を利用して、幾何関係式に代入することにより測定点の高さを計測し、これにより、測定対象物Wの三次元形状を求めることができる。位相シフト法によれば、測定対象物Wの高さを、パターン光の周期を小さくすることによって高分解能で測定することができるが、測定できる高さの範囲が、位相のずれ量で2π以内となる低い高さのもの(高低差の小さいもの)しか測定できない。そこで、空間コード法を併用する。
(Phase shift method)
Here, the phase shift method will be explained. In the phase shift method, when pattern light having patterns with sinusoidally varied illuminance distributions is sequentially projected onto the object to be measured, three or more patterns of pattern light with different phases of the sinusoidal waves are projected. Each lightness value of the height measurement point is obtained from an image captured for each pattern from an angle different from the projection direction of the pattern light, and the phase value of the pattern light is calculated from each lightness value. The phase of the pattern light projected onto the measurement point changes according to the height of the measurement point, and light with a phase different from the phase observed by the pattern light reflected at the reference position is observed. become. Therefore, the phase of the pattern light at the measurement point is calculated, and the height of the measurement point is measured by substituting it into the geometric relational expression using the principle of triangulation. can be asked for. According to the phase shift method, the height of the object W to be measured can be measured with high resolution by reducing the period of the pattern light, but the measurable height range is within 2π in phase shift amount. Only low height objects (objects with a small height difference) can be measured. Therefore, the spatial code method is also used.

(空間コード法)
空間コード法によれば、光が照射される空間を、多数の断面略扇状の小空間に分け、この小空間に一連の空間コード番号を付すことができる。このため、測定対象物Wの高さが高くても、すなわち高低差が大きくても、光が照射される空間内にあれば、空間コード番号から高さが演算できる。したがって、高さの高い測定対象物Wについても全体にわたって形状を測定することができる。このように空間コード法によれば、許容高さのレンジ(ダイナミックレンジ)が広くなる。
(Spatial code method)
According to the space code method, a space irradiated with light can be divided into a large number of small spaces each having a substantially fan-shaped cross section, and a series of space code numbers can be assigned to the small spaces. Therefore, even if the height of the object W to be measured is high, that is, even if the height difference is large, the height can be calculated from the space code number as long as it is in the space irradiated with light. Therefore, it is possible to measure the shape of the entire measuring object W having a high height. Thus, according to the spatial code method, the allowable height range (dynamic range) is widened.

(照明装置3の詳細構成)
図4に示すように、実施形態1に係る照明装置3は、照明ハウジング30と、第1投光部31と、第2投光部32と、第3投光部33と、第4投光部34と、投光制御部39とを備えている。図1に示すように照明装置3とコントローラ部4とは接続線3aによって接続されているが、照明装置3とコントローラ部4とは無線接続するようにしてもよい。
(Detailed configuration of lighting device 3)
As shown in FIG. 4, the lighting device 3 according to the first embodiment includes a lighting housing 30, a first light projecting section 31, a second light projecting section 32, a third light projecting section 33, a fourth light projecting section 34 and a projection control unit 39 . As shown in FIG. 1, the illumination device 3 and the controller section 4 are connected by a connection line 3a, but the illumination device 3 and the controller section 4 may be wirelessly connected.

照明装置3は、パターン光を投影するためだけのパターン光投影専用装置としてもよいし、測定対象物Wに一様光を照射する一様光用照明を兼用する装置としてもよい。照明装置3をパターン光投影専用装置とする場合には、パターン光投影専用装置とは別体、又はパターン光投影専用装置と一体的に一様光用照明装置を設けることができる。一様光用照明装置は、発光ダイオード、半導体レーザ、ハロゲンライト、HID等を利用することができる。 The illumination device 3 may be a pattern light projection dedicated device only for projecting pattern light, or may be a uniform light illumination device for irradiating the measurement object W with uniform light. When the illumination device 3 is used as a pattern light projection device, a uniform light illumination device can be provided separately from the pattern light projection device or integrally with the pattern light projection device. A light-emitting diode, a semiconductor laser, a halogen light, an HID, or the like can be used as the illumination device for uniform light.

照明ハウジング30は、平面視における中心部に開口部30aを有しており、第1辺部30A、第2辺部30B、第3辺部30C及び第4辺部30Dが連続して平面視で矩形に近い形状をなしている。第1辺部30A、第2辺部30B、第3辺部30C及び第4辺部30Dは、直線状に延びているので、開口部30aも平面視で矩形に近い形状をなしている。 The lighting housing 30 has an opening 30a in the center in plan view, and the first side 30A, the second side 30B, the third side 30C, and the fourth side 30D are continuous in plan view. It has a shape close to a rectangle. Since the first side portion 30A, the second side portion 30B, the third side portion 30C, and the fourth side portion 30D extend linearly, the opening portion 30a also has a substantially rectangular shape in plan view.

尚、照明ハウジング30の外形状や開口部30aの形状は、図示した形状に限られるものではなく、例えば円形等であってもよい。図1に示す開口部30aの中心軸Aは、開口部30aの中心を通り、かつ、照明ハウジング30の下面に対して直交する方向に延びる軸である。照明ハウジング30の下面が水平となるように照明装置3が設置される場合には、開口部30aの中心軸Aが鉛直に延びることになるが、照明装置3は、照明ハウジング30の下面が傾斜した状態となるように設置することもでき、この場合は、開口部30aの中心軸Aが傾斜することになる。 The outer shape of the lighting housing 30 and the shape of the opening 30a are not limited to the illustrated shapes, and may be, for example, circular. A central axis A of the opening 30a shown in FIG. When the illumination device 3 is installed so that the lower surface of the illumination housing 30 is horizontal, the central axis A of the opening 30a extends vertically. It can also be installed in such a way that it is in a folded state, in which case the central axis A of the opening 30a is inclined.

尚、開口部30aの中心軸Aは、厳密に開口部30aの中心を通らなくてもよく、測定対象物Wの大きさ等にもよるが、開口部30aの中心から数mm程度の離れたところを通る軸も中心軸Aとすることができる。つまり、開口部30aの中心及びその近傍を通る軸を中心軸Aと定義することができる。中心軸Aの延長線は、載置面100と交差することになる。 The central axis A of the opening 30a may not strictly pass through the center of the opening 30a. An axis passing through the place can also be the central axis A. That is, the central axis A can be defined as an axis passing through the center of the opening 30a and its vicinity. An extension line of the central axis A intersects the mounting surface 100 .

以下の説明では、便宜上、図4に示すように第1辺部30A側を照明装置3の左側といい、第2辺部30B側を照明装置3の右側といい、第3辺部30C側を照明装置3の上側といい、第4辺部30D側を照明装置3の下側というものとするが、これは照明装置3の使用時の方向を特定するものではなく、使用時には照明装置3がどのような向きであってもよい。 In the following description, for convenience, as shown in FIG. The upper side of the illumination device 3 is referred to as the upper side of the illumination device 3, and the fourth side portion 30D side is referred to as the lower side of the illumination device 3. It can be in any direction.

照明ハウジング30の第1辺部30A、第2辺部30B、第3辺部30C及び第4辺部30Dの内部は中空状である。第1辺部30Aの内部には、第1投光部31が収容されている。第2辺部30B、第3辺部30C及び第4辺部30Dの内部には、それぞれ、第2投光部32、第3投光部33及び第4投光部34が収容されている。第1投光部31と第2投光部32とがペアであり、第3投光部33と第4投光部34とがペアである。また、照明ハウジング30の内部には、投光制御部39も収容されている。 The interiors of the first side portion 30A, the second side portion 30B, the third side portion 30C and the fourth side portion 30D of the lighting housing 30 are hollow. The first light projecting section 31 is housed inside the first side section 30A. A second light projecting section 32, a third light projecting section 33 and a fourth light projecting section 34 are housed inside the second side section 30B, the third side section 30C and the fourth side section 30D, respectively. The first light projecting section 31 and the second light projecting section 32 form a pair, and the third light projecting section 33 and the fourth light projecting section 34 form a pair. A light projection control unit 39 is also housed inside the illumination housing 30 .

第1辺部30Aと第2辺部30Bとは、中心軸Aを挟んで対向するように配置されているので、第1投光部31及び第2投光部32は中心軸Aを対称の中心として左右対称(点対称)となるように配置されることになり、中心軸Aの周方向に互いに離れることになる。 Since the first side portion 30A and the second side portion 30B are arranged to face each other across the central axis A, the first light projecting portion 31 and the second light projecting portion 32 are symmetrical about the central axis A. They are arranged so as to be bilaterally symmetrical (point symmetrical) with respect to the center, and are separated from each other in the circumferential direction of the central axis A.

また、第3辺部30Cと第4辺部30Dも中心軸Aを挟んで対向するように配置されているので、第3投光部33及び第4投光部34は中心軸Aを対称の中心として上下対称(点対称)となるように配置されることになり、中心軸Aの周方向に互いに離れることになる。平面視では、中心軸Aを中心として右周りに、第1投光部31、第3投光部33、第2投光部33、第4投光部34の順に4つの投光部が配置されることになる。 Further, the third side portion 30C and the fourth side portion 30D are also arranged so as to face each other with the central axis A interposed therebetween. They are arranged so as to be vertically symmetrical (point symmetrical) with respect to the center, and are separated from each other in the circumferential direction of the central axis A. In a plan view, four light projecting units are arranged in the order of a first light projecting unit 31, a third light projecting unit 33, a second light projecting unit 33, and a fourth light projecting unit 34 clockwise around the central axis A. will be

図5は、本発明の実施形態2に係る照明装置3の底面図である。この実施形態2では、照明ハウジング30の内部に8つの投光部31~38が設けられている。第1投光部31と第3投光部33との間に第5投光部35が設けられ、第2投光部32と第4投光部34との間に第6投光部36が設けられ、第2投光部32と第3投光部33との間に第7投光部37が設けられ、第1投光部33と第4投光部34との間に第8投光部38が設けられている。第5投光部35と第6投光部36とがペアであり、中心軸Aを対称の中心として互いに対称となるように配置される。また、第7投光部37と第8投光部38とがペアであり、中心軸Aを対称の中心として互いに対称となるように配置される。平面視では、中心軸Aを中心として右周りに、第1投光部31、第5投光部35、第3投光部33、第7投光部37、第2投光部32、第6投光部36、第4投光部34、第8投光部38の順に配置されることになる。 FIG. 5 is a bottom view of the illumination device 3 according to Embodiment 2 of the present invention. In this second embodiment, eight light projection units 31 to 38 are provided inside the illumination housing 30 . A fifth light projecting portion 35 is provided between the first light projecting portion 31 and the third light projecting portion 33 , and a sixth light projecting portion 36 is provided between the second light projecting portion 32 and the fourth light projecting portion 34 . is provided, a seventh light projecting portion 37 is provided between the second light projecting portion 32 and the third light projecting portion 33, and an eighth light projecting portion 37 is provided between the first light projecting portion 33 and the fourth light projecting portion 34 A light projecting section 38 is provided. The fifth light projecting part 35 and the sixth light projecting part 36 are a pair, and are arranged so as to be symmetrical with each other with the central axis A as the center of symmetry. Also, the seventh light projecting part 37 and the eighth light projecting part 38 are a pair, and are arranged so as to be symmetrical with each other with the central axis A as the center of symmetry. In a plan view, a first light projecting part 31, a fifth light projecting part 35, a third light projecting part 33, a seventh light projecting part 37, a second light projecting part 32, a The 6 light projecting section 36, the 4th light projecting section 34, and the 8th light projecting section 38 are arranged in this order.

また、実施形態2の照明装置3では、測定対象物Wを一様光で照明するための一様光用照明50(リング照明)が投光部31~38とは別に設けられている。一様光用照明50は、照明ハウジング30の底部における外周部に設けられており、第1~第8投光部31~38を囲む環状をなしている。図6に示すように、一様光用照明50は、基板51aと、基板51aに実装されて一様光を出射する複数の一様光用発光ダイオード51bと、カバー部材52とを有している。基板51aは、第1~第8投光部31~38を囲むように配置されている。複数の一様光用発光ダイオード51bは、第1~第8投光部31~38を囲むように、周方向に互いに間隔をあけて設けられている。カバー部材52は、一様光用発光ダイオード41bを光出射面側から覆うように設けられており、透光性を有するとともに、光を拡散させる性質を持った材料で構成されている。図示しないが、一様光用照明を図4に示す実施形態1の照明装置3に設けることもできる。 Further, in the illumination device 3 of the second embodiment, a uniform light illumination 50 (ring illumination) for illuminating the measurement object W with uniform light is provided separately from the light projection units 31 to 38 . The uniform light illumination 50 is provided on the outer peripheral portion of the bottom of the illumination housing 30 and has a ring shape surrounding the first to eighth light projection portions 31 to 38 . As shown in FIG. 6, the uniform light illumination 50 includes a substrate 51a, a plurality of uniform light emitting diodes 51b mounted on the substrate 51a and emitting uniform light, and a cover member 52. there is The substrate 51a is arranged so as to surround the first to eighth light projecting sections 31-38. The plurality of light emitting diodes 51b for uniform light are provided at intervals in the circumferential direction so as to surround the first to eighth light projecting portions 31 to . The cover member 52 is provided so as to cover the light-emitting diode 41b for uniform light from the light emitting surface side, and is made of a material that is translucent and has the property of diffusing light. Although not shown, illumination for uniform light can also be provided in the illumination device 3 of Embodiment 1 shown in FIG.

(第1投光部31の構成)
実施形態1の照明装置1の第1~第4投光部31~34は、実施形態2の照明装置1の第1~第4投光部31~34と同じである。
(Configuration of first light projecting section 31)
The first to fourth light projecting sections 31 to 34 of the lighting device 1 of the first embodiment are the same as the first to fourth light projecting sections 31 to 34 of the lighting device 1 of the second embodiment.

図6に示すように、第1投光部31は、ケーシング31aと、拡散光を出射する第1光源となる第1LED(発光ダイオード)31bと、該第1LED31bから出射された拡散光を受けて互いに異なるパターンを有する複数の第1測定用パターン光を順次生成して測定対象物Wに照射する第1LCD(第1パターン光生成部)31dとを備える。LCDは、liquid crystal display、即ち液晶パネルを含む液晶ディスプレイである。第1LCD31dは、説明の便宜上、「LCD」と表示しているが、LCP、即ち、液晶パネル(第1液晶パネル)であってもよい。光源は、発光ダイオードに限られるものではなく、拡散光を出射する発光体であればよい。 As shown in FIG. 6, the first light projecting portion 31 includes a casing 31a, a first LED (light emitting diode) 31b serving as a first light source for emitting diffused light, and receiving diffused light emitted from the first LED 31b. A first LCD (first pattern light generator) 31d that sequentially generates a plurality of first measurement pattern lights having patterns different from each other and irradiates the object W to be measured is provided. LCD is a liquid crystal display, ie a liquid crystal display that includes a liquid crystal panel. Although the first LCD 31d is indicated as "LCD" for convenience of explanation, it may be an LCP, that is, a liquid crystal panel (first liquid crystal panel). The light source is not limited to a light-emitting diode, and may be any light-emitting body that emits diffused light.

第1LCD31dは、第1LED31bに対応して配置されており、第1LED31bの光出射面が第1LCD31dの方を向いている。これにより、第1LED31bから出射された光が第1LCD31dに確実に入射することになる。発光ダイオードとしては、例えば白色発光ダイオードを用いることができる。第1LCD31dは、照明ハウジング30の開口部30aの中心軸Aと直交する平面(図6に仮想線200で示す)内に、当該第1LCD31dの表示面(出射面)が位置するように設けられており、平面200と第1LCD31dの表示面とが同一平面に位置している。 The first LCD 31d is arranged corresponding to the first LED 31b, and the light emitting surface of the first LED 31b faces the first LCD 31d. This ensures that the light emitted from the first LED 31b enters the first LCD 31d. For example, a white light emitting diode can be used as the light emitting diode. The first LCD 31d is provided so that the display surface (emission surface) of the first LCD 31d is positioned within a plane (indicated by a virtual line 200 in FIG. 6) perpendicular to the central axis A of the opening 30a of the illumination housing 30. The plane 200 and the display surface of the first LCD 31d are located on the same plane.

第2投光部32は第1投光部31と同様に構成されている。具体的には、図6に示すように、第2投光部32は、ケーシング32aと、基板32cに実装された第2LED32bと、第2LED32bに対応して配置された第2LCD(第2パターン光生成部)32dとを備えている。第1LED31bと、第2LED32bとが対をなしている。第1LED31bと、第2LED32bとは、互いの相対位置を補正可能に照明ハウジング30に取り付けられている。相対位置の補正の詳細については後述する。 The second light projecting section 32 is configured similarly to the first light projecting section 31 . Specifically, as shown in FIG. 6, the second light projecting unit 32 includes a casing 32a, a second LED 32b mounted on a substrate 32c, and a second LCD (second pattern light) arranged corresponding to the second LED 32b. generator) 32d. The first LED 31b and the second LED 32b are paired. The first LED 31b and the second LED 32b are attached to the lighting housing 30 so that their relative positions can be corrected. Details of relative position correction will be described later.

以下、第1投光部31の構成について詳細に説明する。第1投光部31の第1LED31bは、複数あるとともに、照明ハウジング30内において上部に設けられている。第1LED31bの配列方向は、光の出射方向と交差する方向である。 The configuration of the first light projecting section 31 will be described in detail below. A plurality of first LEDs 31 b of the first light projecting section 31 are provided at an upper portion within the lighting housing 30 . The arrangement direction of the first LEDs 31b is a direction intersecting with the light emission direction.

すなわち、ケーシング31aの内部には、その上方に基板31cが配設されている。基板31cの下に向く面には、複数の第1LED31bが実装されている。複数の第1LED31bは直線状に並ぶように配置することもできるし、隣合う第1LED31bが上下方向にずれるように配置することもできる。一次元方向に変化する周期的な照度分布を有するパターン光を生成する場合、第1LED31bは、パターン光の照度が変化しない方向に並ぶように配置されることになる。複数の第1LED31bを図4に示す照明ハウジング30の第1辺部30Aの長手方向に沿って並べることで、第1LED31bから出射する光は、第1辺部30Aの長手方向にほぼ連続した光になる。 That is, the substrate 31c is disposed above the casing 31a inside the casing 31a. A plurality of first LEDs 31b are mounted on the downward facing surface of the substrate 31c. The plurality of first LEDs 31b can be arranged in a straight line, or can be arranged such that adjacent first LEDs 31b are shifted in the vertical direction. When generating pattern light having a periodic illuminance distribution that varies in one dimension, the first LEDs 31b are arranged in a direction in which the illuminance of the pattern light does not change. By arranging the plurality of first LEDs 31b along the longitudinal direction of the first side portion 30A of the lighting housing 30 shown in FIG. Become.

複数の第1LED31bの光の出射方向は同じにすることができ、この実施形態では、図1に左下がりの斜線で示すように、第1LED31bの直下から少なくとも照明ハウジング30の開口部30aの中心軸Aよりも第2辺部30B側(照明装置3の右側)に達するように設定されている。複数の第1LED31bによる光の照射範囲は、撮像装置2による撮像視野よりも広く設定されている。 The light emission directions of the plurality of first LEDs 31b can be the same, and in this embodiment, as indicated by the diagonal lines sloping to the left in FIG. It is set to reach the second side portion 30B side (the right side of the illumination device 3) from A. The light irradiation range of the plurality of first LEDs 31b is set wider than the imaging field of view of the imaging device 2 .

複数の第1LED31bの光の出射範囲について具体的に説明する。図7に示すように、第1投光部31と第2投光部32との離間方向をX方向とし、上下方向をZ方向とする。照明装置3は、該照明装置3の下面が水平(載置面100と平行)となるように配置され、測定対象物Wの載置面100から上方に「1」だけ離れて設置されているものとする。X=0を第1LED31bの直下とし、第1LED31bから(X,Z)=(0,0)の点Cまで延びる直線Dを引く。また、第1LED31bから(X,Z)=(1,0)の点Eまで延びる直線Fを引く。このとき、複数の第1LED31bの光の出射範囲は、直線Dと直線Fとで挟まれた領域となるように、第1LED31bの向きが設定されるとともに、第1LED31bの光源用レンズが設計されている。 A specific description will be given of the light emission range of the plurality of first LEDs 31b. As shown in FIG. 7, the separation direction between the first light projecting section 31 and the second light projecting section 32 is defined as the X direction, and the vertical direction is defined as the Z direction. The illumination device 3 is arranged so that the lower surface of the illumination device 3 is horizontal (parallel to the mounting surface 100), and is installed at a distance of "1" above the mounting surface 100 of the object W to be measured. shall be A straight line D extending from the first LED 31b to a point C at (X, Z)=(0, 0) is drawn with X=0 directly below the first LED 31b. Also, a straight line F extending from the first LED 31b to a point E of (X, Z)=(1, 0) is drawn. At this time, the direction of the first LEDs 31b is set and the light source lens of the first LEDs 31b is designed so that the light emission range of the plurality of first LEDs 31b is an area sandwiched between the straight line D and the straight line F. there is

図6に示すように、第1LCD31dは、第1LED31bから下方に離れた状態で照明ハウジング30に設けられている。第1LCD31dの駆動方式はTN(Twisted Nematic)方式である。したがって、第1LCD31dに印加される電圧が0のとき液晶組成物(液晶分子)が表示面と平行に並んで第1LED31bの光を通過させる一方、この状態から電圧を上げていくと、液晶組成物が表示面に対して垂直に立ち上がり、最大電圧になったときに第1LED31bの光を遮ることになる。 As shown in FIG. 6, the first LCD 31d is provided in the lighting housing 30 in a state separated downward from the first LED 31b. The driving method of the first LCD 31d is a TN (Twisted Nematic) method. Therefore, when the voltage applied to the first LCD 31d is 0, the liquid crystal composition (liquid crystal molecules) is aligned parallel to the display surface and allows the light of the first LED 31b to pass through. rises perpendicularly to the display surface, and blocks the light from the first LED 31b when the voltage reaches the maximum voltage.

(LEDとLEDの相対位置)
第1LED31bと第1LCD31dとの相対的な位置関係について説明する。図8に示すように、第1LCD31dの表示面は、照明ハウジング30の開口部30aの中心軸Aと直交する平面200と同一面上に位置しており、第1LCD31dにおける照明ハウジング30の径方向外方の端部を外端部側とし、第1LCD31dにおける照明ハウジング30の径方向内方の端部を内端部側とする。第1LED31bは、第1LCD31dにおける外端部側の上方に配置されている。図8における符号SEGは、第1LCD31dを構成するセグメントである。黒色のセグメントSEGは光を透過させないセグメントであり、白色のセグメントSEGは光を透過させるセグメントである。このように、第1LCD31dの表示面に、黒色のセグメントSEGと白色のセグメントSEGとを交互に形成することで、第1LCD31dを透過した光は、その下方に図示するように光の強度が周期的に変化する正弦波状のパターン光となる。これがパターン光の生成原理である。黒色のセグメントSEGと白色のセグメントSEGの個数、間隔、形成位置は任意に変更することができ、波の周期、位相が異なる複数種のパターン光を生成することができる。
(Relative position of LED and LED)
A relative positional relationship between the first LED 31b and the first LCD 31d will be described. As shown in FIG. 8, the display surface of the first LCD 31d is located on the same plane as a plane 200 perpendicular to the central axis A of the opening 30a of the illumination housing 30, and the first LCD 31d is located outside the illumination housing 30 in the radial direction. The other end is defined as the outer end side, and the radially inner end of the illumination housing 30 in the first LCD 31d is defined as the inner end side. The first LED 31b is arranged above the outer end side of the first LCD 31d. Symbol SEG in FIG. 8 denotes a segment that constitutes the first LCD 31d. A black segment SEG is a segment that does not transmit light, and a white segment SEG is a segment that transmits light. By alternately forming the black segment SEG and the white segment SEG on the display surface of the first LCD 31d in this way, the light transmitted through the first LCD 31d has a periodic intensity as shown below. It becomes a sinusoidal pattern light that changes to . This is the principle of pattern light generation. The number, interval, and formation position of the black segment SEG and the white segment SEG can be arbitrarily changed, and multiple types of pattern light with different wave periods and phases can be generated.

黒色のセグメントSEGの個数と、白色のセグメントSEGの個数は同じにすることができる。したがって、パターン光の生成時、第1LCD31dには、光を透過させる領域及び光を透過させない領域を等幅にして交互に形成することができる。これは、後述する投光制御部39によって行われる。 The number of black segments SEG and the number of white segments SEG can be the same. Therefore, when the pattern light is generated, the first LCD 31d can alternately form the light-transmitting region and the light-not-transmitting region with the same width. This is performed by a light projection control section 39, which will be described later.

ここで、液晶パネルが持つ一般的な性質について説明すると、液晶パネルの表示面の法線と平行に光を入射させると光の透過率が最も高くなり、表示面の法線と光の入射方向とのなす角度が大きくなればなるほど光の透過率が低くなる。液晶パネルは、このような光の入射方向によって光の透過率が変化する角度特性を有しているので、液晶パネルを用いてパターン光を生成すると、パターン光の位置に応じた輝度ムラが発生する懸念がある。 Here, let us explain the general characteristics of liquid crystal panels. Light transmittance is highest when light is incident parallel to the normal to the display surface of the liquid crystal panel. The greater the angle formed by the two, the lower the light transmittance. Liquid crystal panels have angular characteristics in which light transmittance varies depending on the direction of light incidence. Therefore, when pattern light is generated using a liquid crystal panel, luminance unevenness occurs according to the position of the pattern light. There is concern that

このことに対し、本実施形態では、第1LED31bから出射された光が第1LCD31dに対して当該第1LCD31dの有効角度範囲内で入射されるように、第1LCD31dと、第1LED31bとの相対位置が設定されている。これにより、第1LED31bから出射された拡散光が第1LCD31dの有効角度範囲内で当該第1LCD31dに入射するので、第1LCD31dが持つ角度特性に起因するパターン光の位置に応じた輝度ムラが発生しにくくなる。 In contrast, in the present embodiment, the relative positions of the first LCD 31d and the first LED 31b are set so that the light emitted from the first LED 31b is incident on the first LCD 31d within the effective angle range of the first LCD 31d. It is As a result, the diffused light emitted from the first LED 31b is incident on the first LCD 31d within the effective angle range of the first LCD 31d, so that uneven brightness according to the position of the pattern light due to the angular characteristics of the first LCD 31d is less likely to occur. Become.

第1LCD31dの有効角度範囲とは、パターン光のコントラストを所定以上確保可能な角度範囲とすることができる。パターン光のコントラストが所定以上というのは、測定対象物Wから反射したパターン光を撮像装置2が受光した際に、検査対象画像を生成可能なパターン画像を撮像装置2によって得ることができる程度である。すなわち、第1LCD31dが持つ角度特性に起因して、第1LCD31dの表示面の法線と光の入射方向とのなす角度が大きくなればなるほど光の透過率が低くなるので、光の入射角度によってはパターン光のコントラストの低下を招くことが考えられるが、この実施形態では、撮像装置2によって撮像されたパターン画像に基づいて測定対象物Wの高さ情報を得ることが可能な程度のコントラスト以上となるように、第1LCD31dと第1LED31bとの相対位置を設定している。 The effective angular range of the first LCD 31d can be an angular range in which a predetermined or more contrast of pattern light can be secured. The fact that the contrast of the pattern light is equal to or higher than a predetermined level means that when the imaging device 2 receives the pattern light reflected from the object W to be measured, the imaging device 2 can obtain a pattern image capable of generating an image to be inspected. be. That is, due to the angular characteristics of the first LCD 31d, the greater the angle formed between the normal to the display surface of the first LCD 31d and the light incident direction, the lower the light transmittance. Although it is conceivable that the contrast of the pattern light is lowered, in this embodiment, the contrast is at least the level at which the height information of the measurement object W can be obtained based on the pattern image captured by the imaging device 2. The relative positions of the first LCD 31d and the first LED 31b are set such that

また、第1LCD31dの有効角度範囲は次のように定義することもできる。例えば、光を最も通しやすい液晶分子配列状態にある第1LCD31dを第1LED31bから出射された光が通過する際に、当該光が減衰する減衰率が10%以下となる角度範囲を、第1LCD31dの有効角度範囲とする。光の減衰率が10%以下となるように第1LCD31dと第1LED31bとの相対位置を設定することで、撮像装置2によって撮像されたパターン画像に基づいて測定対象物Wの高さ情報を得ることが可能な程度のコントラストを確保することができる。 Also, the effective angle range of the first LCD 31d can be defined as follows. For example, when the light emitted from the first LED 31b passes through the first LCD 31d in which the liquid crystal molecules are aligned most easily, the angle range in which the light is attenuated by 10% or less is defined as the effective angle range of the first LCD 31d. Angle range. By setting the relative positions of the first LCD 31d and the first LED 31b so that the light attenuation rate is 10% or less, the height information of the measurement object W is obtained based on the pattern image captured by the imaging device 2. It is possible to secure the contrast to the extent possible.

光を最も通しやすい液晶分子配列状態とは、液晶分子の配向が光路を最も遮らない方向(上述した電圧0のとき)にある状態である。尚、前記減衰率が5%以下となるように、第1LCD31dの有効角度範囲を設定することもできる。 The liquid crystal molecule alignment state that allows light to pass through most is the state in which the liquid crystal molecules are aligned in the direction that does not block the light path the least (when the voltage is 0 as described above). The effective angle range of the first LCD 31d can also be set so that the attenuation rate is 5% or less.

また、図8に示すように、第1LED31bの中心(光出射面の中心)から第1LCD31dの表示面に向けて引いた法線201と、当該第1LED31bの中心から第1LCD31dの有効角度範囲における照明ハウジング30の径方向内方に位置する内端部側の境界に向けて引いた内側仮想線202とのなす角度が50°以下となるように、第1LED31bと第1LCD31dとの相対位置を設定することができる。これにより、第1LED31bから出射された光が第1LCD31dに入射する際の角度範囲がTN方式の液晶パネルに最適な範囲となり、その結果、パターン光のコントラストを所定以上確保することができる。法線201と内側仮想線202とのなす角度αは45°以下にすることができ、また、40°以下にすることもできる。 Further, as shown in FIG. 8, a normal line 201 drawn from the center of the first LED 31b (the center of the light emitting surface) toward the display surface of the first LCD 31d, and illumination in the effective angle range of the first LCD 31d from the center of the first LED 31b The relative positions of the first LED 31b and the first LCD 31d are set so that the angle formed by the inner virtual line 202 drawn toward the boundary on the inner end side located radially inward of the housing 30 is 50° or less. be able to. As a result, the angle range in which the light emitted from the first LED 31b is incident on the first LCD 31d becomes the optimal range for the TN liquid crystal panel, and as a result, the contrast of the pattern light can be ensured above a predetermined level. The angle α between the normal 201 and the inner virtual line 202 can be 45° or less, and can also be 40° or less.

(LED駆動回路及びLCD駆動回路)
図9に示すように、第1投光部31には、第1LED31bを駆動する第1LED駆動回路(光源駆動回路)31eと、第1LCD31dを駆動する第1LCD駆動回路(液晶パネル駆動回路)31fとが設けられている。第1LED駆動回路31eは、第1LED31bに対する供給電流値を変更するための回路であり、投光制御部39によって制御される。よって、第1LED31bは、第1LED駆動回路31eを介して投光制御部39によって制御されることになる。第1LED駆動回路31eによる電流値制御は、DAC制御である。
(LED drive circuit and LCD drive circuit)
As shown in FIG. 9, the first light projection unit 31 includes a first LED drive circuit (light source drive circuit) 31e that drives the first LED 31b, and a first LCD drive circuit (liquid crystal panel drive circuit) 31f that drives the first LCD 31d. is provided. The first LED drive circuit 31 e is a circuit for changing the supply current value to the first LED 31 b and is controlled by the light projection control section 39 . Therefore, the first LED 31b is controlled by the light projection control section 39 via the first LED drive circuit 31e. Current value control by the first LED drive circuit 31e is DAC control.

第1LCD駆動回路31fは、第1LCD31dを構成する各セグメントSEG(図8に示す)に印加する電圧を変更することで各セグメントSEGの液晶組成物の配向を変化させるための回路である。この実施形態では、一例として、第1LCD31dを構成するセグメントSEGが64個あり、64個のセグメントSEGにそれぞれ個別に印加する電圧を変更することができるようになっており、セグメントSEG毎に、第1LED31bから出射された光を通過させる状態と通過させない状態とに切り替えることができる。第1LCD駆動回路31fは、第1LED駆動回路31eと共通の投光制御部39によって制御される。よって、第1LCD31dは、第1LCD駆動回路31fを介して投光制御部39によって制御されることになる。また、第1LED駆動回路31eと第1LCD駆動回路31fとは、共通の投光制御部39によって制御されるので、第1LED駆動回路31eと第1LCD駆動回路31fとを精密に動機させることができる。 The first LCD driving circuit 31f is a circuit for changing the orientation of the liquid crystal composition of each segment SEG by changing the voltage applied to each segment SEG (shown in FIG. 8) constituting the first LCD 31d. In this embodiment, as an example, there are 64 segments SEG that constitute the first LCD 31d, and the voltage applied to each of the 64 segments SEG can be individually changed. It is possible to switch between a state in which the light emitted from the 1LED 31b is allowed to pass and a state in which the light is not allowed to pass. The first LCD drive circuit 31f is controlled by a light projection control section 39 shared with the first LED drive circuit 31e. Therefore, the first LCD 31d is controlled by the light projection control section 39 via the first LCD drive circuit 31f. Further, since the first LED driving circuit 31e and the first LCD driving circuit 31f are controlled by the common light projection control section 39, the first LED driving circuit 31e and the first LCD driving circuit 31f can be driven precisely.

投光制御部39によって制御された第1LCD駆動回路31fが第1LCD31dを駆動することで、第1LED31bから出射された拡散光を受けて互いに異なるパターンを有する複数の第1測定用パターン光を順次生成して測定対象物Wに照射することができる。複数の第1測定用パターン光には、空間コード法で用いる空間コード(グレーコード)用のパターン光と、位相シフト法で用いる周期的な照度分布を有するパターン光とが含まれている。 The first LCD driving circuit 31f controlled by the light projection control unit 39 drives the first LCD 31d to receive diffused light emitted from the first LED 31b and sequentially generate a plurality of first measurement pattern lights having different patterns. Then, the object W to be measured can be irradiated with the light. The plurality of first measurement pattern lights include pattern light for a spatial code (gray code) used in the spatial code method and pattern light having a periodic illuminance distribution used in the phase shift method.

空間コード用のパターン光を生成する場合は、白黒デューティ比50%で縞幅が全体の半分、4分の1、…と細かくなっていく縞パターンを生成する。このように第1LCD31dを制御することで、空間コード用のパターン光を順次生成することができる。 When generating the pattern light for the spatial code, a stripe pattern is generated in which the width of the stripes is reduced to half, 1/4, . By controlling the first LCD 31d in this manner, it is possible to sequentially generate the pattern light for the spatial code.

また、位相シフト法用のパターン光の生成の場合は、正弦波縞模様パターンの位相をずらして複数生成する。この例の場合、LCD表示は2値制御にして矩形波のパターンを生成しているが、図8に示すように、第1LCD31dで生成された矩形波のパターンが光照射面上でぼけることによって正弦波状のパターンを得ることができるようになっている。より詳細には、液晶パネルに形成された矩形波上のパターンと、面積を持った発光ダイオードの発光パターンとが組み合わさることで、正弦波に近いパターンを得ることができる。仮にLEDではなく理想的な点光源または線光源だと正弦波パターンではなく、2値パターンが得られる。このため、正弦波パターンを得るためには、LED光源サイズとLCD開口サイズとのバランスが重要になる。またこの例では8つのパターン光を生成している。このように第1LCD31dを制御することで、位相シフト法用のパターン光を順次生成することができる。 In the case of generating pattern light for the phase shift method, a plurality of sinusoidal fringe patterns are generated with the phases shifted. In the case of this example, the LCD display is binary controlled to generate a rectangular wave pattern. However, as shown in FIG. A sinusoidal pattern can be obtained. More specifically, a pattern close to a sine wave can be obtained by combining the rectangular wave pattern formed on the liquid crystal panel and the light emitting pattern of the light emitting diodes having an area. If we had an ideal point or line light source instead of an LED, we would get a binary pattern instead of a sinusoidal pattern. Therefore, in order to obtain a sinusoidal pattern, the balance between the LED light source size and the LCD aperture size is important. Also, in this example, eight pattern lights are generated. By controlling the first LCD 31d in this manner, it is possible to sequentially generate pattern light for the phase shift method.

つまり、位相シフト法及び/又は空間コード法にしたがう複数のパターン光を順次生成するように、投光制御部39が第1LED31b及び第1LCD31dを制御する。複数のパターン光の内の一のパターン光の投影が完了すると、次のパターン光の投影を行い、この処理を繰り返すことによって全てのパターン光の投影を行う。第1LCD31dによるパターンの形成処理については後述する。 That is, the light projection control section 39 controls the first LED 31b and the first LCD 31d so as to sequentially generate a plurality of pattern lights according to the phase shift method and/or the spatial code method. When the projection of one pattern light among the plurality of pattern lights is completed, the next pattern light is projected. By repeating this process, all the pattern lights are projected. The pattern forming process by the first LCD 31d will be described later.

尚、空間コード用のパターン光の数、位相シフト法用のパターン光の数は、図示した数に限られるものではない。 The number of pattern lights for the spatial code and the number of pattern lights for the phase shift method are not limited to the numbers shown.

(第2投光部32の構成)
図1に示すように、第2投光部32の第2LED32bの光の出射範囲は、第2LED32bの直下から少なくとも照明ハウジング30の開口部30aの中心軸Aよりも第1辺部30A側(照明装置3の左側)に達するように設定されている。すなわち、第2投光部32の第2LED32bの光の出射範囲は、照明ハウジング30の開口部30aの中心軸Aを対称の中心として、第1投光部31の第1LED31bの光の出射範囲と左右対称となるように設定されている。第2LED32bの光の出射範囲を、図1において右下がりの斜線で示している。
(Configuration of the second light projecting section 32)
As shown in FIG. 1, the light emission range of the second LED 32b of the second light projecting portion 32 is at least on the first side portion 30A side of the central axis A of the opening portion 30a of the illumination housing 30 from directly below the second LED 32b (illumination left side of device 3). That is, the light emission range of the second LED 32b of the second light projecting section 32 is the light emission range of the first LED 31b of the first light projecting section 31 with the central axis A of the opening 30a of the illumination housing 30 as the center of symmetry. It is designed to be bilaterally symmetrical. The light emission range of the second LED 32b is indicated by diagonal lines sloping downward to the right in FIG.

図9に示すように、第2投光部32には、第2LED32bを駆動する第2LED駆動回路(光源駆動回路)32eと、第2LCD32dを駆動する第2LCD駆動回路(液晶パネル駆動回路)32fとが設けられており、これらは投光制御部39によって制御される。第2LCD32dは、第1LCD31dと同様に駆動されるので、第2LED32bから出射された拡散光を受けて互いに異なるパターンを有する複数の第2測定用パターン光を順次生成して測定対象物Wに照射することができる。複数の第2測定用パターン光には、空間コード用のパターン光と、位相シフト法用のパターン光とが含まれている。 As shown in FIG. 9, the second light projection unit 32 includes a second LED drive circuit (light source drive circuit) 32e that drives the second LED 32b, and a second LCD drive circuit (liquid crystal panel drive circuit) 32f that drives the second LCD 32d. are provided, and these are controlled by the light projection control section 39 . Since the second LCD 32d is driven in the same manner as the first LCD 31d, the second LCD 32d receives the diffused light emitted from the second LED 32b, sequentially generates a plurality of second measurement pattern lights having different patterns, and irradiates the object W to be measured. be able to. The plurality of second pattern lights for measurement include pattern light for the spatial code and pattern light for the phase shift method.

図1に示すように、第1投光部31から出射されたパターン光と、第2投光部32から出射されたパターン光とが、照明ハウジング30の開口部30aの中心軸A上で交差するように、略同一の広がり角を持つように、第1投光部31と第2投光部32とが中心軸Aの周方向に互いに離れた状態で、照明ハウジング30に一体的に支持されている。「一体的に支持されている」とは、第1投光部31と第2投光部32との相対的な位置関係が設置時や使用時に変化しないように、第1投光部31と第2投光部32が照明ハウジング30に対して固定されているということである。したがって、運用時には、照明ハウジング30内における第1投光部31及び第2投光部32の相対位置は変化しないので、例えば図7に示すように、第1LED31bの中心部と、第2LED32bの中心部との離間距離をlとしておけば、運用時には、第1LED31bの中心部と、第2LED32bの中心部との離間距離はlに固定される。第1LED31bの中心部と、第2LED32bの中心部との離間距離は、照明ハウジング30内における第1投光部31及び第2投光部32の相対位置情報であり、予めコントローラ部4や撮像装置2に記憶させておくことができる。尚、運用時以外の時には、第1LED31bの中心部と、第2LED32bの中心部との離間距離を変更することができる。 As shown in FIG. 1, the pattern light emitted from the first light projection section 31 and the pattern light emitted from the second light projection section 32 intersect on the central axis A of the opening 30a of the illumination housing 30. , the first light projecting part 31 and the second light projecting part 32 are integrally supported on the lighting housing 30 in a state in which they are separated from each other in the circumferential direction of the central axis A so as to have substantially the same spread angle. It is “Integratedly supported” means that the first light projecting unit 31 and the second light projecting unit 32 are supported so that the relative positional relationship between the first light projecting unit 31 and the second light projecting unit 32 does not change during installation or use. That is, the second light projecting part 32 is fixed with respect to the lighting housing 30 . Therefore, during operation, the relative positions of the first light projecting part 31 and the second light projecting part 32 in the illumination housing 30 do not change, so that the center of the first LED 31b and the center of the second LED 32b are arranged as shown in FIG. If l is set as the distance between the center of the first LED 31b and the center of the second LED 32b during operation, the distance between the center of the first LED 31b and the center of the second LED 32b is fixed to l. The distance between the central portion of the first LED 31b and the central portion of the second LED 32b is the relative position information of the first light projecting portion 31 and the second light projecting portion 32 in the lighting housing 30. 2 can be stored. It should be noted that the separation distance between the central portion of the first LED 31b and the central portion of the second LED 32b can be changed when not in operation.

また、照明ハウジング30内における第1投光部31及び第2投光部32の相対位置情報は、第1LED31bの中心部と、第2LED32bの中心部との直線距離であってもよいし、各LEDから照射された光をミラー等で折り返して測定対象物Wに照射する場合には、その光の経路長を考慮した距離とすることもできる。 Further, the relative positional information of the first light projecting portion 31 and the second light projecting portion 32 in the lighting housing 30 may be a straight line distance between the center of the first LED 31b and the center of the second LED 32b. When the light emitted from the LED is turned back by a mirror or the like to irradiate the object W to be measured, the distance can be set in consideration of the path length of the light.

第1LCD31dは照明装置3の左側に配置されているので、載置面100に載置された測定対象物Wに対して左側からパターン光を投影する。また、第2LCD32dは照明装置3の右側に配置されているので、載置面100に載置された測定対象物Wに対して右側からパターン光を投影する。第1LCD31d及び第2LCD32dは測定対象物Wに対してそれぞれ異なる方向からパターン光を投影する液晶パネルである。 Since the first LCD 31 d is arranged on the left side of the illumination device 3 , it projects pattern light from the left side onto the measurement object W placed on the placement surface 100 . Further, since the second LCD 32d is arranged on the right side of the lighting device 3, it projects pattern light onto the measurement object W placed on the placement surface 100 from the right side. The first LCD 31d and the second LCD 32d are liquid crystal panels that project pattern light onto the object W to be measured from different directions.

(第3投光部33と第4投光部34の構成)
第3投光部33及び第4投光部34は、第1投光部31と同様に構成されており、図9に示すように、第3投光部33は、第3LED(第3光源)33bと、第3LED33bに対応して配置された第3LCD(第3パターン光生成部)33dとを備え、第4投光部34は、第4LED(第4光源)34bと、第4LED34bに対応して配置された第4LCD(第4パターン光生成部)34dとを備えている。第3LED33bと、第4LED34bとが対をなしている。第3LED33bと、第4LED34bとは、互いの相対位置を補正可能に照明ハウジング30に取り付けられている。相対位置の補正の詳細については後述する。
(Configuration of the third light projecting section 33 and the fourth light projecting section 34)
The third light projecting section 33 and the fourth light projecting section 34 are configured in the same manner as the first light projecting section 31. As shown in FIG. 9, the third light projecting section 33 includes a third LED (third light source ) 33b, and a third LCD (third pattern light generator) 33d arranged corresponding to the third LED 33b. and a fourth LCD (fourth pattern light generating section) 34d arranged in a line. The third LED 33b and the fourth LED 34b are paired. The third LED 33b and the fourth LED 34b are attached to the lighting housing 30 so that their relative positions can be corrected. Details of relative position correction will be described later.

第3LCD33dと第4LCD34dの表示面は、照明ハウジング30の開口部30aの中心軸Aと直交する平面(図6に符号200で示す面)と同一平面に位置している。 The display surfaces of the third LCD 33d and the fourth LCD 34d are positioned on the same plane as the plane perpendicular to the central axis A of the opening 30a of the illumination housing 30 (the plane denoted by reference numeral 200 in FIG. 6).

第3投光部33の第3LED33bの光の出射範囲と、第4投光部34の第4LED34bの光の出射範囲とは、第1投光部31の第1LED31bの光の出射範囲と、第2投光部32の第2LED32bの光の出射範囲との関係と同じになるように設定されている。具体的には、第3投光部33の第3LED33bの光の出射範囲は、第3LED33bの直下から少なくとも照明ハウジング30の開口部30aの中心軸Aよりも第4辺部30D側に達するように設定されている。第4投光部34の第4LED34bの光の出射範囲は、第4LED34bの直下から少なくとも照明ハウジング30の開口部30aの中心軸Aよりも第3辺部30C側に達するように設定されている。したがって、照明ハウジング30の開口部30aの中心軸Aを対称の中心としたとき、上下対称となるように、第3投光部33の第3LED33bの光の出射範囲と、第4投光部34の第4LED34bの光の出射範囲とが設定されている。 The light emission range of the third LED 33b of the third light projecting section 33 and the light emission range of the fourth LED 34b of the fourth light projecting section 34 are defined by the light emission range of the first LED 31b of the first light projecting section 31 and the light emission range of the fourth LED 34b. It is set to be the same as the relationship with the light emission range of the second LED 32 b of the second light projecting section 32 . Specifically, the light emission range of the third LED 33b of the third light projecting portion 33 is set so as to reach at least the fourth side portion 30D side of the central axis A of the opening 30a of the illumination housing 30 from directly below the third LED 33b. is set. The light emission range of the fourth LED 34b of the fourth light projecting portion 34 is set to reach at least the third side portion 30C side of the central axis A of the opening 30a of the lighting housing 30 from directly below the fourth LED 34b. Therefore, when the central axis A of the opening 30a of the illumination housing 30 is taken as the center of symmetry, the light emission range of the third LED 33b of the third light projecting part 33 and the light emission range of the fourth light projecting part 34 are vertically symmetrical. and the light emission range of the fourth LED 34b are set.

図9に示すように、第3投光部33には、第3LED33bを駆動する第3LED駆動回路(光源駆動回路)33eと、第3LCD33dを駆動する第3LCD駆動回路(液晶パネル駆動回路)33fとが設けられており、これらは投光制御部39によって制御される。第3LCD33dは、第1LCD31dと同様に駆動されるので、第3LED33bから出射された拡散光を受けて互いに異なるパターンを有する複数の第3測定用パターン光を順次生成して測定対象物Wに照射することができる。複数の第3測定用パターン光には、空間コード用のパターン光と、位相シフト法用のパターン光とが含まれている。 As shown in FIG. 9, the third light projection unit 33 includes a third LED drive circuit (light source drive circuit) 33e that drives the third LED 33b, and a third LCD drive circuit (liquid crystal panel drive circuit) 33f that drives the third LCD 33d. are provided, and these are controlled by the light projection control section 39 . Since the third LCD 33d is driven in the same manner as the first LCD 31d, the third LCD 33d receives the diffused light emitted from the third LED 33b, sequentially generates a plurality of third measurement pattern lights having mutually different patterns, and irradiates the object W to be measured. be able to. The plurality of third measurement pattern lights include pattern light for spatial code and pattern light for phase shift method.

また、第4投光部34には、第4LED34bを駆動する第4LED駆動回路(光源駆動回路)34eと、第4LCD34dを駆動する第4LCD駆動回路(液晶パネル駆動回路)34fとが設けられており、これらは投光制御部39によって制御される。第4LCD34dは、第1LCD31dと同様に駆動されるので、第4LED34bから出射された拡散光を受けて互いに異なるパターンを有する複数の第4測定用パターン光を順次生成して測定対象物Wに照射することができる。複数の第4測定用パターン光には、空間コード用のパターン光と、位相シフト法用のパターン光とが含まれている。 The fourth light projecting section 34 is provided with a fourth LED driving circuit (light source driving circuit) 34e for driving the fourth LED 34b and a fourth LCD driving circuit (liquid crystal panel driving circuit) 34f for driving the fourth LCD 34d. , are controlled by the projection control unit 39 . Since the fourth LCD 34d is driven in the same manner as the first LCD 31d, the fourth LCD 34d receives diffused light emitted from the fourth LED 34b, sequentially generates a plurality of fourth measurement pattern lights having different patterns, and irradiates the object W to be measured. be able to. The plurality of fourth measurement pattern lights includes pattern light for spatial code and pattern light for phase shift method.

第3投光部33から出射されたパターン光と、第4投光部34から出射されたパターン光とが、照明ハウジング30の開口部30aの中心軸A上で交差するように、略同一の広がり角を持つように、第3投光部33と第4投光部34とが中心軸Aの周方向に互いに離れた状態で、照明ハウジング30に一体的に支持されている。したがって、照明ハウジング30内における第3投光部33及び第4投光部34の相対位置は変化しないので、第3LED33bの中心部と、第4LED34bの中心部との離間距離を予め所定の値に設定しておけば、運用時に、第3LED33bの中心部と、第4LED34bの中心部との離間距離は所定の値に固定される。第3LED33bの中心部と、第4LED34bの中心部との離間距離は、照明ハウジング30内における第3投光部33及び第4投光部34の相対位置情報であり、予めコントローラ部4や撮像装置2に記憶させておくことができる。 The pattern light emitted from the third light projecting part 33 and the pattern light emitted from the fourth light projecting part 34 are substantially the same so that they intersect on the central axis A of the opening 30 a of the illumination housing 30 . The third light projecting portion 33 and the fourth light projecting portion 34 are integrally supported by the lighting housing 30 while being separated from each other in the circumferential direction of the central axis A so as to have a spread angle. Therefore, since the relative positions of the third light projecting portion 33 and the fourth light projecting portion 34 in the lighting housing 30 do not change, the distance between the center of the third LED 33b and the center of the fourth LED 34b is set to a predetermined value in advance. If set, the separation distance between the center of the third LED 33b and the center of the fourth LED 34b is fixed at a predetermined value during operation. The distance between the central portion of the third LED 33b and the central portion of the fourth LED 34b is the relative position information of the third light projecting portion 33 and the fourth light projecting portion 34 in the lighting housing 30. 2 can be stored.

第3LCD33dは照明装置3の上側に配置されているので、載置面100に載置された測定対象物Wに対してその方向からパターン光を投影する。また、第4LCD34dは照明装置3の下側に配置されているので、載置面100に載置された測定対象物Wに対してその方向からパターン光を投影する。第3LCD33d及び第4LCD34dは測定対象物Wに対してそれぞれ異なる方向からパターン光を投影する液晶パネルである。 Since the third LCD 33d is arranged above the illumination device 3, it projects pattern light onto the measurement object W placed on the placement surface 100 from that direction. Further, since the fourth LCD 34d is arranged below the illumination device 3, it projects pattern light onto the measurement object W placed on the placement surface 100 from that direction. The third LCD 33d and the fourth LCD 34d are liquid crystal panels that project pattern light onto the object W to be measured from different directions.

尚、図5に示す実施形態2に係る第5~第8投光部35~38も第1~第4投光部31~34と同様に構成されている。 The fifth to eighth light projecting sections 35 to 38 according to the second embodiment shown in FIG. 5 are configured similarly to the first to fourth light projecting sections 31 to 34. As shown in FIG.

(投光制御部39による制御)
図9に示すように、この実施形態では、第1LED駆動回路31e、第2LED駆動回路32e、第3LED駆動回路33e、第4LED駆動回路34e、第1LCD駆動回路31f、第2LCD駆動回路32f、第3LCD駆動回路33f及び第4LCD駆動回路34fが共通の投光制御部39によって制御されるので、これら駆動回路を精密に同期させることができる。同様に、実施形態2の第5~第8投光部35~38もLED駆動回路とLCD駆動回路とを有しており、精密に同期させることができる。
(Control by light projection control unit 39)
As shown in FIG. 9, in this embodiment, a first LED driving circuit 31e, a second LED driving circuit 32e, a third LED driving circuit 33e, a fourth LED driving circuit 34e, a first LCD driving circuit 31f, a second LCD driving circuit 32f, and a third LCD Since the drive circuit 33f and the fourth LCD drive circuit 34f are controlled by the common light projection control section 39, these drive circuits can be precisely synchronized. Similarly, the fifth to eighth light projecting sections 35 to 38 of Embodiment 2 also have an LED drive circuit and an LCD drive circuit, and can be precisely synchronized.

図10に示すように、投光制御部39は、第1LCD31d、第2LCD32d、第3LCD33d及び第4LCD34dのうちの任意の一の液晶パネルから複数のパターン光のうちの一のパターン光の投影が完了するまでに、少なくとも次にパターン光を投影する他の液晶パネル上に、次に投影すべきパターンの形成処理を完了させ、前記一の液晶パネルによるパターン光の投影が完了した後に、前記他の液晶パネルに前記次のパターン光を投影する処理を繰り返し実行するように、第1LCD31d、第2LCD32d、第3LCD33d及び第4LCD34dを制御する。 As shown in FIG. 10, the light projection control unit 39 completes projection of one of the plurality of pattern lights from any one of the first LCD 31d, the second LCD 32d, the third LCD 33d, and the fourth LCD 34d. By the time the pattern light is projected next, at least on another liquid crystal panel to which the pattern light is to be projected next, the formation processing of the pattern to be projected next is completed, and after the projection of the pattern light by the one liquid crystal panel is completed, the other liquid crystal panel The first LCD 31d, the second LCD 32d, the third LCD 33d, and the fourth LCD 34d are controlled so as to repeatedly execute the process of projecting the next pattern light onto the liquid crystal panel.

具体的には、照明装置3の投光制御部39には、コントローラ部4から、パターン光の投影を開始するトリガ信号と、パターン光の投影中に撮像装置2との同期を取るための再同期トリガ信号とが入力されるようになっている。トリガ信号は、PLC101から入力するようにしてもよい。例えば、PLC101に接続された光電センサ等による検出結果に基づいてトリガ信号を投光制御部39に入力することができる。トリガ信号を生成する装置は、PLC101でなくてもよく、光電センサ等であってもよい。この場合、光電センサ等を投光制御部39に直接接続するか、コントローラ部4を介して接続することができる。 Specifically, the light projection control unit 39 of the illumination device 3 receives from the controller unit 4 a trigger signal for starting projection of the pattern light and a replay signal for synchronizing with the imaging device 2 during projection of the pattern light. A synchronous trigger signal is input. A trigger signal may be input from the PLC 101 . For example, a trigger signal can be input to the light projection control unit 39 based on the detection result of a photoelectric sensor or the like connected to the PLC 101 . The device that generates the trigger signal may not be the PLC 101, but may be a photoelectric sensor or the like. In this case, a photoelectric sensor or the like can be directly connected to the light projection control section 39 or connected via the controller section 4 .

以下、第1LCD31d、第2LCD32d、第3LCD33d及び第4LCD34dのパターンの形成と投光順序を図10に基づいて詳細に説明する。トリガ信号が入力されると、投光制御部39は、第1LCD31d上に現在形成されているパターン(位相シフト1)を、当該現在の表示形態とは異なるパターン(位相シフト2)に切り替えるように、第1LCD駆動回路31fを介して第1LCD31dを制御する。ここで、第1LCD31d上のパターンを位相シフト1から位相シフト2に切り替えるためには、第1LCD31dを構成している各セグメントの液晶組成物に対する印加電圧を第1LED駆動回路31eが周知の手法によって変化させる。液晶組成物に対する印加電圧を変化させてから当該液晶組成物がその配向を変えるまでの時間は、後述する撮像装置2による撮像間隔よりも長い。つまり、第1LCD31d上に現在形成されているパターン(位相シフト1)を異なるパターン(位相シフト2)に切り替えるには、撮像装置2による撮像間隔よりも長い所定のパターン切り替え時間が必要になる。第2LCD32d、第3LCD33d及び第4LCD34dも同様に、パターンを位相シフト1から位相シフト2に順に切り替えるための時間が必要になる。 The pattern formation and light projection order of the first LCD 31d, the second LCD 32d, the third LCD 33d and the fourth LCD 34d will be described in detail below with reference to FIG. When the trigger signal is input, the light projection control unit 39 switches the pattern (phase shift 1) currently formed on the first LCD 31d to a pattern (phase shift 2) different from the current display mode. , controls the first LCD 31d via the first LCD drive circuit 31f. Here, in order to switch the pattern on the first LCD 31d from the phase shift 1 to the phase shift 2, the voltage applied to the liquid crystal composition of each segment constituting the first LCD 31d is changed by the first LED driving circuit 31e by a known method. Let The time from when the voltage applied to the liquid crystal composition is changed until the orientation of the liquid crystal composition is changed is longer than the imaging interval of the imaging device 2, which will be described later. That is, in order to switch the pattern (phase shift 1) currently formed on the first LCD 31d to a different pattern (phase shift 2), a predetermined pattern switching time longer than the imaging interval of the imaging device 2 is required. Similarly, the second LCD 32d, the third LCD 33d and the fourth LCD 34d also require time to switch the pattern from phase shift 1 to phase shift 2 in order.

第1LCD31d上にパターン(位相シフト1)が完全に形成されている間に、そのパターン(位相シフト1)の形成と同期して第1LED31bから光を出射し、第2LED32b、第3LED33b及び第4LED34bからは光を出射させないように制御する。これにより、第1LCD31d上に形成されているパターン(位相シフト1)のみがパターン光として測定対象物Wに投影されるので、第2LCD32d、第3LCD33d及び第4LCD34d上に形成されているパターンは、測定対象物Wへ投影されることはない。 While the pattern (phase shift 1) is completely formed on the first LCD 31d, light is emitted from the first LED 31b in synchronization with the formation of the pattern (phase shift 1), and light is emitted from the second LED 32b, the third LED 33b and the fourth LED 34b. controls so as not to emit light. As a result, only the pattern (phase shift 1) formed on the first LCD 31d is projected onto the measurement target W as pattern light. There is no projection onto the object W.

第1LCD31d上にパターン(位相シフト1)が形成されている時間は、第2LCD32d上にパターンを形成するためのパターン切り替え時間の一部である。第2LCD32d上にパターンを形成するため時間は、第1LCD31d上にパターン(位相シフト1)が形成されている時間よりも長くなっており、具体的には、第1LCD31d上にパターン(位相シフト1)の形成が完了するよりも前から始まっている。 The time during which the pattern (phase shift 1) is formed on the first LCD 31d is part of the pattern switching time for forming the pattern on the second LCD 32d. The time for forming the pattern on the second LCD 32d is longer than the time for forming the pattern (phase shift 1) on the first LCD 31d. begins before the formation of the is complete.

測定対象物Wに投影されているパターン(位相シフト1)のパターン光の撮像が完了すると、第2LCD32d上にパターン(位相シフト1)が完全に形成されている間に、パターン(位相シフト1)の形成と同期して第2LED32bから光を出射し、第1LED31b、第3LED33b及び第4LED34bからは光を出射させないように制御する。これにより、第2LCD32d上に形成されているパターン(位相シフト1)のみがパターン光として測定対象物Wに投影される。 When the imaging of the pattern light of the pattern (phase shift 1) projected onto the measurement object W is completed, while the pattern (phase shift 1) is completely formed on the second LCD 32d, the pattern (phase shift 1) is emitted from the second LED 32b in synchronization with the formation of . As a result, only the pattern (phase shift 1) formed on the second LCD 32d is projected onto the measuring object W as pattern light.

第2LCD32d上にパターン(位相シフト1)が形成されている時間は、第3LCD33d上にパターンを形成するための切り替え時間の一部である。第3LCD33d上にパターン(位相シフト1)を形成するため時間は、第2LCD32d上にパターン(位相シフト1)が形成されている時間よりも長くなっており、具体的には、第1LCD31d上にパターン(位相シフト1)の形成が完了するよりも前から始まっている。 The time during which the pattern (phase shift 1) is formed on the second LCD 32d is part of the switching time for forming the pattern on the third LCD 33d. The time for forming the pattern (phase shift 1) on the third LCD 33d is longer than the time for forming the pattern (phase shift 1) on the second LCD 32d. It begins before the formation of (phase shift 1) is completed.

測定対象物Wに投影されているパターン(位相シフト1)のパターン光の撮像が完了すると、第3LCD33d上にパターン(位相シフト1)が完全に形成されている間に、パターン(位相シフト1)の形成と同期して第3LED33bから光を出射し、第1LED31b、第2LED32b及び第4LED34bからは光を出射させないように制御する。これにより、第3LCD33d上に形成されているパターン(位相シフト1)のみがパターン光として測定対象物Wに投影される。 When the imaging of the pattern light of the pattern (phase shift 1) projected onto the measurement object W is completed, while the pattern (phase shift 1) is completely formed on the third LCD 33d, the pattern (phase shift 1) is emitted from the third LED 33b in synchronization with the formation of . As a result, only the pattern (phase shift 1) formed on the third LCD 33d is projected onto the measuring object W as pattern light.

第3LCD33d上にパターン(位相シフト1)が形成されている時間は、第4LCD34d上にパターン(位相シフト1)を形成するための切り替え時間の一部である。第4LCD34d上にパターン(位相シフト1)を形成するため時間は、第3LCD33d上にパターン(位相シフト1)が形成されている時間よりも長くなっており、具体的には、第1LCD31d上にパターン(位相シフト1)の形成が完了するよりも前から始まっている。 The time during which the pattern (phase shift 1) is formed on the third LCD 33d is part of the switching time for forming the pattern (phase shift 1) on the fourth LCD 34d. The time for forming the pattern (phase shift 1) on the fourth LCD 34d is longer than the time for forming the pattern (phase shift 1) on the third LCD 33d. It begins before the formation of (phase shift 1) is complete.

測定対象物Wに投影されているパターン(位相シフト1)のパターン光の撮像が完了すると、第4LCD34d上にパターン(位相シフト1)が完全に形成されている間に、パターン(位相シフト1)の形成と同期して第4LED34bから光を出射し、第1LED31b、第2LED32b及び第3LED33bからは光を出射させないように制御する。これにより、第4LCD34d上に形成されているパターン(位相シフト1)のみがパターン光として測定対象物Wに投影される。このパターンが形成されている時間の一部は、第1LCD31d上に次のパターン(位相シフト2)を形成するための切り替え時間の一部である。 When the imaging of the pattern light of the pattern (phase shift 1) projected onto the measurement object W is completed, while the pattern (phase shift 1) is completely formed on the fourth LCD 34d, the pattern (phase shift 1) , light is emitted from the fourth LED 34b, and light is not emitted from the first LED 31b, the second LED 32b, and the third LED 33b. As a result, only the pattern (phase shift 1) formed on the fourth LCD 34d is projected onto the measuring object W as pattern light. Part of the time during which this pattern is formed is part of the switching time for forming the next pattern (phase shift 2) on the first LCD 31d.

つまり、この実施形態では、第1LCD31d、第2LCD32d、第3LCD33d及び第4LCD34dのうち、一の液晶パネルによる複数のパターン光の投影を順次連続して行うのではなく、一の液晶パネルによる1番目のパターン光の投影が完了すると、別の液晶パネルによる1番目のパターン光の投影を行い、その別の液晶パネルによる1番目のパターン光の投影が完了すると、更に別の液晶パネルによる1番目のパターン光の投影を行い、そのようにして1番目のパターン光の投影が全ての液晶パネルで完了すると、前記一の液晶パネルによる2番目のパターン光の投影を行い、前記一の液晶パネルによる2番目のパターン光の投影が完了すると、前記別の液晶パネルによる2番目のパターン光の投影を行い、その別の液晶パネルによる2番目のパターン光の投影が完了すると、更に別の液晶パネルによる2番目のパターン光の投影を行うように、第1LCD31d、第2LCD32d、第3LCD33d及び第4LCD34dを制御する。したがって、パターン光の投影を行っていない液晶パネルでは、次に投影するパターンの形成準備を行うことができるので、液晶パネルの応答速度の遅さをカバーすることができる。 That is, in this embodiment, one of the first LCD 31d, the second LCD 32d, the third LCD 33d, and the fourth LCD 34d does not successively project a plurality of pattern lights by one liquid crystal panel. When the projection of the pattern light is completed, the first pattern light is projected by another liquid crystal panel, and when the projection of the first pattern light by the another liquid crystal panel is completed, the first pattern is projected by another liquid crystal panel. When the light is projected and the projection of the first pattern light is completed in all the liquid crystal panels, the second pattern light is projected by the one liquid crystal panel, and the second pattern light is projected by the one liquid crystal panel. When the projection of the second pattern light is completed, the second pattern light is projected by another liquid crystal panel, and when the projection of the second pattern light by the another liquid crystal panel is completed, the second pattern light is projected by another liquid crystal panel. The first LCD 31d, the second LCD 32d, the third LCD 33d, and the fourth LCD 34d are controlled so as to project the pattern light. Therefore, the liquid crystal panel on which pattern light is not projected can be prepared for forming a pattern to be projected next, so that the slow response speed of the liquid crystal panel can be compensated for.

前記した例では、第1LCD31d、第2LCD32d、第3LCD33d及び第4LCD34dの全てでパターン光を投影する場合について説明したが、これに限らず、第1LCD31d及び第2LCD32dのみでパターン光を投影すること、第3LCD33d及び第4LCD34dのみでパターン光を投影することもできる。第1LCD31d及び第2LCD32dのみでパターン光を投影する場合には、パターン光の投影を交互に行えばよく、例えば、第1LCD31dで1番目のパターン光の投影を行っている間に、第2LCD32d上に1番目のパターンの形成処理を行い、その後、第2LCD32dで1番目のパターン光の投影を行っている間に、第1LCD31d上に2番目のパターンの形成処理を行い、これを繰り返す。第3LCD33d及び第4LCD34dのみでパターン光を投影する場合も同様である。 In the above example, the case where the pattern light is projected by all of the first LCD 31d, the second LCD 32d, the third LCD 33d, and the fourth LCD 34d has been described. The pattern light can also be projected only by the 3LCD 33d and the 4th LCD 34d. When the pattern light is projected only by the first LCD 31d and the second LCD 32d, the pattern light may be projected alternately. For example, while the first pattern light is being projected by the first LCD 31d, A first pattern formation process is performed, and then a second pattern formation process is performed on the first LCD 31d while the first pattern light is being projected on the second LCD 32d, and this is repeated. The same is true when pattern light is projected only by the third LCD 33d and the fourth LCD 34d.

投光制御部39には、トリガ信号及び再同期トリガ信号以外にも、コントローラ部4からパターン光の形成情報も送信され、送信されたパターン光の形成情報は、一旦、投光制御部39に記憶されて、このパターン光の形成情報に基づいて、第1LED31b、第2LED32b、第3LED33b及び第4LED34bと、第1LCD31d、第2LCD32d、第3LCD33d及び第4LCD34dとを制御する。 In addition to the trigger signal and the resynchronization trigger signal, pattern light formation information is also transmitted from the controller 4 to the light projection control section 39 , and the transmitted pattern light formation information is temporarily sent to the light projection control section 39 . The first LED 31b, the second LED 32b, the third LED 33b and the fourth LED 34b, and the first LCD 31d, the second LCD 32d, the third LCD 33d and the fourth LCD 34d are controlled based on the stored pattern light formation information.

パターン光の形成情報には、例えば、照射モード、空間コード用のパターン光の照射の有無、空間コード用のパターン光の具体的なパターン及び数、位相シフト法用のパターン光の照射の有無、位相シフト法用のパターン光の具体的なパターン及び数、パターン光の照射順等が含まれている。照射モードには、第1LCD31d及び第2LCD32dのみでパターン光を照射して測定対象物Wに投影する第1照射モードと、第1LCD31d、第2LCD32d、第3LCD33d及び第4LCD34dの全てでパターン光を投影する第2照射モードと、第3LCD33d及び第4LCD34dのみでパターン光を照射して測定対象物Wに投影する第3照射モードとが含まれている。 The pattern light formation information includes, for example, the irradiation mode, the presence or absence of irradiation of the pattern light for the spatial code, the specific pattern and number of the pattern light for the spatial code, the presence or absence of the irradiation of the pattern light for the phase shift method, The specific pattern and number of pattern lights for the phase shift method, the irradiation order of the pattern lights, and the like are included. The irradiation modes include a first irradiation mode in which only the first LCD 31d and the second LCD 32d irradiate the pattern light and project it onto the measurement object W, and a first irradiation mode in which the pattern light is projected on the measurement object W, and all of the first LCD 31d, the second LCD 32d, the third LCD 33d, and the fourth LCD 34d project the pattern light. A second irradiation mode and a third irradiation mode in which pattern light is irradiated only by the third LCD 33d and the fourth LCD 34d and projected onto the measurement object W are included.

(パターン光の照射順)
図11は、パターン光の照射順の例を示しており、また、図12は、パターン光の逆位相同士の投光間隔を示している。パターン光の照射順について説明する前に、外乱光の影響について図14及び図15に基づいて説明する。図14は、載置面100に載置された測定対象物Wの表面における外乱光の明るさの変化を経時的に示したグラフである。測定対象物Wの表面には、照明装置3から照射される光だけでなく、周囲に設置された別の照明装置から照射される光や太陽光が届くことがある。照明装置3以外から測定対象物Wの表面に照射される光は外乱光である。外乱光の光源と測定対象物Wとの間に一時的に物体が通過した場合や、外乱光の光源から照射される光の強度が変化した場合には、測定対象物Wの表面に照射される外乱光の明るさが変化することになる。この外乱光の明るさの変動は、図14に示すように、時間t1のときに変動幅がb1であったとすると、時間t2になると変動幅がb2に大幅に拡大する。つまり、時間が長くなればなるほど、測定対象物Wの表面に照射される外乱光の明るさの変動が大きくなる可能性がある。
(Irradiation order of pattern light)
FIG. 11 shows an example of the irradiation order of the pattern light, and FIG. 12 shows the light projection interval between the opposite phases of the pattern light. Before describing the irradiation order of the pattern light, the influence of ambient light will be described with reference to FIGS. 14 and 15. FIG. FIG. 14 is a graph showing changes over time in brightness of disturbance light on the surface of the measurement object W placed on the placement surface 100 . The surface of the object W to be measured may receive not only the light emitted from the illumination device 3 but also the light emitted from another illumination device installed in the surroundings or sunlight. The light irradiated onto the surface of the object W to be measured from other than the illumination device 3 is ambient light. When an object temporarily passes between the light source of the ambient light and the object W to be measured, or when the intensity of the light emitted from the light source of the ambient light changes, the surface of the object W is irradiated. This means that the brightness of the disturbance light that is generated changes. As shown in FIG. 14, the variation in the brightness of the disturbance light, if the variation width is b1 at time t1, greatly expands to b2 at time t2. That is, the longer the time, the greater the variation in the brightness of the ambient light with which the surface of the object W to be measured is irradiated.

この実施形態では、上述したように、1つの測定対象物Wに対して位相シフトしたパターン光を多数照射し、その都度、パターン画像を生成するので、1つの測定対象物Wを測定する時間が長くなる。したがって、外乱光の明るさの変動が大きくなりやすい。 In this embodiment, as described above, one measurement object W is irradiated with a large number of phase-shifted pattern lights, and a pattern image is generated each time. become longer. Therefore, fluctuations in the brightness of ambient light tend to increase.

外乱光の明るさの変動が大きくなると、図15に示すように、外乱光の明るさ変動によって生じる位相計算誤差が問題となる。この図に示すように、誤差は正弦波に近いうねり形状になり、この誤差の大きさが外乱光の明るさの変動度合いによって変動し、また、測定対象物Wの平面部においてこのような誤差が生じると規則的な波形となって現れ、使用者の目につきやすく、誤判定の原因となり得る。 As shown in FIG. 15, when the fluctuation of the brightness of the ambient light increases, the phase calculation error caused by the brightness of the ambient light becomes a problem. As shown in this figure, the error has an undulating shape close to a sine wave, and the magnitude of this error varies depending on the degree of fluctuation in the brightness of the ambient light. occurs, it appears as a regular waveform, which is conspicuous to the user and may cause erroneous determination.

特に、大型の撮像装置2の場合、外乱光がパターン光の光量比で大きくなりやすいので位相計算誤差が大きくなってしまうが、大型の撮像装置2になると遮光対策が取りにくく、外乱光の明るさ変動によって生じる誤差を減少させる必要性が高くなる。 In particular, in the case of a large imaging device 2, the amount of disturbance light tends to increase relative to the light amount ratio of the pattern light, resulting in a large phase calculation error. There is a growing need to reduce the errors caused by small fluctuations.

図11には、ある1方向についての撮像連番として、位相シフト投光0~7までの8つがある場合を示している。第1投光モードは、0°、45°、90°、135°、180°、225°、270°、315°の8つのパターンであり、これらが位相シフト投光0~7に対応している。従って、位相が0°のパターン光を投光した後、位相が45°のパターン光を投光、その後、位相が90°のパターン光を投光し、これを135°、180°、225°、270°、315°の順に繰り返す。位相シフトの回数は8回以外の回数であってもよく、例えば4回、6回等であってもよい。 FIG. 11 shows a case where there are 8 phase-shifted light projections 0 to 7 as imaging sequence numbers for a certain direction. The first projection mode has eight patterns of 0°, 45°, 90°, 135°, 180°, 225°, 270°, and 315°, which correspond to phase shift projections 0-7. there is Therefore, after projecting pattern light with a phase of 0°, pattern light with a phase of 45° is projected, and then pattern light with a phase of 90° is projected. , 270° and 315°. The number of phase shifts may be other than eight, and may be four, six, or the like.

図12は、図11に示した第1投光モードと第2投光モードのそれぞれについて、パターンを投影してから、逆位相のパターンが投影されるまでの時間間隔を示している。 FIG. 12 shows the time interval from the projection of the pattern to the projection of the opposite phase pattern for each of the first projection mode and the second projection mode shown in FIG.

第1投光モードの場合、図12に示すように、照明方向を切り替えない場合には、逆位相のパターンが撮像されるまでの撮像間隔が4撮像となり、これが2方向の照明を切り替えてパターンを位相シフトさせる場合だと8撮像、4方向毎だと16撮像、8方向毎だと32撮像になるので、逆位相となる撮像間隔が長くなる。よって、上述した外乱光の明るさ変動によって生じる誤差が顕著になりやすい。 In the case of the first light projection mode, as shown in FIG. 12, when the illumination direction is not switched, the imaging interval until the opposite phase pattern is imaged is 4 images. is phase-shifted, 8 images are taken, every 4 directions is 16 images, and every 8 directions is 32 images. Therefore, the error caused by the brightness variation of the disturbance light tends to become conspicuous.

互いに逆位相同士のパターンが投影される時間間隔が重要になるのは、以下の式によって位相計算を行うからである。尚、以下の式は、4回撮像を行った場合の式であるが、6回や8回などの4回以外のケースも、逆位相同士の差分が出てくる数式で記述できる。 The reason why the time interval between projections of patterns with opposite phases is important is that phase calculation is performed by the following equation. The following formula is a formula when imaging is performed 4 times, but cases other than 4 such as 6 times and 8 times can also be described by mathematical formulas that produce differences between opposite phases.

位相φ=tan-1{(I270°-I90°)/(I0°-I180°)}
この式で示すように、位相の計算では逆位相同士の差分が重要である。本実施形態では、パターン光の位相が逆位相となる撮像のタイミングを接近させるべく、即ち、パターン光の位相が逆位相となる2回の撮像時における外乱光の明るさ変動を極小化するべく、図11に示す第2投光モードでの投光を実行することが可能に構成されている。
Phase φ=tan −1 {(I 270° −I 90° )/(I −I 180° )}
As shown by this equation, the difference between opposite phases is important in phase calculation. In the present embodiment, in order to bring the timing of imaging at which the phase of the pattern light is opposite to each other, that is, to minimize the brightness fluctuation of the disturbance light during two imagings at which the phase of the pattern light is opposite to each other. , can execute light projection in the second light projection mode shown in FIG.

第2投光モードは、0°、180°、45°、225°、90°、270°、135°、315°の8つのパターンであり、これらが位相シフト投光0~7に対応している。従って、位相が0°のパターン光を投光した後、位相が180°のパターン光、即ち0°と逆位相のパターン光を投光、その後、位相が45°のパターン光を投光した後、位相が225°のパターン光、即ち45°と逆位相のパターン光を投光、その後、位相が90°のパターン光を投光した後、位相が270°のパターン光、即ち90°と逆位相のパターン光を投光、その後、位相が135°のパターン光を投光した後、位相が315°のパターン光、即ち135°と逆位相のパターン光を投光する。0°のパターン光と180°のパターン光が逆位相のペアになり、45°のパターン光と225°のパターン光が逆位相のペアになり、90°のパターン光と270°のパターン光が逆位相のペアになり、135°のパターン光と315°のパターン光が逆位相のペアになる。つまり、奇数番目に投光されるパターン光の位相と、偶数番目に投光されるパターン光の位相とが逆位相の関係になっている。 The second projection mode has eight patterns of 0°, 180°, 45°, 225°, 90°, 270°, 135°, and 315°, which correspond to phase shift projections 0-7. there is Therefore, after projecting pattern light with a phase of 0°, pattern light with a phase of 180°, that is, pattern light with a phase opposite to 0° is projected, and then pattern light with a phase of 45° is projected. , pattern light with a phase of 225°, i.e., pattern light with a phase opposite to 45°, is projected, then pattern light with a phase of 90° is projected, and then pattern light with a phase of 270°, i.e., pattern light with a phase opposite to 90°, is projected. A pattern light with a phase is projected, then a pattern light with a phase of 135° is projected, and then a pattern light with a phase of 315°, that is, a pattern light with a phase opposite to 135° is projected. The pattern light of 0° and the pattern light of 180° form an opposite phase pair, the pattern light of 45° and the pattern light of 225° form an opposite phase pair, and the pattern light of 90° and the pattern light of 270° form an opposite phase pair. A pair of opposite phases is formed, and the pattern light of 135° and the pattern light of 315° form a pair of opposite phases. In other words, the phase of the pattern light projected at the odd-numbered order and the phase of the pattern light projected at the even-numbered order are in an opposite phase relationship.

尚、パターン光の投光順は上述した順番に限られるものではなく、逆位相のペアを維持した状態であれば変更してもよい。例えば、パターン光の投光順としては、位相が0°、180°、45°、225°、270°、90°、135°、315°の順であってもよいし、0°、180°、225°、45°、90°、270°、315°、135°の順であってもよい。これらの場合もパターン光を逆位相連続で照射することができる。 The order of pattern light projection is not limited to the order described above, and may be changed as long as the pair of opposite phases is maintained. For example, the order of projection of the pattern light may be 0°, 180°, 45°, 225°, 270°, 90°, 135°, 315°, or 0°, 180° , 225°, 45°, 90°, 270°, 315°, 135°. In these cases as well, the pattern light can be irradiated continuously in opposite phases.

第2投光モードの場合、図12に示すように、照明方向を切り替えずに位相シフトするケースでは、逆位相のパターンが撮像されるまでの撮像間隔が1撮像となり、これが2方向毎だと2撮像、4方向毎だと4撮像、8方向毎だと8撮像になるので、パターン光が逆位相となる撮像間隔が短くなる。具体的には、第1投光位相の場合に比べて第2投光位相では逆位相となる撮像間隔が1/4になる。よって、上述した外乱光の明るさ変動によって生じる誤差が減少する。 In the case of the second projection mode, as shown in FIG. 12, in the case where the illumination direction is not switched but the phase is shifted, the imaging interval until the opposite phase pattern is imaged is one image. 2 imaging, 4 imaging for every 4 directions, and 8 imaging for every 8 directions, shorten the imaging interval at which the pattern light has the opposite phase. Specifically, the imaging interval at which the phase is reversed in the second light projection phase is 1/4 of that in the case of the first light projection phase. Therefore, the error caused by the brightness variation of the disturbance light described above is reduced.

図13は、1方向のみで撮像する場合と、2方向毎に位相シフトを切り替えて撮像する場合のタイミングチャートである。図13の上側が2方向毎に位相シフトを切り替える場合の例であり、図13の下側が1方向のみで撮像する場合の例である。2方向毎に位相シフトを切り替える場合は、ある方向(仮に上方向とする)から投光する場合に「位相シフト0」で投光して撮像が完了した後、上方向のLCDの切り替えを行う。上方向のLCDの切り替えを行う間に、投光方向を別の方向(仮に下方向とする)に切り替えて「位相シフト0」で投光して撮像する。上方向のLCDの切り替えが完了すると、上方向の「位相シフト1」を投光して撮像する。これが繰り返される。このように、2方向の場合は投光方向を切り替えながら、位相シフトも行うので、一方のLCDの切り替えを行っている間に他方のLCDによってパターン光を投光することができる。 FIG. 13 is a timing chart for imaging in only one direction and for imaging by switching the phase shift every two directions. The upper side of FIG. 13 is an example of switching the phase shift every two directions, and the lower side of FIG. 13 is an example of imaging in only one direction. When switching the phase shift for each of the two directions, when projecting light from a certain direction (assuming an upward direction), light is projected with "phase shift 0", and after completing imaging, the LCD in the upward direction is switched. . While switching the LCD in the upward direction, the light projection direction is switched to another direction (temporarily assumed to be the downward direction), and the light is projected with a "phase shift of 0" for imaging. When the switching of the upward LCD is completed, the upward "phase shift 1" is projected and an image is captured. This is repeated. Thus, in the case of two directions, since the phase shift is also performed while switching the projection direction, pattern light can be projected by the other LCD while the other LCD is being switched.

1方向のみで撮像する場合は、「位相シフト0」で投光して撮像が完了した後、そのLCDの切り替えを行う。LCDの切り替えが完了した後、「位相シフト1」を投光して撮像する。 When capturing an image in only one direction, the LCD is switched after the light is projected with "phase shift 0" and the image capturing is completed. After the switching of the LCD is completed, "phase shift 1" is projected and an image is captured.

位相誤差の減少について図16に示すグラフに基づいて説明する。上側のグラフの横軸は、外乱光の明るさの変動周期であり、パターン光の投光時間間隔比で示している。外乱光は、インパルス的な変動外乱光、ここでは正弦半波という信号を外乱光として仮定している。横軸の右に行くほどゆっくりとした外乱光変動になる。撮像が高速であるため、一般的に起こり得る変動外乱光はグラフのかなり右寄りの部分に近い。グラフの縦軸は、位相誤差である。第2投光位相(逆位相連続)の場合は、外乱光の明るさの変動周期が投光時間間隔比で3を超えたあたりから、第1投光位相(45°間隔)に比べて位相誤差が大幅に減少し、グラフの右寄りの領域においても位相誤差を減少させることができる。図16の下側のグラフについては、横軸は上側のグラフの横軸と同じであるが、縦軸は位相誤差を第1投光位相と第2投光位相との比で表している。第2投光位相の場合は、外乱光の明るさの変動周期が投光時間間隔比で4を超えたあたりから、第1投光位相に比べて位相誤差が30%以下に減少する。これにより、遮光対策を施すことなく、また、撮像装置2にバンドパスフィルタを適用するといった対策を採ることなく、位相誤差を極小化することができ、その結果、検査精度を高めることができるとともに、検査の安定性を高めることができる。 A reduction in phase error will be described based on the graph shown in FIG. The horizontal axis of the upper graph represents the fluctuation period of the brightness of the ambient light, which is indicated by the light projection time interval ratio of the pattern light. The disturbance light is assumed to be impulse-like fluctuating disturbance light, here a signal of a sine half wave is assumed as the disturbance light. The fluctuation of ambient light becomes slower toward the right side of the horizontal axis. Due to the high speed of imaging, generally possible fluctuating ambient light is close to the far right part of the graph. The vertical axis of the graph is the phase error. In the case of the second projection phase (continuous opposite phase), when the fluctuation period of the brightness of the disturbance light exceeds 3 in the projection time interval ratio, the phase The error is greatly reduced, and the phase error can be reduced even in the area on the right side of the graph. The horizontal axis of the lower graph in FIG. 16 is the same as the horizontal axis of the upper graph, but the vertical axis represents the phase error as the ratio between the first projection phase and the second projection phase. In the case of the second light projection phase, the phase error decreases to 30% or less compared to the first light projection phase when the fluctuation period of the brightness of the disturbance light exceeds 4 in terms of the light projection time interval ratio. As a result, the phase error can be minimized without taking countermeasures against light shielding or applying a band-pass filter to the imaging device 2, and as a result, the inspection accuracy can be improved. , can increase the stability of the inspection.

(撮像装置2の構成)
図1等に示すように、撮像装置2は、照明装置3とは別体に設けられている。図1に示すように撮像装置2とコントローラ部4とは接続線2aによって接続されているが、撮像装置2とコントローラ部4とは無線接続するようにしてもよい。
(Configuration of imaging device 2)
As shown in FIG. 1 and the like, the imaging device 2 is provided separately from the illumination device 3 . As shown in FIG. 1, the imaging device 2 and the controller section 4 are connected by a connection line 2a, but the imaging device 2 and the controller section 4 may be wirelessly connected.

撮像装置2は、画像処理装置1の一部を構成するものであることから、撮像部ということもできる。撮像装置2が照明装置3とは別体に設けられているので、撮像装置2と照明装置3とを別々に設置することができる。よって、撮像装置2の設置場所と照明装置3の設置場所とを変えること、撮像装置2の設置場所と照明装置3の設置場所とを離すことができる。これにより、撮像装置2及び照明装置3の設置時の自由度を大きく向上させ、あらゆる生産現場等へ画像処理装置1を導入することが可能になる。 Since the imaging device 2 constitutes a part of the image processing device 1, it can also be called an imaging unit. Since the imaging device 2 is provided separately from the lighting device 3, the imaging device 2 and the lighting device 3 can be installed separately. Therefore, the installation location of the imaging device 2 and the installation location of the lighting device 3 can be changed, and the installation location of the imaging device 2 and the installation location of the lighting device 3 can be separated. As a result, the degree of freedom in installing the imaging device 2 and the lighting device 3 can be greatly improved, and the image processing device 1 can be introduced to any production site or the like.

尚、撮像装置2の設置場所と照明装置3の設置場所と同じにすることができる現場であれば、撮像装置2と照明装置3とを同じ部材に取り付けることもでき、設置状態は使用者が現場に応じて任意に変更することができる。また、撮像装置2と照明装置3とを同じ部材に取り付けて一体化して使用することもできる。 In addition, if the installation location of the imaging device 2 and the installation location of the lighting device 3 can be the same at the site, the imaging device 2 and the lighting device 3 can be attached to the same member, and the installation state can be determined by the user. It can be arbitrarily changed according to the site. Also, the imaging device 2 and the lighting device 3 can be attached to the same member and used as an integrated unit.

撮像装置2は、照明装置3の照明ハウジング30の上方、即ちパターン光の出射方向とは反対側において、照明ハウジング30の開口部30aを覗くように配置されている。したがって、撮像装置2は、照明装置3の照明ハウジング30の開口部30aを介して、測定対象物Wから反射した第1測定用パターン光を受光して複数の第1パターン画像を生成するとともに、測定対象物Wから反射した第2測定用パターン光を受光して複数の第2パターン画像を生成することができる。また、照明装置3が第3投光部33及び第4投光部34を有している場合には、撮像装置2は、照明装置3の照明ハウジング30の開口部30aを介して、測定対象物Wから反射した第3測定用パターン光を受光して複数の第3パターン画像を生成するとともに、測定対象物Wから反射した第4測定用パターン光を受光して複数の第4パターン画像を生成することができる。同様に、第5~第8投光部35~38を有している場合には、第5~第8パターン画像を生成することもできる。 The imaging device 2 is arranged above the lighting housing 30 of the lighting device 3, that is, on the side opposite to the direction in which the pattern light is emitted, so as to look into the opening 30a of the lighting housing 30. As shown in FIG. Therefore, the imaging device 2 receives the first measurement pattern light reflected from the measurement object W through the opening 30a of the illumination housing 30 of the illumination device 3 to generate a plurality of first pattern images, A plurality of second pattern images can be generated by receiving the second measurement pattern light reflected from the measurement object W. FIG. Further, when the lighting device 3 has the third light projecting section 33 and the fourth light projecting section 34 , the image capturing device 2 projects the measurement target through the opening 30 a of the lighting housing 30 of the lighting device 3 . A plurality of third pattern images are generated by receiving the third pattern light for measurement reflected from the object W, and a plurality of fourth pattern images are generated by receiving the fourth pattern light for measurement reflected from the object W to be measured. can be generated. Similarly, when the fifth to eighth light projection units 35 to 38 are provided, the fifth to eighth pattern images can be generated.

図3に示すように、撮像装置2は、光学系を構成するレンズ21と、レンズ21から入射した光を受光する受光素子からなる撮像素子22とを備えており、レンズ21及び撮像素子22によって、いわゆるカメラが構成されている。レンズ21は、測定対象物W上の少なくとも高さ測定エリアまたは検査対象エリアを撮像素子22に結像させるための部材である。レンズ21の光軸と、照明装置3の照明ハウジング30の開口部30aの中心軸Aとを一致させてもよいが、一致させなくてもよい。また、撮像装置2と照明装置3との中心軸A方向の距離は、撮像装置2による撮像を照明装置3が妨げない範囲で任意に設定することができ、設置の自由度が高く設計されている。 As shown in FIG. 3, the imaging device 2 includes a lens 21 that forms an optical system, and an imaging device 22 that is a light-receiving device that receives light incident from the lens 21 . , a so-called camera is configured. The lens 21 is a member for forming an image of at least a height measurement area or an inspection target area on the measurement object W on the imaging device 22 . The optical axis of the lens 21 may be aligned with the central axis A of the opening 30a of the illumination housing 30 of the lighting device 3, but they do not have to be aligned. In addition, the distance between the imaging device 2 and the lighting device 3 in the direction of the central axis A can be set arbitrarily within a range in which the lighting device 3 does not interfere with the imaging by the imaging device 2, and is designed with a high degree of freedom in installation. there is

また、撮像素子22としては、CCDやCMOSセンサ等を利用することができる。撮像素子22は、測定対象物Wからの反射光を受光して画像を取得し、取得した画像データをデータ処理部24に出力する。この例では撮像素子22として高解像度のCMOSセンサを利用している。尚、カラーで撮像可能な撮像素子を利用することもできる。撮像素子22は、パターン投影画像以外に、通常の輝度画像を撮像することもできる。通常の輝度画像を撮像する場合には、前記照明装置3の全てのLED31b、32b、33b、34bを点灯させるとともに、パターン光を形成しないように全てのLCD31d、32d、33d、34dを制御すればよい。図5及び図6に示すような一様光用照明50がある場合にはそれを利用して通常の輝度画像を撮像装置2で撮像することもできる。 Also, as the imaging element 22, a CCD, a CMOS sensor, or the like can be used. The imaging device 22 receives the reflected light from the object W to be measured, acquires an image, and outputs the acquired image data to the data processing unit 24 . In this example, a high resolution CMOS sensor is used as the imaging device 22 . It is also possible to use an imaging device capable of capturing images in color. The imaging device 22 can also capture a normal luminance image in addition to the pattern projection image. When capturing a normal luminance image, all the LEDs 31b, 32b, 33b, and 34b of the illumination device 3 are turned on, and all the LCDs 31d, 32d, 33d, and 34d are controlled so as not to form pattern light. good. If there is a uniform light illumination 50 as shown in FIGS. 5 and 6, it can be used to capture a normal luminance image with the imaging device 2. FIG.

撮像装置2は、前記カラーカメラの他、露光制御部23と、データ処理部24と、位相計算部26と、画像処理部27と、画像記憶部28と、出力制御部29とを更に備えている。データ処理部24、位相計算部26、画像処理部27及び画像記憶部28は、撮像装置2に内蔵されている共通のバスライン25に接続されていて相互にデータの送受信が可能になっている。露光制御部23、データ処理部24、位相計算部26、画像処理部27、画像記憶部28及び出力制御部29は、ハードウェアで構成することもできるし、ソフトウェアで構成することもできる。 The imaging device 2 further includes an exposure control unit 23, a data processing unit 24, a phase calculation unit 26, an image processing unit 27, an image storage unit 28, and an output control unit 29, in addition to the color camera. there is The data processing unit 24, the phase calculation unit 26, the image processing unit 27, and the image storage unit 28 are connected to a common bus line 25 built in the imaging device 2, and are capable of transmitting and receiving data to each other. . The exposure control section 23, the data processing section 24, the phase calculation section 26, the image processing section 27, the image storage section 28 and the output control section 29 can be configured by hardware or by software.

(露光制御部23の構成)
露光制御部23には、コントローラ部4から、撮像を開始するトリガ信号と、撮像中に照明装置3との同期を取るための再同期トリガ信号とが入力されるようになっている。露光制御部23に入力されるトリガ信号及び再同期トリガ信号は、照明装置3に入力されるトリガ信号及び再同期トリガ信号と同じタイミングとなるように、入力タイミングが設定されている。
(Configuration of Exposure Control Unit 23)
A trigger signal for starting imaging and a resynchronization trigger signal for synchronizing with the illumination device 3 during imaging are input to the exposure control section 23 from the controller section 4 . Input timings of the trigger signal and the resynchronization trigger signal input to the exposure control unit 23 are set so as to be the same timings as the trigger signal and the resynchronization trigger signal input to the illumination device 3 .

露光制御部23は、撮像素子22を直接制御する部分であり、露光制御部23に入力されたトリガ信号及び再同期トリガ信号によって撮像素子22の撮像タイミング及び露光時間を制御する。露光制御部23には、コントローラ部4から撮像条件に関する情報が入力されて記憶されるようになっている。撮像条件に関する情報には、例えば、撮像回数、撮像間隔(撮像後、次の撮像を行うまでの時間)、撮像時の露光時間(シャッタースピード)等が含まれている。 The exposure control unit 23 is a part that directly controls the imaging device 22, and controls the imaging timing and exposure time of the imaging device 22 by the trigger signal and the resynchronization trigger signal input to the exposure control unit 23. The exposure control unit 23 is configured to receive and store information about imaging conditions from the controller unit 4 . The information about the imaging conditions includes, for example, the number of imaging times, the imaging interval (the time after imaging until the next imaging), the exposure time (shutter speed) at the time of imaging, and the like.

コントローラ部4から送出されるトリガ信号の入力によって露光制御部23が撮像素子22に撮像を開始させる。この実施形態では、1回のトリガ信号の入力によって複数のパターン画像を生成する必要があることから、撮像中に再同期トリガ信号がコントローラ部4から入力され、この再同期トリガ信号の入力によって照明装置3との同期を取ることができるようになっている。 The exposure control section 23 causes the imaging device 22 to start imaging in response to the input of the trigger signal sent from the controller section 4 . In this embodiment, since it is necessary to generate a plurality of pattern images by inputting a single trigger signal, a resynchronization trigger signal is input from the controller unit 4 during imaging. Synchronization with the device 3 is possible.

具体的には、第1LCD31d上に完全に形成されているパターンがパターン光として測定対象物Wに投影されている間に、撮像素子22が撮像(露光)するように、露光制御部23が撮像素子22を制御する。露光時間と、パターンがパターン光として測定対象物Wに投影されている時間とは、同じにすることができるが、露光開始のタイミングを、パターン光が投影開始されたタイミングよりも若干遅くしてもよい。 Specifically, while the pattern completely formed on the first LCD 31 d is projected onto the measurement object W as pattern light, the exposure control unit 23 takes an image so that the image sensor 22 takes an image (exposure). Control the element 22 . The exposure time and the time during which the pattern is projected onto the object W to be measured as pattern light can be the same, but the timing at which the exposure is started can be slightly later than the timing at which the pattern light is started to be projected. good too.

その後、第2LCD32d上に形成されているパターンがパターン光として測定対象物Wに投影されている間に、撮像素子22が撮像するように、露光制御部23が撮像素子22を制御する。この撮像が完了すると、第3LCD33d上に形成されているパターンがパターン光として測定対象物Wに投影されている間に、撮像素子22が撮像するように、露光制御部23が撮像素子22を制御する。その後、第4LCD34d上に形成されているパターンがパターン光として測定対象物Wに投影されている間に、撮像素子22が撮像するように、露光制御部23が撮像素子22を制御する。これを繰り返すことにより、複数の第1パターン画像、複数の第2パターン画像、複数の第3パターン画像及び複数の第4パターン画像を生成する。 After that, while the pattern formed on the second LCD 32d is projected onto the object W to be measured as pattern light, the exposure control unit 23 controls the imaging device 22 so that the imaging device 22 takes an image. When this imaging is completed, the exposure control unit 23 controls the imaging device 22 so that the imaging device 22 takes an image while the pattern formed on the third LCD 33d is projected onto the measurement object W as pattern light. do. After that, while the pattern formed on the fourth LCD 34d is projected onto the object W to be measured as pattern light, the exposure control unit 23 controls the imaging device 22 so that the imaging device 22 takes an image. By repeating this, a plurality of first pattern images, a plurality of second pattern images, a plurality of third pattern images, and a plurality of fourth pattern images are generated.

撮像素子22は、撮像を完了すると、その都度、画像データをデータ処理部24に転送する。尚、画像データは、図3に示す画像記憶部28に記憶させておくことができる。すなわち、撮像素子22による撮像タイミングと、コントローラ部4の画像の要求タイミングとは一致していないので、このズレを吸収するバッファとして画像記憶部28が機能するようになっている。 The imaging device 22 transfers the image data to the data processing unit 24 each time it completes imaging. The image data can be stored in the image storage section 28 shown in FIG. That is, since the image pickup timing by the image pickup device 22 and the image request timing of the controller unit 4 do not match, the image storage unit 28 functions as a buffer that absorbs this discrepancy.

撮像と次の撮像との間に、画像データを図3に示すデータ処理部24に転送するようにしているが、これに限らず、例えば、撮像とデータ転送とを並行して行うこともできる。あるパターン光が照射されている測定対象物Wの撮像が完了すると、次のパターンのパターン光が照射されている測定対象物Wの撮像を行っているときに、前のパターンの画像データをデータ処理部24に転送する。このように、前回撮像した画像データを次の撮像時にデータ処理部24に転送することもできる。 The image data is transferred to the data processing unit 24 shown in FIG. 3 between the imaging and the next imaging. . When the image of the measurement object W irradiated with a certain pattern of light is completed, the image data of the previous pattern is stored while the image of the measurement object W irradiated with the next pattern of light is being imaged. Transfer to the processing unit 24 . In this manner, the image data captured last time can be transferred to the data processing unit 24 at the time of the next image capturing.

また、あるパターンのパターン光が照射されている測定対象物Wを複数回撮像することもできる。この場合、第1LED31bは、撮像素子22による撮像時にのみ点灯させることができる。撮像素子22の露光時間は、1回目の撮像時が2回目の撮像時よりも長くなるように設定することができるが、2回目の撮像時が1回目の撮像時よりも長くなるように設定することもできる。他のパターンのパターン光が照射されている測定対象物Wを撮像するときも、複数回撮像できる。これにより、複数のパターン光の内の一のパターン光が測定対象物Wに投影されている間に、露光時間が異なる複数の画像を生成することができる。この露光時間が異なる複数の画像は、後述するハイダイナミックレンジ処理を行う際に使用される。尚、あるパターンのパターン光が照射されている測定対象物Wを複数回撮像する間、第1LED31bを点灯させ続けてもよい。 Further, it is also possible to image the measurement object W irradiated with pattern light of a certain pattern a plurality of times. In this case, the first LED 31b can be lit only when the imaging element 22 takes an image. The exposure time of the imaging element 22 can be set so that the first imaging is longer than the second imaging, and the second imaging is set to be longer than the first imaging. You can also When capturing an image of the measurement object W irradiated with pattern light of other patterns, the image can be captured multiple times. Thereby, while one pattern light among the plurality of pattern lights is being projected onto the measurement object W, a plurality of images with different exposure times can be generated. A plurality of images with different exposure times are used when performing high dynamic range processing, which will be described later. It should be noted that the first LED 31b may be kept on while the measurement object W irradiated with the pattern light of a certain pattern is imaged a plurality of times.

(データ処理部24の構成)
図3に示すデータ処理部24は、撮像素子22から出力される画像データに基づいて複数のパターン画像セットを生成する。撮像素子22が第1パターン画像を複数生成すると、データ処理部24は、複数の第1パターン画像からなる第1パターン画像セットを生成する。同様に、複数の第2パターン画像からなる第2パターン画像セットを生成し、複数の第3パターン画像からなる第3パターン画像セットを生成し、複数の第4パターン画像からなる第4パターン画像セットを生成する。したがって、撮像装置2は、各液晶パネルから投影された複数のパターン光の測定対象物Wからの反射光をそれぞれ受光し、各液晶パネルにそれぞれ対応する複数のパターン画像セットを生成することができる。
(Configuration of data processing unit 24)
The data processing unit 24 shown in FIG. 3 generates a plurality of pattern image sets based on the image data output from the imaging element 22. FIG. When the imaging device 22 generates a plurality of first pattern images, the data processing section 24 generates a first pattern image set consisting of a plurality of first pattern images. Similarly, generating a second pattern image set consisting of a plurality of second pattern images, generating a third pattern image set consisting of a plurality of third pattern images, and generating a fourth pattern image set consisting of a plurality of fourth pattern images to generate Therefore, the imaging device 2 can receive the reflected light from the measurement object W of the plurality of pattern lights projected from each liquid crystal panel, and generate a plurality of pattern image sets corresponding to each liquid crystal panel. .

第1LCD31d及び第2LCD32dのみでパターン光を投影する場合には、第1パターン画像セットと第2パターン画像セットとが生成される。第3LCD33d及び第4LCD34dのみでパターン光を投影する場合には、第3パターン画像セットと第4パターン画像セットとが生成される。 When pattern light is projected only by the first LCD 31d and the second LCD 32d, a first pattern image set and a second pattern image set are generated. When pattern light is projected only by the third LCD 33d and the fourth LCD 34d, a third pattern image set and a fourth pattern image set are generated.

データ処理部24は、位相シフト法にしたがうパターン光の投影によって位相シフトパターン画像セットを生成するとともに、空間コード法にしたがうパターン光の投影によってグレーコードパターン画像セットを生成することができる。 The data processing unit 24 can generate a phase shift pattern image set by projecting pattern light according to the phase shift method, and can generate a gray code pattern image set by projecting pattern light according to the spatial code method.

位相シフト法にしたがうパターン光は、照度分布を例えば正弦波状に変動させたパターン光であるが、これ以外のパターン光であってもよい。この実施形態では、位相シフト法にしたがうパターン光の数を8としているが、これに限られるものではない。一方、空間コード法にしたがうパターン光は、白黒デューティ比50%で縞幅が全体の半分、4分の1、…と細かくなっていく縞パターンである。この実施形態では、空間コード法にしたがうパターン光の数を4としているが、これに限られるものではない。尚、この例で説明しているパターンは、グレーコードを空間コードとして利用する場合であり、縞幅を半々にしていくことによってパターン光を形成するのはグレーコードの目的ではないが、結果としてそうなっているだけである。またグレーコードは、隣接コードとのハミング距離=1とすることでノイズ耐性を考慮したコード方式の一種である。 The pattern light according to the phase shift method is pattern light whose illuminance distribution is varied, for example, in a sinusoidal shape, but other pattern light may be used. In this embodiment, the number of pattern lights according to the phase shift method is eight, but the number is not limited to this. On the other hand, the pattern light according to the spatial code method is a striped pattern in which the striped width is reduced to half, quarter, . In this embodiment, the number of pattern lights according to the spatial code method is four, but the number is not limited to this. The pattern explained in this example is a case where the gray code is used as a spatial code, and it is not the purpose of the gray code to form pattern light by dividing the stripe width in half, but as a result It just happens. Also, the Gray code is a kind of code system in which noise resistance is taken into account by setting the Hamming distance to 1 between adjacent codes.

図17に示すように、照明装置3の第1投光部31が空間コード法にしたがう4つのパターン光を測定対象物Wに照射した場合には、データ処理部24が4つの異なる画像からなるグレーコードパターン画像セットを生成する。また、照明装置3の第1投光部31が位相シフト法にしたがう8つのパターン光を測定対象物Wに照射した場合には、データ処理部24が8つの異なる画像からなる位相シフトパターン画像セットを生成する。第1投光部31によるパターン光の照射によって得られたグレーコードパターン画像セット及び位相シフトパターン画像セットは、共に、第1パターン画像セットである。 As shown in FIG. 17, when the first light projecting unit 31 of the illumination device 3 irradiates the measurement object W with four pattern lights according to the spatial code method, the data processing unit 24 consists of four different images. Generate a set of gray code pattern images. Further, when the first light projecting unit 31 of the illumination device 3 irradiates the measuring object W with eight pattern lights according to the phase shift method, the data processing unit 24 generates a phase shift pattern image set consisting of eight different images. to generate Both the gray code pattern image set and the phase shift pattern image set obtained by irradiation of the pattern light by the first light projecting section 31 are the first pattern image set.

同様に、照明装置3の第2投光部32が空間コード法にしたがうパターン光を測定対象物Wに照射した場合には、グレーコードパターン画像セットが生成され、また、位相シフト法にしたがうパターン光を測定対象物Wに照射した場合には、位相シフトパターン画像セットが生成される。第2投光部32によるパターン光の照射によって得られたグレーコードパターン画像セット及び位相シフトパターン画像セットは、共に、第2パターン画像セットである。 Similarly, when the second light projecting unit 32 of the illumination device 3 irradiates the object W to be measured with pattern light according to the spatial code method, a gray code pattern image set is generated and a pattern according to the phase shift method is generated. When light is applied to the measurement object W, a phase shift pattern image set is generated. Both the gray code pattern image set and the phase shift pattern image set obtained by irradiation of the pattern light by the second light projecting section 32 are the second pattern image set.

同様に、照明装置3の第3投光部33が空間コード法にしたがうパターン光を測定対象物Wに照射した場合には、グレーコードパターン画像セットが生成され、また、位相シフト法にしたがうパターン光を測定対象物Wに照射した場合には、位相シフトパターン画像セットが生成される。第3投光部33によるパターン光の照射によって得られたグレーコードパターン画像セット及び位相シフトパターン画像セットは、共に、第3パターン画像セットである。 Similarly, when the third light projecting unit 33 of the illumination device 3 irradiates the object W to be measured with pattern light according to the spatial code method, a gray code pattern image set is generated and a pattern according to the phase shift method is generated. When light is applied to the measurement object W, a phase shift pattern image set is generated. Both the gray code pattern image set and the phase shift pattern image set obtained by irradiation of the pattern light by the third light projecting section 33 are the third pattern image set.

同様に、照明装置3の第4投光部34が空間コード法にしたがうパターン光を測定対象物Wに照射した場合には、グレーコードパターン画像セットが生成され、また、位相シフト法にしたがうパターン光を測定対象物Wに照射した場合には、位相シフトパターン画像セットが生成される。第4投光部34によるパターン光の照射によって得られたグレーコードパターン画像セット及び位相シフトパターン画像セットは、共に、第4パターン画像セットである。 Similarly, when the fourth light projecting unit 34 of the illumination device 3 irradiates the object W to be measured with pattern light according to the spatial code method, a gray code pattern image set is generated and a pattern according to the phase shift method is generated. When light is applied to the measurement object W, a phase shift pattern image set is generated. Both the gray code pattern image set and the phase shift pattern image set obtained by irradiation of the pattern light by the fourth light projecting section 34 are the fourth pattern image set.

前記各パターン画像セットは、図3に示す画像記憶部28に記憶させておくことができる。 Each pattern image set can be stored in the image storage unit 28 shown in FIG.

図3に示すように、データ処理部24は、HDR処理部24aを有している。HDR処理とは、ハイダイナミックレンジ(high dynamic range imaging)合成処理のことであり、このHDR処理部24aにおいて、露光時間が異なる複数の画像を合成する。すなわち、上述したように、あるパターンのパターン光が照射されている測定対象物Wを、露光時間を変えて複数回撮像した場合には、露光時間の異なる複数の輝度画像が得られることになり、これら輝度画像を合成することで各輝度画像のダイナミックレンジよりも広いダイナミックレンジを有する画像を生成することができる。HDR合成の手法については従来から周知の手法を用いることができる。露光時間を変化させる代わりに、照射する光の強度を変化させることによって明るさの異なる複数の輝度画像を得て、これら輝度画像を合成してもよい。 As shown in FIG. 3, the data processing section 24 has an HDR processing section 24a. HDR processing is high dynamic range imaging synthesis processing, and the HDR processing unit 24a synthesizes a plurality of images with different exposure times. That is, as described above, when the measurement object W irradiated with pattern light of a certain pattern is imaged a plurality of times with different exposure times, a plurality of luminance images with different exposure times are obtained. By synthesizing these luminance images, an image having a dynamic range wider than that of each luminance image can be generated. A conventionally well-known method can be used for the HDR synthesis method. Instead of changing the exposure time, a plurality of luminance images with different brightness may be obtained by changing the intensity of the radiated light, and these luminance images may be synthesized.

(位相計算部26の構成)
図3に示す位相計算部26は、高さ画像の元データとなる絶対位相画像を算出する部分である。図18に示すように、ステップSA1において、位相シフトパターン画像セットの各画像データを取得し、位相シフト法を利用することにより、相対位相計算処理を行う。これは相対位相(Unwrapping前位相)のように表現することができ、ステップSA1の相対位相計算処理により位相画像が得られる。
(Configuration of Phase Calculation Unit 26)
The phase calculator 26 shown in FIG. 3 is a part that calculates an absolute phase image that is the original data of the height image. As shown in FIG. 18, in step SA1, each image data of the phase shift pattern image set is obtained, and relative phase calculation processing is performed by using the phase shift method. This can be expressed as a relative phase (pre-unwrapping phase), and a phase image is obtained by the relative phase calculation processing in step SA1.

一方、図18のステップSA3において、グレーコードパターン画像セットの各画像データを取得し、空間コード法を利用することにより、空間コード算出処理を行い、縞番号画像を得る。縞番号画像は、光が照射される空間を多数の小空間に分けた場合に、小空間に一連の空間コード番号を付して識別可能にした画像である。 On the other hand, at step SA3 in FIG. 18, each image data of the gray code pattern image set is acquired, and the spatial code calculation process is performed by using the spatial code method to obtain the stripe number image. The fringe number image is an image that is made identifiable by assigning a series of space code numbers to the small spaces when the space irradiated with light is divided into a large number of small spaces.

図18のステップSA4では絶対位相位相化処理を行う。絶対位相位相化処理では、ステップSA1において得られた位相画像と、ステップSA3において得られた縞番号画像とを合成(Unwrapping)して絶対位相画像(中間画像)を生成する。つまり、空間コード法によって得た空間コード番号により、位相シフト法による位相ジャンプの補正(位相アンラップ)ができるので、高さのダイナミックレンジを広く確保しつつ、高分解能な測定結果を得ることができる。 At step SA4 in FIG. 18, absolute phase phasing processing is performed. In the absolute phase phasing process, the phase image obtained in step SA1 and the fringe number image obtained in step SA3 are synthesized (unwrapped) to generate an absolute phase image (intermediate image). In other words, the spatial code number obtained by the spatial code method can be used to correct the phase jump (phase unwrap) by the phase shift method, so it is possible to obtain high-resolution measurement results while ensuring a wide dynamic range of height. .

位相シフト法のみで高さ測定を行うようにしてもよい。この場合は、高さの測定ダイナミックレンジが狭くなるので、位相が1周期以上ずれてしまうような高さの相違が大きい測定対象物Wの場合は、高さの測定が正しく行えない。逆に、高さの変化が小さな測定対象物Wの場合は、空間コード法による縞画像の撮像や合成を行わないので、その分だけ処理を高速化することができるメリットがある。例えば、高さ方向の差異が少ない測定対象物Wを測定する際には、ダイナミックレンジを大きく取る必要がないため、位相シフト法のみでも高精度な高さ測定性能を維持しつつ、処理時間を短くすることができる。また、絶対高さは判るので空間コード法のみで高さ測定するように構成してもよい。この場合、コードを増やすことによって精度を高めることができる。 Height measurement may be performed only by the phase shift method. In this case, the height measurement dynamic range is narrowed, so that the height cannot be measured correctly in the case of an object W having a large difference in height such that the phase shifts by one period or more. Conversely, in the case of the object W to be measured that has a small change in height, the striped image is not picked up or synthesized by the spatial code method, so there is the advantage of speeding up the processing accordingly. For example, when measuring an object W that has little difference in the height direction, it is not necessary to take a large dynamic range. can be shortened. Also, since the absolute height is known, the height may be measured only by the spatial code method. In this case, the accuracy can be improved by increasing the code.

また、図18のステップSA2では、位相シフトパターン画像セットの各画像データを取得し、信頼度画像算出処理を行う。信頼度画像算出処理では、位相信頼性を示す信頼度画像を算出する。これは無効画素の判定に利用することができる画像である。 Further, at step SA2 in FIG. 18, each image data of the phase shift pattern image set is obtained, and reliability image calculation processing is performed. In the reliability image calculation process, a reliability image indicating phase reliability is calculated. This is an image that can be used to determine invalid pixels.

前記位相画像、縞番号画像及び信頼度画像は、図3に示す画像記憶部28に記憶させておくことができる。 The phase image, fringe number image and reliability image can be stored in the image storage unit 28 shown in FIG.

位相計算部26が生成する絶対位相画像は、各画素が測定対象物Wへの測定用パターン光の照射角度情報を有する角度画像ということもできる。すなわち、第1パターン画像セット(位相シフトパターン画像セット)には、正弦波縞模様パターンの位相をずらして撮像した8枚の第1パターン画像が含まれているので、位相シフト法を利用することによって測定対象物Wへの測定用パターン光の照射角度情報を各画素が有することになる。つまり、位相計算部26は、複数の第1パターン画像に基づいて、各画素が測定対象物Wへの第1測定用パターン光の照射角度情報を有する第1角度画像を生成する部分であるので、角度画像生成部ということもできる。第1角度画像は、第1LED31bから測定対象物Wへ照射される光の角度を画像化した画像である。 The absolute phase image generated by the phase calculator 26 can also be said to be an angle image in which each pixel has irradiation angle information of the pattern light for measurement onto the object W to be measured. That is, since the first pattern image set (phase shift pattern image set) includes eight first pattern images obtained by shifting the phase of the sinusoidal fringe pattern, the phase shift method can be used. Thus, each pixel has irradiation angle information of the pattern light for measurement to the object W to be measured. In other words, the phase calculator 26 is a part that generates a first angle image in which each pixel has irradiation angle information of the first measurement pattern light onto the measurement object W based on a plurality of first pattern images. , can also be called an angle image generator. The first angle image is an image of the angle of the light emitted from the first LED 31b to the object W to be measured.

同様に、位相計算部26は、複数の第2パターン画像に基づいて各画素が測定対象物Wへの第2測定用パターン光の照射角度情報を有する第2角度画像と、複数の第3パターン画像に基づいて各画素が測定対象物Wへの第3測定用パターン光の照射角度情報を有する第3角度画像と、複数の第4パターン画像に基づいて各画素が測定対象物Wへの第4測定用パターン光の照射角度情報を有する第4角度画像とを生成することができる。第2角度画像は、第2LED32bから測定対象物Wへ照射される光の角度を画像化した画像である。第3角度画像は、第3LED33bから測定対象物Wへ照射される光の角度を画像化した画像である。第4角度画像は、第4LED34bから測定対象物Wへ照射される光の角度を画像化した画像である。図17における中間画像の最も上の画像が第1角度画像であり、上から2番目の画像が第2角度画像であり、上から3番目の画像が第3角度画像であり、一番下の画像が第4角度画像である。各角度画像の真っ黒に塗りつぶされたように見える部分が照明(前記各LED)の影になっている部分であり、角度情報の無い無効画素となる。 Similarly, the phase calculator 26 calculates a second angle image in which each pixel has irradiation angle information of the second measurement pattern light on the measurement object W based on the plurality of second pattern images, and a plurality of third pattern images. A third angle image in which each pixel has irradiation angle information of the third measurement pattern light to the measurement object W based on the image, A fourth angle image having irradiation angle information of the four measurement pattern lights can be generated. The second angle image is an image of the angle of the light emitted from the second LED 32b to the object W to be measured. The third angle image is an image obtained by imaging the angle of the light emitted from the third LED 33b to the object W to be measured. The fourth angle image is an image of the angle of the light emitted from the fourth LED 34b to the object W to be measured. The uppermost image of the intermediate images in FIG. 17 is the first angle image, the second image from the top is the second angle image, the third image from the top is the third angle image, and the bottom image is the third angle image. The image is the fourth angle image. The parts of each angle image that appear to be blacked out are the parts that are shaded by the lighting (each of the LEDs), and are invalid pixels without angle information.

(画像処理部27の構成)
画像処理部27は、前記各パターン画像、位相画像、縞番号画像及び信頼度画像に対して、例えば、ガンマ補正、ホワイトバランスの調整、ゲイン補正等の画像処理を行う部分である。画像処理後の各パターン画像、位相画像、縞番号画像及び信頼度画像を画像記憶部28に記憶させておくこともできる。画像処理は上述した処理に限られるものではない。
(Configuration of image processing unit 27)
The image processing unit 27 is a part that performs image processing such as gamma correction, white balance adjustment, and gain correction on each of the pattern images, phase images, stripe number images, and reliability images. Each pattern image, phase image, fringe number image, and reliability image after image processing can be stored in the image storage unit 28 . Image processing is not limited to the processing described above.

(出力制御部29の構成)
出力制御部29は、コントローラ部4から出力された画像出力要求信号を受信すると、その画像出力要求信号に従い、画像記憶部28に記憶されている画像の内、画像出力要求信号で指示された画像のみ、画像処理部27を介してコントローラ部4に出力する部分である。この例では、画像処理前の各パターン画像、位相画像、縞番号画像及び信頼度画像を画像記憶部28に記憶させておき、コントローラ部4からの画像出力要求信号で要求された画像に対してのみ、画像処理部27で画像処理を行い、コントローラ部4に出力する。画像出力要求信号は、使用者が各種測定操作や検査操作を行った時に出力することができる。
(Configuration of output control unit 29)
Upon receiving the image output request signal output from the controller unit 4, the output control unit 29 selects the image instructed by the image output request signal among the images stored in the image storage unit 28 according to the image output request signal. is a part that outputs to the controller unit 4 via the image processing unit 27 . In this example, each pattern image, phase image, fringe number image and reliability image before image processing are stored in the image storage unit 28, and an image requested by an image output request signal from the controller unit 4 is processed. Only the image processing section 27 performs image processing and outputs the data to the controller section 4 . The image output request signal can be output when the user performs various measurement operations or inspection operations.

この実施形態では、データ処理部24、位相計算部26及び画像処理部27を撮像装置2に設けたが、これに限らず、コントローラ部4に設けてもよい。この場合、撮像素子22から出力された画像データはコントローラ部4に出力されて処理されることになる。 In this embodiment, the data processing section 24 , the phase calculation section 26 and the image processing section 27 are provided in the imaging device 2 , but they may also be provided in the controller section 4 . In this case, the image data output from the imaging device 22 is output to the controller section 4 and processed.

(コントローラ部4の構成)
図2に示すように、コントローラ部4は、撮像投光制御部41と、高さ測定部42と、画像合成部43と、検査部45と、表示制御部46とを備えている。コントローラ部4は、撮像装置2及び照明装置3とは別体に設けられている。
(Configuration of controller section 4)
As shown in FIG. 2 , the controller section 4 includes an imaging projection control section 41 , a height measurement section 42 , an image composition section 43 , an inspection section 45 and a display control section 46 . The controller unit 4 is provided separately from the imaging device 2 and the lighting device 3 .

(撮像投光制御部41の構成)
撮像投光制御部41は、前記パターン光の形成情報、トリガ信号及び再同期トリガ信号を、照明装置3に所定のタイミングで出力するとともに、前記撮像条件に関する情報、トリガ信号及び再同期トリガ信号を、撮像装置2に所定のタイミングで出力する。照明装置3に出力するトリガ信号及び再同期トリガ信号と、撮像装置2に出力するトリガ信号及び再同期トリガ信号とは同期している。前記パターン光の形成情報及び前記撮像条件に関する情報は、例えば撮像投光制御部41や、別の記憶部(図示せず)に記憶させておくことができる。使用者が所定の操作(高さ測定準備操作、検査準備操作)を行うことで、前記パターン光の形成情報が照明装置3に出力されて照明装置3の投光制御部39に一旦記憶され、また、前記撮像条件に関する情報撮像装置2に出力されて露光制御部23に一旦記憶される。この例では、照明装置3は、該照明装置3に内蔵されている投光制御部39でLED及びLCDの制御を行うように構成されているので、スマートタイプの照明装置と呼ぶことができる。また、撮像装置2は、該撮像装置2に内蔵されている露光制御部23で撮像素子22の制御を行うように構成されているので、スマートタイプの撮像装置と呼ぶことができる。
(Structure of imaging projection control section 41)
The imaging light projection control unit 41 outputs the pattern light formation information, the trigger signal, and the resynchronization trigger signal to the lighting device 3 at a predetermined timing, and outputs the information regarding the imaging condition, the trigger signal, and the resynchronization trigger signal. , to the imaging device 2 at a predetermined timing. The trigger signal and resynchronization trigger signal output to the illumination device 3 are synchronized with the trigger signal and resynchronization trigger signal output to the imaging device 2 . The formation information of the pattern light and the information on the imaging conditions can be stored, for example, in the imaging projection control section 41 or another storage section (not shown). When the user performs a predetermined operation (height measurement preparation operation, inspection preparation operation), the pattern light formation information is output to the illumination device 3 and temporarily stored in the light projection control unit 39 of the illumination device 3, Further, the information regarding the imaging conditions is output to the imaging device 2 and temporarily stored in the exposure control section 23 . In this example, the lighting device 3 can be called a smart type lighting device because the lighting device 3 is configured to control the LED and the LCD by the light projection control unit 39 built in the lighting device 3. In addition, since the imaging device 2 is configured to control the imaging element 22 by the exposure control unit 23 built in the imaging device 2, it can be called a smart type imaging device.

このように撮像装置2及び照明装置3が個別に制御を行う場合には、撮像回数が増えれば増えるほど、撮像タイミングと、照明タイミング(パターン光の投影タイミング)とがずれて、撮像装置2によって得られた画像が暗くなってしまうという問題がある。特に、上述したように、位相シフトパターン画像セットの画像が8つ、グレーコードパターン画像セットが4つの合計12の画像で第1パターン画像セットを構成し、第2パターン画像セットも同様に構成し、さらにHDR用の撮像も行うようにすると、撮像回数が多くなり、撮像タイミングと、照明タイミングとのズレが顕著になる。 In this way, when the imaging device 2 and the lighting device 3 perform separate control, as the number of times of imaging increases, the imaging timing and the lighting timing (projection timing of the pattern light) deviate. There is a problem that the obtained image becomes dark. In particular, as described above, a total of 12 images, 8 images of the phase shift pattern image set and 4 of the gray code pattern image set, constitute the first pattern image set, and similarly constitute the second pattern image set. Furthermore, if HDR imaging is also performed, the number of times of imaging increases, and the difference between the imaging timing and the illumination timing becomes noticeable.

この例では、再同期トリガ信号を照明装置3と撮像装置2に同期して出力するようにしており、これにより、撮像の途中で照明装置3と撮像装置2との同期を取ることができるようにしている。よって、撮像回数が多くなったとしても、撮像タイミングと、照明タイミングとのズレが問題とならない程度に極めて小さなものとなり、位相シフトパターンやグレーコードパターンの照射中に画像が暗くなるのを抑制でき、位相の歪みやコードの判定を誤る可能性を低減できる。再同期トリガ信号は、複数回出力することもできる。 In this example, the resynchronization trigger signal is synchronously output to the illumination device 3 and the imaging device 2, so that the illumination device 3 and the imaging device 2 can be synchronized during imaging. I have to. Therefore, even if the number of imaging times increases, the difference between the imaging timing and the illumination timing is extremely small to the extent that it does not become a problem, and it is possible to suppress the darkening of the image during the irradiation of the phase shift pattern or the gray code pattern. , the possibility of erroneous phase distortion and code determination can be reduced. The resynchronization trigger signal can also be output multiple times.

撮像投光制御部41は、照射モード切替部41aを備えている。第1投光部31及び第2投光部32によってそれぞれ第1測定用パターン光及び第2測定用パターン光を照射する第1照射モードと、第1投光部31及び第2投光部32によってそれぞれ第1測定用パターン光及び第2測定用パターン光を照射した後、第3投光部33及び第4投光部34によってそれぞれ第3測定用パターン光及び第4測定用パターン光を照射する第2照射モードと、第3投光部33及び第4投光部34によってそれぞれ第3測定用パターン光及び第4測定用パターン光を照射する第3照射モードとの3つの照射モードの内、任意の1つの照射モードに切り替えることができる。照射モードの切替は、使用者が表示部5を見ながら、コンソール部6やマウス7の操作によって行うことができる。また、コントローラ部4が自動で照射モードの切替を行うように構成することもできる。 The imaging light projection control section 41 includes an irradiation mode switching section 41a. A first irradiation mode in which the first pattern light for measurement and the second pattern light for measurement are emitted by the first light projection unit 31 and the second light projection unit 32, respectively, and the first light projection unit 31 and the second light projection unit 32 After irradiating the first pattern light for measurement and the second pattern light for measurement, respectively, the third light projection unit 33 and the fourth light projection unit 34 irradiate the third light pattern for measurement and the fourth pattern light for measurement, respectively. and a third irradiation mode in which the third pattern light for measurement and the fourth pattern light for measurement are emitted by the third light projecting section 33 and the fourth light projecting section 34, respectively. , can be switched to any one illumination mode. The user can switch the irradiation mode by operating the console section 6 or the mouse 7 while viewing the display section 5 . Alternatively, the controller unit 4 can be configured to automatically switch the irradiation mode.

(高さ測定部42の構成)
高さ測定部42は、位相計算部26が生成した第1角度画像の各画素の照射角度情報及び第2角度画像の各画素の照射角度情報と、照明装置3の照明ハウジング30内における第1投光部31及び第2投光部32の相対位置情報とにしたがって、照明装置3の中心軸A方向における測定対象物Wの高さを測定することができるように構成されている。
(Configuration of height measuring unit 42)
The height measurement unit 42 measures the irradiation angle information of each pixel of the first angle image and the irradiation angle information of each pixel of the second angle image generated by the phase calculation unit 26, and the first height in the illumination housing 30 of the illumination device 3. The height of the measuring object W in the central axis A direction of the lighting device 3 can be measured according to the relative position information of the light projecting section 31 and the second light projecting section 32 .

以下、高さ測定部42による具体的な高さを測定方法について説明する。上述したように、位相のUnwrapによって角度画像を生成することにより、各画素に対する照明からの角度が決まる。第1角度画像は、第1LED31bから測定対象物Wへ照射される光の角度を示す画像であり、第2角度画像は、第2LED32bから測定対象物Wへ照射される光の角度を示す画像である。そして、第1LED31bと第2LED32bとは照明ハウジング30に一体的に支持されていて第1LED31bと第2LED32bとの距離は、上述したようにl(図7に示す)となっている。 A specific method for measuring the height by the height measuring unit 42 will be described below. As described above, the angle from the illumination for each pixel is determined by generating the angle image by unwrapping the phase. The first angle image is an image showing the angle of light emitted from the first LED 31b to the object W to be measured, and the second angle image is an image showing the angle of light emitted from the second LED 32b to the object W to be measured. be. The first LED 31b and the second LED 32b are integrally supported by the illumination housing 30, and the distance between the first LED 31b and the second LED 32b is l (shown in FIG. 7) as described above.

図7では、測定対象物Wにおける任意の点Hの高さを求める場合について説明している。第1LED31bの直下を0゜、第1LED31bから45゜の方向を1としている。また、図7の右方向を正、左方向を負としている。第1LED31bから点Hに照射される光の角度は、第1角度画像における点Hに対応する画素から求めることができ、点Hと第1LED31bとを結ぶ直線の傾きを1/a1とする。また、第2LED32bから点Hに照射される光の角度は、第2角度画像における点Hに対応する画素から求めることができ、点Hと第2LED32bとを結ぶ直線の傾きを-1/a2とする。a1、a2は位相である。 FIG. 7 illustrates the case of obtaining the height of an arbitrary point H on the object W to be measured. The direction directly below the first LED 31b is 0°, and the direction 45° from the first LED 31b is 1. Moreover, the right direction in FIG. 7 is positive, and the left direction is negative. The angle of light emitted from the first LED 31b to the point H can be obtained from the pixel corresponding to the point H in the first angle image, and the inclination of the straight line connecting the point H and the first LED 31b is 1/a1. Further, the angle of the light irradiated from the second LED 32b to the point H can be obtained from the pixel corresponding to the point H in the second angle image, and the inclination of the straight line connecting the point H and the second LED 32b is -1/a2. do. a1 and a2 are phases.

Z=1/a1*X+0 … 式1
Z=-1/a2*(X-l) … 式2
Z=1/a1*X+0... Formula 1
Z=−1/a2*(X−l) … Formula 2

式1、式2に対してZを解くと高さが求まる。
a1Z=X
a2Z=-X+l
Z=l/(a1+a2)
X=a1*l/(a1+a2)
Solving Z for Equations 1 and 2 gives the height.
a1Z=X
a2Z=-X+l
Z=l/(a1+a2)
X=a1*l/(a1+a2)

このようにして、測定対象物Wにおける各点の高さを求めることができる。前記各式には、撮像装置2の位置に関する変数が無いので、測定対象物Wにおける各点の高さを求める際には撮像装置2の位置は無関係であることが分かる。但し、角度画像で無効画素となっている画素については角度情報が無いので、その点の高さを求めることはできない。すなわち、算出されるZ座標は撮像装置2と測定対象物Wとの距離ではなく、照明装置3から見た時の測定対象物Wまでの距離を示すものになっている。撮像装置2の設置位置とは無関係に、照明装置3の設置位置によって得られるZ座標が定まる。 In this manner, the height of each point on the object W to be measured can be obtained. Since each of the above equations has no variable relating to the position of the imaging device 2, it can be seen that the position of the imaging device 2 is irrelevant when obtaining the height of each point on the object W to be measured. However, since there is no angle information for pixels that are invalid pixels in the angle image, the height of that point cannot be obtained. That is, the calculated Z-coordinate indicates not the distance between the imaging device 2 and the object W to be measured, but the distance to the object W when viewed from the illumination device 3 . The Z coordinate obtained by the installation position of the illumination device 3 is determined regardless of the installation position of the imaging device 2 .

また、図示しないが、同様にして、第3LED33bから点Hに照射される光の角度を、第3角度画像における点Hに対応する画素から求めることができ、また、第4LED34bから点Hに照射される光の角度を、第4角度画像における点Hに対応する画素から求めることができるので、第3角度画像及び第4角度画像に基づいて各画素の高さを求めることができる。 Also, although not shown, the angle of the light emitted from the third LED 33b to the point H can be similarly obtained from the pixel corresponding to the point H in the third angle image. Since the angle of the projected light can be obtained from the pixel corresponding to the point H in the fourth angle image, the height of each pixel can be obtained based on the third angle image and the fourth angle image.

例えば、図17では、高さ測定部42は、第1角度画像の各画素の照射角度情報及び第2角度画像の各画素の照射角度情報と、照明ハウジング30内における第1投光部31及び第2投光部32の相対位置情報とにしたがって測定対象物Wの高さを表す第1高さ画像を生成するとともに、第3角度画像の各画素の照射角度情報及び第4角度画像の各画素の照射角度情報と、照明ハウジング30内における第3投光部33及び第4投光部34の相対位置情報とにしたがって測定対象物Wの高さを表す第2高さ画像を生成した場合を示している。 For example, in FIG. 17, the height measurement unit 42 obtains irradiation angle information of each pixel of the first angle image, irradiation angle information of each pixel of the second angle image, and the first light projection unit 31 and A first height image representing the height of the measurement object W is generated according to the relative position information of the second light projecting unit 32, and the irradiation angle information of each pixel of the third angle image and each of the fourth angle images are generated. When the second height image representing the height of the measurement target W is generated according to the irradiation angle information of the pixels and the relative position information of the third light projecting section 33 and the fourth light projecting section 34 in the illumination housing 30 is shown.

第1高さ画像は、各画素の高さを把握することができるので、各種検査を行う際に使用される検査対象画像とすることができる。また、第2高さ画像も各画素の高さを把握することができるので、各種検査を行う際に使用される検査対象画像とすることができる。したがって、高さ測定部42は、複数の中間画像に基づいて検査対象画像を生成する検査対象画像生成部ということもできる。 Since the first height image can grasp the height of each pixel, it can be used as an image to be inspected when performing various inspections. Also, since the second height image can also grasp the height of each pixel, it can be used as an inspection object image used when performing various inspections. Therefore, the height measuring unit 42 can also be called an inspection target image generation unit that generates an inspection target image based on a plurality of intermediate images.

図17に示す場合では、まず、第1投光部31によるパターン光の投影によって得られた第1パターン画像セットで第1角度画像を生成し、第2投光部32によるパターン光の投影によって得られた第2パターン画像セットで第1角度画像を生成する。第1角度画像では、第1投光部31が測定対象物Wの左側から光を照射することになるので、測定対象物Wの右側に影ができ、その部分が無効画素となっている。一方、第2角度画像では、第2投光部32が測定対象物Wの右側から光を照射することになるので、測定対象物Wの左側に影ができ、その部分が無効画素となっている。第1角度画像と第2角度画像とによって第1高さ画像を生成するので、一方の角度画像で無効画素となっている画素については第1高さ画像においても無効画素となる。 In the case shown in FIG. 17 , first, a first angle image is generated from a first pattern image set obtained by projecting pattern light by the first light projecting unit 31 , and the pattern light is projected by the second light projecting unit 32 to generate a first angle image. A first angle image is generated from the obtained second pattern image set. In the first angle image, since the first light projecting unit 31 irradiates light from the left side of the measurement object W, a shadow is formed on the right side of the measurement object W, and that portion is an invalid pixel. On the other hand, in the second angle image, since the second light projecting unit 32 irradiates light from the right side of the measurement object W, a shadow is formed on the left side of the measurement object W, and that portion becomes an invalid pixel. there is Since the first height image is generated from the first angle image and the second angle image, pixels that are invalid pixels in one of the angle images are also invalid pixels in the first height image.

同様にして、第3投光部33によるパターン光の投影によって得られた第3パターン画像セットで第3角度画像を生成し、第4投光部34によるパターン光の投影によって得られた第4パターン画像セットで第4角度画像を生成する。第3角度画像では、第3投光部33が測定対象物Wの上側(図において上になる側)から光を照射することになるので、測定対象物Wの下側(図において下になる側)に影ができ、その部分が無効画素となっている。一方、第4角度画像では、第4投光部34が測定対象物Wの下側から光を照射することになるので、測定対象物Wの上側に影ができ、その部分が無効画素となっている。第3角度画像と第4角度画像とによって第2高さ画像を生成するので、一方の角度画像で無効画素となっている画素については第2高さ画像においても無効画素となる。無効画素をできるだけ少なくするために、この実施形態では図2に示すようにコントローラ部4に画像合成部43を設けている。 Similarly, a third angle image is generated from a third pattern image set obtained by projecting the pattern light by the third light projecting unit 33, and a fourth angle image is generated by projecting the pattern light by the fourth light projecting unit 34. Generate a fourth angle image with the pattern image set. In the third angle image, the third light projecting unit 33 irradiates light from the upper side of the measurement object W (upper side in the figure), so that the lower side of the measurement object W (lower side in the figure) side) is cast, and that portion is an invalid pixel. On the other hand, in the fourth angle image, since the fourth light projecting unit 34 irradiates light from the lower side of the measurement object W, a shadow is formed above the measurement object W, and the shadowed portion becomes an invalid pixel. ing. Since the second height image is generated from the third angle image and the fourth angle image, pixels that are invalid pixels in one of the angle images are also invalid pixels in the second height image. In order to reduce invalid pixels as much as possible, in this embodiment, an image synthesizing section 43 is provided in the controller section 4 as shown in FIG.

この実施形態では、高さ測定部42をコントローラ部4に設けた場合について説明したが、これに限らず、図示しないが、高さ測定部を撮像装置2に設けてもよい。 In this embodiment, the case where the height measuring section 42 is provided in the controller section 4 has been described, but the present invention is not limited to this, and the height measuring section may be provided in the imaging device 2 although not shown.

(画像合成部43の構成)
画像合成部43は、第1高さ画像と第2高さ画像とを合成して合成後高さ画像を生成するように構成されている。これにより、第1高さ画像で無効画素になっている部分が、第2高さ画像では無効画素となっていない部分については、合成後高さ画像において有効画素で表されることになり、反対に、第2高さ画像で無効画素になっている部分が、第1高さ画像では無効画素となっていない部分については、合成後高さ画像において有効画素で表されることになる。よって、合成後高さ画像では無効画素の数を少なくすることができる。逆に、高い信頼を持った高さを得たい場合は、第1高さ画像、第2高さ画像の双方とも有効で、かつ、その差が所定以下の小さい場合のみに、その平均高さを有効としてもよい。
(Configuration of Image Synthesizer 43)
The image synthesizing unit 43 is configured to synthesize the first height image and the second height image to generate a post-synthesis height image. As a result, the portions of the first height image that are invalid pixels and the portions that are not invalid pixels of the second height image are represented by valid pixels in the combined height image. Conversely, portions that are invalid pixels in the second height image but not invalid pixels in the first height image are represented by valid pixels in the height image after synthesis. Therefore, the number of invalid pixels can be reduced in the combined height image. Conversely, if you want to obtain a height with high reliability, only when both the first height image and the second height image are valid and the difference between them is smaller than a predetermined value, the average height may be enabled.

言い換えると、測定対象物Wに対して互いに異なる4方向からパターン光を照射することで、高さ画像の有効画素数を多くすることができ、死角を少なくすることができるとともに、測定結果の信頼性を向上させることができる。尚、2方向からのパターン光の照射で無効画素が十分に少なくなるような測定対象物Wの場合は、高さ画像を1つだけ生成すればよい。この場合、使用者が第1高さ画像と第2高さ画像のどちらを生成するか選択するように構成することもできる。高さ画像を1つだけ生成する場合には測定時間が短くなるというメリットがある。 In other words, by irradiating the measurement object W with pattern light from four different directions, it is possible to increase the number of effective pixels in the height image, reduce blind spots, and increase the reliability of the measurement results. can improve sexuality. In the case of the measurement object W in which the number of invalid pixels is sufficiently reduced by irradiating the pattern light from two directions, only one height image should be generated. In this case, it is also possible for the user to select whether to generate the first height image or the second height image. Generating only one height image has the advantage of shortening the measurement time.

合成後高さ画像も各画素の高さを把握することができるので、各種検査を行う際に使用される検査対象画像とすることができる。したがって、画像合成部43は、検査対象画像を生成する検査対象画像生成部ということもできる。 Since the height image after synthesis can also grasp the height of each pixel, it can be used as an image to be inspected when performing various inspections. Therefore, the image synthesizing unit 43 can also be called an inspection target image generation unit that generates an inspection target image.

この実施形態では、画像合成部43をコントローラ部4に設けた場合について説明したが、これに限らず、図示しないが、画像合成部を撮像装置2に設けてもよい。 In this embodiment, the case where the image synthesizing unit 43 is provided in the controller unit 4 has been described.

(検査部45の構成)
検査部45は、第1高さ画像、第2高さ画像及び合成後高さ画像の内、任意の画像に基づいて検査処理を実行する部分である。検査部45には、有無検査部45aと、外観検査部45bと、寸法検査部45cとが設けられているが、これは一例であり、これら全ての検査部が必須ではなく、またこれら検査部以外の検査部を備えていてもよい。有無検査部45aは、測定対象物Wの有無や測定対象物Wに取り付けられている部品の有無等を画像処理によって判断することができるように構成されている。外観検査部45bは、測定対象物Wの外形状等が予め決められた形状であるか否かを画像処理によって判断することができるように構成されている。寸法検査部45cは、測定対象物Wの各部の寸法が予め決められた寸法であるか否か、または各部の寸法を画像処理によって判断することができるように構成されている。これら判断の手法は従来から周知の手法であることから詳細な説明は省略する。
(Configuration of Inspection Unit 45)
The inspection unit 45 is a part that performs inspection processing based on an arbitrary image among the first height image, the second height image, and the combined height image. The inspection unit 45 includes a presence/absence inspection unit 45a, an appearance inspection unit 45b, and a dimension inspection unit 45c, but this is an example, and all these inspection units are not essential. You may provide an inspection part other than. The presence/absence inspection unit 45a is configured to determine the presence/absence of the object W to be measured, the presence/absence of components attached to the object W to be measured, and the like by image processing. The appearance inspection unit 45b is configured to be able to determine by image processing whether or not the external shape of the object W to be measured has a predetermined shape. The dimension inspection unit 45c is configured to determine whether or not the dimensions of each part of the measurement object W are predetermined dimensions, or to determine the dimensions of each part by image processing. Since these determination methods are conventionally well-known methods, detailed description thereof will be omitted.

(表示制御部46の構成)
表示制御部46は、第1高さ画像、第2高さ画像及び合成後高さ画像等を表示部5に表示させたり、画像処理装置1を操作するための操作用ユーザーインターフェース、画像処理装置1を設定するための設定用ユーザーインターフェース、測定対象物の高さ測定結果を表示するための高さ測定結果表示用ユーザーインターフェース、測定対象物の各種検査結果を表示するための検査結果表示用ユーザーインターフェース等を生成して表示部5に表示させることができるように構成されている。
(Configuration of display control unit 46)
The display control unit 46 displays the first height image, the second height image, the combined height image, etc. on the display unit 5, and controls the operation user interface for operating the image processing device 1, the image processing device, and the like. A setting user interface for setting 1, a height measurement result display user interface for displaying the height measurement result of the measurement object, and an inspection result display user for displaying various inspection results of the measurement object It is configured such that an interface or the like can be generated and displayed on the display unit 5 .

(ユーザーインターフェースの例)
図19は、画像処理装置1が有する三次元判別機能を実現する三次元判別ユーザーインターフェース300の一例を示す図である。三次元判別機能とは、使用者が予め登録した測定対象物の三次元形状と、上述のようにして測定して得た測定対象物の三次元形状とを比較し、差分箇所を抽出する機能である。使用者が測定対象物を撮像することで、測定対象物の三次元形状を取得し、これをコントローラ部4に記憶させて登録しておくことができる。使用者は、登録した三次元形状に基づいてXYZ方向毎に検出する公差(許容範囲)を設定することができる。また、画像処理装置1が有する三次元サーチ機能により、測定により得た測定対象物の三次元形状を、登録した三次元形状に基づいて三次元的に位置補正することができる。測定により得た測定対象物の三次元形状を三次元サーチ機能により位置補正した後、登録した測定対象物の三次元形状に重ね合わせ、同一箇所同士を比較し、公差に基づいて差分を算出する。公差を超える差分が算出された箇所を三次元判別ユーザーインターフェース300によって表示部5に表示させることができる。
(Example of user interface)
FIG. 19 is a diagram showing an example of a three-dimensional discrimination user interface 300 that implements the three-dimensional discrimination function of the image processing apparatus 1. As shown in FIG. The 3D discrimination function is a function that compares the 3D shape of the measurement object registered in advance by the user with the 3D shape of the measurement object obtained by measuring as described above, and extracts the difference. is. The user can acquire the three-dimensional shape of the measurement object by taking an image of the measurement object, store it in the controller unit 4, and register it. The user can set the tolerance (permissible range) for detection in each of the XYZ directions based on the registered three-dimensional shape. In addition, the three-dimensional search function of the image processing apparatus 1 can three-dimensionally correct the three-dimensional shape of the object to be measured based on the registered three-dimensional shape. After correcting the position of the 3D shape of the measured object obtained by the measurement using the 3D search function, it is superimposed on the 3D shape of the registered measured object, the same points are compared, and the difference is calculated based on the tolerance. . The three-dimensional discrimination user interface 300 can cause the display unit 5 to display the location where the difference exceeding the tolerance is calculated.

図19に示す三次元判別ユーザーインターフェース300は、一定時間おきに、登録した測定対象物の三次元形状301Aと、測定により得た測定対象物の三次元形状301Bとを切り替えて交互に表示することが可能に構成されている。登録した測定対象物の三次元形状301Aは、図19の上側の三次元判別ユーザーインターフェース300に示している。測定により得た測定対象物の三次元形状301Bは、図19の下側の三次元判別ユーザーインターフェース300に示している。つまり、図19の上側の三次元判別ユーザーインターフェース300と、下側の三次元判別ユーザーインターフェース300とが交互に表示部5に表示されるイメージである。三次元サーチ機能により、登録した測定対象物の三次元形状301Aと、測定により得た測定対象物の三次元形状301Bとを三次元判別ユーザーインターフェース300の同じ位置に表示させることできるので、使用者は三次元判別ユーザーインターフェース300を見続けるだけで、差分箇所を容易に把握することができる。尚、上記一定時間は、特に限定されるものではないが、例えば1秒程度に設定することができる。また、差分箇所を着色して表示することもできる。着色箇所を符号302で示す。 The three-dimensional discrimination user interface 300 shown in FIG. 19 switches and alternately displays the registered three-dimensional shape 301A of the measurement object and the three-dimensional shape 301B of the measurement object obtained by measurement at regular time intervals. is configured to allow The three-dimensional shape 301A of the registered measurement object is shown in the three-dimensional discrimination user interface 300 on the upper side of FIG. A three-dimensional shape 301B of the object to be measured obtained by measurement is shown in the three-dimensional discrimination user interface 300 on the lower side of FIG. That is, it is an image in which the three-dimensional discrimination user interface 300 on the upper side of FIG. 19 and the three-dimensional discrimination user interface 300 on the lower side are alternately displayed on the display unit 5 . The three-dimensional search function allows the registered three-dimensional shape 301A of the object to be measured and the three-dimensional shape 301B of the object to be measured to be displayed at the same position on the three-dimensional discrimination user interface 300. can easily grasp the difference portion just by continuing to look at the three-dimensional discrimination user interface 300 . Incidentally, the certain period of time is not particularly limited, but can be set to, for example, about one second. In addition, it is also possible to colorize and display the difference portion. Reference numeral 302 indicates the colored portion.

図20は、三次元判別機能の許容範囲を表示するための断面指示を行う際に表示されるユーザーインターフェース310である。このユーザーインターフェース310には、測定により得た測定対象物の三次元形状301Bが表示される形状表示領域310aが設けられている。形状表示領域310aには、三次元形状301Bの断面を取得する位置を任意に設定するための断面位置設定部310b、310bの表示が可能になっている。この断面位置設定部310b、310bをマウス操作等によって形状表示領域310a上で移動させることができるようになっている。 FIG. 20 shows a user interface 310 displayed when a cross-section is specified to display the allowable range of the 3D discrimination function. This user interface 310 is provided with a shape display area 310a in which a three-dimensional shape 301B of the object to be measured is displayed. In the shape display area 310a, it is possible to display cross-section position setting portions 310b and 310b for arbitrarily setting the position for acquiring the cross section of the three-dimensional shape 301B. The cross-section position setting portions 310b, 310b can be moved on the shape display area 310a by mouse operation or the like.

断面位置設定部310b、310bの位置を決定すると、断面位置設定部310b、310b間の断面が取得され、図21に示すように、形状表示領域310aに三次元形状301Bの断面が表示される。形状表示領域310aには、三次元形状301Bの外形状を示す形状線312と、三次元形状301Bの外形状の許容範囲を示す許容範囲表示部313とが表示される。許容範囲表示部313は、例えば許容範囲を帯状に着色する表示形態とすることができる。形状線312が許容範囲表示部313で表示された範囲に収まっていれば、欠陥等が無い検査対象物であると判定することができるが、形状線312の一部でも許容範囲表示部313に収まっていなければ、欠陥等がある検査対象物であると判定することができる。 After the positions of the cross-section position setting portions 310b and 310b are determined, a cross-section between the cross-section position setting portions 310b and 310b is obtained, and a cross-section of the three-dimensional shape 301B is displayed in the shape display area 310a as shown in FIG. A shape line 312 indicating the outer shape of the three-dimensional shape 301B and an allowable range display portion 313 indicating the allowable range of the outer shape of the three-dimensional shape 301B are displayed in the shape display area 310a. The allowable range display section 313 can have, for example, a display form in which the allowable range is colored in a strip. If the shape line 312 falls within the range displayed by the allowable range display section 313, it can be determined that the inspection object has no defects. If it does not fit, it can be determined that the inspection object has a defect or the like.

許容範囲はユーザーインターフェース310上の操作によって変更することができる。図22は、許容範囲を縮小した場合を示しており、許容範囲表示部313が図21に比べて狭くなる。許容範囲は拡大することもできる。許容範囲を狭くすると、三次元形状301Bの一部が許容範囲表示部313から外れることになり、この部分が着色箇所313として形状表示領域310aに表示される。このように、三次元形状301Bと許容範囲とを見比べながら許容範囲を調整していくことができるので、より適切な許容範囲の設定が行えるようになり、その結果、検査精度及び安定性が向上する。 The allowable range can be changed by manipulation on user interface 310 . FIG. 22 shows a case in which the allowable range is reduced, and the allowable range display section 313 is narrower than in FIG. The tolerance can also be expanded. If the allowable range is narrowed, part of the three-dimensional shape 301B will be out of the allowable range display portion 313, and this portion will be displayed as a colored portion 313 in the shape display area 310a. In this way, since the allowable range can be adjusted while comparing the three-dimensional shape 301B and the allowable range, a more appropriate allowable range can be set, and as a result, the inspection accuracy and stability are improved. do.

図23は、上述のようにして許容範囲を設定した後、新たな測定により得た測定対象物の三次元形状301Bを入力した場合を示している。三次元形状301Bのうち、許容範囲から外れた部分は着色箇所313として表示される。 FIG. 23 shows a case where the three-dimensional shape 301B of the measurement object obtained by new measurement is input after setting the allowable range as described above. A portion of the three-dimensional shape 301B outside the allowable range is displayed as a colored portion 313. FIG.

上述したように、予め登録された三次元形状と、新たな測定により得られた測定対象物の三次元形状を比較し、その差分が予め定められた許容範囲内であれば測定対象物を良品として判定する。XY方向(水平方向)の許容範囲とZ方向(垂直方向)の許容範囲が設定できるが、それぞれの許容範囲の幅は同じであってもよいし、異なる幅が設定可能でもよい。Z方向の許容範囲は、登録三次元形状に対する高さの加算及び減算で設定が可能であり、XY方向の許容範囲は、登録三次元形状に対する膨張・収縮フィルタにより設定できる。許容範囲上限は、登録三次元形状に対し、XY許容範囲分の膨張処理とZ許容範囲の加算により算出される。許容範囲下限は、登録三次元形状に対し、XY許容範囲分の収縮処理とZ許容範囲の減算により算出される。 As described above, the three-dimensional shape registered in advance and the three-dimensional shape of the object to be measured newly obtained by measurement are compared, and if the difference is within a predetermined allowable range, the object to be measured is judged to be a non-defective product. Judge as. Although the allowable range in the XY direction (horizontal direction) and the allowable range in the Z direction (vertical direction) can be set, the width of each allowable range may be the same or different. The allowable range in the Z direction can be set by adding and subtracting heights to and from the registered three-dimensional shape, and the allowable range in the XY directions can be set by dilation/contraction filters for the registered three-dimensional shape. The upper limit of the allowable range is calculated by adding the expansion processing for the XY allowable range and the Z allowable range to the registered three-dimensional shape. The lower limit of the allowable range is calculated from the registered three-dimensional shape by contraction processing for the XY allowable range and subtraction of the Z allowable range.

図24は、突起状の測定対象物の欠けを検出する場合の許容範囲設定のイメージ図であり、突起が比較的大きい場合を示している。登録された三次元形状の下側の点線(許容範囲下限)を下回る高さが存在すれば欠けは検出できるが、実際の突起のサイズよりも欠けを検出できるサイズが小さくなっている。図25は更に小さな突起の欠けを検出する場合のイメージ図であり、図24と同じXY方向の許容範囲が設定されている場合、突起に欠けが存在していても検出が不可能になる。 FIG. 24 is an image diagram of allowable range setting when detecting chipping of a projecting measurement object, and shows a case where the projection is relatively large. Chipping can be detected if there is a height below the lower dotted line (lower limit of allowable range) of the registered three-dimensional shape, but the size at which chipping can be detected is smaller than the actual size of the projection. FIG. 25 is an image diagram for detecting chipping of a smaller protrusion. If the same allowable range in the XY directions as in FIG. 24 is set, even if there is a chipping in the protrusion, detection becomes impossible.

そこで、本実施例では、登録された三次元形状と、入力される三次元形状の両方に、XY許容範囲と同じ大きさの膨張処理をかける。図26に示すように、ユーザにより設定されたXY許容範囲と同じ大きさの膨張フィルタを登録三次元形状と入力三次元形状の両方にかけることにより、見かけ上の突起のサイズを大きくできる。この大きくなった突起に対して設定された許容範囲の下限は実際の突起のサイズと等しくなるため、突起の欠けが検出できるサイズが実際の突起のサイズと等しくなる。 Therefore, in this embodiment, both the registered three-dimensional shape and the input three-dimensional shape are subjected to dilation processing with the same size as the XY allowable range. As shown in FIG. 26, by applying a dilation filter having the same size as the XY tolerance set by the user to both the registered three-dimensional shape and the input three-dimensional shape, the apparent size of the projection can be increased. Since the lower limit of the allowable range set for this enlarged protrusion is equal to the actual size of the protrusion, the size at which chipping of the protrusion can be detected is equal to the actual size of the protrusion.

上記突起強調処理をONにすると、ユーザが設定したXY方向の許容範囲の大きさと同じ大きさの膨張処理が自動的に適用される。ユーザが許容範囲を実寸値(ミリ、インチ等)で設定した場合は、その実寸値を、1画素辺りの実寸値を表す変換係数を使って、画素数に自動変換し、変換した画素数を強さとする膨張・収縮処理をかけることができる。これにより、ユーザが許容したい公差範囲を設定するだけで、自動的に最適な強さの膨張・収縮処理を適用できる。 When the projection emphasis process is turned on, the dilation process is automatically applied in the same size as the size of the allowable range in the XY directions set by the user. When the user sets the allowable range in terms of actual size values (millimeters, inches, etc.), the actual size values are automatically converted to the number of pixels using a conversion coefficient that represents the actual size value per pixel, and the converted number of pixels is Expansion/contraction processing can be applied to increase strength. As a result, the expansion/contraction processing with the optimum strength can be automatically applied simply by setting the tolerance range that the user wants to allow.

なお、本実施例では、XY許容範囲と同じ大きさの膨張処理をかける例について説明したが、膨張処理はXY許容範囲と厳密に同じである必要はなく、許容範囲に対して所定範囲内の大きさであればほぼ同一の効果が得られる。また、膨張処理ではなく収縮処理をかけることにより、突起の欠けではなく、凹みが埋まっているか否かを検査することも可能である。 In the present embodiment, an example of performing dilation processing with the same size as the XY tolerance has been described, but the dilation processing need not be exactly the same as the XY tolerance. Almost the same effect can be obtained as long as the size is the same. Also, by performing contraction processing instead of expansion processing, it is possible to inspect whether or not recesses are filled instead of missing protrusions.

図27は本実施例のデータフローダイアグラムである。新たな測定により入力された三次元形状に対し、予め登録された三次元形状を用いて上記した三次元サーチ機能を用いて三次元の姿勢を推定し、補正を行う。次に、ユーザにより設定されたXY方向(水平方向)の許容範囲の設定値に基づいて登録三次元形状と入力三次元形状の両方に対し、同一の膨張処理を適用し、差分データを生成する。この差分データが所定の範囲内か否かにより測定対象物の良否判定を行う。 FIG. 27 is a data flow diagram of this embodiment. With respect to the three-dimensional shape input by new measurement, the three-dimensional posture is estimated using the three-dimensional search function described above using the pre-registered three-dimensional shape, and correction is performed. Next, the same dilation process is applied to both the registered 3D shape and the input 3D shape based on the set values of the allowable range in the XY directions (horizontal direction) set by the user to generate difference data. . Whether the difference data is within a predetermined range or not determines whether the object to be measured is good or bad.

図28は別のデータフローダイアグラムを示す図である。図27と異なるのは、膨張処理が適用された登録三次元形状から、XY方向の許容範囲の設定値に基づいて、許容範囲上限と許容範囲下限が算出される点である。登録された三次元形状に対し、XY方向の膨張処理を適用し、この膨張した三次元形状に対し、XY方向の許容範囲を適用すると、許容範囲下限における測定対象物のXY方向の幅が、実際の測定対象物のXY方向の幅と略等しくなる。これにより、実際の測定対象物のXY方向の幅と略等しいサイズの突起の欠け(膨張処理の場合)や穴の埋まり(収縮処理の場合)を検出することができる。 FIG. 28 shows another data flow diagram. The difference from FIG. 27 is that the upper limit and lower limit of the allowable range are calculated from the registered three-dimensional shape to which the expansion process is applied, based on the set values of the allowable range in the XY directions. Applying expansion processing in the XY directions to the registered three-dimensional shape, and applying the allowable range in the XY directions to this expanded three-dimensional shape, the width in the XY directions of the measurement object at the lower limit of the allowable range is It is substantially equal to the width of the actual object to be measured in the XY directions. As a result, it is possible to detect the lack of projections (in the case of expansion processing) or the filling of holes (in the case of contraction processing) that are substantially equal in size to the widths in the XY directions of the actual object to be measured.

一般的に三次元測定では、パターンが照射されない位置や、カメラから死角になる位置は測定結果が得られない。測定結果が得られなかった画素は「無効画素」と呼ばれる。この無効画素は特に三角測量の原理を用いたパターン投影法では完全に排除することが困難である。 Generally, in three-dimensional measurement, measurement results cannot be obtained for positions where the pattern is not irradiated or positions that are blind spots from the camera. Pixels for which no measurement result was obtained are called "invalid pixels." It is difficult to completely eliminate these invalid pixels, especially in the pattern projection method using the principle of triangulation.

登録三次元形状と、測定対象物を測定して得られた入力三次元形状の差分を用いて検査を行う場合、入力三次元形状に存在する無効画素部分は、そのままでは登録三次元形状との差分を定義できない。また、入力画像側だけではなく、登録画像側に無効画素がある場合の差分もそのままでは定義できない。そこで、従来から無効画素を周囲の高さの平均値などで埋めるフィルタ処理が行われている。しかし、無効画素をフィルタ処理で埋める処理は、異なる位置の画素の高さに基づいて高さを決定するため、有効画素と比べると高さが安定しない。また、近くに有効画素がない場合は高さを決定できない。 When performing inspection using the difference between the registered 3D shape and the input 3D shape obtained by measuring the object to be measured, the invalid pixel portions existing in the input 3D shape will be different from the registered 3D shape as they are. Unable to define difference. In addition, the difference when there are invalid pixels not only on the input image side but also on the registered image side cannot be defined as it is. Therefore, conventionally, filter processing is performed to fill ineffective pixels with an average value of surrounding heights. However, since the process of filling ineffective pixels by filtering determines the height based on the heights of pixels at different positions, the height is not stable compared to effective pixels. Also, the height cannot be determined if there are no effective pixels nearby.

そこで、本実施例では、ユーザに背景となる平面(以下、背景平面)を指定させ、無効画素は背景平面での高さとし、無効画素がある場合でも、登録三次元形状と入力三次元形状の差分を定義できるようにしている。図29は背景平面の処理のイメージ図である。測定対象物の断面プロファイルが途切れている位置は、測定結果が得られなかった無効画素を示している。無効画素の高さは背景平面の高さとし、背景平面よりも低い高さの画素は背景平面の高さで下限クリッピングする。これにより、無効画素がある場合でも、登録三次元形状と入力三次元形状の差分を算出し、差分の体積などの計測値を算出できる。差分体積は、高さの差分をXY方向に積分することにより計算されるが、高さとしての値を持たない無効画素が存在すると、差分体積を算出することができないが、無効画素に高さを与えることで、これらの計測値を算出できるようになる。また、上記した平均化フィルタなどのフィルタ処理により無効画素を埋める場合と比べると、近くに有効画素が無い場合であっても高さを定義することが可能である上、周囲高さの影響を受けないため判定結果が安定する。 Therefore, in this embodiment, the user designates a plane that serves as a background (hereinafter referred to as a background plane), and invalid pixels are set to the height of the background plane. It allows us to define the difference. FIG. 29 is an image diagram of processing of the background plane. A position where the cross-sectional profile of the object to be measured is interrupted indicates an invalid pixel for which no measurement result was obtained. The height of the invalid pixels is set to the height of the background plane, and pixels with heights lower than the background plane are clipped at the height of the background plane. As a result, even if there are invalid pixels, it is possible to calculate the difference between the registered three-dimensional shape and the input three-dimensional shape, and calculate the measured value such as the volume of the difference. The difference volume is calculated by integrating the height difference in the XY direction. By giving , we can compute these measurements. In addition, compared to the case where invalid pixels are filled by filtering such as the above-described averaging filter, it is possible to define the height even if there are no valid pixels nearby, and the influence of the surrounding height is reduced. Since it is not received, the determination result is stable.

また、背景平面だけでなく、上限の平面(以下、上限平面)を設定することもできる。図30は背景平面に加えて上限平面が設定された場合の処理イメージを示した図である。無効画素は背景断面の高さに設定され、上限平面を超える部分の高さは上限平面の高さに設定される。 In addition to the background plane, an upper limit plane (hereinafter referred to as upper limit plane) can also be set. FIG. 30 is a diagram showing a processing image when the upper limit plane is set in addition to the background plane. Invalid pixels are set to the height of the background section, and the height of the portion exceeding the upper limit plane is set to the height of the upper limit plane.

図31は背景平面処理に係るデータフローダイアグラムである。入力三次元形状は上述した三次元サーチ機能に基づいて三次元姿勢を補正した後、背景平面処理が適用される。登録三次元形状に対しても同じ背景平面処理が適用される。背景平面処理が適用された後の登録三次元形状と入力三次元形状が比較され、差分データが抽出される。 FIG. 31 is a data flow diagram for background plane processing. After correcting the three-dimensional posture of the input three-dimensional shape based on the three-dimensional search function described above, background plane processing is applied. The same background plane processing is applied to the registered 3D shape. The registered 3D shape after the background plane processing is applied is compared with the input 3D shape, and difference data is extracted.

図32は、登録三次元形状に対してユーザにより設定された許容範囲上限と、許容範囲下限のそれぞれに対して、背景平面処理を適用する場合のデータフローを示している。上述したように、許容範囲上限と許容範囲下限は、登録三次元形状に対して設定されるため、登録三次元形状に無効画素が存在すると、許容範囲上限や許容範囲下限にも無効画素が発生してしまう。そこで、許容範囲上限と許容範囲下限に対しても入力三次元形状と同様の背景平面処理を適用することにより、許容範囲上限と許容範囲下限の無効画素を、背景平面の高さに置き換えることができる。許容範囲上限の無効画素と、許容範囲下限の無効画素は、ユーザにより設定された同じ背景平面の高さに統一される。したがって、入力三次元形状の対応する画素が無効画素ではなく有効画素であり、背景平面の高さより大きな高さが得られれば、許容範囲を超える突起として検出され、背景平面の高さより小さな高さが得られれば、許容範囲を下回る欠けとして検出される。このように、ユーザが登録三次元形状に設定した許容範囲(公差)を用いて、入力三次元形状の突起部分や欠け部分を検出するアプリケーションでは、登録三次元形状の上限許容範囲と上限下限範囲に対して背景平面処理を適用することで、登録三次元形状に無効画素が存在する場合でも、安定的に検査を行うことができる。 FIG. 32 shows a data flow when background plane processing is applied to each of the upper limit and lower limit of the allowable range set by the user for the registered three-dimensional shape. As described above, the upper limit and lower limit of the allowable range are set for the registered 3D shape, so if invalid pixels exist in the registered 3D shape, invalid pixels will also occur in the upper and lower limits of the allowable range. Resulting in. Therefore, by applying the same background plane processing as for the input 3D shape to the upper and lower limits of the allowable range, the invalid pixels at the upper and lower limits of the allowable range can be replaced with the height of the background plane. can. Invalid pixels at the upper limit of the allowable range and invalid pixels at the lower limit of the allowable range are unified to the same background plane height set by the user. Therefore, if the corresponding pixel of the input 3D shape is not an invalid pixel but a valid pixel and a height greater than the height of the background plane is obtained, it is detected as a protrusion exceeding the allowable range, and a height smaller than the height of the background plane is detected. is obtained, it is detected as chipping below the allowable range. In this way, in an application that detects protrusions and missing parts of an input 3D shape using the tolerance (tolerance) set by the user for the registered 3D shape, the upper and lower limits of the registered 3D shape By applying the background plane processing to , it is possible to perform stable inspection even when there are invalid pixels in the registered three-dimensional shape.

以上説明したように、背景平面処理を適用することにより、無効画素の扱いが極めて容易になる。ユーザーインターフェース上では、ユーザが高さ方向の計測領域を限定すると、自動的に無効画素に付与される高さの値が計測領域下限に制限される。したがって、ユーザが無効画素の取り扱いについて意識する必要はない。 As described above, the use of background plane processing makes it extremely easy to handle invalid pixels. On the user interface, when the user limits the measurement area in the height direction, the height value given to the invalid pixels is automatically limited to the lower limit of the measurement area. Therefore, the user does not need to be conscious of how to handle invalid pixels.

なお、上記突起強調処理や、背景平面処理は、ユーザの操作に応じてコントローラ部に設けられた検査部45により実行される。 Note that the projection enhancement processing and the background plane processing are executed by the inspection section 45 provided in the controller section according to the user's operation.

図33は、画像処理装置1が有する高さ2値化機能を実現するユーザーインターフェース320である。高さ2値化機能とは、三次元形状のある高さを横切るか否かで2値化した画像を生成する機能である。高さ2値化機能によって、2値化した面積を計測することで例えば部品の有り無しなどを判別できる。 FIG. 33 shows a user interface 320 that implements the height binarization function that the image processing apparatus 1 has. The height binarization function is a function of generating a binarized image depending on whether or not a certain height of a three-dimensional shape is crossed. By measuring the binarized area using the height binarization function, it is possible to determine, for example, the presence or absence of a part.

高さ2値化機能用のユーザーインターフェース320には、三次元形状301Bが斜視的に表示される三次元形状表示領域321と、高さ2値化画像が表示される高さ2値化画像表示領域322とが設けられている。三次元形状表示領域321には水平面321aが三次元形状301Bと重畳表示される。水平面321aは、三次元形状表示領域321の側部に設けられているスライダーバー321b等の操作手段によって高さ方向に任意に移動させることができる。高さ2値化画像表示領域322には、三次元形状301Bのうち、水平面321a内に位置する部分と、それ以外の部分とが異なる色で表示される。水平面321a内に位置する部分を符号323で示す。図34は、水平面321a内に位置する部分がない状態を示している。 The user interface 320 for the height binarization function includes a three-dimensional shape display area 321 in which the three-dimensional shape 301B is obliquely displayed, and a binarized height image display in which a binarized height image is displayed. A region 322 is provided. In the three-dimensional shape display area 321, a horizontal plane 321a is superimposed on the three-dimensional shape 301B. The horizontal plane 321 a can be arbitrarily moved in the height direction by operating means such as a slider bar 321 b provided on the side of the three-dimensional shape display area 321 . In the binarized height image display area 322, the portion of the three-dimensional shape 301B located within the horizontal plane 321a and the other portions are displayed in different colors. Reference numeral 323 denotes a portion located within the horizontal plane 321a. FIG. 34 shows a state in which there is no portion located within the horizontal plane 321a.

高さ2値化機能にはズーム機能が搭載されている。図35は、三次元形状表示領域321に表示されている三次元形状301Bを拡大して表示した例を示している。拡大の方法は、従来から用いられている方法を用いることができる。三次元形状301Bを拡大させることで、スライダーバー321bを操作したときの水平面321aの移動幅が狭まり、より細かい調整が可能になる。 The height binarization function is equipped with a zoom function. FIG. 35 shows an example in which the three-dimensional shape 301B displayed in the three-dimensional shape display area 321 is enlarged and displayed. A conventionally used method can be used for the enlargement method. By enlarging the three-dimensional shape 301B, the moving width of the horizontal plane 321a when the slider bar 321b is operated is narrowed, and finer adjustment becomes possible.

図36は、高さ2値化画像での形状比較機能を実現するユーザーインターフェース330である。この機能は、高さ2値化画像を使用して、2値化した面積を計測するだけでは判別できない、形状の違いを検査する場合に有効な機能である。形状比較機能を実現するユーザーインターフェース330には、三次元形状301Bが斜視的に表示される三次元形状表示領域331と、高さ2値化画像が表示される高さ2値化画像表示領域332とが設けられている。三次元形状表示領域331には、高さ2値化機能用のユーザーインターフェース320と同様な水平面331aが三次元形状301Bと重畳表示される。水平面331aは、三次元形状表示領域331の側部に設けられているスライダーバー331b等の操作手段によって高さ方向に任意に移動させることができる。高さ2値化画像表示領域332には、三次元形状301Bのうち、水平面331a内に位置する部分333が表示される。 FIG. 36 shows a user interface 330 that implements a shape comparison function in height binarized images. This function is effective in inspecting differences in shape that cannot be determined only by measuring the binarized area using the height binarized image. A user interface 330 that implements the shape comparison function includes a three-dimensional shape display area 331 that obliquely displays the three-dimensional shape 301B, and a binarized height image display area 332 that displays a binarized height image. and are provided. In the three-dimensional shape display area 331, a horizontal plane 331a similar to the user interface 320 for the height binarization function is superimposed on the three-dimensional shape 301B. The horizontal plane 331 a can be arbitrarily moved in the height direction by operating means such as a slider bar 331 b provided on the side of the three-dimensional shape display area 331 . In the binarized height image display area 332, a portion 333 of the three-dimensional shape 301B located within the horizontal plane 331a is displayed.

図37は、検査する輪郭を選択するためのユーザーインターフェース340である。ユーザーインターフェース340には、輪郭が表示される輪郭表示領域341が設けられている。輪郭表示領域341に表示されている輪郭の一部を削除することもできる。 FIG. 37 is a user interface 340 for selecting contours to inspect. The user interface 340 is provided with a contour display area 341 in which contours are displayed. A part of the contour displayed in the contour display area 341 can also be deleted.

図38は、図36に示すユーザーインターフェース330において、輪郭の検出結果を表示するための結果表示領域335を表示させた状態を示している。結果表示領域335には、許容範囲335aと共に、検出された輪郭336も表示される。 FIG. 38 shows a state in which a result display area 335 for displaying contour detection results is displayed in the user interface 330 shown in FIG. The detected contour 336 is also displayed in the result display area 335 along with the allowable range 335a.

図39は、許容範囲を拡大した場合を示している。許容範囲は拡大することも縮小することもできるようになっている。 FIG. 39 shows a case where the allowable range is expanded. The allowable range can be expanded or contracted.

以上が画像処理装置1の設定モードで行われる。図40は、画像処理装置1の運転モード時に品種違いの三次元形状を入力した場合の表示例を示している。品種違いの三次元形状が入力されると、許容範囲を超えた部分が生じるので、品種違いの三次元形状が入力されたことを検出することができる。 The above is performed in the setting mode of the image processing apparatus 1 . FIG. 40 shows a display example when a three-dimensional shape of a different type is input in the operation mode of the image processing apparatus 1. FIG. If a three-dimensional shape of a different type is input, a portion exceeding the allowable range is generated, so that it can be detected that a three-dimensional shape of a different type is input.

(実施形態の作用効果)
以上説明したように、この実施形態に係る画像処理装置1によれば、位相を順次シフトさせたパターン光が測定対象物Wに照射され、パターン光が測定対象物Wに照射された都度、測定対象物Wから反射した光を受光して複数のパターン画像を生成することができる。生成された複数のパターン画像に基づいて、測定対象物Wの三次元形状を測定することができる。
(Action and effect of the embodiment)
As described above, according to the image processing apparatus 1 according to this embodiment, the measurement target W is irradiated with the pattern light whose phase is sequentially shifted, and each time the measurement target W is irradiated with the pattern light, the measurement Light reflected from the object W can be received to generate a plurality of pattern images. The three-dimensional shape of the measurement object W can be measured based on the plurality of pattern images generated.

パターン光を照射する際、互いに位相が180度異なるパターンを連続的に照射するので、測定対象物Wに順次照射されるパターン光のうち、奇数番目に照射されるパターン光と、偶数番目に照射されるパターン光との位相が逆位相の関係になる。これにより、逆位相同士のパターン光の照射間隔を狭めて外乱光の明るさ変動を極小化することができるので、1つの測定対象物Wの測定が完了するまでの間に外乱光の明るさが変動したとしても、その変動の影響を抑制することができ、その結果、測定誤差を減少させることができる。 When irradiating the pattern light, the patterns having phases different from each other by 180 degrees are continuously irradiated. The phase with the pattern light to be applied has an opposite phase relationship. As a result, it is possible to minimize the variation in the brightness of the disturbance light by narrowing the irradiation intervals of the pattern lights of opposite phases, so that the brightness of the disturbance light is reduced until the measurement of one measurement object W is completed. Even if there is a change in , the influence of the change can be suppressed, and as a result, the measurement error can be reduced.

上述の実施形態はあらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。さらに、特許請求の範囲の均等範囲に属する変形や変更は、全て本発明の範囲内のものである。 The above-described embodiments are merely examples in all respects and should not be construed in a restrictive manner. Furthermore, all modifications and changes within the equivalent scope of claims are within the scope of the present invention.

以上説明したように、本発明に係る画像処理装置は、例えば、測定対象物の高さを測定する場合や測定対象物を検査する場合に使用することができる。 INDUSTRIAL APPLICABILITY As described above, the image processing apparatus according to the present invention can be used, for example, when measuring the height of an object to be measured or when inspecting an object to be measured.

1 画像処理装置
2 撮像装置
3 照明装置
22 撮像素子
26 位相計算部
30 照明ハウジング
31 第1投光部
31b 第1LED(第1光源)
31d 第1LCD(第1パターン光生成部)
31e 第1LED駆動回路(光源駆動回路)
31f 第1LCD駆動回路(液晶パネル駆動回路)
32 第2投光部
32b 第2LED(第2光源)
32d 第2LCD(第2パターン光生成部)
32e 第2LED駆動回路(光源駆動回路)
32f 第2LCD駆動回路(液晶パネル駆動回路)
33 第3投光部
33b 第3LED(第3光源)
33d 第3LCD(第3パターン光生成部)
33e 第3LED駆動回路(光源駆動回路)
33f 第3LCD駆動回路(液晶パネル駆動回路)
34 第4投光部
34b 第4LED(第4光源)
34d 第4LCD(第4パターン光生成部)
34e 第4LED駆動回路(光源駆動回路)
34f 第4LCD駆動回路(液晶パネル駆動回路)
35 投光制御部
42 高さ測定部
43 画像合成部
45 検査部
A 開口部
1 image processing device 2 imaging device 3 lighting device 22 imaging element 26 phase calculation unit 30 lighting housing 31 first light projection unit 31b first LED (first light source)
31d 1st LCD (first pattern light generator)
31e first LED drive circuit (light source drive circuit)
31f First LCD drive circuit (liquid crystal panel drive circuit)
32 Second light projecting portion 32b Second LED (second light source)
32d Second LCD (second pattern light generator)
32e Second LED drive circuit (light source drive circuit)
32f Second LCD drive circuit (liquid crystal panel drive circuit)
33 Third light projecting portion 33b Third LED (third light source)
33d Third LCD (third pattern light generator)
33e Third LED drive circuit (light source drive circuit)
33f Third LCD drive circuit (liquid crystal panel drive circuit)
34 fourth light projecting portion 34b fourth LED (fourth light source)
34d 4th LCD (4th pattern light generator)
34e fourth LED drive circuit (light source drive circuit)
34f fourth LCD drive circuit (liquid crystal panel drive circuit)
35 light projection control unit 42 height measurement unit 43 image synthesizing unit 45 inspection unit A opening

Claims (6)

測定対象物の三次元形状を測定する画像処理装置において、
光源と、
前記光源から出射された光が入射され、測定対象物に周期的なパターン光を照射するパターン生成部と、
前記パターンの位相を順次シフトさせるように前記パターン生成部を制御するとともに、前記パターン生成部の制御の際、互いに位相が180度異なるパターンを連続的に生成させる照明制御部と、
前記パターン光が照射された都度、測定対象物から反射した光を受光し、複数のパターン画像を生成する撮像部と、
前記複数のパターン画像に基づいて、測定対象物の三次元形状を測定する測定部とを備えていることを特徴とする画像処理装置。
In an image processing device that measures the three-dimensional shape of an object to be measured,
a light source;
a pattern generation unit that receives the light emitted from the light source and irradiates the object to be measured with periodic pattern light;
an illumination control unit that controls the pattern generation unit so as to sequentially shift the phase of the pattern, and continuously generates patterns with phases different from each other by 180 degrees when controlling the pattern generation unit;
an imaging unit that receives the light reflected from the object to be measured and generates a plurality of pattern images each time the pattern light is irradiated;
and a measuring unit that measures the three-dimensional shape of the object based on the plurality of pattern images.
請求項1に記載の画像処理装置において、
前記光源は、中心に開口部が形成された照明ハウジング内において前記開口部の中心を対称の中心として互いに点対称に設けられた第1光源及び第2光源を含み、
前記パターン生成部は、前記第1光源に対応して設けられる第1パターン生成部と、前記第2光源に対応して設けられる第2パターン生成部とを含み、
前記照明制御部は、前記第1パターン生成部及び前記第2パターン生成部のうち、任意のパターン生成部がパターンの切替を行っている間に、パターンの生成が完了したパターン生成部からパターン光を照射させるように構成されていることを特徴とする画像処理装置。
The image processing device according to claim 1,
The light source includes a first light source and a second light source provided point-symmetrically with respect to each other about the center of the opening in an illumination housing having an opening formed in the center,
The pattern generator includes a first pattern generator provided corresponding to the first light source and a second pattern generator provided corresponding to the second light source,
The illumination control unit controls pattern light from the pattern generation unit that has completed pattern generation while an arbitrary pattern generation unit among the first pattern generation unit and the second pattern generation unit is switching patterns. An image processing apparatus, characterized in that it is configured to irradiate.
請求項2に記載の画像処理装置において、
前記光源は、前記照明ハウジング内において前記第1光源及び前記第2光源から前記開口部の周方向に離れるとともに前記開口部の中心を対称の中心として互いに点対称に設けられた第3光源及び第4光源を含み、
前記パターン生成部は、前記第3光源に対応して設けられる第3パターン生成部と、前記第4光源に対応して設けられる第4パターン生成部を含み、
前記照明制御部は、前記第1パターン生成部、前記第2パターン生成部、前記第3パターン生成部及び前記第4パターン生成部のうち、任意のパターン生成部がパターンの切替を行っている間に、パターンの生成が完了したパターン生成部からパターン光を照射させるように構成されていることを特徴とする画像処理装置。
In the image processing device according to claim 2,
The light sources are spaced from the first light source and the second light source in the circumferential direction of the opening in the lighting housing and provided point-symmetrically with respect to the center of the opening. including 4 light sources,
The pattern generator includes a third pattern generator provided corresponding to the third light source and a fourth pattern generator provided corresponding to the fourth light source,
While the illumination control unit is switching the patterns of any one of the first pattern generation unit, the second pattern generation unit, the third pattern generation unit, and the fourth pattern generation unit, 2. An image processing apparatus characterized in that the pattern light is emitted from a pattern generation unit that has completed pattern generation.
請求項1から3のいずれか1つに記載の画像処理装置において、
前記パターン生成部は、液晶パネルであることを特徴とする画像処理装置。
In the image processing device according to any one of claims 1 to 3,
The image processing apparatus, wherein the pattern generation unit is a liquid crystal panel.
請求項1から4のいずれか1つに記載の画像処理装置において、
前記撮像部はカラーカメラで構成されていることを特徴とする画像処理装置。
In the image processing device according to any one of claims 1 to 4,
The image processing apparatus, wherein the imaging unit is composed of a color camera.
請求項1から5のいずれか1つに記載の画像処理装置において、
前記照明制御部は、位相シフト画像を生成するための位相シフト用パターン光と、空間コード画像を生成するための空間コード用パターン光とを前記パターン生成部に生成させ、前記位相シフト用パターン光の生成の際、互いに位相が180度異なるパターンを連続的に生成させ、
前記撮像部は、前記位相シフト用パターン光が照射されたときに測定対象物から反射した光を受光して位相シフト画像を生成し、前記空間コード用パターン光が照射されたときに測定対象物から反射した光を受光して空間コード画像を生成するように構成され、
前記測定部は、前記位相シフト画像及び前記空間コード画像に基づいて、位相シフト法及び空間コード化法を適用して測定対象物の三次元形状を測定するように構成されていることを特徴とする画像処理装置。
In the image processing device according to any one of claims 1 to 5,
The illumination control unit causes the pattern generation unit to generate a phase shift pattern light for generating a phase shift image and a spatial code pattern light for generating a space code image, and the phase shift pattern light is generated, patterns whose phases are different from each other by 180 degrees are continuously generated,
The imaging unit receives light reflected from a measurement object when the phase-shifting pattern light is irradiated, generates a phase-shifted image, and receives the measurement object when the spatial-code pattern light is irradiated. configured to receive light reflected from and generate a spatially coded image;
The measurement unit is configured to measure the three-dimensional shape of the measurement target by applying a phase shift method and a space encoding method based on the phase shift image and the space code image. image processing device.
JP2019061727A 2019-03-27 2019-03-27 Image processing device Active JP7164476B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019061727A JP7164476B2 (en) 2019-03-27 2019-03-27 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019061727A JP7164476B2 (en) 2019-03-27 2019-03-27 Image processing device

Publications (2)

Publication Number Publication Date
JP2020159964A JP2020159964A (en) 2020-10-01
JP7164476B2 true JP7164476B2 (en) 2022-11-01

Family

ID=72642921

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019061727A Active JP7164476B2 (en) 2019-03-27 2019-03-27 Image processing device

Country Status (1)

Country Link
JP (1) JP7164476B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020513555A (en) 2016-12-07 2020-05-14 ソニーセミコンダクタソリューションズ株式会社 Device and method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5956911B2 (en) * 2012-11-05 2016-07-27 株式会社キーエンス Shape measuring device, shape measuring method, and shape measuring program
JP6553011B2 (en) * 2016-10-14 2019-07-31 Ckd株式会社 Three-dimensional measuring device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020513555A (en) 2016-12-07 2020-05-14 ソニーセミコンダクタソリューションズ株式会社 Device and method

Also Published As

Publication number Publication date
JP2020159964A (en) 2020-10-01

Similar Documents

Publication Publication Date Title
JP7090446B2 (en) Image processing equipment
KR101656106B1 (en) Apparatus for dental surface shape and shade imaging
JP3914638B2 (en) Shape measuring device
JP7090447B2 (en) Image processing equipment
JP5443303B2 (en) Appearance inspection apparatus and appearance inspection method
US10796428B2 (en) Inspection system and inspection method
JP7164461B2 (en) Image processing device
US20110316978A1 (en) Intensity and color display for a three-dimensional metrology system
JP7231433B2 (en) Image processing device
US11170518B2 (en) Inspection device for generating height data of a measurement target
JP2018179665A (en) Inspection method and inspection device
JP7164476B2 (en) Image processing device
JP7246992B2 (en) Image processing device
TWI622755B (en) Method for measuring surface profile
CN108240800B (en) Surface topography measuring method
JP2020134250A (en) Image processing device
KR20080061786A (en) Method for optical visual examination of three-dimensional shape
JP2020128931A (en) Inspection device
JP7231432B2 (en) Image processing device
JP2016008837A (en) Shape measuring method, shape measuring device, structure manufacturing system, structure manufacturing method, and shape measuring program
JP6758837B2 (en) Equipment, methods and programs for acquiring a two-dimensional distribution of gloss mapping
JP2020134251A (en) Image processing device
JP7452121B2 (en) Inspection equipment and inspection method
JP2015108602A (en) Shape measurement device, structure manufacturing system, shape measurement method, structure manufacturing method and shape measurement program
JP2020128933A (en) Inspection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221020

R150 Certificate of patent or registration of utility model

Ref document number: 7164476

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150