JP5541653B2 - Imaging apparatus and control method thereof - Google Patents

Imaging apparatus and control method thereof Download PDF

Info

Publication number
JP5541653B2
JP5541653B2 JP2009105602A JP2009105602A JP5541653B2 JP 5541653 B2 JP5541653 B2 JP 5541653B2 JP 2009105602 A JP2009105602 A JP 2009105602A JP 2009105602 A JP2009105602 A JP 2009105602A JP 5541653 B2 JP5541653 B2 JP 5541653B2
Authority
JP
Japan
Prior art keywords
distance
information
polarization
imaging
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009105602A
Other languages
Japanese (ja)
Other versions
JP2010256138A (en
Inventor
俊太 舘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009105602A priority Critical patent/JP5541653B2/en
Publication of JP2010256138A publication Critical patent/JP2010256138A/en
Application granted granted Critical
Publication of JP5541653B2 publication Critical patent/JP5541653B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、撮像対象の距離画像を生成する撮像装置及びその制御方法に関するものである。   The present invention relates to an imaging apparatus that generates a distance image of an imaging target and a control method thereof.

以下の説明においては、撮像対象までの距離を画素の値として構成される画像のことを「距離画像」と呼ぶ。従来、この距離画像を計測する撮像装置の方式として、複数の方式が知られているが、ここでは計測の際に走査動作を必要とせず、1回の撮影で距離画像を取得する撮像装置とその方式について説明する。   In the following description, an image configured with a distance to an imaging target as a pixel value is referred to as a “distance image”. Conventionally, a plurality of methods are known as a method of an imaging device that measures the distance image. Here, an imaging device that does not require a scanning operation at the time of measurement and acquires a distance image by one shooting is provided. The method will be described.

距離画像を取得するための撮像装置として様々な方式が提案されており、例えば、照射した光線が撮像対象で反射して戻るまでの飛行時間(Time of flight:TOF)を用いる方式や、複数枚の画像からステレオ法で奥行きを求める方式がある。更には、変調波などのパターン光を投影して奥行きを求める方式や、主光学系によって集光された光を副光学系によって分離して2つの像を結像させ、それぞれの視差から合焦状態を検出する測距センサと呼ばれる方式などがある。この測距センサの方式では、焦点面を基準として相対的な奥行きの情報が取得される。   Various methods have been proposed as an imaging device for obtaining a distance image. For example, a method using a time of flight (TOF) until an irradiated light beam is reflected by an imaging object and returned, or a plurality of images can be obtained. There is a method for obtaining the depth by the stereo method from the images. In addition, a pattern light such as a modulated wave is projected to obtain the depth, or the light collected by the main optical system is separated by the sub-optical system to form two images and focused from the respective parallaxes. There is a method called a distance measuring sensor that detects a state. In this distance sensor system, information on relative depth is acquired with reference to the focal plane.

また、偏光とは、光の振動方向が特定の方向に偏った状態を指す。そして、特定の振動方向の光のみを透過させる偏光光学系を用いることで、光の偏光成分を測定することができる。また、偏光の情報を元に物体(撮像対象)までの距離情報を直接推定することはできないが、偏光状態を解析して偏光方位角を求めることにより物体表面の法線の方位を知ることができる。また、偏光度を求めれば、法線の傾きを推定することができる。また、偏光成分と無偏光成分とを区別して反射光成分を取り除き、距離画像の測定精度を向上させることも可能である。   Polarized light refers to a state where the vibration direction of light is biased in a specific direction. And the polarization component of light can be measured by using the polarization optical system which permeate | transmits only the light of a specific vibration direction. In addition, it is not possible to directly estimate the distance information to the object (imaging target) based on the polarization information, but it is possible to know the azimuth of the normal of the object surface by analyzing the polarization state and obtaining the polarization azimuth angle. it can. In addition, if the degree of polarization is obtained, the slope of the normal can be estimated. It is also possible to distinguish the polarization component from the non-polarization component and remove the reflected light component to improve the measurement accuracy of the distance image.

このような偏光解析によって観測対象の形状を推定する手法は、「Shape from polarization」と呼ばれ、その関連手法が複数提案されている。例えば、下記の非特許文献1では、光沢の多い金属表面に対して偏光解析を行って形状を推定する技術を開示している。また、偏光解析を行うためには、従来は、非特許文献1に示す方法のように、結像光学系の前に線偏光フィルタを配置し、偏光の方向を機械的に回転させて特定の偏光成分のみを透過させ、画像を複数枚撮影する必要があった。また、別の先行技術では液晶偏光フィルタも使われており、この場合は、電気的に偏光の方向を変化させている。これらの方式は、いずれにしても、複数の撮像動作が必要であり、リアルタイム性の点で他の光学測定方式と複合的に利用することが難しい。   A technique for estimating the shape of the observation object by such polarization analysis is called “Shape from polarization”, and a plurality of related techniques have been proposed. For example, the following Non-Patent Document 1 discloses a technique for estimating a shape by performing polarization analysis on a glossy metal surface. In order to perform polarization analysis, conventionally, as in the method shown in Non-Patent Document 1, a linear polarization filter is disposed in front of the imaging optical system, and the direction of polarization is mechanically rotated to specify a specific direction. It was necessary to transmit only a polarization component and to photograph a plurality of images. In another prior art, a liquid crystal polarizing filter is also used. In this case, the direction of polarization is electrically changed. In any case, these methods require a plurality of imaging operations and are difficult to use in combination with other optical measurement methods in terms of real-time characteristics.

これらに対して、下記の特許文献1には、1回の撮影画像のみから偏光解析を行うことができる装置が開示されている。特許文献1に記載の撮像装置は、例えば後述する図3に示すように、受光素子123と、受光素子123の画素数と同数のアレイ状の偏光子301からなる偏光光学系122が備わっている。この偏光光学系122には、偏光方向が相異なる偏光子(301a〜301d)が規則的に配置されている(図3では、偏光子のうちの一部のみを図示している)。また、偏光子301a〜301dに対応する受光素子123の画素302a〜302dにおいては、それぞれ異なった偏光成分の光が記録されることになる(図3では、受光素子のうちの一部のみを図示している)。このような撮像装置で撮像を行い、所定の画素のみから情報を読み出して画像を再構成すれば、4方向のうちの任意の偏光成分の画像を得ることができる。そして、このような構成を用いることにより、偏光解析に必要な複数方向の偏光成分のデータを1回の撮像で取得することができる。   On the other hand, Patent Document 1 below discloses an apparatus that can perform polarization analysis from only one captured image. For example, as shown in FIG. 3 to be described later, the imaging apparatus described in Patent Document 1 includes a light receiving element 123 and a polarization optical system 122 including an array of polarizers 301 equal in number to the pixels of the light receiving element 123. . In the polarizing optical system 122, polarizers (301a to 301d) having different polarization directions are regularly arranged (only a part of the polarizers is illustrated in FIG. 3). In addition, light of different polarization components is recorded in the pixels 302a to 302d of the light receiving element 123 corresponding to the polarizers 301a to 301d (in FIG. 3, only a part of the light receiving elements is illustrated. Shown). If imaging is performed with such an imaging apparatus, information is read from only predetermined pixels and an image is reconstructed, an image of any polarization component in four directions can be obtained. By using such a configuration, it is possible to acquire data of polarization components in a plurality of directions necessary for polarization analysis by one imaging.

特開2007−86720号公報JP 2007-86720 A 特開2006−46960号公報JP 2006-46960 A 特開昭55−155331号公報JP 55-155331 A

O. Morel, F. Meriaudeau, C. Stolz and P. Gorria, Polarization imaging applied to 3D inspection of specular metallic surfaces, Machine Vision Applications in Industrial Inspection XIII, Proceedings of SPIE, vol. 5679, pp. 178-186, 2005.O. Morel, F. Meriaudeau, C. Stolz and P. Gorria, Polarization imaging applied to 3D inspection of specular metallic surfaces, Machine Vision Applications in Industrial Inspection XIII, Proceedings of SPIE, vol. 5679, pp. 178-186, 2005 . M. Bass edit., Handbook of optics Vol.II, Optical Society of America, McGraw-Hill, New York, 1995.M. Bass edit., Handbook of optics Vol.II, Optical Society of America, McGraw-Hill, New York, 1995. B. K. P. Horn and M. J. Brooks, edit., Shape from Shading, The MIT Press, Cambridge, Massachusetts, 1989.B. K. P. Horn and M. J. Brooks, edit., Shape from Shading, The MIT Press, Cambridge, Massachusetts, 1989. S. Geman and D. Geman, Stochastic relaxation, Gibbs distribution, and the Bayesian restoration of images, IEEE Trans. on PAMI, Vol.6, No.6, pp.721-741, 1985.S. Geman and D. Geman, Stochastic relaxation, Gibbs distribution, and the Bayesian restoration of images, IEEE Trans. On PAMI, Vol.6, No.6, pp.721-741, 1985. Y. Boykov and G. Funka-Lea. Graph Cuts and Efficient N-D Image Segmentation. International Journal of Computer Vision, vol. 70, no. 2, pp. 109-131, 2006.Y. Boykov and G. Funka-Lea.Graph Cuts and Efficient N-D Image Segmentation.International Journal of Computer Vision, vol. 70, no. 2, pp. 109-131, 2006. C. Tomasi and R. Manduchi, "Bilateral Filtering for Gray and Color Images", Proceedings of the 1998 IEEE International Conference on Computer Vision, Bombay, India, 1998.C. Tomasi and R. Manduchi, "Bilateral Filtering for Gray and Color Images", Proceedings of the 1998 IEEE International Conference on Computer Vision, Bombay, India, 1998. P. J. Rousseeuw and A. M. Leroy. Robust Regression and Outlier Detection. John Wiley & Sons, New York, 1987.P. J. Rousseeuw and A. M. Leroy. Robust Regression and Outlier Detection. John Wiley & Sons, New York, 1987. R.J. Rousseeuw, Least median of squares regression, J. American Stat. Assoc., Vol.79, pp.871-880, 1984.R.J.Rousseeuw, Least median of squares regression, J. American Stat.Assoc., Vol.79, pp.871-880, 1984. de Bruijn, N. G. "A Combinatorial Problem." Koninklijke Nederlandse Akademie v. Wetenschappen vol. 49, pp. 758-764, 1946.de Bruijn, N. G. "A Combinatorial Problem." Koninklijke Nederlandse Akademie v. Wetenschappen vol. 49, pp. 758-764, 1946.

しかしながら、従来のいくつかの距離画像の撮影方式においては、計測原理に起因する理由により、特定の条件下で計測精度が低下することがある。   However, in some conventional distance image capturing methods, the measurement accuracy may deteriorate under certain conditions due to the measurement principle.

例えば、TOFを用いる方式では、照射光に近赤外光などが多く用いられるが、拡散反射や多重反射のために、空間解像度が低下することがある。特に、測定対象と床面などとの多重反射によって精度が低下することがあり、この現象は、測定対象に近接して測定したときに顕著に生じる。また、環境中の外光の混入や映り込みも外乱要因となる。   For example, in a method using TOF, near infrared light or the like is often used as irradiation light, but spatial resolution may be reduced due to diffuse reflection or multiple reflection. In particular, the accuracy may decrease due to multiple reflections between the measurement object and the floor surface, and this phenomenon is prominent when measured close to the measurement object. In addition, external light contamination and reflection in the environment is a disturbance factor.

また、ステレオ法は、画像間の相関の高い領域や対応点を求めて三角測量の原理で距離を求める方式である。このため、対応の手掛かりとなる点や線が存在する領域についてしか距離を計測することができず、輝度分布の変化がないか、もしくは緩やかに変化しているような領域では距離を計測できない。また、物体の凹凸面に視差によって遮蔽が生じる場合があるが、このように遮蔽された領域の距離も計測できない。ステレオ法では、このような原因で測定値が欠落することがあり、欠落の生じた領域は何らかの方法で補完する必要がある。   The stereo method is a method for obtaining a distance by the principle of triangulation by obtaining regions and corresponding points having high correlation between images. For this reason, the distance can be measured only for a region where a point or line that is a clue to correspondence exists, and the distance cannot be measured in a region where the luminance distribution does not change or changes slowly. In addition, although the uneven surface of the object may be shielded by parallax, the distance of the shielded area cannot be measured. In the stereo method, the measurement value may be lost due to such a cause, and it is necessary to supplement the region where the loss has occurred by some method.

また、パターン光を用いる方式では、ステレオ法と同様に三角測量を原理とするため、パターン光の陰となる領域では距離を計測できない。また、パターン光として空間的に強度を変化させた変調波を使う方式があるが、パターン光に対する反射率が異なる模様などが物体表面に存在する場合、この方式では計測精度が下がる恐れがある。   Further, since the method using pattern light is based on the principle of triangulation like the stereo method, the distance cannot be measured in an area that is shaded by the pattern light. In addition, there is a method that uses a modulated wave whose intensity is spatially changed as the pattern light. However, when a pattern having a different reflectance with respect to the pattern light exists on the object surface, this method may reduce the measurement accuracy.

また、測距センサを用いる方式においては、その特性はステレオ法の方式に準じ、コントラストの低い領域での測定精度が低い。   Further, in the method using the distance measuring sensor, the characteristic is similar to the method of the stereo method, and the measurement accuracy is low in the low contrast region.

また、上記の4つのいずれの方式にも共通する特性として、金属面や光沢面などの0次反射光成分のある面の計測は困難であることが挙げられる。   In addition, as a characteristic common to any of the above four methods, it is difficult to measure a surface having a zero-order reflected light component such as a metal surface or a glossy surface.

上述したような精度の低下を補うために、複数の距離計測方式で撮影を行い、測定結果を補完して相補的に精度を向上させることが可能である。しかしながら、0次反射光成分に対して精度が低下する点などは各方式間で共通しているため、各方式の組み合わせによる装置の大型化や煩雑さといった短所が増す割に、効果的に外乱を除去できない可能性がある。   In order to compensate for the decrease in accuracy as described above, it is possible to perform imaging using a plurality of distance measurement methods, complement the measurement results, and complementarily improve the accuracy. However, since the accuracy decreases with respect to the 0th-order reflected light component among the systems, the disturbance is effectively effective for increasing the disadvantages such as the size and complexity of the apparatus due to the combination of the systems. May not be removed.

本発明は、このような問題点に鑑みてなされたものであり、撮像対象との距離を表す距離画像を生成する際に、撮像対象の光反射やその光沢などの外乱、測定原理等に起因する距離の誤差の低減を実現する撮像装置及びその制御方法を提供することを目的とする。   The present invention has been made in view of such problems. When generating a distance image representing the distance to the imaging target, the present invention is caused by disturbances such as light reflection and gloss of the imaging target, measurement principles, and the like. An object of the present invention is to provide an imaging apparatus that realizes reduction of an error in the distance to be transmitted and a control method thereof.

本発明の撮像装置は、偏光方向の異なる複数の偏光子を含み、撮像対象からの光を偏光させる偏光光学系と、前記偏光方向の異なる複数の偏光子で偏光されたそれぞれの光を受光して、前記撮像対象までの距離を測定するための距離測定用素子と、所定の偏光方向の前記偏光子で偏光された光を受光して、偏光解析を行うための偏光解析用素子と、前記距離測定用素子が受光した光に基づいて、前記撮像対象までの距離情報取得する距離情報取得手段と、前記偏光解析用素子が受光した光の偏光情報に基づき前記偏光解析を行うことにより、前記撮像対象の表面形状情報を取得する表面形状情報取得手段と、前記距離情報と前記表面形状情報とに基づいて、前記撮像対象の距離画像を生成する距離画像生成手段とを有する。 An imaging apparatus of the present invention includes a plurality of polarizers having different polarization directions, and receives a polarization optical system that polarizes light from an imaging target and each light polarized by the plurality of polarizers having different polarization directions. A distance measuring element for measuring the distance to the imaging target, a polarization analyzing element for receiving polarization polarized light by the polarizer of a predetermined polarization direction, and performing polarization analysis, Based on the light received by the distance measuring element, distance information acquisition means for acquiring distance information to the imaging target, and by performing the polarization analysis based on the polarization information of the light received by the polarization analysis element, Surface shape information acquisition means for acquiring surface shape information of the imaging target, and distance image generation means for generating a distance image of the imaging target based on the distance information and the surface shape information .

本発明の撮像装置の制御方法は、偏光方向の異なる複数の偏光子を含み、撮像対象からの光を偏光させる偏光光学系と、前記偏光方向の異なる複数の偏光子で偏光されたそれぞれの光を受光して、前記撮像対象までの距離を測定するための距離測定用素子と、所定の偏光方向の前記偏光子で偏光された光を受光して、偏光解析を行うための偏光解析用素子とを備える撮像装置の制御方法であって、前記距離測定用素子が受光した光に基づいて、前記撮像対象までの距離情報取得する距離情報取得ステップと、前記偏光解析用素子が受光した光の偏光情報に基づき前記偏光解析を行うことにより、前記撮像対象の表面形状情報を取得する表面形状情報取得ステップと、前記距離情報と前記表面形状情報とに基づいて、前記撮像対象の距離画像を生成する距離画像生成ステップとを有する。 An imaging apparatus control method according to the present invention includes a polarizing optical system that includes a plurality of polarizers having different polarization directions and polarizes light from an imaging target, and each of the lights polarized by the plurality of polarizers having different polarization directions. A device for measuring the distance to the object to be imaged, and a device for polarization analysis for performing polarization analysis by receiving light polarized by the polarizer in a predetermined polarization direction a method for controlling an imaging apparatus including bets, based on the light the distance measuring device has received, a distance information acquiring step of acquiring the distance information to the imaging target, light the ellipsometer element has received of by performing the ellipsometry based on the polarization information, and the surface shape information acquiring step of acquiring the surface shape information of the imaging target, based on the distance information and the surface shape information, the imaging target distance image And a range image generating step of generating.

本発明によれば、撮像対象との距離を表す距離画像を生成する際に、撮像対象の光反射やその光沢などの外乱、測定原理等に起因する距離の誤差の低減を実現することができる。   According to the present invention, when generating a distance image representing a distance to an imaging target, it is possible to reduce a distance error caused by disturbances such as light reflection of the imaging target and its gloss, measurement principles, and the like. .

本発明の概要を示し、三次元画像撮像装置の概略構成の一例を示す模式図である。1 is a schematic diagram illustrating an outline of the present invention and an example of a schematic configuration of a three-dimensional image capturing apparatus. 本発明の第1の実施形態に係る三次元画像撮像装置の概略構成の一例を示す模式図である。It is a schematic diagram which shows an example of schematic structure of the three-dimensional image imaging device which concerns on the 1st Embodiment of this invention. 図2に示す第2の撮像手段の内部の偏光光学系及び第2の受光素子の詳細な構成の一例を示す模式図である。It is a schematic diagram which shows an example of a detailed structure of the polarization optical system and the 2nd light receiving element inside the 2nd imaging means shown in FIG. 本発明の第1の実施形態に係る三次元画像撮像装置の概略構成の他の例を示す模式図である。It is a schematic diagram which shows the other example of schematic structure of the three-dimensional image imaging device which concerns on the 1st Embodiment of this invention. 図4に示す第1の撮像手段及び第2の撮像手段の内部の偏光光学系及び受光素子の詳細な構成の一例を示す模式図である。FIG. 5 is a schematic diagram illustrating an example of a detailed configuration of a polarization optical system and a light receiving element inside the first imaging unit and the second imaging unit illustrated in FIG. 4. 撮像対象の物体表面の法線の方位角及び傾きの一例を示す模式図である。It is a schematic diagram which shows an example of the azimuth and inclination of the normal of the object surface of an imaging target. 三次元物体について偏光方位角と偏光度の観測例を示す模式図である。It is a schematic diagram which shows the example of an observation of a polarization azimuth and a polarization degree about a three-dimensional object. 計測された距離情報と偏光解析情報とに基づいて、距離画像を生成した結果の一例を示す模式図である。It is a schematic diagram which shows an example of the result of having produced | generated the distance image based on the measured distance information and ellipsometry information. 撮像対象の物体表面の法線の傾きの一例を示す模式図である。It is a schematic diagram which shows an example of the inclination of the normal line of the object surface of an imaging target. (5)式において、n=1.6、k=5としたときの偏光度ρと物体表面の法線の傾きφとの関係の一例を示す模式図である。In Formula (5), it is a schematic diagram which shows an example of the relationship between the polarization degree p when n = 1.6 and k = 5, and the inclination φ of the normal of the object surface. 本発明の第1の実施形態を示し、偏光解析手段による偏光解析処理の処理手順の一例を示すフローチャートである。It is a flowchart which shows the 1st Embodiment of this invention and shows an example of the process sequence of the polarization analysis process by a polarization analysis means. 本発明の第1の実施形態を示し、領域分割処理の処理手順の一例を示すフローチャートである。It is a flowchart which shows the 1st Embodiment of this invention and shows an example of the process sequence of an area | region division process. 本発明の第1の実施形態を示し、距離画像生成手段による距離情報と表面形状情報との統合処理の処理手順の一例を示すフローチャートである。It is a flowchart which shows the 1st Embodiment of this invention and shows an example of the process sequence of the integration process of the distance information and surface shape information by a distance image generation means. 本発明の第1の実施形態を示し、距離画像生成手段による距離情報と表面形状情報との統合処理の処理手順の他の例を示すフローチャートである。It is a flowchart which shows the 1st Embodiment of this invention and shows the other example of the process sequence of the integration process of the distance information and surface shape information by a distance image generation means. 本発明の第2の実施形態に係る三次元画像撮像装置の概略構成の一例を示す模式図である。It is a schematic diagram which shows an example of schematic structure of the three-dimensional image imaging device which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態を示し、距離算出手段において、パターン光による三角測量の距離算出の原理を説明する模式図である。FIG. 9 is a schematic diagram illustrating the principle of triangulation distance calculation using pattern light in the distance calculation unit according to the second embodiment of this invention. 本発明の第2の実施形態を示し、距離算出手段において、パターン光による距離算出の際の欠落領域の一例を示す模式図である。It is a schematic diagram which shows the 2nd Embodiment of this invention and shows an example of the missing area | region in the case of the distance calculation by a pattern light in a distance calculation means. 本発明の第2の実施形態を示し、距離画像生成手段による距離情報と表面形状情報との統合処理の処理手順の一例を示すフローチャートである。It is a flowchart which shows the 2nd Embodiment of this invention and shows an example of the process sequence of the integration process of the distance information and surface shape information by a distance image generation means. 本発明の第3の実施形態に係る三次元画像撮像装置の概略構成の一例を示す模式図である。It is a schematic diagram which shows an example of schematic structure of the three-dimensional image imaging device which concerns on the 3rd Embodiment of this invention. 本発明の第3の実施形態を示し、測距センサの原理の一例を示す模式図である。It is a schematic diagram which shows the 3rd Embodiment of this invention and shows an example of the principle of a ranging sensor. 本発明の第4の実施形態に係る三次元画像撮像装置の概略構成の一例を示す模式図である。It is a schematic diagram which shows an example of schematic structure of the three-dimensional image imaging device which concerns on the 4th Embodiment of this invention. 本発明の第4の実施形態に係る三次元画像撮像装置の概略構成の他の例を示す模式図である。It is a schematic diagram which shows the other example of schematic structure of the three-dimensional image imaging device which concerns on the 4th Embodiment of this invention.

以下に、図面を参照しながら、本発明を実施するための最良の形態(実施形態)について説明する。なお、以下の説明では、本発明に係る撮像装置として、例えば、三次元の距離計測を行うための距離画像を生成する三次元画像撮像装置を適用した例を説明する。   The best mode (embodiment) for carrying out the present invention will be described below with reference to the drawings. In the following description, an example in which, for example, a three-dimensional image imaging device that generates a distance image for performing three-dimensional distance measurement is applied as the imaging device according to the present invention will be described.

−本発明の概要−
まず、本発明の具体的な各実施形態を説明する前に、本発明の概要について説明する。
-Outline of the present invention-
First, before describing specific embodiments of the present invention, an overview of the present invention will be described.

図1は、本発明の概要を示し、三次元画像撮像装置100の概略構成の一例を示す模式図である。
図1に示す三次元画像撮像装置100は、第1の撮像手段110と、第2の撮像手段120と、距離算出手段130と、偏光解析手段140と、距離画像生成手段150を有して構成されている。
FIG. 1 is a schematic diagram illustrating an outline of the present invention and an example of a schematic configuration of a three-dimensional image capturing apparatus 100.
A three-dimensional image capturing apparatus 100 shown in FIG. 1 includes a first image capturing unit 110, a second image capturing unit 120, a distance calculating unit 130, a polarization analyzing unit 140, and a distance image generating unit 150. Has been.

第1の撮像手段110は、撮像対象からの入力光101aを結像させる第1の結像光学系111と、測距用光学系112と、第1の受光素子113を有して構成され、距離計測のための画像を撮像するものである。   The first imaging unit 110 includes a first imaging optical system 111 that forms an image of the input light 101a from the imaging target, a ranging optical system 112, and a first light receiving element 113. An image for distance measurement is taken.

第2の撮像手段120は、撮像対象からの入力光101bを結像させる第2の結像光学系121と、偏光光学系122と、第2の受光素子123を有して構成され、偏光成分計測のための画像を撮像するものである。   The second imaging unit 120 includes a second imaging optical system 121 that forms an image of the input light 101b from the imaging target, a polarization optical system 122, and a second light receiving element 123, and includes a polarization component. An image for measurement is taken.

距離算出手段130は、第1の撮像手段110で撮像された画像から得られる計測データ102から撮像対象との距離に係る距離情報103を算出する。   The distance calculating unit 130 calculates distance information 103 related to the distance to the imaging target from the measurement data 102 obtained from the image captured by the first imaging unit 110.

偏光解析手段140は、第2の撮像手段120で撮像された画像から得られる偏光成分データ104を解析し、解析結果を偏光解析情報105として出力する。ここで、偏光成分データ104とは、偏光子(例えば、後述する図3の301)を通過させて得られる特定の方向に偏光された画像データを指す。また、偏光解析情報105とは、偏光成分データ104を解析して得られる偏光度や偏光方位角といった偏光に係る二次的な情報を指す。   The polarization analysis unit 140 analyzes the polarization component data 104 obtained from the image captured by the second imaging unit 120 and outputs the analysis result as polarization analysis information 105. Here, the polarization component data 104 refers to image data polarized in a specific direction obtained by passing through a polarizer (for example, 301 in FIG. 3 described later). The polarization analysis information 105 refers to secondary information related to polarization such as the degree of polarization and the polarization azimuth obtained by analyzing the polarization component data 104.

距離画像生成手段150は、距離算出手段130で算出された距離情報103と、偏光解析手段140から出力された偏光解析情報105に基づいて、撮像対象との距離を表す距離画像106を生成する。   The distance image generation unit 150 generates a distance image 106 representing the distance to the imaging target based on the distance information 103 calculated by the distance calculation unit 130 and the polarization analysis information 105 output from the polarization analysis unit 140.

また、本明細書では、便宜的に、従来の距離計測手段によって得られる情報を距離情報と呼び、距離情報と偏光解析情報を統合し、推定して得られる情報のことを距離画像と呼んで区別する。   Further, in this specification, for convenience, information obtained by a conventional distance measuring means is called distance information, and information obtained by integrating and estimating distance information and ellipsometry information is called a distance image. Distinguish.

このように、本発明に係る三次元画像撮像装置100では、第1の撮像手段110で撮像された距離計測のための画像から得られた距離情報103と、第2の撮像手段120で撮像された偏光成分計測のための画像から得られた偏光解析情報105を用いる。即ち、本発明では、距離情報103と偏光解析情報105という、光学的な特性の異なる2つの情報を統合することにより、測定値の欠落した欠落領域や外乱による誤差が生じている領域を他方の情報で補完するようにするものである。これにより、本発明に係る三次元画像撮像装置100では、撮像対象の光沢面の測定精度が向上するなど、従来の距離測定方式の測定誤差を低減した距離画像を生成することができる。   As described above, in the three-dimensional image capturing apparatus 100 according to the present invention, the distance information 103 obtained from the distance measurement image captured by the first image capturing unit 110 and the second image capturing unit 120 are captured. The ellipsometric information 105 obtained from the image for measuring the polarization component is used. That is, in the present invention, by integrating two pieces of information having different optical characteristics, that is, the distance information 103 and the ellipsometric information 105, the missing region where the measurement value is missing or the region where the error due to the disturbance is generated is displayed on the other side. It complements with information. As a result, the 3D image capturing apparatus 100 according to the present invention can generate a distance image in which measurement errors of the conventional distance measuring method are reduced, for example, the measurement accuracy of the glossy surface to be imaged is improved.

即ち、本発明に係る三次元画像撮像装置100によれば、撮像対象との距離を表す距離画像を生成する際に、撮像対象の光反射やその光沢などの外乱、測定原理等に起因する距離の誤差の低減を実現することができる。   That is, according to the three-dimensional image capturing apparatus 100 according to the present invention, when generating a distance image representing the distance to the imaging target, the distance due to the light reflection of the imaging target, disturbance such as its gloss, the measurement principle, etc. The reduction of the error can be realized.

また、第1の撮像手段110としては、例えば、光線の飛行時間(TOF)を利用した画像を撮像するもの、或いは、パターン光を用いる方式やステレオ方式による距離情報に係る画像を撮像するもの等を適用することができる。なお、第1の撮像手段110としては、この様態に限定されるものではなく、距離計測のための画像を撮像するものであればどのような方式のものでも適用可能である。また、第1の撮像手段110は、受動的な計測方式でもよく、能動的な計測方式でもよい。   Further, as the first imaging unit 110, for example, an image that uses an image of time of flight (TOF) of light, an image that uses pattern light, or an image related to distance information by a stereo method, etc. Can be applied. The first imaging unit 110 is not limited to this mode, and any system can be applied as long as it captures an image for distance measurement. The first imaging unit 110 may be a passive measurement method or an active measurement method.

また、第1の受光素子113と第2の受光素子123を、1つの受光素子のパネルの上に混在させて形成することも可能である。また、一種類の受光素子を用いて距離計測と偏光成分計測とを交互に行うことも可能である。さらに、一種類の受光素子を用いて距離計測と偏光成分計測を同時に行うことも可能である。   In addition, the first light receiving element 113 and the second light receiving element 123 can be mixed on a panel of one light receiving element. It is also possible to alternately perform distance measurement and polarization component measurement using one type of light receiving element. Furthermore, distance measurement and polarization component measurement can be simultaneously performed using one type of light receiving element.

また、偏光解析情報105としては、例えば、直線偏光の偏光方位角と偏光度の情報を用いることができる。なお、偏光解析情報105としては、この直線偏光の情報に限るものではなく、例えば、円偏光成分の情報を用いる態様でもよい。また、本発明に係る三次元画像撮像装置100では、偏光方位角が撮像対象の物体表面の法線の方位と一致し、偏光度が撮像対象の物体表面の法線の傾きに依存することを利用し、2つの属性から撮像対象の表面形状を復元するようにする。そして、撮像対象の表面形状の復元の際に、例えば距離情報を用いることによって、偏光方位角の曖昧性を排して偏光方位角を一意に決定することを可能とする。   Further, as the polarization analysis information 105, for example, information on the polarization azimuth angle and polarization degree of linearly polarized light can be used. Note that the polarization analysis information 105 is not limited to this linearly polarized information, and may be an embodiment using, for example, circularly polarized component information. In the three-dimensional image capturing apparatus 100 according to the present invention, the polarization azimuth angle coincides with the direction of the normal of the object surface to be imaged, and the degree of polarization depends on the inclination of the normal of the object surface to be imaged. The surface shape of the imaging target is restored from the two attributes. Then, when restoring the surface shape of the imaging target, for example, by using distance information, it is possible to eliminate the ambiguity of the polarization azimuth and uniquely determine the polarization azimuth.

また、偏光解析情報105として、偏光成分と無偏光成分の情報を利用し、2つの成分を分離することによって撮像対象の表面の映り込みや反射光成分を取り除く。また、例えば距離画像生成手段150は、距離情報103と、偏光成分データ104を解析して得られる偏光解析情報105(例えば撮像対象の表面形状情報)とを比較する。そして、例えば距離画像生成手段150は、距離情報103と偏光解析情報105のどちらか一方に分布の不連続性を生じさせ、他方には影響を及ぼさないような成分を外乱成分として除去する。   Further, the polarization analysis information 105 is used as information on the polarization component and the non-polarization component, and the two components are separated to remove the reflection or reflected light component on the surface of the imaging target. For example, the distance image generation unit 150 compares the distance information 103 with the polarization analysis information 105 (for example, surface shape information of the imaging target) obtained by analyzing the polarization component data 104. For example, the distance image generation unit 150 causes discontinuity of distribution in one of the distance information 103 and the ellipsometric information 105, and removes a component that does not affect the other as a disturbance component.

また、例えば距離画像生成手段150は、距離情報103の欠落部分(例えば、図17に示す欠落領域1701)を、偏光成分データ104を解析して得られる偏光解析情報105(例えば撮像対象の表面形状情報)を用いて補完する。   Further, for example, the distance image generating unit 150 analyzes the polarization analysis data 105 (for example, the surface shape of the imaging target) by analyzing the missing portion of the distance information 103 (for example, the missing region 1701 shown in FIG. 17) and the polarization component data 104. Information).

また、例えば距離画像生成手段150は、距離情報103と、偏光成分データ104を解析して得られる偏光解析情報105(例えば撮像対象の表面形状情報)を用いて、距離画像106を生成する。この際、例えば、距離情報103及び偏光解析情報105(例えば撮像対象の表面形状情報)の連続性を正則項として、エネルギー関数を最小化することにより、距離画像106を生成する。   For example, the distance image generation unit 150 generates the distance image 106 using the distance information 103 and the polarization analysis information 105 (for example, surface shape information of the imaging target) obtained by analyzing the polarization component data 104. At this time, for example, the distance image 106 is generated by minimizing the energy function using the continuity of the distance information 103 and the ellipsometry information 105 (for example, surface shape information of the imaging target) as a regular term.

また、例えば距離画像生成手段150は、偏光成分データ104を解析して得られる偏光解析情報105(例えば撮像対象の表面形状情報)が、距離情報103に適合するように、撮像対象の相対的な高さの推定を行う。また、この際、例えば、偏光解析情報105(例えば撮像対象の表面形状情報)を用いて、画像を複数の領域に分割して、領域ごとに距離情報103に当該表面形状情報が適合するように撮像対象の相対的な高さの推定を行う。   In addition, for example, the distance image generation unit 150 analyzes the relative polarization of the imaging target so that the polarization analysis information 105 (for example, surface shape information of the imaging target) obtained by analyzing the polarization component data 104 matches the distance information 103. Estimate the height. At this time, for example, the ellipsometric information 105 (for example, surface shape information of the imaging target) is used to divide the image into a plurality of regions so that the surface shape information matches the distance information 103 for each region. The relative height of the imaging target is estimated.

また、距離画像生成手段150は、距離情報103と、偏光成分データ104を解析して得られる偏光解析情報105(例えば撮像対象の表面形状情報)とについて、信頼度の重み付けを行って統合することにより距離画像106を生成する。さらに、距離画像生成手段150は、距離情報103と、偏光成分データ104を解析して得られる偏光解析情報105(例えば撮像対象の表面形状情報)に基づいて、撮像対象の屈折率を推定する処理も行う。   Further, the distance image generation unit 150 integrates the distance information 103 and the polarization analysis information 105 (for example, surface shape information of the imaging target) obtained by analyzing the polarization component data 104 by weighting the reliability. Thus, the distance image 106 is generated. Further, the distance image generation unit 150 estimates the refractive index of the imaging target based on the distance information 103 and the polarization analysis information 105 (for example, surface shape information of the imaging target) obtained by analyzing the polarization component data 104. Also do.

さらに、本発明に係る三次元画像撮像装置100では、図1には不図示であるが、距離画像生成手段150による計測結果である距離画像106を動画として記録する記録手段を有して構成されている。   Further, the three-dimensional image capturing apparatus 100 according to the present invention is configured to include a recording unit (not shown in FIG. 1) that records the distance image 106 as a moving image as a measurement result by the distance image generation unit 150. ing.

−本発明の概要を踏まえた具体的な各実施形態−
次に、上述した本発明の概要を踏まえた具体的な各実施形態について説明を行う。
-Specific embodiments based on the outline of the present invention-
Next, specific embodiments based on the outline of the present invention described above will be described.

(第1の実施形態)
まず、本発明の第1の実施形態について説明する。
図2は、本発明の第1の実施形態に係る三次元画像撮像装置100の概略構成の一例を示す模式図である。なお、図1に示す構成と同様の構成については同じ符号を付し、また、以下の説明では、図2に示す三次元画像撮像装置100を三次元画像撮像装置100−1Aとして記載する。
(First embodiment)
First, a first embodiment of the present invention will be described.
FIG. 2 is a schematic diagram illustrating an example of a schematic configuration of the three-dimensional image capturing apparatus 100 according to the first embodiment of the present invention. In addition, the same code | symbol is attached | subjected about the structure similar to the structure shown in FIG. 1, and the 3D image imaging device 100 shown in FIG. 2 is described as 3D image imaging device 100-1A in the following description.

図2に示す三次元画像撮像装置100−1Aは、第1の撮像手段210と、第2の撮像手段220と、距離算出手段130と、偏光解析手段140と、形状復元手段230と、距離画像生成手段150を有して構成されている。   A three-dimensional image capturing apparatus 100-1A shown in FIG. 2 includes a first image capturing unit 210, a second image capturing unit 220, a distance calculating unit 130, a polarization analyzing unit 140, a shape restoring unit 230, and a distance image. The generation unit 150 is included.

第1の撮像手段210は、結像光学系211と、ビームスプリッタ212と、フィルタ213と、第1の受光素子113と、投光部214と、飛行時間計測部215を有して構成され、距離計測のための画像を撮像するものである。   The first imaging unit 210 includes an imaging optical system 211, a beam splitter 212, a filter 213, a first light receiving element 113, a light projecting unit 214, and a time-of-flight measuring unit 215. An image for distance measurement is taken.

また、第2の撮像手段220は、結像光学系211と、ビームスプリッタ212と、フィルタ221と、偏光光学系122と、第2の受光素子123を有して構成され、偏光成分計測のための画像を撮像するものである。   The second imaging means 220 includes an imaging optical system 211, a beam splitter 212, a filter 221, a polarization optical system 122, and a second light receiving element 123, and is used for measuring polarization components. This image is taken.

このように、図2に示す第1の撮像手段210及び第2の撮像手段220では、結像光学系211とビームスプリッタ212とが両方に共通して構成されている。即ち、図2に示す三次元画像撮像装置100−1Aは、図1に示す第1の結像光学系111と第2の結像光学系121を1つの結像光学系211によって兼ねて構成し、光軸を同一とするものとなっている。   As described above, in the first imaging unit 210 and the second imaging unit 220 shown in FIG. 2, the imaging optical system 211 and the beam splitter 212 are configured in common. That is, the three-dimensional image pickup apparatus 100-1A shown in FIG. 2 is configured such that the first imaging optical system 111 and the second imaging optical system 121 shown in FIG. The optical axes are the same.

距離計測のための第1の撮像手段210としては、例えば、特許文献2などで一般的に用いられているTOF方式と同様のものを用いるものとする。   As the first imaging means 210 for distance measurement, for example, the same one as the TOF method generally used in Patent Document 2 is used.

図2に示す三次元画像撮像装置100−1Aにおいて、距離画像106を生成するまでの流れは、以下のようになる。   In the three-dimensional image capturing apparatus 100-1A shown in FIG. 2, the flow until the distance image 106 is generated is as follows.

まず、第1の撮像手段210の投光部214から撮像対象に対して、変調した照射光201を投光する。そして、撮像対象から反射して戻ってきた入力光a及びb(101a及び101b)を結像光学系211で集光し、ビームスプリッタ212で分割してその一部の光を距離測定のための第1の撮像手段210の内部に導く。   First, the modulated irradiation light 201 is projected from the light projecting unit 214 of the first imaging unit 210 to the imaging target. Then, the input lights a and b (101a and 101b) reflected and returned from the imaging target are collected by the imaging optical system 211, divided by the beam splitter 212, and a part of the light is used for distance measurement. The first imaging means 210 is guided inside.

第1の撮像手段210の内部に導かれた光は、照射光201の帯域のみ通過させるフィルタ213に通された後に、第1の受光素子113に結像する。飛行時間計測部215は、投光部214からの参照波形202と、第1の受光素子113で受光した光の変調波形203とを第1の受光素子113の画素ごとに比較し、照射光201が撮像対象に到達して当該撮像装置に戻るまでの飛行時間情報204を算出する。その後、距離算出手段130は、飛行時間情報204から撮像対象との距離に係る距離情報103を算出する。   The light guided to the inside of the first imaging means 210 is passed through a filter 213 that allows only the band of the irradiation light 201 to pass through, and then forms an image on the first light receiving element 113. The time-of-flight measurement unit 215 compares the reference waveform 202 from the light projecting unit 214 with the modulation waveform 203 of the light received by the first light receiving element 113 for each pixel of the first light receiving element 113, and the irradiation light 201. Time-of-flight information 204 from when the camera reaches the imaging target and returns to the imaging apparatus is calculated. Thereafter, the distance calculation unit 130 calculates distance information 103 related to the distance to the imaging target from the flight time information 204.

なお、照射光201の波長は、一般的に用いられる撮像素子(受光素子)に感受性があって人間には感受性のない近赤外光が望ましいが、他の波長やレーザー光でもよいし、複数の波長を組み合わせたものでもよい。また、変調の方法としては、強度を変調した光を用いてもよいし、周波数変調した光を用いてもよいし、パルス変調した光を用いてもよい。   The wavelength of the irradiation light 201 is preferably near-infrared light that is sensitive to a commonly used imaging device (light receiving device) and is not sensitive to humans. However, other wavelengths or laser light may be used. A combination of these wavelengths may also be used. As a modulation method, light whose intensity is modulated may be used, frequency-modulated light, or pulse-modulated light may be used.

ビームスプリッタ212は、一定の割合の光を偏光成分計測のための第2の撮像手段220の内部に導く。ここで、ビームスプリッタ212として、無偏光ビームスプリッタを用い、透過前と透過後で偏光状態が変わらないことが望ましい。   The beam splitter 212 guides a certain proportion of light into the second imaging unit 220 for measuring the polarization component. Here, it is desirable that a non-polarizing beam splitter is used as the beam splitter 212 and the polarization state does not change before and after transmission.

第2の撮像手段220の内部に導かれた光は、フィルタ221によって照射光201に由来する入力光a(101a)の帯域が遮断され、主に環境光に由来する入力光b(101b)がフィルタ221を通過する。   The light guided to the inside of the second imaging means 220 is blocked by the filter 221 in the band of the input light a (101a) derived from the irradiation light 201, and the input light b (101b) mainly derived from the ambient light. Passes through the filter 221.

図3は、図2に示す第2の撮像手段220の内部の偏光光学系122及び第2の受光素子123の詳細な構成の一例を示す模式図である。   FIG. 3 is a schematic diagram illustrating an example of a detailed configuration of the polarization optical system 122 and the second light receiving element 123 inside the second imaging unit 220 illustrated in FIG. 2.

図3に示すように、偏光光学系122には、偏光の方位の異なる微小領域である複数の直線偏光の偏光子301がアレイ状に配接されている。図3に示す例では、受光素子123の4画素(302a〜303d)を1ブロック単位とし、この1ブロック単位に、それぞれ、0度、45度、90度、135度の偏光方位の異なる4種の直線偏光子301a〜301dが設けられている。このように、特定の方向の偏光子301に対応する画素302のみから信号を読み出すことで、4種類のうちの任意の一種類の偏光成分の画像を得ることができる。なお、偏光光学系122における偏光子アレイの配列の規則は、図3に示すものに限定されるものではなく、他の配列であっても、また規則性のないものでもよく、その場合には偏光成分の画像(偏光画像)に干渉縞が生じるのを防ぐ効果がある。また、後述する偏光解析を行うためには、一般に3方向以上の異なる種類の偏光子301があればよい。   As shown in FIG. 3, a plurality of linearly polarized light polarizers 301, which are minute regions having different polarization directions, are arranged in an array on the polarizing optical system 122. In the example shown in FIG. 3, the four pixels (302a to 303d) of the light receiving element 123 are set as one block unit, and four types having different polarization directions of 0 degree, 45 degrees, 90 degrees, and 135 degrees are provided for each block unit. Linear polarizers 301a to 301d are provided. In this way, by reading out signals only from the pixels 302 corresponding to the polarizer 301 in a specific direction, it is possible to obtain an image of any one of the four types of polarization components. Note that the rules for the arrangement of the polarizer array in the polarization optical system 122 are not limited to those shown in FIG. 3, and other arrangements or no regularity may be used. There is an effect of preventing the occurrence of interference fringes in the polarization component image (polarized image). In addition, in order to perform polarization analysis, which will be described later, in general, there may be different types of polarizers 301 in three or more directions.

続いて、偏光解析手段140は、第2の撮像手段220でこのようにして得られた偏光成分データ104に基づいて、偏光状態の解析処理を行って、解析結果を偏光解析情報105として出力する。形状復元手段230は、偏光解析手段140から出力された偏光解析情報105に基づいて、撮像対象の表面形状の復元処理を行って、復元処理結果を表面形状情報205として出力する。そして、距離画像生成手段150は、距離算出手段130で算出された距離情報103と、形状復元手段230から出力された表面形状情報205に基づいて、これらを統合して、撮像対象との距離を表す距離画像106を生成する。   Subsequently, the polarization analysis means 140 performs a polarization state analysis process based on the polarization component data 104 obtained in this way by the second imaging means 220 and outputs the analysis result as polarization analysis information 105. . The shape restoration unit 230 performs a restoration process of the surface shape of the imaging target based on the polarization analysis information 105 output from the polarization analysis unit 140, and outputs the restoration process result as the surface shape information 205. Then, the distance image generating unit 150 integrates these based on the distance information 103 calculated by the distance calculating unit 130 and the surface shape information 205 output from the shape restoring unit 230, and calculates the distance from the imaging target. A distance image 106 is generated.

図4は、本発明の第1の実施形態に係る三次元画像撮像装置100の概略構成の他の例を示す模式図である。なお、図1及び図2に示す構成と同様の構成については同じ符号を付し、また、以下の説明では、図4に示す三次元画像撮像装置100を三次元画像撮像装置100−1Bとして記載する。   FIG. 4 is a schematic diagram illustrating another example of the schematic configuration of the three-dimensional image capturing apparatus 100 according to the first embodiment of the present invention. 1 and 2 are denoted by the same reference numerals, and in the following description, the three-dimensional image pickup device 100 shown in FIG. 4 is described as the three-dimensional image pickup device 100-1B. To do.

図4に示す三次元画像撮像装置100−1Bでは、図2に示すビームスプリッタ212(更にはフィルタ)を設けずに、距離計測用の第1の撮像手段410と偏光成分計測の第2の撮像手段420との光路を完全に同一とする構成である。   In the three-dimensional image pickup apparatus 100-1B shown in FIG. 4, the first image pickup means 410 for distance measurement and the second image pickup for polarization component measurement are provided without providing the beam splitter 212 (and further the filter) shown in FIG. The optical path to the means 420 is completely the same.

即ち、第1の撮像手段410は、結像光学系211、偏光光学系421、受光素子422、投光部214及び飛行時間計測部215を有して構成され、第2の撮像手段420は、結像光学系211、偏光光学系421及び受光素子422を有して構成されている。その他の構成は、図2に示す三次元画像撮像装置100−1Aと同様である。   That is, the first imaging unit 410 is configured to include an imaging optical system 211, a polarizing optical system 421, a light receiving element 422, a light projecting unit 214, and a time-of-flight measuring unit 215, and the second imaging unit 420 includes The imaging optical system 211, the polarization optical system 421, and the light receiving element 422 are included. Other configurations are the same as those of the three-dimensional image capturing apparatus 100-1A shown in FIG.

図5は、図4に示す第1の撮像手段410及び第2の撮像手段420の内部の偏光光学系421及び受光素子422の詳細な構成の一例を示す模式図である。
図4に示す三次元画像撮像装置100−1Bの場合には、例えば、図5(a)に示すような偏光光学系421及び受光素子422の態様を採る。図5(a)に示す態様では、偏光成分の画素502(502a〜502d)と、飛行時間を計測する測距用の画素503とが、受光素子422の同一面上に、一定の規則で配列されて混在している。ここで、偏光成分の画素502(502a〜502d)と測距用の画素503とは、複数存在するうちの一組のみを図5(a)中に指し示している。偏光成分の画素502a〜502dは、それぞれ、偏光光学系421の偏光子501a〜501dを通過した入力光を受光する。また、測距用の画素503は、偏光成分の画素502a〜502dの中心の位置に配置され、偏光子501a〜501dを通過した入力光を均等に受光する。図5(a)に示す態様では、各画素当たりの受光量は低下するが、1つの受光素子422を設けるだけでよく、装置を小型化できる効果がある。
FIG. 5 is a schematic diagram illustrating an example of a detailed configuration of the polarization optical system 421 and the light receiving element 422 inside the first imaging unit 410 and the second imaging unit 420 illustrated in FIG. 4.
In the case of the three-dimensional image capturing apparatus 100-1B shown in FIG. 4, for example, the polarization optical system 421 and the light receiving element 422 as shown in FIG. In the embodiment shown in FIG. 5A, the polarization component pixels 502 (502a to 502d) and the ranging pixels 503 for measuring the flight time are arranged on the same surface of the light receiving element 422 according to a certain rule. Have been mixed. Here, only one set of a plurality of polarization component pixels 502 (502a to 502d) and distance measurement pixels 503 is indicated in FIG. 5A. The polarization component pixels 502 a to 502 d receive the input light that has passed through the polarizers 501 a to 501 d of the polarization optical system 421, respectively. The ranging pixels 503 are arranged at the center positions of the polarization component pixels 502a to 502d, and uniformly receive the input light that has passed through the polarizers 501a to 501d. In the embodiment shown in FIG. 5A, the amount of light received per pixel is reduced, but only one light receiving element 422 needs to be provided, and the apparatus can be downsized.

また、図4に示す三次元画像撮像装置100−1Bの場合には、例えば、図5(b)に示すような偏光光学系421及び受光素子422の別の態様を採ることもできる。
図5(b)に示す態様では、偏光光学系421が偏光子511a〜511c及び測距用の光学素子512からなり、それに対応して、受光素子422が偏光成分の画素513a〜513c及び測距用の画素514が構成されている。ここで、偏光成分の画素513(513a〜513d)と測距用の画素514とは、複数存在するうちの一組のみを図5(b)中に指し示している。
In the case of the three-dimensional image capturing apparatus 100-1B shown in FIG. 4, for example, another aspect of the polarization optical system 421 and the light receiving element 422 as shown in FIG.
In the mode shown in FIG. 5B, the polarization optical system 421 includes polarizers 511a to 511c and distance measuring optical elements 512, and correspondingly, the light receiving element 422 includes polarization component pixels 513a to 513c and distance measurement. A pixel 514 is configured. Here, only one set of a plurality of polarization component pixels 513 (513a to 513d) and distance measurement pixels 514 is indicated in FIG. 5B.

図5(b)に示す態様では、偏光子511a〜511cを通る入力光は、偏光子で偏光されて、それぞれ、偏光成分の画素513a〜513dで受光される。また、残りの入力光は、測距用の光学素子512を通過して偏光されずに、測距用の画素514で受光される。測距用の光学素子512は、測距用の照射光の帯域のみを通すフィルタであってもよいし、単なる空隙でもよい。なお、図5(b)に示す様態における偏光子511は、3方向のみであるが、偏光解析は3方向の偏光成分があれば行うことが可能である。   In the embodiment shown in FIG. 5B, the input light passing through the polarizers 511a to 511c is polarized by the polarizer and received by the polarization component pixels 513a to 513d, respectively. Further, the remaining input light passes through the ranging optical element 512 and is received by the ranging pixel 514 without being polarized. The optical element 512 for distance measurement may be a filter that passes only a band of irradiation light for distance measurement, or may be a simple gap. Note that the polarizer 511 in the mode shown in FIG. 5B has only three directions, but the polarization analysis can be performed if there are polarization components in the three directions.

また、図4に示す三次元画像撮像装置100−1Bにおいては、飛行時間の計測と偏光成分の計測の両方を一種類の受光素子422で行うものである。例えば、両者の計測を異なるタイミングで交互に行うことができる。この場合、例えば、最初の1フレームの撮影では、強度や周波数を変調した照射光201を撮像対象に投光して受光素子422で受光する。飛行時間計測部215は、受光素子の画素ごとに、受光素子422で計測された変調波形401と参照波形202との位相差を比較して、飛行時間情報204を算出する。そして、距離算出手段130は、飛行時間情報204から、受光素子の画素ごとに撮像対象までの距離に係る距離情報103を算出する。この最初の1フレームでは、偏光光学系421のどの偏光子を通過した変調光も区別なく扱う。そして、次の1フレームでは、投光部214による照射光201の照明は行わず、環境光を用いて偏光光学系421を通過した偏光成分を受光素子422で受光し、偏光解析手段140によって偏光の解析を行う。以上のようにして、計測動作を交互に繰り返して行うことで、一種類の受光素子422で飛行時間の計測と偏光成分の計測が可能である。   Further, in the three-dimensional image capturing apparatus 100-1B shown in FIG. 4, both the measurement of the flight time and the measurement of the polarization component are performed by one type of light receiving element 422. For example, both measurements can be performed alternately at different timings. In this case, for example, in imaging of the first frame, the irradiation light 201 whose intensity and frequency are modulated is projected onto the imaging target and received by the light receiving element 422. The flight time measuring unit 215 calculates the flight time information 204 by comparing the phase difference between the modulation waveform 401 measured by the light receiving element 422 and the reference waveform 202 for each pixel of the light receiving element. Then, the distance calculation means 130 calculates distance information 103 related to the distance to the imaging target for each pixel of the light receiving element from the flight time information 204. In the first frame, the modulated light that has passed through any polarizer of the polarization optical system 421 is handled without distinction. In the next one frame, the illumination light 201 is not illuminated by the light projecting unit 214, and the polarization component that has passed through the polarization optical system 421 using ambient light is received by the light receiving element 422 and polarized by the polarization analyzing unit 140. Perform analysis. As described above, by repeating the measurement operation alternately, it is possible to measure the time of flight and the polarization component with one type of light receiving element 422.

また、飛行時間の計測と偏光成分の計測の両方を一種類の受光素子422で同時に行うこともできる。この場合、変調した照射光201を撮像対象に投光して、その入力光を受光素子422で受光する。受光素子422で計測した信号は偏光方向の区別をせずに変調波形401として飛行時間計測部215に送られ、飛行時間計測部215において、この変調波形401と参照波形202とを比較して、飛行時間情報204を算出する。そして、距離算出手段130は、飛行時間情報204から撮像対象までの距離に係る距離情報103を算出する。また、同時に、受光素子422から変調波形401を偏光成分データとして偏光解析手段140に送る。この際、偏光解析手段140の内部に、波形積分器(図4では不図示)を設けておき、偏光解析手段140では、受光素子422の画素ごとに、変調波形401の単位時間の平均値を算出し、算出した値を元に、後述する偏光解析を行う。このように、飛行時間の計測と偏光成分の計測を同時に行うことで、撮像対象及び三次元画像撮像装置100−1Bの動きやずれによる誤差を低減する効果が得られる。   Further, both the measurement of the time of flight and the measurement of the polarization component can be simultaneously performed by one type of light receiving element 422. In this case, the modulated irradiation light 201 is projected onto the imaging target, and the input light is received by the light receiving element 422. The signal measured by the light receiving element 422 is sent to the time-of-flight measurement unit 215 as a modulation waveform 401 without distinguishing the polarization direction, and the time-of-flight measurement unit 215 compares the modulation waveform 401 with the reference waveform 202, Flight time information 204 is calculated. Then, the distance calculation unit 130 calculates distance information 103 related to the distance from the flight time information 204 to the imaging target. At the same time, the modulation waveform 401 is sent from the light receiving element 422 to the polarization analyzing means 140 as polarization component data. At this time, a waveform integrator (not shown in FIG. 4) is provided inside the polarization analyzing means 140, and the polarization analyzing means 140 calculates the average value of the unit time of the modulation waveform 401 for each pixel of the light receiving element 422. The polarization analysis described later is performed based on the calculated value. As described above, by performing the time-of-flight measurement and the polarization component measurement at the same time, it is possible to obtain an effect of reducing an error due to movement or deviation of the imaging target and the three-dimensional image imaging device 100-1B.

次に、距離情報103と偏光成分データ104とを統合して、距離画像106を生成するまでの手順について詳細に説明する。   Next, a procedure until the distance image 106 is generated by integrating the distance information 103 and the polarization component data 104 will be described in detail.

<距離情報の取得>
TOF方式における距離算出手段130によって得られた距離情報103の分布をD(x,y)とする。Dには、散乱や多重反射による誤差が含まれている。なお、計算の便宜上、観測中の最大距離Dmaxを用いてD´を以下の(1)式と定義する。
<Obtain distance information>
The distribution of the distance information 103 obtained by the distance calculation means 130 in the TOF method is D (x, y). D includes errors due to scattering and multiple reflection. For convenience of calculation, D ′ is defined as the following equation (1) using the maximum distance D max during observation.

Figure 0005541653
Figure 0005541653

以降、このDの符号の反転したD´を距離情報Dとして用いる。   Hereinafter, D ′ with the sign of D inverted is used as distance information D.

<偏光解析>
ここでは、偏光解析を行って撮像対象の表面形状を推定する手順について述べる。
まず、偏光解析手段140は、偏光成分データ104の偏光解析により、偏光方位角と偏光度を求める。この偏光方位角と偏光度を求める方法としては、いくつか知られているが、本実施形態では、4方向の偏光成分データを用いた一般的な方法について説明する。
<Polarization analysis>
Here, a procedure for performing polarization analysis and estimating the surface shape of the imaging target will be described.
First, the polarization analysis means 140 obtains the polarization azimuth angle and the polarization degree by polarization analysis of the polarization component data 104. Several methods are known for obtaining the polarization azimuth angle and the polarization degree. In the present embodiment, a general method using polarization component data in four directions will be described.

まず、偏光解析手段140は、計測された偏光成分データ104を受光素子の種類ごとにまとめることにより、4枚の偏光成分画像を生成する。この偏光成分画像は、それぞれ直線偏光の方位が0度、45度、90度、135度の偏光成分の強度の分布画像であり、この分布をP0(x,y)、P45(x,y)、P90(x,y)、P135(x,y)とする。ここで、距離情報103のD(x,y)と、Pi(x,y)とを比べたときに、どちらかのデータ点列が他方に対して疎であるときは、線形補完を行ってデータ点列が同数となるようにしておく。 First, the polarization analysis unit 140 generates four polarization component images by collecting the measured polarization component data 104 for each type of light receiving element. This polarization component image is a distribution image of the intensity of polarization components with linear polarization directions of 0 degrees, 45 degrees, 90 degrees, and 135 degrees, and this distribution is represented by P 0 (x, y), P 45 (x, y), P 90 (x, y), and P 135 (x, y). Here, when D (x, y) of the distance information 103 is compared with P i (x, y), if either data point sequence is sparse with respect to the other, linear interpolation is performed. The number of data point sequences should be the same.

<偏光方位角の算出>
次に、下記の(2)式によって偏光方位角θを求める。ここで、詳細は、例えば、非特許文献1及び非特許文献2による方法を用いることができる。
<Calculation of polarization azimuth>
Next, the polarization azimuth angle θ is obtained by the following equation (2). Here, for details, for example, the method according to Non-Patent Document 1 and Non-Patent Document 2 can be used.

Figure 0005541653
Figure 0005541653

計測誤差が無ければ、偏光方位角θは、計測面の法線の方位と一致する。
図6は、撮像対象の物体表面の法線の方位角及び傾きの一例を示す模式図である。
ここで、計測面の法線の方位というのは、図6(a)に示すように、撮像対象602aの表面の法線nを三次元画像撮像装置100の結像面601aに透視投影したときの結像面上のn´の方位角θである。
If there is no measurement error, the polarization azimuth angle θ coincides with the normal direction of the measurement surface.
FIG. 6 is a schematic diagram illustrating an example of the azimuth and inclination of the normal of the object surface to be imaged.
Here, the orientation of the normal of the measurement surface is a perspective projection of the normal n of the surface of the imaging target 602a onto the imaging surface 601a of the three-dimensional image capturing apparatus 100, as shown in FIG. Is the azimuth angle θ of n ′ on the imaging plane.

図7は、三次元物体について偏光方位角と偏光度の観測例を示す模式図である。また、図8は、計測された距離情報103と偏光解析情報105とに基づいて、距離画像106を生成した結果の一例を示す模式図である。   FIG. 7 is a schematic diagram illustrating an observation example of the polarization azimuth angle and the polarization degree of a three-dimensional object. FIG. 8 is a schematic diagram illustrating an example of a result of generating the distance image 106 based on the measured distance information 103 and the ellipsometric information 105.

ここで、三次元物体について偏光方位角を観測した観測例を図7(a)に示す。ここでは、偏光方位角を画像の輝度で表示している。なお、図7(a)は、図8(a)で示される形状の物体を直上から観測した例である。   Here, FIG. 7A shows an observation example in which the polarization azimuth angle is observed for a three-dimensional object. Here, the polarization azimuth angle is displayed with the luminance of the image. FIG. 7A shows an example in which the object having the shape shown in FIG. 8A is observed from directly above.

なお、一般に光源などの映り込みや光沢反射は、距離画像106の計測において誤差を起こす要因の1つであるが、偏光方位角の情報には、ほとんど影響を与えない特性がある。そのため、偏光方位角を用いれば、映り込みや反射に影響されずに表面の法線の方位を計測することが可能である。   In general, the reflection of a light source or gloss reflection is one of the factors that cause an error in the measurement of the distance image 106, but the information on the polarization azimuth has a characteristic that hardly affects. Therefore, if the polarization azimuth angle is used, it is possible to measure the normal direction of the surface without being affected by reflection or reflection.

<偏光度の算出>
次に、下記の(3)式によって偏光度ρ(直線偏光度)を求める。ここで、詳細は、例えば、非特許文献2による方法を用いることができる。
<Calculation of polarization degree>
Next, the degree of polarization ρ (linear degree of polarization) is obtained by the following equation (3). Here, for details, for example, the method according to Non-Patent Document 2 can be used.

Figure 0005541653
Figure 0005541653

ここで、偏光度の観測例を図7(b)に示す。ここでは、偏光度の大きさを画像の輝度で表示している。   Here, an example of observation of the degree of polarization is shown in FIG. Here, the magnitude of the degree of polarization is displayed by the luminance of the image.

<傾斜角の推定>
図9は、撮像対象の物体表面の法線の傾きの一例を示す模式図である。
図6(b)と図9に図示するように、観測面の法線の傾きをφと定める。このとき、観測面の法線の傾きφと偏光度ρの間には、以下の(4)式に示す関係があることが知られている。
<Estimation of tilt angle>
FIG. 9 is a schematic diagram illustrating an example of the inclination of the normal line of the object surface to be imaged.
As shown in FIGS. 6B and 9, the inclination of the normal of the observation surface is defined as φ. At this time, it is known that there is a relationship expressed by the following equation (4) between the inclination φ of the normal of the observation surface and the polarization degree ρ.

Figure 0005541653
Figure 0005541653

ただし、(4)式のnは、撮像対象の表面の素材の屈折率である。撮像対象が非透明物体の場合、屈折率nではなく複素屈折率n^=n−ikを用いる必要がある。ここでkは、減衰係数である。もし複素屈折率が充分に大きく、|n^|2=n2+k2>>1と見なせるときは、以下の(5)式に示す、性質のよい近似式が存在することが、例えば非特許文献1で示されている。 However, n in the equation (4) is the refractive index of the material on the surface of the imaging target. When the imaging target is a non-transparent object, it is necessary to use the complex refractive index n ^ = n-ik instead of the refractive index n. Here, k is an attenuation coefficient. If the complex refractive index is sufficiently large and | n ^ | 2 = n 2 + k 2 >> 1, it can be assumed that there is an approximate expression with good properties shown in the following formula (5). It is shown in Reference 1.

Figure 0005541653
Figure 0005541653

図10は、(5)式において、n=1.6、k=5としたときの偏光度ρと物体表面の法線の傾きφとの関係の一例を示す模式図である。
撮像手段に対して物体の表面が正対しているとき(撮像手段の撮像面と観測面が並行に位置し、観測面の法線と撮像手段の光軸とが一致しているとき)の偏光度は、ρ(0)=0である。そして、観測面の傾斜角φの増加と共に偏光度ρは増加する。偏光度ρは、ある角度で最大値に達した後に減少して90度でρ(90)=0に至る。上記最大値の角度φ0のことをブリュースター角と呼ぶ。一般に、偏光度ρに対する傾斜角φは、図10に示すように二価の関数であり、一意に決まらずに、1つのρに対してφ+とφ-の2つの値が対応する。
FIG. 10 is a schematic diagram illustrating an example of the relationship between the degree of polarization ρ and the inclination φ of the normal of the object surface when n = 1.6 and k = 5 in the equation (5).
Polarization when the surface of the object is directly facing the imaging means (when the imaging surface of the imaging means and the observation surface are located in parallel, and the normal of the observation surface coincides with the optical axis of the imaging means) The degree is ρ (0) = 0. The degree of polarization ρ increases with an increase in the tilt angle φ of the observation surface. The degree of polarization ρ decreases after reaching a maximum value at an angle and reaches ρ (90) = 0 at 90 degrees. The angle φ 0 having the maximum value is called a Brewster angle. In general, the inclination angle φ with respect to the degree of polarization ρ is a bivalent function as shown in FIG. 10, and is not uniquely determined, and two values φ + and φ correspond to one ρ.

<表面形状の復元>
次に、以下に、偏光解析結果から撮像対象の表面形状を推定する方法を述べる。
一般に、事前に撮像対象の観測表面の複素屈折率を知ることはできないため、適当な値を推定して複素屈折率の値として代表する。ここでは、例えば、n=1.6、k=5とおく。このときのブリュースター角φ0は、79.39である。なお、後述するように、距離情報Dと偏光度ρから、屈折率の光学パラメーターn、kを推定する方法も考えられる。また、二価関数の多価性を回避するために、偏光度を下記の(6)式のように近似して一価の関数とする。
<Restoring the surface shape>
Next, a method for estimating the surface shape of the imaging target from the ellipsometry result will be described below.
In general, since the complex refractive index of the observation surface to be imaged cannot be known in advance, an appropriate value is estimated and represented as the complex refractive index value. Here, for example, n = 1.6 and k = 5. The Brewster angle φ 0 at this time is 79.39. As will be described later, a method of estimating the optical parameters n and k of the refractive index from the distance information D and the polarization degree ρ is also conceivable. Further, in order to avoid the multivalent nature of the bivalent function, the degree of polarization is approximated as the following equation (6) to obtain a monovalent function.

Figure 0005541653
Figure 0005541653

ここで(6)式において、αは適当な正の係数である。次に、逆関数ρ-1を数値的に解いて参照テーブルを用意する。これによって任意の偏光度ρに対する物体表面の法線の傾きφを算出可能にする。 Here, in the equation (6), α is an appropriate positive coefficient. Next, a reference table is prepared by numerically solving the inverse function ρ −1 . This makes it possible to calculate the inclination φ of the normal of the object surface with respect to an arbitrary degree of polarization ρ.

続いて、物体表面のx方向とy方向の傾きを(v,w)とすると、法線の傾きφと法線の方位θから、下記の(7)式を計算することができる。   Subsequently, when the inclination of the object surface in the x and y directions is (v, w), the following equation (7) can be calculated from the normal inclination φ and the normal direction θ.

Figure 0005541653
Figure 0005541653

正負の符合があるのは、方位θにおいて法線がとりうる方向には1方向あり、一意には決まらないからである。ただし、これは、距離情報の勾配Dx(x,y),Dy(x,y)の符合から容易にどちらかに決定できる。もしくは、(Dx,y)と(v,w)の内積を計算し、その符号から決定してもよい。このように法線の方位θの推定の曖昧性をなくすことができるのは、距離情報103と偏光解析情報105の両方を扱う本実施形態に係る三次元画像撮像装置100の利点の1つである。 There is a positive / negative sign because there is one direction that can be taken by the normal in the direction θ, and it is not uniquely determined. However, this can be easily determined from the sign of the gradient Dx (x, y), Dy (x, y) of the distance information. Alternatively, the inner product of (D x, D y ) and (v, w) may be calculated and determined from the sign. In this way, the ambiguity in estimating the normal direction θ can be eliminated by one of the advantages of the three-dimensional image capturing apparatus 100 according to the present embodiment that handles both the distance information 103 and the ellipsometric information 105. is there.

続いて、受光素子の画素ごとに得られている(v,w)の値から撮像対象の全体としての表面の形状を推定する。   Subsequently, the shape of the surface of the entire imaging target is estimated from the value of (v, w) obtained for each pixel of the light receiving element.

(v,w)を画像の全領域で積分することで、撮像対象の相対的な高さの分布H(x,y)を復元することができるが、この方法ではノイズに対して弱いので、以下の(8)式に示すエネルギー関数を最小化するような分布を求めてH(x,y)とする。   By integrating (v, w) over the entire area of the image, the relative height distribution H (x, y) of the imaging target can be restored, but this method is vulnerable to noise. A distribution that minimizes the energy function shown in the following equation (8) is obtained and set as H (x, y).

Figure 0005541653
Figure 0005541653

(8)式に示すエネルギー関数を最小化する方法として、以下の(9)式を用いた緩和法による解法が知られている(詳細は、例えば、非特許文献3を参照)。   As a method for minimizing the energy function shown in the equation (8), a solution by a relaxation method using the following equation (9) is known (for details, see Non-Patent Document 3, for example).

Figure 0005541653
Figure 0005541653

これを一定回数もしくは値が収束するまで計算してH(x,y)を得る。以上が、偏光解析による表面形状の推定になる。   This is calculated a certain number of times or until the value converges to obtain H (x, y). The above is the estimation of the surface shape by ellipsometry.

図11は、本発明の第1の実施形態を示し、偏光解析手段140による偏光解析処理の処理手順の一例を示すフローチャートである。   FIG. 11 is a flowchart illustrating an example of the processing procedure of the polarization analysis processing by the polarization analysis unit 140 according to the first embodiment of this invention.

偏光解析手段140は、上述したように、以下のステップS101〜S104を行う。
まず、ステップS101において、偏光成分データ104から、偏光度ρ(x,y)と偏光方位角θ(x,y)を求める。続いて、ステップS102において、関数ρ(φ)を利用して偏光度ρから観測面の法線の傾きφを求める。続いて、ステップS103において、求めた観測面の法線の傾きφと偏光方位角θから、物体表面のx方向とy方向の傾きである(v,w)を求める。続いて、ステップS104において、(v,w)から緩和法により観測対象の相対的な高さの分布H(x,y)を求める。
As described above, the polarization analysis unit 140 performs the following steps S101 to S104.
First, in step S101, the polarization degree ρ (x, y) and the polarization azimuth angle θ (x, y) are obtained from the polarization component data 104. Subsequently, in step S102, the normal inclination of the observation surface φ is obtained from the degree of polarization ρ using the function ρ (φ). Subsequently, in step S103, (v, w) which are inclinations of the object surface in the x direction and the y direction are obtained from the obtained normal plane inclination φ and polarization azimuth angle θ. Subsequently, in step S104, the relative height distribution H (x, y) of the observation target is obtained from (v, w) by the relaxation method.

なお、法線の傾きφと偏光度ρについては、前述したように、一価関数で近似することなく、例えば、二価の関数を用いて形状を復元する方法も考えられる。例えば、上述した(8)式の緩和法の計算中に、下記の(10)式のような関数の最小化も行ってHの値を逐次更新するようにしてもよい。   As described above, the normal slope φ and the degree of polarization ρ are not approximated by a monovalent function, and for example, a method of restoring the shape using a bivalent function is also conceivable. For example, during the calculation of the relaxation method of the above-described equation (8), the value of H may be updated sequentially by minimizing the function as in the following equation (10).

Figure 0005541653
Figure 0005541653

ただし、(10)式におけるφ-、φ+は、偏光度ρに対応する二価の観測表面の法線の傾きである。H(φ-),H(φ+)は、それぞれ法線の角度をφ+として求めたときの高さHと、法線の角度をφ-として求めたときの高さHを示す。 However, φ and φ + in the equation (10) are inclinations of the normal line of the divalent observation surface corresponding to the polarization degree ρ. H (φ ) and H (φ + ) indicate the height H when the normal angle is obtained as φ + and the height H when the normal angle is obtained as φ .

<距離情報と偏光解析情報の統合>
次に、偏光解析によって得られた相対的な高さの分布、即ち、物体の表面形状情報であるH(x,y)と、距離情報D(x,y)とを統合する方法について述べる。
<Integration of distance information and ellipsometry information>
Next, a method for integrating the relative height distribution obtained by ellipsometry, that is, H (x, y), which is the surface shape information of the object, and the distance information D (x, y) will be described.

<外乱成分の除去>
例えば距離画像生成手段150は、光沢面などを測定する際に、距離情報103に0次反射成分などに由来する外れ値が混入することがあるため、まず、これを除去する。この場合、偏光方位角θの情報については、反射成分の影響が小さいので、距離情報103にのみ不連続性が現れ、偏光方位角θは連続的である。この性質を利用し、ここでは、例えば、非特許文献4に記載のGermanらの線過程を利用した方法により外乱成分を除く方法を述べる。
<Removal of disturbance components>
For example, when measuring the glossy surface or the like, the distance image generating unit 150 first removes outliers derived from the 0th-order reflection component or the like in the distance information 103. In this case, the information on the polarization azimuth angle θ is less influenced by the reflection component, so that discontinuity appears only in the distance information 103, and the polarization azimuth angle θ is continuous. Utilizing this property, here, for example, a method of removing a disturbance component by a method using the linear process of German et al. Described in Non-Patent Document 4 will be described.

一例として、エネルギー関数を下記の(11)式のように置く。   As an example, the energy function is set as shown in the following equation (11).

Figure 0005541653
Figure 0005541653

ここで、式(11)のD^は、Dから外乱成分を除いた距離の推定値である。また、l={0,1}で、これは画素が外乱成分のときは1を、外乱成分でないときは0をとるような不連続性を表す状態変数である。また、λ1,λ2,λ3は各正則項の正の係数である。正則項は、それぞれ左から、推定値D^がDと同一になるようにする項、表面形状が滑らかなときに外乱と判別しやすくする項、外乱と判別する頻度を抑える項である。なお、∇2は、ラプラシアン作用素であり、二階微分値を用いて、下記の(12)式と定義する。 Here, D ^ in Equation (11) is an estimated value of the distance obtained by removing the disturbance component from D. Also, l = {0, 1}, which is a state variable representing discontinuity such that 1 is taken when the pixel is a disturbance component and 0 is taken when the pixel is not a disturbance component. Also, λ 1 , λ 2 , and λ 3 are positive coefficients of each regular term. The regular term is a term that makes the estimated value D ^ the same as D from the left, a term that makes it easy to discriminate from disturbance when the surface shape is smooth, and a term that suppresses the frequency of discriminating from disturbance. Note that ∇ 2 is a Laplacian operator and is defined as the following equation (12) using a second-order differential value.

Figure 0005541653
Figure 0005541653

また、この(12)式を最小化するには、状態変数1を連続関数として、下記の(13)式のように近似する。   Further, in order to minimize the equation (12), the state variable 1 is used as a continuous function and approximated as the following equation (13).

Figure 0005541653
Figure 0005541653

そして、下記の(14)式及び(15)式のようにuとD^の動作式を定め、繰り返し計算を行ってエネルギー最小値を与えるuおよび距離D^を求める。 Then, the operation formulas of u and D ^ are defined as in the following formulas (14) and (15), and repeated calculation is performed to obtain u and distance D ^ that give the minimum energy value.

Figure 0005541653
Figure 0005541653

ただし、ηは動作式の速度を決める係数、τはシグモイド連続関数の係数であり、それぞれ適当な値を決める。また、より簡易で計算コストの低い他の方法の一例として、以下のような方法も挙げられる。D(x,y)とH(x,y)の二階微分値を用いて、下記の(16)式のように画素ごとのエネルギー関数を定義する。   However, η is a coefficient that determines the speed of the motion equation, and τ is a coefficient of the sigmoid continuous function, and each determines an appropriate value. In addition, as an example of another method that is simpler and has a low calculation cost, the following method can be given. An energy function for each pixel is defined using the second-order differential value of D (x, y) and H (x, y) as shown in the following equation (16).

Figure 0005541653
Figure 0005541653

そして、このエネルギー関数の値を、下記の(17)式に示す閾値δと比較して外乱か否かを判定する。   Then, the value of this energy function is compared with a threshold value δ shown in the following equation (17) to determine whether or not there is a disturbance.

Figure 0005541653
Figure 0005541653

そして、外乱と判別された領域を除去し、周囲の画素情報の中央値で充填(補完)する。もしくは、周囲の画素情報を用いて線形補完を行ってもよい。なお、表面形状情報Hが外乱により誤差を含み、距離情報Dは、外乱による影響を受けないような状況にも対応できるように、判別関数を下記の(18)式のようにしてもよい。   Then, the region determined to be a disturbance is removed and filled (complemented) with the median value of the surrounding pixel information. Alternatively, linear interpolation may be performed using surrounding pixel information. It should be noted that the discriminant function may be expressed by the following equation (18) so that the surface shape information H includes an error due to disturbance and the distance information D can cope with a situation in which the surface shape information H is not affected by the disturbance.

Figure 0005541653
Figure 0005541653

(18)式は、DもしくはHのどちらか一方に不連続値があり、他方が滑らかであった場合に大きな値を取る関数である。   Equation (18) is a function that takes a large value when either D or H has a discontinuous value and the other is smooth.

<領域分割>
一般に、三次元画像撮像装置100から見えない鉛直及び鉛直以上の傾きの面については、偏光解析を行うことができない。このため、偏光解析によって復元される表面形状情報Hは、図8(c)のように、物体間の高低差の無い表面形状のみを表すような情報となっている。そこで、距離画像生成手段150では、画像中の領域を分割し、領域ごとに表面形状情報205と距離情報103の統合を行うことで表面形状Hの高さの補正を行う。
<Division of area>
In general, polarization analysis cannot be performed on surfaces that are not visible from the three-dimensional image capturing apparatus 100 and that have an inclination of more than vertical. For this reason, the surface shape information H restored by ellipsometry is information that represents only the surface shape with no height difference between objects, as shown in FIG. 8C. Therefore, the distance image generation unit 150 corrects the height of the surface shape H by dividing the region in the image and integrating the surface shape information 205 and the distance information 103 for each region.

この際、領域分割は、HおよびDの不連続点で分割するのが望ましい。領域分割の方法には多数の方法があるが、1つの例として、例えば、非特許文献5に示すようなグラフカット法を用いることが挙げられる。   At this time, it is desirable to divide the region at H and D discontinuous points. There are many methods for area division, but one example is the use of a graph cut method as shown in Non-Patent Document 5, for example.

グラフカット法は、最大流量最小カット問題を解くことによって、領域を分割する方法である。グラフカット法では、画素iと画素jをグラフのノードとしてノード間の辺の重みを定義する必要がある。例えば、ノードiとノードjとの間の辺の重みを画素間の高低差及び画素間の空間距離を用いて、下記の(19)式のように定義する。   The graph cut method is a method of dividing a region by solving a maximum flow rate minimum cut problem. In the graph cut method, it is necessary to define the weights of edges between nodes with the pixel i and the pixel j as nodes of the graph. For example, the weight of the side between the node i and the node j is defined as the following equation (19) using the height difference between the pixels and the spatial distance between the pixels.

Figure 0005541653
Figure 0005541653

なお、(19)式に示すλ1とλ2は、適当な係数である。また、dist(i,j)は、画素iと画素jの空間的な距離であり、例えば、画素間のユークリッド距離とする。これに基づいて、グラフカット法で解けば全体として高低差の大きな境界で領域が切断されるようなセグメンテーションが実行される。 Note that λ 1 and λ 2 shown in the equation (19) are appropriate coefficients. Further, dist (i, j) is a spatial distance between the pixel i and the pixel j, and is, for example, a Euclidean distance between the pixels. Based on this, segmentation is performed such that if the graph cut method is used as a whole, the region is cut at a boundary with a large difference in elevation.

図12は、本発明の第1の実施形態を示し、領域分割処理の処理手順の一例を示すフローチャートである。例えば、距離画像生成手段150は、以下のステップS201〜S205に係る領域分割処理を行う。   FIG. 12 is a flowchart illustrating an example of the processing procedure of the area division process according to the first embodiment of this invention. For example, the distance image generation unit 150 performs region division processing according to steps S201 to S205 below.

まず、ステップS201において、最も距離の遠い画素とその周辺領域(近傍領域)を背景領域のシードとする。続いて、ステップS202において、未分割の画素領域のうち、最も距離の近い画素とその近傍を前景領域のシードとしてセグメンテーションを行う。続いて、ステップS203において、グラフカットアルゴリズムによって、背景領域と前景領域とを分割する。続いて、ステップS204において、前景領域として分割された領域をi番目の領域として記憶して、画像からその領域を除外する。続いて、ステップS205において、全ての画素の領域が分割されたか否かを判断し、全ての画素の領域については分割されていない場合には、i←i+1として、ステップS202に戻り、ステップS202以降の処理を再度行う。一方、ステップS205の判断の結果、全ての画素の領域が分割された場合には、図12に示すフローチャートの処理を終了する。   First, in step S201, the farthest pixel and its peripheral area (neighboring area) are used as seeds for the background area. Subsequently, in step S202, segmentation is performed using the closest pixel in the undivided pixel region and its vicinity as a seed for the foreground region. Subsequently, in step S203, the background area and the foreground area are divided by the graph cut algorithm. In step S204, the area divided as the foreground area is stored as the i-th area, and the area is excluded from the image. Subsequently, in step S205, it is determined whether or not all the pixel regions are divided. If all the pixel regions are not divided, i ← i + 1 is set, and the process returns to step S202. Repeat the process. On the other hand, as a result of the determination in step S205, if all the pixel regions are divided, the processing of the flowchart shown in FIG.

また、他の領域分割手法の例としては、外乱成分の除去で上述した線過程を用いる方法でもよい。またグラフカットの代わりに、例えば、非特許文献6に示すバイラテラルフィルタを複数回適応して距離情報Dを量子化する方法でもよい。   Further, as another example of the region dividing method, a method using the above-described line process for removing disturbance components may be used. Further, instead of the graph cut, for example, a method of quantizing the distance information D by applying the bilateral filter shown in Non-Patent Document 6 a plurality of times may be used.

<表面形状情報に対する高さの補正>
本実施形態に係る三次元画像撮像装置100−1A及び100−1Bの場合、上述したような方法で分割された領域D={D1,D2,…,Dn}ごとに領域の平均的な高さを求める。一例として領域の中央値を用いる。Hについても同様に、各領域H={H1,H2,…,Hn}について領域ごとに中央値を計算する。これらを用いて高さを補正した領域iの表面形状H〜i(x,y)を下記の(20)式を用いて求める。
<Height correction for surface shape information>
In the case of the three-dimensional image capturing apparatuses 100-1A and 100-1B according to the present embodiment, the average of the areas for each of the areas D = {D 1 , D 2 ,..., D n } divided by the method described above. Find a height. As an example, the median value of the region is used. Similarly, for H, a median is calculated for each region for each region H = {H 1 , H 2 ,..., H n }. Using these, the surface shape H to i (x, y) of the region i whose height is corrected is obtained using the following equation (20).

Figure 0005541653
Figure 0005541653

これを全ての領域Hについて行う。ただし、medは中央値をとることを意味する。以上の計算により、絶対的な高さ情報を含んでいないH(x,y)から高さの情報が付与されたH〜i(x,y)が得られる。 This is performed for all regions H. However, med means to take a median value. Through the above calculation, H to i (x, y) to which height information is added is obtained from H (x, y) that does not include absolute height information.

なお、ここでは領域の中央値を用いて高さの補正を行ったが、例えば、非特許文献7に示すロバスト推定のM−estimatorの手法を用いて、下記の(21)式のエネルギー関数を最小化するようなフィッティングを行ってもよい。   Here, the height is corrected using the median value of the region. However, for example, using the M-estimator method of robust estimation shown in Non-Patent Document 7, the energy function of the following equation (21) is expressed. Fitting that minimizes may be performed.

Figure 0005541653
Figure 0005541653

ここで、(21)式のq(e)は、e=0で唯一の最小値を持つ正定値偶関数である。もし、q(e)=e2ならば、(21)式は、最小二乗法と等しくなる。関数qとして、例えば、下記の(22)式を用いれば、フィッティングにおいて外れ値の影響を低減させることができる。 Here, q (e) in the equation (21) is a positive definite even function having a unique minimum value when e = 0. If q (e) = e 2 , the equation (21) is equivalent to the least square method. For example, if the following equation (22) is used as the function q, it is possible to reduce the influence of outliers in fitting.

Figure 0005541653
Figure 0005541653

ここで、(22)式のkは定数である。また、関数qについて、エネルギー関数を最小とするhiが解析的に求められる場合は求める。一方、エネルギー関数を最小とするhiが解析的に求められない場合は、下記の(23)式を用いて、微分動作式の繰り返し計算によってエネルギー関数の最小化を行ってhiを求める。ここで、ηは適当な係数である。 Here, k in the equation (22) is a constant. Further, the function q is obtained when h i that minimizes the energy function is analytically obtained. On the other hand, when h i that minimizes the energy function cannot be obtained analytically, the energy function is minimized by iterative calculation of the differential equation using the following equation (23) to obtain h i . Here, η is an appropriate coefficient.

Figure 0005541653
Figure 0005541653

<距離情報と表面形状情報の統合>
次に、距離画像生成手段150は、距離情報D(103)と高さ補正後の表面形状情報H〜(205)の統合を行う。この際、例えば、非特許文献7に示すロバスト推定のM−estimatorの方法を用いて、画像上の各点ごとに、下記の(24)式に示すエネルギー関数の最小値を与えるような推定値D^を求める。
<Integration of distance information and surface shape information>
Next, the distance image generation means 150 integrates the distance information D (103) and the surface shape information H to (205) after height correction. At this time, for example, using the robust estimation M-estimator method shown in Non-Patent Document 7, an estimated value that gives the minimum value of the energy function shown in the following equation (24) for each point on the image. Find D ^ .

Figure 0005541653
Figure 0005541653

ただし、(24)式のqは上述の正定値偶関数である。また、エネルギー関数の最小化の方法は、上述した方法と同じである。また、関数gは、D^の不連続性を抑制する正則項である。関数gの例としては、下記の(25)式が考えられる。 However, q of (24) Formula is the above-mentioned positive definite even function. The method for minimizing the energy function is the same as the method described above. The function g is a regular term that suppresses the discontinuity of D ^ . As an example of the function g, the following equation (25) can be considered.

Figure 0005541653
Figure 0005541653

また、例えば、関数gの例としては、下記の(26)式も考えられる。   For example, as an example of the function g, the following equation (26) is also conceivable.

Figure 0005541653
Figure 0005541653

なお、ここで用いたロバスト推定の方法以外の態様の例としては、最小二乗誤差を用いて求めてもよい。また、別の態様の例としては、単純に距離情報Dと表面形状情報H〜の幾何平均もしくは算術平均の結果を距離の推定値D^としてもよい。また、別の態様の例としては、表面形状情報H〜の値をそのまま距離の推定値D^としてもよい。また、別の態様の例としては、距離情報Dと表面形状情報H〜を信頼度で重みづけした平均値を距離の推定値D^としてもよい。ここで、信頼度としては、例えば、距離情報の連続性を用いて、連続性の高い側の値に高い信頼度の重みを与えてもよい。一例として、下記の(27)式のようになる。 Note that, as an example of an aspect other than the robust estimation method used here, the least square error may be used. As another example, the estimated distance value D ^ may be simply the geometric average or arithmetic average result of the distance information D and the surface shape information H. As another example, the value of the surface shape information H˜ may be used as the estimated distance value D ^ as it is. As another example, the average value obtained by weighting the distance information D and the surface shape information H˜ with reliability may be used as the estimated distance value D ^ . Here, as the reliability, for example, the continuity of the distance information may be used to give a high reliability weight to the higher continuity value. As an example, the following equation (27) is obtained.

Figure 0005541653
Figure 0005541653

以上のような方法によって、距離画像生成手段150は、推定したD^を距離画像106として出力する。上述したように、生成された距離画像106の一例は、図8に示されている。図8(a)は、撮像対象の元の三次元形状であり、図8(b)は、TOFによって計測された距離情報D(103)、図8(c)は、偏光解析によって得られた表面形状情報H(205)である。また、図8(d)は、外乱の除去と領域分割を行い、領域ごとに表面形状情報Hの高さを推定してH〜を求めた後に、距離情報Dと表面形状情報Hを統合して復元された距離画像である。この図8(d)では、図8(b)に示す距離情報Dにあるような誤差や外乱が除去され、表面形状が復元されていることがわかる。 By the above method, the distance image generation means 150 outputs the estimated D ^ as the distance image 106. As described above, an example of the generated distance image 106 is shown in FIG. FIG. 8A shows the original three-dimensional shape of the imaging target, FIG. 8B shows the distance information D (103) measured by TOF, and FIG. 8C obtained by ellipsometry. Surface shape information H (205). FIG. 8D shows the removal of the disturbance and the region division, estimating the height of the surface shape information H for each region and obtaining H˜, and then integrating the distance information D and the surface shape information H. This is a restored range image. In FIG. 8D, it can be seen that the error and disturbance as in the distance information D shown in FIG. 8B are removed, and the surface shape is restored.

図13は、本発明の第1の実施形態を示し、距離画像生成手段150による距離情報D(103)と表面形状情報H(205)との統合処理の処理手順の一例を示すフローチャートである。   FIG. 13 is a flowchart illustrating an example of a processing procedure of integration processing of distance information D (103) and surface shape information H (205) by the distance image generation unit 150 according to the first embodiment of this invention.

距離画像生成手段150は、上述したように、以下のステップS301〜S304を行う。
まず、ステップS301において、線過程を用いて、距離情報Dの外乱を除く。続いて、ステップS302において、距離情報Dと表面形状情報Hの不連続点で領域を分割する。続いて、ステップS303において、領域ごとに、表面形状情報Hを距離情報Dにフィッティングさせる。続いて、ステップS304において、例えば、ロバスト推定により、表面形状情報Hと距離情報Dの両方にフィットする値を求めて、これを統合結果(即ち、距離画像106)とする。
The distance image generation unit 150 performs the following steps S301 to S304 as described above.
First, in step S301, the disturbance of the distance information D is removed using a line process. Subsequently, in step S302, the region is divided at the discontinuous points of the distance information D and the surface shape information H. Subsequently, in step S303, the surface shape information H is fitted to the distance information D for each region. Subsequently, in step S304, for example, by robust estimation, a value that fits both the surface shape information H and the distance information D is obtained, and this is used as the integration result (ie, the distance image 106).

<領域分割を行わない形状の統合>
距離情報D(103)を推定する方法において、より計算コストの少ない派生的な別の一態様として、領域分割を行わない方法について以下に説明する。ここでは、外乱成分の除去の方法として、(11)式〜(15)式にかけて示した線過程と同じ枠組みを用いる。
<Integration of shapes without segmentation>
In the method of estimating the distance information D (103), a method that does not perform region division will be described below as another derivative aspect with lower calculation cost. Here, the same framework as the line process shown by the equations (11) to (15) is used as a method for removing disturbance components.

まず、距離情報D(x,y)と表面形状情報H(x,y)をフィッティングし、高さの差h(x,y)を求める。ここで、画素が不連続な境界に位置するか否かを示す状態変数をl(x,y)とする。h(x,y)が滑らかな値を採るときには、低いエネルギーの値を与え、不連続な境界を跨ぐ時は滑らかさの制約をキャンセルする。さらに、不連続点と見なされる画素は、なるべく少なくするような制約を置く。一例として、エネルギー関数を下記の(28)式のように定義する。   First, distance information D (x, y) and surface shape information H (x, y) are fitted to obtain a height difference h (x, y). Here, it is assumed that a state variable indicating whether or not a pixel is located at a discontinuous boundary is l (x, y). When h (x, y) takes a smooth value, a low energy value is given, and when straddling a discontinuous boundary, the smoothness constraint is canceled. Furthermore, the restriction | limiting is put so that the pixel considered as a discontinuous point may be reduced as much as possible. As an example, the energy function is defined as the following equation (28).

Figure 0005541653
Figure 0005541653

なお、(28)式のλ1、λ2、λ3は、各正則項の正の係数である。これを最小化するパラメーターh(x,y)とl(x,y)を求めるためには、l(x,y)を(13)式で述べたように連続値で近似し、エネルギー関数をそれぞれのパラメーターで偏微分して動作式を立て、繰り返し法で求めればよい。なお、(28)式に境界同士の相互作用の項を加えて、境界の孤立点や不要な枝分かれが生成されるのを防ぐようにしてもよい。 In the equation (28), λ 1 , λ 2 , and λ 3 are positive coefficients of each regular term. In order to obtain the parameters h (x, y) and l (x, y) that minimize this, l (x, y) is approximated by a continuous value as described in the equation (13), and the energy function is What is necessary is just to obtain | require by the iterative method by making partial differentiation with each parameter, and setting up an operational equation. Note that an interaction term between boundaries may be added to the equation (28) to prevent the generation of isolated points or unnecessary branches at the boundaries.

図14は、本発明の第1の実施形態を示し、距離画像生成手段150による距離情報D(103)と表面形状情報H(205)との統合処理の処理手順の他の例を示すフローチャートである。   FIG. 14 shows a first embodiment of the present invention, and is a flowchart showing another example of the processing procedure of the integration processing of the distance information D (103) and the surface shape information H (205) by the distance image generating means 150. is there.

本例では、距離画像生成手段150は、上述したように、以下のステップS401〜S402を行う。
まず、ステップS401において、線過程を用いて、連続性が保存され、不連続点では高さのギャップを許すように、表面形状情報Hを距離情報Dにフィッティングさせる。続いて、ステップS402において、距離情報Dにフィッティングした表面形状情報Hをもって、距離情報Dと表面形状情報Hとの統合結果(即ち、距離画像106)とする。
In this example, the distance image generation unit 150 performs the following steps S401 to S402 as described above.
First, in step S401, the line shape is used to fit the surface shape information H to the distance information D so that continuity is preserved and a gap of height is allowed at the discontinuous points. Subsequently, in step S402, the surface shape information H fitted to the distance information D is used as an integration result of the distance information D and the surface shape information H (that is, the distance image 106).

<表面形状の推定を行わない距離情報の推定>
また、本実施形態において、距離情報と偏光解析結果から距離画像106を推定する際に、より計算コストの少ない派生的な別の一態様として、領域分割及び偏光解析による表面形状の推定を行わない方法も考えられる。具体的な手順としては、距離情報D(103)が不連続で偏光解析情報が連続的であるような領域を検知し、外乱として除去して補完する。この方法は、計算コストが低く、主に反射成分による外乱を除去する効果がある。一例として、下記の(29)式のように、距離情報Dの連続性の評価値を設ける。
<Estimation of distance information without surface shape estimation>
In the present embodiment, when the distance image 106 is estimated from the distance information and the ellipsometric result, the surface shape is not estimated by segmentation and ellipsometry as another derivative aspect with a lower calculation cost. A method is also conceivable. As a specific procedure, a region where the distance information D (103) is discontinuous and the ellipsometric information is continuous is detected, and is removed as a disturbance and complemented. This method is low in calculation cost and has an effect of removing disturbance mainly due to reflection components. As an example, an evaluation value of continuity of the distance information D is provided as in the following equation (29).

Figure 0005541653
Figure 0005541653

そして、この(29)式に示す評価値が所定の閾値を超える領域については、外乱と判定して除去し、周囲の距離情報の中央値で補填する。そして、最終的に、得られた距離情報Dを距離画像106として出力する。   Then, the region where the evaluation value shown in the equation (29) exceeds a predetermined threshold is determined as a disturbance and removed, and is compensated with the median value of the surrounding distance information. Finally, the obtained distance information D is output as a distance image 106.

<偏光度と距離情報からの屈折率の推定>
上述した例では、撮像対象の物体表面の複素屈折率は、適当な値を所与のものとして採用するとしたが、一方で偏光度ρと距離情報Dから複素屈折率を推定する態様も考えられる。その場合、まず、グラフカット等の方法で領域分割を行い、領域中の複素屈折率は、一様であると仮定する。ここで、(4)式から(5)式にかけて説明したように、光学パラメーターはnとkの二つの値であるため、領域中の2点の偏光度ρと距離情報Dの値を代入して解けば複素屈折率が解析的に求まる。しかしながら、この方法では、測定誤差の影響を強く受けるために、領域中の複数点についての計測値の複数の組(ρi,Di)を用いて、以下の(30)式により最小化を行う。
<Estimation of refractive index from polarization degree and distance information>
In the above-described example, an appropriate value is adopted as the complex refractive index of the object surface to be imaged. However, an aspect in which the complex refractive index is estimated from the polarization degree ρ and the distance information D is also conceivable. . In that case, first, region division is performed by a method such as graph cut, and it is assumed that the complex refractive index in the region is uniform. Here, since the optical parameters are two values of n and k as described from the equations (4) to (5), the values of the polarization degree ρ and the distance information D at two points in the region are substituted. The complex refractive index can be found analytically. However, in this method, in order to be strongly influenced by measurement errors, minimization is performed by the following equation (30) using a plurality of sets (ρ i , D i ) of measurement values for a plurality of points in the region. Do.

Figure 0005541653
Figure 0005541653

ただし、φ^ iは、距離情報Dから求められる画素iにおける物体表面の法線の傾き、φiは、偏光度がρiであるときの物体表面の法線の傾きである。(30)式の最小化を行う方法の一例としては、例えば(φ^ i−φi2=0と置き、所定の数Fだけρiとφ^ iの値を観測中の領域からランダムサンプリングし、F組のnとkの関係式を立てる。そして、得られた2つの変数の解を用いて二次元空間に投票(反映)する。これによって、最多投票を得た値のnとkを推定値とする。 Here, φ ^ i is the inclination of the normal of the object surface at the pixel i obtained from the distance information D, and φ i is the inclination of the normal of the object surface when the degree of polarization is ρ i . As an example of a method of minimizing the expression (30), for example, (φ ^ i −φ i ) 2 = 0 is set, and the values of ρ i and φ ^ i are randomly determined from the region being observed by a predetermined number F. Sampling is performed, and a relational expression of n and k of F sets is established. Then, the obtained two variable solutions are used to vote (reflect) in the two-dimensional space. As a result, the values n and k that have obtained the most votes are used as estimated values.

また、この際、非特許文献8に示すLMedS推定の手法を用いてもよい。この場合は、上述した推定値の算出をN回繰り返し、N個の推定値のうち、下記の(31)式のLMedS基準によって光学パラメーター値n、kを評価し、最良のパラメーター値(最も低い基準値を与える値)をn、kとして選択すればよい。   At this time, the LMedS estimation method shown in Non-Patent Document 8 may be used. In this case, the calculation of the estimated value described above is repeated N times, and among the N estimated values, the optical parameter values n and k are evaluated according to the LMedS criterion of the following equation (31), and the best parameter value (lowest) A value that gives a reference value) may be selected as n and k.

Figure 0005541653
Figure 0005541653

ただし、(31)式において、medは中央値をとる操作を表す。これによりノイズに対して頑健に光学パラメーターの推定を行うことができる。   However, in equation (31), med represents an operation that takes a median value. This makes it possible to estimate optical parameters robustly against noise.

(第2の実施形態)
次に、本発明の第2の実施形態について説明する。
図15は、本発明の第2の実施形態に係る三次元画像撮像装置100の概略構成の一例を示す模式図である。なお、図15において、第1の実施形態における三次元画像撮像装置100と同様の構成については同じ符号を付し、また、以下の説明では、図15に示す三次元画像撮像装置100を三次元画像撮像装置100−2として記載する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described.
FIG. 15 is a schematic diagram illustrating an example of a schematic configuration of a 3D image capturing apparatus 100 according to the second embodiment of the present invention. In FIG. 15, the same components as those of the three-dimensional image capturing apparatus 100 according to the first embodiment are denoted by the same reference numerals. In the following description, the three-dimensional image capturing apparatus 100 shown in FIG. It describes as the image pick-up device 100-2.

第2の実施形態の三次元画像撮像装置100−2は、パターン光方式で測定した撮像対象の距離情報103と、偏光光学系によって測定した偏光成分データ104とを統合して、距離画像106を得るものである。   The three-dimensional image capturing apparatus 100-2 of the second embodiment integrates the distance information 103 of the imaging target measured by the pattern light method and the polarization component data 104 measured by the polarization optical system, and generates the distance image 106. To get.

図15に示す三次元画像撮像装置100−2は、第1の撮像手段1510と、第2の撮像手段220と、距離算出手段130と、欠落領域記憶手段1520と、偏光解析手段140と、形状復元手段230と、距離画像生成手段150を有して構成されている。   15 includes a first imaging unit 1510, a second imaging unit 220, a distance calculation unit 130, a missing region storage unit 1520, a polarization analysis unit 140, and a shape. The reconstruction unit 230 and the distance image generation unit 150 are configured.

第1の撮像手段1510は、結像光学系211と、ビームスプリッタ212と、フィルタ213と、第1の受光素子113と、パターン生成部1511と、投光部1512と、変調解析部1513を有して構成され、距離計測のための画像を撮像するものである。   The first imaging unit 1510 includes an imaging optical system 211, a beam splitter 212, a filter 213, a first light receiving element 113, a pattern generation unit 1511, a light projecting unit 1512, and a modulation analysis unit 1513. Configured to capture an image for distance measurement.

また、第2の撮像手段220は、結像光学系211と、ビームスプリッタ212と、フィルタ221と、偏光光学系122と、第2の受光素子123を有して構成され、偏光成分計測のための画像を撮像するものである。このように、図15に示す第1の撮像手段1510及び第2の撮像手段220では、結像光学系211とビームスプリッタ212とが両方に共通して構成されている。   The second imaging means 220 includes an imaging optical system 211, a beam splitter 212, a filter 221, a polarization optical system 122, and a second light receiving element 123, and is used for measuring polarization components. This image is taken. As described above, in the first imaging unit 1510 and the second imaging unit 220 shown in FIG. 15, the imaging optical system 211 and the beam splitter 212 are configured in common.

本実施形態において、パターン光方式の距離測定の方法は、一般的なパターン光方式と同様の方法を用いることができる。第1の撮像手段1510のパターン生成部1511では、所定の変調パターン1501を生成する。ここで、変調の方法としては、三角関数を複数重ね合わせて強度変調を行ったものや、パルス変調したもの、或いは、例えば、非特許文献9に示すde_Bruijn系列でコード化したものなど様々な態様が考えられる。   In the present embodiment, the distance measurement method using the pattern light method can use the same method as the general pattern light method. The pattern generation unit 1511 of the first imaging unit 1510 generates a predetermined modulation pattern 1501. Here, as a modulation method, various modes such as a method in which a plurality of trigonometric functions are superimposed and intensity modulation is performed, a pulse modulation method, or a coding method using a de_Bruijn sequence shown in Non-Patent Document 9, for example, are used. Can be considered.

ここで、本例では、2値のde_Bruijn系列に従うビット列[c1,c2,…,cn](c∈{0,1})をコード列として用いる。パターン光の投光部1512で各ビットを光の強度に対応させた縦縞状のパターン光1502を生成して撮像対象に投光する。例えば、その照射光の強度の範囲を[0〜1]とした場合、ビットの0と1を光の強度の0.5と1に対応させる。投光部1512は、結像光学系211に対して視差を設けている。 Here, in this example, a bit string [c 1 , c 2 ,..., C n ] (c∈ {0, 1}) according to a binary de_Bruijn sequence is used as a code string. The pattern light projecting unit 1512 generates vertical stripe-shaped pattern light 1502 in which each bit corresponds to the light intensity, and projects it onto the imaging target. For example, when the range of the intensity of the irradiated light is [0 to 1], the bits 0 and 1 correspond to the light intensities 0.5 and 1. The light projecting unit 1512 provides a parallax with respect to the imaging optical system 211.

結像光学系211を通って集光した入力光a及びb(101a及び101b)を無偏光のビームスプリッタ212で2つに分け、第1の撮像手段1510のフィルタ213を通して照射光の波長のみを通過させて第1の受光素子113に結像させる。   The input lights a and b (101a and 101b) collected through the imaging optical system 211 are divided into two by a non-polarizing beam splitter 212, and only the wavelength of the irradiation light is passed through the filter 213 of the first imaging means 1510. The light is passed through to form an image on the first light receiving element 113.

そして、変調解析部1513において、参照波形1503を参照しながら、第1の受光素子113で撮像した画像の変調波形203に相同なパターン(ビット列)があるかどうかを調べて、1行ずつ復号する。この際、変調解析部1513は、各行の各画素[x1,x2,…,xm]の1つ1つにその位置で検出されたコード{c1,c2,…,cn}のいずれかの番号を記録して、これを検出パターン位置情報1504として、距離算出手段130に出力する。 Then, the modulation analysis unit 1513 checks whether there is a homologous pattern (bit string) in the modulation waveform 203 of the image captured by the first light receiving element 113 while referring to the reference waveform 1503, and decodes one row at a time. . At this time, the modulation analysis unit 1513, each pixel of each line [x 1, x 2, ... , x m] 1 one single to be detected at that location code of {c 1, c 2, ... , c n} Is output to the distance calculation means 130 as detection pattern position information 1504.

このとき、撮像対象の形状によっては、照射光の当たらない陰の部分ができる。前述のように、パターン光のビットの0と1を光の強度の0.5と1に対応させていれば、陰の部分を輝度値がある所定の閾値以下の領域として検出することができる。そして、変調解析部1513は、この部分を欠落領域情報1505として欠落領域記憶手段1520に記憶する。そして、画像の全範囲でこのような復号を行う。   At this time, depending on the shape of the object to be imaged, a shaded portion that is not exposed to irradiation light is formed. As described above, if the bits 0 and 1 of the pattern light are associated with the light intensities 0.5 and 1, the shaded portion can be detected as an area having a luminance value equal to or less than a predetermined threshold value. . Then, the modulation analysis unit 1513 stores this portion in the missing area storage unit 1520 as missing area information 1505. Then, such decoding is performed over the entire range of the image.

次に、距離算出手段130は、撮像対象上で観測されたパターン光の分布から、撮像対象までの距離を算出する。具体的に、距離算出手段130は、コードが検出された位置を元に三角測量の原理により撮像対象までの距離を算出する。   Next, the distance calculation unit 130 calculates the distance to the imaging target from the distribution of the pattern light observed on the imaging target. Specifically, the distance calculation unit 130 calculates the distance to the imaging target based on the principle of triangulation based on the position where the code is detected.

図16は、本発明の第2の実施形態を示し、距離算出手段130において、パターン光による三角測量の距離算出の原理を説明する模式図である。
図16では、適当な面を基準面1601とする。また、図16において、画像上の位置1602を示す。投光部1512から、あるパターン光1502のコード(図16ではc3)を角度θで投光するとする。ここで、撮像対象が存在しないときに、基準面1601に投光して観測されるコードの位置と、撮像対象の表面上で観測されるコードの位置のx方向のズレをΔxとする。この際、基準面1601からの撮像対象の高さΔzは、以下の(32)式で求まる。
FIG. 16 is a schematic diagram illustrating the principle of triangulation distance calculation using pattern light in the distance calculation unit 130 according to the second embodiment of this invention.
In FIG. 16, an appropriate surface is a reference surface 1601. Further, FIG. 16 shows a position 1602 on the image. It is assumed that a code (c 3 in FIG. 16) of a certain pattern light 1502 is projected from the light projecting unit 1512 at an angle θ. Here, when the imaging target does not exist, a deviation in the x direction between the position of the code projected and observed on the reference surface 1601 and the position of the code observed on the surface of the imaging target is denoted by Δx. At this time, the height Δz of the object to be imaged from the reference plane 1601 is obtained by the following equation (32).

Figure 0005541653
Figure 0005541653

図17は、本発明の第2の実施形態を示し、距離算出手段130において、パターン光による距離算出の際の欠落領域の一例を示す模式図である。図17に示すように、パターン光1502の投光部1512と第1の撮像手段1510との視差により、パターン光1502の欠落領域1701が生じている。   FIG. 17 is a schematic diagram illustrating a second embodiment of the present invention and an example of a missing region when the distance calculation unit 130 calculates a distance using pattern light. As illustrated in FIG. 17, a missing region 1701 of the pattern light 1502 is generated due to the parallax between the light projecting unit 1512 of the pattern light 1502 and the first imaging unit 1510.

ここで、偏光光学系122の構成、及び、偏光成分を解析して撮像対象の表面形状を復元する方法については、第1実施形態で説明した構成と同一である。   Here, the configuration of the polarization optical system 122 and the method for analyzing the polarization component and restoring the surface shape of the imaging target are the same as those described in the first embodiment.

次に、距離画像生成手段150は、距離情報103と表面形状情報205を統合して、距離画像106を生成する。この距離情報103と表面形状情報205との統合については、第1実施形態で説明したものと同様の処理で行われる。ただし、第2の実施形態の場合には、図17で示したような視差による欠落領域1701が生じることがあるため、欠落領域記憶手段1520に欠落領域情報1505が記憶されている場合には、この欠落領域情報1505を用いて、欠落領域1701の補完を行う。   Next, the distance image generation unit 150 integrates the distance information 103 and the surface shape information 205 to generate the distance image 106. The integration of the distance information 103 and the surface shape information 205 is performed by the same process as described in the first embodiment. However, in the case of the second embodiment, the missing area 1701 due to the parallax as shown in FIG. 17 may occur. Therefore, when the missing area information 1505 is stored in the missing area storage unit 1520, Using the missing area information 1505, the missing area 1701 is complemented.

この際、偏光成分の計測には視差がないために、視差による欠落領域1701は、表面形状情報205を用いて補完することが可能である。本実施形態では、補完の方法の一例として、以下のような方法を用いる。   At this time, since there is no parallax in the measurement of the polarization component, the missing region 1701 due to the parallax can be complemented using the surface shape information 205. In the present embodiment, the following method is used as an example of a complementing method.

本実施形態では、まず、距離情報D(x,y)の欠落領域1701の近傍の画素nのみを対象にしてH(x,y)をz方向に動かして、距離情報D(x,y)にフィットさせる。そして、フィットした結果より、距離情報Dと高さHの差hを求める。続いて、欠落領域1701をH(x,y)+hによって補完する。具体的には、下記の(33)式に示す処理を行う。   In this embodiment, first, the distance information D (x, y) is moved by moving H (x, y) in the z direction only for the pixel n in the vicinity of the missing area 1701 of the distance information D (x, y). Fit to. Then, the difference h between the distance information D and the height H is obtained from the fitted result. Subsequently, the missing area 1701 is complemented with H (x, y) + h. Specifically, the processing shown in the following equation (33) is performed.

Figure 0005541653
Figure 0005541653

ここで、(33)式において、medは中央値をとることを意味し、nは欠落領域1701の所定の距離内の画素である。ただし、nは欠落領域1701を含まない。また、nullは、欠落領域1701の画素である。   Here, in Expression (33), med means that the median is taken, and n is a pixel within a predetermined distance of the missing region 1701. However, n does not include the missing region 1701. Also, null is a pixel in the missing area 1701.

図18は、本発明の第2の実施形態を示し、距離画像生成手段150による距離情報D(103)と表面形状情報H(205)との統合処理の処理手順の一例を示すフローチャートである。   FIG. 18 is a flowchart illustrating an example of a processing procedure of integration processing of distance information D (103) and surface shape information H (205) by the distance image generation unit 150 according to the second embodiment of this invention.

距離画像生成手段150は、上述したように、以下のステップS501〜S505を行う。ここで、ステップS501〜S503は、基本的に、図13に示すステップS301〜S303と同様の処理であり、また、ステップS505は、基本的に、図13に示すステップS304と同様の処理である。
まず、ステップS501において、線過程を用いて、距離情報Dの外乱を除く。続いて、ステップS502において、距離情報Dと表面形状情報Hの不連続点で領域を分割する。続いて、ステップS503において、領域ごとに、表面形状情報Hを距離情報Dにフィッティングさせる。続いて、ステップS504において、距離情報Dに欠落領域1701があるときには、表面形状情報Hを用いて、欠落領域1701の補完を行う。続いて、ステップS505において、例えば、ロバスト推定により、表面形状情報Hと距離情報Dの両方にフィットする値を求めて、これを統合結果(即ち、距離画像106)とする。
The distance image generation means 150 performs the following steps S501 to S505 as described above. Here, steps S501 to S503 are basically the same processing as steps S301 to S303 shown in FIG. 13, and step S505 is basically the same processing as step S304 shown in FIG. .
First, in step S501, the disturbance of the distance information D is removed using a line process. Subsequently, in step S502, the region is divided at the discontinuous points of the distance information D and the surface shape information H. Subsequently, in step S503, the surface shape information H is fitted to the distance information D for each region. Subsequently, in step S504, when there is a missing region 1701 in the distance information D, the missing region 1701 is complemented using the surface shape information H. Subsequently, in step S505, a value that fits both the surface shape information H and the distance information D is obtained by, for example, robust estimation, and this is set as an integration result (that is, the distance image 106).

(第3の実施形態)
次に、本発明の第3の実施形態について説明する。
図19は、本発明の第3の実施形態に係る三次元画像撮像装置100の概略構成の一例を示す模式図である。なお、図19において、第1の実施形態における三次元画像撮像装置100と同様の構成については同じ符号を付し、また、以下の説明では、図19に示す三次元画像撮像装置100を三次元画像撮像装置100−3として記載する。
(Third embodiment)
Next, a third embodiment of the present invention will be described.
FIG. 19 is a schematic diagram illustrating an example of a schematic configuration of a 3D image capturing apparatus 100 according to the third embodiment of the present invention. In FIG. 19, the same components as those of the three-dimensional image capturing apparatus 100 according to the first embodiment are denoted by the same reference numerals. In the following description, the three-dimensional image capturing apparatus 100 shown in FIG. This is described as an image capturing apparatus 100-3.

第3の実施形態の三次元画像撮像装置100−3は、測距センサ方式で測定した撮像対象の距離情報103と、偏光光学系122によって測定した偏光成分データ104とを統合して、距離画像106を得るものである。ここで、本実施形態における測距センサは、例えば、特許文献3で示されているような一般的な測距センサの構成からなるものである。   The three-dimensional image capturing apparatus 100-3 according to the third embodiment integrates the distance information 103 of the imaging target measured by the distance measuring sensor method and the polarization component data 104 measured by the polarization optical system 122 to obtain a distance image. 106 is obtained. Here, the distance measuring sensor according to the present embodiment has a configuration of a general distance measuring sensor as disclosed in Patent Document 3, for example.

図19に示す三次元画像撮像装置100−3は、第1の撮像手段1910と、第2の撮像手段1920と、距離算出手段130と、偏光解析手段140と、形状復元手段230と、距離画像生成手段150を有して構成されている。   19 includes a first imaging unit 1910, a second imaging unit 1920, a distance calculating unit 130, a polarization analyzing unit 140, a shape restoring unit 230, and a distance image. The generation unit 150 is included.

第1の撮像手段1910は、結像光学系1911と、ビームスプリッタ1912と、セパレータレンズ1913と、第1の受光素子1914a及び1914bと、視差検出部1915を有して構成され、距離計測のための画像を撮像するものである。ここで、セパレータレンズ1913は、例えば、測距用光学系を構成する。図19に示す例では、セパレータレンズ1913は、2つの像を結ぶ光学系(1913a及び1913b)で構成されているが、本発明においてはこれに限定されるものではなく、2つ以上の像の光学系で構成されていればよい。また、視差検出部1915は、例えば、当該2つ以上の像の結像位置から視差情報1904を検出する。   The first imaging means 1910 includes an imaging optical system 1911, a beam splitter 1912, a separator lens 1913, first light receiving elements 1914a and 1914b, and a parallax detection unit 1915, and is used for distance measurement. This image is taken. Here, the separator lens 1913 constitutes a distance measuring optical system, for example. In the example shown in FIG. 19, the separator lens 1913 is configured by an optical system (1913a and 1913b) that connects two images. However, in the present invention, the separator lens 1913 is not limited to this, and two or more image What is necessary is just to be comprised with the optical system. Further, the parallax detection unit 1915 detects the parallax information 1904 from, for example, the imaging positions of the two or more images.

また、第2の撮像手段1920は、結像光学系1911と、ビームスプリッタ1912と、偏光光学系122と、第2の受光素子123を有して構成され、偏光成分計測のための画像を撮像するものである。このように、図19に示す第1の撮像手段1910及び第2の撮像手段1920では、結像光学系1911と、ビームスプリッタ1912とが両方に共通して構成されている。   The second imaging unit 1920 includes an imaging optical system 1911, a beam splitter 1912, a polarization optical system 122, and a second light receiving element 123, and captures an image for measuring polarization components. To do. As described above, in the first imaging unit 1910 and the second imaging unit 1920 shown in FIG. 19, the imaging optical system 1911 and the beam splitter 1912 are configured in common.

<測距センサの原理>
ここで、測距センサの原理について図19及び図20を用いて説明する。
図20は、本発明の第3の実施形態を示し、測距センサの原理の一例を示す模式図である。
<Principle of distance sensor>
Here, the principle of the distance measuring sensor will be described with reference to FIGS.
FIG. 20 is a schematic diagram showing an example of the principle of the distance measuring sensor according to the third embodiment of the present invention.

撮像対象を観測すると、結像光学系1911で集光された入力光1901は、ビームスプリッタ1912で分割されて第1の撮像手段1910の測距センサへと導かれる。続いて、第1の撮像手段1910に導かれた光は、セパレータレンズ1913の各セパレータレンズ1913及び1913bによってレンズの右側及び左側を通った光に分けられる。そして、セパレータレンズ1913によって2つに分けられた光は、それぞれ、第1の受光素子1914a及び1914b上に像として結像する。   When the imaging target is observed, the input light 1901 collected by the imaging optical system 1911 is divided by the beam splitter 1912 and guided to the distance measuring sensor of the first imaging means 1910. Subsequently, the light guided to the first imaging unit 1910 is divided into light passing through the right side and the left side of the lens by the separator lenses 1913 and 1913b of the separator lens 1913. Then, the light divided into two by the separator lens 1913 forms an image on the first light receiving elements 1914a and 1914b, respectively.

そして、第1の受光素子1914a及び1914bで検出された2つの受光信号1903a及び1903bのうち、本例では、受光信号1903aを基準信号とし、受光信号1903bを参照信号とする。今、基準信号1903aが第1の受光素子1914aのCの位置で計測されているとする。この際、撮像対象が焦点面に位置するならば、参照信号1903bも第1の受光素子1914b上のCの位置で検出される。   Of the two received light signals 1903a and 1903b detected by the first light receiving elements 1914a and 1914b, in this example, the received light signal 1903a is used as a reference signal, and the received light signal 1903b is used as a reference signal. Assume that the reference signal 1903a is measured at the position C of the first light receiving element 1914a. At this time, if the imaging target is located on the focal plane, the reference signal 1903b is also detected at the position C on the first light receiving element 1914b.

また、撮像対象が焦点面の後方にある場合、参照信号1903bは、第1の受光素子1914b上のA側(図20)にずれた位置で検出される。また、撮像対象が焦点面の前方にある場合、参照信号1903bは、第1の受光素子1914b上のE側(図20)にずれた位置で検出される。視差検出部1915では、この視差量を受光素子1914上の各画素個々について求めれば、第2の受光素子123で撮像された画像中のA〜Eに対応する個々の位置において焦点面からの相対的な奥行きを得ることができる。ただし、測距センサは、基線長がレンズの直径以下に制限されること、焦点面から大きく外れると受光信号がボケて視差量の計測が難しくなることなどから、一般に検出の精度は限定される。   When the imaging target is behind the focal plane, the reference signal 1903b is detected at a position shifted to the A side (FIG. 20) on the first light receiving element 1914b. When the imaging target is ahead of the focal plane, the reference signal 1903b is detected at a position shifted to the E side (FIG. 20) on the first light receiving element 1914b. If the parallax detection unit 1915 obtains the amount of parallax for each pixel on the light receiving element 1914, the parallax detection unit 1915 makes a relative relative to the focal plane at each position corresponding to A to E in the image captured by the second light receiving element 123. Depth can be obtained. However, distance measurement sensors generally have limited detection accuracy due to the fact that the base line length is limited to the lens diameter or less, the received light signal will be blurred if it is far from the focal plane, and it will be difficult to measure the amount of parallax. .

ここで、図20について説明する。
まず、結像光学系1911の焦点を撮像対象に合わせる。ここでは、一般に広く用いられているような自動焦点機構を用いて自動的に焦点を合わせてもよいし、手動で合わせてもよい。続いて、ビームスプリッタ1912により、第1の撮像手段1910と第2の撮像手段1920とに、それぞれ光を分割して導く。
Here, FIG. 20 will be described.
First, the imaging optical system 1911 is focused on the imaging target. Here, the focusing may be performed automatically by using an automatic focusing mechanism which is generally used widely, or may be performed manually. Subsequently, the light is split and guided to the first imaging unit 1910 and the second imaging unit 1920 by the beam splitter 1912.

図20において、各セパレータレンズ1913a及び1913bによって、各受光素子1914a及び1915b上に複数の像が結像される。そして、各受光素子1914a及び1915bで受光した受光信号1903a及び1903bは、視差検出部1915に送られ、そこで視差が検出される。視差検出部1915では、2つの受光信号(1903a及び1903b)から適当な波長の交流成分を抽出した後、波形を比較して視差として位相差を検出する。なお、この際、視差検出部1915において、交流成分の抽出をせずに、相互相関を計算して位相差を求めてもよい。   In FIG. 20, a plurality of images are formed on the light receiving elements 1914a and 1915b by the separator lenses 1913a and 1913b. The received light signals 1903a and 1903b received by the light receiving elements 1914a and 1915b are sent to the parallax detection unit 1915, where the parallax is detected. The parallax detection unit 1915 extracts an AC component having an appropriate wavelength from the two light reception signals (1903a and 1903b), and then compares the waveforms to detect a phase difference as parallax. At this time, the parallax detection unit 1915 may calculate the cross-correlation and obtain the phase difference without extracting the AC component.

そして、距離算出手段130では、視差検出部1915で検出された視差(位相差)に係る視差情報1904に基づいて、焦点面からの相対距離を算出する。ここで、距離算出手段130は、結像光学系1911のレンズ繰り出し量1902と、焦点面までの距離情報との対応表を予め記憶しておく。距離算出手段130は、この対応表を用いて、レンズ繰り出し量1902から現在の焦点位置までの距離情報を算出する。そして、距離算出手段130は、算出した距離情報と、視差情報1904から求めた相対距離情報とを足すことによって、撮像対象における画素ごとの絶対距離である距離情報103を算出する。   Then, the distance calculation unit 130 calculates a relative distance from the focal plane based on the parallax information 1904 related to the parallax (phase difference) detected by the parallax detection unit 1915. Here, the distance calculation means 130 stores in advance a correspondence table between the lens extension amount 1902 of the imaging optical system 1911 and the distance information to the focal plane. The distance calculation means 130 calculates distance information from the lens extension amount 1902 to the current focal position using this correspondence table. Then, the distance calculation unit 130 calculates the distance information 103 that is the absolute distance for each pixel in the imaging target by adding the calculated distance information and the relative distance information obtained from the parallax information 1904.

また、第2の撮像手段1920による偏光成分の計測と、偏光解析手段140による偏光解析に関しては、第1の実施形態で示したものと同一の方法を行う。また、反射成分による外乱を取り除く方法についても、第1の実施形態で示したものと同一のものを行う。   Further, regarding the measurement of the polarization component by the second imaging unit 1920 and the polarization analysis by the polarization analysis unit 140, the same method as that shown in the first embodiment is performed. Further, the same method as that shown in the first embodiment is used for removing the disturbance due to the reflection component.

そして、距離画像生成手段150は、偏光解析情報105に基づく表面形状情報205と、距離算出手段130で求められた距離情報103とを統合して距離画像106を生成する。この距離画像106の具体的な生成方法についても、第1の実施形態で説明した方法と同一の方法を用いる。   Then, the distance image generating unit 150 integrates the surface shape information 205 based on the ellipsometric information 105 and the distance information 103 obtained by the distance calculating unit 130 to generate the distance image 106. As a specific method for generating the distance image 106, the same method as that described in the first embodiment is used.

(第4の実施形態)
次に、本発明の第4の実施形態について説明する。
図21は、本発明の第4の実施形態に係る三次元画像撮像装置100の概略構成の一例を示す模式図である。なお、図21において、第1の実施形態等における三次元画像撮像装置100と同様の構成については同じ符号を付し、また、以下の説明では、図21に示す三次元画像撮像装置100を三次元画像撮像装置100−4Aとして記載する。
(Fourth embodiment)
Next, a fourth embodiment of the present invention will be described.
FIG. 21 is a schematic diagram illustrating an example of a schematic configuration of a 3D image capturing apparatus 100 according to the fourth embodiment of the present invention. In FIG. 21, the same components as those of the three-dimensional image capturing apparatus 100 according to the first embodiment are denoted by the same reference numerals. In the following description, the three-dimensional image capturing apparatus 100 shown in FIG. This is described as the original image capturing apparatus 100-4A.

図21に示す三次元画像撮像装置100−4Aは、ステレオ方式で測定した撮像対象の距離情報103と、偏光光学系122によって測定した偏光成分データ104とを統合して、距離画像106を得るものである。   A three-dimensional image capturing apparatus 100-4A shown in FIG. 21 integrates distance information 103 of an imaging target measured by a stereo method and polarization component data 104 measured by a polarization optical system 122 to obtain a distance image 106. It is.

図21に示す三次元画像撮像装置100−4Aは、第1の撮像手段2110と、第2の撮像手段2120(120)と、視差検出手段2130と、欠落領域記憶手段2140と、距離算出手段130と、偏光解析手段140と、形状復元手段230と、距離画像生成手段150を有して構成されている。   A three-dimensional image capturing apparatus 100-4A illustrated in FIG. 21 includes a first image capturing unit 2110, a second image capturing unit 2120 (120), a parallax detection unit 2130, a missing area storage unit 2140, and a distance calculation unit 130. A polarization analyzing unit 140, a shape restoring unit 230, and a distance image generating unit 150.

第1の撮像手段2110は、第1の結像光学系111と、第1の受光素子113を有して構成される。また、第2の撮像手段2120は、第2の結像光学系121と、偏光光学系122と、第2の受光素子123を有して構成される。   The first imaging unit 2110 includes a first imaging optical system 111 and a first light receiving element 113. The second imaging unit 2120 includes a second imaging optical system 121, a polarization optical system 122, and a second light receiving element 123.

第1の結像光学系111によって集光された入力光a(101a)は、第1の受光素子113で受光される。そして、第1の受光素子113で検出した輝度情報2101aは、ステレオ法による距離計測のための基準画像となる。偏光成分の計測、更には距離計測
を兼ねる第2の結像光学系121によって集光された入力光b(101b)は、偏光光学系122を通過した後、第2の受光素子123に結像する。第2の受光素子123で計測した信号のうち、偏光成分データ104は、偏光解析手段140に送られる。同時に、第2の受光素子123において、偏光成分を平均化した画像を輝度情報2101bとして、視差検出手段2130に送られる。この偏光成分を平均化した画像(輝度情報2101b)は、ステレオ法による距離計測のための参照画像となる。
The input light a (101a) collected by the first imaging optical system 111 is received by the first light receiving element 113. The luminance information 2101a detected by the first light receiving element 113 becomes a reference image for distance measurement by the stereo method. The input light b (101b) collected by the second imaging optical system 121 that also serves to measure the polarization component and also the distance measurement passes through the polarization optical system 122 and then forms an image on the second light receiving element 123. To do. Of the signals measured by the second light receiving element 123, the polarization component data 104 is sent to the polarization analysis means 140. At the same time, in the second light receiving element 123, an image obtained by averaging the polarization components is sent to the parallax detection means 2130 as luminance information 2101b. The image (luminance information 2101b) obtained by averaging the polarization components becomes a reference image for distance measurement by the stereo method.

続いて、視差検出手段2130は、第1の撮像手段2110から出力された輝度情報2101aと、第2の撮像手段2120から出力された輝度情報2101bとを比較して対応する点を求め、画素ごとに視差を算出(検出)する。ここで、対応点の探索の方法は、一般的なステレオ法の手法を用いることができる。視差検出手段2130は、輝度コントラストが存在しない或いは変化が緩やかで対応点が検出されなかった領域やステレオ法に特有な視差による遮蔽が存在する領域に関しては、欠落領域1701として欠落領域記憶手段2140に欠落領域情報2103を記憶する。   Subsequently, the parallax detection unit 2130 compares the luminance information 2101a output from the first imaging unit 2110 and the luminance information 2101b output from the second imaging unit 2120 to obtain a corresponding point, for each pixel. The parallax is calculated (detected). Here, as a method for searching for corresponding points, a general stereo method may be used. The parallax detection unit 2130 stores the missing region 1701 as the missing region 1701 regarding the region where the luminance contrast does not exist or the change is gradual and the corresponding point is not detected, or the region where the shielding due to the parallax peculiar to the stereo method exists. Missing area information 2103 is stored.

続いて、距離算出手段130は、視差検出手段2130からの視差情報2102に基づいて、撮像対象との距離に係る距離情報103を算出する。なお、偏光解析手段140による偏光解析情報105及び形状復元手段230による表面形状情報205の生成や、距離情報103と表面形状情報205を統合するための方法については、第1の実施形態と同様の方法を用いることができる。また、欠落領域情報2103に基づく欠落領域1701の補完の方法については、第2の実施形態と同様の方法を用いることができる。   Subsequently, the distance calculation unit 130 calculates distance information 103 related to the distance to the imaging target based on the parallax information 2102 from the parallax detection unit 2130. The generation of the ellipsometric information 105 by the ellipsometric means 140 and the generation of the surface shape information 205 by the shape restoring means 230 and the method for integrating the distance information 103 and the surface shape information 205 are the same as in the first embodiment. The method can be used. In addition, as a method for complementing the missing area 1701 based on the missing area information 2103, the same method as in the second embodiment can be used.

図22は、本発明の第4の実施形態に係る三次元画像撮像装置100の概略構成の他の例を示す模式図である。なお、図21に示す構成と同様の構成については同じ符号を付し、また、以下の説明では、図22に示す三次元画像撮像装置100を三次元画像撮像装置100−4Bとして記載する。
図21に示す三次元画像撮像装置100−4Aは、第1の撮像手段2210と第2の撮像手段2220の双方に偏光光学系を備えるものである。
FIG. 22 is a schematic diagram illustrating another example of the schematic configuration of the three-dimensional image capturing apparatus 100 according to the fourth embodiment of the present invention. In addition, the same code | symbol is attached | subjected about the structure similar to the structure shown in FIG. 21, and the 3D image imaging device 100 shown in FIG. 22 is described as 3D image imaging device 100-4B in the following description.
A three-dimensional image capturing apparatus 100-4A illustrated in FIG. 21 includes a polarization optical system in both the first image capturing unit 2210 and the second image capturing unit 2220.

図22に示す三次元画像撮像装置100−4Bは、第1の撮像手段2210と、第2の撮像手段2220と、偏光解析手段140a及び140bと、視差検出手段2230と、欠落領域記憶手段2140と、距離算出手段130と、偏光解析手段140と、形状復元手段230と、距離画像生成手段150を有して構成されている。   22 includes a first imaging unit 2210, a second imaging unit 2220, polarization analysis units 140a and 140b, a parallax detection unit 2230, and a missing area storage unit 2140. The distance calculation means 130, the polarization analysis means 140, the shape restoration means 230, and the distance image generation means 150 are configured.

図22に示す三次元画像撮像装置100−4Bでは、2つの撮像手段(2210及び2220)で計測された偏光成分データ104a及び104bのそれぞれについて、偏光解析手段140a及び140bで偏光解析を行う。そして、偏光解析手段140a及び140bでは、それぞれ、偏光度ρ(x,y)及び偏光方位角φ(x,y)を求めて偏光解析情報105a及び105bを生成し、これを視差検出手段2230に送る。   In the three-dimensional image pickup apparatus 100-4B shown in FIG. 22, the polarization analysis means 140a and 140b perform polarization analysis on the polarization component data 104a and 104b measured by the two imaging means (2210 and 2220), respectively. Then, the polarization analysis means 140a and 140b obtain the polarization degree ρ (x, y) and the polarization azimuth angle φ (x, y), respectively, to generate the polarization analysis information 105a and 105b, and send them to the parallax detection means 2230. send.

視差検出手段2230では、偏光度と偏光方位角の偏光解析情報105a及び105bを用いて、2つの画像の対応点を探し、視差を検出する。そして、視差検出手段2230は、検出した視差に係る視差情報2102を距離算出手段130に送信する。なお、距離算出手段130において、視差情報2102から距離情報103を算出する方法、並びに、距離画像生成手段150において、距離情報103と偏光解析による表面形状情報205との統合の方法は、図21で説明した方法と同一である。   The parallax detection unit 2230 uses the polarization analysis information 105a and 105b of the degree of polarization and the polarization azimuth to search for corresponding points between the two images and detect parallax. Then, the parallax detection unit 2230 transmits the parallax information 2102 related to the detected parallax to the distance calculation unit 130. The method for calculating the distance information 103 from the parallax information 2102 in the distance calculation unit 130 and the method for integrating the distance information 103 and the surface shape information 205 by polarization analysis in the distance image generation unit 150 are shown in FIG. It is the same as the method described.

図22に示す三次元画像撮像装置100−4Bでは、輝度の変化に乏しいが偏光成分には大きな変化があるような表面特性を持つ撮像対象や、反射率が高くて映りこみが存在するような撮像対象に対して、距離計測の精度を向上させる効果がある。具体的には、このような撮像対象に対して、視差検出のための正しい対応点の手がかりを増やすことで、距離計測の精度を向上させる効果がある。なお、本実施形態では、偏光度と偏光方位角のみで対応点を探索して視差を検出したが、偏光成分を平均化して得られる輝度情報も手掛かりとして加えて視差を検出してもよい。   In the three-dimensional image capturing apparatus 100-4B shown in FIG. 22, there is an imaging target having a surface characteristic such that a change in luminance is poor but a polarization component is largely changed, or there is a reflection due to a high reflectance. There is an effect of improving the accuracy of distance measurement for the imaging target. Specifically, there is an effect of improving the accuracy of distance measurement by increasing clues of correct corresponding points for parallax detection for such an imaging target. In this embodiment, parallax is detected by searching for corresponding points using only the degree of polarization and the polarization azimuth angle. However, parallax may be detected by adding luminance information obtained by averaging polarization components as a clue.

(本発明の他の実施形態)
前述した本発明の各実施形態に係る三次元画像撮像装置100の制御方法を示す図11〜図14及び図18の各ステップは、例えば、コンピュータのCPUがRAMやROMなどに記憶されたプログラムを実行することによって実現できる。このプログラム及び前記プログラムを記録したコンピュータ読み取り可能な記録媒体は本発明に含まれる。
(Other embodiments of the present invention)
Each of the steps in FIGS. 11 to 14 and FIG. 18 showing the control method of the three-dimensional image capturing apparatus 100 according to each embodiment of the present invention described above is performed by, for example, a program stored in a RAM or ROM by the CPU of the computer. It can be realized by executing. This program and a computer-readable recording medium recording the program are included in the present invention.

また、本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体等としての実施形態も可能であり、具体的には、複数の機器から構成されるシステムに適用してもよいし、また、1つの機器からなる装置に適用してもよい。   In addition, the present invention can be implemented as, for example, a system, apparatus, method, program, storage medium, or the like. You may apply to the apparatus which consists of one apparatus.

なお、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラム(実施形態では図11〜図14及び図18に示すフローチャートに対応したプログラム)を、システム或いは装置に直接、或いは遠隔から供給するものを含む。そして、そのシステム或いは装置のコンピュータが前記供給されたプログラムコードを読み出して実行することによっても達成される場合も本発明に含まれる。   In the present invention, a software program (in the embodiment, a program corresponding to the flowcharts shown in FIGS. 11 to 14 and 18) for realizing the functions of the above-described embodiments is directly or remotely supplied to the system or apparatus. Including what to do. The present invention also includes a case where the system or the computer of the apparatus is achieved by reading and executing the supplied program code.

したがって、本発明の機能処理をコンピュータで実現するために、前記コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。   Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。   In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, and the like.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RWなどがある。また、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などもある。   Examples of the recording medium for supplying the program include a flexible disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, and CD-RW. In addition, there are magnetic tape, nonvolatile memory card, ROM, DVD (DVD-ROM, DVD-R), and the like.

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する。そして、前記ホームページから本発明のコンピュータプログラムそのもの、若しくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。   As another program supply method, a browser on a client computer is used to connect to an Internet home page. The computer program itself of the present invention or a compressed file including an automatic installation function can be downloaded from the homepage by downloading it to a recording medium such as a hard disk.

また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。   It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer is also included in the present invention.

また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、ダウンロードした鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。   In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and key information for decryption is downloaded from a homepage via the Internet to users who have cleared predetermined conditions. Let It is also possible to execute the encrypted program by using the downloaded key information and install the program on a computer.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。その他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現され得る。   Further, the functions of the above-described embodiments are realized by the computer executing the read program. In addition, based on the instructions of the program, an OS or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments can also be realized by the processing.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現される。   Further, the program read from the recording medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instructions of the program, and the functions of the above-described embodiments are realized by the processing.

なお、前述した各実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   Note that each of the above-described embodiments is merely a specific example for carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. . That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

本発明に係る三次元画像撮像装置100は、例えば、製造工程の自動化において必要となる部品の三次元計測装置としての利用可能性がある。また、距離画像を動画として記録するような構成が可能なため、セキュリティカメラとしての利用可能性もある。   The three-dimensional image capturing apparatus 100 according to the present invention may be used as, for example, a three-dimensional measuring apparatus for parts that are necessary in the automation of the manufacturing process. In addition, since it is possible to record the distance image as a moving image, it may be used as a security camera.

100:三次元画像撮像装置、101a,101b:入力光、102:計測データ、103:距離情報、104:偏光成分データ、105:偏光解析情報、106:距離画像、110:第1の撮像手段、111:第1の結像光学系、112:測距用光学系、113:第1の受光素子、120:第2の撮像手段、121:第2の結像光学系、122:偏光光学系、123:第2の受光素子、130:距離算出手段、140:偏光解析手段、150:距離画像生成手段 100: 3D imaging device, 101a, 101b: input light, 102: measurement data, 103: distance information, 104: polarization component data, 105: polarization analysis information, 106: distance image, 110: first imaging means, 111: first imaging optical system, 112: distance measuring optical system, 113: first light receiving element, 120: second imaging means, 121: second imaging optical system, 122: polarization optical system, 123: second light receiving element, 130: distance calculating means, 140: polarization analyzing means, 150: distance image generating means

Claims (12)

偏光方向の異なる複数の偏光子を含み、撮像対象からの光を偏光させる偏光光学系と、
前記偏光方向の異なる複数の偏光子で偏光されたそれぞれの光を受光して、前記撮像対象までの距離を測定するための距離測定用素子と、
所定の偏光方向の前記偏光子で偏光された光を受光して、偏光解析を行うための偏光解析用素子と、
前記距離測定用素子が受光した光に基づいて、前記撮像対象までの距離情報取得する距離情報取得手段と、
前記偏光解析用素子が受光した光の偏光情報に基づき前記偏光解析を行うことにより、前記撮像対象の表面形状情報を取得する表面形状情報取得手段と、
前記距離情報と前記表面形状情報とに基づいて、前記撮像対象の距離画像を生成する距離画像生成手段と
を有することを特徴とする撮像装置。
A polarization optical system that includes a plurality of polarizers having different polarization directions and polarizes light from an imaging target ;
A distance measuring element for receiving each light polarized by a plurality of polarizers having different polarization directions and measuring a distance to the imaging target;
A polarization analyzing element for receiving light polarized by the polarizer of a predetermined polarization direction and performing polarization analysis;
Distance information acquisition means for acquiring distance information to the imaging target based on the light received by the distance measuring element ;
Surface shape information acquisition means for acquiring surface shape information of the imaging target by performing the polarization analysis based on polarization information of light received by the element for polarization analysis;
It said distance information and on the basis of said surface shape information, the image pickup apparatus characterized by having the distance image generating means for generating a distance image of the imaging target.
更に、前記撮像対象に照射光を投光する投光手段を有し、
前記距離情報取得手段は、前記投光手段から投光された照射光が前記撮像対象に反射して前記距離測定用素子に至るまでの飛行時間を計測し、当該計測された飛行時間に基づいて、前記撮像対象までの距離を算出することを特徴とする請求項に記載の撮像装置。
Furthermore, it has a light projection means for projecting irradiation light on the imaging target ,
The distance information acquisition unit measures a flight time until the irradiation light projected from the light projecting unit is reflected by the imaging target and reaches the element for distance measurement, and based on the measured flight time. the imaging apparatus according to claim 1, characterized in that to calculate the distance to the imaging target.
更に、前記撮像対象にパターン光を投光する投光手段有し
前記距離情報取得手段は、前記撮像対象に投光された前記パターン光の分布から前記撮像対象までの距離を算出することを特徴とする請求項に記載の撮像装置。
Furthermore, it has a light projection means for projecting pattern light onto the imaging target,
It said distance information obtaining means, the image pickup apparatus according to claim 1, characterized in that to calculate the distance to the imaging target from the distribution of said light is projected to the imaging target the pattern light.
前記距離画像生成手段は、前記距離情報または前記表面形状情報のうち、少なくともいずれか一方の不連続性を表す状態変数を有し、前記状態変数を推定した結果に基づいて、前記距離情報と前記表面形状情報とを統合することにより、前記距離画像を生成することを特徴とする請求項1乃至のいずれか1項に記載の撮像装置。 The distance image generation means has a state variable representing discontinuity of at least one of the distance information and the surface shape information, and based on a result of estimating the state variable, the distance information and the surface information by integrating the surface shape information, the image pickup apparatus according to any one of claims 1 to 3, characterized in that to generate the range image. 前記距離画像生成手段は、前記距離画像を生成する際に、前記距離情報と、前記表面形状情報とを比較することにより外乱成分を除去することを特徴とする請求項1乃至のいずれか1項に記載の撮像装置。 Said distance image generating means, when generating the range image, the distance information and, according to claim 1 or any one of the 4 and removing the disturbance component by comparing the surface shape information The imaging device according to item. 更に、前記距離情報に欠落領域が存在するか否かを判断する欠落領域判断手段を有し、
前記距離画像生成手段は、前記欠落領域判断手段において前記距離情報に欠落領域が存在すると判断された場合には、前記距離画像を生成する際に、前記欠落領域を前記表面形状情報で補完することを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。
Furthermore, it has a missing area judging means for judging whether or not a missing area exists in the distance information,
The distance image generating means supplements the missing area with the surface shape information when generating the distance image when the missing area determining means determines that a missing area exists in the distance information. The imaging device according to any one of claims 1 to 5, wherein
更に、前記距離情報に欠落領域が存在するか否かを判断する欠落領域判断手段を有し、Furthermore, it has a missing area judging means for judging whether or not a missing area exists in the distance information,
前記距離画像生成手段は、前記欠落領域判断手段において前記距離情報に欠落領域が存在すると判断された場合には、前記距離画像を生成する際に、欠落領域記憶手段に記憶された欠落領域を用いて、補完することを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。The distance image generation means uses the missing area stored in the missing area storage means when generating the distance image when the missing area determination means determines that a missing area exists in the distance information. The imaging device according to claim 1, wherein the imaging device is supplemented.
前記距離画像生成手段は、複数の領域ごとに前記距離情報と前記表面形状情報を統合することにより、前記距離画像を生成することを特徴とする請求項1乃至のいずれか1項に記載の撮像装置。 It said distance image generating means, by integrating with the distance information for each of a plurality of regions of the surface shape information, according to any one of claims 1 to 7, characterized in that to generate the range image Imaging device. 前記距離画像生成手段は、前記距離情報の連続性に基づいて信頼度を設定し、当該設定された信頼度に基づいて、前記距離画像を生成することを特徴とする請求項1乃至のいずれか1項に記載の撮像装置。 It said distance image generating means sets the reliability based on the continuity of the distance information, and based on the corresponding set reliability of claims 1 to 8, characterized in that to generate the range image The imaging device according to any one of the above. 前記距離画像生成手段は、前記距離情報と前記偏光情報とに基づいて、前記撮像対象の屈折率を推定し、当該推定した屈折率を用いて前記偏光情報から前記撮像対象の表面形状を復元して、前記距離画像を生成することを特徴とする請求項1に記載の撮像装置。 The distance image generation unit estimates a refractive index of the imaging target based on the distance information and the polarization information, and restores a surface shape of the imaging target from the polarization information using the estimated refractive index. The imaging apparatus according to claim 1, wherein the distance image is generated. 更に、前記距離画像を動画として連続して記録する記録手段を有することを特徴とする請求項1乃至10のいずれか1項に記載の撮像装置。 Furthermore, the imaging apparatus according to any one of claims 1 to 10, characterized in that have a recording means for continuously recording said distance image as a moving image. 偏光方向の異なる複数の偏光子を含み、撮像対象からの光を偏光させる偏光光学系と、前記偏光方向の異なる複数の偏光子で偏光されたそれぞれの光を受光して、前記撮像対象までの距離を測定するための距離測定用素子と、所定の偏光方向の前記偏光子で偏光された光を受光して、偏光解析を行うための偏光解析用素子とを備える撮像装置の制御方法であって、
前記距離測定用素子が受光した光に基づいて、前記撮像対象までの距離情報取得する距離情報取得ステップと、
前記偏光解析用素子が受光した光の偏光情報に基づき前記偏光解析を行うことにより、前記撮像対象の表面形状情報を取得する表面形状情報取得ステップと、
前記距離情報と前記表面形状情報とに基づいて、前記撮像対象の距離画像を生成する距離画像生成ステップと
を有することを特徴とする撮像装置の制御方法。
A polarizing optical system that includes a plurality of polarizers having different polarization directions and that polarizes light from the imaging target; and receiving each light polarized by the plurality of polarizers having different polarization directions; A method for controlling an imaging apparatus, comprising: a distance measuring element for measuring a distance; and a polarization analyzing element for receiving light polarized by the polarizer in a predetermined polarization direction and performing polarization analysis. And
A distance information acquisition step for acquiring distance information to the imaging target based on light received by the distance measuring element ;
A surface shape information acquisition step for acquiring surface shape information of the imaging target by performing the polarization analysis based on polarization information of light received by the element for polarization analysis;
Control method for an imaging apparatus, wherein said distance information and on the basis of said surface shape information, and a range image generating step of generating a distance image of the imaging target.
JP2009105602A 2009-04-23 2009-04-23 Imaging apparatus and control method thereof Active JP5541653B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009105602A JP5541653B2 (en) 2009-04-23 2009-04-23 Imaging apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009105602A JP5541653B2 (en) 2009-04-23 2009-04-23 Imaging apparatus and control method thereof

Publications (2)

Publication Number Publication Date
JP2010256138A JP2010256138A (en) 2010-11-11
JP5541653B2 true JP5541653B2 (en) 2014-07-09

Family

ID=43317227

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009105602A Active JP5541653B2 (en) 2009-04-23 2009-04-23 Imaging apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP5541653B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11088185B2 (en) 2019-02-28 2021-08-10 Samsung Electronics Co., Ltd. Image sensor including particular readout circuit arrangement
US11204415B2 (en) 2018-10-01 2021-12-21 Samsung Electronics Co., Ltd. Three-dimensional (3D) image sensors including polarizer, and depth correction methods and 3D image generation methods based on 3D image sensors

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5440927B2 (en) * 2009-10-19 2014-03-12 株式会社リコー Distance camera device
JP2012122768A (en) * 2010-12-06 2012-06-28 National Central Univ Method for measuring thin film element using optical multi-wavelength interferometry
JP5793669B2 (en) * 2011-03-31 2015-10-14 パナソニックIpマネジメント株式会社 3D measuring apparatus and 3D measuring method
US9819879B2 (en) 2011-07-12 2017-11-14 Samsung Electronics Co., Ltd. Image filtering apparatus and method based on noise prediction using infrared ray (IR) intensity
US20130141433A1 (en) * 2011-12-02 2013-06-06 Per Astrand Methods, Systems and Computer Program Products for Creating Three Dimensional Meshes from Two Dimensional Images
JP5921271B2 (en) * 2012-03-19 2016-05-24 株式会社東芝 Object measuring apparatus and object measuring method
RU2573245C2 (en) * 2013-04-24 2016-01-20 Общество С Ограниченной Ответственностью "Лаборатория Эландис" Method for contactless control using polarisation marker and system therefor
JP6254775B2 (en) * 2013-06-11 2017-12-27 浜松ホトニクス株式会社 Encoder
US10466709B2 (en) 2013-11-08 2019-11-05 Hitachi, Ltd. Autonomous driving vehicle and autonomous driving system
JP2015114307A (en) * 2013-12-16 2015-06-22 ソニー株式会社 Image processing device, image processing method, and imaging device
JP6208260B2 (en) 2013-12-26 2017-10-04 株式会社日立製作所 Object recognition device
JP6481375B2 (en) 2014-02-27 2019-03-13 株式会社リコー Information processing system, information processing method, program, and information processing apparatus
WO2016088483A1 (en) * 2014-12-01 2016-06-09 ソニー株式会社 Image-processing device and image-processing method
WO2016208036A1 (en) * 2015-06-25 2016-12-29 富士通株式会社 Electronic device and drive control method
JP6488203B2 (en) * 2015-07-01 2019-03-20 株式会社ソニー・インタラクティブエンタテインメント Image processing apparatus, image processing system, multi-viewpoint camera, and image processing method
JP6650633B2 (en) * 2015-07-31 2020-02-19 凸版印刷株式会社 Three-dimensional shape measuring device, three-dimensional shape measuring method, and thin film measuring device
JPWO2017141746A1 (en) * 2016-02-19 2018-12-13 ソニー株式会社 Imaging apparatus, imaging control method, and program
WO2018061508A1 (en) * 2016-09-28 2018-04-05 ソニー株式会社 Image capturing element, image processing device, image processing method, and program
JP2018151277A (en) * 2017-03-14 2018-09-27 パイオニア株式会社 Measurement device
WO2018173754A1 (en) * 2017-03-24 2018-09-27 ソニーセミコンダクタソリューションズ株式会社 Multilayer imaging element, and solid-state imaging device
CN110603458B (en) * 2017-05-11 2024-03-22 索尼公司 Optical sensor and electronic device
EP3480626A1 (en) 2017-11-02 2019-05-08 Koninklijke Philips N.V. Improved depth image reconstruction
JP6892603B2 (en) * 2017-12-07 2021-06-23 富士通株式会社 Distance measuring device, distance measuring method and distance measuring program
JP7136123B2 (en) * 2017-12-12 2022-09-13 ソニーグループ株式会社 Image processing apparatus, image processing method, program, and information processing system
JP7115057B2 (en) * 2018-06-20 2022-08-09 オムロン株式会社 Measuring system and measuring method
JP7071633B2 (en) * 2018-07-06 2022-05-19 富士通株式会社 Distance measuring device, distance measuring method and distance measuring program
JP7036227B2 (en) * 2018-11-19 2022-03-15 日本電気株式会社 Image processing method and image processing equipment
WO2020195046A1 (en) * 2019-03-27 2020-10-01 パナソニックIpマネジメント株式会社 Solid-state imaging device
US11233963B2 (en) * 2019-12-27 2022-01-25 Omnivision Technologies, Inc. Devices and methods for obtaining three-dimensional shape information using polarization and phase detection photodiodes
JP7452374B2 (en) * 2020-10-20 2024-03-19 株式会社Soken Object detection device and object detection program
JP7120365B1 (en) 2021-03-23 2022-08-17 株式会社リコー IMAGING DEVICE, IMAGING METHOD AND INFORMATION PROCESSING DEVICE

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001082940A (en) * 1999-09-14 2001-03-30 Sanyo Electric Co Ltd Apparatus and method for generating three-dimensional model
JP2005109935A (en) * 2003-09-30 2005-04-21 Nippon Hoso Kyokai <Nhk> Image data processor and image data processing program
JP4441611B2 (en) * 2004-07-22 2010-03-31 独立行政法人産業技術総合研究所 3D graphic curved surface reconstruction device and 3D graphic curved surface reconstruction program
JP4139853B2 (en) * 2006-08-31 2008-08-27 松下電器産業株式会社 Image processing apparatus, image processing method, and image processing program
US7792367B2 (en) * 2007-02-13 2010-09-07 Panasonic Corporation System, method and apparatus for image processing and image format
JP5665159B2 (en) * 2007-02-23 2015-02-04 パナソニックIpマネジメント株式会社 Distance image sensor
JP4317583B2 (en) * 2007-08-07 2009-08-19 パナソニック株式会社 Normal information generating apparatus and normal information generating method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11204415B2 (en) 2018-10-01 2021-12-21 Samsung Electronics Co., Ltd. Three-dimensional (3D) image sensors including polarizer, and depth correction methods and 3D image generation methods based on 3D image sensors
US11762073B2 (en) 2018-10-01 2023-09-19 Samsung Electronics Co., Ltd. Three-dimensional (3D) image sensors including polarizer, and depth correction methods and 3D image generation methods based on 3D image sensors
US11088185B2 (en) 2019-02-28 2021-08-10 Samsung Electronics Co., Ltd. Image sensor including particular readout circuit arrangement

Also Published As

Publication number Publication date
JP2010256138A (en) 2010-11-11

Similar Documents

Publication Publication Date Title
JP5541653B2 (en) Imaging apparatus and control method thereof
US10234561B2 (en) Specular reflection removal in time-of-flight camera apparatus
EP3491332B1 (en) Reflectivity map estimate from dot based structured light systems
Jordt-Sedlazeck et al. Refractive calibration of underwater cameras
Salvi et al. A state of the art in structured light patterns for surface profilometry
Zhu et al. Reliability fusion of time-of-flight depth and stereo geometry for high quality depth maps
CN107743638B (en) Method and system for real-time motion artifact processing and denoising
Wang et al. Robust active stereo vision using Kullback-Leibler divergence
EP1643210B1 (en) Method and apparatus for measuring shape of an object
EP4296963A2 (en) Method for depth detection in images captured using array cameras
EP3513552B1 (en) Systems and methods for improved depth sensing
Son et al. Learning to remove multipath distortions in time-of-flight range images for a robotic arm setup
CN109961417A (en) Image processing method, device and mobile device control method
Fischer et al. Combination of time-of-flight depth and stereo using semiglobal optimization
JP6285686B2 (en) Parallax image generation device
JP4379626B2 (en) Three-dimensional shape measuring method and apparatus
JP6580761B1 (en) Depth acquisition apparatus and method using polarization stereo camera
CN116802688A (en) Apparatus and method for correspondence analysis within an image
Sabov et al. Identification and correction of flying pixels in range camera data
d'Angelo et al. Image-based 3D surface reconstruction by combination of photometric, geometric, and real-aperture methods
WO2022096127A1 (en) A device and method for image processing
KR101904170B1 (en) Coding Device and Method for Depth Information Compensation by Sphere Surface Modeling
JP3852285B2 (en) 3D shape measuring apparatus and 3D shape measuring method
Sekkati et al. Direct and indirect 3-D reconstruction from opti-acoustic stereo imaging
Bender et al. A Hand-held Laser Scanner based on Multi-camera Stereo-matching

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120419

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140408

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140430

R151 Written notification of patent or utility model registration

Ref document number: 5541653

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151