JP6580761B1 - Depth acquisition apparatus and method using polarization stereo camera - Google Patents

Depth acquisition apparatus and method using polarization stereo camera Download PDF

Info

Publication number
JP6580761B1
JP6580761B1 JP2018131841A JP2018131841A JP6580761B1 JP 6580761 B1 JP6580761 B1 JP 6580761B1 JP 2018131841 A JP2018131841 A JP 2018131841A JP 2018131841 A JP2018131841 A JP 2018131841A JP 6580761 B1 JP6580761 B1 JP 6580761B1
Authority
JP
Japan
Prior art keywords
point
image plane
polarization
normal vector
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2018131841A
Other languages
Japanese (ja)
Other versions
JP2020008502A (en
Inventor
卓弥 澤口
卓弥 澤口
Original Assignee
株式会社フォーディーアイズ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社フォーディーアイズ filed Critical 株式会社フォーディーアイズ
Priority to JP2018131841A priority Critical patent/JP6580761B1/en
Application granted granted Critical
Publication of JP6580761B1 publication Critical patent/JP6580761B1/en
Publication of JP2020008502A publication Critical patent/JP2020008502A/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】偏光画像から3次元空間中の対象物の深度情報を取得する深度取得装置を提供する。【解決手段】深度取得装置100は、計測対象物5を撮像する複数の偏光子を備える第1偏光カメラ11と第2偏光カメラ12とを備えるステレオカメラ1により撮像された偏光画像に基づいて、各偏光子を透過した光の輝度を第1画像平面上の各点及び第2画像平面上の各点に対応付けて取得する輝度情報取得部21と、光の輝度から算出される偏光度に基づいて、第1画像平面上の各点及び第2画像平面上の各点における法線ベクトル値を算出する法線ベクトル算出部22と、第1画像平面上の各点及び第2画像平面上の各点における法線ベクトル値をマッチングして対応点を算出する対応点算出部24と、対応点に基づいて計測対象物5の3次元座標値を算出する3次元座標値算出部25と、を備える。【選択図】図1A depth acquisition apparatus that acquires depth information of an object in a three-dimensional space from a polarization image. A depth acquisition apparatus 100 is based on a polarization image captured by a stereo camera 1 including a first polarization camera 11 and a second polarization camera 12 each including a plurality of polarizers that capture an image of a measurement object 5. A luminance information acquisition unit 21 that acquires the luminance of light transmitted through each polarizer in association with each point on the first image plane and each point on the second image plane, and the degree of polarization calculated from the luminance of the light Based on the normal vector calculation unit 22 for calculating the normal vector value at each point on the first image plane and each point on the second image plane, and on each point on the first image plane and on the second image plane A corresponding point calculation unit 24 that calculates a corresponding point by matching normal vector values at each point, a three-dimensional coordinate value calculation unit 25 that calculates a three-dimensional coordinate value of the measurement object 5 based on the corresponding point, Is provided. [Selection] Figure 1

Description

本発明は、2台の偏光カメラから構成されるステレオカメラにより、3次元空間中の被写体の深度情報を取得する装置及びその方法に関する。   The present invention relates to an apparatus and a method for acquiring depth information of a subject in a three-dimensional space using a stereo camera including two polarization cameras.

従来、特許文献1に開示されているように、2台のカメラから構成されたステレオカメラにより、対象物に対してそれぞれ撮像された2つの2次元画像を取得し、一方の2次元画像における画像点と他方の2次元画像における画像点との対応関係を、例えば、色や輝度を用いてマッチングし、三角測量により、対象物の3次元形状(3次元座標値)を取得する方法はよく知られている。
しかしながら、それぞれのカメラによる撮像画像(ステレオ画像)間で色や輝度を用いてマッチングを行う場合、それぞれのカメラにおいて、光源、カメラ間の角度が異なるため、色や輝度の分布にカメラ間で差が生じることで、マッチングに誤差が生じ、ステレオ画像間の視差に基づいて計算する距離に誤差が生じてしまうことはよく知られている。
Conventionally, as disclosed in Patent Document 1, two two-dimensional images respectively captured with respect to an object are acquired by a stereo camera including two cameras, and an image in one of the two-dimensional images is acquired. It is well known how to match the correspondence between a point and an image point in the other two-dimensional image using, for example, color or brightness, and obtain the three-dimensional shape (three-dimensional coordinate value) of the object by triangulation. It has been.
However, when matching is performed using captured images (stereo images) using color or brightness between the cameras, the angle between the light source and the camera is different in each camera, so there is a difference in color and brightness distribution between the cameras. It is well known that an error occurs in matching due to the occurrence of an error in the distance calculated based on the parallax between stereo images.

他方、非特許文献1には、コンピュータビジョンの分野で利用されている偏光に関する研究や基礎理論が記載されている。非特許文献1には、光の偏光状態を実時間で計測することができる偏光カメラや、偏光度を用いて、不透明物体の形状を計測する手法等が紹介されている。   On the other hand, Non-Patent Document 1 describes research and basic theory on polarization used in the field of computer vision. Non-Patent Document 1 introduces a polarization camera that can measure the polarization state of light in real time, a technique for measuring the shape of an opaque object using the degree of polarization, and the like.

また、特許文献2には、左右の自然光画像から対応点を検出し、その視差から三角測量の原理で当該対応点の撮像面からの距離を算出して、画像平面にマッピングすることによりデプスマップを生成すること、偏光画像に基づいて算出される、画像平面にマッピングされた被写体表面の法線ベクトルの分布に基づいて、被写体の面の連続性を取得することが開示されている。
また、特許文献3には、対象物の3次元モデルを予め登録しておき、その後、偏光画像に基づいて算出される、画像平面にマッピングされた被写体表面の法線ベクトルの分布を求め、3次元モデルをカメラ座標系が設定されたワールド座標系に対象物の3次元モデルを配置し、それを移動、回転、変形させることにより、法線ベクトルの分布に適合する状態を求めることが開示されている。
また、特許文献4には、被写体のぼけ量に基づいて作成した被写体のデプス画像に対して、法線の情報を適用して、デプス画像の精度を高めることが開示されている。
以上のように、特許文献2、特許文献3、特許文献4には、予め作成された対象物の3次元モデルまたはデプスマップに対して、画像平面にマッピングされた被写体表面の法線ベクトルの分布を利用することで、予め作成された対象物の3次元モデルまたはデプスマップの精度を高めることが開示されている。
Further, Patent Document 2 discloses a depth map by detecting corresponding points from left and right natural light images, calculating a distance from the imaging surface of the corresponding points from the parallax based on the principle of triangulation, and mapping the distance to the image plane. Generating continuity of the surface of the subject based on the distribution of the normal vector of the subject surface mapped to the image plane calculated based on the polarization image.
Further, in Patent Document 3, a three-dimensional model of an object is registered in advance, and then a normal vector distribution of a subject surface mapped to an image plane calculated based on a polarization image is obtained. It is disclosed that a three-dimensional model of an object is placed in a world coordinate system in which a camera coordinate system is set, and a state that matches the distribution of normal vectors is obtained by moving, rotating, and deforming the model. ing.
Patent Document 4 discloses that the accuracy of a depth image is improved by applying normal information to a depth image of a subject created based on the amount of blur of the subject.
As described above, in Patent Document 2, Patent Document 3, and Patent Document 4, the distribution of normal vectors on a subject surface mapped on an image plane with respect to a three-dimensional model or depth map of an object created in advance is disclosed. It is disclosed that the accuracy of a three-dimensional model or depth map of an object created in advance is improved by using.

以上のように、偏光画像に基づいて、画像平面にマッピングされた被写体表面の法線ベクトルの分布を作成する技術は公知である。そして、特許文献2、特許文献3、及び特許文献4等に示されるように、予め作成された対象物の3次元モデルまたはデプスマップに対して、例えば、当該法線ベクトルの分布を利用することで、対象物の3次元モデルまたはデプスマップの精度を高める方法が知られているが、いずれも、例えば、対象物をステレオカメラ等により撮像した2画像に対して、色や輝度を用いてマッチングし、三角測量により、対象物の3次元形状(3次元座標値)を予め作成しておくことが前提となっており、その後、さらに、偏光画像による調整を行うため、それに係る労力は必ずしも簡単なものではなかった。   As described above, a technique for creating a distribution of normal vectors on a subject surface mapped on an image plane based on a polarization image is known. Then, as shown in Patent Document 2, Patent Document 3, and Patent Document 4, for example, the distribution of the normal vector is used for a three-dimensional model or depth map of the object created in advance. However, there are known methods for improving the accuracy of a three-dimensional model or depth map of an object. In either case, for example, matching is performed using two colors obtained by capturing an object with a stereo camera or the like using color and brightness. However, it is assumed that the three-dimensional shape (three-dimensional coordinate value) of the object is created in advance by triangulation, and then the adjustment by the polarization image is further performed. It was not something.

特開2014−186715号公報JP 2014-186715 A 特開2017−038011号公報JP 2017-038011 A 特開2018−041278号公報Japanese Patent Application Laid-Open No. 2018-041278 特開2018−046340号公報JP 2018-046340 A

宮崎大輔、外1名、”偏光の基礎理論とその応用”、情報処理学会論文誌、コンピュータビジョンとイメージメディア、Vol.1、No.1、2008年6月、64−72頁Daisuke Miyazaki, 1 other, "Basic Theory of Polarization and its Applications", Transactions of Information Processing Society of Japan, Computer Vision and Image Media, Vol. 1, no. 1, June 2008, pp. 64-72

上述した従来技術では、対象物を例えばステレオカメラ等により撮像した2画像に対して、色や輝度を用いてマッチングし、三角測量により、対象物の3次元形状(3次元座標値)を作成し、その後、さらに、偏光画像による調整を行うため、手間のかかるものであった。   In the above-described conventional technique, two images obtained by capturing an object with, for example, a stereo camera are matched using colors and brightness, and a three-dimensional shape (three-dimensional coordinate value) of the object is created by triangulation. After that, it takes time and effort to perform adjustment using the polarization image.

本発明は、対象物の3次元モデルまたはデプスマップを予め作成することなく、偏光画像から、3次元空間中の対象物の深度情報(3次元位置情報)を取得する装置及びその方法を提供することを目的とする。   The present invention provides an apparatus and method for acquiring depth information (three-dimensional position information) of an object in a three-dimensional space from a polarization image without creating a three-dimensional model or depth map of the object in advance. For the purpose.

(1)本願発明は、少なくとも3方向の偏光成分をそれぞれ透過させる複数の偏光子を備える第1偏光カメラと、少なくとも3方向の偏光成分をそれぞれ透過させる複数の偏光子を備える第2偏光カメラと、を備え、被写体を撮像するステレオカメラと、前記第1偏光カメラにおける各偏光子をそれぞれ透過した光の輝度をそれぞれ前記第1偏光カメラの画像平面である第1画像平面上の各点の位置情報に対応付けて取得する第1輝度情報取得部と、前記第2偏光カメラにおける各偏光子をそれぞれ透過した光の輝度をそれぞれ前記第2偏光カメラの画像平面である第2画像平面上の各点の位置情報に対応付けて取得する第2輝度情報取得部と、前記第1輝度情報取得部により取得された前記第1偏光カメラの前記第1画像平面上の各点の位置情報に対応付けられた各偏光子を透過した光の輝度から算出される偏光度に基づいて、前記第1画像平面上の各点の位置に射影された前記被写体の表面上の点の位置における第1法線ベクトル値を算出して、前記第1画像平面上の各点の位置情報に対応付ける第1法線ベクトル算出部と、前記第2輝度情報取得部により取得された前記第2偏光カメラの前記第2画像平面上の各点の位置情報に対応付けられた各偏光子を透過した光の輝度に基づいて、前記第2画像平面上の各点の位置に射影された前記被写体の表面上の点の位置における第2法線ベクトル値を算出して、前記第2画像平面上の各点の位置情報に対応付ける第2法線ベクトル算出部と、前記第1画像平面上の各点の位置情報に対応付けられた第1法線ベクトル値と、前記各点に対応する前記第2画像平面上のエピポーラ線上の各点に対応付けられた第2法線ベクトル値と、をマッチングして前記第1画像平面と前記第2画像平面との対応点を算出する対応点算出部と、前記対応点算出部により算出された対応点にもとづいて、前記対応点に射影された前記被写体の表面上の点の予め設定された基準座標系における3次元座標値を算出する3次元座標値算出部と、を備える深度取得装置に関する。   (1) The present invention relates to a first polarization camera including a plurality of polarizers that respectively transmit at least three polarization components, and a second polarization camera that includes a plurality of polarizers that respectively transmit at least three polarization components. The position of each point on the first image plane, which is the image plane of the first polarization camera, and the brightness of the light transmitted through each polarizer in the first polarization camera. A first luminance information acquisition unit that acquires the information in association with information; and luminances of light transmitted through the polarizers in the second polarization camera, respectively, on the second image plane that is an image plane of the second polarization camera. A second luminance information acquisition unit that is acquired in association with position information of a point; and the position of each point on the first image plane of the first polarization camera acquired by the first luminance information acquisition unit. Based on the degree of polarization calculated from the luminance of light transmitted through each polarizer associated with the information, at the position of the point on the surface of the subject projected onto the position of each point on the first image plane The first polarization vector acquired by the first normal vector calculation unit that calculates the first normal vector value and associates it with the position information of each point on the first image plane, and the second luminance information acquisition unit The surface of the subject projected on the position of each point on the second image plane based on the luminance of light transmitted through each polarizer associated with the position information of each point on the second image plane Calculating a second normal vector value at the position of the upper point, and associating the second normal vector value with the position information of each point on the second image plane; and for each point on the first image plane A first normal vector value associated with the position information, and each of the points Corresponding to calculate corresponding points between the first image plane and the second image plane by matching the corresponding second normal vector values associated with each point on the epipolar line on the second image plane Based on the point calculation unit and the corresponding point calculated by the corresponding point calculation unit, a three-dimensional coordinate value in a preset reference coordinate system of a point on the surface of the subject projected on the corresponding point is calculated. A depth acquisition apparatus comprising: a three-dimensional coordinate value calculation unit.

(2) (1)に記載の第1法線ベクトル算出部は、前記第1偏光カメラの前記第1画像平面上の各点の位置情報に対応付けられた各偏光子を透過した光の輝度から拡散反射光の偏光度及び/又は鏡面反射光の偏光度を算出し、前記拡散反射光の偏光度に基づく第1法線ベクトル値及び/又は前記鏡面反射光の偏光度に基づく第1法線ベクトル値を算出し、前記第2法線ベクトル算出部は、前記第2偏光カメラの前記第2画像平面上の各点の位置情報に対応付けられた各偏光子を透過した光の輝度から拡散反射光の偏光度及び/又は鏡面反射光の偏光度を算出し、前記拡散反射光の偏光度に基づく第2法線ベクトル値及び/又は前記鏡面反射光の偏光度に基づく第2法線ベクトル値を算出してもよい。   (2) The first normal vector calculation unit described in (1) is a luminance of light transmitted through each polarizer associated with position information of each point on the first image plane of the first polarization camera. The degree of polarization of diffuse reflected light and / or the degree of polarization of specular reflected light is calculated from the first normal vector value based on the degree of polarization of diffuse reflected light and / or the first method based on the degree of polarization of specular reflected light. A line vector value is calculated, and the second normal vector calculation unit calculates the luminance of light transmitted through each polarizer associated with position information of each point on the second image plane of the second polarization camera. The degree of polarization of diffuse reflected light and / or the degree of polarization of specular reflected light is calculated, and the second normal vector value based on the degree of polarization of diffuse reflected light and / or the second normal based on the degree of polarization of specular reflected light. Vector values may be calculated.

(3) (1)又は(2)に記載の対応点算出部は、前記第1画像平面上の各点とその近傍に対応付けられた第1法線ベクトル値の分布状況と、前記各点に対応する前記第2画像平面上のエピポーラ線上の各点とその近傍に対応付けられた第2法線ベクトル値の分布状況と、をマッチングして、前記第1画像平面と前記第2画像平面との対応点を算出してもよい。   (3) The corresponding point calculation unit according to (1) or (2), the distribution state of the first normal vector value associated with each point on the first image plane and its vicinity, and each point The first image plane and the second image plane are matched by matching each point on the epipolar line on the second image plane corresponding to and the distribution state of the second normal vector value associated therewith. The corresponding point may be calculated.

(4)(1)〜(3)のいずれかに記載の深度取得装置は、前記第1画像平面上の各点に対応付けられた第1法線ベクトル値が同一となる、前記第1画像平面上の連続する点を含む連続領域を検出するとともに、前記連続領域を除く第1画像平面上の点であって、その点の近傍に法線ベクトル値が同一値となる連続領域があり、かつ、その点における第1法線ベクトル値が前記連続領域における法線ベクトル値から不連続的に急激に変化するエッジ点を検出する平面領域検出部を備え、前記3次元座標値算出部は、前記エッジ点に基づいて、前記第1画像平面上の第1法線ベクトル値が同一となる前記連続領域に対応する前記被写体の表面領域上の各点の前記基準座標系における3次元座標値を算出してもよい。   (4) In the depth acquisition device according to any one of (1) to (3), the first normal vector value associated with each point on the first image plane is the same as the first image. Detecting a continuous region including continuous points on the plane, and a point on the first image plane excluding the continuous region, and there is a continuous region in which the normal vector value is the same value in the vicinity of the point, And a plane region detecting unit for detecting an edge point at which the first normal vector value at the point changes discontinuously and rapidly from the normal vector value in the continuous region, and the three-dimensional coordinate value calculating unit includes: Based on the edge point, a three-dimensional coordinate value in the reference coordinate system of each point on the surface area of the subject corresponding to the continuous area where the first normal vector values on the first image plane are the same. It may be calculated.

(5) (4)に記載の対応点算出部は、前記連続領域上の各点の前記基準座標系における3次元座標値に基づいて、前記第1画像平面の前記連続領域上の点と前記第2画像平面における対応点を算出してもよい。   (5) The corresponding point calculation unit according to (4), based on a three-dimensional coordinate value in the reference coordinate system of each point on the continuous area, the point on the continuous area on the first image plane and the point Corresponding points on the second image plane may be calculated.

(6) (1)〜(5)のいずれかに記載の深度取得装置は、前記第1偏光カメラ及び前記第2偏光カメラとは別に第3のカメラと、前記第3のカメラにより撮像した画像データに、前記基準座標系における3次元座標値を対応づけることにより点群データを生成する点群データ生成部と、を備えるようにしてもよい。   (6) The depth acquisition device according to any one of (1) to (5) includes a third camera separately from the first polarization camera and the second polarization camera, and an image captured by the third camera. You may make it provide the point cloud data production | generation part which produces | generates point cloud data by matching the data with the three-dimensional coordinate value in the said reference coordinate system.

(7) 本願発明は、少なくとも3方向の偏光成分をそれぞれ透過させる複数の偏光子を備える第1偏光カメラと少なくとも3方向の偏光成分をそれぞれ透過させる複数の偏光子を備える第2偏光カメラとを備える被写体を撮像するステレオカメラと、通信可能に接続されるコンピュータにより、前記第1偏光カメラにおける各偏光子をそれぞれ透過した光の輝度をそれぞれ前記第1偏光カメラの画像平面である第1画像平面上の各点の位置情報に対応付けて取得する第1輝度情報取得ステップと、前記第2偏光カメラにおける各偏光子をそれぞれ透過した光の輝度をそれぞれ前記第2偏光カメラの画像平面である第2画像平面上の各点の位置情報に対応付けて取得する第2輝度情報取得ステップと、前記第1輝度情報取得ステップにおいて取得された前記第1偏光カメラの前記第1画像平面上の各点の位置情報に対応付けられた各偏光子を透過した光の輝度から算出される偏光度に基づいて、前記第1画像平面上の各点の位置に射影された前記被写体の表面上の点の位置における第1法線ベクトル値を算出して、前記第1画像平面上の各点の位置情報に対応付ける第1法線ベクトル算出ステップと、前記第2輝度情報取得ステップにおいて取得された前記第2偏光カメラの前記第2画像平面上の各点の位置情報に対応付けられた各偏光子を透過した光の輝度に基づいて、前記第2画像平面上の各点の位置に射影された前記被写体の表面上の点の位置における第2法線ベクトル値を算出して、前記第2画像平面上の各点の位置情報に対応付ける第2法線ベクトル算出ステップと、前記第1画像平面上の各点の位置情報に対応付けられた第1法線ベクトル値と、前記各点に対応する前記第2画像平面上のエピポーラ線上の各点に対応付けられた第2法線ベクトル値と、をマッチングして前記第1画像平面と前記第2画像平面との対応点を算出する対応点算出ステップと、前記対応点算出ステップにおいて算出された対応点にもとづいて、前記対応点に射影された前記被写体の表面上の点の予め設定された基準座標系における3次元座標値を算出する3次元座標値算出ステップと、を備える深度情報取得方法に関する。   (7) The present invention includes a first polarization camera including a plurality of polarizers that respectively transmit at least three directions of polarization components, and a second polarization camera that includes a plurality of polarizers that respectively transmit at least three directions of polarization components. The first image plane, which is the image plane of the first polarization camera, represents the brightness of light transmitted through each polarizer in the first polarization camera by a stereo camera that images the subject and a computer that is communicably connected. A first luminance information acquisition step that is acquired in association with position information of each of the points above, and luminances of light transmitted through the polarizers in the second polarization camera are image planes of the second polarization camera, respectively. In a second luminance information acquisition step that is acquired in association with position information of each point on the two image planes, and in the first luminance information acquisition step Based on the degree of polarization calculated from the brightness of light transmitted through each polarizer associated with the position information of each point on the first image plane of the first polarization camera obtained, the first image plane Calculating a first normal vector value at the position of the point on the surface of the subject projected onto the position of each point on the first normal vector, and associating it with the position information of each point on the first image plane Based on the luminance of the light transmitted through each polarizer associated with the position information of each point on the second image plane of the second polarization camera acquired in the calculation step and the second luminance information acquisition step Calculating a second normal vector value at the position of the point on the surface of the subject projected to the position of each point on the second image plane, and obtaining the position information of each point on the second image plane. A second normal vector calculating step to associate, and A first normal vector value associated with the position information of each point on the first image plane, and a second method associated with each point on the epipolar line on the second image plane corresponding to each point. Based on the corresponding point calculated in the corresponding point calculating step, the corresponding point calculating step of calculating a corresponding point between the first image plane and the second image plane by matching a line vector value The present invention relates to a depth information acquisition method comprising: a three-dimensional coordinate value calculating step of calculating a three-dimensional coordinate value in a preset reference coordinate system of a point on the surface of the subject projected onto the point.

(8)本願発明は、コンピュータに、(7)に記載の各ステップを実行させるためのコンピュータプログラムに関する。   (8) The present invention relates to a computer program for causing a computer to execute each step described in (7).

本発明の深度取得装置及びその方法によれば、対象物の3次元モデルまたはデプスマップを予め作成することなく、偏光画像から、3次元空間中の対象物の深度情報(3次元位置情報)を取得する装置及びその方法を提供することができる。   According to the depth acquisition apparatus and method of the present invention, depth information (three-dimensional position information) of an object in a three-dimensional space is obtained from a polarization image without creating a three-dimensional model or depth map of the object in advance. An apparatus and method for obtaining can be provided.

本発明の実施形態に係る深度取得装置の一例を概略的に示すブロック図である。It is a block diagram showing roughly an example of the depth acquisition device concerning the embodiment of the present invention. 本発明の実施形態に係る第1偏光カメラ及び第2偏光カメラの備える偏光子の概略図である。It is the schematic of the polarizer with which the 1st polarization camera and 2nd polarization camera which concern on embodiment of this invention are provided. 本発明の実施形態に係る第1偏光カメラの備える座標系を概略的に示す図である。It is a figure which shows roughly the coordinate system with which the 1st polarization camera which concerns on embodiment of this invention is provided. 本発明の実施形態に係る記憶部の概略ブロック図である。It is a schematic block diagram of the memory | storage part which concerns on embodiment of this invention. 本発明の実施形態に係る制御部の概略ブロック図である。It is a schematic block diagram of the control part which concerns on embodiment of this invention. 本発明の実施形態における一連の処理の流れを示す図である。It is a figure which shows the flow of a series of processes in embodiment of this invention. 本発明の実施形態における一連の処理の流れを示す図である。It is a figure which shows the flow of a series of processes in embodiment of this invention.

以下、本発明の実施形態の一例について説明する。
図1は、本実施形態に係る深度取得装置100の機能構成を示す図である。なお、本実施形態においては、被写体となる計測対象物5を構成する色素粒子により散乱された光である拡散反射光に基づく深度取得を例示する。
Hereinafter, an example of an embodiment of the present invention will be described.
FIG. 1 is a diagram illustrating a functional configuration of a depth acquisition apparatus 100 according to the present embodiment. In addition, in this embodiment, the depth acquisition based on the diffuse reflected light which is the light scattered by the pigment particle which comprises the measuring object 5 used as a to-be-photographed object is illustrated.

図1に示すように、深度取得装置100は、被写体となる計測対象物5を任意のフレームレート(例えば、30fps等)で撮影するステレオカメラ1と、ステレオカメラ1で撮影した画像データに基づいて所定の情報処理を行う制御部2と、記憶部3と、を含んで構成される。   As shown in FIG. 1, the depth acquisition apparatus 100 is based on a stereo camera 1 that captures an object 5 to be measured at an arbitrary frame rate (for example, 30 fps) and image data captured by the stereo camera 1. A control unit 2 that performs predetermined information processing and a storage unit 3 are included.

<ステレオカメラ1>
ステレオカメラ1は、第1偏光カメラ11と第2偏光カメラ12とを備えている。
図2に示すように、第1偏光カメラ11及び第2偏光カメラ12は、それぞれパターン偏光子111、121を備える。
パターン偏光子111、121は、例えば、図2の溝に示されるように、偏光主軸角度が0度、45度、90度、及び135度の4種類の偏光子を1組として、2次元状に配置された偏光子の集まりである。各偏光子は溝の方向に直交する方向の偏光成分を透過し、溝の方向に平行な方向の偏光成分を透過しない(反射する)という偏光特性を示す。なお、図2に示すパターン偏光子については、例えば、特開2009−58533号公報、特開2017−38011号公報、特開2018−46340号公報等に開示されている。
撮像素子112、122(図示せず)は、パターン偏光子111,121を透過した光を受光する2次元状に配置された画素(ピクセル)の集まりである。本実施形態における撮像素子は、グレースケールに係る撮像素子の場合を例示する。すなわち、4種類の異なる角度のパターン偏光子が、各画素上に配置され、同時に4つの主軸角度に対応する光の輝度を取得することができる。
透過した偏光成分を撮像素子112、122(図示せず)に含まれる光検出層(図示せず)で検出することにより、同時に4種類の偏光輝度が取得される。なお、4種類の輝度情報がそれぞれ4つの撮像素子で取得される場合、当該撮像素子に対応する画素に対して4種類の輝度情報を対応付けることができる。また、これらをひとまとめにした画素に対して4種類の輝度情報を対応付けるようにしてもよい。
なお、偏光輝度の取得に際して、グレースケールに係る撮像素子に限られない。例えば、特開2009−58533号公報、特開2017−38011号公報、特開2018−46340号公報等に例示された、カラー画像に係る撮像素子(R,G,B)を適用してもよい。この場合は、R、G、Bそれぞれについて、同時に4種類の偏光輝度を取得することができるため、例えば、R,G,B任意の組み合わせによる偏光輝度を適用してもよい。例えば、RGBに基づく色空間の色を光度だけで表されるグレースケールに変換(輝度保存変換)したものを適用してもよい。また、Rの偏光画像に基づく偏光輝度、Gの偏光画像、又はBの偏光画像に基づく偏光輝度を適用してもよい。
<Stereo camera 1>
The stereo camera 1 includes a first polarization camera 11 and a second polarization camera 12.
As shown in FIG. 2, the first polarizing camera 11 and the second polarizing camera 12 include pattern polarizers 111 and 121, respectively.
For example, as shown in the groove of FIG. 2, the pattern polarizers 111 and 121 are two-dimensionally formed by combining four types of polarizers having polarization main axis angles of 0 degrees, 45 degrees, 90 degrees, and 135 degrees. Is a collection of polarizers arranged in Each polarizer exhibits a polarization characteristic of transmitting a polarization component in a direction perpendicular to the groove direction and not transmitting (reflecting) a polarization component in a direction parallel to the groove direction. The pattern polarizer shown in FIG. 2 is disclosed in, for example, Japanese Patent Application Laid-Open Nos. 2009-58533, 2017-38011, and 2018-46340.
The imaging elements 112 and 122 (not shown) are a group of pixels (pixels) arranged in a two-dimensional shape that receive light transmitted through the pattern polarizers 111 and 121. The image sensor in this embodiment illustrates the case of the image sensor concerning a gray scale. That is, four types of pattern polarizers having different angles are arranged on each pixel, and the luminance of light corresponding to the four principal axis angles can be acquired at the same time.
By detecting the transmitted polarization component with a photodetection layer (not shown) included in the imaging elements 112 and 122 (not shown), four types of polarization luminances are acquired simultaneously. When four types of luminance information are acquired by four image sensors, four types of luminance information can be associated with pixels corresponding to the image sensors. Further, four types of luminance information may be associated with a pixel in which these are grouped.
Note that the acquisition of polarization luminance is not limited to an image sensor according to a gray scale. For example, an image sensor (R, G, B) relating to a color image exemplified in JP 2009-58533 A, JP 2017-38011 A, JP 2018-46340 A, or the like may be applied. . In this case, since four types of polarization luminance can be simultaneously acquired for each of R, G, and B, for example, the polarization luminance by any combination of R, G, and B may be applied. For example, a color space color based on RGB converted to a gray scale represented only by luminous intensity (luminance storage conversion) may be applied. Alternatively, polarization luminance based on the R polarization image, polarization polarization G, or polarization luminance based on the B polarization image may be applied.

<第1偏光カメラ11及び第2偏光カメラ12の座標系>
ここで、第1偏光カメラ11及び第2偏光カメラ12の備える座標系について簡単に説明する。
第1偏光カメラ11は、固有の座標系、すなわち、第1カメラ座標系、第1正規化画像座標系、及び第1デジタル画像座標系を備える。同様に、第2偏光カメラ12は、固有の座標系、すなわち、第2カメラ座標系、第2正規化画像座標系、及び第2デジタル画像座標系を備える。以下、第1偏光カメラ11の座標系について説明する。図3は、第1偏光カメラ11の備える座標系(第1カメラ座標系及び第1画像座標系)を示す図である。なお、図3では、第1偏光カメラ11及び第2偏光カメラ12を共通化して、インデックスを省略している。
なお、本実施例では、第1偏光カメラ11及び第2偏光カメラ12において、レンズ歪みの影響をキャンセルした補正画像が得られるものとし、内部パラメータは既知とする。
<Coordinate system of first polarization camera 11 and second polarization camera 12>
Here, a coordinate system included in the first polarization camera 11 and the second polarization camera 12 will be briefly described.
The first polarization camera 11 has a unique coordinate system, that is, a first camera coordinate system, a first normalized image coordinate system, and a first digital image coordinate system. Similarly, the second polarization camera 12 includes a unique coordinate system, that is, a second camera coordinate system, a second normalized image coordinate system, and a second digital image coordinate system. Hereinafter, the coordinate system of the first polarization camera 11 will be described. FIG. 3 is a diagram illustrating a coordinate system (a first camera coordinate system and a first image coordinate system) included in the first polarization camera 11. In FIG. 3, the first polarization camera 11 and the second polarization camera 12 are shared, and the index is omitted.
In this embodiment, it is assumed that a corrected image in which the influence of lens distortion is canceled is obtained in the first polarization camera 11 and the second polarization camera 12, and the internal parameters are known.

<第1カメラ座標系>
第1カメラ座標系は、空間を表す3次元座標として、第1偏光カメラ11を中心としてみた3次元座標系である。第1カメラ座標系は、一般的に、カメラレンズの中心を原点として、第1偏光カメラ11の光軸方向をZ軸とし、第1偏光カメラ11の上向きをY軸とし、第1偏光カメラ11の横向きをX軸とする3次元座標系(右手系)とされる。
以下、特に断らない限り、第1偏光カメラ11による座標値を(X,Y,Z)で表す。
<First camera coordinate system>
The first camera coordinate system is a three-dimensional coordinate system viewed from the first polarization camera 11 as a three-dimensional coordinate representing a space. The first camera coordinate system generally has the center of the camera lens as the origin, the optical axis direction of the first polarization camera 11 as the Z axis, the upward direction of the first polarization camera 11 as the Y axis, and the first polarization camera 11. Is a three-dimensional coordinate system (right-handed system) with the horizontal direction as the X-axis.
Hereinafter, unless otherwise specified, coordinate values obtained by the first polarizing camera 11 are represented by (X 1 , Y 1 , Z 1 ).

<第1正規化画像座標系>
第1正規化画像座標系は、光軸上の点を原点とし、x軸、y軸をそれぞれ、X軸、Y軸に平行にとり、焦点距離fを1とした2次元座標系(x、y)を第1正規化画像座標系という。
以下、特に断らない限り、第1正規化画像座標系による座標値を(x,y)で表す。
このとき、
= X/Z
= Y/Z
が成り立つ。
<First normalized image coordinate system>
The first normalized image coordinate system, a point on the optical axis as an origin, x-axis, respectively the y-axis, X-axis is taken parallel to the Y axis, the focal length f 1 1 and the two-dimensional coordinate system (x, y) is referred to as a first normalized image coordinate system.
Hereinafter, unless otherwise specified, coordinate values in the first normalized image coordinate system are represented by (x 1 , y 1 ).
At this time,
x 1 = X 1 / Z 1
y 1 = Y 1 / Z 1
Holds.

<第1画像座標系>
第1画像座標系は、画素数(pixel)単位で記述される。
第1画像座標系は、左上を原点とし、右方向を第1軸(u軸)、下方向を第2軸(v軸)とする。また、光軸が通る点を画像中心といい(cu1,cv1)で表す。
を第1偏光カメラ11の焦点距離、δu1及びδv1は、それぞれ、撮像素子の画素の横、縦の間隔とすると、
αu1 = f/δu1 及びαv1 = f/δv1 は、画素数(pixel)単位で表される焦点距離とする。
このとき、第1正規化画像座標(x,y)と第1画像座標(u,v)の間には、
= αu1+cu1 ここで、αu1 = f/δu1
= αv1+cv1 ここで、αv1 = f/δv1
なお、αu1 αv1とcu1v1をカメラの内部パラメータという。
以上、第1偏光カメラ11の備える座標系について説明した。第2偏光カメラ12の備える座標系は、上記説明において、「第1」を「第2」に読み換えるとともに、各インデックス1をインデックス2に読み換えることで説明される。
<First image coordinate system>
The first image coordinate system is described in units of the number of pixels (pixels).
In the first image coordinate system, the upper left is the origin, the right direction is the first axis (u axis), and the lower direction is the second axis (v axis). The point through which the optical axis passes is called the image center (c u1 , c v1 ).
If f 1 is the focal length of the first polarization camera 11, and δ u1 and δ v1 are the horizontal and vertical intervals of the pixels of the image sensor, respectively,
α u1 = f 1 / δ u1 and α v1 = f 1 / δ v1 are focal lengths expressed in units of pixels.
At this time, between the first normalized image coordinates (x 1 , y 1 ) and the first image coordinates (u 1 , v 1 ),
u 1 = α u1 x 1 + c u1 where α u1 = f 1 / δ u1
v 1 = α v1 y 1 + c v1 where α v1 = f 1 / δ v1
Α u1 α v1 and c u1 c v1 are referred to as camera internal parameters.
The coordinate system included in the first polarization camera 11 has been described above. In the above description, the coordinate system of the second polarization camera 12 is described by replacing “first” with “second” and replacing each index 1 with index 2.

第1偏光カメラ11の有する第1カメラ座標系と第2偏光カメラ12の有する第2カメラ座標系との関係について簡単に説明する。
第1偏光カメラ11と第2偏光カメラ12とを予めキャリブレーションすることで、第1偏光カメラ11の第1カメラ座標系における座標値を第2偏光カメラ12の第2カメラ座標系における座標値に変換する座標変換行列を算出しておき、例えば、記憶部3に予め記憶しておく。同様に、第2偏光カメラ12の第2カメラ座標系における座標値を第1偏光カメラ11の第1カメラ座標系における座標値に変換する座標変換行列を算出しておき、予め記憶部3に記憶しておく。
これらの間には以下の関係が成り立つ。
=E
=E
The relationship between the first camera coordinate system of the first polarization camera 11 and the second camera coordinate system of the second polarization camera 12 will be briefly described.
By calibrating the first polarization camera 11 and the second polarization camera 12 in advance, the coordinate value in the first camera coordinate system of the first polarization camera 11 is changed to the coordinate value in the second camera coordinate system of the second polarization camera 12. A coordinate transformation matrix 2 T 1 to be transformed is calculated and stored in advance in the storage unit 3, for example. Similarly, a coordinate conversion matrix 1 T 2 for converting coordinate values in the second camera coordinate system of the second polarization camera 12 into coordinate values in the first camera coordinate system of the first polarization camera 11 is calculated and stored in advance. 3 is stored.
The following relationship holds between them.
1 T 2 · 2 T 1 = E
2 T 1 · 1 T 2 = E

また、予め基準座標系(いわゆるワールド座標系)を設定しておくことで、被写体の表面上の各点を基準座標系における基準座標であらわすことができる。以下、特に断らない限り、基準座標系による座標値を(X,Y,Z)で表す。
その際、予めキャリブレーションすることで、第1カメラ座標系における座標値を基準座標系における座標値に変換する座標変換行列を算出するとともに、基準座標系における座標値を第1カメラ座標系における座標値に変換する座標変換行列を算出しておき、予め記憶部3に記憶しておく。同様に、第2カメラ座標系における座標値を基準座標系における座標値に変換する座標変換行列を算出するとともに基準座標系における座標値を第2カメラ座標系における座標値に変換する座標変換行列を算出しておき、予め記憶部3に記憶する。
Further, by setting a reference coordinate system (so-called world coordinate system) in advance, each point on the surface of the subject can be represented by reference coordinates in the reference coordinate system. Hereinafter, unless otherwise specified, coordinate values based on the reference coordinate system are represented by (X W , Y W , Z W ).
At this time, by performing calibration in advance, a coordinate transformation matrix W T 1 for converting the coordinate value in the first camera coordinate system to the coordinate value in the reference coordinate system is calculated, and the coordinate value in the reference coordinate system is calculated as the first camera coordinate. leave calculates the coordinates transformation matrix 1 T W for converting the coordinate values in the system, previously stored in the storage unit 3. Similarly, a coordinate conversion matrix W T 2 that converts coordinate values in the second camera coordinate system into coordinate values in the reference coordinate system is calculated, and coordinates that convert coordinate values in the reference coordinate system into coordinate values in the second camera coordinate system A conversion matrix 2 TW is calculated and stored in the storage unit 3 in advance.

<制御部2>
制御部2は、深度取得装置100の全体を制御する部分であり、例えば記憶部3に記憶されたソフトウェア(深度取得プログラム)を適宜読み出して実行することにより、本実施形態における各種機能を実現している。制御部2は、CPUであってよい。制御部2の詳細については後述する。
<Control unit 2>
The control unit 2 is a part that controls the entire depth acquisition apparatus 100, and implements various functions in the present embodiment by appropriately reading and executing software (depth acquisition program) stored in the storage unit 3, for example. ing. The control unit 2 may be a CPU. Details of the control unit 2 will be described later.

<記憶部3>
図4は、記憶部3の概略ブロック図である。記憶部3は、ハードウェア群を制御部2として機能させるための各種プログラム、及び各種データ等の記憶領域であり、ROM、RAM、フラッシュメモリ又はハードディスクドライブ(HDD)等であってよい。また、後述するように、記憶部3は、第1画像平面上の各画素の位置情報と、第1画像平面にマッピングされた被写体表面の法線ベクトル値との対応テーブル(以下、「第1法線ベクトル分布テーブル31」という)と、第2画像平面上の各画素の位置情報と、第1画像平面にマッピングされた被写体表面の法線ベクトル値との対応テーブル(以下「第2法線ベクトル分布テーブル32」という)と、を記憶する。この外、後述する「対応点情報テーブル33」及び「3次元座標値テーブル34」を記憶する。詳細については後述する。
<Storage unit 3>
FIG. 4 is a schematic block diagram of the storage unit 3. The storage unit 3 is a storage area for various programs and various data for causing the hardware group to function as the control unit 2, and may be a ROM, a RAM, a flash memory, a hard disk drive (HDD), or the like. Further, as will be described later, the storage unit 3 stores a correspondence table (hereinafter referred to as “first”) between positional information of each pixel on the first image plane and normal vector values of the subject surface mapped on the first image plane. (Referred to as “normal vector distribution table 31”), position information of each pixel on the second image plane, and normal vector values of the subject surface mapped on the first image plane (hereinafter referred to as “second normal line”). Vector distribution table 32 "). In addition, a “corresponding point information table 33” and a “three-dimensional coordinate value table 34” described later are stored. Details will be described later.

<制御部2の機能構成>
図5は、制御部2の備える機能ブロックを示す概略図である。図5に示すように、制御部2は、輝度情報取得部21と、法線ベクトル算出部22と、平面領域検出部23と、対応点算出部24と、3次元座標値算出部25と、を備える。輝度情報取得部21は、さらに第1輝度情報取得部211と、第2輝度情報取得部212と、を含む。法線ベクトル算出部22は、さらに第1法線ベクトル算出部221と、第2法線ベクトル算出部222と、を含む。
<Functional configuration of control unit 2>
FIG. 5 is a schematic diagram showing functional blocks provided in the control unit 2. As shown in FIG. 5, the control unit 2 includes a luminance information acquisition unit 21, a normal vector calculation unit 22, a plane area detection unit 23, a corresponding point calculation unit 24, a three-dimensional coordinate value calculation unit 25, Is provided. The luminance information acquisition unit 21 further includes a first luminance information acquisition unit 211 and a second luminance information acquisition unit 212. The normal vector calculation unit 22 further includes a first normal vector calculation unit 221 and a second normal vector calculation unit 222.

<輝度情報取得部21>
輝度情報取得部21は、第1輝度情報取得部211と、第2輝度情報取得部212と、を含む。第1輝度情報取得部211は、第1偏光カメラ11により撮像された各フレームに対して、第1偏光カメラ11における各偏光子をそれぞれ透過した光の輝度をそれぞれ第1偏光カメラ11の画像平面である第1画像平面上の各点の位置情報に対応付けて取得する。他方、第2輝度情報取得部212は、第1偏光カメラ11により撮像された各フレームに対して、第2偏光カメラ12における各偏光子をそれぞれ透過した光の輝度をそれぞれ第2偏光カメラ12の画像平面である第2画像平面上の各点の位置情報に対応付けて取得する。
すなわち、本実施形態においては、第1輝度情報取得部211は、第1偏光カメラ11により撮像されたフレームごとに、当該フレームの第1画像平面上の各画素における、4つの偏光方位(4通りの主軸角度)に対する輝度変化を取得する。同様に、第2輝度情報取得部212は、当該フレームの第2画像平面上の各画素における、4つの偏光方位に対する輝度変化を取得する。このように、輝度情報は、各フレームごとに取得される。以下、特に断らない限り、各機能部は、フレームごとに、深度情報及び3次元座標位置情報を算出する。そして、各機能部により作成される情報は、フレームを識別するためのフレーム識別情報(例えばタイムスタンプ)が付与されているものとする。
<Luminance information acquisition unit 21>
The luminance information acquisition unit 21 includes a first luminance information acquisition unit 211 and a second luminance information acquisition unit 212. The first luminance information acquisition unit 211 sets the luminance of light transmitted through each polarizer in the first polarization camera 11 for each frame imaged by the first polarization camera 11, respectively, on the image plane of the first polarization camera 11. Are acquired in association with position information of each point on the first image plane. On the other hand, the second luminance information acquisition unit 212 determines the luminance of the light transmitted through each polarizer in the second polarization camera 12 for each frame imaged by the first polarization camera 11. Acquired in association with position information of each point on the second image plane which is the image plane.
That is, in the present embodiment, the first luminance information acquisition unit 211 performs, for each frame captured by the first polarization camera 11, four polarization orientations (four ways) in each pixel on the first image plane of the frame. Brightness change with respect to the main axis angle). Similarly, the second luminance information acquisition unit 212 acquires luminance changes for the four polarization directions in each pixel on the second image plane of the frame. As described above, the luminance information is acquired for each frame. Hereinafter, unless otherwise specified, each functional unit calculates depth information and three-dimensional coordinate position information for each frame. The information created by each functional unit is given frame identification information (for example, a time stamp) for identifying a frame.

<法線ベクトル算出部22>
第1法線ベクトル算出部221は、第1輝度情報取得部211により取得された第1偏光カメラ11の第1画像平面上の各点の位置情報に対応付けられた各偏光子を透過した光の輝度に基づいて、第1画像平面上の各点の位置に投影される被写体となる計測対象物5の表面上の点の位置における法線ベクトル値(第1法線ベクトル値)を算出して、第1画像平面上の各点の位置情報に対応付ける。そうすることで、第1法線ベクトル算出部221は、第1画像平面上の各画素の位置情報と、当該画素に投影される被写体となる計測対象物5の表面上の点における法線ベクトル値との対応テーブル(第1法線ベクトル分布テーブル31)を記憶部3に記憶する。
同様に、第2法線ベクトル算出部222は、第2輝度情報取得部212により取得された第2偏光カメラ12の第2画像平面上の各画素の位置情報に対応付けられた各偏光子を透過した光の輝度に基づいて、第2画像平面上の各画素の位置に投影される被写体となる計測対象物5の表面上の点の位置における法線ベクトル値(第2法線ベクトル値)を算出して、第2画像平面上の各画素の位置情報に対応付ける。そうすることで、第2法線ベクトル算出部222は、第2画像平面上の各画素の位置情報と、当該画素に投影される被写体となる計測対象物5の表面上の点における法線ベクトル値との対応テーブル(第2法線ベクトル分布テーブル32)を記憶部3に記憶する。
<Normal Vector Calculation Unit 22>
The first normal vector calculation unit 221 transmits the light transmitted through each polarizer associated with the position information of each point on the first image plane of the first polarization camera 11 acquired by the first luminance information acquisition unit 211. The normal vector value (first normal vector value) at the position of the point on the surface of the measurement object 5 that is the subject projected on the position of each point on the first image plane is calculated based on the brightness of the first image plane. Thus, it is associated with the position information of each point on the first image plane. By doing so, the first normal vector calculation unit 221 includes the position information of each pixel on the first image plane and the normal vector at the point on the surface of the measurement target 5 that is the subject projected on the pixel. A correspondence table (first normal vector distribution table 31) with values is stored in the storage unit 3.
Similarly, the second normal vector calculation unit 222 calculates each polarizer associated with the position information of each pixel on the second image plane of the second polarization camera 12 acquired by the second luminance information acquisition unit 212. Based on the brightness of the transmitted light, a normal vector value (second normal vector value) at the position of a point on the surface of the measurement object 5 to be projected on the position of each pixel on the second image plane. Is calculated and associated with position information of each pixel on the second image plane. By doing so, the second normal vector calculator 222 calculates the position information of each pixel on the second image plane and the normal vector at the point on the surface of the measurement object 5 that is the subject projected on the pixel. A correspondence table (second normal vector distribution table 32) with values is stored in the storage unit 3.

複数の偏光子を介して観察される輝度情報に基づいて、被写体となる計測対象物5の表面の法線ベクトル値を算出する方法は、例えば、非特許文献1、特開2009−58533号公報、特許文献3等に開示されており、当業者にとって、公知の技術であり、本実施形態においてはこれらを適用してもよい。以下に、第1法線ベクトル算出部221について、その概要を簡単に説明する。なお、第2法線ベクトル算出部222については、第1法線ベクトル算出部221と同様であり、その説明は省略する。   A method for calculating the normal vector value of the surface of the measurement object 5 serving as a subject based on luminance information observed through a plurality of polarizers is, for example, Non-Patent Document 1, Japanese Patent Application Laid-Open No. 2009-58533. These are disclosed in Patent Document 3 and the like, which are known techniques for those skilled in the art, and these may be applied in the present embodiment. The outline of the first normal vector calculation unit 221 will be briefly described below. Note that the second normal vector calculation unit 222 is the same as the first normal vector calculation unit 221, and a description thereof will be omitted.

<各撮像単位113で観察される輝度の最大値、最小値、及び偏光位相の算出>
偏光子を介して第1画像平面上の各画素ごとに観察される輝度Iは、偏光子の主軸角度v(0度≦v≦180度)の大きさに応じて、式1で表すことが知られている。ここで、Imax、Iminはそれぞれ、観測される輝度の最大値、最小値であり、φは、最大輝度Imaxが観察されるときの主軸角度の大きさである位相角である。

I=(Imax+Imin)/2 +((Imax−Imin)/2)cos(2v−2φ)
(式1)
そうすると、v=0度、45度、90度、及び135度のときに取得された輝度I、I45,I90,I135に基づいて、それらの座標(I,0度)、(I45,45度)、(I90,90度)、(I135,135度)を通る曲線を、例えば最小二乗法等を用いてコサイン関数に近似させることにより、Imax、Imin、及び位相角φを求めることができる。
<Calculation of luminance maximum value, minimum value, and polarization phase observed in each imaging unit 113>
The luminance I observed for each pixel on the first image plane through the polarizer can be expressed by Equation 1 according to the magnitude of the principal axis angle v (0 degrees ≦ v ≦ 180 degrees) of the polarizer. Are known. Here, I max and I min are the maximum value and minimum value of the observed luminance, respectively, and φ is a phase angle that is the magnitude of the principal axis angle when the maximum luminance I max is observed.

I = (I max + I min ) / 2 + ((I max -I min) / 2) cos (2v-2φ)
(Formula 1)
Then, based on the luminances I 0 , I 45 , I 90 , I 135 acquired when v = 0 °, 45 °, 90 °, and 135 °, their coordinates (I 0 , 0 °), ( By approximating a curve passing through (I 45 , 45 degrees), (I 90 , 90 degrees), (I 135 , 135 degrees) to a cosine function using, for example, the least squares method, I max , I min , and The phase angle φ can be obtained.

<各画素で観察される偏光度の算出>
第1画像平面上の各画素で観察される偏光度ρは、式2で表すことが知られている。
ρ=(Imax−Imin)/(Imax+Imin) (式2)
したがって、式1に基づいて算出されたImax、Iminを式2に適用することで、画素ごとに観察される偏光度ρを求めることができる。
<Calculation of polarization degree observed at each pixel>
It is known that the degree of polarization ρ observed at each pixel on the first image plane is expressed by Equation 2.
ρ = (I max −I min ) / (I max + I min ) (Formula 2)
Therefore, by applying I max and I min calculated based on Expression 1 to Expression 2, the degree of polarization ρ observed for each pixel can be obtained.

<被写体となる計測対象物5の表面の法線>
各画素に投影される被写体となる計測対象物5の表面上の点における法線については、以下のことが知られている。
すなわち、被写体となる計測対象物5を第1偏光カメラ11又は第2偏光カメラ12で撮影するとき、計測対象物5を構成する色素粒子により散乱された光である拡散反射光が主として撮影される場合、光の出射面の角度を表す方位角と、当該面上での拡散反射光の放射角度である天頂角θに基づいて算出されることが知られている。
ここで、光の出射面の角度を表す方位角αは、(式1)において最大輝度Imaxを与える主軸角度(すなわち、位相角φ)に等しい。
また、拡散反射の場合の偏光度ρは、天頂角θと計測対象物5の屈折率nを用いて、(式3)で表されることが知られている。なお、屈折率nは、計測対象物5の媒質によって異なる値をとるが、ほとんどの対象物に対して、1.3≦n≦1.8がなりたち、また、nがこの範囲の値となる場合には、例えばn=1.3として計算した場合、(式3)で算出されるθの値の誤差は無視できる。
<Normal of the surface of the measurement object 5 as the subject>
The following is known about normals at points on the surface of the measurement object 5 that is a subject projected on each pixel.
That is, when the measurement object 5 that is a subject is photographed by the first polarization camera 11 or the second polarization camera 12, diffuse reflected light that is light scattered by the pigment particles constituting the measurement object 5 is mainly photographed. In this case, it is known that the calculation is based on the azimuth angle representing the angle of the light exit surface and the zenith angle θ which is the radiation angle of the diffusely reflected light on the surface.
Here, the azimuth angle α representing the angle of the light exit surface is equal to the principal axis angle (that is, the phase angle φ) that gives the maximum luminance I max in (Expression 1).
Further, it is known that the degree of polarization ρ d in the case of diffuse reflection is expressed by (Equation 3) using the zenith angle θ and the refractive index n of the measurement object 5. The refractive index n varies depending on the medium of the measurement object 5, but for most objects, 1.3 ≦ n ≦ 1.8 is satisfied, and n is a value within this range. In this case, for example, when calculation is performed with n = 1.3, an error in the value of θ calculated by (Equation 3) can be ignored.

したがって、式2に基づいて算出された偏光度ρ(=ρ)及びn=1.3を式3に適用することで、天頂角θを求めることができる。 Therefore, by applying the degree of polarization ρ (= ρ d ) and n = 1.3 calculated based on Equation 2 to Equation 3, the zenith angle θ can be obtained.

<法線ベクトル値>
式1で算出された位相角に等しい、光の出射面の角度を表す方位角α及び式3で算出された天頂角θにより、第1画像平面上の各画素に投影される被写体となる計測対象物5の表面上の点における法線ベクトル値(p、p、p)は、(式4)により算出することができる。
<Normal vector value>
Measurement that becomes a subject projected on each pixel on the first image plane by the azimuth angle α representing the angle of the light exit surface, which is equal to the phase angle calculated in Equation 1, and the zenith angle θ calculated in Equation 3. Normal vector values (p x , p y , p z ) at points on the surface of the object 5 can be calculated by (Equation 4).

以上のように、第1法線ベクトル算出部221は、第1偏光カメラ11により撮像されたフレームに対して、第1画像平面上の各画素の位置情報と、当該画素に投影される被写体となる計測対象物5の表面上の点における法線ベクトル値との対応テーブル(第1法線ベクトル分布テーブル31)を作成して、記憶部3に記憶する。ここで、第1法線ベクトル分布テーブル31に記憶させた各法線ベクトル値p、p、pは、法線ベクトルの第1カメラ座標系におけるX軸方向に係る成分(X軸成分)、Y軸方向に係る成分(Y軸成分)、及びZ軸方向に係る成分(Z軸成分)である。 As described above, the first normal vector calculation unit 221 determines the position information of each pixel on the first image plane, the subject projected on the pixel, and the frame captured by the first polarization camera 11. A correspondence table (first normal vector distribution table 31) with normal vector values at points on the surface of the measurement object 5 is created and stored in the storage unit 3. Here, the normal vector values p x , p y , and p z stored in the first normal vector distribution table 31 are components (X 1) of the normal vector in the X 1 axis direction in the first camera coordinate system. axis component), Y 1 axially according component (Y 1 axis component), and Z 1 axial direction according component (Z 1 -axis component).

第1法線ベクトル算出部221と同様に、第2法線ベクトル算出部222は、第2偏光カメラ12により撮像されたフレームに対して、第2画像平面上の各画素の位置情報と、当該画素に投影される被写体となる計測対象物5の表面上の点における法線ベクトル値との対応テーブル(第2法線ベクトル分布テーブル32)を作成して記憶部3に記憶する。ここで、第2法線ベクトル分布テーブル32に記憶させた各法線ベクトル値p、p、pは、法線ベクトルの第2カメラ座標系におけるX軸方向に係る成分(X軸成分)、Y軸方向に係る成分(Y軸成分)、及びZ軸方向に係る成分(Z軸成分)である。 Similar to the first normal vector calculation unit 221, the second normal vector calculation unit 222 performs position information of each pixel on the second image plane with respect to the frame captured by the second polarization camera 12, and A correspondence table (second normal vector distribution table 32) with normal vector values at points on the surface of the measurement object 5 to be projected on the pixels is created and stored in the storage unit 3. Here, each normal vector value p x , p y , p z stored in the second normal vector distribution table 32 is a component (X 2) of the normal vector in the X 2 axis direction in the second camera coordinate system. axis component), Y 2 axially according component (Y 2 axis component), and a Z 2 axial direction according component (Z 2 axial components).

以上の説明では、被写体となる計測対象物5を第1偏光カメラ11又は第2偏光カメラ12で撮影するとき、計測対象物5を構成する色素粒子により散乱された光である拡散反射光が主として撮影される場合について説明したが、これに限られない。
例えば、被写体となる計測対象物5を第1偏光カメラ11又は第2偏光カメラ12で撮影するとき、被写体となる計測対象物5の表面で正反射する光(鏡面反射光)が主として撮影される場合、すなわち、光源からの光が光沢のある表面に反射して見える場合、鏡面反射光に基づいて算出される法線ベクトル値を利用してもよい。
鏡面反射の場合の偏光度ρは、天頂角θと計測対象物5の屈折率nを用いて、式5で表されることが知られている。なお、屈折率nは、計測対象物5の媒質によって異なる値をとるが、ほとんどの対象物に対して、1.3≦n≦1.8がなりたち、また、nがこの範囲の値となる場合には、例えばn=1.3として計算した場合、拡散反射の場合と同様に、(式5)で算出されるθの値の誤差は無視できる。
In the above description, when the measurement object 5 that is a subject is photographed by the first polarization camera 11 or the second polarization camera 12, the diffuse reflected light that is the light scattered by the pigment particles constituting the measurement object 5 is mainly used. Although the case where it was photographed was demonstrated, it is not restricted to this.
For example, when the measurement object 5 that is the subject is photographed by the first polarization camera 11 or the second polarization camera 12, light that is regularly reflected on the surface of the measurement object 5 that is the subject (specular reflection light) is mainly photographed. In this case, that is, when the light from the light source appears to be reflected on the glossy surface, the normal vector value calculated based on the specular reflection light may be used.
It is known that the degree of polarization ρ s in the case of specular reflection is expressed by Expression 5 using the zenith angle θ and the refractive index n of the measurement object 5. The refractive index n varies depending on the medium of the measurement object 5, but for most objects, 1.3 ≦ n ≦ 1.8 is satisfied, and n is a value within this range. In this case, for example, when calculating with n = 1.3, as in the case of diffuse reflection, an error in the value of θ calculated by (Equation 5) can be ignored.

また、鏡面反射の場合、光の入射面の角度を表す方位角αは、(式1)において最小輝度Iminを与える主軸角度(すなわち、位相角φと90度異なる角度)に等しい。そうすると、光の入射面の角度を表す方位角α(すなわち、位相角φと90度異なる角度)及び式5で算出された天頂角θにより、各画素に投影される被写体となる計測対象物5の表面上の点における法線ベクトル値(p、p、p)は、式4で表される。
以下、特に断らない限り、各画素に対応する法線ベクトル値は、拡散反射光の偏光度に基づき算出されたものとする。
In the case of specular reflection, the azimuth angle α representing the angle of the light incident surface is equal to the principal axis angle (that is, an angle different from the phase angle φ by 90 degrees) that gives the minimum luminance I min in (Expression 1). Then, the measurement object 5 that is a subject to be projected on each pixel is determined by the azimuth angle α (that is, an angle that is 90 degrees different from the phase angle φ) that represents the angle of the light incident surface and the zenith angle θ calculated by Equation 5. A normal vector value (p x , p y , p z ) at a point on the surface of is represented by Equation 4.
Hereinafter, unless otherwise specified, it is assumed that the normal vector value corresponding to each pixel is calculated based on the degree of polarization of diffusely reflected light.

<平面領域検出部23>
<連続領域>
平面領域検出部23は、第1画像平面上の第1法線ベクトル値が同一値となる連続領域を探索して、連続領域に含まれる画素からなる集合(以下、「連続領域集合」という)を作成して、第1法線ベクトル分布テーブル31を構成する画素に関する属性情報として、当該画素が連続領域に含まれるか否かを示す連続領域識別情報を付加する。
それにより、第1法線ベクトル分布テーブル31を参照することで、第1画像平面上の画素(以下、簡単のため「点」ともいう)が連続領域に含まれるか否かを判定することができる。
<Plane area detection unit 23>
<Continuous area>
The plane area detection unit 23 searches for a continuous area in which the first normal vector values on the first image plane have the same value, and a set of pixels included in the continuous area (hereinafter referred to as “continuous area set”). , And continuous area identification information indicating whether or not the pixel is included in the continuous area is added as attribute information regarding the pixels constituting the first normal vector distribution table 31.
Thereby, by referring to the first normal vector distribution table 31, it is possible to determine whether or not pixels on the first image plane (hereinafter also referred to as “points” for simplicity) are included in the continuous region. it can.

<エッジ点>
また、平面領域検出部23は、第1画像平面上の各点に対応付けられた第1法線ベクトル値が同一値となる連続領域を除く第1画像平面上の点Aであって、点Aの近傍に法線ベクトル値が同一値となる連続領域があり、かつ、点Aの第1法線ベクトル値が当該近傍の法線ベクトル値から不連続的に急激に変化している場合、点Aをエッジ点として検出する。平面領域検出部23は、第1法線ベクトル分布テーブル31を構成する点に関する属性情報として、その点がエッジ点か否かを示すエッジ点識別情報を付加する。
そうすることで、第1法線ベクトル分布テーブル31を参照することで、第1画像平面上の点がエッジ点か否かを判定することができる。
<Edge point>
The plane area detection unit 23 is a point A on the first image plane excluding continuous areas where the first normal vector values associated with the respective points on the first image plane have the same value, When there is a continuous region where the normal vector value is the same value in the vicinity of A, and the first normal vector value of the point A changes discontinuously and rapidly from the normal vector value in the vicinity, Point A is detected as an edge point. The plane area detection unit 23 adds edge point identification information indicating whether or not the point is an edge point as attribute information regarding the points constituting the first normal vector distribution table 31.
By doing so, it is possible to determine whether or not the point on the first image plane is an edge point by referring to the first normal vector distribution table 31.

<対応点算出部24>
対応点算出部24は、第1画像平面上の各点の位置情報に対応付けられた第1法線ベクトル値と、第2画像平面上の各点の位置情報に対応付けられた第2法線ベクトル値と、をマッチングして第1画像平面と前記第2画像平面との対応点を算出する。
前述したように、第1偏光カメラ11により撮像されたフレームに対して作成された、第1法線ベクトル分布テーブル31に記憶させた第1法線ベクトル値(p、p、p)は、第1法線ベクトルpの第1カメラ座標系におけるX軸方向に係る成分(X軸成分)、Y軸方向に係る成分(Y軸成分)、及びZ軸方向に係る成分(Z軸成分)である。他方、第2偏光カメラ12により撮像されたフレームに対して作成された、第2法線ベクトル分布テーブル32に記憶させた第2法線ベクトル値(p、p、p)は、第2法線ベクトルpの第2カメラ座標系におけるX軸方向に係る成分(X軸成分)、Y軸方向に係る成分(Y軸成分)、及びZ軸方向に係る成分(Z軸成分)である。
対応点算出部24は、両者をマッチングするために、第2法線ベクトル分布テーブル32に記憶させた各第2法線ベクトルpの値を、第1カメラ座標系におけるX軸方向に係る成分(X軸成分)、Y軸方向に係る成分(Y軸成分)、及びZ軸方向に係る成分(Z軸成分)で表したベクトル値p´に変換する。
具体的には、対応点算出部24は、第2カメラ座標系における座標値を第1カメラ座標系における座標値に変換する座標変換行列を用いて、第2法線ベクトル分布テーブル32に記憶させた各第2法線ベクトル値pを(式7)に基づいてp´に変換する。
´= ・p (式7)
以下、当該変換されたベクトル値を、第2法線ベクトル値(変換済)という。対応点算出部24は、第2法線ベクトル値(変換済)を第2法線ベクトル分布テーブル32に記憶させてもよい。
<Corresponding point calculation unit 24>
The corresponding point calculation unit 24 includes a first normal vector value associated with the position information of each point on the first image plane and a second method associated with the position information of each point on the second image plane. The line vector values are matched to calculate corresponding points between the first image plane and the second image plane.
As described above, the first normal vector values (p x , p y , p z ) stored in the first normal vector distribution table 31 created for the frame imaged by the first polarization camera 11. Are components in the first camera coordinate system of the first normal vector p 1 in the X 1 axis direction (X 1 axis component), components in the Y 1 axis direction (Y 1 axis component), and Z 1 axis direction according as the component (Z 1 -axis component). On the other hand, the second normal vector values (p x , p y , p z ) stored in the second normal vector distribution table 32 created for the frame imaged by the second polarization camera 12 are The component of the two normal vectors p 2 in the second camera coordinate system in the X 2 axis direction (X 2 axis component), the component in the Y 2 axis direction (Y 2 axis component), and the component in the Z 2 axis direction ( is a Z 2 axial components).
The corresponding point calculation unit 24 relates the values of the second normal vectors p 2 stored in the second normal vector distribution table 32 in the X 1 axis direction in the first camera coordinate system in order to match the two. The vector value p 2 ′ expressed by the component (X 1- axis component), the component related to the Y 1- axis direction (Y 1- axis component), and the component related to the Z 1- axis direction (Z 1- axis component) is converted.
Specifically, the corresponding point calculation unit 24 uses the coordinate transformation matrix 1 T 2 that converts the coordinate value in the second camera coordinate system to the coordinate value in the first camera coordinate system, and uses the second normal vector distribution table 32. Each second normal vector value p 2 stored in ( 2 ) is converted into p 2 ′ based on (Equation 7).
p 2 ′ = 1 T 2 · p 2 (Formula 7)
Hereinafter, the converted vector value is referred to as a second normal vector value (converted). The corresponding point calculation unit 24 may store the second normal vector value (converted) in the second normal vector distribution table 32.

対応点算出部24は、第1画像平面上の各点に対応付けられた第1法線ベクトル値が同一値となる連続領域に含まれる点Aについては、法線ベクトル値のマッチングだけでは、第2画像平面上の対応点Bを探索することができない。このため、対応点算出部24は、まず、第1画像平面上の第1法線ベクトル値が同一値となる連続領域を除く第1画像平面上の点Aに対応する第2画像平面上の対応点Bを探索する。
その後、対応点算出部24は、例えば、第1法線ベクトル分布テーブル31に格納したエッジ点情報を利用することで、第1画像平面上の第1法線ベクトル値が同一値となる連続領域に含まれる点の第2画像平面上の対応点を探索する。なお、連続領域に含まれる点の第2画像平面上の対応点の探索についての詳細な説明は、後述する。
For the point A included in the continuous region in which the first normal vector value associated with each point on the first image plane is the same value, the corresponding point calculation unit 24 performs only the normal vector value matching. The corresponding point B on the second image plane cannot be searched. For this reason, the corresponding point calculation unit 24 first selects the second image plane corresponding to the point A on the first image plane excluding the continuous region where the first normal vector values on the first image plane are the same value. The corresponding point B is searched.
Thereafter, the corresponding point calculation unit 24 uses, for example, the edge point information stored in the first normal vector distribution table 31 so that the first normal vector values on the first image plane are the same value. The corresponding points on the second image plane of the points included in are searched. A detailed description of the search for corresponding points on the second image plane of points included in the continuous area will be described later.

<連続領域を除く第1画像平面上の点Aに対応する第2画像平面上の対応点Bの探索>
対応点算出部24は、第1画像平面上の第1法線ベクトル値が同一値となる連続領域を除く第1画像平面上の点Aに対応付けられた第1法線ベクトル値が、点Aに対応する第2画像平面上のエピポーラ線上に位置する点Bであって、点Bに対応付けられた第2法線ベクトル値(変換済)が点Aの法線ベクトル値と一致するとともに、当該エピポーラ線上で離散的に存在する点B(=点Aの対応点候補)を検索する。
対応点候補Bが複数個ある場合、対応点算出部24は、例えば各対応点候補Bの近傍における法線ベクトル値の分布状況が点Aの近傍における法線ベクトル値の分布状況と一致する(最も類似している)対応点候補Bを点Aの対応点と判定する。ここで、点Aの近傍とは、点Aを囲む所定の数の点をいう。
このようにして、対応点算出部24は、第1法線ベクトル値が同一値となる連続領域を除く第1画像平面上の点Aに対する第2画像平面上の対応点Bを算出し、記憶部3に点Aの属性情報(第1画像座標系の座標値、第1法線ベクトル値等)と対応点Bの属性情報(第2画像座標系の座標値、第2法線ベクトル値等)をフレーム識別情報に紐づけて記憶する。以下、これを「対応点情報テーブル33」という。
<Search for the corresponding point B on the second image plane corresponding to the point A on the first image plane excluding the continuous region>
The corresponding point calculation unit 24 determines that the first normal vector value associated with the point A on the first image plane excluding the continuous region where the first normal vector value on the first image plane is the same value is a point. The point B is located on the epipolar line on the second image plane corresponding to A, and the second normal vector value (converted) associated with the point B matches the normal vector value of the point A. Then, the point B (= corresponding point candidate of the point A) that exists discretely on the epipolar line is searched.
When there are a plurality of corresponding point candidates B, for example, the corresponding point calculation unit 24 matches the distribution of normal vector values in the vicinity of each corresponding point candidate B with the distribution of normal vector values in the vicinity of point A ( Corresponding point candidate B (most similar) is determined to be a corresponding point of point A. Here, the vicinity of the point A means a predetermined number of points surrounding the point A.
In this way, the corresponding point calculation unit 24 calculates the corresponding point B on the second image plane with respect to the point A on the first image plane excluding the continuous region in which the first normal vector values have the same value, and stores it. The attribute information of the point A (the coordinate value of the first image coordinate system, the first normal vector value, etc.) and the attribute information of the corresponding point B (the coordinate value of the second image coordinate system, the second normal vector value, etc.) ) Is stored in association with the frame identification information. Hereinafter, this is referred to as “corresponding point information table 33”.

<3次元座標値算出部25>
3次元座標値算出部25は、対応点情報テーブル33に格納した全ての点A(及び対応点B)に対して、三角測量に基づいて、第1偏光カメラから、第1画像平面上の点Aに投影した被写体の表面上の点A´までの距離、及び第1カメラ座標系における3次元座標値(X1A,Y1A,Z1A)を算出する。同様に、3次元座標値算出部25は、第2カメラ座標系における3次元座標値(X2A,Y2A,Z2A)を算出する。
3次元座標値算出部25は、点A´の基準座標系における3次元座標値(XWA,YWA,ZWA)を、第1カメラ座標系における3次元座標値(X1A,Y1A,Z1A)を変換行列により変換することで算出することができる。
3次元座標値算出部25は、対応点情報テーブル33の各対応点に係る属性情報として、第1カメラ座標系における3次元座標値(X1A,Y1A,Z1A)、第2カメラ座標系における3次元座標値(X2A,Y2A,Z2A)、及び基準座標系における3次元座標値(XWA,YWA,ZWA)を記憶することができる。
<Three-dimensional coordinate value calculation unit 25>
The three-dimensional coordinate value calculation unit 25 applies points on the first image plane from the first polarization camera to all points A (and corresponding points B) stored in the corresponding point information table 33 based on triangulation. The distance to the point A ′ on the surface of the subject projected onto A and the three-dimensional coordinate values (X 1A , Y 1A , Z 1A ) in the first camera coordinate system are calculated. Similarly, the three-dimensional coordinate value calculation unit 25 calculates a three-dimensional coordinate value (X 2A , Y 2A , Z 2A ) in the second camera coordinate system.
The three-dimensional coordinate value calculation unit 25 uses the three-dimensional coordinate values (X WA , Y WA , Z WA ) of the point A ′ in the reference coordinate system and the three-dimensional coordinate values (X 1A , Y 1A , Z 1A ) can be calculated by converting the conversion matrix W T 1 .
The three-dimensional coordinate value calculation unit 25 uses the three-dimensional coordinate values (X 1A , Y 1A , Z 1A ) in the first camera coordinate system, the second camera coordinate system as attribute information related to each corresponding point in the corresponding point information table 33. 3D coordinate values (X 2A , Y 2A , Z 2A ) and 3D coordinate values (X WA , Y WA , Z WA ) in the reference coordinate system can be stored.

<連続領域上の点Rの3次元座標値の算出及び第2画像平面上の対応点の探索>
次に、連続領域上の点Rの3次元座標値の算出について説明する。
3次元座標値算出部25は、第1法線ベクトル分布テーブル31を構成する点がエッジ点か否かを示すエッジ点識別情報を利用することで、第1画像平面上の第1法線ベクトル値が同一値となる連続領域に含まれる任意の点Rの第1カメラ座標系における3次元座標値を算出することができる。
具体的には、3次元座標値算出部25は、第1画像平面上の連続領域に含まれる任意の点Rから、法線ベクトル値が同一の値となる直線を選択して、その直線の両方向に沿って、法線ベクトル値が不連続的に変化するエッジ点を特定する。エッジ点の特定に際しては、例えば、前記直線上の点であって、第1法線ベクトル分布テーブル31にエッジ点として記憶されている点を探索してもよい。
3次元座標値算出部25は、エッジ点Pを特定すると、対応点情報テーブル33を参照して、当該エッジ点Pの例えば、第1カメラ座標系における3次元座標値(X1P,Y1P,Z1P)を取得する。
3次元座標値算出部25は、当該連続領域を含む平面の第1カメラ座標系における平面方程式を算出する。具体的には、同一値となる第1法線ベクトル値を(e、e、e)とすると、当該連続領域を含む平面方程式は、dを定数として、式8で表される。
X+eY+eZ+d=0 (式8)
3次元座標値算出部25は、エッジ点Pの3次元座標値(X1P,Y1P,Z1P)を代入して、定数dを算出することで、当該連続領域を含む平面方程式を算出することができる。
<Calculation of three-dimensional coordinate value of point R on continuous region and search for corresponding point on second image plane>
Next, calculation of the three-dimensional coordinate value of the point R on the continuous area will be described.
The three-dimensional coordinate value calculation unit 25 uses the edge point identification information indicating whether or not the points constituting the first normal vector distribution table 31 are edge points, so that the first normal vector on the first image plane is used. It is possible to calculate a three-dimensional coordinate value in the first camera coordinate system of an arbitrary point R included in a continuous region having the same value.
Specifically, the three-dimensional coordinate value calculation unit 25 selects a straight line having the same normal vector value from arbitrary points R included in the continuous region on the first image plane, An edge point where the normal vector value changes discontinuously along both directions is specified. In specifying the edge point, for example, a point on the straight line that is stored as an edge point in the first normal vector distribution table 31 may be searched.
When the three-dimensional coordinate value calculation unit 25 specifies the edge point P, the three-dimensional coordinate value (X 1P , Y 1P , etc.) in the first camera coordinate system of the edge point P is referred to by referring to the corresponding point information table 33. Z 1P ) is acquired.
The three-dimensional coordinate value calculation unit 25 calculates a plane equation in the first camera coordinate system of a plane including the continuous region. Specifically, assuming that the first normal vector value having the same value is (e X , e Y , e Z ), the plane equation including the continuous region is expressed by Expression 8 where d is a constant.
eX X + e Y Y + e Z Z + d = 0 (Formula 8)
The three-dimensional coordinate value calculation unit 25 substitutes the three-dimensional coordinate values (X 1P , Y 1P , Z 1P ) of the edge point P and calculates a constant d, thereby calculating a plane equation including the continuous region. be able to.

3次元座標値算出部25は、算出した平面方程式を用いて、当該連続領域に含まれる任意の点Rの第1カメラ座標系における3次元座標値を算出することができる。
具体的には、3次元座標値算出部25は、第1カメラ座標系の原点Oから第1画像平面上の当該連続領域に含まれる任意の点Rを通る直線と、当該連続領域を含む平面方程式との交点R´の3次元座標値(X1R,Y1R,Z1R)を取得するとともに、交点R´までの距離を算出することができる。
3次元座標値算出部25は、例えば、点R´の第1カメラ座標系における3次元座標値(X1R,Y1R,Z1R)を第2カメラ座標系における座標値(X2R,Y2R,Z2R)に変換し、第2画像平面に射影することで、点R´の第2画像座標系における座標値を取得する。また、3次元座標値算出部25は、点R´の基準座標系における3次元座標値(XWR,YWR,ZWR)を、第1カメラ座標系における点R´の3次元座標値(X1A,Y1A,Z1A)を変換行列により変換することで算出することができる。
このようにして、3次元座標値算出部25は、対応点情報テーブル33に連続領域に含まれる全ての点Rとその対応点の属性情報及び第1画像平面上の点Rに投影される被写体の表面上の点R´の第1カメラ座標系における3次元座標値(X1R,Y1R,Z1R)、第2カメラ座標系における3次元座標値(X2R,Y2R,Z2R)、及び基準座標系における3次元座標値(XWR,YWR,ZWR)を記憶することができる。これらの3次元座標値の集合を「3次元座標値テーブル34」という。
The three-dimensional coordinate value calculation unit 25 can calculate the three-dimensional coordinate value in the first camera coordinate system of an arbitrary point R included in the continuous region, using the calculated plane equation.
Specifically, the three-dimensional coordinate value calculation unit 25 includes a straight line passing through an arbitrary point R included in the continuous area on the first image plane from the origin O 1 of the first camera coordinate system, and the continuous area. 3-dimensional coordinate values of the intersection R'the plane equation (X 1R, Y 1R, Z 1R) acquires the can calculate the distance to the intersection R'.
For example, the three-dimensional coordinate value calculation unit 25 converts the three-dimensional coordinate values (X 1R , Y 1R , Z 1R ) of the point R ′ in the first camera coordinate system into the coordinate values (X 2R , Y 2R ) in the second camera coordinate system. , Z 2R ) and projecting onto the second image plane, the coordinate value of the point R ′ in the second image coordinate system is acquired. In addition, the three-dimensional coordinate value calculation unit 25 uses the three-dimensional coordinate values (X WR , Y WR , Z WR ) of the point R ′ in the reference coordinate system as the three-dimensional coordinate values of the point R ′ in the first camera coordinate system ( X 1A , Y 1A , Z 1A ) can be calculated by transforming with a transformation matrix W T 1 .
In this way, the three-dimensional coordinate value calculation unit 25 projects all the points R included in the continuous area in the corresponding point information table 33 and the attribute information of the corresponding points and the subject projected on the points R on the first image plane. The three-dimensional coordinate values (X 1R , Y 1R , Z 1R ) in the first camera coordinate system of the point R ′ on the surface of X, the three-dimensional coordinate values (X 2R , Y 2R , Z 2R ) in the second camera coordinate system, And three-dimensional coordinate values (X WR , Y WR , Z WR ) in the reference coordinate system can be stored. A set of these three-dimensional coordinate values is referred to as a “three-dimensional coordinate value table 34”.

なお、3次元座標値算出部25は、第1画像平面上の前記直線上の両端に2つのエッジ点P,点Qを特定した場合、第1画像平面上のエッジ点Pからエッジ点Qまでの当該直線上の任意の点Rの3次元座標値を、(式9)を用いても算出することができる。
具体的には、点Pから点Qまでの距離(例えば、点P及び点Qを含む当該直線上の点の個数NP−>Q)、点Pから点Rまでの距離(例えば、点P及び点Rを含む当該直線上の点の個数NP−>R)に基づいて、(式9)に示す比例計算により算出することができる。
1R=(NP−>R/NP−>Q)・(X1Q − X1P
1R=(NP−>R/NP−>Q)・(Y1Q − Y1P
1R=(NP−>R/NP−>Q)・(Z1Q − Z1P
(式9)
以上のように、深度取得装置100は、対象物の3次元モデルまたはデプスマップを予め作成することなく、偏光画像から、3次元空間中の対象物の深度情報(3次元位置情報)を取得することができる。
In addition, when the two edge points P and Q are specified at both ends on the straight line on the first image plane, the three-dimensional coordinate value calculation unit 25 from the edge point P to the edge point Q on the first image plane. The three-dimensional coordinate value of an arbitrary point R on the straight line can also be calculated using (Equation 9).
Specifically, the distance from the point P to the point Q (for example, the number N P-> Q of points on the straight line including the point P and the point Q ), and the distance from the point P to the point R (for example, the point P And the number N P-> R of points on the straight line including the point R ) can be calculated by proportional calculation shown in (Equation 9).
X1R = ( NP-> R / NP-> Q ). ( X1Q- X1P )
Y1R = ( NP-> R / NP-> Q ). ( Y1Q- Y1P )
Z1R = ( NP-> R / NP-> Q ). ( Z1Q- Z1P )
(Formula 9)
As described above, the depth acquisition apparatus 100 acquires depth information (three-dimensional position information) of an object in a three-dimensional space from a polarization image without creating a three-dimensional model or depth map of the object in advance. be able to.

以上、本発明の実施形態の深度取得装置100の各機能部の実施形態を、ステレオカメラ1、制御部2等の構成に基づいて説明した。   As described above, the embodiments of the functional units of the depth acquisition apparatus 100 according to the embodiment of the present invention have been described based on the configurations of the stereo camera 1, the control unit 2, and the like.

<拡散反射と鏡面反射>
本実施形態では、第1法線ベクトル値と第2法線ベクトル値によるマッチング処理において、両者ともに、拡散反射光の偏光度に基づいて算出されたものを例示したが、これに限られない。
例えば、同一の場所であっても光源の位置等によって、被写体としての計測対象物5の表面において鏡面反射した大きな反射光が第1偏光カメラ11又は第2偏光カメラ12に対して入力されるケースが発生する可能性は排除することができない。
このため、対応点算出部24による第1法線ベクトル値と第2法線ベクトル値とのマッチングに際しては、第1法線ベクトル値として、拡散反射光の偏光度に基づいて算出した第1法線ベクトル値(拡散反射)と鏡面反射光の偏光度に基づいて算出した第1法線ベクトル値(鏡面反射)の2者を利用してもよい。
同様に、第2法線ベクトル値として、拡散反射光の偏光度に基づいて算出した第2法線ベクトル値(拡散反射)と鏡面反射光の偏光度に基づいて算出した第2法線ベクトル値(鏡面反射)の2者を利用してもよい。
そうすることで、両者のマッチングに際しては、第2法線ベクトル値(拡散反射)が第1法線ベクトル値(拡散反射)に一致する場合の外、第2法線ベクトル値(拡散反射)が第1法線ベクトル値(鏡面反射)に一致する場合、第2法線ベクトル値(鏡面反射)が第1法線ベクトル値(拡散反射)に一致する場合、又は第2法線ベクトル値(鏡面反射)が第1法線ベクトル値(鏡面反射)に一致する場合を含めるようにしてもよい。
<Diffusion reflection and specular reflection>
In the present embodiment, in the matching process using the first normal vector value and the second normal vector value, both are calculated based on the degree of polarization of diffusely reflected light. However, the present invention is not limited to this.
For example, a case where large reflected light that is specularly reflected on the surface of the measurement object 5 as a subject is input to the first polarization camera 11 or the second polarization camera 12 depending on the position of the light source, etc. even in the same place. The possibility of occurrence cannot be excluded.
Therefore, when matching the first normal vector value and the second normal vector value by the corresponding point calculation unit 24, the first method calculated based on the polarization degree of the diffusely reflected light is used as the first normal vector value. Two of the first normal vector value (specular reflection) calculated based on the line vector value (diffuse reflection) and the degree of polarization of the specular reflection light may be used.
Similarly, as the second normal vector value, a second normal vector value (diffuse reflection) calculated based on the degree of polarization of diffusely reflected light and a second normal vector value calculated based on the degree of polarization of specularly reflected light. You may use two of (specular reflection).
By doing so, when the two are matched, the second normal vector value (diffuse reflection) is not the same as the case where the second normal vector value (diffuse reflection) matches the first normal vector value (diffuse reflection). When the first normal vector value (specular reflection) matches, the second normal vector value (specular reflection) matches the first normal vector value (diffuse reflection), or the second normal vector value (specular reflection). The case where (reflection) matches the first normal vector value (specular reflection) may be included.

次に、本発明の実施形態の深度取得装置100における一連の処理の流れについて図6を参照しながら説明する。図6A及び図6Bは、深度取得装置100における一連の処理の流れを示すフロー図である。なお、以下の動作を始める前に、各初期設定、第1偏光カメラ11、第2偏光カメラ12はキャリブレーション済みであり、第1偏光カメラ11の第1カメラ座標系、第2偏光カメラ12の第2カメラ座標系、及び基準座標系の間の座標変換行列11等は算出済とする。 Next, a flow of a series of processes in the depth acquisition apparatus 100 according to the embodiment of the present invention will be described with reference to FIG. 6A and 6B are flowcharts showing a flow of a series of processes in the depth acquisition apparatus 100. FIG. In addition, before starting the following operation | movement, each initial setting, the 1st polarization camera 11, and the 2nd polarization camera 12 have been calibrated, the 1st camera coordinate system of the 1st polarization camera 11, and the 2nd polarization camera 12 The coordinate transformation matrices 2 T 11 T 2 , W T 1 , W T 2, etc. between the second camera coordinate system and the reference coordinate system are calculated.

図6Aを参照すると、ST1において、ステレオカメラ1により撮像されたフレームに対して、第1輝度情報取得部211及び第2輝度情報取得部212は、それぞれ、第1偏光カメラ11における各偏光子及び第2偏光カメラ12における各偏光子を透過した光の輝度を、それぞれ第1画像平面上の各点の位置情報及び第2画像平面上の各点の位置情報に対応付けて取得する。   Referring to FIG. 6A, in ST1, for the frame captured by the stereo camera 1, the first luminance information acquisition unit 211 and the second luminance information acquisition unit 212, respectively, each polarizer in the first polarization camera 11 and The brightness of light transmitted through each polarizer in the second polarization camera 12 is acquired in association with the position information of each point on the first image plane and the position information of each point on the second image plane.

ST2において、第1法線ベクトル算出部221及び第2法線ベクトル算出部222は、それぞれステップST1において取得された第1偏光カメラ11の第1画像平面上の各点の位置情報に対応付けられた各偏光子を透過した光の輝度及び第2偏光カメラ12の第2画像平面上の各点の位置情報に対応付けられた各偏光子を透過した光の輝度に基づいて、第1画像平面上の各画素の位置情報と当該画素に投影される被写体となる計測対象物5の表面上の点における法線ベクトル値との対応テーブル(第1法線ベクトル分布テーブル31)、及び第2画像平面上の各画素の位置情報と当該画素に投影される被写体となる計測対象物5の表面上の点における法線ベクトル値との対応テーブル(第2法線ベクトル分布テーブル32)を算出して、記憶部3に記憶する。   In ST2, the first normal vector calculation unit 221 and the second normal vector calculation unit 222 are associated with the position information of each point on the first image plane of the first polarization camera 11 acquired in step ST1. The first image plane based on the brightness of the light transmitted through each polarizer and the brightness of the light transmitted through each polarizer associated with the position information of each point on the second image plane of the second polarization camera 12. Correspondence table (first normal vector distribution table 31) between the position information of each upper pixel and the normal vector value at the point on the surface of the measurement object 5 to be projected on the pixel, and the second image A correspondence table (second normal vector distribution table 32) between the position information of each pixel on the plane and the normal vector value at the point on the surface of the measurement object 5 to be projected on the pixel is calculated. , And stores it in the 憶部 3.

ST3において、平面領域検出部23は、第1画像平面上の第1法線ベクトル値が同一値となる連続領域を探索して、連続領域に含まれる点からなる集合を検出するとともに、エッジ点を検出する。   In ST3, the plane area detection unit 23 searches for a continuous area in which the first normal vector values on the first image plane have the same value, detects a set of points included in the continuous area, and detects edge points. Is detected.

ST4において、対応点算出部24は、ST3において検出された連続領域を除く第1画像平面上の点Aに対応付けられた第1法線ベクトル値が、点Aに対応する第2画像平面上のエピポーラ線上に位置する点Bであって、点Bに対応付けられた第2法線ベクトル値(変換済)が点Aの法線ベクトル値と一致するとともに当該エピポーラ線上で離散的に存在する点B(=点Aの対応点候補)を探索する。   In ST4, the corresponding point calculation unit 24 determines that the first normal vector value associated with the point A on the first image plane excluding the continuous area detected in ST3 is on the second image plane corresponding to the point A. And the second normal vector value (converted) associated with the point B coincides with the normal vector value of the point A and exists discretely on the epipolar line. Point B (= point candidate for point A) is searched.

ST5において、対応点算出部24は、点Aの対応点候補が複数あるか否かをチェックする。対応点候補が複数存在する場合(Yesの場合)、ST6に移る。対応点候補が1つの場合(Noの場合)、ST7に移る。   In ST5, the corresponding point calculation unit 24 checks whether or not there are a plurality of corresponding point candidates for the point A. If there are a plurality of corresponding point candidates (Yes), the process proceeds to ST6. If there is one corresponding point candidate (No), the process moves to ST7.

ST6において、対応点算出部24は、各対応点候補Bの近傍における法線ベクトル値の分布状況が点Aの近傍における法線ベクトル値の分布状況と一致する(最も類似している)対応点候補Bを1つ選択する。   In ST 6, the corresponding point calculation unit 24 matches (most similar) the corresponding point whose distribution of normal vector values in the vicinity of each corresponding point candidate B matches the distribution of normal vector values in the vicinity of point A. One candidate B is selected.

ST7において、対応点算出部24は、ST5において探索された1つの対応点候補B又はST6において選択された1つの対応点候補Bを点Aの対応点として、対応点情報テーブル33に記録する。   In ST7, the corresponding point calculation unit 24 records one corresponding point candidate B searched in ST5 or one corresponding point candidate B selected in ST6 in the corresponding point information table 33 as a corresponding point of point A.

ST8において、連続領域を除く第1画像平面上の全ての点Aの探索が終了したか否かを判定する。連続領域を除く第1画像平面上の全ての点Aの探索が終了した場合(Yesの場合)、ST9に移る。連続領域を除く第1画像平面上の全ての点Aの探索が終了していない場合(Noの場合)、ST4に移る。   In ST8, it is determined whether or not the search for all points A on the first image plane excluding the continuous region has been completed. When the search for all points A on the first image plane excluding the continuous region is completed (in the case of Yes), the process proceeds to ST9. If the search for all points A on the first image plane excluding the continuous region has not been completed (in the case of No), the process proceeds to ST4.

図6Bを参照すると、ST9において、3次元座標値算出部25は、対応点情報テーブル33に格納した、連続領域を除く第1画像平面上の全ての点Aに対して、三角測量に基づいて、第1偏光カメラから、第1画像平面上の点Aに投影される被写体の表面上の点A´までの距離と第1カメラ座標系における3次元座標値(X1A,Y1A,Z1A)、第2偏光カメラから、被写体の表面上の点A´までの距離と第2カメラ座標系における3次元座標値(X2A,Y2A,Z2A)、及び点A´の基準座標系における3次元座標値(XWA,YWA,ZWA)を算出して、フレーム識別情報(例えばタイムスタンプ)に紐づけて記憶部3に記憶する。 Referring to FIG. 6B, in ST9, the three-dimensional coordinate value calculation unit 25 performs, based on triangulation, all the points A on the first image plane excluding the continuous area stored in the corresponding point information table 33. The distance from the first polarization camera to the point A ′ on the surface of the subject projected onto the point A on the first image plane and the three-dimensional coordinate values (X 1A , Y 1A , Z 1A in the first camera coordinate system) ), The distance from the second polarization camera to the point A ′ on the surface of the subject, the three-dimensional coordinate values (X 2A , Y 2A , Z 2A ) in the second camera coordinate system, and the reference coordinate system of the point A ′ Three-dimensional coordinate values (X WA , Y WA , Z WA ) are calculated and stored in the storage unit 3 in association with frame identification information (for example, a time stamp).

ST10において、平面領域取得部24は、各連続領域について、対応するエッジ点に基づいて当該連続領域を含む平面の第1カメラ座標系における平面方程式を算出する。   In ST10, for each continuous area, the plane area acquisition unit 24 calculates a plane equation in the first camera coordinate system of the plane including the continuous area based on the corresponding edge point.

ST11において、ST10において算出された平面方程式に基づいて、3次元座標値算出部25は、当該連続領域に含まれる任意の点Rに投影される被写体の表面上の点R´の第1カメラ座標系における3次元座標値を算出するとともに、第1偏光カメラから第被写体の表面上の点R´までの距離を3次元座標値テーブル34に格納する。同様に、第2偏光カメラから、被写体の表面上の点R´までの距離と第2カメラ座標系における3次元座標値、及び点A´の基準座標系における3次元座標値を算出して、フレーム識別情報(例えばタイムスタンプ)に紐づけて記憶部3に記憶する。   In ST11, based on the plane equation calculated in ST10, the three-dimensional coordinate value calculation unit 25 calculates the first camera coordinates of the point R ′ on the surface of the subject projected on the arbitrary point R included in the continuous region. The three-dimensional coordinate value in the system is calculated, and the distance from the first polarization camera to the point R ′ on the surface of the first subject is stored in the three-dimensional coordinate value table 34. Similarly, the distance from the second polarization camera to the point R ′ on the surface of the subject, the three-dimensional coordinate value in the second camera coordinate system, and the three-dimensional coordinate value in the reference coordinate system of the point A ′ are calculated. The information is stored in the storage unit 3 in association with frame identification information (for example, a time stamp).

ST12において、当該連続領域に含まれる全ての点Rに投影される被写体の表面上の点R´の3次元座標値を算出したか否かを判定する。当該連続領域に含まれる全ての点Rに投影される被写体の表面上の点R´の3次元座標値を算出した場合(Yesの場合)、ST13に移る。当該連続領域に含まれる全ての点Rに投影される被写体の表面上の点R´の3次元座標値の算出が終了していない場合(Noの場合)、ST11に移る。   In ST12, it is determined whether or not the three-dimensional coordinate values of the points R ′ on the surface of the subject projected on all the points R included in the continuous area have been calculated. When the three-dimensional coordinate values of the points R ′ on the surface of the subject projected on all the points R included in the continuous area are calculated (Yes), the process proceeds to ST13. If the calculation of the three-dimensional coordinate values of the points R ′ on the surface of the subject projected on all the points R included in the continuous region has not been completed (in the case of No), the process proceeds to ST11.

ST13において、全ての連続領域に含まれる全ての点Rに投影される被写体の表面上の点R´の3次元座標値の算出が終了したか否かを判定する。終了した場合(Yesの場合)、ST14に移る。終了していない場合(Noの場合)、ST10に移る。   In ST13, it is determined whether or not the calculation of the three-dimensional coordinate values of the points R ′ on the surface of the subject projected on all the points R included in all the continuous regions has been completed. If completed (in the case of Yes), the process proceeds to ST14. If not completed (in the case of No), the process proceeds to ST10.

ST14において、当業者にとって公知の3次元表示技術に基づいて、作成した点群データを、例えばスマートフォンやタブレット等の表示部に表示する。   In ST14, the created point cloud data is displayed on a display unit such as a smartphone or a tablet based on a three-dimensional display technique known to those skilled in the art.

ST15において、ステレオカメラ1による所定フレームレートにおけるフレームの撮像が終了したか否かを判定する。終了した場合(Yesの場合)、処理を終了する。終了していない場合(Noの場合)、ST1に移る。
以上のようにして、フレームレートに応じて、各フレームにおける合成点群データが作成され、ユーザにより設定された任意の視点から見た3次元動画を、例えばスマートフォンやタブレット等でリアルタイムでみることができる。
In ST15, it is determined whether or not imaging of frames at a predetermined frame rate by the stereo camera 1 has been completed. When it is finished (in the case of Yes), the process is finished. If not completed (in the case of No), the process proceeds to ST1.
As described above, the composite point cloud data in each frame is created according to the frame rate, and a three-dimensional video viewed from an arbitrary viewpoint set by the user can be viewed in real time on a smartphone or a tablet, for example. it can.

以上、本発明の深度取得装置100の好ましい実施形態について説明したが、本発明は、上述の実施形態に制限されるものではなく、適宜変更が可能である。   As mentioned above, although preferable embodiment of the depth acquisition apparatus 100 of this invention was described, this invention is not restrict | limited to the above-mentioned embodiment, It can change suitably.

<変形例1>
本実施形態では、第1法線ベクトル値と第2法線ベクトル値によるマッチング処理において、両者ともに、拡散反射光の偏光度に基づいて算出されたものを例示したが、これに限られない。
例えば、同一の場所であっても光源の位置等によって、被写体としての計測対象物5の表面において鏡面反射した大きな反射光が第1偏光カメラ11又は第2偏光カメラ12に対して入力されるケースが発生する可能性は排除することができない。
このため、対応点算出部24による第1法線ベクトル値と第2法線ベクトル値とのマッチングに際しては、第1法線ベクトル値として、拡散反射光の偏光度に基づいて算出した第1法線ベクトル値(拡散反射)と鏡面反射光の偏光度に基づいて算出した第1法線ベクトル値(鏡面反射)の2者を利用してもよい。
同様に、第2法線ベクトル値として、拡散反射光の偏光度に基づいて算出した第2法線ベクトル値(拡散反射)と鏡面反射光の偏光度に基づいて算出した第2法線ベクトル値(鏡面反射)の2者を利用してもよい。
そうすることで、両者のマッチングに際しては、第2法線ベクトル値(拡散反射)が第1法線ベクトル値(拡散反射)に一致する場合の外、第2法線ベクトル値(拡散反射)が第1法線ベクトル値(鏡面反射)に一致する場合、第2法線ベクトル値(鏡面反射)が第1法線ベクトル値(拡散反射)に一致する場合、又は第2法線ベクトル値(鏡面反射)が第1法線ベクトル値(鏡面反射)に一致する場合を含めるようにしてもよい。
<Modification 1>
In the present embodiment, in the matching process using the first normal vector value and the second normal vector value, both are calculated based on the degree of polarization of diffusely reflected light. However, the present invention is not limited to this.
For example, a case where large reflected light that is specularly reflected on the surface of the measurement object 5 as a subject is input to the first polarization camera 11 or the second polarization camera 12 depending on the position of the light source, etc. even in the same place. The possibility of occurrence cannot be excluded.
Therefore, when matching the first normal vector value and the second normal vector value by the corresponding point calculation unit 24, the first method calculated based on the polarization degree of the diffusely reflected light is used as the first normal vector value. Two of the first normal vector value (specular reflection) calculated based on the line vector value (diffuse reflection) and the degree of polarization of the specular reflection light may be used.
Similarly, as the second normal vector value, a second normal vector value (diffuse reflection) calculated based on the degree of polarization of diffusely reflected light and a second normal vector value calculated based on the degree of polarization of specularly reflected light. You may use two of (specular reflection).
By doing so, when the two are matched, the second normal vector value (diffuse reflection) is not the same as the case where the second normal vector value (diffuse reflection) matches the first normal vector value (diffuse reflection). When the first normal vector value (specular reflection) matches, the second normal vector value (specular reflection) matches the first normal vector value (diffuse reflection), or the second normal vector value (specular reflection). The case where (reflection) matches the first normal vector value (specular reflection) may be included.

<変形例2>
上記実施形態において、ステレオカメラ1は、第1偏光カメラ11及び第2偏光カメラ12とは別に第3のカメラ(2次元画像取得部)を備えてもよい。予め、第1偏光カメラ11又は第2偏光カメラ12との間でキャリブレーションしておくことで、例えば、被写体としての計測対象物5の表面上の点を第3のカメラ座標系で表し、第3の画像平面に射影することで、第3のカメラ(2次元画像取得部)により撮像した画像データに対して、基準座標系における3次元座標値を対応づけることで、点群データを作成することpができる。
<Modification 2>
In the above embodiment, the stereo camera 1 may include a third camera (two-dimensional image acquisition unit) separately from the first polarization camera 11 and the second polarization camera 12. By performing calibration with the first polarization camera 11 or the second polarization camera 12 in advance, for example, a point on the surface of the measurement object 5 as a subject is represented by a third camera coordinate system, By projecting onto the third image plane, point cloud data is created by associating the three-dimensional coordinate values in the reference coordinate system with the image data captured by the third camera (two-dimensional image acquisition unit). P.

<変形例3>
本実施形態の深度取得装置100において、例えば、制御部2の機能の一部(例えば、対応点算出部24等)を、クラウド上の仮想コンピュータを含めて、特定のコンピュータに分散させることについては、ユーザにとって適宜成しえる設計事項である。また、クラウド上の仮想コンピュータに制御部の機能の一部を持たせるようにしてもよい。
<Modification 3>
In the depth acquisition apparatus 100 of the present embodiment, for example, a part of the functions of the control unit 2 (for example, the corresponding point calculation unit 24) is distributed to specific computers including virtual computers on the cloud. This is a design matter that can be appropriately performed for the user. Moreover, you may make it give the virtual computer on a cloud a part of function of a control part.

<変形例4>
本実施形態の深度取得装置100において、ステレオカメラ1(第1偏光カメラ11及び第2偏光カメラ12)のフレームレートとして30fpsを例示し、各フレームごとに、被写体5の法線ベクトル値の算出、対応点の算出、及び3次元座標値を算出したが、これに限られない。フレームレート値は、第1偏光カメラ11及び第2偏光カメラ12の対応可能な高速フレームレートに応じて適宜設定することができる。
<Modification 4>
In the depth acquisition apparatus 100 of the present embodiment, the frame rate of the stereo camera 1 (the first polarization camera 11 and the second polarization camera 12) is exemplified as 30 fps, and the normal vector value of the subject 5 is calculated for each frame. Although the calculation of the corresponding point and the three-dimensional coordinate value are calculated, the present invention is not limited to this. The frame rate value can be appropriately set according to the high-speed frame rate that the first polarization camera 11 and the second polarization camera 12 can handle.

100 深度取得装置
1 ステレオカメラ
11 第1偏光カメラ
111 パターン偏光子
112 撮像素子
12 第2偏光カメラ
121 パターン偏光子
122 撮像素子
2 制御部
21 輝度情報取得部
211 第1輝度情報取得部
212 第2輝度情報取得部
22 法線ベクトル算出部
221 第1法線ベクトル算出部
222 第2法線ベクトル算出部
23 平面領域検出部
24 対応点算出部
25 3次元座標値算出部
3 記憶部
31 第1法線ベクトル分布テーブル31
32 第2法線ベクトル分布テーブル
33 対応点情報テーブル
34 3次元座標値テーブル
5 計測対象物
DESCRIPTION OF SYMBOLS 100 Depth acquisition apparatus 1 Stereo camera 11 1st polarization camera 111 Pattern polarizer 112 Image sensor 12 2nd polarization camera 121 Pattern polarizer 122 Image sensor 2 Control part 21 Luminance information acquisition part 211 1st brightness information acquisition part 212 2nd brightness | luminance Information acquisition unit 22 Normal vector calculation unit 221 First normal vector calculation unit 222 Second normal vector calculation unit 23 Planar region detection unit 24 Corresponding point calculation unit 25 Three-dimensional coordinate value calculation unit 3 Storage unit 31 First normal Vector distribution table 31
32 Second normal vector distribution table 33 Corresponding point information table 34 Three-dimensional coordinate value table 5 Measurement object

Claims (8)

少なくとも3方向の偏光成分をそれぞれ透過させる複数の偏光子を備える第1偏光カメラと、少なくとも3方向の偏光成分をそれぞれ透過させる複数の偏光子を備える第2偏光カメラと、を備え、被写体を撮像するステレオカメラと、
前記第1偏光カメラにおける各偏光子をそれぞれ透過した光の輝度をそれぞれ前記第1偏光カメラの画像平面である第1画像平面上の各点の位置情報に対応付けて取得する第1輝度情報取得部と、
前記第2偏光カメラにおける各偏光子をそれぞれ透過した光の輝度をそれぞれ前記第2偏光カメラの画像平面である第2画像平面上の各点の位置情報に対応付けて取得する第2輝度情報取得部と、
前記第1輝度情報取得部により取得された前記第1偏光カメラの前記第1画像平面上の各点の位置情報に対応付けられた各偏光子を透過した光の輝度から算出される偏光度に基づいて、前記第1画像平面上の各点の位置に射影された前記被写体の表面上の点の位置における第1法線ベクトル値を算出して、前記第1画像平面上の各点の位置情報に対応付ける第1法線ベクトル算出部と、
前記第2輝度情報取得部により取得された前記第2偏光カメラの前記第2画像平面上の各点の位置情報に対応付けられた各偏光子を透過した光の輝度に基づいて、前記第2画像平面上の各点の位置に射影された前記被写体の表面上の点の位置における第2法線ベクトル値を算出して、前記第2画像平面上の各点の位置情報に対応付ける第2法線ベクトル算出部と、
前記第1画像平面上の各点の位置情報に対応付けられた第1法線ベクトル値と、前記各点に対応する前記第2画像平面上のエピポーラ線上の各点に対応付けられた第2法線ベクトル値と、をマッチングして前記第1画像平面と前記第2画像平面との対応点を算出する対応点算出部と、
前記対応点算出部により算出された対応点にもとづいて、前記対応点に射影された前記被写体の表面上の点の予め設定された基準座標系における3次元座標値を算出する3次元座標値算出部と、
を備える深度取得装置。
A first polarization camera including a plurality of polarizers that respectively transmit at least three directions of polarization components, and a second polarization camera that includes a plurality of polarizers that respectively transmit at least three directions of polarization components, and image an object A stereo camera
First luminance information acquisition that acquires the luminance of light transmitted through each polarizer in the first polarization camera in association with position information of each point on the first image plane that is an image plane of the first polarization camera. And
Second luminance information acquisition for acquiring the luminance of light transmitted through each polarizer in the second polarization camera in association with the position information of each point on the second image plane, which is the image plane of the second polarization camera. And
The degree of polarization calculated from the luminance of light transmitted through each polarizer associated with the position information of each point on the first image plane of the first polarization camera acquired by the first luminance information acquisition unit. Based on the first normal vector value at the position of the point on the surface of the subject projected to the position of each point on the first image plane, the position of each point on the first image plane is calculated. A first normal vector calculation unit for associating with the information;
Based on the luminance of the light transmitted through each polarizer associated with the position information of each point on the second image plane of the second polarization camera acquired by the second luminance information acquisition unit, the second A second method of calculating a second normal vector value at the position of the point on the surface of the subject projected to the position of each point on the image plane and associating it with the position information of each point on the second image plane A line vector calculation unit;
A first normal vector value associated with the position information of each point on the first image plane, and a second associated with each point on the epipolar line on the second image plane corresponding to each point. A corresponding point calculation unit that calculates a corresponding point between the first image plane and the second image plane by matching a normal vector value;
Three-dimensional coordinate value calculation for calculating a three-dimensional coordinate value in a preset reference coordinate system of a point on the surface of the subject projected onto the corresponding point based on the corresponding point calculated by the corresponding point calculation unit And
A depth acquisition device comprising:
前記第1法線ベクトル算出部は、
前記第1偏光カメラの前記第1画像平面上の各点の位置情報に対応付けられた各偏光子を透過した光の輝度から拡散反射光の偏光度及び/又は鏡面反射光の偏光度を算出し、前記拡散反射光の偏光度に基づく第1法線ベクトル値及び/又は前記鏡面反射光の偏光度に基づく第1法線ベクトル値を算出し、
前記第2法線ベクトル算出部は、
前記第2偏光カメラの前記第2画像平面上の各点の位置情報に対応付けられた各偏光子を透過した光の輝度から拡散反射光の偏光度及び/又は鏡面反射光の偏光度を算出し、前記拡散反射光の偏光度に基づく第2法線ベクトル値及び/又は前記鏡面反射光の偏光度に基づく第2法線ベクトル値を算出する、請求項1に記載の深度取得装置。
The first normal vector calculation unit includes:
The degree of polarization of diffusely reflected light and / or the degree of specularly reflected light is calculated from the luminance of light transmitted through each polarizer associated with the position information of each point on the first image plane of the first polarization camera. Calculating a first normal vector value based on the degree of polarization of the diffusely reflected light and / or a first normal vector value based on the degree of polarization of the specularly reflected light,
The second normal vector calculation unit includes:
The polarization degree of diffuse reflection light and / or the polarization degree of specular reflection light is calculated from the luminance of light transmitted through each polarizer associated with the position information of each point on the second image plane of the second polarization camera. The depth acquisition apparatus according to claim 1, wherein a second normal vector value based on a polarization degree of the diffuse reflected light and / or a second normal vector value based on a polarization degree of the specular reflected light is calculated.
前記対応点算出部は、
前記第1画像平面上の各点とその近傍に対応付けられた第1法線ベクトル値の分布状況と、前記各点に対応する前記第2画像平面上のエピポーラ線上の各点とその近傍に対応付けられた第2法線ベクトル値の分布状況と、をマッチングして、前記第1画像平面と前記第2画像平面との対応点を算出する、請求項1又は請求項2に記載の深度取得装置。
The corresponding point calculation unit
Distribution of first normal vector values associated with each point on the first image plane and its vicinity, and each point on the epipolar line on the second image plane corresponding to each point and its vicinity 3. The depth according to claim 1, wherein a matching point between the first image plane and the second image plane is calculated by matching the distribution state of the associated second normal vector value. Acquisition device.
前記第1画像平面上の各点に対応付けられた第1法線ベクトル値が同一となる、前記第1画像平面上の連続する点を含む連続領域を検出するとともに、
前記連続領域を除く第1画像平面上の点であって、その点の近傍に法線ベクトル値が同一値となる連続領域があり、かつ、その点における第1法線ベクトル値が前記連続領域における法線ベクトル値から不連続的に急激に変化するエッジ点を検出する平面領域検出部を備え、
前記3次元座標値算出部は、
前記エッジ点に基づいて、前記第1画像平面上の第1法線ベクトル値が同一となる前記連続領域に対応する前記被写体の表面領域上の各点の前記基準座標系における3次元座標値を算出する、請求項1から請求項3の何れか1項に記載の深度取得装置。
Detecting a continuous region including continuous points on the first image plane, wherein the first normal vector values associated with the respective points on the first image plane are the same, and
A point on the first image plane excluding the continuous region, and there is a continuous region in which the normal vector value is the same value in the vicinity of the point, and the first normal vector value at the point is the continuous region A plane region detection unit that detects edge points that change discontinuously and rapidly from the normal vector value in
The three-dimensional coordinate value calculation unit
Based on the edge point, a three-dimensional coordinate value in the reference coordinate system of each point on the surface area of the subject corresponding to the continuous area where the first normal vector values on the first image plane are the same. The depth acquisition apparatus according to any one of claims 1 to 3, wherein the depth acquisition apparatus calculates the depth acquisition apparatus.
前記対応点算出部は、
前記連続領域上の各点の前記基準座標系における3次元座標値に基づいて、前記第1画像平面の前記連続領域上の点と前記第2画像平面における対応点を算出する、請求項4に記載の深度取得装置。
The corresponding point calculation unit
5. A point on the continuous area of the first image plane and a corresponding point on the second image plane are calculated based on a three-dimensional coordinate value of each point on the continuous area in the reference coordinate system. Depth acquisition device as described.
前記第1偏光カメラ及び前記第2偏光カメラとは別に第3のカメラ(2次元画像取得部)と、
前記第3のカメラにより撮像した画像データに、前記基準座標系における3次元座標値を対応づけることにより点群データを生成する点群データ生成部と、
を備える、請求項1から請求項5の何れか1項に記載の深度取得装置。
A third camera (two-dimensional image acquisition unit) separately from the first polarization camera and the second polarization camera;
A point cloud data generation unit that generates point cloud data by associating image data captured by the third camera with a three-dimensional coordinate value in the reference coordinate system;
The depth acquisition device according to claim 1, comprising:
少なくとも3方向の偏光成分をそれぞれ透過させる複数の偏光子を備える第1偏光カメラと少なくとも3方向の偏光成分をそれぞれ透過させる複数の偏光子を備える第2偏光カメラとを備える被写体を撮像するステレオカメラと、通信可能に接続されるコンピュータにより、
前記第1偏光カメラにおける各偏光子をそれぞれ透過した光の輝度をそれぞれ前記第1偏光カメラの画像平面である第1画像平面上の各点の位置情報に対応付けて取得する第1輝度情報取得ステップと、
前記第2偏光カメラにおける各偏光子をそれぞれ透過した光の輝度をそれぞれ前記第2偏光カメラの画像平面である第2画像平面上の各点の位置情報に対応付けて取得する第2輝度情報取得ステップと、
前記第1輝度情報取得ステップにおいて取得された前記第1偏光カメラの前記第1画像平面上の各点の位置情報に対応付けられた各偏光子を透過した光の輝度から算出される偏光度に基づいて、前記第1画像平面上の各点の位置に射影された前記被写体の表面上の点の位置における第1法線ベクトル値を算出して、前記第1画像平面上の各点の位置情報に対応付ける第1法線ベクトル算出ステップと、
前記第2輝度情報取得ステップにおいて取得された前記第2偏光カメラの前記第2画像平面上の各点の位置情報に対応付けられた各偏光子を透過した光の輝度に基づいて、前記第2画像平面上の各点の位置に射影された前記被写体の表面上の点の位置における第2法線ベクトル値を算出して、前記第2画像平面上の各点の位置情報に対応付ける第2法線ベクトル算出ステップと、
前記第1画像平面上の各点の位置情報に対応付けられた第1法線ベクトル値と、前記各点に対応する前記第2画像平面上のエピポーラ線上の各点に対応付けられた第2法線ベクトル値と、をマッチングして前記第1画像平面と前記第2画像平面との対応点を算出する対応点算出ステップと、
前記対応点算出ステップにおいて算出された対応点にもとづいて、前記対応点に射影された前記被写体の表面上の点の予め設定された基準座標系における3次元座標値を算出する3次元座標値算出ステップと、を備える深度情報取得方法。
Stereo camera that captures an object including a first polarization camera including a plurality of polarizers that respectively transmit at least three polarization components and a second polarization camera that includes a plurality of polarizers that respectively transmit at least three polarization components. And a computer that is communicably connected,
First luminance information acquisition that acquires the luminance of light transmitted through each polarizer in the first polarization camera in association with position information of each point on the first image plane that is an image plane of the first polarization camera. Steps,
Second luminance information acquisition for acquiring the luminance of light transmitted through each polarizer in the second polarization camera in association with the position information of each point on the second image plane, which is the image plane of the second polarization camera. Steps,
The degree of polarization calculated from the luminance of light transmitted through each polarizer associated with the position information of each point on the first image plane of the first polarization camera acquired in the first luminance information acquisition step. Based on the first normal vector value at the position of the point on the surface of the subject projected to the position of each point on the first image plane, the position of each point on the first image plane is calculated. A first normal vector calculating step corresponding to the information;
Based on the luminance of the light transmitted through each polarizer associated with the position information of each point on the second image plane of the second polarization camera acquired in the second luminance information acquisition step, the second A second method of calculating a second normal vector value at the position of the point on the surface of the subject projected to the position of each point on the image plane and associating it with the position information of each point on the second image plane A line vector calculating step;
A first normal vector value associated with the position information of each point on the first image plane, and a second associated with each point on the epipolar line on the second image plane corresponding to each point. A corresponding point calculation step of calculating a corresponding point between the first image plane and the second image plane by matching a normal vector value;
Three-dimensional coordinate value calculation for calculating a three-dimensional coordinate value in a preset reference coordinate system of a point on the surface of the subject projected onto the corresponding point based on the corresponding point calculated in the corresponding point calculating step A depth information acquisition method comprising:
コンピュータに、請求項7に記載の各ステップを実行させるためのコンピュータプログラム。   The computer program for making a computer perform each step of Claim 7.
JP2018131841A 2018-07-11 2018-07-11 Depth acquisition apparatus and method using polarization stereo camera Expired - Fee Related JP6580761B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018131841A JP6580761B1 (en) 2018-07-11 2018-07-11 Depth acquisition apparatus and method using polarization stereo camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018131841A JP6580761B1 (en) 2018-07-11 2018-07-11 Depth acquisition apparatus and method using polarization stereo camera

Publications (2)

Publication Number Publication Date
JP6580761B1 true JP6580761B1 (en) 2019-09-25
JP2020008502A JP2020008502A (en) 2020-01-16

Family

ID=68053586

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018131841A Expired - Fee Related JP6580761B1 (en) 2018-07-11 2018-07-11 Depth acquisition apparatus and method using polarization stereo camera

Country Status (1)

Country Link
JP (1) JP6580761B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117911465B (en) * 2024-03-20 2024-05-17 深圳市森歌数据技术有限公司 Natural protection area dense point cloud generation method based on binocular stereo matching

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9866816B2 (en) * 2016-03-03 2018-01-09 4D Intellectual Properties, Llc Methods and apparatus for an active pulsed 4D camera for image acquisition and analysis
CN111343368B (en) * 2020-02-18 2021-08-20 清华大学 Method and device for recovering depth of scattering medium based on polarization
WO2023095375A1 (en) * 2021-11-29 2023-06-01 パナソニックIpマネジメント株式会社 Three-dimensional model generation method and three-dimensional model generation device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10260866B2 (en) * 2015-03-06 2019-04-16 Massachusetts Institute Of Technology Methods and apparatus for enhancing depth maps with polarization cues
JP6488203B2 (en) * 2015-07-01 2019-03-20 株式会社ソニー・インタラクティブエンタテインメント Image processing apparatus, image processing system, multi-viewpoint camera, and image processing method
JP6697986B2 (en) * 2016-09-07 2020-05-27 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus and image area dividing method
US10466036B2 (en) * 2016-10-07 2019-11-05 Arizona Board Of Regents On Behalf Of The University Of Arizona Attachable depth and orientation tracker device and method of depth and orientation tracking using focal plane polarization and color camera

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117911465B (en) * 2024-03-20 2024-05-17 深圳市森歌数据技术有限公司 Natural protection area dense point cloud generation method based on binocular stereo matching

Also Published As

Publication number Publication date
JP2020008502A (en) 2020-01-16

Similar Documents

Publication Publication Date Title
JP6456156B2 (en) Normal line information generating apparatus, imaging apparatus, normal line information generating method, and normal line information generating program
US9117278B2 (en) System and method for geometric modeling using multiple data acquisition means
JP5580164B2 (en) Optical information processing apparatus, optical information processing method, optical information processing system, and optical information processing program
JP6363863B2 (en) Information processing apparatus and information processing method
WO2019015154A1 (en) Monocular three-dimensional scanning system based three-dimensional reconstruction method and apparatus
WO2015180659A1 (en) Image processing method and image processing device
US20150369593A1 (en) Orthographic image capture system
CN109377551B (en) Three-dimensional face reconstruction method and device and storage medium thereof
JP2018514237A (en) Texture mapping apparatus and method for dental 3D scanner
US20120242795A1 (en) Digital 3d camera using periodic illumination
TWI591584B (en) Three dimensional sensing method and three dimensional sensing apparatus
JP2012058076A (en) Three-dimensional measurement device and three-dimensional measurement method
JP5633058B1 (en) 3D measuring apparatus and 3D measuring method
JP6589636B2 (en) 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program
JP6580761B1 (en) Depth acquisition apparatus and method using polarization stereo camera
CN111192235A (en) Image measuring method based on monocular vision model and perspective transformation
US11568555B2 (en) Dense depth computations aided by sparse feature matching
US11012677B1 (en) Systems and methods for correcting rolling shutter artifacts
CN113643436B (en) Depth data splicing and fusion method and device
AU2009248999A1 (en) Stereoscopic measurement system and method
Harvent et al. Multi-view dense 3D modelling of untextured objects from a moving projector-cameras system
WO2019182840A1 (en) Replicated dot maps for simplified depth computation using machine learning
JP2013044597A (en) Image processing device and method, and program
JP2016114445A (en) Three-dimensional position calculation device, program for the same, and cg composition apparatus
KR102503976B1 (en) Apparatus and method for correcting augmented reality image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190828

R150 Certificate of patent or registration of utility model

Ref document number: 6580761

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees