JP2020008502A - 偏光ステレオカメラによる深度取得装置及びその方法 - Google Patents
偏光ステレオカメラによる深度取得装置及びその方法 Download PDFInfo
- Publication number
- JP2020008502A JP2020008502A JP2018131841A JP2018131841A JP2020008502A JP 2020008502 A JP2020008502 A JP 2020008502A JP 2018131841 A JP2018131841 A JP 2018131841A JP 2018131841 A JP2018131841 A JP 2018131841A JP 2020008502 A JP2020008502 A JP 2020008502A
- Authority
- JP
- Japan
- Prior art keywords
- point
- image plane
- polarization
- normal vector
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
Description
しかしながら、それぞれのカメラによる撮像画像(ステレオ画像)間で色や輝度を用いてマッチングを行う場合、それぞれのカメラにおいて、光源、カメラ間の角度が異なるため、色や輝度の分布にカメラ間で差が生じることで、マッチングに誤差が生じ、ステレオ画像間の視差に基づいて計算する距離に誤差が生じてしまうことはよく知られている。
また、特許文献3には、対象物の3次元モデルを予め登録しておき、その後、偏光画像に基づいて算出される、画像平面にマッピングされた被写体表面の法線ベクトルの分布を求め、3次元モデルをカメラ座標系が設定されたワールド座標系に対象物の3次元モデルを配置し、それを移動、回転、変形させることにより、法線ベクトルの分布に適合する状態を求めることが開示されている。
また、特許文献4には、被写体のぼけ量に基づいて作成した被写体のデプス画像に対して、法線の情報を適用して、デプス画像の精度を高めることが開示されている。
以上のように、特許文献2、特許文献3、特許文献4には、予め作成された対象物の3次元モデルまたはデプスマップに対して、画像平面にマッピングされた被写体表面の法線ベクトルの分布を利用することで、予め作成された対象物の3次元モデルまたはデプスマップの精度を高めることが開示されている。
図1は、本実施形態に係る深度取得装置100の機能構成を示す図である。なお、本実施形態においては、被写体となる計測対象物5を構成する色素粒子により散乱された光である拡散反射光に基づく深度取得を例示する。
ステレオカメラ1は、第1偏光カメラ11と第2偏光カメラ12とを備えている。
図2に示すように、第1偏光カメラ11及び第2偏光カメラ12は、それぞれパターン偏光子111、121を備える。
パターン偏光子111、121は、例えば、図2の溝に示されるように、偏光主軸角度が0度、45度、90度、及び135度の4種類の偏光子を1組として、2次元状に配置された偏光子の集まりである。各偏光子は溝の方向に直交する方向の偏光成分を透過し、溝の方向に平行な方向の偏光成分を透過しない(反射する)という偏光特性を示す。なお、図2に示すパターン偏光子については、例えば、特開2009−58533号公報、特開2017−38011号公報、特開2018−46340号公報等に開示されている。
撮像素子112、122(図示せず)は、パターン偏光子111,121を透過した光を受光する2次元状に配置された画素(ピクセル)の集まりである。本実施形態における撮像素子は、グレースケールに係る撮像素子の場合を例示する。すなわち、4種類の異なる角度のパターン偏光子が、各画素上に配置され、同時に4つの主軸角度に対応する光の輝度を取得することができる。
透過した偏光成分を撮像素子112、122(図示せず)に含まれる光検出層(図示せず)で検出することにより、同時に4種類の偏光輝度が取得される。なお、4種類の輝度情報がそれぞれ4つの撮像素子で取得される場合、当該撮像素子に対応する画素に対して4種類の輝度情報を対応付けることができる。また、これらをひとまとめにした画素に対して4種類の輝度情報を対応付けるようにしてもよい。
なお、偏光輝度の取得に際して、グレースケールに係る撮像素子に限られない。例えば、特開2009−58533号公報、特開2017−38011号公報、特開2018−46340号公報等に例示された、カラー画像に係る撮像素子(R,G,B)を適用してもよい。この場合は、R、G、Bそれぞれについて、同時に4種類の偏光輝度を取得することができるため、例えば、R,G,B任意の組み合わせによる偏光輝度を適用してもよい。例えば、RGBに基づく色空間の色を光度だけで表されるグレースケールに変換(輝度保存変換)したものを適用してもよい。また、Rの偏光画像に基づく偏光輝度、Gの偏光画像、又はBの偏光画像に基づく偏光輝度を適用してもよい。
ここで、第1偏光カメラ11及び第2偏光カメラ12の備える座標系について簡単に説明する。
第1偏光カメラ11は、固有の座標系、すなわち、第1カメラ座標系、第1正規化画像座標系、及び第1デジタル画像座標系を備える。同様に、第2偏光カメラ12は、固有の座標系、すなわち、第2カメラ座標系、第2正規化画像座標系、及び第2デジタル画像座標系を備える。以下、第1偏光カメラ11の座標系について説明する。図3は、第1偏光カメラ11の備える座標系(第1カメラ座標系及び第1画像座標系)を示す図である。なお、図3では、第1偏光カメラ11及び第2偏光カメラ12を共通化して、インデックスを省略している。
なお、本実施例では、第1偏光カメラ11及び第2偏光カメラ12において、レンズ歪みの影響をキャンセルした補正画像が得られるものとし、内部パラメータは既知とする。
第1カメラ座標系は、空間を表す3次元座標として、第1偏光カメラ11を中心としてみた3次元座標系である。第1カメラ座標系は、一般的に、カメラレンズの中心を原点として、第1偏光カメラ11の光軸方向をZ軸とし、第1偏光カメラ11の上向きをY軸とし、第1偏光カメラ11の横向きをX軸とする3次元座標系(右手系)とされる。
以下、特に断らない限り、第1偏光カメラ11による座標値を(X1,Y1,Z1)で表す。
第1正規化画像座標系は、光軸上の点を原点とし、x軸、y軸をそれぞれ、X軸、Y軸に平行にとり、焦点距離f1を1とした2次元座標系(x、y)を第1正規化画像座標系という。
以下、特に断らない限り、第1正規化画像座標系による座標値を(x1,y1)で表す。
このとき、
x1 = X1/Z1
y1 = Y1/Z1
が成り立つ。
第1画像座標系は、画素数(pixel)単位で記述される。
第1画像座標系は、左上を原点とし、右方向を第1軸(u軸)、下方向を第2軸(v軸)とする。また、光軸が通る点を画像中心といい(cu1,cv1)で表す。
f1を第1偏光カメラ11の焦点距離、δu1及びδv1は、それぞれ、撮像素子の画素の横、縦の間隔とすると、
αu1 = f1/δu1 及びαv1 = f1/δv1 は、画素数(pixel)単位で表される焦点距離とする。
このとき、第1正規化画像座標(x1,y1)と第1画像座標(u1,v1)の間には、
u1 = αu1x1+cu1 ここで、αu1 = f1/δu1
v1 = αv1y1+cv1 ここで、αv1 = f1/δv1
なお、αu1 αv1とcu1 cv1をカメラの内部パラメータという。
以上、第1偏光カメラ11の備える座標系について説明した。第2偏光カメラ12の備える座標系は、上記説明において、「第1」を「第2」に読み換えるとともに、各インデックス1をインデックス2に読み換えることで説明される。
第1偏光カメラ11と第2偏光カメラ12とを予めキャリブレーションすることで、第1偏光カメラ11の第1カメラ座標系における座標値を第2偏光カメラ12の第2カメラ座標系における座標値に変換する座標変換行列2T1を算出しておき、例えば、記憶部3に予め記憶しておく。同様に、第2偏光カメラ12の第2カメラ座標系における座標値を第1偏光カメラ11の第1カメラ座標系における座標値に変換する座標変換行列1T2を算出しておき、予め記憶部3に記憶しておく。
これらの間には以下の関係が成り立つ。
1T2・2T1=E
2T1・1T2=E
その際、予めキャリブレーションすることで、第1カメラ座標系における座標値を基準座標系における座標値に変換する座標変換行列WT1を算出するとともに、基準座標系における座標値を第1カメラ座標系における座標値に変換する座標変換行列1TWを算出しておき、予め記憶部3に記憶しておく。同様に、第2カメラ座標系における座標値を基準座標系における座標値に変換する座標変換行列WT2を算出するとともに基準座標系における座標値を第2カメラ座標系における座標値に変換する座標変換行列2TWを算出しておき、予め記憶部3に記憶する。
制御部2は、深度取得装置100の全体を制御する部分であり、例えば記憶部3に記憶されたソフトウェア(深度取得プログラム)を適宜読み出して実行することにより、本実施形態における各種機能を実現している。制御部2は、CPUであってよい。制御部2の詳細については後述する。
図4は、記憶部3の概略ブロック図である。記憶部3は、ハードウェア群を制御部2として機能させるための各種プログラム、及び各種データ等の記憶領域であり、ROM、RAM、フラッシュメモリ又はハードディスクドライブ(HDD)等であってよい。また、後述するように、記憶部3は、第1画像平面上の各画素の位置情報と、第1画像平面にマッピングされた被写体表面の法線ベクトル値との対応テーブル(以下、「第1法線ベクトル分布テーブル31」という)と、第2画像平面上の各画素の位置情報と、第1画像平面にマッピングされた被写体表面の法線ベクトル値との対応テーブル(以下「第2法線ベクトル分布テーブル32」という)と、を記憶する。この外、後述する「対応点情報テーブル33」及び「3次元座標値テーブル34」を記憶する。詳細については後述する。
図5は、制御部2の備える機能ブロックを示す概略図である。図5に示すように、制御部2は、輝度情報取得部21と、法線ベクトル算出部22と、平面領域検出部23と、対応点算出部24と、3次元座標値算出部25と、を備える。輝度情報取得部21は、さらに第1輝度情報取得部211と、第2輝度情報取得部212と、を含む。法線ベクトル算出部22は、さらに第1法線ベクトル算出部221と、第2法線ベクトル算出部222と、を含む。
輝度情報取得部21は、第1輝度情報取得部211と、第2輝度情報取得部212と、を含む。第1輝度情報取得部211は、第1偏光カメラ11により撮像された各フレームに対して、第1偏光カメラ11における各偏光子をそれぞれ透過した光の輝度をそれぞれ第1偏光カメラ11の画像平面である第1画像平面上の各点の位置情報に対応付けて取得する。他方、第2輝度情報取得部212は、第1偏光カメラ11により撮像された各フレームに対して、第2偏光カメラ12における各偏光子をそれぞれ透過した光の輝度をそれぞれ第2偏光カメラ12の画像平面である第2画像平面上の各点の位置情報に対応付けて取得する。
すなわち、本実施形態においては、第1輝度情報取得部211は、第1偏光カメラ11により撮像されたフレームごとに、当該フレームの第1画像平面上の各画素における、4つの偏光方位(4通りの主軸角度)に対する輝度変化を取得する。同様に、第2輝度情報取得部212は、当該フレームの第2画像平面上の各画素における、4つの偏光方位に対する輝度変化を取得する。このように、輝度情報は、各フレームごとに取得される。以下、特に断らない限り、各機能部は、フレームごとに、深度情報及び3次元座標位置情報を算出する。そして、各機能部により作成される情報は、フレームを識別するためのフレーム識別情報(例えばタイムスタンプ)が付与されているものとする。
第1法線ベクトル算出部221は、第1輝度情報取得部211により取得された第1偏光カメラ11の第1画像平面上の各点の位置情報に対応付けられた各偏光子を透過した光の輝度に基づいて、第1画像平面上の各点の位置に投影される被写体となる計測対象物5の表面上の点の位置における法線ベクトル値(第1法線ベクトル値)を算出して、第1画像平面上の各点の位置情報に対応付ける。そうすることで、第1法線ベクトル算出部221は、第1画像平面上の各画素の位置情報と、当該画素に投影される被写体となる計測対象物5の表面上の点における法線ベクトル値との対応テーブル(第1法線ベクトル分布テーブル31)を記憶部3に記憶する。
同様に、第2法線ベクトル算出部222は、第2輝度情報取得部212により取得された第2偏光カメラ12の第2画像平面上の各画素の位置情報に対応付けられた各偏光子を透過した光の輝度に基づいて、第2画像平面上の各画素の位置に投影される被写体となる計測対象物5の表面上の点の位置における法線ベクトル値(第2法線ベクトル値)を算出して、第2画像平面上の各画素の位置情報に対応付ける。そうすることで、第2法線ベクトル算出部222は、第2画像平面上の各画素の位置情報と、当該画素に投影される被写体となる計測対象物5の表面上の点における法線ベクトル値との対応テーブル(第2法線ベクトル分布テーブル32)を記憶部3に記憶する。
偏光子を介して第1画像平面上の各画素ごとに観察される輝度Iは、偏光子の主軸角度v(0度≦v≦180度)の大きさに応じて、式1で表すことが知られている。ここで、Imax、Iminはそれぞれ、観測される輝度の最大値、最小値であり、φは、最大輝度Imaxが観察されるときの主軸角度の大きさである位相角である。
I=(Imax+Imin)/2 +((Imax−Imin)/2)cos(2v−2φ)
(式1)
そうすると、v=0度、45度、90度、及び135度のときに取得された輝度I0、I45,I90,I135に基づいて、それらの座標(I0,0度)、(I45,45度)、(I90,90度)、(I135,135度)を通る曲線を、例えば最小二乗法等を用いてコサイン関数に近似させることにより、Imax、Imin、及び位相角φを求めることができる。
第1画像平面上の各画素で観察される偏光度ρは、式2で表すことが知られている。
ρ=(Imax−Imin)/(Imax+Imin) (式2)
したがって、式1に基づいて算出されたImax、Iminを式2に適用することで、画素ごとに観察される偏光度ρを求めることができる。
各画素に投影される被写体となる計測対象物5の表面上の点における法線については、以下のことが知られている。
すなわち、被写体となる計測対象物5を第1偏光カメラ11又は第2偏光カメラ12で撮影するとき、計測対象物5を構成する色素粒子により散乱された光である拡散反射光が主として撮影される場合、光の出射面の角度を表す方位角と、当該面上での拡散反射光の放射角度である天頂角θに基づいて算出されることが知られている。
ここで、光の出射面の角度を表す方位角αは、(式1)において最大輝度Imaxを与える主軸角度(すなわち、位相角φ)に等しい。
また、拡散反射の場合の偏光度ρdは、天頂角θと計測対象物5の屈折率nを用いて、(式3)で表されることが知られている。なお、屈折率nは、計測対象物5の媒質によって異なる値をとるが、ほとんどの対象物に対して、1.3≦n≦1.8がなりたち、また、nがこの範囲の値となる場合には、例えばn=1.3として計算した場合、(式3)で算出されるθの値の誤差は無視できる。
式1で算出された位相角に等しい、光の出射面の角度を表す方位角α及び式3で算出された天頂角θにより、第1画像平面上の各画素に投影される被写体となる計測対象物5の表面上の点における法線ベクトル値(px、py、pz)は、(式4)により算出することができる。
例えば、被写体となる計測対象物5を第1偏光カメラ11又は第2偏光カメラ12で撮影するとき、被写体となる計測対象物5の表面で正反射する光(鏡面反射光)が主として撮影される場合、すなわち、光源からの光が光沢のある表面に反射して見える場合、鏡面反射光に基づいて算出される法線ベクトル値を利用してもよい。
鏡面反射の場合の偏光度ρsは、天頂角θと計測対象物5の屈折率nを用いて、式5で表されることが知られている。なお、屈折率nは、計測対象物5の媒質によって異なる値をとるが、ほとんどの対象物に対して、1.3≦n≦1.8がなりたち、また、nがこの範囲の値となる場合には、例えばn=1.3として計算した場合、拡散反射の場合と同様に、(式5)で算出されるθの値の誤差は無視できる。
以下、特に断らない限り、各画素に対応する法線ベクトル値は、拡散反射光の偏光度に基づき算出されたものとする。
<連続領域>
平面領域検出部23は、第1画像平面上の第1法線ベクトル値が同一値となる連続領域を探索して、連続領域に含まれる画素からなる集合(以下、「連続領域集合」という)を作成して、第1法線ベクトル分布テーブル31を構成する画素に関する属性情報として、当該画素が連続領域に含まれるか否かを示す連続領域識別情報を付加する。
それにより、第1法線ベクトル分布テーブル31を参照することで、第1画像平面上の画素(以下、簡単のため「点」ともいう)が連続領域に含まれるか否かを判定することができる。
また、平面領域検出部23は、第1画像平面上の各点に対応付けられた第1法線ベクトル値が同一値となる連続領域を除く第1画像平面上の点Aであって、点Aの近傍に法線ベクトル値が同一値となる連続領域があり、かつ、点Aの第1法線ベクトル値が当該近傍の法線ベクトル値から不連続的に急激に変化している場合、点Aをエッジ点として検出する。平面領域検出部23は、第1法線ベクトル分布テーブル31を構成する点に関する属性情報として、その点がエッジ点か否かを示すエッジ点識別情報を付加する。
そうすることで、第1法線ベクトル分布テーブル31を参照することで、第1画像平面上の点がエッジ点か否かを判定することができる。
対応点算出部24は、第1画像平面上の各点の位置情報に対応付けられた第1法線ベクトル値と、第2画像平面上の各点の位置情報に対応付けられた第2法線ベクトル値と、をマッチングして第1画像平面と前記第2画像平面との対応点を算出する。
前述したように、第1偏光カメラ11により撮像されたフレームに対して作成された、第1法線ベクトル分布テーブル31に記憶させた第1法線ベクトル値(px、py、pz)は、第1法線ベクトルp1の第1カメラ座標系におけるX1軸方向に係る成分(X1軸成分)、Y1軸方向に係る成分(Y1軸成分)、及びZ1軸方向に係る成分(Z1軸成分)である。他方、第2偏光カメラ12により撮像されたフレームに対して作成された、第2法線ベクトル分布テーブル32に記憶させた第2法線ベクトル値(px、py、pz)は、第2法線ベクトルp2の第2カメラ座標系におけるX2軸方向に係る成分(X2軸成分)、Y2軸方向に係る成分(Y2軸成分)、及びZ2軸方向に係る成分(Z2軸成分)である。
対応点算出部24は、両者をマッチングするために、第2法線ベクトル分布テーブル32に記憶させた各第2法線ベクトルp2の値を、第1カメラ座標系におけるX1軸方向に係る成分(X1軸成分)、Y1軸方向に係る成分(Y1軸成分)、及びZ1軸方向に係る成分(Z1軸成分)で表したベクトル値p2´に変換する。
具体的には、対応点算出部24は、第2カメラ座標系における座標値を第1カメラ座標系における座標値に変換する座標変換行列1T2を用いて、第2法線ベクトル分布テーブル32に記憶させた各第2法線ベクトル値p2を(式7)に基づいてp2´に変換する。
p2´= 1T2・p2 (式7)
以下、当該変換されたベクトル値を、第2法線ベクトル値(変換済)という。対応点算出部24は、第2法線ベクトル値(変換済)を第2法線ベクトル分布テーブル32に記憶させてもよい。
その後、対応点算出部24は、例えば、第1法線ベクトル分布テーブル31に格納したエッジ点情報を利用することで、第1画像平面上の第1法線ベクトル値が同一値となる連続領域に含まれる点の第2画像平面上の対応点を探索する。なお、連続領域に含まれる点の第2画像平面上の対応点の探索についての詳細な説明は、後述する。
対応点算出部24は、第1画像平面上の第1法線ベクトル値が同一値となる連続領域を除く第1画像平面上の点Aに対応付けられた第1法線ベクトル値が、点Aに対応する第2画像平面上のエピポーラ線上に位置する点Bであって、点Bに対応付けられた第2法線ベクトル値(変換済)が点Aの法線ベクトル値と一致するとともに、当該エピポーラ線上で離散的に存在する点B(=点Aの対応点候補)を検索する。
対応点候補Bが複数個ある場合、対応点算出部24は、例えば各対応点候補Bの近傍における法線ベクトル値の分布状況が点Aの近傍における法線ベクトル値の分布状況と一致する(最も類似している)対応点候補Bを点Aの対応点と判定する。ここで、点Aの近傍とは、点Aを囲む所定の数の点をいう。
このようにして、対応点算出部24は、第1法線ベクトル値が同一値となる連続領域を除く第1画像平面上の点Aに対する第2画像平面上の対応点Bを算出し、記憶部3に点Aの属性情報(第1画像座標系の座標値、第1法線ベクトル値等)と対応点Bの属性情報(第2画像座標系の座標値、第2法線ベクトル値等)をフレーム識別情報に紐づけて記憶する。以下、これを「対応点情報テーブル33」という。
3次元座標値算出部25は、対応点情報テーブル33に格納した全ての点A(及び対応点B)に対して、三角測量に基づいて、第1偏光カメラから、第1画像平面上の点Aに投影した被写体の表面上の点A´までの距離、及び第1カメラ座標系における3次元座標値(X1A,Y1A,Z1A)を算出する。同様に、3次元座標値算出部25は、第2カメラ座標系における3次元座標値(X2A,Y2A,Z2A)を算出する。
3次元座標値算出部25は、点A´の基準座標系における3次元座標値(XWA,YWA,ZWA)を、第1カメラ座標系における3次元座標値(X1A,Y1A,Z1A)を変換行列WT1により変換することで算出することができる。
3次元座標値算出部25は、対応点情報テーブル33の各対応点に係る属性情報として、第1カメラ座標系における3次元座標値(X1A,Y1A,Z1A)、第2カメラ座標系における3次元座標値(X2A,Y2A,Z2A)、及び基準座標系における3次元座標値(XWA,YWA,ZWA)を記憶することができる。
次に、連続領域上の点Rの3次元座標値の算出について説明する。
3次元座標値算出部25は、第1法線ベクトル分布テーブル31を構成する点がエッジ点か否かを示すエッジ点識別情報を利用することで、第1画像平面上の第1法線ベクトル値が同一値となる連続領域に含まれる任意の点Rの第1カメラ座標系における3次元座標値を算出することができる。
具体的には、3次元座標値算出部25は、第1画像平面上の連続領域に含まれる任意の点Rから、法線ベクトル値が同一の値となる直線を選択して、その直線の両方向に沿って、法線ベクトル値が不連続的に変化するエッジ点を特定する。エッジ点の特定に際しては、例えば、前記直線上の点であって、第1法線ベクトル分布テーブル31にエッジ点として記憶されている点を探索してもよい。
3次元座標値算出部25は、エッジ点Pを特定すると、対応点情報テーブル33を参照して、当該エッジ点Pの例えば、第1カメラ座標系における3次元座標値(X1P,Y1P,Z1P)を取得する。
3次元座標値算出部25は、当該連続領域を含む平面の第1カメラ座標系における平面方程式を算出する。具体的には、同一値となる第1法線ベクトル値を(eX、eY、eZ)とすると、当該連続領域を含む平面方程式は、dを定数として、式8で表される。
eXX+eYY+eZZ+d=0 (式8)
3次元座標値算出部25は、エッジ点Pの3次元座標値(X1P,Y1P,Z1P)を代入して、定数dを算出することで、当該連続領域を含む平面方程式を算出することができる。
具体的には、3次元座標値算出部25は、第1カメラ座標系の原点O1から第1画像平面上の当該連続領域に含まれる任意の点Rを通る直線と、当該連続領域を含む平面方程式との交点R´の3次元座標値(X1R,Y1R,Z1R)を取得するとともに、交点R´までの距離を算出することができる。
3次元座標値算出部25は、例えば、点R´の第1カメラ座標系における3次元座標値(X1R,Y1R,Z1R)を第2カメラ座標系における座標値(X2R,Y2R,Z2R)に変換し、第2画像平面に射影することで、点R´の第2画像座標系における座標値を取得する。また、3次元座標値算出部25は、点R´の基準座標系における3次元座標値(XWR,YWR,ZWR)を、第1カメラ座標系における点R´の3次元座標値(X1A,Y1A,Z1A)を変換行列WT1により変換することで算出することができる。
このようにして、3次元座標値算出部25は、対応点情報テーブル33に連続領域に含まれる全ての点Rとその対応点の属性情報及び第1画像平面上の点Rに投影される被写体の表面上の点R´の第1カメラ座標系における3次元座標値(X1R,Y1R,Z1R)、第2カメラ座標系における3次元座標値(X2R,Y2R,Z2R)、及び基準座標系における3次元座標値(XWR,YWR,ZWR)を記憶することができる。これらの3次元座標値の集合を「3次元座標値テーブル34」という。
具体的には、点Pから点Qまでの距離(例えば、点P及び点Qを含む当該直線上の点の個数NP−>Q)、点Pから点Rまでの距離(例えば、点P及び点Rを含む当該直線上の点の個数NP−>R)に基づいて、(式9)に示す比例計算により算出することができる。
X1R=(NP−>R/NP−>Q)・(X1Q − X1P)
Y1R=(NP−>R/NP−>Q)・(Y1Q − Y1P)
Z1R=(NP−>R/NP−>Q)・(Z1Q − Z1P)
(式9)
以上のように、深度取得装置100は、対象物の3次元モデルまたはデプスマップを予め作成することなく、偏光画像から、3次元空間中の対象物の深度情報(3次元位置情報)を取得することができる。
本実施形態では、第1法線ベクトル値と第2法線ベクトル値によるマッチング処理において、両者ともに、拡散反射光の偏光度に基づいて算出されたものを例示したが、これに限られない。
例えば、同一の場所であっても光源の位置等によって、被写体としての計測対象物5の表面において鏡面反射した大きな反射光が第1偏光カメラ11又は第2偏光カメラ12に対して入力されるケースが発生する可能性は排除することができない。
このため、対応点算出部24による第1法線ベクトル値と第2法線ベクトル値とのマッチングに際しては、第1法線ベクトル値として、拡散反射光の偏光度に基づいて算出した第1法線ベクトル値(拡散反射)と鏡面反射光の偏光度に基づいて算出した第1法線ベクトル値(鏡面反射)の2者を利用してもよい。
同様に、第2法線ベクトル値として、拡散反射光の偏光度に基づいて算出した第2法線ベクトル値(拡散反射)と鏡面反射光の偏光度に基づいて算出した第2法線ベクトル値(鏡面反射)の2者を利用してもよい。
そうすることで、両者のマッチングに際しては、第2法線ベクトル値(拡散反射)が第1法線ベクトル値(拡散反射)に一致する場合の外、第2法線ベクトル値(拡散反射)が第1法線ベクトル値(鏡面反射)に一致する場合、第2法線ベクトル値(鏡面反射)が第1法線ベクトル値(拡散反射)に一致する場合、又は第2法線ベクトル値(鏡面反射)が第1法線ベクトル値(鏡面反射)に一致する場合を含めるようにしてもよい。
以上のようにして、フレームレートに応じて、各フレームにおける合成点群データが作成され、ユーザにより設定された任意の視点から見た3次元動画を、例えばスマートフォンやタブレット等でリアルタイムでみることができる。
本実施形態では、第1法線ベクトル値と第2法線ベクトル値によるマッチング処理において、両者ともに、拡散反射光の偏光度に基づいて算出されたものを例示したが、これに限られない。
例えば、同一の場所であっても光源の位置等によって、被写体としての計測対象物5の表面において鏡面反射した大きな反射光が第1偏光カメラ11又は第2偏光カメラ12に対して入力されるケースが発生する可能性は排除することができない。
このため、対応点算出部24による第1法線ベクトル値と第2法線ベクトル値とのマッチングに際しては、第1法線ベクトル値として、拡散反射光の偏光度に基づいて算出した第1法線ベクトル値(拡散反射)と鏡面反射光の偏光度に基づいて算出した第1法線ベクトル値(鏡面反射)の2者を利用してもよい。
同様に、第2法線ベクトル値として、拡散反射光の偏光度に基づいて算出した第2法線ベクトル値(拡散反射)と鏡面反射光の偏光度に基づいて算出した第2法線ベクトル値(鏡面反射)の2者を利用してもよい。
そうすることで、両者のマッチングに際しては、第2法線ベクトル値(拡散反射)が第1法線ベクトル値(拡散反射)に一致する場合の外、第2法線ベクトル値(拡散反射)が第1法線ベクトル値(鏡面反射)に一致する場合、第2法線ベクトル値(鏡面反射)が第1法線ベクトル値(拡散反射)に一致する場合、又は第2法線ベクトル値(鏡面反射)が第1法線ベクトル値(鏡面反射)に一致する場合を含めるようにしてもよい。
上記実施形態において、ステレオカメラ1は、第1偏光カメラ11及び第2偏光カメラ12とは別に第3のカメラ(2次元画像取得部)を備えてもよい。予め、第1偏光カメラ11又は第2偏光カメラ12との間でキャリブレーションしておくことで、例えば、被写体としての計測対象物5の表面上の点を第3のカメラ座標系で表し、第3の画像平面に射影することで、第3のカメラ(2次元画像取得部)により撮像した画像データに対して、基準座標系における3次元座標値を対応づけることで、点群データを作成することpができる。
本実施形態の深度取得装置100において、例えば、制御部2の機能の一部(例えば、対応点算出部24等)を、クラウド上の仮想コンピュータを含めて、特定のコンピュータに分散させることについては、ユーザにとって適宜成しえる設計事項である。また、クラウド上の仮想コンピュータに制御部の機能の一部を持たせるようにしてもよい。
本実施形態の深度取得装置100において、ステレオカメラ1(第1偏光カメラ11及び第2偏光カメラ12)のフレームレートとして30fpsを例示し、各フレームごとに、被写体5の法線ベクトル値の算出、対応点の算出、及び3次元座標値を算出したが、これに限られない。フレームレート値は、第1偏光カメラ11及び第2偏光カメラ12の対応可能な高速フレームレートに応じて適宜設定することができる。
1 ステレオカメラ
11 第1偏光カメラ
111 パターン偏光子
112 撮像素子
12 第2偏光カメラ
121 パターン偏光子
122 撮像素子
2 制御部
21 輝度情報取得部
211 第1輝度情報取得部
212 第2輝度情報取得部
22 法線ベクトル算出部
221 第1法線ベクトル算出部
222 第2法線ベクトル算出部
23 平面領域検出部
24 対応点算出部
25 3次元座標値算出部
3 記憶部
31 第1法線ベクトル分布テーブル31
32 第2法線ベクトル分布テーブル
33 対応点情報テーブル
34 3次元座標値テーブル
5 計測対象物
Claims (8)
- 少なくとも3方向の偏光成分をそれぞれ透過させる複数の偏光子を備える第1偏光カメラと、少なくとも3方向の偏光成分をそれぞれ透過させる複数の偏光子を備える第2偏光カメラと、を備え、被写体を撮像するステレオカメラと、
前記第1偏光カメラにおける各偏光子をそれぞれ透過した光の輝度をそれぞれ前記第1偏光カメラの画像平面である第1画像平面上の各点の位置情報に対応付けて取得する第1輝度情報取得部と、
前記第2偏光カメラにおける各偏光子をそれぞれ透過した光の輝度をそれぞれ前記第2偏光カメラの画像平面である第2画像平面上の各点の位置情報に対応付けて取得する第2輝度情報取得部と、
前記第1輝度情報取得部により取得された前記第1偏光カメラの前記第1画像平面上の各点の位置情報に対応付けられた各偏光子を透過した光の輝度から算出される偏光度に基づいて、前記第1画像平面上の各点の位置に射影された前記被写体の表面上の点の位置における第1法線ベクトル値を算出して、前記第1画像平面上の各点の位置情報に対応付ける第1法線ベクトル算出部と、
前記第2輝度情報取得部により取得された前記第2偏光カメラの前記第2画像平面上の各点の位置情報に対応付けられた各偏光子を透過した光の輝度に基づいて、前記第2画像平面上の各点の位置に射影された前記被写体の表面上の点の位置における第2法線ベクトル値を算出して、前記第2画像平面上の各点の位置情報に対応付ける第2法線ベクトル算出部と、
前記第1画像平面上の各点の位置情報に対応付けられた第1法線ベクトル値と、前記各点に対応する前記第2画像平面上のエピポーラ線上の各点に対応付けられた第2法線ベクトル値と、をマッチングして前記第1画像平面と前記第2画像平面との対応点を算出する対応点算出部と、
前記対応点算出部により算出された対応点にもとづいて、前記対応点に射影された前記被写体の表面上の点の予め設定された基準座標系における3次元座標値を算出する3次元座標値算出部と、
を備える深度取得装置。 - 前記第1法線ベクトル算出部は、
前記第1偏光カメラの前記第1画像平面上の各点の位置情報に対応付けられた各偏光子を透過した光の輝度から拡散反射光の偏光度及び/又は鏡面反射光の偏光度を算出し、前記拡散反射光の偏光度に基づく第1法線ベクトル値及び/又は前記鏡面反射光の偏光度に基づく第1法線ベクトル値を算出し、
前記第2法線ベクトル算出部は、
前記第2偏光カメラの前記第2画像平面上の各点の位置情報に対応付けられた各偏光子を透過した光の輝度から拡散反射光の偏光度及び/又は鏡面反射光の偏光度を算出し、前記拡散反射光の偏光度に基づく第2法線ベクトル値及び/又は前記鏡面反射光の偏光度に基づく第2法線ベクトル値を算出する、請求項1に記載の深度取得装置。 - 前記対応点算出部は、
前記第1画像平面上の各点とその近傍に対応付けられた第1法線ベクトル値の分布状況と、前記各点に対応する前記第2画像平面上のエピポーラ線上の各点とその近傍に対応付けられた第2法線ベクトル値の分布状況と、をマッチングして、前記第1画像平面と前記第2画像平面との対応点を算出する、請求項1又は請求項2に記載の深度取得装置。 - 前記第1画像平面上の各点に対応付けられた第1法線ベクトル値が同一となる、前記第1画像平面上の連続する点を含む連続領域を検出するとともに、
前記連続領域を除く第1画像平面上の点であって、その点の近傍に法線ベクトル値が同一値となる連続領域があり、かつ、その点における第1法線ベクトル値が前記連続領域における法線ベクトル値から不連続的に急激に変化するエッジ点を検出する平面領域検出部を備え、
前記3次元座標値算出部は、
前記エッジ点に基づいて、前記第1画像平面上の第1法線ベクトル値が同一となる前記連続領域に対応する前記被写体の表面領域上の各点の前記基準座標系における3次元座標値を算出する、請求項1から請求項3の何れか1項に記載の深度取得装置。 - 前記対応点算出部は、
前記連続領域上の各点の前記基準座標系における3次元座標値に基づいて、前記第1画像平面の前記連続領域上の点と前記第2画像平面における対応点を算出する、請求項4に記載の深度取得装置。 - 前記第1偏光カメラ及び前記第2偏光カメラとは別に第3のカメラ(2次元画像取得部)と、
前記第3のカメラにより撮像した画像データに、前記基準座標系における3次元座標値を対応づけることにより点群データを生成する点群データ生成部と、
を備える、請求項1から請求項5の何れか1項に記載の深度取得装置。 - 少なくとも3方向の偏光成分をそれぞれ透過させる複数の偏光子を備える第1偏光カメラと少なくとも3方向の偏光成分をそれぞれ透過させる複数の偏光子を備える第2偏光カメラとを備える被写体を撮像するステレオカメラと、通信可能に接続されるコンピュータにより、
前記第1偏光カメラにおける各偏光子をそれぞれ透過した光の輝度をそれぞれ前記第1偏光カメラの画像平面である第1画像平面上の各点の位置情報に対応付けて取得する第1輝度情報取得ステップと、
前記第2偏光カメラにおける各偏光子をそれぞれ透過した光の輝度をそれぞれ前記第2偏光カメラの画像平面である第2画像平面上の各点の位置情報に対応付けて取得する第2輝度情報取得ステップと、
前記第1輝度情報取得ステップにおいて取得された前記第1偏光カメラの前記第1画像平面上の各点の位置情報に対応付けられた各偏光子を透過した光の輝度から算出される偏光度に基づいて、前記第1画像平面上の各点の位置に射影された前記被写体の表面上の点の位置における第1法線ベクトル値を算出して、前記第1画像平面上の各点の位置情報に対応付ける第1法線ベクトル算出ステップと、
前記第2輝度情報取得ステップにおいて取得された前記第2偏光カメラの前記第2画像平面上の各点の位置情報に対応付けられた各偏光子を透過した光の輝度に基づいて、前記第2画像平面上の各点の位置に射影された前記被写体の表面上の点の位置における第2法線ベクトル値を算出して、前記第2画像平面上の各点の位置情報に対応付ける第2法線ベクトル算出ステップと、
前記第1画像平面上の各点の位置情報に対応付けられた第1法線ベクトル値と、前記各点に対応する前記第2画像平面上のエピポーラ線上の各点に対応付けられた第2法線ベクトル値と、をマッチングして前記第1画像平面と前記第2画像平面との対応点を算出する対応点算出ステップと、
前記対応点算出ステップにおいて算出された対応点にもとづいて、前記対応点に射影された前記被写体の表面上の点の予め設定された基準座標系における3次元座標値を算出する3次元座標値算出ステップと、を備える深度情報取得方法。 - コンピュータに、請求項7に記載の各ステップを実行させるためのコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018131841A JP6580761B1 (ja) | 2018-07-11 | 2018-07-11 | 偏光ステレオカメラによる深度取得装置及びその方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018131841A JP6580761B1 (ja) | 2018-07-11 | 2018-07-11 | 偏光ステレオカメラによる深度取得装置及びその方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6580761B1 JP6580761B1 (ja) | 2019-09-25 |
JP2020008502A true JP2020008502A (ja) | 2020-01-16 |
Family
ID=68053586
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018131841A Expired - Fee Related JP6580761B1 (ja) | 2018-07-11 | 2018-07-11 | 偏光ステレオカメラによる深度取得装置及びその方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6580761B1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019508717A (ja) * | 2016-03-03 | 2019-03-28 | フォーディ インテレクチュアル プロパティーズ エルエルシー4D Intellectual Properties,Llc | 画像取得および解析用の能動パルス式4dカメラのための方法および装置 |
CN111343368A (zh) * | 2020-02-18 | 2020-06-26 | 清华大学 | 基于偏振的散射介质深度恢复方法及装置 |
WO2023095375A1 (ja) * | 2021-11-29 | 2023-06-01 | パナソニックIpマネジメント株式会社 | 三次元モデル生成方法及び三次元モデル生成装置 |
JP7488451B2 (ja) | 2020-04-01 | 2024-05-22 | 株式会社デンソーウェーブ | 三次元計測装置 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117911465B (zh) * | 2024-03-20 | 2024-05-17 | 深圳市森歌数据技术有限公司 | 一种基于双目立体匹配的自然保护区稠密点云生成方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160261844A1 (en) * | 2015-03-06 | 2016-09-08 | Massachusetts Institute Of Technology | Methods and Apparatus for Enhancing Depth Maps with Polarization Cues |
JP2017016431A (ja) * | 2015-07-01 | 2017-01-19 | 株式会社ソニー・インタラクティブエンタテインメント | 画像処理装置、画像処理システム、多視点カメラ、および画像処理方法 |
JP2018041278A (ja) * | 2016-09-07 | 2018-03-15 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および画像領域分割方法 |
US20180100731A1 (en) * | 2016-10-07 | 2018-04-12 | Arizona Board Of Regents On Behalf Of The University Of Arizona | Depth and/or orientation tracker using division of focal plane polarization and/or color camera |
-
2018
- 2018-07-11 JP JP2018131841A patent/JP6580761B1/ja not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160261844A1 (en) * | 2015-03-06 | 2016-09-08 | Massachusetts Institute Of Technology | Methods and Apparatus for Enhancing Depth Maps with Polarization Cues |
JP2017016431A (ja) * | 2015-07-01 | 2017-01-19 | 株式会社ソニー・インタラクティブエンタテインメント | 画像処理装置、画像処理システム、多視点カメラ、および画像処理方法 |
JP2018041278A (ja) * | 2016-09-07 | 2018-03-15 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および画像領域分割方法 |
US20180100731A1 (en) * | 2016-10-07 | 2018-04-12 | Arizona Board Of Regents On Behalf Of The University Of Arizona | Depth and/or orientation tracker using division of focal plane polarization and/or color camera |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019508717A (ja) * | 2016-03-03 | 2019-03-28 | フォーディ インテレクチュアル プロパティーズ エルエルシー4D Intellectual Properties,Llc | 画像取得および解析用の能動パルス式4dカメラのための方法および装置 |
CN111343368A (zh) * | 2020-02-18 | 2020-06-26 | 清华大学 | 基于偏振的散射介质深度恢复方法及装置 |
CN111343368B (zh) * | 2020-02-18 | 2021-08-20 | 清华大学 | 基于偏振的散射介质深度恢复方法及装置 |
JP7488451B2 (ja) | 2020-04-01 | 2024-05-22 | 株式会社デンソーウェーブ | 三次元計測装置 |
WO2023095375A1 (ja) * | 2021-11-29 | 2023-06-01 | パナソニックIpマネジメント株式会社 | 三次元モデル生成方法及び三次元モデル生成装置 |
Also Published As
Publication number | Publication date |
---|---|
JP6580761B1 (ja) | 2019-09-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6580761B1 (ja) | 偏光ステレオカメラによる深度取得装置及びその方法 | |
JP6456156B2 (ja) | 法線情報生成装置、撮像装置、法線情報生成方法および法線情報生成プログラム | |
US20150369593A1 (en) | Orthographic image capture system | |
TWI624170B (zh) | 影像掃描系統及其方法 | |
CN109377551B (zh) | 一种三维人脸重建方法、装置及其存储介质 | |
JP2012058076A (ja) | 3次元計測装置及び3次元計測方法 | |
JP5633058B1 (ja) | 3次元計測装置及び3次元計測方法 | |
JP2012088114A (ja) | 光学情報処理装置、光学情報処理方法、光学情報処理システム、光学情報処理プログラム | |
US8456645B2 (en) | Method and system for fast three-dimensional imaging using defocusing and feature recognition | |
US11568555B2 (en) | Dense depth computations aided by sparse feature matching | |
WO2014084181A1 (ja) | 画像計測装置 | |
CN111192235A (zh) | 一种基于单目视觉模型和透视变换的图像测量方法 | |
Ahmad et al. | An improved photometric stereo through distance estimation and light vector optimization from diffused maxima region | |
CN112184811A (zh) | 单目空间结构光系统结构校准方法及装置 | |
EP3769035B1 (en) | Replicated dot maps for simplified depth computation using machine learning | |
US11803982B2 (en) | Image processing device and three-dimensional measuring system | |
Harvent et al. | Multi-view dense 3D modelling of untextured objects from a moving projector-cameras system | |
JP2008275366A (ja) | ステレオ3次元計測システム | |
JP2018009927A (ja) | 画像処理装置、画像処理方法及びプログラム | |
US20180033200A1 (en) | System and method for multiple device augmented surface | |
JP6266580B2 (ja) | ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体 | |
JP6486083B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
KR102503976B1 (ko) | 증강현실 영상 보정 장치 및 방법 | |
JP2015206654A (ja) | 情報処理装置、情報処理方法、プログラム | |
JP5727969B2 (ja) | 位置推定装置、方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180810 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190725 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190820 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190828 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6580761 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |