JP6934575B2 - 情報処理装置および物体検出方法 - Google Patents
情報処理装置および物体検出方法 Download PDFInfo
- Publication number
- JP6934575B2 JP6934575B2 JP2020546669A JP2020546669A JP6934575B2 JP 6934575 B2 JP6934575 B2 JP 6934575B2 JP 2020546669 A JP2020546669 A JP 2020546669A JP 2020546669 A JP2020546669 A JP 2020546669A JP 6934575 B2 JP6934575 B2 JP 6934575B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- information processing
- assumed
- light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 60
- 230000010365 information processing Effects 0.000 title claims description 49
- 230000010287 polarization Effects 0.000 claims description 91
- 239000013598 vector Substances 0.000 claims description 64
- 230000008859 change Effects 0.000 claims description 25
- 238000003384 imaging method Methods 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 17
- 230000005540 biological transmission Effects 0.000 claims description 13
- 230000007704 transition Effects 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims 1
- 238000000034 method Methods 0.000 description 36
- 239000010410 layer Substances 0.000 description 23
- 238000009826 distribution Methods 0.000 description 19
- 238000010191 image analysis Methods 0.000 description 11
- 239000000463 material Substances 0.000 description 10
- 230000003287 optical effect Effects 0.000 description 10
- 238000002834 transmittance Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 239000011521 glass Substances 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 230000036544 posture Effects 0.000 description 5
- 238000013500 data storage Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000007689 inspection Methods 0.000 description 4
- 239000004925 Acrylic resin Substances 0.000 description 3
- 229920000178 Acrylic resin Polymers 0.000 description 3
- 229920003217 poly(methylsilsesquioxane) Polymers 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 239000004020 conductor Substances 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000001508 eye Anatomy 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- BQCADISMDOOEFD-UHFFFAOYSA-N Silver Chemical compound [Ag] BQCADISMDOOEFD-UHFFFAOYSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000002983 circular dichroism Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 229910052738 indium Inorganic materials 0.000 description 1
- 239000011229 interlayer Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 229910052709 silver Inorganic materials 0.000 description 1
- 239000004332 silver Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/145—Illumination specially adapted for pattern recognition, e.g. using gratings
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
本発明は、撮影画像を利用して実物体を検出する情報処理装置および物体検出方法に関する。
ユーザの頭部など体の一部をビデオカメラで撮影し、目、口、手などの所定の領域を抽出して別の画像で置換した表示画像を利用するゲームが知られている(例えば、特許文献1参照)。また、ビデオカメラで撮影された口や手の動きをアプリケーションの操作指示として受け取るユーザインタフェースシステムも知られている。このように、実世界を撮影して対象物の状態を検知したり、それに基づく情報処理を実施したりする技術は、電子コンテンツのみならず、自動制御ロボット、監視カメラ、自動運転システム、製造ラインにおける検品装置など幅広い分野で導入されている。
撮影画像における被写体の像の様子は、周囲の明るさや物の数、配置などによる光の状態の変化に影響される。そのため同じ被写体でも、その像の色や輝度分布が大きく変化したり、輪郭が明確に得られなかったりした結果、検出に失敗したり他の物と混同したりすることが起こり得る。特に無色のガラスやアクリル樹脂など、光線透過率が高い材質の物は色情報に乏しく、また周囲の状況の影響を受けやすいため安定的な検出が難しい。
本発明はこうした課題に鑑みてなされたものであり、その目的は、光線透過率の高い物であっても、撮影画像を用いた物体検出を安定的に実現できる技術を提供することにある。
本発明のある態様は情報処理装置に関する。この情報処理装置は、複数の方位の偏光画像のデータを撮像装置から取得する画像取得部と、偏光画像を用いて法線ベクトルを取得することにより被写体の面を検出する法線取得部と、検出された面から連続する、検出されていない面の存在を仮定する表面仮定部と、仮定された面に推定される法線ベクトルを利用して、当該面の有無を確認し最終的な被写体の面を導出する被写体検出部と、導出された被写体の面に係る情報に基づき出力データを生成し出力する出力データ生成部と、を備えたことを特徴とする。
本発明のさらに別の態様は物体検出方法に関する。この物体検出方法は情報処理装置が、複数の方位の偏光画像のデータを撮像装置から取得するステップと、偏光画像を用いて法線ベクトルを取得することにより被写体の面を検出するステップと、検出された面から連続する、検出されていない面の存在を仮定するステップと、仮定された面に推定される法線ベクトルを利用して、当該面の有無を確認し最終的な被写体の面を導出するステップと、導出された被写体の面に係る情報に基づき出力データを生成し出力するステップと、を含むことを特徴とする。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置などの間で変換したものもまた、本発明の態様として有効である。
本発明によると、光線透過率の高い物であっても、撮影画像を用いた物体検出を安定的に実現できる。
本実施の形態は、撮像装置が撮影した画像を解析することにより、空間に存在する物を検出したり、その位置や姿勢を認識したりすることを基本とする。その限りにおいて、検出結果をどのように利用するかは特に限定されない。図1は、本実施の形態における情報処理システムの構成例を示している。図示する例では、撮像装置12を装備したロボット4が周囲に存在する物体8a、8b、8cを認識しながら歩行することを想定している。ロボット4の内部には、撮影画像を解析し、物体8a、8b、8cの形状、距離、姿勢などを認識してロボット4を好適に動作させる情報処理装置10が備えられる。
このような形態はV-SLAM(Visual Simultaneous Localization and Mapping)を導入した自動制御ロボットや無人搬送車などで広く知られている。ただし情報処理装置10は外部からロボット4を遠隔制御する装置としてもよい。また情報処理装置10が、物体の検出結果を図示しない表示装置に表示させ、ユーザがそれを見ながら、図示しない入力装置を用いてロボット4を遠隔操作する態様としてもよい。一方、ロボット4の代わりにユーザが、撮像装置12を備えたヘッドマウントディスプレイを装着する態様としてもよい。
この場合、情報処理装置10を、ヘッドマウントディスプレイに内蔵させてもよいし、ヘッドマウントディスプレイと無線あるいは有線により通信接続可能な外部の装置としてもよい。このとき情報処理装置10は、物体の検出結果に基づき表示画像を生成し、それをヘッドマウントディスプレイに表示させてもよい。当該表示画像の少なくとも一部は、撮像装置12が撮影した画像であってもよい。撮像装置12をユーザが把持し、情報処理装置10がその撮影画像を無線または有線により取得し解析してもよい。
撮像装置12、情報処理装置10、および図示しない表示装置を一体的に備える携帯端末をユーザが把持してもよい。情報処理装置10を採用できる形態は、ロボットの制御システム、電子コンテンツ処理装置、監視カメラシステム、検品装置など様々に考えられる。そのため情報処理装置10から出力される情報も、ロボット4への制御信号、表示画像、出力音声など、目的によって変化し得る。
これらの技術においては、物体8a、8b、8cや、その周囲の状況をできるだけ正確に特定する必要がある。しかしながら一般的なカラーの撮影画像では、ガラスやアクリル樹脂など光線透過率の高い材質の物が像として写りにくい。そのため、そのような材質の物を認識しなかったり、光線の具合によって背後や手前にある別の物を、そこにあるように誤認識したりすることが考えられる。そこで本実施の形態では、撮像装置12により被写空間の偏光を観測し、偏光の特性を利用して、光線透過率の高い材質の物を精度よく検出できるようにする。
ここで「光線透過率の高い材質」は、例えば無色のガラスやアクリル樹脂などであるが、対象とする光線透過率や色は限定されない。すなわち一般的なカラーの撮影画像を用いては見過ごされやすい物も網羅して検出できるようにすることで、全体として撮影による誤認識の発生を抑えることを旨とし、検出対象を限定する趣旨ではない。以後、「光線透過率の高い材質」で形成された物体を「透明物体」と呼ぶ。
図2は、本実施の形態で利用する偏光の基本的な特性を説明するための図である。撮像装置12は、直線偏光板70を介して被写体72を含む空間を撮影する。より詳細には撮像装置12は、光源から照射された光が被写体72を反射してなる鏡面反射成分と、被写体72内部で散乱された光が表面から出射してなる拡散反射成分とで構成される反射光のうち、直線偏光板70によって定まる方向に振動する偏光を観測する。被写体72の表面のうち観測点aにおける法線ベクトルnと、点aから画像平面80上の結像点bに到達する光線82を含む面を、観測点aにおける入射面76と呼ぶ。
直線偏光板70は、光線82のうちある方向に振動する直線偏光のみを透過する。以後、透過させる偏光の振動方向を直線偏光板70の透過軸と呼ぶ。直線偏光板70を面に垂直な軸周りに回転させれば、透過軸を任意の方向にとることができる。仮に撮像装置12へ到達する光が無偏光であれば、直線偏光板70を回転させても、観測される輝度は一定となる。一方、一般的な反射光は部分偏光により、透過軸の方向に対し観測される輝度に変化が生じる。また鏡面反射と拡散反射の割合や入射角によって、輝度の変化の様子が異なる。
図3は、入射角に対する偏光方向の変化を鏡面反射と拡散反射で比較している。ここで「s偏光」は入射面に垂直な方向に振動する成分、「p偏光」は入射面に平行な方向に振動する成分である。鏡面反射および拡散反射の双方において、s偏光とp偏光の割合は入射角に依存する。また鏡面反射の光は、入射角によらずs偏光が支配的である。このため、直線偏光板70の透過軸が入射面と垂直な状態において観測輝度が最大となり、当該透過軸が入射面と平行な状態において観測輝度が最小となる。
拡散反射の光はその逆であり、直線偏光板70の透過軸が入射面と平行な状態において観測輝度が最大となり、当該透過軸が入射面と垂直な状態において観測輝度が最小となる。したがって、様々な透過軸の方向で偏光画像を撮影することにより得られる結像点bの偏光輝度の変化は、入射面76の角度と、入射光(あるいは出射光)の角度、すなわち被写体72上の観測点aにおける法線ベクトルnの天頂角θの情報を含んでいることになる。本実施の形態でもこのような偏光の輝度の変化を利用する。
図4は、偏光方位φに対する輝度Iの変化を例示している。同図上段は鏡面反射が支配的な場合、下段は拡散反射が支配的な場合であり、どちらも180°周期の正弦波の形状を有する。一方、鏡面反射の輝度Iが最大値Imaxをとるときの偏光方位ψsと、拡散反射の輝度Iが最大値Imaxをとるときの偏光方位ψdには90°の差がある。これは上述したように、鏡面反射においてはs偏光が、拡散反射においてはp偏光が支配的なことに起因する。
s偏光が入射面に垂直、p偏光が入射面に平行な振動であることに鑑みれば、鏡面反射において輝度が最小となる偏光方位(ψs−90°)、あるいは拡散反射において輝度が最大となる偏光方位ψdが、入射面の角度を表す。法線ベクトルnは常に入射面に含まれるため、当該角度は、法線ベクトルnを撮影画像平面に射影したベクトルの角度を表す。この角度は一般的に、法線ベクトルnの方位角と呼ばれる。当該方位角に加え、上述した天頂角を求めることにより、撮像装置12から見た3次元空間での法線ベクトルが一意に定まる。観測される偏光の輝度が最大となるときの偏光方位は位相角ψと呼ばれる。図4で示す輝度Iの変化は、位相角ψを用いて次の式で表すことができる。
直線偏光板70を回転させ複数の偏光方位φに対し観測される輝度を、最小二乗法等を用いて式1の形式に近似することにより、Imax、Imin、ψを求めることができる。そのうちImax、Iminを用いて、次の式により偏光度ρが求められる。
図5は、法線ベクトルの天頂角に対する偏光度の変化の例を、鏡面反射と拡散反射で比較している。上段に示す鏡面反射の場合、偏光度は最大で1.0までの値をとるのに対し、下段に示す拡散反射の偏光度は、最大でも0.4程度である。なお天頂角θは、鏡面反射の場合の偏光度ρs、拡散反射の場合の偏光度ρdと、それぞれ次のような関係にある。
ここでηは物体の屈折率である。式2で得られる偏光度ρを式3のρs、ρdのどちらかに代入することにより天頂角θが得られる。こうして得られた方位角α、天頂角θにより、法線ベクトル(px,py,pz)は次のように得られる。
なお本実施の形態において、偏光輝度を観測する手段は直線偏光板に限らない。例えば撮像素子構造の一部として偏光子の層を設けてもよい。図6は、本実施の形態の撮像装置12に導入できる、偏光子層を備える撮像素子の構造例を示している。なお同図は素子断面の機能的な構造を模式的に示しており、層間絶縁膜や配線などの詳細な構造は省略している。撮像素子110はマイクロレンズ層112、ワイヤグリッド型偏光子層114、カラーフィルター層116、および光検出層118を含む。
ワイヤグリッド型偏光子層114は、複数の線状の導体部材を入射光の波長より小さい間隔でストライプ状に配列させた偏光子を含む。マイクロレンズ層112により集光された光がワイヤグリッド型偏光子層114に入射すると、偏光子のラインと平行な方位の偏光成分は反射され、垂直な偏光成分のみが透過する。透過した偏光成分を光検出層118で検出することにより偏光画像が取得される。光検出層118は一般的なCCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの半導体素子構造を有する。
ワイヤグリッド型偏光子層114は、光検出層118における電荷の読み取り単位、すなわち画素単位、あるいはそれより大きな単位で透過する偏光方位が異なるような偏光子の配列を含む。同図右側には、ワイヤグリッド型偏光子層114を上面から見たときの偏光子配列120を例示している。同図において網掛けされたラインが偏光子を構成する導体(ワイヤ)である。なお点線の矩形はそれぞれ1方向の偏光子の領域を表しており、点線自体は実際に形成されるものではない。
図示する例では、4方向の偏光子が2行2列の4つの領域122a、122b、122c、122dに配置されている。図中、対角線上にある偏光子はその透過方向が直交しており、隣り合う偏光子は45°の差を有する。すなわち45°おきの4方向の偏光子を設けている。これが直線偏光板70の代わりとなり、下に設けた光検出層118においては、4つの領域122a、122b、122c、122dに対応する各領域で、45°おきの4方位の偏光情報を得ることができる。このような偏光子配列をさらに縦方向、横方向に所定数、配列させ、電荷読み出しのタイミングを制御する周辺回路を接続することにより、4方位の偏光情報を2次元データとして同時に取得するイメージセンサを実現できる。
同図に示す撮像素子110では、ワイヤグリッド型偏光子層114と光検出層118の間にカラーフィルター層116を設けている。カラーフィルター層116は、例えば各画素に対応させて赤、緑、青の光をそれぞれ透過するフィルタの配列を含む。これにより、上下に位置するワイヤグリッド型偏光子層114における偏光子の方向とカラーフィルター層116におけるフィルタの色の組み合わせに応じて、偏光情報が色別に得られる。すなわち同一方位かつ同一色の偏光情報が画像平面上で離散的に得られるため、それを適宜補間することにより、方位ごとおよび色ごとの偏光画像が得られる。
また同一色の偏光画像同士を演算することにより、無偏光のカラー画像を再現することもできる。ワイヤグリッド型偏光子を用いた画像取得技術については、例えば特開2012−80065号公報などにも開示されている。ただし本実施の形態では基本的に偏光輝度画像を用いるため、その他の用途でカラー画像が必要なければカラーフィルター層116を省略することもできる。また偏光子はワイヤグリッド型に限らず、線二色性偏光子などを用いることもできる。
これまで述べたように、被写体表面あるいは内部で反射した光の偏光特性は、被写体表面の撮像面に対する傾き、ひいては被写体の形状や姿勢の情報を含むことから、被写体の色情報を表す一般的なカラー画像と比較し透明物体を検出しやすい。一方、図1で示したように物体8a、8b、8cを任意の視点から撮影する場合、あるいは逆に撮像面に対し物体が動いている場合など、透明物体に対する撮影視点の角度によっては、偏光によっても透明物体が検出しにくいことがある。
図7は、透明物体に対する撮影視点の角度によって被写体の検出精度が低下する現象を説明するための図である。(a)、(b)は撮像装置12がそれぞれ、平面状の被写体150aおよび円筒状の被写体150bを撮影している様子を俯瞰した状態を示している。なお被写体表面を実線と点線としているのは説明のためであり、実際は一様とする。(a)において被写体150aを撮影することにより、表面上の各位置から撮像装置12への光線の偏光輝度が画素値として得られる。例えば観測点152a、152bを見ると、法線ベクトルn1、n2が同じ方向である一方、撮像装置12へ入射する光線の角度が異なる。
具体的には、撮像装置12の光軸oに対する角度が大きい観測点152aにおける、法線ベクトルn1と光線のなす角θ1は、光軸oに対する角度が小さい観測点152bにおける、法線ベクトルn2と光線のなす角θ2より大きくなる。ここで角度θ1、θ2は、各観測点152a、152bにおける法線ベクトルn1、n2の天頂角に他ならない。観測される光は鏡面反射が支配的であるとすると、図5の上段に示すように、天頂角が0.6radから1.3rad程度の範囲で高い偏光度が得られ、天頂角がその範囲から離れるほど偏光度が低くなる。
例えばガラスの場合、p偏光の反射率が0になりs偏光の成分のみの全偏光となるブリュースター角は約56°(0.98rad)である。そのため上述のように偏光画像を解析すると、観測点152aでは高い偏光度が得られるのに対し、観測点152bでは偏光度が低くなり、適正な法線ベクトルが得られにくくなる。結果として、平面状の被写体150aのうち実線で示した部分は検出される一方、点線で示した部分は検出されない。
図5に示したように偏光度は天頂角に対し徐々に変化するため、実際には被写体150aの表面上で、撮像装置12の光軸oと交差する位置に近づくほど、検出精度が悪化していく。(b)に示した円筒状の被写体150bの場合も同様である。すなわち撮像装置12の光軸oからの角度が大きい観測点152cにおける、法線ベクトルn3と光線のなす角θ3は、光軸oからの角度が小さい観測点152dにおける、法線ベクトルn4と光線のなす角θ4より大きくなる。
そのため、観測点152cでは高い偏光度が得られるのに対し、観測点152bでは偏光度が低くなり、法線ベクトルの検出精度が悪化する。結果として円筒状の被写体150bのうち実線で示した部分は検出される一方、点線で示した部分は検出されない。このような現象は、被写体の形状によらず発生し得る。
被写体が透明物体の場合、カラーの撮影画像が示す色情報でも検出が困難なことから、撮影画像からは検出できない部分が発生することになる。そこで本実施の形態では、検出結果が適正に得られている部分から、撮像装置12の光軸oとのなす角度が小さくなる方向に、被写体の面が続いていると仮定したうえ、実際に面が存在するか否かを、偏光を利用して確認することで検出精度を向上させる。
図8は、情報処理装置10の内部回路構成を示している。情報処理装置10は、CPU(Central Processing Unit)23、GPU(Graphics Processing Unit)24、メインメモリ26を含む。これらの各部は、バス30を介して相互に接続されている。バス30にはさらに入出力インターフェース28が接続されている。入出力インターフェース28には、USBやIEEE1394などの周辺機器インターフェースや、有線又は無線LANのネットワークインターフェースからなる通信部32、ハードディスクドライブや不揮発性メモリなどの記憶部34、ロボット4の制御機構や図示しない表示装置などへデータを出力する出力部36、撮像装置12や図示しない入力装置からデータを入力する入力部38、磁気ディスク、光ディスクまたは半導体メモリなどのリムーバブル記録媒体を駆動する記録媒体駆動部40が接続される。
CPU23は、記憶部34に記憶されているオペレーティングシステムを実行することにより情報処理装置10の全体を制御する。CPU23はまた、リムーバブル記録媒体から読み出されてメインメモリ26にロードされた、あるいは通信部32を介してダウンロードされた各種プログラムを実行する。GPU24は、ジオメトリエンジンの機能とレンダリングプロセッサの機能とを有し、CPU23からの描画命令に従って描画処理を行い、図示しないフレームバッファに表示画像のデータを格納する。
そしてフレームバッファに格納された表示画像をビデオ信号に変換して出力部36に出力する。メインメモリ26はRAM(Random Access Memory)により構成され、処理に必要なプログラムやデータを記憶する。なお上述のとおり本実施の形態には様々な用途が考えられる。そのため用途に応じた処理結果の出力形態によって、図示する構成の一部を省略したり別の回路に置き換えたりしてよい。
図9は、本実施の形態における情報処理装置10の機能ブロックの構成を示している。同図においてさまざまな処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、図8で示したCPU23、GPU24、メインメモリ26等の各主回路で構成することができ、ソフトウェア的には、記録媒体駆動部40により駆動される記録媒体や記憶部34からメインメモリ26にロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
情報処理装置10は、撮像装置12から撮影画像のデータを取得する画像取得部50、取得した画像のデータを格納する画像データ記憶部52、被写体の検出を含む画像解析を行う画像解析部54、および、解析結果を利用して出力すべきデータを生成する出力データ生成部56を含む。
画像取得部50は図8の入力部38、CPU23などで実現され、撮像装置12から偏光画像を含む撮影画像のデータを取得する。このとき偏光画像として、少なくとも3方向の透過軸に対応する3方位の偏光画像のデータを取得する。偏光画像は、図2に示すように撮像装置12の前面に配置した直線偏光板70を回転させ、所定の方向で停止させる都度、撮影してもよいし、図6で示した構造の撮像素子を含むイメージセンサを導入して撮影してもよい。後者の場合、一度の撮影で複数方位の偏光画像を取得できる。
出力する表示画像に撮影画像を用いる場合など、情報処理の目的や画像解析の内容によっては、画像取得部50はさらに、一般的なカラーの撮影画像のデータも取得してよい。また、取得する撮影画像は動画でもよいし静止画でもよい。さらに撮像装置12を、既知の間隔で設けた2つのカメラからなるステレオカメラとする場合、画像取得部50は、それらのカメラが撮影した左右に視差を有するステレオ画像のデータを取得してもよい。画像取得部50は取得した撮影画像のデータを画像データ記憶部52に逐次格納する。
画像解析部54は図8のCPU23、GPU24などで実現され、画像データ記憶部52に格納されたデータを用いて、被写体の検出を含む画像解析を行う。より詳細には画像解析部54は、法線取得部58、表面仮定部60、および被写体検出部62を含む。法線取得部58は、上述のとおり方位の変化に対する偏光輝度の変化を利用して被写体の法線ベクトルを導出する。具体的にはまず、複数方位の偏光画像の対応する画素ごとに輝度を抽出し、偏光方位に対する輝度の変化を導出する。
偏光画像がφ1、φ2、φ3の3方位あれば、それらの座標(φ1,I1)、(φ2,I2)、(φ3,I3)の3点を通る曲線を、最小二乗法等を用いて式1の関数に近似することにより、図4に示すような連続した関数が得られる。これにより最大輝度Imaxと最小輝度Iminを求め、式2〜4により偏光度ρおよび法線ベクトルを求める。この処理を画素ごとに繰り返すと、画像平面に対し法線ベクトルの分布が得られ、被写空間に存在する物の形状や姿勢を特定できる。
法線取得部58は、画像の色情報に基づき別途、被写体の検出を実施してもよい。当該色情報は、複数方位の偏光画像の輝度を対応する画素ごと、色ごとに平均するなどして取得してもよいし、対応する視野で撮影された自然光の画像を利用してもよい。色情報を用いた物体検出には既存の技術を利用できる。ただしこの段階では上述のとおり、撮像装置12との位置関係や角度によって、被写体の一部の領域で法線ベクトルが得られない、または法線ベクトルの精度が低くなる可能性がある。透明物体の場合、色情報によっても正確な検出が難しい。
表面仮定部60は、法線取得部58が取得した法線ベクトルの分布を用いて被写体表面の連続性などに鑑み表面の存在を仮定する。表面仮定部60はこのとき、別途取得した光源の位置や被写空間にある物の種類などの空間情報に基づき、より可能性の高い面を仮定してもよい。具体例は後に述べる。
被写体検出部62は、表面仮定部60が存在を仮定した面が実際に存在するか否かを確認し、その結果に応じて最終的な検出結果を導出する。確認手段として、(1)撮像装置12を適切な位置へ移動させて再度撮影する態様、(2)仮定した面の法線に基づきs偏光とp偏光の関係を評価する態様、(3)撮像装置12を移動させたときの像の変化を確認する態様、が考えられる。具体例は後に述べる。なお被写体検出部62が最終的に導出する情報は法線ベクトルの分布に限らない。例えば仮定した位置に面が存在することを示すのみでもよいし、法線ベクトル分布に基づき被写体の位置や姿勢を表すデータを生成してもよい。
出力データ生成部56は、図8のCPU23、GPU24、出力部36などで実現し、画像解析部54が特定した情報に基づき所定の情報処理を実施して、ロボットへの制御信号、表示画像や音声など出力すべきデータを生成し出力する。上述したようにここで実施する情報処理の内容や出力データの種類は特に限定されない。例えばロボットの正面にガラス窓が存在することが判明したら、方向転換するような制御信号を送信してもよいし、検出された透明物体を含む被写体を把持するような制御信号を送信してもよい。
または物体の存在を提示する画像や音声を生成し表示装置に出力してもよい。あるいは検出された被写体を仮想オブジェクトに置き換えるなどして仮想現実、拡張現実を表した表示画像を生成し表示装置に出力してもよい。この際、画像解析部54が取得した法線ベクトル分布に基づき、被写体の形状や姿勢に合致するように仮想オブジェクトを描画してもよい。画像取得部50がステレオ画像のデータを取得する場合は、それを用いて被写体までの距離を求め出力データに反映させてもよい。ステレオ画像から対応点を抽出し、画像平面での位置のずれから三角測量の原理により被写体までの距離を取得する技術は広く知られている。
そのようにして得られた対応点ごとの距離情報に、画像解析部54が取得した法線ベクトルの情報を統合し、より詳細に距離情報を取得してもよい。出力データ生成部56はさらに、被写体検出部62が仮定した面の存在を確認するのに必要な情報も出力する。具体的には、撮像装置12を適切な位置に移動させ撮影させるための制御信号を生成してロボット4へ送信する。あるいは撮像装置12を装着または把持したユーザに、移動方向や撮影タイミングを指示するための画像や音声を生成して表示装置やスピーカに送信してもよい。
図10は、表面仮定部60が被写体の表面を仮定する手法を説明するための図である。図7で示したように、被写体の面160a、160bが検出され、法線ベクトルn1、n2が求められたとする。例えばあらかじめ設定したしきい値より大きい偏光度が得られる領域を「検出された」面160a、160bと定める。表面仮定部60は、その間の領域162に面が存在する可能性を評価する。定性的には図7で示したように、撮像装置12の光軸oとのなす角度が小さい方向に、検出された面160a、160bを延長してなる面の存在を推定する。
例えば図示するように、検出された面160a、160bで法線ベクトルn1、n2が同一である場合、またはその変化の割合がしきい値より小さい場合に、その間の領域162に面があると推定する。この場合、法線ベクトルの分布を周知の演算手法で補間することにより面の形状を仮定できる。または検出された面160a、160bから領域162にかけて偏光度が連続していると見なせる場合に面の存在を仮定してもよい。あるいは窓枠のような不透明物体が、検出された面160a、160bから領域162に渡って近傍に存在することをカラー画像から導出し、その連続性から面の存在を推定してもよい。
さらに図示するように、カラー画像における像の歪み164や、鏡面ハイライト166の少なくともどちらかを確認して、面の存在やその形状を推定してもよい。像の歪み164を利用した推定としては例えば、1つの被写体の像167の部分的な歪み168の状態を、歪みのない部分から推定することにより、当該被写体の手前に、領域162に渡って透明物体が存在することを推定する。また歪みの度合いから面の形状を推定する。
あるいは被写体の像167からテレビやテーブルなど物の種類が推定できる場合、その本来の形状からの差分をとることにより歪みの有無や形状を推定してもよい。このため、物の種類、あるいはそれを導出するための色やサイズなどと、本来の形状とを対応づけたデータベースをあらかじめ準備しておいてもよい。テレビやテーブルといった、空間に備え付けられた物を事前に撮影しておき、運用時に撮影した画像との差分に基づき像の歪みを検出してもよい。
鏡面ハイライト166を利用した推定としては、輝度がしきい値以上の強い反射光の像(ハイライト)170が領域162に検出された場合、そこに面があると推定する。また実空間において撮像装置12に対する光源172の位置を別途取得し、ハイライト170の形状やサイズとの関係に基づき面の形状を推定してもよい。光源の位置とオブジェクトの形状を既知としてハイライトを描画する技術はコンピュータグラフィクスの分野では広く知られている。
これを利用して、光源の位置と鏡面ハイライトの位置や形状を既知とすることで、被写体の形状を逆演算により求めることができる。このような手法はインバースレンダリングとして知られている。ここで光源の位置は次の手法の少なくともいずれかにより取得できる。
1.光源自体を撮影する
2.光源が映る色や材質の球体を被写空間に置く
3.形状が既知の被写体における鏡面ハイライトを利用する
4.被写空間にいる人の瞳への映り込みを利用する
1.光源自体を撮影する
2.光源が映る色や材質の球体を被写空間に置く
3.形状が既知の被写体における鏡面ハイライトを利用する
4.被写空間にいる人の瞳への映り込みを利用する
1は、撮像装置12を搭載したロボットを制御するか、ユーザにその旨を指示し、光源自体を撮影することで、そのときの撮影方位から、撮像装置12との位置関係を取得する手法である。光源のおよその位置が未知の場合でも、全方位の画像を撮影すればいずれは光源を撮影できる。2は、情報処理の開始にあたり被写空間に、光源が映るような球体を設置するようユーザに規則づけておき、球面上の像に基づき光源の位置を取得する手法である。例えば球体を鏡のような材質とすることで、光源の像を明瞭に映すことができる。
3は、銀色の球体の代わりに、被写空間に存在する、鏡面反射する既知の形状の物を利用する手法である。例えば撮影画像において、領域162以外の領域で鏡面ハイライトが観測されたら、当該ハイライトを生じさせている物体の3次元形状を特定する。そしてハイライトの形状や位置に基づき光源の位置を特定する。撮影画像における物体の像の形状から3次元形状を特定するため、上述したように両者を対応づけたデータベースを利用してもよい。あるいは表示装置を介してユーザにその像を示し、物の種類や形状を入力させるようにしてもよい。
4は、それらの物の代わりに人の眼球を利用する手法である。この場合、撮影画像から人の顔を既存技術により検出し、そのうちの瞳の像におけるハイライトから光源の位置を特定する。撮像装置12自体に光源を取り付ける場合や、光源の配置が既知の室内で撮像装置12の位置や姿勢を内部のセンサなどで継続して計測する場合などは、より容易に光源の位置を取得できる。表面仮定部60はこれまで述べた少なくともいずれかの手段により、未検出の領域162における面164やその法線ベクトルを仮定する。
図11は、被写体検出部62が撮像装置12を移動させることにより、仮定された面の存在を確認する手法を説明するための図である。同図は図7の(a)で示したのと同じケースを示している。すなわち撮像装置12aの位置における撮影画像から、観測点152aを含む面160aと、面160bが検出され、その間に、それらに続く平面の存在が仮定されたとする。この場合、被写体検出部62は、仮定された平面について、しきい値より大きい偏光度が得られる位置および向きに撮像装置12を移動させ、再度撮影するようにロボットやユーザを誘導する。
図示する例では、撮像装置12aを撮像装置12bの位置へ移動させている。これにより、観測点152bからの光線と法線n2とのなす角θ5が増加し、偏光度も増加する。結果として高い精度で法線ベクトルを得ることができる。すなわち被写体検出部62は、仮定された面上の各位置における法線ベクトルとそこからの光線とのなす角θが所定の範囲に入る位置および向きに撮像装置12を移動させる。例えば0.5程度以上の偏光度を得たいとき、0.6rad<θ<1.3radとなるように撮像装置12を移動させればよい。
仮定した面のうち、一度の移動で上記条件を満たせない領域が存在する場合は、複数回に分けて撮像装置12の移動と撮影を繰り返し、偏光度や法線ベクトルを取得していく。偏光度が高くなり有意な法線ベクトルが得られる場合、そこに被写体の面が存在することを結論づけることができる。そのように撮像装置12を移動させても偏光度に変化がない場合、そこに面はないと結論づけることができる。撮像装置12の移動や撮影は、被写体検出部62が出力データ生成部56を介してロボット4に制御信号を送信することで実現してもよいし、移動方向や撮影タイミングを指示する画像や音声を表示装置に送信しユーザに提示することで実現してもよい。
図12は、様々な被写体形状に対し撮像装置12を移動させて面を検出する様子を示している。(a)は図7の(b)で示した円筒状の被写体150bを対象としている。上述のとおり撮像装置12cの位置からの撮影画像に基づき、面174a、174bが検出される。これに対し表面仮定部60は、点線で示すように、それらに続く平面の存在を仮定する。すると被写体検出部62は、仮定された面上の各位置における法線ベクトルとそこからの光線とのなす角が所定の範囲に入る位置および向きに撮像装置12を移動させる。移動後の撮像装置12dが撮影した画像によれば、グレーで示したように未検出であった面が検出される。結果として円筒状の被写体150bの面全体を検出できる。
(b)は任意形状の被写体150cを対象とした様子を模式的に示している。例えば撮像装置12eの位置からの撮影画像に基づき、面174cが検出される。これに対し、表面仮定部60は、点線で示すように、それに続く平面の存在を仮定する。すると被写体検出部62は、仮定された面上の各位置における法線ベクトルとそこからの光線とのなす角が所定の範囲に入る位置および向きに撮像装置12を移動させる。移動後の撮像装置12fが撮影した画像によれば、グレーで示したように未検出であった面が検出される。結果として任意形状の被写体150cの面全体を検出できる。
図13は、被写体検出部62が撮像装置12を移動させることにより、仮定された面の存在を確認する別の手法を説明するための図である。この態様では表面仮定部60が仮定した面176に対し角度を変化させながら動画撮影する。例えば面176の少なくともいずれかの位置178を中心とする円弧上に、その法線ベクトルnから双方向に所定角度θcの範囲、すなわち角度2θcだけ撮像装置12を移動させながら撮影する。透明物体の面に対しそのように撮像装置12を移動させながら撮影すると、光軸と面のなす角度が小さいうちは鏡面反射した手前の物が写り、当該角度が90°に近づくと透過光により背後の物が写る、といった像の変化が生じやすい。
この態様ではそのような状態遷移により、面を仮定した領域の像が変化したとき、透明物体が存在すると判定する。この場合も被写体検出部62は出力データ生成部56を介して、面に対する角度が変化するように撮像装置12を移動させながら、動画撮影するようにロボット4へ制御信号を送信する。あるいはユーザにそのように指示するための画像や音声を生成し、表示装置へ送信する。画像取得部50はそれに応じて撮影された動画像のデータを取得する。
被写体検出部62は当該動画像のうち、移動の始点における撮影画像のスナップショットを取得しておく。面176に透明物体が存在すれば、反射により手前にある「シーンA」の像が当該面に映り込んでいる可能性が高い。そして撮像装置12を移動させていく過程で面176に映る像が変化したら、それは面176の背後にある「シーンB」が透過した像であり、反射から透過への状態遷移が生じた可能性が高い。したがってこの時点で、面176には透明物体が存在すると判定できる。さらに撮像装置12を移動させ、再度「シーンA」が映ったら、透過から反射への状態遷移が生じており、ひいては面176には透明物体が存在する確度がさらに高くなる。
像が変化したことは、最初に取得したスナップショットとの比較により判定できる。すなわちスナップショットに対し画角の変化以外の変化が得られたら、映り込みがシーンAからシーンBへ像が変化したと判定できる。撮像装置12を移動させても、画角の変化以外の変化が見られない場合は、仮定された面176に透明物体がないと結論づけられる。この態様は、手前にある物が反射している状態をあえて作り出すことにより、透明物体の存在の根拠としている。利用する画像は偏光画像でもよいしカラー画像でもよい。
図14は、被写体検出部62がs偏光、p偏光の割合を評価することで、仮定された面の存在を確認する手法を説明するための図である。この例では、仮定された面の背景にある物や光源の状態を既知としている。例えば透明物体などが置かれていない室内の状態を事前に撮影しておき、周囲の物体の色、形状、サイズ、光源の位置などを取得しておく。図の(a)は、仮定された面180の背景として、黒い物体、すなわちアルベドが所定値より低い物体182が存在する場合を示している。この場合、仮定された面180に透明物体があれば、撮像装置12には主に、面180において鏡面反射した光が入射する。
鏡面反射光は上述のとおりs偏光が支配的となる。物体182が本来、拡散反射が支配的な材質で形成されており、主にp偏光が観測されるべきところ、実際には主にs偏光が観測された場合、物体182の前に透明物体が存在することを判定できる。同様の理論で、仮定された面180の背景が暗闇である場合も、主にs偏光が観測されればそこにガラス窓などの透明物体があることを判定できる。
上述のとおりs偏光は入射面に垂直に振動する光であるため、推定された面の法線から得られる入射面に対し、最大輝度を与える偏光方位が90°ずれていれば、s偏光が優位と結論づけられる。(b)は、仮定された面180の背景として環境光など自然光が支配的な場合を示している。この場合、仮定された面180に透明物体があれば、撮像装置12には主に、面180を透過した光が入射する。元々偏光度が0に近い自然光であっても、透明物体を透過することによりp偏光が支配的な部分偏光となる。
したがって本来、無偏光が観測されるべきところ、実際には主にp偏光が観測された場合、面180にガラス窓などの透明物体があることを判定できる。また面180の背景として、アルベドが所定値より高く鏡面反射する物体184が存在し、主にs偏光が観測されるべきところ、実際には主にp偏光が観測された場合も、物体184の前に透明物体が存在することを判定できる。このとき、仮定した面の法線から得られる入射面と同じ角度で、最大輝度を与える偏光方位が得られれば、p偏光が優位と結論づけられる。
図14の例は、背後にある物が本来有する反射特性と、透明物体がある場合の反射光あるいは透過光による偏光状態との間に差がある場合を想定し、当該差を利用して透明物体の有無を判定した。一方、同じ透明物体での反射光と透過光を同時に観測すれば、背後にある物の材質を限定せずに透明物体の有無を判定できる。図15は、反射光と透過光を同時に観測できる環境で透明物体の有無を判定する手法を説明するための図である。
同図上段は被写体として、背景190とその手前にある平板状の透明物体192を示している。背景190は説明のため、上半分を白(例えばアルベドが所定値より高い物体がある)、下半分を黒(例えばアルベドが所定値より低い物体がある)としている。また撮像装置12側からは一様な光が照射されているとする。同図下段はその状態を撮像装置12により撮影したカラー画像194、当該画像の平面に対応する偏光度の分布196、および偏光(p偏光/s偏光)の分布198を示している。3つの画像(分布)には、透明物体192に対応する領域の境界を点線で示している。
上述のとおり背景が白い、例えばアルベドが所定値より高い物体がある場合、そこからの光が透明物体を透過する。背景が黒い、例えばアルベドが所定値より低い物体がある場合、手前からの光が反射する。カラー画像194ではそのような差や透明物体の有無による差はほぼ表れず、上半分が白く、下半分が黒い像が得られる。偏光度の分布196によれば、透明物体192を反射した光が到達する領域202において偏光度が大きく、透明物体192を透過した光が到達する領域200において、偏光度が領域202より小さい。これは図5に示したように、天頂角によらず鏡面反射の偏光度が拡散反射の偏光度より大きいことに起因する。
なお図示する例では、透明物体192の平面状の表面が撮像装置12の撮像面に対し傾きを有することにより、ある程度の偏光度が得られるとしている。このため領域200、202以外の領域においては、偏光度がさらに低くなっている。一方、偏光の分布198によれば、透明物体192を透過した光が到達する領域200においてp偏光が支配的となり、透明物体192を反射した光が到達する領域202においてs偏光が支配的となる。それ以外の領域では偏光度が小さいためp偏光とs偏光の割合が明確となりにくい。これらの性質を利用して透明物体の有無を判定する場合、次の2つの条件を用いる。
(1)カラー画像で輝度値が所定値より高い領域(例:白い領域)において、偏光度が所定値より高くp偏光が支配的である
(2)カラー画像で輝度値が所定値より低い領域(例:黒い領域)において、偏光度が所定値より高くs偏光が支配的である
ここで(1)と(2)の輝度値および偏光度の基準となる「所定値」は全て、それぞれ独立に設定してよい。そして上記(1)と(2)が同時に満たされるとき透明物体192があると判定する。
(2)カラー画像で輝度値が所定値より低い領域(例:黒い領域)において、偏光度が所定値より高くs偏光が支配的である
ここで(1)と(2)の輝度値および偏光度の基準となる「所定値」は全て、それぞれ独立に設定してよい。そして上記(1)と(2)が同時に満たされるとき透明物体192があると判定する。
なお背景におけるアルベドの差は図示するように領域が明確に分かれている物を準備してもよいし、アルベドが所定値より高いテーブルとアルベドが所定値より低いテレビなど被写空間にある物を利用してもよい。照明がある部分と暗闇の部分などでもよい。いずれにしろ被写体検出部62は、表面仮定部60により面が仮定された領域において、背景にある物のアルベドが高い部分と低い部分が撮影され、かつ偏光度が所定値以上得られるように、撮像装置12の位置や姿勢を調整することが望ましい。
図16は、透明物体の反射光と透過光を同時に観測できる環境で透明物体の有無を判定する別の例を示している。この例では上段に示すように、背景210とその手前にある円筒状の透明物体212を撮影する。背景210や光源の環境は図15のケースと同様である。同図下段はそのとき撮影されたカラー画像214、当該画像の平面に対応する偏光度の分布216、および偏光(p偏光/s偏光)の分布218を示している。
この場合もカラー画像214では背景210を反映し、上半分が白く、下半分が黒い像が得られる。偏光度の分布216によれば、透明物体212を反射した光が到達する領域の一部領域220において偏光度が大きく、透明物体212を透過した光が到達する領域の一部領域222において、偏光度が領域220より小さい。またその他の領域では偏光度がさらに低くなる。反射あるいは透過した光が到達する領域のうち一部の領域のみ偏光度が高くなるのは、図5に示すように天頂角による依存性があるためである。
また偏光度が得られている領域のうち、透過光の領域222と比較し、反射光の領域220の幅が広いのは、図5に示すように、同じ天頂角の範囲でも鏡面反射の方が、高い偏光度が得られる範囲が広いためである。一方、偏光の分布218によれば、透明物体212を透過した光が到達する領域の一部領域222においてp偏光が支配的となり、透明物体212を反射した光が到達する領域の一部領域220においてs偏光が支配的となる。
それ以外の領域では偏光度が小さいためp偏光とs偏光の割合が明確となりにくい。これらの性質を利用して透明物体の有無を判定する場合、次の2つの条件のいずれかを用いる。
(1)カラー画像で輝度値が所定値より高い領域(例:白い領域)において、偏光度が所定値より高くp偏光が支配的な所定形状の領域がある
(2)カラー画像で輝度値が所定値より低い領域(例:黒い領域)において、偏光度が所定値より高くs偏光が支配的な所定形状の領域がある
(1)カラー画像で輝度値が所定値より高い領域(例:白い領域)において、偏光度が所定値より高くp偏光が支配的な所定形状の領域がある
(2)カラー画像で輝度値が所定値より低い領域(例:黒い領域)において、偏光度が所定値より高くs偏光が支配的な所定形状の領域がある
ここで(1)と(2)の輝度値および偏光度の基準となる「所定値」は全て、それぞれ独立に設定してよい。上記(1)および(2)の少なくとも一方を満たす場合、当該領域が透明物体212の縁部分の像であり、その間に透明物体があると判定する。ここで「所定形状」は、想定される透明物体の形状に基づきあらかじめ定義しておく。図示する円筒状の物体の場合、アスペクト比が所定の条件を満たす矩形または略矩形の形状とする。また領域の向きによって円筒の向きも判明する。この態様においても被写体検出部62は、背景にある物のアルベドが高い部分と低い部分が撮影されるように、撮像装置12の位置や姿勢を調整することが望ましい。
次に、以上述べた構成によって実現できる動作について説明する。図17は情報処理装置10が、撮影画像を用いて被写体を検出する処理の手順を示すフローチャートである。このフローチャートは、撮像装置12が偏光画像を含む被写空間の画像を撮影している状態で開始する。まず情報処理装置10の画像取得部50は、偏光画像を含む撮影画像のデータを取得する(S10)。そして画像解析部54の法線取得部58は、少なくとも偏光画像を用いて一般的な手法で被写体を検出する(S12)。具体的には上述の手順により、偏光画像の輝度特性に基づき偏光度や法線ベクトルの分布を求める。
法線取得部58はこの際、カラー画像を用いて色情報に基づき被写体の像の領域を抽出してもよい。またステレオ画像を用いて被写体までの距離を求めてもよい。次に表面仮定部60は、S10において検出された面から、撮像装置12の光軸に対する角度が小さくなる方向に延長するような面の存在を仮定する(S14)。具体的には上述のとおり、偏光度や法線ベクトルの分布、被写体までの距離、枠など周囲にある物の像などについて、連続性があると判定できる所定の条件を満たしたとき、未検出な面が存在する確率が高いと判定する。
次に表面仮定部60は、仮定した面の法線ベクトルを推定する(S16)。この処理には図10に示した像の歪みや鏡面ハイライトの位置および形状などを利用する。あるいは検出済みの面の法線ベクトルを補間してもよい。次に被写体検出部62は、仮定した面が実際に存在するか否かを確認する(S18)。すなわち、撮像装置12の位置や姿勢を変化させ、しきい値より大きい偏光度が得られる範囲で再度撮影された複数方位の偏光画像を用いて、法線ベクトルの取得を試みる。
または仮定した面を異なる角度から連続して撮影することにより、当該面の領域に写る像の変化の有無を確認する。あるいは偏光度や偏光の状態に基づき、透明物体の透過光や反射光であるか否かを特定する。被写体検出部62はそれらの手法の少なくともいずれかにより、仮定した面に実際に面が存在するか否かを確定させる。なおS18において補間処理などにより透明物体の法線ベクトルを取得すれば、S16において推定する法線ベクトルは厳密なものでなくてよい。
出力データ生成部56は、確定された結果、すなわち被写体全体の存在、その位置、姿勢、法線ベクトルの分布などに基づき所定の情報処理を実施し、その結果を出力データとして生成したうえロボット4や表示装置に適宜出力する(S20)。ユーザからの要求などにより処理を停止させる必要がなければ(S22のN)、S10からS20までの処理を繰り返す。処理を停止させる必要に応じて全処理を終了させる(S22のY)。
以上述べた本実施の形態によれば、撮影画像を用いた物体検出技術において、偏光画像を利用して物体の法線ベクトルを求める。この際、偏光度が十分に得られず検出ができなかった面の存在を仮定する。そして推定した法線ベクトルを利用して所定の対策をとることにより、仮定した面の存在を確認する。具体的には、撮像装置を好適な位置に移動させて撮影したり、透明物体による反射光/透過光であるか否かを偏光度や偏光状態から特定したりする。
これにより、一般的なカラー画像では検出しづらい光線透過率の高い物体も抜けなく検出することができ、物体の種類を限定することなく、その検出結果を情報処理に活かすことができる。結果として、例えばロボット制御、電子コンテンツ処理、検品処理、監視などの精度や汎用性を高めることができる。
以上、本発明を実施の形態をもとに説明した。上記実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
10 情報処理装置、 12 撮像装置、 23 CPU、 24 GPU、 26 メインメモリ、 50 画像取得部、 52 画像データ記憶部、 54 画像解析部、 56 出力データ生成部、 58 法線取得部、 60 表面仮定部、 62 被写体検出部。
以上のように本発明は、ロボット制御装置、電子コンテンツ処理装置、携帯端末、監視カメラシステム、検品装置など各種情報処理装置およびシステムに利用可能である。
Claims (15)
- 複数の方位の偏光画像のデータを撮像装置から取得する画像取得部と、
前記偏光画像を用いて法線ベクトルを取得することにより被写体の面を検出する法線取得部と、
検出された面から連続する、検出されていない面の存在を仮定する表面仮定部と、
仮定された面に推定される法線ベクトルを利用して、当該面の有無を確認し最終的な被写体の面を導出する被写体検出部と、
導出された被写体の面に係る情報に基づき出力データを生成し出力する出力データ生成部と、
を備えたことを特徴とする情報処理装置。 - 前記画像取得部は、前記仮定された面に推定される法線と前記撮像装置への光線とのなす角度が所定範囲に入った状態で再度撮影された複数方位の偏光画像のデータをさらに取得し、
前記被写体検出部は、当該偏光画像を用いて法線ベクトルの取得を試みることにより、前記仮定された面の有無を確認することを特徴とする請求項1に記載の情報処理装置。 - 前記出力データ生成部は、前記撮像装置が前記所定範囲に入った状態とするための制御信号を、前記撮像装置を搭載したロボットに送信するか、当該状態とするためのユーザへの指示を表すデータを表示装置に送信することを特徴とする請求項2に記載の情報処理装置。
- 前記画像取得部は、前記撮像装置が前記仮定された面に対する角度を変化させながら撮影したカラー画像または偏光画像の動画像をさらに取得し、
前記被写体検出部は、当該動画像において、前記仮定された面の領域に、反射と透過の状態遷移による像の変化が確認されたとき、当該面に透明物体があると判定することを特徴とする請求項1に記載の情報処理装置。 - 前記被写体検出部は、前記仮定された面に対応する画像平面上の領域における偏光輝度の特性に基づき、当該面に存在する透明物体からの光か、当該面の背後にある物体からの光かを区別することにより、当該面における透明物体の有無を判定することを特徴とする請求項1に記載の情報処理装置。
- 前記被写体検出部は、前記仮定された面の領域で画像の輝度値が所定値より低い場合に、前記透明物体から鏡面反射した光であるか否かを前記偏光輝度の特性に基づき確認することにより、前記区別を実現することを特徴とする請求項5に記載の情報処理装置。
- 前記被写体検出部は、前記仮定された面の領域で画像の輝度値が所定値より高い場合に、前記透明物体を透過した光であるか否かを前記偏光輝度の特性に基づき確認することにより、前記区別を実現することを特徴とする請求項5または6に記載の情報処理装置。
- 前記被写体検出部は、前記仮定された面に対応する画像平面上の領域に、偏光度が所定値より高い所定形状の領域が含まれるとき、当該領域に対応する縁部分を有する透明物体の存在を判定することを特徴とする請求項1および5から7のいずれかに記載の情報処理装置。
- 前記表面仮定部は、被写空間に存在する物体の像の歪みに基づき、仮定する透明物体の面を決定することを特徴とする請求項1から8のいずれかに記載の情報処理装置。
- 前記表面仮定部は、前記物体の本来の形状を、当該物体の種類に基づきデータベースを用いて特定することにより、前記像の歪みの有無を推定することを特徴とする請求項9に記載の情報処理装置。
- 前記表面仮定部は、前記撮像装置により撮影された鏡面ハイライトの位置および形状と光源の位置とに基づき、仮定する透明物体の面を決定することを特徴とする請求項1から8のいずれかに記載の情報処理装置。
- 前記表面仮定部は、光源を撮影した際の撮影方位または、被写空間に存在する形状が既知の物体の表面への映り込みに基づき、前記撮像装置と前記光源の位置関係を特定することを特徴とする請求項11に記載の情報処理装置。
- 前記表面仮定部は、被写体の色情報に基づき検出した不透明物体が、前記検出された面から及ぶ範囲に基づき、仮定する透明物体の面を決定することを特徴とする請求項1から8のいずれかに記載の情報処理装置。
- 複数の方位の偏光画像のデータを撮像装置から取得するステップと、
前記偏光画像を用いて法線ベクトルを取得することにより被写体の面を検出するステップと、
検出された面から連続する、検出されていない面の存在を仮定するステップと、
仮定された面に推定される法線ベクトルを利用して、当該面の有無を確認し最終的な被写体の面を導出するステップと、
導出された被写体の面に係る情報に基づき出力データを生成し出力するステップと、
を含むことを特徴とする、情報処理装置による物体検出方法。 - 複数の方位の偏光画像のデータを撮像装置から取得する機能と、
前記偏光画像を用いて法線ベクトルを取得することにより被写体の面を検出する機能と、
検出された面から連続する、検出されていない面の存在を仮定する機能と、
仮定された面に推定される法線ベクトルを利用して、当該面の有無を確認し最終的な被写体の面を導出する機能と、
導出された被写体の面に係る情報に基づき出力データを生成し出力する機能と、
をコンピュータに実現させることを特徴とするコンピュータプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2018/034293 WO2020054076A1 (ja) | 2018-09-14 | 2018-09-14 | 情報処理装置および物体検出方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020054076A1 JPWO2020054076A1 (ja) | 2021-08-30 |
JP6934575B2 true JP6934575B2 (ja) | 2021-09-15 |
Family
ID=69776907
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020546669A Active JP6934575B2 (ja) | 2018-09-14 | 2018-09-14 | 情報処理装置および物体検出方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11776251B2 (ja) |
JP (1) | JP6934575B2 (ja) |
WO (1) | WO2020054076A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11771982B2 (en) * | 2020-02-14 | 2023-10-03 | Real Tech, Llc. | Systems and methods for augmented reality role playing entertainment |
JP2023033942A (ja) * | 2021-08-30 | 2023-03-13 | オムロン株式会社 | 撮像システムおよびその制御方法 |
JP2023034025A (ja) * | 2021-08-30 | 2023-03-13 | オムロン株式会社 | 撮像システムおよびその制御方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2295606A1 (en) | 1998-05-19 | 1999-11-25 | Sony Computer Entertainment Inc. | Image processing apparatus and method, and providing medium |
US7948514B2 (en) | 2008-06-02 | 2011-05-24 | Panasonic Corporation | Image processing apparatus, method and computer program for generating normal information, and viewpoint-converted image generating apparatus |
JP6456156B2 (ja) | 2015-01-20 | 2019-01-23 | キヤノン株式会社 | 法線情報生成装置、撮像装置、法線情報生成方法および法線情報生成プログラム |
JP6566749B2 (ja) * | 2015-07-01 | 2019-08-28 | 株式会社ソニー・インタラクティブエンタテインメント | 撮像素子、イメージセンサ、および情報処理装置 |
JP2017169803A (ja) * | 2016-03-23 | 2017-09-28 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP6697986B2 (ja) * | 2016-09-07 | 2020-05-27 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および画像領域分割方法 |
JP6422924B2 (ja) * | 2016-09-12 | 2018-11-14 | 株式会社ソニー・インタラクティブエンタテインメント | 撮像装置および被写体情報取得方法 |
-
2018
- 2018-09-14 JP JP2020546669A patent/JP6934575B2/ja active Active
- 2018-09-14 WO PCT/JP2018/034293 patent/WO2020054076A1/ja active Application Filing
- 2018-09-14 US US17/273,780 patent/US11776251B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20210319218A1 (en) | 2021-10-14 |
US11776251B2 (en) | 2023-10-03 |
JPWO2020054076A1 (ja) | 2021-08-30 |
WO2020054076A1 (ja) | 2020-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4435865B2 (ja) | 画像処理装置、画像分割プログラムおよび画像合成方法 | |
JP6799155B2 (ja) | 情報処理装置、情報処理システム、および被写体情報特定方法 | |
US20210342578A1 (en) | Polarization Imaging for Facial Recognition Enhancement System and Method | |
JP6934575B2 (ja) | 情報処理装置および物体検出方法 | |
JP6799154B2 (ja) | 情報処理装置および材質特定方法 | |
JP2018041277A (ja) | 情報処理装置および対象物認識方法 | |
JP6933776B2 (ja) | 情報処理装置および被写体情報取得方法 | |
JP7039616B2 (ja) | 情報処理装置および表面粗さ取得方法 | |
JP2016532217A (ja) | グリントにより眼を検出する方法および装置 | |
JP6851475B2 (ja) | 情報処理装置および情報処理方法 | |
JP6934565B2 (ja) | 情報処理装置および被写体情報取得方法 | |
JP7101250B2 (ja) | 情報処理装置およびプレイフィールド逸脱検知方法 | |
US11173394B2 (en) | Information processing apparatus and normal line information acquisition method | |
JP2001025032A (ja) | 動作認識方法、動作認識装置及び動作認識プログラムを記録した記録媒体 | |
JP2001025033A (ja) | 動作認識方法、動作認識装置及び動作認識プログラムを記録した記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201215 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210803 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210823 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6934575 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |