JP2014016792A - 画像処理装置および方法、並びにプログラム - Google Patents
画像処理装置および方法、並びにプログラム Download PDFInfo
- Publication number
- JP2014016792A JP2014016792A JP2012153696A JP2012153696A JP2014016792A JP 2014016792 A JP2014016792 A JP 2014016792A JP 2012153696 A JP2012153696 A JP 2012153696A JP 2012153696 A JP2012153696 A JP 2012153696A JP 2014016792 A JP2014016792 A JP 2014016792A
- Authority
- JP
- Japan
- Prior art keywords
- face
- depth map
- face area
- image
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】より自然で立体感のある3D画像を得ることができるようにする。
【解決手段】検出結果安定化部は、2D画像から検出された顔領域の位置およびサイズが、2D画像に対するシーン認識結果から推定される構図に対して不自然か否かを判定し、不自然である場合には、顔領域の検出結果は誤検出であるとする。また、顔領域の位置およびサイズが不自然でない場合、簡易奥行きマップ生成部は、顔領域の位置およびサイズから定まる半楕円体形状のモデルに基づいて簡易奥行きマップを生成する。さらに平滑化フィルタ処理部は、簡易奥行きマップに対してエッジ保存型の平滑化フィルタでフィルタ処理を施し、顔奥行きマップを生成する。視差生成部は、顔奥行きマップを用いて2D画像を3D画像に変換する。本技術は、画像処理装置に適用することができる。
【選択図】図1
【解決手段】検出結果安定化部は、2D画像から検出された顔領域の位置およびサイズが、2D画像に対するシーン認識結果から推定される構図に対して不自然か否かを判定し、不自然である場合には、顔領域の検出結果は誤検出であるとする。また、顔領域の位置およびサイズが不自然でない場合、簡易奥行きマップ生成部は、顔領域の位置およびサイズから定まる半楕円体形状のモデルに基づいて簡易奥行きマップを生成する。さらに平滑化フィルタ処理部は、簡易奥行きマップに対してエッジ保存型の平滑化フィルタでフィルタ処理を施し、顔奥行きマップを生成する。視差生成部は、顔奥行きマップを用いて2D画像を3D画像に変換する。本技術は、画像処理装置に適用することができる。
【選択図】図1
Description
本技術は画像処理装置および方法、並びにプログラムに関し、特に、より自然で立体感のある立体画像を得ることができるようにした画像処理装置および方法、並びにプログラムに関する。
近年、立体表示(3D表示)可能な液晶ディスプレイやPDP(Plasma Display Panel)が普及し始めているが、ネイティブの3Dコンテンツが不足しているのが現状である。
そこで、通常の2D画像(2次元画像)の画像信号を、擬似的に3D画像の画像信号に変換する技術により、3Dコンテンツの不足を補う技術が求められている。
例えば、そのような技術として、基本となる3種類のシーン構造のそれぞれについて、奥行き値を示す基本奥行きモデルを用意し、それらの基本奥行きモデルを合成することで、3D画像の画像信号を生成する技術が提案されている(例えば、特許文献1参照)。この技術では、2D画像の高域成分の評価結果に応じて基本奥行きモデルの合成比率が決定され、合成されて得られたモデルに基づいて、2D画像が3D画像に変換される。
しかしながら、上述した技術では、画像上の人の顔領域を自然な立体感で再現することは困難であった。
本技術は、このような状況に鑑みてなされたものであり、より自然で立体感のある立体画像を得ることができるようにするものである。
本技術の一側面の画像処理装置は、2次元の入力画像に対するシーン認識を行なうシーン認識部と、前記シーン認識の結果に基づいて、前記入力画像からの顔領域の検出結果が誤検出であるか否かを判定する検出結果安定化部と、前記顔領域の検出結果が誤検出でない場合、前記顔領域の検出結果に基づいて、前記顔領域の奥行きを示す顔奥行きマップを生成する顔奥行きマップ生成部と、前記顔奥行きマップに基づいて、前記入力画像を立体画像に変換する視差生成部とを備える。
前記検出結果安定化部には、前記顔領域の位置およびサイズが、前記シーン認識の結果から推定される前記入力画像の構図に対して定まる条件を満たしているか否かを判定することで、前記顔領域の検出結果が誤検出であるか否かを判定させることができる。
画像処理装置には、検出された前記顔領域にある顔の形状が半楕円体形状であるものとして、前記顔領域の位置およびサイズに基づいて、簡易的な前記顔領域の奥行きを示す簡易奥行きマップを生成する簡易奥行きマップ生成部をさらに設け、前記顔奥行きマップ生成部には、前記簡易奥行きマップおよび前記入力画像に基づいて、前記顔奥行きマップを生成させることができる。
前記顔奥行きマップ生成部には、前記入力画像に対してエッジ検出を行なわせるとともに、前記エッジ検出の結果に基づいて定められたエッジ保存型平滑化フィルタを用いて、前記簡易奥行きマップに対してフィルタ処理を施させることで、前記顔奥行きマップを生成させることができる。
画像処理装置には、前記顔領域の位置およびサイズの時間的な変動を検出することで、前記顔領域の検出の信頼度を算出する信頼度計算部をさらに設け、前記簡易奥行きマップ生成部には、前記信頼度に基づいて前記簡易奥行きマップにより示される奥行きを調整することで、最終的な前記簡易奥行きマップを生成させることができる。
画像処理装置には、前記顔領域の位置およびサイズに対して、前記顔領域の位置およびサイズを時間方向に安定化させるフィルタ処理を施すフィルタ処理部をさらに設け、前記簡易奥行きマップ生成部には、前記フィルタ処理部によりフィルタ処理が施された前記顔領域の位置およびサイズに基づいて、前記簡易奥行きマップを生成させることができる。
本技術の一側面の画像処理方法またはプログラムは、2次元の入力画像に対するシーン認識を行ない、前記シーン認識の結果に基づいて、前記入力画像からの顔領域の検出結果が誤検出であるか否かを判定し、前記顔領域の検出結果が誤検出でない場合、前記顔領域の検出結果に基づいて、前記顔領域の奥行きを示す顔奥行きマップを生成し、前記顔奥行きマップに基づいて、前記入力画像を立体画像に変換するステップを含む。
本技術の一側面においては、2次元の入力画像に対するシーン認識が行なわれ、前記シーン認識の結果に基づいて、前記入力画像からの顔領域の検出結果が誤検出であるか否かが判定され、前記顔領域の検出結果が誤検出でない場合、前記顔領域の検出結果に基づいて、前記顔領域の奥行きを示す顔奥行きマップが生成され、前記顔奥行きマップに基づいて、前記入力画像が立体画像に変換される。
本技術の一側面によれば、より自然で立体感のある立体画像を得ることができる。
以下、図面を参照して、本技術を適用した実施の形態について説明する。
〈第1の実施の形態〉
[本技術の概要について]
まず、本技術の概要について説明する。
[本技術の概要について]
まず、本技術の概要について説明する。
例えば、色や明るさを手がかりとして2D画像を3D画像に変換するよりも、より立体感のある3D画像が得られるように、2D画像から人の顔領域を検出し、その顔領域に応じた奥行きマップに基づいて3D画像を生成する手法が提案されている。奥行きマップは、画像の各領域の奥行きを示す情報であり、これから得ようとする3D画像の被写体が奥行きマップで示される奥行きとなるように、2D画像が3D画像に変換される。
しかしながら、2D画像から顔領域を高精度に検出することは困難であるため、実際の顔領域と、奥行きマップにおける顔領域に対応する領域とに位置ずれが生じてしまい、2D画像から得られる3D画像が不自然な立体感の画像となってしまうことがある。すなわち、人の顔の領域の立体感が不自然になってしまうことがある。また、顔検出で誤検出が生じると、実際には顔の領域ではない領域に、顔領域に応じた奥行きの値をもつ奥行きマップが生成されてしまう。
そこで、本技術では、2D画像に対するシーン認識を利用して、顔検出の精度を向上させる。これにより、安定して高精度な奥行きマップを得ることができ、より自然で立体感のある3D画像を得ることができるようになる。
また、本技術では、顔検出の結果に基づいて簡易的な手法により生成した、大まかな奥行きマップに対して、エッジ保存型の平滑化フィルタ処理を行なうことで、より簡単に高精度な奥行きマップを生成し、自然で立体感のある3D画像を得ることができる。すなわち、実際の顔領域の凹凸と、各領域の奥行きとのずれが少ない奥行きマップを簡単に生成し、より自然で立体感のある3D画像が得られるようにする。
[画像処理装置の構成例]
続いて、本技術を適用した具体的な実施の形態について説明する。図1は、本技術を適用した画像処理装置の構成例を示す図である。
続いて、本技術を適用した具体的な実施の形態について説明する。図1は、本技術を適用した画像処理装置の構成例を示す図である。
画像処理装置11は、顔検出部21、シーン認識部22、検出結果安定化部23、時間安定化部24、簡易奥行きマップ生成部25、平滑化フィルタ処理部26、および視差生成部27から構成される。
画像処理装置11には、入力として2D画像(2次元画像)の画像信号が供給され、画像処理装置11は、入力された2D画像を、右眼用画像と左眼用画像とからなる3D画像の画像信号に変換して出力する。なお、右眼用画像および左眼用画像は、それぞれ立体画像である3D画像を表示するときに、ユーザの右眼および左眼で観察されるように提示される画像である。
顔検出部21は、供給された2D画像から、人の顔領域を検出し、その検出結果として得られた顔領域の位置とサイズ(大きさ)を、検出結果安定化部23に供給する。シーン認識部22は、供給された2D画像に対するシーン認識を行なって、その認識結果を検出結果安定化部23に供給する。
検出結果安定化部23は、シーン認識部22から供給されたシーン認識結果に基づいて、顔検出部21から供給された顔領域の検出結果の安定化処理を行なう。すなわち、検出結果安定化部23は、顔検出部21により検出された顔領域のうち、認識されたシーンから推定される2D画像の構図に対して、不自然な位置やサイズの顔領域を排除し、排除されずに残った顔領域の位置およびサイズを時間安定化部24に供給する。
時間安定化部24は、検出結果安定化部23から供給された顔領域の位置およびサイズに対してフィルタ処理を施し、時間方向に安定化させた顔領域の位置およびサイズを簡易奥行きマップ生成部25に供給する。また、時間安定化部24は、顔領域の位置およびサイズの時間方向の変動を検出することで、検出された顔領域の位置およびサイズの信頼度を算出し、簡易奥行きマップ生成部25に供給する。
簡易奥行きマップ生成部25は、時間安定化部24から供給された顔領域の位置およびサイズと、信頼度とに基づいて、顔領域の奥行きを示す簡易的な奥行きマップである簡易奥行きマップを生成し、平滑化フィルタ処理部26に供給する。
平滑化フィルタ処理部26は、供給された2D画像に基づいて、簡易奥行きマップ生成部25からの簡易奥行きマップに対して、エッジ保存型の平滑化フィルタを用いたフィルタ処理を施し、その結果得られた顔奥行きマップを視差生成部27に供給する。顔奥行きマップは、2D画像における顔領域の奥行きを示す奥行きマップである。
視差生成部27は、供給された2D画像と、平滑化フィルタ処理部26から供給された顔奥行きマップとに基づいて3D画像を生成し、出力する。
[検出結果安定化部の構成例]
次に、画像処理装置11の各部のより詳細な構成について説明する。
次に、画像処理装置11の各部のより詳細な構成について説明する。
図2は、図1の検出結果安定化部23のより詳細な構成例を示す図である。検出結果安定化部23は、判定部51、スイッチ52、およびスイッチ53から構成される。
判定部51は、シーン認識部22からのシーン認識結果と、顔検出部21からの顔領域の位置およびサイズとに基づいて、シーン認識結果により示されるシーンから推定される2D画像の構図に対して、顔領域の位置とサイズが不自然であるか否かを判定する。なお、以下、顔領域の位置とサイズが不自然であるか否かの判定を、顔検出結果の安定化判定とも称することとする。
判定部51は、顔検出結果の安定化判定の結果を示す値として、0または1をスイッチ52およびスイッチ53に供給する。具体的には、顔領域の位置とサイズが不自然であると判定された場合、判定結果を示す値1がスイッチ52とスイッチ53に供給され、顔領域の位置とサイズが不自然でないと判定された場合、判定結果を示す値0がスイッチ52とスイッチ53に供給される。
スイッチ52は、判定部51から供給された顔検出結果の安定化判定の結果に基づいて、顔検出部21から供給された顔領域の位置、または顔領域の位置「0」を時間安定化部24に供給する。また、スイッチ53は、判定部51から供給された顔検出結果の安定化判定の結果に基づいて、顔検出部21から供給された顔領域のサイズ、または顔領域のサイズ「0」を時間安定化部24に供給する。
ここで、値が「0」である顔領域の位置およびサイズは、実質的に2D画像から顔領域が検出されなかったことを示している。検出結果安定化部23では、顔領域の位置やサイズが不自然であり、顔検出結果の安定化判定の結果を示す値が「1」とされた場合、顔領域は検出されなかった、つまり顔領域の誤検出が生じたとされ、顔領域の位置およびサイズを示す値として「0」が出力される。
例えば、シーン認識の結果として、図3に示すように海の風景のシーンが検出された場合、2D画像において、人の顔領域が空の領域である領域A11や、図中、下側の砂浜の端の領域である領域A12で検出されたとする。すなわち、領域A11は、遠景である2D画像の上部の領域であり、領域A12は近景である2D画像の下部の領域である。
このような遠景領域である領域A11や、近景領域である領域A12に、小さいサイズの顔領域が検出された場合、構図として不自然であり、顔領域の検出結果は誤検出である可能性が高い。そこで、顔検出結果の安定化判定では、領域A11や領域A12に小さいサイズの顔が検出された場合など、構図として不自然な位置や大きさの顔が検出された場合には、その検出は誤検出であるとされて除外される。これにより、顔領域の検出精度を向上させることができる。
また、検出結果安定化部23では、顔領域の位置やサイズが不自然ではなく、顔検出結果の安定化判定の結果を示す値が「0」とされた場合には、正しく顔領域が検出されたとされ、顔検出部21から供給された顔領域の位置およびサイズがそのまま出力される。
[時間安定化部の構成例]
図4は、図1の時間安定化部24のより詳細な構成例を示す図である。
図4は、図1の時間安定化部24のより詳細な構成例を示す図である。
時間安定化部24は、フィルタ処理部81、遅延処理部82、減算部83、絶対値計算部84、位置信頼度計算部85、フィルタ処理部86、遅延処理部87、減算部88、絶対値計算部89、サイズ信頼度計算部90、および乗算部91から構成される。
フィルタ処理部81は、検出結果安定化部23のスイッチ52から供給された顔領域の位置に対して、例えばIIR(Infinite Impulse Response)フィルタ等の時間方向の平滑化を行なうフィルタを用いたフィルタ処理を施し、簡易奥行きマップ生成部25に供給する。また、フィルタ処理部81は、フィルタ処理により得られた顔領域の位置を、遅延処理部82および減算部83にも供給する。
遅延処理部82は、フィルタ処理部81から供給された顔領域の位置を、2D画像の1フレーム分の時間だけ遅延させ、減算部83に供給する。減算部83は、フィルタ処理部81から供給された顔領域の位置と、遅延処理部82から供給された顔領域の位置との差分を求め、絶対値計算部84に供給する。
絶対値計算部84は、減算部83から供給された差分の絶対値を求め、位置信頼度計算部85に供給する。位置信頼度計算部85は、絶対値計算部84から供給された顔領域の位置の差分の絶対値(差分絶対値)に基づいて、顔領域の位置の検出結果の信頼度を示す位置信頼度を求め、乗算部91に供給する。
フィルタ処理部86は、検出結果安定化部23のスイッチ53から供給された顔領域のサイズに対して、IIRフィルタ等の時間方向の平滑化を行なうフィルタを用いたフィルタ処理を施し、簡易奥行きマップ生成部25に供給する。また、フィルタ処理部86は、フィルタ処理により得られた顔領域のサイズを、遅延処理部87および減算部88にも供給する。
遅延処理部87は、フィルタ処理部86から供給された顔領域のサイズを、2D画像の1フレーム分の時間だけ遅延させ、減算部88に供給する。減算部88は、フィルタ処理部86から供給された顔領域のサイズと、遅延処理部87から供給された顔領域のサイズとの差分を求め、絶対値計算部89に供給する。
絶対値計算部89は、減算部88から供給された差分の絶対値(差分絶対値)を求め、サイズ信頼度計算部90に供給する。サイズ信頼度計算部90は、絶対値計算部89から供給された顔領域のサイズの差分絶対値に基づいて、顔領域のサイズの検出結果の信頼度を示すサイズ信頼度を求め、乗算部91に供給する。
乗算部91は、位置信頼度計算部85からの位置信頼度と、サイズ信頼度計算部90からのサイズ信頼度とを乗算して、その結果得られた最終的な信頼度を簡易奥行きマップ生成部25に供給する。
このように、時間安定化部24では、検出された顔領域の位置およびサイズを時間方向に安定化(平滑化)させる処理と、顔領域の位置およびサイズの検出結果の信頼度の算出とが行なわれる。
例えば、2D画像から正しく顔領域が検出できたとしても、その顔領域の位置やサイズが時間方向に不安定である場合、その顔領域の検出結果から生成される顔奥行きマップも時間方向に不安定となり、望ましい2D/3D画像変換を期待することができない。すなわち、2D/3D画像変換により得られる3D画像において、各領域の時間方向に対する視差変動が大きくなってしまう。
また、顔領域の検出に長い処理時間を要する場合や、2D画像上において人が動いたり、2D画像を撮影するカメラがパンやズームアウトしたりする場合においても、実際の顔領域の位置と、顔奥行きマップで示される顔領域の位置とにずれが生じてしまう。そうすると、3D画像に違和感が生じてしまう可能性がある。
そこで、時間安定化部24では、フィルタ処理により顔領域の位置およびサイズの時間変動を抑制することで、検出された顔領域の位置およびサイズを時間方向に安定化させ、より自然な立体感の3D画像が得られるようにする。
また、時間安定化部24では、簡易奥行きマップの生成に用いられる、顔領域の位置およびサイズの検出結果の信頼度が算出される。この信頼度の算出に用いられる位置信頼度とサイズ信頼度は、それぞれ顔領域の位置およびサイズの差分絶対値に基づいて算出される。ここで、顔領域の位置およびサイズの差分絶対値は、それぞれ現フレームの2D画像における顔領域の位置およびサイズと、現フレームよりも1フレーム前の2D画像における顔領域の位置およびサイズとの差分絶対値を示している。
したがって、この差分絶対値が大きいほど、顔領域の位置とサイズの時間方向の変動が大きいので、図5に示すように、差分絶対値が大きいほど、位置信頼度もサイズ信頼度も小さくなるようにされる。なお、図5において、縦軸は位置信頼度またはサイズ信頼度の値を示しており、横軸は顔領域の位置またはサイズの差分絶対値を示している。
図中、左側に示すように位置信頼度は0から1までの範囲の値とされ、絶対値計算部84により求められる顔領域の位置の差分絶対値が大きいほど、位置信頼度の値は小さくなる。この例では、差分絶対値が大きくなるにしたがって、位置信頼度が直線的に小さくなっている。
同様に、図中、右側に示すようにサイズ信頼度は0から1までの範囲の値とされ、絶対値計算部89により求められる顔領域のサイズの差分絶対値が大きいほど、サイズ信頼度の値は小さくなる。この例では、差分絶対値が大きくなるにしたがって、サイズ信頼度が直線的に小さくなっている。
したがって、2D画像から検出された顔領域の位置やサイズが急激に変化するほど、信頼度は低くなる。これは、顔領域の位置やサイズが急激に変化する場合には、例えば顔奥行きマップや3D画像を生成する処理が、顔領域の位置やサイズの変化に追いつかず、顔奥行きマップで示される顔領域の位置が、実際の位置とずれてしまう可能性があるからである。
そこで、画像処理装置11は、顔領域の位置やサイズが急激に変化するときには、顔領域の検出の信頼度を低くして、3D画像における視差量が小さくなるように、簡易奥行きマップで示される顔領域の奥行きを調整する。これにより、3D画像の顔領域の立体感が不自然になってしまうことを抑制することができる。
[簡易奥行きマップ生成部の構成例]
また、図6は、図1の簡易奥行きマップ生成部25のより詳細な構成例を示す図である。
また、図6は、図1の簡易奥行きマップ生成部25のより詳細な構成例を示す図である。
簡易奥行きマップ生成部25は、楕円体生成部121および乗算部122から構成される。
楕円体生成部121は、時間安定化部24のフィルタ処理部81およびフィルタ処理部86から供給された顔領域の位置およびサイズに基づいて、簡易奥行きマップを生成し、乗算部122に供給する。乗算部122は、楕円体生成部121から供給された簡易奥行きマップの各画素の画素値に、時間安定化部24の乗算部91から供給された信頼度を乗算することで簡易奥行きマップのゲイン調整を行い、平滑化フィルタ処理部26に供給する。つまり、乗算部122では、簡易奥行きマップにより示される奥行きが調整される。
例えば、図7に示すように、2D画像TP11上に人U11が写っているとする。また、2D画像TP11における人U11の顔部分で、画像処理装置11により顔領域FR11が検出されたとする。ここで、顔領域FR11は、時間安定化部24から出力される顔領域の位置およびサイズから定まる矩形領域である。図7の例では、顔領域FR11は、実際の人U11の顔の領域となっている。
楕円体生成部121は、顔領域FR11を特定する顔領域の位置およびサイズが供給されると、この矩形状の顔領域FR11に対応する簡易奥行きモデルMD11を生成する。すなわち楕円体生成部121では、人U11の頭部はほぼ楕円体形状であるとされて、顔領域FR11内に収まる大きさの楕円体を半分に切って得られる半楕円体形状のモデルが、人U11の顔部分の形状を簡易的に表す簡易奥行きモデルMD11として生成される。
ここで、簡易奥行きモデルMD11は、人U11の顔の簡易的な奥行きを示すモデルであり、簡易奥行きモデルMD11の矢印xの方向および矢印yの方向は、それぞれ2D画像TP11の図中、横方向および縦方向に対応している。また、簡易奥行きモデルMD11の矢印xの方向および矢印yの方向に垂直な方向は、簡易奥行きモデルMD11により示される奥行きを示している。より詳細には、簡易奥行きモデルMD11において、図中、手前側に凸の領域ほど、その領域の奥行き位置が2D画像TP11を観察するユーザから見てより手前側であることを示している。
楕円体生成部121は、顔領域FR11と同じ大きさの矩形領域を簡易奥行きモデルMD11とし、簡易奥行きモデルMD11が半楕円体形状となるように、簡易奥行きモデルMD11の各領域の奥行きを定める。人の顔領域は、細かな凹凸を無視すればほぼ半楕円体形状であるから、半楕円体形状の簡易奥行きモデルMD11は、簡易的に人の顔領域の奥行きを表しているということができる。
楕円体生成部121は、このようにして定めた簡易奥行きモデルMD11の各領域の奥行きの値を、画素の画素値として有する画像を簡易奥行きマップとする。すなわち、簡易奥行きマップの任意の画素の画素値は、その画素と同じ位置にある簡易奥行きモデルMD11の領域の奥行きの値を示している。
このようにして得られた簡易奥行きマップは、2D画像TP11上の顔領域FR11内の各領域の奥行きを示しており、3D画像の生成時には、簡易奥行きマップから得られた顔奥行きマップが顔領域FR11に適用されることになる。
簡易奥行きマップ生成部25では、乗算部122において、楕円体生成部121により生成された簡易奥行きマップの各画素の画素値に、信頼度が乗算されて奥行きの値が調整され、最終的に得られた簡易奥行きマップが平滑化フィルタ処理部26に出力される。したがって、例えば信頼度が0である場合には、実質的に簡易奥行きマップが生成されないことになる。
[平滑化フィルタ処理部の構成例]
さらに、図8は、図1の平滑化フィルタ処理部26のより詳細な構成例を示す図である。
さらに、図8は、図1の平滑化フィルタ処理部26のより詳細な構成例を示す図である。
平滑化フィルタ処理部26は、エッジ検出部151、フィルタ係数調整部152、および平滑化フィルタ部153から構成される。
エッジ検出部151は、供給された2D画像、特に2D画像の顔領域に対してエッジ検出を行い、その検出結果をフィルタ係数調整部152に供給する。
フィルタ係数調整部152は、エッジ検出部151から供給されたエッジの検出結果に基づいて、平滑化フィルタ部153で行なわれるフィルタ処理に用いられるフィルタ係数を調整し、平滑化フィルタ部153に供給する。例えば、フィルタ係数調整部152は、顔領域におけるエッジ部分と同じ位置にある、簡易奥行きマップの領域では奥行きが平滑化されないように、フィルタ係数を調整する。つまり、顔領域のエッジ部分が保存されるように、フィルタ係数が調整される。
平滑化フィルタ部153は、フィルタ係数調整部152から供給されたフィルタ係数により定まるエッジ保存型平滑化フィルタを用いて、簡易奥行きマップ生成部25の乗算部122から供給された簡易奥行きマップにフィルタ処理を施す。また、平滑化フィルタ部153は、フィルタ処理の結果得られた顔奥行きマップを、視差生成部27に供給する。
例えば簡易奥行きマップは、半楕円体形状のモデルにより顔領域の奥行きを表現した、簡易的な奥行きマップであるため、簡易奥行きマップでは顔領域に含まれる人の鼻や瞼、口など、人の顔の細かな凹凸は表現されていない。そのため、簡易奥行きマップをそのまま用いて2D画像を3D画像に変換すると、人の顔の部分の立体感が不自然になってしまう。
そこで、平滑化フィルタ処理部26で、エッジ検出に応じたフィルタ係数に基づいて、エッジ保存型平滑化フィルタにより簡易奥行きマップにフィルタ処理を施し、顔奥行きマップとすることで、実際の顔とマッチングのとれた奥行きマップを得ることができる。すなわち、エッジ保存型平滑化フィルタによるフィルタ処理では、顔領域の輝度のエッジが保存されるので、人の目や口、鼻など、実際の顔の各部分と同じ位置にある奥行きマップの領域に対して、それらの目や口などの凹凸を表現する奥行きを与えることができる。
例えば、仮に図7の2D画像TP11上の人U11の顔の領域の形状と、簡易奥行きモデルMD11により示される半楕円体の形状とに多少のずれが生じていたとする。しかし、そのような場合でも、平滑化フィルタ処理部26によるフィルタ処理によって、実際の人U11の顔の目や口などの各部と同じ位置にある、顔奥行きマップの領域に対して、それらの人U11の顔の目等の各部の凹凸を表現する奥行きが付加される。
また、人U11の顔が横方向など、正面とは異なる方向を向いていたとしても、平滑化フィルタ処理部26によるフィルタ処理によって、顔奥行きマップにより示される各領域の奥行きは、人U11の顔の目等の各部の凹凸を示す奥行きとなる。
これにより、顔領域の検出位置に多少のずれが生じる場合であっても、より高精度に人の顔領域の凹凸が表現された顔奥行きマップを得ることができ、このような顔奥行きマップを用いて3D画像を生成すれば、より自然で立体感のある画像を得ることができる。
[2D/3D変換処理の説明]
次に、画像処理装置11の動作について説明する。
次に、画像処理装置11の動作について説明する。
画像処理装置11に2D画像の画像信号が供給され、3D画像の画像信号への変換が指示されると、画像処理装置11は、2D/3D変換処理を行なって、3D画像を生成し、出力する。以下、図9のフローチャートを参照して、画像処理装置11による2D/3D変換処理について説明する。
ステップS11において、顔検出部21は、供給された2D画像から人の顔領域を検出し、その結果得られた顔領域の位置およびサイズを検出結果安定化部23に供給する。具体的には、顔検出部21は、顔領域の位置を判定部51およびスイッチ52に供給するとともに、顔領域のサイズを判定部51およびスイッチ53に供給する。
ステップS12において、シーン認識部22は、供給された2D画像のシーン認識を行い、その認識結果を検出結果安定化部23の判定部51に供給する。
ステップS13において、判定部51は、シーン認識部22からのシーン認識結果と、顔検出部21からの顔領域の位置およびサイズとに基づいて、シーン認識結果により示されるシーンから推定される2D画像の構図に対して、顔領域の位置とサイズが不自然であるか否かを判定する。すなわち、顔検出結果の安定化判定が行われる。
例えば、図10に示すように、2D画像TP21に対するシーン認識結果から、2D画像TP21の構図として、人U21と地平線HR11が含まれる構図が推定されたとする。また、顔領域の検出結果として、人U21の顔が検出されたとする。
このような場合、判定部51は、人U21の顔領域の図中、縦方向の大きさLAおよび位置、つまり顔検出部21から供給された顔領域の位置およびサイズと、地平線HR11の位置とに基づいて、顔領域の位置とサイズが不自然であるか否かを判定する。
具体的には、判定部51は、2D画像TP21の上端から地平線HR11までの縦方向の長さ(距離)をLBとする。そして、判定部51は、(LB/LA)>10が成立し、かつ人U21の顔領域の縦方向の位置が、2D画像TP21の上端から地平線HR11までの上側の1/4程度の領域内の位置にある場合、顔領域の位置とサイズが不自然であるとする。つまり、顔領域の検出結果は誤検出であるとされる。
このような場合、例えば図10に示すように、人U21が空中に浮いていることになり、不自然な構図となるからである。例えば、通常、人は7から8頭身程度であるので、人U21が地上に立っていれば、(LB/LA)>10が成立することはない。
なお、(LB/LA)>10が成立するか、または人U21の顔領域の縦方向の位置が、2D画像TP21の上端から地平線HR11までの上側の1/4程度の領域内の位置にあるかの少なくとも何れかである場合に、顔領域の位置とサイズが不自然であるとされてもよい。
また、例えば図11に示すように、2D画像TP31に対するシーン認識結果から、2D画像TP31の構図として、人U31と消失点DP11が含まれる構図が推定されるとする。また、顔領域の検出結果として、人U31の顔が検出されたとする。
この場合、判定部51は、人U31の顔領域の図中、縦方向の位置、つまり顔検出部21から供給された顔領域の位置と、矢印H11により示される、消失点DP11の図中、縦方向の高さとに基づいて、顔領域の位置とサイズが不自然であるか否かを判定する。
具体的には、判定部51は、人U31の顔領域の図中、縦方向の位置が、矢印H11により示される消失点DP11の図中、縦方向の高さ(位置)よりも低い場合、顔領域の位置とサイズが不自然であるとする。つまり、人U31の顔領域が、消失点DP11よりも図中、下側に位置する場合、不自然な構図であり、顔領域の検出結果は誤検出であるとされる。
以上のように、判定部51は、顔領域の位置およびサイズが、2D画像のシーン認識結果から推定される2D画像の構図に対して定まる所定の条件を満たす場合、その顔領域の位置およびサイズが不自然である、つまり顔領域の検出結果は誤検出であると判定する。
図9のフローチャートの説明に戻り、ステップS13において、顔領域の位置とサイズが不自然ではないと判定された場合、処理はステップS14に進む。
ステップS14において、判定部51は、顔検出結果の安定化判定の結果として、顔領域の位置とサイズが不自然ではないことを示す値「0」を、スイッチ52およびスイッチ53に供給して、処理はステップS16に進む。
これに対して、ステップS13において、顔領域の位置とサイズが不自然であると判定された場合、処理はステップS15に進む。ステップS15において、判定部51は、顔検出結果の安定化判定の結果として、顔領域の位置とサイズが不自然であることを示す値「1」を、スイッチ52およびスイッチ53に供給し、処理はステップS16に進む。
このように、ステップS14またはステップS15において、顔検出結果の安定化判定の結果を示す値が出力されると、ステップS16の処理が行なわれる。すなわち、ステップS16において、スイッチ52およびスイッチ53は、判定部51から供給された顔検出結果の安定化判定の結果を示す値に応じて、顔領域の位置とサイズを出力する。
具体的には、スイッチ52は、顔検出結果の安定化判定の結果を示す値として「0」が供給された場合、顔検出部21から供給された顔領域の位置をそのまま時間安定化部24のフィルタ処理部81に供給する。また、スイッチ52は、顔検出結果の安定化判定の結果を示す値として「1」が供給された場合、顔領域の位置として値「0」をフィルタ処理部81に供給する。
同様に、スイッチ53は、顔検出結果の安定化判定の結果を示す値として「0」が供給された場合、顔検出部21から供給された顔領域のサイズをそのまま時間安定化部24のフィルタ処理部86に供給する。また、スイッチ53は、顔検出結果の安定化判定の結果を示す値として「1」が供給された場合、顔領域のサイズとして値「0」をフィルタ処理部86に供給する。
このように、顔領域の位置とサイズが不自然である場合に、検出された顔領域の位置とサイズを破棄し、以降の処理で用いられないようにすることで、顔領域の検出精度を向上させ、3D画像が不自然になってしまうことを抑制することができる。これにより、より自然で立体感のある3D画像を得ることができるようになる。
ステップS17において、時間安定化部24は、検出結果安定化部23から供給された顔領域の位置およびサイズに基づいて、時間安定化処理を行なう。
すなわち、フィルタ処理部81は、スイッチ52から供給された顔領域の位置に対して、例えばIIRフィルタ等を用いたフィルタ処理を施し、簡易奥行きマップ生成部25の楕円体生成部121、遅延処理部82、および減算部83に供給する。
また、フィルタ処理部86は、スイッチ53から供給された顔領域のサイズに対して、IIRフィルタ等を用いたフィルタ処理を施し、楕円体生成部121、遅延処理部87、および減算部88に供給する。
このように顔領域の位置やサイズに対してフィルタ処理を施すことで、顔領域の位置やサイズの時間的な変動を抑制することができる。
ステップS18において、乗算部91は、2D画像からの顔領域の検出結果の信頼度を算出する。
すなわち、遅延処理部82は、フィルタ処理部81から供給され、1フレーム分の時間だけ遅延させた顔領域の位置を、減算部83に供給する。減算部83は、フィルタ処理部81から供給された顔領域の位置と、遅延処理部82から供給された顔領域の位置との差分を求め、絶対値計算部84に供給する。
さらに、絶対値計算部84は、減算部83から供給された差分の絶対値を求め、位置信頼度計算部85に供給する。そして、位置信頼度計算部85は、図5の左側を参照して説明したように、絶対値計算部84から供給された顔領域の位置の差分絶対値により定まる位置信頼度を、乗算部91に供給する。
また、遅延処理部87は、フィルタ処理部86から供給され、1フレーム分の時間だけ遅延させた顔領域のサイズを減算部88に供給する。減算部88は、フィルタ処理部86からの顔領域のサイズと、遅延処理部87からの顔領域のサイズとの差分を求め、絶対値計算部89に供給し、絶対値計算部89は、減算部88からの差分の絶対値を求めてサイズ信頼度計算部90に供給する。さらに、サイズ信頼度計算部90は、図5の右側を参照して説明したように、絶対値計算部89から供給された顔領域のサイズの差分絶対値により定まるサイズ信頼度を求め、乗算部91に供給する
乗算部91は、位置信頼度計算部85からの位置信頼度と、サイズ信頼度計算部90からのサイズ信頼度とを乗算して、その結果得られた信頼度を簡易奥行きマップ生成部25の乗算部122に供給する。
ステップS19において、簡易奥行きマップ生成部25は、顔領域の奥行きを示す簡易奥行きマップを生成し、平滑化フィルタ処理部26の平滑化フィルタ部153に供給する。
具体的には、楕円体生成部121は、フィルタ処理部81およびフィルタ処理部86から供給された顔領域の位置およびサイズに基づいて、図7を参照して説明した簡易奥行きモデルを生成し、その簡易奥行きモデルに基づいて簡易奥行きマップを生成する。そして、楕円体生成部121は、得られた簡易奥行きマップを乗算部122に供給する。また、乗算部122は、楕円体生成部121から供給された簡易奥行きマップの各画素の画素値に、乗算部91から供給された信頼度を乗算し、平滑化フィルタ部153に供給する。
このように、簡易的なモデルに基づいて簡易奥行きマップを生成することで、より簡単な処理で、顔領域の奥行きを示すマップを生成することができる。
ステップS20において、エッジ検出部151は、供給された2D画像に対してエッジ検出を行い、その検出結果をフィルタ係数調整部152に供給する。このエッジ検出により、2D画像の顔領域における人の目や鼻などの輝度のエッジが検出される。
また、フィルタ係数調整部152は、エッジ検出部151から供給されたエッジの検出結果に基づいて、簡易奥行きマップに対して行なわれるフィルタ処理に用いられるフィルタ係数を調整し、平滑化フィルタ部153に供給する。
ステップS21において、平滑化フィルタ部153は、フィルタ係数調整部152からのフィルタ係数により定まるエッジ保存型平滑化フィルタを用いて、乗算部122からの簡易奥行きマップにフィルタ処理を施す。例えば、エッジ保存型平滑化フィルタとして、バイラテラルフィルタなどが用いられる。
平滑化フィルタ部153は、フィルタ処理の結果得られた顔奥行きマップを、視差生成部27に供給する。
このように、2D画像に基づいて、簡易奥行きマップに対してエッジ保存型の平滑化フィルタ処理を施すことで、より高精度に人の顔領域の凹凸が表現された顔奥行きマップを得ることができる。
ステップS22において、視差生成部27は、平滑化フィルタ部153から供給された顔奥行きマップに基づいて、供給された2D画像を3D画像に変換し、得られた3D画像を後段に出力する。
例えば、視差生成部27は供給された2D画像の各領域の色や輝度等に基づいて、2D画像の顔領域を除く他の領域の奥行きを示す奥行きマップを生成し、得られた奥行きマップと、顔奥行きマップとを合成することで、最終的な奥行きマップを生成する。そして、視差生成部27は、2D画像の各画素を、最終的な奥行きマップに示される奥行きから求まる視差の分だけシフトさせることで、右眼用画像と左眼用画像とからなる3D画像を生成する。
なお、顔奥行きマップと2D画像に基づいて3D画像の顔領域の部分が生成され、2D画像に基づいて、3D画像の顔領域以外の部分が生成されて、それらの顔領域の部分と、顔領域以外の部分とが合成されて、最終的な3D画像とされるようにしてもよい。
3D画像が得られると、得られた3D画像が出力され、2D/3D変換処理は終了する。
以上のようにして、画像処理装置11は、シーン認識の結果に基づいて、検出された顔領域のうち、位置とサイズが不自然である顔領域を除外し、顔領域の位置およびサイズに基づいて、簡易的なモデルを用いて顔奥行きマップを生成する。そして、画像処理装置11は、得られた顔奥行きマップを用いて、2D画像を3D画像に変換し、出力する。
このように、シーン認識の結果に基づいて、検出された顔領域のなかから、位置とサイズが不自然である顔領域を除外することで、顔領域の検出精度を向上させ、より自然で立体感のある立体画像(3D画像)を得ることができる。
また、顔領域の位置およびサイズに基づいて、簡易的なモデルを用いて顔奥行きマップを生成することで、簡単な処理で、より高精度に人の顔領域の凹凸が表現された顔奥行きマップを得ることができ、その結果、より自然で立体感のある画像を得ることができる。
ところで、上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図12は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)201,ROM(Read Only Memory)202,RAM(Random Access Memory)203は、バス204により相互に接続されている。
バス204には、さらに、入出力インターフェース205が接続されている。入出力インターフェース205には、入力部206、出力部207、記録部208、通信部209、及びドライブ210が接続されている。
入力部206は、キーボード、マウス、マイクロホン、撮像素子などよりなる。出力部207は、ディスプレイ、スピーカなどよりなる。記録部208は、ハードディスクや不揮発性のメモリなどよりなる。通信部209は、ネットワークインターフェースなどよりなる。ドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア211を駆動する。
以上のように構成されるコンピュータでは、CPU201が、例えば、記録部208に記録されているプログラムを、入出力インターフェース205及びバス204を介して、RAM203にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU201)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア211に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディア211をドライブ210に装着することにより、入出力インターフェース205を介して、記録部208にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部209で受信し、記録部208にインストールすることができる。その他、プログラムは、ROM202や記録部208に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、本技術は、以下の構成とすることも可能である。
[1]
2次元の入力画像に対するシーン認識を行なうシーン認識部と、
前記シーン認識の結果に基づいて、前記入力画像からの顔領域の検出結果が誤検出であるか否かを判定する検出結果安定化部と、
前記顔領域の検出結果が誤検出でない場合、前記顔領域の検出結果に基づいて、前記顔領域の奥行きを示す顔奥行きマップを生成する顔奥行きマップ生成部と、
前記顔奥行きマップに基づいて、前記入力画像を立体画像に変換する視差生成部と
を備える画像処理装置。
[2]
前記検出結果安定化部は、前記顔領域の位置およびサイズが、前記シーン認識の結果から推定される前記入力画像の構図に対して定まる条件を満たしているか否かを判定することで、前記顔領域の検出結果が誤検出であるか否かを判定する
[1]に記載の画像処理装置。
[3]
検出された前記顔領域にある顔の形状が半楕円体形状であるものとして、前記顔領域の位置およびサイズに基づいて、簡易的な前記顔領域の奥行きを示す簡易奥行きマップを生成する簡易奥行きマップ生成部をさらに備え、
前記顔奥行きマップ生成部は、前記簡易奥行きマップおよび前記入力画像に基づいて、前記顔奥行きマップを生成する
[1]または[2]に記載の画像処理装置。
[4]
前記顔奥行きマップ生成部は、前記入力画像に対してエッジ検出を行なうとともに、前記エッジ検出の結果に基づいて定められたエッジ保存型平滑化フィルタを用いて、前記簡易奥行きマップに対してフィルタ処理を施すことで、前記顔奥行きマップを生成する
[3]に記載の画像処理装置。
[5]
前記顔領域の位置およびサイズの時間的な変動を検出することで、前記顔領域の検出の信頼度を算出する信頼度計算部をさらに備え、
前記簡易奥行きマップ生成部は、前記信頼度に基づいて前記簡易奥行きマップにより示される奥行きを調整することで、最終的な前記簡易奥行きマップを生成する
[3]または[4]に記載の画像処理装置。
[6]
前記顔領域の位置およびサイズに対して、前記顔領域の位置およびサイズを時間方向に安定化させるフィルタ処理を施すフィルタ処理部をさらに備え、
前記簡易奥行きマップ生成部は、前記フィルタ処理部によりフィルタ処理が施された前記顔領域の位置およびサイズに基づいて、前記簡易奥行きマップを生成する
[3]乃至[5]の何れかに記載の画像処理装置。
2次元の入力画像に対するシーン認識を行なうシーン認識部と、
前記シーン認識の結果に基づいて、前記入力画像からの顔領域の検出結果が誤検出であるか否かを判定する検出結果安定化部と、
前記顔領域の検出結果が誤検出でない場合、前記顔領域の検出結果に基づいて、前記顔領域の奥行きを示す顔奥行きマップを生成する顔奥行きマップ生成部と、
前記顔奥行きマップに基づいて、前記入力画像を立体画像に変換する視差生成部と
を備える画像処理装置。
[2]
前記検出結果安定化部は、前記顔領域の位置およびサイズが、前記シーン認識の結果から推定される前記入力画像の構図に対して定まる条件を満たしているか否かを判定することで、前記顔領域の検出結果が誤検出であるか否かを判定する
[1]に記載の画像処理装置。
[3]
検出された前記顔領域にある顔の形状が半楕円体形状であるものとして、前記顔領域の位置およびサイズに基づいて、簡易的な前記顔領域の奥行きを示す簡易奥行きマップを生成する簡易奥行きマップ生成部をさらに備え、
前記顔奥行きマップ生成部は、前記簡易奥行きマップおよび前記入力画像に基づいて、前記顔奥行きマップを生成する
[1]または[2]に記載の画像処理装置。
[4]
前記顔奥行きマップ生成部は、前記入力画像に対してエッジ検出を行なうとともに、前記エッジ検出の結果に基づいて定められたエッジ保存型平滑化フィルタを用いて、前記簡易奥行きマップに対してフィルタ処理を施すことで、前記顔奥行きマップを生成する
[3]に記載の画像処理装置。
[5]
前記顔領域の位置およびサイズの時間的な変動を検出することで、前記顔領域の検出の信頼度を算出する信頼度計算部をさらに備え、
前記簡易奥行きマップ生成部は、前記信頼度に基づいて前記簡易奥行きマップにより示される奥行きを調整することで、最終的な前記簡易奥行きマップを生成する
[3]または[4]に記載の画像処理装置。
[6]
前記顔領域の位置およびサイズに対して、前記顔領域の位置およびサイズを時間方向に安定化させるフィルタ処理を施すフィルタ処理部をさらに備え、
前記簡易奥行きマップ生成部は、前記フィルタ処理部によりフィルタ処理が施された前記顔領域の位置およびサイズに基づいて、前記簡易奥行きマップを生成する
[3]乃至[5]の何れかに記載の画像処理装置。
11 画像処理装置, 21 顔検出部, 22 シーン認識部, 23 検出結果安定化部, 24 時間安定化部, 25 簡易奥行きマップ生成部, 26 平滑化フィルタ処理部, 27 視差生成部, 51 判定部, 81 フィルタ処理部, 85 位置信頼度計算部, 86 フィルタ処理部, 90 サイズ信頼度計算部, 91 乗算部, 151 エッジ検出部, 153 平滑化フィルタ部
Claims (8)
- 2次元の入力画像に対するシーン認識を行なうシーン認識部と、
前記シーン認識の結果に基づいて、前記入力画像からの顔領域の検出結果が誤検出であるか否かを判定する検出結果安定化部と、
前記顔領域の検出結果が誤検出でない場合、前記顔領域の検出結果に基づいて、前記顔領域の奥行きを示す顔奥行きマップを生成する顔奥行きマップ生成部と、
前記顔奥行きマップに基づいて、前記入力画像を立体画像に変換する視差生成部と
を備える画像処理装置。 - 前記検出結果安定化部は、前記顔領域の位置およびサイズが、前記シーン認識の結果から推定される前記入力画像の構図に対して定まる条件を満たしているか否かを判定することで、前記顔領域の検出結果が誤検出であるか否かを判定する
請求項1に記載の画像処理装置。 - 検出された前記顔領域にある顔の形状が半楕円体形状であるものとして、前記顔領域の位置およびサイズに基づいて、簡易的な前記顔領域の奥行きを示す簡易奥行きマップを生成する簡易奥行きマップ生成部をさらに備え、
前記顔奥行きマップ生成部は、前記簡易奥行きマップおよび前記入力画像に基づいて、前記顔奥行きマップを生成する
請求項2に記載の画像処理装置。 - 前記顔奥行きマップ生成部は、前記入力画像に対してエッジ検出を行なうとともに、前記エッジ検出の結果に基づいて定められたエッジ保存型平滑化フィルタを用いて、前記簡易奥行きマップに対してフィルタ処理を施すことで、前記顔奥行きマップを生成する
請求項3に記載の画像処理装置。 - 前記顔領域の位置およびサイズの時間的な変動を検出することで、前記顔領域の検出の信頼度を算出する信頼度計算部をさらに備え、
前記簡易奥行きマップ生成部は、前記信頼度に基づいて前記簡易奥行きマップにより示される奥行きを調整することで、最終的な前記簡易奥行きマップを生成する
請求項4に記載の画像処理装置。 - 前記顔領域の位置およびサイズに対して、前記顔領域の位置およびサイズを時間方向に安定化させるフィルタ処理を施すフィルタ処理部をさらに備え、
前記簡易奥行きマップ生成部は、前記フィルタ処理部によりフィルタ処理が施された前記顔領域の位置およびサイズに基づいて、前記簡易奥行きマップを生成する
請求項4に記載の画像処理装置。 - 2次元の入力画像に対するシーン認識を行ない、
前記シーン認識の結果に基づいて、前記入力画像からの顔領域の検出結果が誤検出であるか否かを判定し、
前記顔領域の検出結果が誤検出でない場合、前記顔領域の検出結果に基づいて、前記顔領域の奥行きを示す顔奥行きマップを生成し、
前記顔奥行きマップに基づいて、前記入力画像を立体画像に変換する
ステップを含む画像処理方法。 - 2次元の入力画像に対するシーン認識を行ない、
前記シーン認識の結果に基づいて、前記入力画像からの顔領域の検出結果が誤検出であるか否かを判定し、
前記顔領域の検出結果が誤検出でない場合、前記顔領域の検出結果に基づいて、前記顔領域の奥行きを示す顔奥行きマップを生成し、
前記顔奥行きマップに基づいて、前記入力画像を立体画像に変換する
ステップを含む処理をコンピュータに実行させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012153696A JP2014016792A (ja) | 2012-07-09 | 2012-07-09 | 画像処理装置および方法、並びにプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012153696A JP2014016792A (ja) | 2012-07-09 | 2012-07-09 | 画像処理装置および方法、並びにプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014016792A true JP2014016792A (ja) | 2014-01-30 |
Family
ID=50111423
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012153696A Pending JP2014016792A (ja) | 2012-07-09 | 2012-07-09 | 画像処理装置および方法、並びにプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014016792A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016077568A1 (en) * | 2014-11-13 | 2016-05-19 | Intel Corporation | 3d enhanced image correction |
JP2018182699A (ja) * | 2017-04-21 | 2018-11-15 | キヤノン株式会社 | 画像処理装置およびその制御方法、プログラム、並びに記憶媒体 |
WO2022201305A1 (ja) * | 2021-03-23 | 2022-09-29 | 日本電信電話株式会社 | 画像処理装置、方法およびプログラム |
WO2022201319A1 (ja) * | 2021-03-23 | 2022-09-29 | 日本電信電話株式会社 | 画像処理装置、方法およびプログラム |
-
2012
- 2012-07-09 JP JP2012153696A patent/JP2014016792A/ja active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016077568A1 (en) * | 2014-11-13 | 2016-05-19 | Intel Corporation | 3d enhanced image correction |
US10764563B2 (en) | 2014-11-13 | 2020-09-01 | Intel Corporation | 3D enhanced image correction |
JP2018182699A (ja) * | 2017-04-21 | 2018-11-15 | キヤノン株式会社 | 画像処理装置およびその制御方法、プログラム、並びに記憶媒体 |
WO2022201305A1 (ja) * | 2021-03-23 | 2022-09-29 | 日本電信電話株式会社 | 画像処理装置、方法およびプログラム |
WO2022201319A1 (ja) * | 2021-03-23 | 2022-09-29 | 日本電信電話株式会社 | 画像処理装置、方法およびプログラム |
JP7456553B2 (ja) | 2021-03-23 | 2024-03-27 | 日本電信電話株式会社 | 画像処理装置、方法およびプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9300940B2 (en) | Method and apparatus for converting 2-dimensional image into 3-dimensional image by adjusting depth of the 3-dimensional image | |
JP5556394B2 (ja) | 立体画像表示システム、視差変換装置、視差変換方法およびプログラム | |
US9398289B2 (en) | Method and apparatus for converting an overlay area into a 3D image | |
US9661296B2 (en) | Image processing apparatus and method | |
JP5879713B2 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
US9280828B2 (en) | Image processing apparatus, image processing method, and program | |
JP2013005259A (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
JP5178876B2 (ja) | 立体映像表示装置及び立体映像表示方法 | |
US9747690B2 (en) | Image processing device, image processing method, and program | |
WO2015188666A1 (zh) | 三维视频滤波方法和装置 | |
TW201320716A (zh) | 動態景深調整裝置及其方法 | |
US10210654B2 (en) | Stereo 3D navigation apparatus and saliency-guided camera parameter control method thereof | |
JP2017021759A (ja) | 画像処理装置、画像処理方法及びプログラム | |
KR20110088361A (ko) | 정면 얼굴 영상 생성 장치 및 방법 | |
JP2014016792A (ja) | 画像処理装置および方法、並びにプログラム | |
US8908994B2 (en) | 2D to 3d image conversion | |
TW201712639A (zh) | 立體影像深度圖產生裝置及方法 | |
US9071832B2 (en) | Image processing device, image processing method, and image processing program | |
JP2013135357A (ja) | 奥行き推定データの生成装置、生成方法及び生成プログラム、並びに疑似立体画像の生成装置、生成方法及び生成プログラム | |
JP2013172214A5 (ja) | ||
JP2013172214A (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
US9077963B2 (en) | Systems and methods for generating a depth map and converting two-dimensional data to stereoscopic data | |
JP2014022867A (ja) | 画像処理装置および方法、並びにプログラム | |
JP2013156955A (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP2013074585A (ja) | 立体画像生成装置及び立体画像生成方法 |