JP2012105019A - 画像処理装置、方法およびそのプログラム - Google Patents

画像処理装置、方法およびそのプログラム Download PDF

Info

Publication number
JP2012105019A
JP2012105019A JP2010251267A JP2010251267A JP2012105019A JP 2012105019 A JP2012105019 A JP 2012105019A JP 2010251267 A JP2010251267 A JP 2010251267A JP 2010251267 A JP2010251267 A JP 2010251267A JP 2012105019 A JP2012105019 A JP 2012105019A
Authority
JP
Japan
Prior art keywords
depth
image
base
region
dimensional object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010251267A
Other languages
English (en)
Other versions
JP2012105019A5 (ja
JP5422538B2 (ja
Inventor
Kenichi Shimoyama
賢一 下山
Takeshi Mita
雄志 三田
Sunao Mishima
直 三島
Ryusuke Hirai
隆介 平井
Masahiro Baba
雅裕 馬場
Io Nakayama
伊央 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2010251267A priority Critical patent/JP5422538B2/ja
Priority to US13/051,571 priority patent/US20120113094A1/en
Priority to TW100129969A priority patent/TWI457857B/zh
Priority to CN2011102663354A priority patent/CN102467743A/zh
Publication of JP2012105019A publication Critical patent/JP2012105019A/ja
Publication of JP2012105019A5 publication Critical patent/JP2012105019A5/ja
Application granted granted Critical
Publication of JP5422538B2 publication Critical patent/JP5422538B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】2次元画像からより正確な奥行きを生成する。
【解決手段】実施の形態によれば、画像処理装置1は、入力画像100に含まれる立体物の立体物領域103を検出する領域検出部12と、奥行きの基本構造であるベースデプス151を入力画像100に付与するベースデプス付与部13と、立体物領域103の接地位置近傍103cの立体物奥行値を入力画像100に付与されたベースデプス151から取得し、取得した立体物奥行値を立体物領域103の奥行値Zとしてベースデプス151に設定することで、デプスマップ110を生成するデプスマップ生成部14と、を備える。
【選択図】図1

Description

本発明の実施の形態は、画像処理装置、方法およびプログラムに関する。
従来、2次元画像を3次元表示するために、2次元画像に対して奥行きの情報を付加する技術が存在する。この従来技術の一つでは、たとえば2次元画像の上部および下部の高周波成分の分布から、あらかじめ用意しておいた奥行きのモデルとの合成比率を算出し、この算出結果から画像全体の大まかな奥行きを求める。また、大まかな奥行きに2次元画像中のR信号を重畳することで、奥行きを補正することも考えられている。
特許第4214976号公報
以下の実施の形態では、2次元画像からより正確な奥行きを生成することが可能な画像処理装置、方法およびプログラムを開示する。
実施の形態による画像処理装置は、画像の奥行きを表現するデプスマップを生成する画像処理装置であって、画像に含まれる立体物の領域を検出する領域検出部と、奥行きの基本構造であるベースデプスを前記画像に付与するベースデプス付与部と、前記立体物の接地位置近傍の奥行きを前記画像に付与されたベースデプスから取得し、取得した該奥行きを前記立体物の領域の奥行きとして前記ベースデプスに設定するデプスマップ生成部と、を備える。
図1は、実施の形態1による画像処理装置の概略構成を示す図。 図2は、実施の形態1における入力画像の一例を示す図。 図3は、実施の形態1によるベースデプスの一例を示す図。 図4は、実施の形態1において生成されるデプスマップの一例を示す図。 図5は、実施の形態1による画像処理方法の概略流れを示す図。 図6は、実施の形態2による画像処理装置2の概略構成を示す図。 図7は、実施の形態2の仮想境界線が設定された入力画像の一例を示す図。 図8は、実施の形態2において生成されたベースデプスの一例を示す図。 図9は、実施の形態2において生成されるデプスマップの一例を示す図。 図10は、実施の形態2による画像処理方法の概略流れを示す図。
以下、例示する実施の形態にかかる画像処理装置、方法およびそのプログラムについて、図面を参照して詳細に説明する。
<実施の形態1>
まず、実施の形態1にかかる画像処理装置、方法およびそのプログラムについて、図面を参照して詳細に説明する。以降の説明では、以下の事項(1)〜(4)を前提とする。ただし、本開示は、これらの事項に限定されるものではない。
(1)画像の左上隅を原点とし、横方向(水平方向)をx軸、縦方向(垂直方向)をy軸とする。ただし、画像に対して設定される座標系は、これに限られるものではない。また、画像中の座標(x,y)の画素値をP(x,y)と表す。ここで画素値Pは、画素の明るさまたは色成分を表すものであればよい。このような画素値Pには、たとえば輝度、明度、特定の色チャンネルなどが該当する。
(2)デプスマップは、画像の奥行きを表現するデータである。このデプスマップは、マップの左上隅を原点とし、横方向(水平方向)をX軸、縦方向(垂直方向)をY軸とする。ただし、デプスマップに対して設定される座標系は、これに限られるものではない。また、デプスマップ中の座標(X,Y)での画素値をZ(X,Y)と表す。この画素値Zは、画素ごとの奥行きを示す情報(奥行き情報)である。たとえば画素値Zが大きいほど、その画素の奥行き(デプス)が大きい。
(3)画像中の座標とデプスマップ中の座標とは、1対1に対応する。本開示では、特に記述しない限り、画像のサイズとデプスマップのサイズとは等しい。また、画像の座標(x,y)とデプスマップの座標(X,Y)とは、互いに対応している。すなわち、x=X、y=Yが成立する。
(4)本開示において特に記述しない場合、画像の画素値Pを「画素値」と記述し、その値域を[0,255](0以上255以下)とする。さらに、デプスマップの画素値Zを「奥行値」と記述し、その値域を[0,255](0以上255以下)とする。
つぎに、本実施の形態1による画像処理装置1を、図面を用いて詳細に説明する。図1は、本実施の形態1による画像処理装置1の概略構成を示す。図1に示すように、画像処理装置1は、画像入力部11と、領域検出部12と、ベースデプス付与部13と、デプスマップ生成部14とを備える。
画像入力部11は、処理の対象となる2次元の画像(以下、入力画像という)を入力する。入力画像は、静止画であっても動画であってもよい。図2に、入力画像の一例を示す。図2に示すように、入力画像100は、大別して、空を写した空領域101と、地面を写した地面領域102と、を含む。また、入力画像100には、立体物を写した領域である立体物領域103aおよび103bが含まれる。なお、地面領域102とは、地面や水面などの水平面や坂道などの水平に近い面など、入力画像100の空間下側のベースとなる面の領域である。この地面領域102には、建物屋上などのような立体物中の水平面を含んでもよい。空領域101とは、空や塀や天井など、地面領域とは異なる部分の領域である。また、立体物は、地面領域102に対して、垂直かそれに近い角度で存在する物体全体、もしくはその物体の垂直面などを含む。また、立体物領域は、入力画像100中で立体物が写し出された領域である。図2に示す例では、立体物領域103aは家を写した領域であり、立体物領域103bは木を写した領域である。以下の説明において、立体物領域103aおよび103bを特に区別しない場合、その符号を103とする。
図1に戻り説明する。入力画像100の入力元には、あらゆる機器または媒体を適用することができる。たとえば画像入力部11は、ハードディスクドライブ(HDD)やDVD−ROMやフラッシュメモリなどの記録媒体から画像データを入力することができるとよい。また、画像入力部11は、ネットワークを介して接続された録画機やデジタルカメラやデジタルビデオカメラなどの外部装置から画像データを入力することができるとよい。さらに、画像入力部11は、無線または有線でテレビジョン放送を受信する受信機であってもよい。
さらに、入力画像の形式は2次元画像でなくてもかまわない。例えば、サイドバイサイド形式やラインバイライン形式等といったステレオ画像でもよいし、多視点形式の画像を入力としてもよい。この場合、どれか1つの視点の画像を処理対象の画像として扱う。
領域検出部12は、入力画像100中に含まれる立体物領域103を検出する。立体物領域103の検出には、一般に知られている方法などを用いてよい。既存の検出方法には、たとえば立体物検出用の識別器を用いて入力画像100から立体物領域103を識別する方法などがある。ただし、これに限定されず、種々の検出方法を適用可能である。また、領域検出部12は、立体物領域103を分割した分割立体物領域を検出してもよい。例えば、立体物領域103をオブジェクト単位に分割するなどの方法が考えられる。
ベースデプス付与部13は、入力画像103に対してベースデプスを付与する。ベースデプスとは、たとえば奥行きを持つ3次元の空間構造をデータ化したものである。ベースデプスに含まれる奥行き情報は、たとえば数値(画素値または奥行値)で表されている。このようなベースデプスは、入力画像100に対するデプスマップを作成する際に奥行きの下地データとして用いることができる。
ここで図3に、ベースデプスの一例を示す。図3に示すように、ベースデプス151は、X軸、Y軸およびZ軸で与えられる3次元空間内に形成された平面または曲面の1つ以上の組み合わせよりなる。図3に例示するベースデプス151は、Y座標の上限値(255)に近い領域ほど手前に位置し、Y座標の原点Oに近い領域ほど奥に位置する曲面形状となっている。このような形状のベースデプス151は、画像の下部に地面が広がり、上部に空や建物等がある画像に対して好適である。
図1に戻り説明する。ベースデプス151は、たとえば記憶部15内にあらかじめ用意されていてもよい。また、記憶部15は、たとえば複数種類のベースデプスをテンプレートとしてあらかじめ保持していてもよい。ベースデプス付与部13は、たとえば入力画像100を解析することで、この入力画像100に対して適したベースデプスのテンプレートを特定し、これを記憶部15から取得する。入力画像100に対して適したベースデプスの特定は、たとえば入力画像100から特定また推定された空間的構造に基づいて行うことができる。この特定方法では、たとえば入力画像100における地面または床面の領域(本例では地面領域102)や空または天井の領域(本例では空領域101)などから入力画像100の空間的構造を特定または推定する。つぎに、この空間的構造に適したベースデプス151を記憶部15から特定する。ただし、この特定方法に限らず、種々の方法を用いてベースデプスを取得することが可能である。さらに、ベースデプス付与部13は、あらかじめ用意しておいたベースデプス151ではなく、入力画像100から推定したベースデプスを使用してもよい。
デプスマップ生成部14は、入力画像100から検出された各立体物領域103の接地位置近傍103cの奥行きの情報を、入力画像100に対して付与されたベースデプス151から算出する。ここで接地位置近傍103cは、たとえば各立体物領域103の下底または最下底のエッジであってもよいし、このエッジを中心とした周囲数画素(たとえば3画素)の領域であってもよい。ただし、これらに限定されるものではない。たとえば、各立体物領域103の下底または最下底のエッジを含む領域であって、画像に対する横方向のサイズおよび縦方向のサイズがともに入力画像100のサイズの5%以下となる領域を接地位置近傍103cとするなど、種々変形可能である。以下の説明において、各立体物領域103の接地位置近傍103cに対して算出した奥行きの情報を、たとえば立体物奥行値という。ここで、上述したように、入力画像100における画素の座標(x,y)と、ベースデプス151における画素の座標(X,Y)とを対応づけておくことで、接地位置近傍103cに含まれる画素の奥行値Z(X,Y)を容易に特定することができる。この結果、特定した奥行値Z(X,Y)から、各接地位置近傍103cに対する立体物奥行値を容易に算出することができる。立体物奥行値の算出方法の例については、後述において触れる。
また、デプスマップ生成部14は、算出した立体物奥行値を用いて各立体物領域103の奥行きの情報をデプスマップに設定する。立体物領域103の奥行きの情報は、たとえば立体物奥行値から容易に生成することができる。たとえばデプスマップ生成部14は、各接地位置近傍103cに対して算出した立体物奥行値をそのまま各立体物領域103の奥行きの情報(奥行値Z)としてデプスマップに設定してもよい。図4に、本実施の形態1において生成されるデプスマップの一例を示す。
図4に示すように、デプスマップ110は、空領域101と地面領域102との奥行きの情報(奥行値Z)がそれぞれベースデプス151の奥行値Zに設定された構造を備える。また、デプスマップ110では、立体物領域103aおよび103bの奥行きの情報(奥行値Z)に、それぞれの接地位置近傍103cに基づいてベースデプス151から特定した立体物奥行値が設定されている。
なお、立体物奥行値の算出方法には、種々の方法を適用可能である。以下に、その一部を例示する。ただし、以下の例に限定されるものではない。
(1)立体物領域103内の画素に対応するベースデプス151内の画素の画素値Zを立体物奥行値とする方法
(2)立体物領域103内の画素に対応するベースデプス151内の画素の画素値Zの平均値を立体物奥行値とする方法
(3)立体物領域103内の画素に対応するベースデプス151内の画素の画素値Zの最大値を立体物奥行値とする方法
(4)立体物領域103内の画素に対応するベースデプス151内の画素の画素値Zの最小値を立体物奥行値とする方法
(5)立体物領域103内の画素に対応するベースデプス151内の画素の画素値Zの最小値から最大値までの範囲の中央値を立体物奥行値とする方法
また、立体物奥行値を立体物領域103の奥行値Zとしてデプスマップ110に設定する設定方法には、種々の方法を適用することが可能である。以下に、その一部を例示する。ただし、以下の例に限定されるものではない。
(1)立体物奥行値を立体物領域103内の画素の縦ラインごとの奥行値Zとして設定する方法
(2)立体物奥行値を各立体物領域103の奥行値Zとして設定する方法
(3)立体物奥行値を入力画像100中の全ての立体物領域103の奥行値Zとして設定する方法
なお、(3)に例示した設定方法では、入力画像100中の何れかの立体物領域103の接地位置近傍103cに対して立体物奥行値を求めればよい。ただし、これに限定されず、複数または全ての立体物領域103の接地位置近傍103cに対してそれぞれ算出した立体物奥行値の平均値、最大値、最小値、または中央値を、全ての立体物領域103の奥行値Zとして設定してもよい。また、デプスマップ生成部14は、領域検出部12が立体物領域103を分割した分割立体物領域を検出する場合、分割された領域ごとに奥行きを与えてもよい。
つづいて、本実施の形態1による画像処理装置1が実行する画像処理方法の流れを、以下に図面を用いて詳細に説明する。図5は、本実施の形態1による画像処理方法の概略流れを示すフローチャートである。
図5に示すように、本動作では、まず、画像入力部11が入力画像100を入力する(ステップS101)。画像入力部11は、この入力画像100を領域検出部12に入力する。領域検出部12は、入力画像100を解析することで、入力画像100に含まれる立体物領域103を検出する(ステップS102)。検出された立体物領域103は、デプスマップ生成部14に入力される。また、領域検出部12は、入力画像100をベースデプス付与部13に入力する。
なお、ベースデプス付与部13が入力画像100中の空領域101と地面領域102とに基づいて付与すべきベースデプス151を特定するように構成した場合、領域検出部12は、ステップS102において、入力画像100中の空領域101と地面領域102とを検出してもよい。この検出された空領域101と地面領域102とは、たとえば入力画像100とともにベースデプス付与部13に入力される。ただし、これに限定されず、入力画像100に対してあらかじめ定めておいたベースデプス151を付与するように構成してもよい。
つぎに、ベースデプス付与部13は、入力画像100に対して付与すべきベースデプス151をたとえば記憶部15から特定する(ステップS103)。この際、ベースデプス付与部13は、入力画像100に対して検出された空領域101と地面領域102とに基づいて付与すべきベースデプス151を特定してもよい。つづいて、ベースデプス付与部13は、特定したベースデプス151を入力画像100に付与する(ステップS104)。このベースデプス151が付与された入力画像100は、デプスマップ生成部14に入力される。
デプスマップ生成部14は、まず、領域検出部12から入力された立体物領域103とベースデプス付与部13から入力されたベースデプス151付きの入力画像100とから、各立体物領域103の接地位置近傍103cを特定し(ステップS105)、この設置位置近傍103cの立体物奥行値を上述した算出方法にて算出する(ステップS106)。つぎに、デプスマップ生成部14は、算出した立体物奥行値を立体物領域103の奥行きの情報(奥行値Z)としてベースデプス151に設定することで、デプスマップ110を生成し(ステップS107)、その後、処理を終了する。これにより、図4に例示するようなデプスマップ110が生成される。なお、立体物奥行値を立体物領域103の奥行値Zとしてデプスマップ110に設定する設定方法は、上述した方法などがある。
以上のように構成および動作することで、本実施の形態1では、立体物の奥行きをこの立体物のベースデプス上の位置に基づいて設定するため、立体物に対してより正確な奥行きを設定することが可能となる。この結果、2次元画像からより正確な奥行きの構造(デプスマップ)を生成することが可能となる。
たとえば画像中のR信号を用いてベースデプスを補正する場合、人の頭は一般的にR信号が小さく、皮膚はR信号が大きい。このため、R信号を用いた補正により得られたデプスマップでは、本来近接する位置にあるはずの人の頭と顔との奥行きが大きく異なってしまう場合がある。すなわち、頭が奥側に位置し、顔が手前側に位置するといった不具合を生じる場合があった。これに対し、本実施の形態1によれば、人全体を立体物とし、その接地位置からベースデプス上の奥行きを算出して、これを人の奥行きに設定することが可能であるため、より正確な奥行きの構造を得ることが可能である。
<実施の形態2>
つぎに、実施の形態2にかかる画像処理装置、方法およびそのプログラムについて、図面を参照して詳細に説明する。なお、以下の説明において、実施の形態1と同様の構成には、同一の符号を付し、その重複する説明を省略する。
図6は、本実施の形態2による画像処理装置2の概略構成を示す。図6と図1と比較すると明らかなように、画像処理装置2(図6)は、画像処理装置1(図1)と同様の構成を備える。ただし、画像処理装置2では、画像処理装置1における領域検出部12が領域検出部22に置き換えられている。また、画像処理装置2は、仮想境界線設定部25およびベースデプス生成部26をさらに備える。
領域検出部22は、入力画像100から立体物領域103を検出する立体物領域検出部223と、地面領域102を検出する地面領域検出部222と、空領域101を検出する空領域検出部221とを含む。立体物領域検出部223は、たとえば実施の形態1における領域検出部12に相当する。ただし、上述したように、実施の形態1の領域検出部12は、実施の形態2の領域検出部22と同様に、空領域101と地面領域102とを検出してもよい。また、立体物、空および地面それぞれの領域の検出は、一般に知られている方法などを用いればよい。既知の検出方法には、たとえばそれぞれの領域について識別器を用いる方法などがある。また、その他にも、立体物と空と地面との3種類のうち2種類の領域についての検出を行い、残った領域を残りの種類の領域とする方法などが考えられる。この場合、領域を4種類以上に分類するのであれば、1種類を残して他の種類の領域を検出することとなる。
仮想境界線設定部25は、ベースデプスを求めるための仮想境界線を設定する。具体的には、仮想境界線設定部25は、ベースデプスを求めるときに用いる地面と空の仮想的な境界線である仮想境界線を設定する。図7に、仮想境界線が設定された入力画像の一例を示す。図7に示すように、仮想境界線204は、地面の最奥位置を設定する線分であればよく、厳密な地平線や水平線である必要はない。たとえば図7に示す例では、仮想境界線204が空領域101と地面領域102との境界線と一致していない。ただし、この仮想境界線204の奥行きは、入力画像100中、仮想境界線204より下の領域よりも奥であればよい。これは、仮想境界線204の奥行きが、空領域101の奥行きと同等であることを含む。
このような仮想境界線204を設定する設定方法には、種々の方法を適用可能である。以下に、その一部を例示する。ただし、以下の例に限定されるものではない。
(1)入力画像100の中心を通る水平線分(y=y_max/2:y_maxは入力画像100のy座標の最大値)を仮想境界線204に設定する方法
(2)入力画像100の上端(y=0)を仮想境界線204に設定する方法
(3)入力画像100から地平線または水平線を検出し、この地平線または水平線を仮想境界線204に設定する方法
(4)入力画像100から消失線を検出して消失点を求め、この消失点を通る水平線分を仮想境界線204に設定する方法
(5)入力画像100から検出した地面領域102の最上端を通る水平線分を仮想境界線204に設定する方法
(6)入力画像100から検出した地面領域102の上端線を仮想境界線204に設定する方法
(7)入力画像100から検出した地面領域102と空領域101との重心の真中を通る水平線分を仮想境界線204に設定する方法
図6に戻り説明する。ベースデプス生成部26は、設定した仮想境界線204を用いて、入力画像100に付与するベースデプスを生成する。以下に、仮想境界線204を用いたベースデプスの生成方法の一例を説明する。なお、以下の説明では、y=Aの線分で示される仮想境界線204が設定された場合を例に挙げる。
ここで、仮想境界線204の奥行値をZb、入力画像100の下端(y=y_max)の奥行値をZdとする(Zb≧Zd)。仮想境界線204の奥行値Zbは、奥行値Zの値域の最大値(たとえば255)であってもよいし、入力画像100に対して検出された空領域101および地面領域102の少なくとも一方の空間的広がり等から算出した値であってもよい。また、仮想境界線204より下側の領域の奥行きは、たとえば仮想境界線204が設定された位置に基づいて算出される。この際、仮想境界線204より下側の領域の奥行値Zは、この領域の下側ほど小さく、仮想境界線204に近づくほど大きくなるとよい。そこで、仮想境界線204より下の領域(y>A)中の画素(x,y)の奥行値Z(X,Y)は、以下の式1で与えることができる。式1によれば、仮想境界線204より下の領域は、入力画像100の下端から仮想境界線204に近づくに連れて直線的に奥行値Zが大きくなる奥行き構造となる。ただし、これに限定されず、入力画像100の下端から仮想境界線204に近づくほど奥行きが大きくなる条件であれば、如何様にも変形することが可能である。
Figure 2012105019
また、仮想境界線204上および仮想境界線204よりも上側の領域は、以下の式2に示すように、最奥の奥行値Zbなどに設定されてもよい。ただし、ここで言う最奥は、奥行値Zの値域の最大値(たとえば255)に限るものではなく、入力画像100のデプスマップにおける奥行値Zの中で最大値であればよい。また、仮想境界線204は、仮想境界線204よりも上の領域の手前に設定されてもよい。この場合、仮想境界線204よりも上の領域が、最奥の領域となる。
Figure 2012105019
なお、入力画像100の下端から仮想境界線204までの領域(Y>A)については、以下の式3のような、Yが大きくなるに連れて奥行値Zが反比例して小さくなる関数など、種々変形可能である。
Figure 2012105019
以上の式1および式2を用いた生成方法にて生成されたベースデプスの一例を、図8に示す。図8に示すように、ベースデプス251は、仮想境界線204より下の領域では、Y座標が大きいほど手前に位置し、仮想境界線204に近づくほど奥側に位置する。また、仮想境界線204上および仮想境界線204よりも上側の領域は、最奥に位置している。また、以上のように生成されたベースデプス251は、ベースデプス付与部13に入力される。ベースデプス付与部13は、実施の形態1と同様に、ベースデプス251を入力画像100に付与する。また、デプスマップ生成部14は、実施の形態1と同様に、ベースデプス251を用いて立体物奥行値を算出し、この立体物奥行値を用いて各立体物領域103の奥行きの情報をデプスマップに設定する。ここで、図9に、本実施の形態2において生成されるデプスマップの一例を示す。
図9に示すように、デプスマップ210は、空領域101と地面領域102との奥行きの情報(奥行値Z)がそれぞれベースデプス251の奥行値Zに設定された構造を備える。また、デプスマップ210では、立体物領域103aおよび103bの奥行きの情報(奥行値Z)に、それぞれの接地位置近傍103cに基づいてベースデプス251から特定した立体物奥行値が設定されている。
つづいて、本実施の形態2による画像処理装置2が実行する画像処理方法の流れを、以下に図面を用いて詳細に説明する。図10は、本実施の形態2による画像処理方法の概略流れを示すフローチャートである。
図10に示すように、本動作では、図5に示すステップS101およびS102と同様の工程を経ることで、領域検出部22における立体物領域検出部223が入力画像100に含まれる立体物領域103を検出する。ただし、ステップS101で入力された入力画像100は、領域検出部22の他に、仮想境界線設定部25にも入力される。
また、本実施の形態1で生成された奥行きに基づいて、入力画像100の各画素のシフト量を求め、入力画像100をシフトさせることにより、入力画像100とは別の視点から観測した画像を生成することができる。そこで、2視点またはそれ以上の数の視点から観測した多視点画像を入力画像100から生成し、それらを立体映像表示用の表示装置に表示することにより立体視が可能となる。入力画像100とは別の視点から観測した画像は、たとえば別の視点に基づいたレンダリングにより生成することができる。
つぎに本実施の形態2では、領域検出部22における空領域検出部221が入力画像100に含まれる空領域101を検出し(ステップS201)、さらに、地面領域検出部222が入力画像100に含まれる地面領域102を検出する(ステップS202)。なお、検出された立体物領域103は、デプスマップ生成部14に入力される。また、検出された空領域101および地面領域102は、仮想境界線設定部25およびベースデプス生成部26にそれぞれ入力される。
仮想境界線設定部25は、画像入力部11から入力された入力画像100と、領域検出部22から入力された空領域101および地面領域102とから、入力画像100に対して設定する仮想境界線204を算出し、これを入力画像100に設定する(ステップS203)。なお、仮想境界線204の算出方法は、上述の通りである。また、仮想境界線204が設定された入力画像100は、ベースデプス生成部26に入力される。
ベースデプス生成部26は、入力画像100に設定された仮想境界線204に基づいて、ベースデプス251を生成する(ステップS204)。なお、ベースデプス251の生成方法は、上述の通りである。また、生成されたベースデプス251は、入力画像100とともにベースデプス付与部13に入力される。
ベースデプス付与部13は、図5に示すステップS104と同様に、入力されたベースデプス251を入力画像100に付与し(ステップS104)、つづいて、図5のステップS105〜S107と同様の工程を経ることで、デプスマップ110を生成する。これにより、図9に例示するようなデプスマップ210が生成される。
以上のように構成および動作することで、本実施の形態2では、入力画像100に対して仮想境界線204を設定し、この仮想境界線204に基づいて入力画像100に付与するベースデプス251を生成するため、入力画像100中の実際の奥行き構造により近いベースデプス251を生成して使用することが可能となる。この結果、2次元画像からより正確な奥行きの構造(デプスマップ)を生成することが可能となる。なお、その他の構成、動作および効果は、実施の形態1と同様であるため、ここでは詳細な説明を省略する。
なお、上述した実施の形態における画像処理装置および方法は、ソフトウエアで実現されても、ハードウエアで実現されてもよい。ソフトウエアで実現する場合、たとえば所定のプログラムをCPUなどの情報処理装置が読み出して実行することで、画像処理装置および方法が実現される。所定のプログラムは、たとえばCD−ROMやDVD−ROMやフラッシュメモリなどの記録媒体に記録されていてもよいし、ネットワークに接続された記録装置に記録されていてもよい。情報処理装置は、この所定のプログラムを読み出すか、ダウンロードして実行する。
また、上記実施の形態およびその変形例は本発明を実施するための例にすぎず、本発明はこれらに限定されるものではなく、仕様等に応じて種々変形することは本発明の範囲内であり、更に本発明の範囲内において、他の様々な実施の形態が可能であることは上記記載から自明である。例えば各実施の形態に対して適宜例示した変形例は、他の実施の形態に対して適用することも可能であることは言うまでもない。
1、2 画像処理装置、 11 画像入力部、 12,22 領域検出部、 13 ベースデプス付与部、 14 デプスマップ生成部、 15 テンプレート記憶部、 25 仮想境界線設定部、 26 ベースデプス生成部、 100 入力画像、 101 空領域、 102 地面領域、 103a,103b 立体物領域、 103c 接地位置近傍、 110,210 デプスマップ、 151,251 ベースデプス、 204 仮想境界線、 221 空領域検出部、 222 地面領域検出部、 223 立体物領域検出部

Claims (11)

  1. 画像の奥行きを表現するデプスマップを生成する画像処理装置であって、
    画像に含まれる立体物の領域を検出する領域検出部と、
    奥行きの基本構造であるベースデプスを前記画像に付与するベースデプス付与部と、
    前記立体物の接地位置近傍の奥行きを前記画像に付与されたベースデプスから取得し、取得した該奥行きを前記立体物の領域の奥行きとして前記ベースデプスに設定するデプスマップ生成部と、
    を備える、画像処理装置。
  2. 前記画像に仮想境界線を設定する設定部と、
    前記仮想境界線が設定された画像に基づいて前記ベースデプスを生成するベースデプスと、
    をさらに備え、
    前記ベースデプスは、前記仮想境界線が最奥となる構造である、請求項1に記載の画像処理装置。
  3. 前記設定部は、前記画像に含まれる地平線近傍に前記仮想境界線を設定する、請求項2に記載の画像処理装置。
  4. 前記設定部は、前記画像における消失点を通るように前記仮想境界線を設定する、請求項2に記載の画像処理装置。
  5. 前記領域検出部は、前記画像に含まれる地面の領域を検出する地面領域検出部を含み、
    前記設定部は、前記地面の領域の分布に応じて前記仮想境界線を設定する、請求項2に記載の画像処理装置。
  6. 前記領域検出部は、前記画像に含まれる地面の領域を検出する地面領域検出部と、該画像に含まれる空の領域を検出する空領域検出部と、を含み、
    前記設定部は、前記地面の領域と前記空の領域とに応じて前記仮想境界線を設定する、請求項2に記載の画像処理装置。
  7. 前記デプスマップ生成部は、前記地面の領域の奥行きを、前記画像に対して前記仮想境界線が設定された位置に基づいて算出する、請求項5または6に記載の画像処理装置。
  8. 前記デプスマップ生成部は、前記空領域の奥行きに前記仮想境界線の奥行きを設定する、請求項6に記載の画像処理装置。
  9. 前記ベースデプスは、前記画像の下端に近づくほど浅い奥行きとなる構造である、請求項1に記載の画像処理装置。
  10. 画像の奥行きを表現するデプスマップを生成する画像処理方法において、
    画像に含まれる立体物の領域を検出し、
    奥行きの基本構造であるベースデプスを前記画像に付与し、
    前記立体物の接地位置近傍の奥行きを前記画像に付与されたベースデプスから取得し、
    取得した前記奥行きを前記立体物の領域の奥行きとして前記ベースデプスに設定する、画像処理方法。
  11. 画像の奥行きを表現するデプスマップを画像処理装置に生成させるためのプログラムであって、
    画像に含まれる立体物の領域を検出する領域検出処理と、
    奥行きの基本構造であるベースデプスを前記画像に付与する付与処理と、
    前記立体物の接地位置近傍の奥行きを前記画像に付与されたベースデプスから取得し、取得した該奥行きを前記立体物の領域の奥行きとして前記ベースデプスに設定するデプスマップ生成処理と、
    を前記画像処理装置に実行させる、プログラム。
JP2010251267A 2010-11-09 2010-11-09 画像処理装置、表示装置、方法およびそのプログラム Expired - Fee Related JP5422538B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2010251267A JP5422538B2 (ja) 2010-11-09 2010-11-09 画像処理装置、表示装置、方法およびそのプログラム
US13/051,571 US20120113094A1 (en) 2010-11-09 2011-03-18 Image processing apparatus, image processing method, and computer program product thereof
TW100129969A TWI457857B (zh) 2010-11-09 2011-08-22 影像處理裝置,影像處理方法,及其電腦程式產品
CN2011102663354A CN102467743A (zh) 2010-11-09 2011-09-09 图像处理装置和图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010251267A JP5422538B2 (ja) 2010-11-09 2010-11-09 画像処理装置、表示装置、方法およびそのプログラム

Publications (3)

Publication Number Publication Date
JP2012105019A true JP2012105019A (ja) 2012-05-31
JP2012105019A5 JP2012105019A5 (ja) 2012-08-23
JP5422538B2 JP5422538B2 (ja) 2014-02-19

Family

ID=46019192

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010251267A Expired - Fee Related JP5422538B2 (ja) 2010-11-09 2010-11-09 画像処理装置、表示装置、方法およびそのプログラム

Country Status (4)

Country Link
US (1) US20120113094A1 (ja)
JP (1) JP5422538B2 (ja)
CN (1) CN102467743A (ja)
TW (1) TWI457857B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019121216A (ja) * 2018-01-09 2019-07-22 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5703255B2 (ja) * 2012-04-27 2015-04-15 株式会社東芝 画像処理装置、画像処理方法およびプログラム
JP6818471B2 (ja) 2016-08-31 2021-01-20 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
EP3396949A1 (en) 2017-04-26 2018-10-31 Koninklijke Philips N.V. Apparatus and method for processing a depth map
CN111311674B (zh) * 2020-01-13 2021-05-28 青岛市市立医院(青岛市临床医学研究所、青岛市医学影像中心) 医院淋浴间房顶喷淋头数量解析平台

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09185712A (ja) * 1995-12-28 1997-07-15 Kazunari Era 三次元画像データ作成方法
JP2000316086A (ja) * 1998-11-06 2000-11-14 Seiko Epson Corp 画像データ生成プログラムを記録した媒体、画像データ生成装置および画像データ生成方法
JP2002159022A (ja) * 2000-11-17 2002-05-31 Fuji Xerox Co Ltd 視差画像生成装置および視差画像生成方法
JP4214976B2 (ja) * 2003-09-24 2009-01-28 日本ビクター株式会社 擬似立体画像作成装置及び擬似立体画像作成方法並びに擬似立体画像表示システム
JP2010147660A (ja) * 2008-12-17 2010-07-01 Nikon Corp 画像処理装置、電子カメラ及び画像処理プログラム
JP2010158009A (ja) * 2008-12-26 2010-07-15 Samsung Electronics Co Ltd 映像処理方法及びその装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001241947A (ja) * 2000-02-28 2001-09-07 Telecommunication Advancement Organization Of Japan 画像における奥行き算出方法
US7068815B2 (en) * 2003-06-13 2006-06-27 Sarnoff Corporation Method and apparatus for ground detection and removal in vision systems
CN1296873C (zh) * 2004-07-15 2007-01-24 浙江大学 基于相对深度计算的画中游方法
JPWO2008020476A1 (ja) * 2006-08-16 2010-01-07 旭化成ケミカルズ株式会社 ブロック共重合体の製造方法およびブロック共重合体又はその水素添加物
CN1945629A (zh) * 2006-10-20 2007-04-11 北京交通大学 一种图像物体大小恒常性计算方法
EP2087466B1 (en) * 2006-11-21 2020-06-17 Koninklijke Philips N.V. Generation of depth map for an image
MX2009006405A (es) * 2006-12-19 2009-06-23 Koninkl Philips Electronics Nv Metodo y sistema para codificar una señal de imagen, señal de imagen codificada, metodo y sistema para decodificar una señal de imagen.
US8213711B2 (en) * 2007-04-03 2012-07-03 Her Majesty The Queen In Right Of Canada As Represented By The Minister Of Industry, Through The Communications Research Centre Canada Method and graphical user interface for modifying depth maps
CN101291415B (zh) * 2008-05-30 2010-07-21 华为终端有限公司 一种三维视频通信的方法、装置及系统
EP2194504A1 (en) * 2008-12-02 2010-06-09 Koninklijke Philips Electronics N.V. Generation of a depth map
US8537200B2 (en) * 2009-10-23 2013-09-17 Qualcomm Incorporated Depth map generation techniques for conversion of 2D video data to 3D video data

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09185712A (ja) * 1995-12-28 1997-07-15 Kazunari Era 三次元画像データ作成方法
JP2000316086A (ja) * 1998-11-06 2000-11-14 Seiko Epson Corp 画像データ生成プログラムを記録した媒体、画像データ生成装置および画像データ生成方法
JP2002159022A (ja) * 2000-11-17 2002-05-31 Fuji Xerox Co Ltd 視差画像生成装置および視差画像生成方法
JP4214976B2 (ja) * 2003-09-24 2009-01-28 日本ビクター株式会社 擬似立体画像作成装置及び擬似立体画像作成方法並びに擬似立体画像表示システム
JP2010147660A (ja) * 2008-12-17 2010-07-01 Nikon Corp 画像処理装置、電子カメラ及び画像処理プログラム
JP2010158009A (ja) * 2008-12-26 2010-07-15 Samsung Electronics Co Ltd 映像処理方法及びその装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019121216A (ja) * 2018-01-09 2019-07-22 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP7191514B2 (ja) 2018-01-09 2022-12-19 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム

Also Published As

Publication number Publication date
US20120113094A1 (en) 2012-05-10
CN102467743A (zh) 2012-05-23
TW201225006A (en) 2012-06-16
TWI457857B (zh) 2014-10-21
JP5422538B2 (ja) 2014-02-19

Similar Documents

Publication Publication Date Title
JP5132754B2 (ja) 画像処理装置、方法およびそのプログラム
CN102938844B (zh) 利用立体成像生成自由视点视频
JP7003994B2 (ja) 画像処理装置および方法
US20190098277A1 (en) Image processing apparatus, image processing method, image processing system, and storage medium
US9013482B2 (en) Mesh generating apparatus, method and computer-readable medium, and image processing apparatus, method and computer-readable medium
US11328479B2 (en) Reconstruction method, reconstruction device, and generation device
KR101055411B1 (ko) 입체 영상 생성 방법 및 그 장치
JP2018536915A (ja) 3次元再構成において構造特徴を検出し、組み合わせるための方法およびシステム
US20130162634A1 (en) Image processing method and apparatus using multi-layer representation
KR20110090958A (ko) 이미지 속성들에 대한 오클루젼 데이터의 생성
US11017587B2 (en) Image generation method and image generation device
JP5422538B2 (ja) 画像処理装置、表示装置、方法およびそのプログラム
US20200177868A1 (en) Apparatus and method for generating a tiled three-dimensional image representation of a scene
JP2011170487A (ja) 大空間カメラ配置における幾何情報に基づく仮想視点画像生成方法およびプログラム
KR101125061B1 (ko) Ldi 기법 깊이맵을 참조한 2d 동영상의 3d 동영상 전환방법
TWI716874B (zh) 影像處理裝置、影像處理方法、及影像處理程式
US20150145861A1 (en) Method and arrangement for model generation
KR101817756B1 (ko) 인터랙티브한 시점 제어가 가능한 3차원 모델 기반의 ptm 생성 시스템 및 이를 이용한 ptm 생성 방법
JP6595878B2 (ja) 要素画像群生成装置及びそのプログラム
JP2015033047A (ja) 複数カメラを用いた奥行き推定装置
De Sorbier et al. Augmented reality for 3D TV using depth camera input
TWI517096B (zh) 用於立體影像合成之逆向深度映射方法
KR101993961B1 (ko) 임의시점 영상의 홀 채움 방법
JP5459231B2 (ja) 擬似立体画像生成装置、擬似立体画像生成プログラム及び擬似立体画像表示装置
CN110148221B (zh) 一种图像重建时的线条拟合的方法

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120705

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120925

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130604

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130717

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131125

LAPS Cancellation because of no payment of annual fees