JP2011215949A - 視差画像生成装置、及びその方法 - Google Patents

視差画像生成装置、及びその方法 Download PDF

Info

Publication number
JP2011215949A
JP2011215949A JP2010084326A JP2010084326A JP2011215949A JP 2011215949 A JP2011215949 A JP 2011215949A JP 2010084326 A JP2010084326 A JP 2010084326A JP 2010084326 A JP2010084326 A JP 2010084326A JP 2011215949 A JP2011215949 A JP 2011215949A
Authority
JP
Japan
Prior art keywords
depth
image
information
depth information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010084326A
Other languages
English (en)
Other versions
JP5227993B2 (ja
Inventor
Sunao Mishima
直 三島
Takeshi Mita
雄志 三田
Kenichi Shimoyama
賢一 下山
Ryusuke Hirai
隆介 平井
Masahiro Baba
雅裕 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2010084326A priority Critical patent/JP5227993B2/ja
Priority to US12/888,582 priority patent/US8665319B2/en
Priority to CN201010567069.4A priority patent/CN102209248B/zh
Publication of JP2011215949A publication Critical patent/JP2011215949A/ja
Application granted granted Critical
Publication of JP5227993B2 publication Critical patent/JP5227993B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)

Abstract

【課題】 複数の手法によって求められた画面内の奥行き分布による立体感を保持しつつ、オブジェクトの凹凸を表現する視差画像の生成
【解決手段】 第1画像を用いて相互に視差のある少なくとも1枚の視差画像を生成する視差画像生成装置において、複数の方法に基づいて、前記方法毎に3次元空間における再現範囲における前記第1画像内の奥行きの分布を示す分布情報を推定する第1推定部と、複数の前記分布情報を合成して第1奥行き情報を求める第1合成部と、を有する第1算出部と、前記第1画像内のオブジェクト毎の相対的な凹凸を示す第2奥行き情報を求める第2算出部と、前記第1奥行き情報と、前記第2奥行き情報とを前記第1合成部とは異なる方法で統合して第3奥行き情報を求める第3合成部と、前記第3奥行き情報と、前記第1画像とに基づいて、前記視差画像を生成する生成部と、を備えることを特徴とする視差画像生成装置。

【選択図】 図1

Description

本開示は、視差画像生成装置、及びその方法に関する。
2次元画像(静止画像、動画像を含む)を元に画面内の奥行き情報を推定し、推定された奥行き情報に従って視差画像を生成する技術がある。
画像の高域成分に応じて複数の画面全体の奥行きを表したモデルをブレンドし、ブレンドされた奥行きモデルに画像の色信号の1つである赤信号を加算して最終的な奥行きを求める方法が開示されている(例えば、特許文献1)。また、3つの方法で画面全体の奥行きを推定し、推定された3つの奥行きを重み付き平均して最終的な奥行きを求める方法が開示されている(例えば、非特許文献1)。
特開2005-151534号
C.-C. Cheng, C.-T. Li, Y.-M. Tsai and L.-G. Chen, "A Quality-Scalable Depth-Aware Video Processing System", SID2009
複数の手法によって求められた画面内の奥行き分布による立体感を保持しつつ、オブジェクトの凹凸を表現する視差画像の生成を目的とする。
上記課題を解決するために本発明の一態様に係る視差画像生成装置は、第1画像を用いて相互に視差のある少なくとも1枚の視差画像を生成する視差画像生成装置において、複数の方法に基づいて、前記方法毎に3次元空間における再現範囲における前記第1画像内の奥行きの分布を示す分布情報を推定する第1推定部と、複数の前記分布情報を合成して第1奥行き情報を求める第1合成部と、を有する第1算出部と、前記第1画像内のオブジェクト毎の相対的な凹凸を示す第2奥行き情報を求める第2算出部と、前記第1奥行き情報と、前記第2奥行き情報とを前記第1合成部とは異なる方法で統合して第3奥行き情報を求める第3合成部と、前記第3奥行き情報と、前記第1画像とに基づいて、前記視差画像を生成する生成部とを備える。



第1の実施形態の視差画像生成装置を示す図。 第1の実施形態の視差画像生成装置の動作を示す図。 (a)分布情報の奥行きモデルの例を示す図(b)凹凸情報の奥行きモデルの例を示す図。 奥行き情報から視差ベクトルを算出する方法を説明する図。 視差ベクトルから、視差画像を生成する方法を説明する図である。 奥行き情報の例を示す図。 第1奥行き情報および第2奥行き情報の例を示す図。 第3奥行き情報の例を示す図。 奥行き情報から視差への変換モデルの例を示す図。

以下、図面を参照しながら本発明の各実施形態について詳細に説明する。なお、以下の実施形態中では、同一の番号を付した部分については同様の動作を行うものとして、重ねての説明を省略する。

(第1の実施形態)
本実施形態は、2次元画像(静止画像、動画像を含む)である第1画像から、相互に視差のある少なくとも1枚の視差画像を生成する装置に関する。なお、以下の実施形態では、視差画像を2枚生成する方法について例示するが、これに限られるものではない。例えば、裸眼で立体視を等の用途の場合には、視点数に対応する数の視差画像を生成しても構わない。
図1(a)は、本実施形態の視差画像生成装置を示す図である。視差画像生成装置は、第1奥行き算出部100と、第2奥行き算出部200と、合成部300、生成部400とを備える。
第1奥行き算出部101は、N(N≧2)個以上の推定部101(1)〜101(N)と、合成部103とを備える。
推定部101(1)〜101(N)は、それぞれに異なる方法で、推定部101(1)〜101(N)毎に3次元空間における再現範囲における第1画像内の奥行きの分布を示す分布情報を推定する。
合成部103は、推定部101(1)〜101(N)が推定した複数の分布情報を合成して第1奥行き情報を求める。
第2奥行き算出部200は、第1画像内のオブジェクト領域内での相対的な凹凸を示す第2奥行き情報を求める。オブジェクト領域とは、第1画面内でオブジェクトが存在する領域を示す。
分布情報は、画面全体での奥行き再現範囲内での絶対的な奥行きを示すのに対して、凹凸情報はオブジェクト内での相対的な奥行きの関係を示すものである。つまり、分布情報が再現する奥行きの範囲は、再現範囲内であればいずれでもいいのに対し、凹凸情報が再現する奥行きの範囲は再現範囲に比べ狭い範囲となる。
合成部300は、第1奥行き情報と、第2奥行き情報とを合成して第3奥行き情報を求める。なお、合成部300は、合成部103とは異なる方法で奥行きを合成する。詳細については後述する。
生成部400は、第3奥行き情報と、第1画像とに基づいて、視差画像を生成する。奥行きから視差画像を生成する手法は既存の如何なる手法であっても構わない。
図1(b)は、本実施形態の視差画像生成装置の変形例を示す図である。第2奥行き算出部200が、第2奥行き算出部201は、M(M≧2)個以上の推定部201(1)〜201(M)と、合成部203とを備える点が、図1(a)の例とは異なる。
推定部201(m)は、第1画像内の、対象とするオブジェクトを検出し、検出されたオブジェクト毎に検出されたオブジェクトの種類に応じた凹凸情報を推定する(1≦m≦M)。また、推定部201(1)〜201(M)は共通のオブジェクトをM種類の手法で検出し、検出されたオブジェクトの凹凸情報を同じ方法で推定するものであっても構わない。また、推定部201(1)〜201(M)は共通のオブジェクトを共通の手法で検出し、検出されたオブジェクトの凹凸情報をM種類の手法で推定するものであってもよい。
合成部203は、推定部201(1)〜201(M)が推定した複数の凹凸情報を合成する。
次に、本実施形態の視差画像生成装置の動作を説明するが、簡便のために図1(b)の例について述べる。
図2は、本実施形態の視差画像生成装置の動作を示す図である。以下の各ステップで生成する視差画像によって再現する3次元空間における奥行きの再現範囲を0≦z≦Zとする。ここでzは奥行き情報を表す。z=0が再現範囲内で最も手前側(奥行きが小さい)を表し、z=Zが再現範囲内で最も奥側(奥行きが大きい)を表す。
推定部101(1)〜101(N)は、それぞれに異なる方法で、推定部101(1)〜101(N)毎に3次元空間における再現範囲における第1画像内の奥行きの分布を示す分布情報を推定する(S21(1)〜(N))。なお、S21(n)では推定部101(n)が分布情報を推定する(1≦n≦N)。分布情報を推定する方法としては、あらかじめ定められた奥行きモデルを用意しておき、第1画像に応じてそれらを適宜用いる方法でもよい。
図3(a)は、分布情報の奥行きモデルの例を示す図である。x軸、y軸は画像内の位置を示す。また、白でハッチングされた領域は奥行きが奥側であることを示し、黒に近づく程に奥行きが手前側となっていることを示す。また、第1画像と、第1画像とは異なる時間に表示すべき第2の画像との間の動きを検出し、検出された動きに基づいて分布情報を推定する方法でもよい。また、特定の画素値パターンに応じて分布情報を推定する方法でも良い。S21(n)における分布情報の推定手法は、第1画像の画面全体での奥行きの分布情報を推定することが出来るものであればいずれの方法でもよい。ここでn番目(1≦n≦N)のS21(n)によって推定された分布情報における、画素位置(x,y)での奥行きzを以下のように定義する。なお、0≦z(x,y)≦Zである。
合成部103は、推定部101(1)〜101(N)が推定した複数の分布情報を合成して第1奥行き情報を求める(S22)。奥行き合成ステップでは、N個の奥行き情報を合成して、一つの第1奥行き情報を求める。コンピュータグラフィックスでは二つの奥行きを合成する場合には、カメラに近いものを選択して合成する。これは光線追跡の考え方に基づいたもので、目に入る光は最終的に遮蔽されなかったものである、という原理に基づいている。ここでも同様に手前側の奥行きを選択して合成する。奥行きの値が小さい程、手前側を表すため、次式のように最小値を選択することにより第1奥行き情報を求める。
zc(x,y)=min{z(x,y),・・・,z(x,y)}
ここでzc(x,y)は画素位置(x,y)における第1奥行き情報である。また、min{a,b,c…}、{a,b,c…}の中から最小値を選択する操作を意味する。また光線追跡的には好ましくはないが、N個の奥行き情報の平均によって、第1奥行き情報を求めても良い。
推定部201(1)〜(M)は、第1画像内の、対象とするオブジェクトを検出し、検出されたオブジェクト毎に検出されたオブジェクトの種類に応じた凹凸情報を推定する(S23(1)〜S23(M))。なお、S23(m)では推定部201(m)が凹凸情報を推定する(1≦m≦M)。推定部201は、第1画像内で検出対象のオブジェクトを検出する。検出されたオブジェクトの種類に応じてあらかじめ定めてあった相対的な凹凸モデルをオブジェクト領域内に割り当てることで第2奥行き情報を算出する。なお、本実施形態では第1画像中に存在する顔の位置と大きさを検出し、検出された位置にあらかじめ定めておいた相対的な奥行きモデルを割り当てる手法について例示する。こうすることによって、オブジェクトの領域に適切な凹凸を設定することができる。
図3(b)は、顔及び胴のモデルの例を示す図である。x軸、y軸は画像内の位置を示す。また、白でハッチングされた領域は奥行きが奥側であることを示し、黒に近づく程に奥行きが手前側となっていることを示す。また顔だけでなく、のオブジェクトを検出してそれらに応じた奥行きモデルを割り当ててもよい。なお、検出するオブジェクトは顔によらず、例えば人物、動物、車等であっても構わない。本実施形態では、顔以外に車を検出する例について述べる。
ここでS23(m)によって推定された画素位置(x,y)における凹凸情報を以下のように定義する。−Z≦r(x,y)≦Zここでr(x,y)=0が相対的な凹凸がない状態であり、−Zがオブジェクト領域内で相対的に手前側に凸な状態、Zが相対的に奥側に凹な状態とする。ここでZは検出されたオブジェクトの大きさに基づいて決定することができる。例えば大きなオブジェクトほど相対的な奥行きも大きく見えるため、Zを大きくし、小さなオブジェクトはZを小さくするなどである。またオブジェクトの位置における第1奥行き情報に基づいてZを決定しても良い。第1奥行き情報が手前を示している場合にはZを大きくし、第1奥行き情報が奥のものはZを小さくする。
合成部203は、推定部201(1)〜201(M)が推定した複数の凹凸情報を合成して第2奥行き情報を求める(S24)。コンピュータグラフィックスでは二つの奥行きを合成する場合には、カメラに近いものを選択して合成する。これは光線追跡の考え方に基づいたもので、目に入る光は最終的に遮蔽されなかったものである、という原理に基づいている。S24でも、S22と同様に手前側の奥行きを選択して合成する。奥行き情報は小さい値が手前側を表すため、以下のように最小値を選択することにより達成できる。rc(x,y)=min{r(x,y),・・・,r(x,y)}ここでrc(x,y)は画素位置(x,y)における第2奥行き情報である。また光線追跡的には正しくはないが、M個の凹凸情報の平均を用いても良い。
また第1奥行き情報に基づいて凹凸情報の合成をしても良い。凹凸情報を与えているそれぞれのオブジェクトの重心位置における第1奥行き情報を重心奥行き情報とすると、オブジェクト間(例えば、人と車等)で重なり合いが発生している領域において、重心奥行き情報が最も手前になる凹凸情報を選択するようにしても良い。
合成部300は、第1奥行き情報と、第2奥行き情報とを合成して第3奥行き情報を求める(S24)。なお、合成部300は、合成部103及び合成部203とは異なる方法で奥行きを合成する。
第1画像内の奥行きの絶対的な分布を示す第1奥行き情報に、オブジェクト領域内での相対的な凹凸を付加して奥行きを表現するために、第1奥行き情報と第2奥行き情報を加算することで第3奥行き情報を求める。
zf(x,y)=zc(x,y)+rc(x,y)
ここでzf(x,y)は画素位置(x,y)における第3奥行き情報である。また加算ではなく乗算でも構わない。zf(x,y)=zc(x,y)・rc(x,y)
第1奥行き情報と第2奥行き情報を合成したことにより再現したい3次元空間における奥行きの再現範囲0≦z≦Zを逸脱してしまうことがあり得る。そこで再現範囲内に収まるように第3奥行き情報を調節することが好ましい。
生成部400は、第3奥行き情報と、第1画像とに基づいて、視差画像を生成する(S25)。まずは第3奥行き情報から視差ベクトルを算出する。以下、視差画像の生成方法の一例について詳述する。
図4は、奥行き情報から視差ベクトルを算出する方法を説明する図である。右目・左目・物体を結ぶ三角形と、画面上での右視差・左視差・物体、二つの三角形の相似性を利用して、視差ベクトルが算出できる。ここでzfは最終的な奥行き情報、d[cm]は視差ベクトルの大きさ、b[cm]は眼間距離、z[cm]は画面までの距離、z[cm]、実空間での奥行きの距離L[cm]を示す。
画素サイズから実空間[cm]への変換を以下に従い行う。
pixel=(画面解像度[pixel]/画面サイズ[cm])・d[cm]
奥行き情報zfは0〜Zの範囲であり(0〜1でも良い)、0が手前、Zが奥を表しているとする。しかしこの値は、仮想的なものであり実際の距離に換算する必要がある。実空間での距離Lを用いて奥行き情報から実空間の距離へ変換する。奥行きから実空間へは、以下の変換式によって変換する。γ=Lz/zmax[cm]ここでzmax=Zである。すると画面から対象物までの距離z’は以下のようになる。z’=γzf−z
三角形の相似性から以下の関係が成り立つ。
d:b=(z’):(z+z’) ・・・式(1)
d(z+z’)=bz’ ・・・式(2)
z={(b−d)z+dz}/{γ(b−d)} ・・・式(3)
上記奥行き変換モデルは視差ベクトルと反比例の関係にあるモデルだったが、例えば反比例の関係を部分的な比例関係で近似した関数のモデルでも良い。
立体視のパラメータb,z,z,Lは、提供したい立体視に基づいて任意に決定できる。例えば、実際の画面の位置に従ってzを決定し、飛び出しを大きくしたい場合にはzを大きくする。また奥行きの深さはLによって決定できる。
立体視のパラメータが決まれば、式(1)〜(3)を変形した以下の奥行き視差ベクトル変換モデルに従って、奥行き情報から視差ベクトルを算出できる。dの単位は[cm]
d:b=(z’):(z+z’)
d=b{z’/(z+z’)}
図5は、算出された視差ベクトルから、視差画像を生成する方法を説明する図である。第1画像は左目・右目の中間の視点から得られたものだとすると、左視差画像と右視差画像は視差ベクトルdに−1/2,1/2を乗じた視差ベクトルd,dから生成できる。
dL=(−1/2)d、 dR=(1/2)d
左視差画像は、第1画像の画素値I(x,y)をdに従って移動させることにより生成できる。右視差画像は、第1画像の画素値I(x,y)をdに従って移動させることにより生成できる。単純に移動しただけでは画素値が割り当てられていない領域(以下、穴と記載)が発生してしまう場合がある。そのため、穴には周辺の画素値を割り当てる等すればよい。ここでは2つ視差画像を生成する例について述べたが、多視差の場合も同様に処理すればよい。
次に、本実施形態の視差画像生成装置による、第3奥行き情報について詳細に説明する。
例えば、部屋の中に人が存在する画像が第1画像の場合を考える。その場合、例えば部屋の奥行きをモデルを当てはめる、動きベクトルを求める等して複数の分布情報を推定し、これらを合成し第1奥行き情報を取得する。また、第1画像内の人を検出して顔の凹凸情報(第2奥行き情報)を推定する。推定された第1奥行き情報と第2奥行き情報を合成する必要がある。しかし凹凸情報の再現範囲は、画面全体の奥行きの分布情報よりも大幅に狭い。従って、第1奥行き情報および第2奥行き情報を、第1奥行き情報及び/又は第2奥行き情報を求める際の合成方法と同様の手法で合成してしまうと、画面内の奥行き分布による立体感を保持しつつ、オブジェクトの凹凸を表現することができない。
以下の図6〜図8の横軸は、画素位置を示し、縦軸は、奥行き情報を示す
図6は、奥行き情報の例を示す図である。図6(a)に奥行き情報のテストパターンを示す。なお、図6では0が最も奥側、10が最も手前側を示している。上述した奥行き情報とは奥側と手前側の大小関係が逆転している。分布情報1、分布情報2は、それぞれ推定部101(n)が求めた分布情報の例を示す。凹凸情報1、凹凸情報2は、推定部201(m)が求めた凹凸情報の例を示す。
図6(b)は、図6(a)のテストパターンの分布情報1、分布情報2、凹凸情報1、凹凸情報2の平均を取ったものと、図6(a)のテストパターンのうち同位置で最大値を選択して合成したものを示す。平均を取った場合には分布情報が示す奥行きのダイナミックレンジが圧縮されてしまい、凹凸情報は全体に埋もれてしまっている。それに対して最大値を取った場合には、部屋全体の奥行きのダイナミックレンジは保持されるが、顔の奥行きは完全に埋もれてしまっている。これは、画面全体での絶対的な奥行きの分布情報と、オブジェクト内での相対的な奥行きの凹凸情報を一緒に合成したことが原因である。「絶対的」は、奥行き再現範囲0≦z≦Zに対して絶対的な奥行きを意味する。「相対的」は、画面内での局所的なオブジェクト領域内での相対的な奥行きを意味する。相対的な奥行き情報の再現範囲は絶対的な奥行き情報の再現範囲とは異なる。そのため絶対的な奥行き情報と相対的な奥行き情報を同じ手法で合成しようとすると、相互の持っている値の意味が異なるために合成が失敗してしまう。
図7(a)は、図6(a)に奥行き情報のテストパターンから、分布情報1及び分布情報2を合成した第1奥行き情報を示す図である。図7(b)は、凹凸情報1及び凹凸情報2から合成した第2奥行き情報の例を示す図である。合成方法は、第1奥行き情報および第2奥行き情報共に同位置で奥行きが最も手前側の奥行き情報を選択して合成したものを示す。
図8は、図7で示した第1奥行き情報および第2奥行き情報を合成した第3奥行き情報を示す。第3奥行き情報は、第1奥行き情報と第2奥行き情報とを加算して合成した。
第1奥行き情報および第2奥行き情報を求める際の合成方法と、第1奥行き情報と第2奥行き情報を合成する際の合成方法とで異なる方法を用いることで、複数の手法によって求められた画面内の奥行き分布による立体感を保持しつつ、オブジェクトの凹凸を表現する視差画像の生成をすることが出来る。

(第2の実施形態)
図9は、本実施形態の視差画像生成装置を示す図である。本実施形態の視差画像生成装置は、図1(b)の視差画像生成装置に対して、奥行き情報を調節する機能を備える点が異なる。
調整部102(n)は、推定部101(n)が推定した分布情報を調節する。例えば、推定部101(1)では0≦z≦Zの範囲の分布情報を推定するが、推定部101(2)では100≦z≦Zの範囲の値を出力するといったように、出力される奥行き情報の範囲が異なる場合に、それらを調節して同じ範囲にする必要がある。そのため、調整部102(n)は、例えば奥行き情報の一点(以下、固定点と記載)を固定して(例えばZ)奥行き範囲の幅を広くしたり狭くしたり、といった調節をする。また、ある推定部101(n)信頼性が低い場合には、奥行き範囲を奥側に狭める調節を行い、信頼性の低い奥行き情報の影響を少なくすることもできる。
調整部202(m)は、推定部201(m)が推定した第2奥行き情報を調節する。調整の仕方は、調整部102(n)と同様の手法であって良い。奥行き情報調節ステップと同様に調節を行うことができる。なお、固定点を0にすることにより相対的な凹凸情報の特性を有効に活用することができる。



第1奥行き算出部100、推定部101(n)、調整部102(n)、調整部202(m)、第2奥行き算出部200、統合部300、生成部400

Claims (8)

  1. 第1画像を用いて相互に視差のある少なくとも1枚の視差画像を生成する視差画像生成装置において、
    複数の方法に基づいて、前記方法毎に3次元空間における奥行きの再現範囲における前記第1画像内の奥行きの分布を示す分布情報を推定する第1推定部と、複数の前記分布情報を合成して第1奥行き情報を求める第1合成部と、を有する第1算出部と、
    前記第1画像内のオブジェクト毎の相対的な凹凸を示す第2奥行き情報を求める第2算出部と、
    前記第1奥行き情報と、前記第2奥行き情報とを前記第1合成部とは異なる方法で統合して第3奥行き情報を求める第3合成部と、
    前記第3奥行き情報と、前記第1画像とに基づいて、前記視差画像を生成する生成部と、
    を備えることを特徴とする視差画像生成装置。
  2. 前記第1合成部は、複数の前記分布情報のうち、前記第1画像内の同じ位置における奥行きが手前側の方の奥行きを選択することを特徴とする請求項1記載の視差画像生成装置。
  3. 前記第1合成部及び前記第2合成部は、前記第1奥行き情報及び前記第2奥行き情報をそれぞれ合成の前に奥行き情報の調節を行うことを特徴とする請求項2記載の視差画像生成装置。
  4. 前記第3合成部は、前記第1画像内の同じ位置における前記第1奥行き情報が示す奥行きと、前記第2奥行き情報が示す奥行きとを加算して前記第3奥行き情報を求めることを特徴とする請求項2記載の視差画像生成装置。
  5. 前記第3合成部は、前記第1画像内の同じ位置における前記第1奥行き情報が示す奥行きと、前記第2奥行き情報が示す奥行きとを乗算して前記第3奥行き情報を求めることを特徴とする請求項2記載の視差画像生成装置。
  6. 前記第2算出部は、
    前記第1画像内の、複数種類のオブジェクトを検出し、検出されたオブジェクト毎に前記種類に応じた凹凸情報を推定する第2推定部と、
    複数の前記凹凸情報を合成する第2合成部と、
    を備え、
    ることを特徴とする請求項1記載の視差画像生成装置。
  7. 前記第1の推定部は、前記第1画像と、前記第1画像とは異なる時間に表示すべき第2の画像との間の動きに応じて、前記分布情報を推定することを特徴とする請求項1記載の視差画像生成装置。
  8. 前記第1の推定部は、前記第1画像の構図の種類を判定し、判定結果に応じて前記分布情報を推定することを特徴とする請求項1記載の視差画像生成装置。
JP2010084326A 2010-03-31 2010-03-31 視差画像生成装置、及びその方法 Expired - Fee Related JP5227993B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010084326A JP5227993B2 (ja) 2010-03-31 2010-03-31 視差画像生成装置、及びその方法
US12/888,582 US8665319B2 (en) 2010-03-31 2010-09-23 Parallax image generating apparatus and method
CN201010567069.4A CN102209248B (zh) 2010-03-31 2010-11-30 视差图像生成装置和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010084326A JP5227993B2 (ja) 2010-03-31 2010-03-31 視差画像生成装置、及びその方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011024192A Division JP5087684B2 (ja) 2011-02-07 2011-02-07 画像処理装置、画像処理方法および画像表示装置

Publications (2)

Publication Number Publication Date
JP2011215949A true JP2011215949A (ja) 2011-10-27
JP5227993B2 JP5227993B2 (ja) 2013-07-03

Family

ID=44697882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010084326A Expired - Fee Related JP5227993B2 (ja) 2010-03-31 2010-03-31 視差画像生成装置、及びその方法

Country Status (3)

Country Link
US (1) US8665319B2 (ja)
JP (1) JP5227993B2 (ja)
CN (1) CN102209248B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013080439A1 (ja) * 2011-11-28 2013-06-06 パナソニック株式会社 立体画像処理装置及び立体画像処理方法
JP2015512196A (ja) * 2012-02-13 2015-04-23 トムソン ライセンシングThomson Licensing 3dグラフィックス・アニメーションを3dステレオ・コンテンツに挿入する方法および装置
JP2016500975A (ja) * 2012-11-01 2016-01-14 グーグル インコーポレイテッド 結合された深度キューに基づく平面視画像からの深度マップの生成

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5050094B2 (ja) * 2010-12-21 2012-10-17 株式会社東芝 映像処理装置及び映像処理方法
US20120236114A1 (en) * 2011-03-18 2012-09-20 Te-Hao Chang Depth information generator for generating depth information output by only processing part of received images having different views, and related depth information generating method and depth adjusting apparatus thereof
JP6024110B2 (ja) * 2012-01-26 2016-11-09 ソニー株式会社 画像処理装置、画像処理方法、プログラム、端末装置及び画像処理システム
CN103577790B (zh) * 2012-07-26 2016-06-01 株式会社理光 道路转弯类型检测方法和装置
CN104935910B (zh) * 2015-06-03 2017-10-17 青岛海信电器股份有限公司 一种三维图像矫正的方法及设备
US11881694B2 (en) 2021-04-19 2024-01-23 Erico International Corporation Data cable support

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001320731A (ja) * 1999-11-26 2001-11-16 Sanyo Electric Co Ltd 2次元映像を3次元映像に変換する装置及びその方法
JP2007219765A (ja) * 2006-02-15 2007-08-30 Toyota Motor Corp 画像処理装置、その方法、および画像処理用プログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6590573B1 (en) * 1983-05-09 2003-07-08 David Michael Geshwind Interactive computer system for creating three-dimensional image information and for converting two-dimensional image information for three-dimensional display systems
KR100445619B1 (ko) * 1996-07-18 2004-08-25 산요덴키가부시키가이샤 2차원 영상을 3차원 영상으로 변환하는 장치 및 방법
US6525699B1 (en) * 1998-05-21 2003-02-25 Nippon Telegraph And Telephone Corporation Three-dimensional representation method and an apparatus thereof
JP2004102689A (ja) 2002-09-10 2004-04-02 Toppan Printing Co Ltd 表示制御装置
WO2004071102A1 (ja) * 2003-01-20 2004-08-19 Sanyo Electric Co,. Ltd. 立体視用映像提供方法及び立体映像表示装置
JP4214976B2 (ja) 2003-09-24 2009-01-28 日本ビクター株式会社 擬似立体画像作成装置及び擬似立体画像作成方法並びに擬似立体画像表示システム
GB0400681D0 (en) * 2004-01-13 2004-02-18 Rue De Int Ltd Security device
JP2005295004A (ja) * 2004-03-31 2005-10-20 Sanyo Electric Co Ltd 立体画像処理方法および立体画像処理装置
JP2005353047A (ja) * 2004-05-13 2005-12-22 Sanyo Electric Co Ltd 立体画像処理方法および立体画像処理装置
JP2006101224A (ja) * 2004-09-29 2006-04-13 Toshiba Corp 画像生成装置、画像生成方法および画像生成プログラム
EP1990995B1 (en) * 2006-02-28 2011-07-27 Brother Kogyo Kabushiki Kaisha Video image display device
JP2007299070A (ja) 2006-04-27 2007-11-15 Toshiba Corp 顔形状モデル生成装置及びその方法
JP2008228199A (ja) * 2007-03-15 2008-09-25 Toshiba Corp 立体画像表示装置及び立体画像表示方法並びに立体画像用データの構造
CN101640809B (zh) 2009-08-17 2010-11-03 浙江大学 一种融合运动信息与几何信息的深度提取方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001320731A (ja) * 1999-11-26 2001-11-16 Sanyo Electric Co Ltd 2次元映像を3次元映像に変換する装置及びその方法
JP2007219765A (ja) * 2006-02-15 2007-08-30 Toyota Motor Corp 画像処理装置、その方法、および画像処理用プログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013080439A1 (ja) * 2011-11-28 2013-06-06 パナソニック株式会社 立体画像処理装置及び立体画像処理方法
JP5303692B1 (ja) * 2011-11-28 2013-10-02 パナソニック株式会社 立体画像処理装置及び立体画像処理方法
US9129439B2 (en) 2011-11-28 2015-09-08 Panasonic Intellectual Property Management Co., Ltd. Three-dimensional image processing apparatus and three-dimensional image processing method
JP2015512196A (ja) * 2012-02-13 2015-04-23 トムソン ライセンシングThomson Licensing 3dグラフィックス・アニメーションを3dステレオ・コンテンツに挿入する方法および装置
JP2016500975A (ja) * 2012-11-01 2016-01-14 グーグル インコーポレイテッド 結合された深度キューに基づく平面視画像からの深度マップの生成

Also Published As

Publication number Publication date
US20110242280A1 (en) 2011-10-06
US8665319B2 (en) 2014-03-04
JP5227993B2 (ja) 2013-07-03
CN102209248A (zh) 2011-10-05
CN102209248B (zh) 2014-12-10

Similar Documents

Publication Publication Date Title
JP5227993B2 (ja) 視差画像生成装置、及びその方法
US11010958B2 (en) Method and system for generating an image of a subject in a scene
US20180192033A1 (en) Multi-view scene flow stitching
JP4828506B2 (ja) 仮想視点画像生成装置、プログラムおよび記録媒体
WO2011033673A1 (ja) 画像処理装置
JP2005235211A (ja) 中間時点の画像合成方法及びそれを適用した3dディスプレイ装置
JP2013003848A (ja) 仮想物体表示装置
JP5755571B2 (ja) 仮想視点画像生成装置、仮想視点画像生成方法、制御プログラム、記録媒体、および立体表示装置
KR20130012504A (ko) 다시점 렌더링 장치 및 방법
JP2011078036A (ja) 擬似立体画像作成装置及び擬似立体画像表示システム
WO2019050038A1 (ja) 画像生成方法および画像生成装置
JP2014203462A (ja) 光フィールド映像を生成する方法及び装置
JP4214529B2 (ja) 奥行き信号生成装置、奥行き信号生成プログラム、擬似立体画像生成装置、及び擬似立体画像生成プログラム
US8976171B2 (en) Depth estimation data generating apparatus, depth estimation data generating method, and depth estimation data generating program, and pseudo three-dimensional image generating apparatus, pseudo three-dimensional image generating method, and pseudo three-dimensional image generating program
JP5304758B2 (ja) 多視点画像作成装置及び多視点画像作成方法並びに多視点画像表示システム
JP5087684B2 (ja) 画像処理装置、画像処理方法および画像表示装置
JP2013090129A (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP5786807B2 (ja) 奥行き情報生成装置、奥行き情報生成方法、奥行き情報生成プログラム、擬似立体画像生成装置
JP4419139B2 (ja) 奥行き信号生成装置、奥行き信号生成プログラム、擬似立体画像生成装置、及び擬似立体画像生成プログラム
WO2014130039A1 (en) Relaying 3d information by depth simulation using 2d pixel displacement
JP5627798B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム、画像表示装置、および画像表示方法
JP2024062935A (ja) 立体視表示コンテンツを生成する方法および装置
JP6028427B2 (ja) 奥行き情報生成装置、奥行き情報生成方法、奥行き情報生成プログラム、擬似立体画像生成装置
JP6056459B2 (ja) 奥行き推定データ生成装置、擬似立体画像生成装置、奥行き推定データ生成方法及び奥行き推定データ生成プログラム
KR20130065580A (ko) 전자 장치, ar 이미지 생성 방법 및 컴퓨터 판독가능 기록매체

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110916

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20111125

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20111205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120306

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120327

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130318

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160322

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees