JP5488212B2 - 画像処理装置、画像処理方法および画像表示装置 - Google Patents

画像処理装置、画像処理方法および画像表示装置 Download PDF

Info

Publication number
JP5488212B2
JP5488212B2 JP2010128995A JP2010128995A JP5488212B2 JP 5488212 B2 JP5488212 B2 JP 5488212B2 JP 2010128995 A JP2010128995 A JP 2010128995A JP 2010128995 A JP2010128995 A JP 2010128995A JP 5488212 B2 JP5488212 B2 JP 5488212B2
Authority
JP
Japan
Prior art keywords
parallax
data
frame
image
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010128995A
Other languages
English (en)
Other versions
JP2011257784A (ja
JP2011257784A5 (ja
Inventor
悟崇 奥田
浩隆 坂本
聡 山中
俊明 久保
潤 染谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2010128995A priority Critical patent/JP5488212B2/ja
Priority to US13/152,448 priority patent/US20110298904A1/en
Publication of JP2011257784A publication Critical patent/JP2011257784A/ja
Publication of JP2011257784A5 publication Critical patent/JP2011257784A5/ja
Application granted granted Critical
Publication of JP5488212B2 publication Critical patent/JP5488212B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、立体映像をなす一対の入力画像を、補正した画像として生成する画像処理装置に関するものである。
近年、観察者が擬似的に奥行き感を得るための画像表示技術として、両眼視差を利用した立体画像表示技術がある。両眼視差を利用した立体画像表示技術では、3次元空間の左眼で見た映像と右眼で見た映像とを観察者の左眼と右眼とに分けて見せることによって観察者が映像を立体と感じる。
観察者の左右の眼に異なる映像を見せるための技術として、左眼用画像と右眼用画像を時間的に交互に切り替えてディスプレイに表示すると同時に、画像が切り替わるタイミングに同期して左右それぞれのレンズを透過する光量を制御する眼鏡を用いて左右の視界を時間的に分離する方式や、ディスプレイの前面に画像の表示角を制限するバリアやレンズを用いることで左右の眼それぞれに左眼用画像と右眼用画像を見せる方式など、様々な方式がある。
このような立体画像表示装置において視差が大きいと、飛び出し量や引っ込み量が大きくなり、観察者に驚きを与えることができるが、視差をある程度以上に大きくすると、融合限界により右目と左目の画像が融合せず、2重像が見えてしまい立体視が得られなくなるという問題がある。
この問題に対して、特許文献1は、立体画像の飛び出しと引っ込みで表現される奥行き量の幅であるダイナミックレンジを補正することで観察者が立体視を得やすくなる技術を開示している。
特開2010−45584号公報(段落0037、図1)
しかしながら、特許文献1に開示された技術では、ダイナミックレンジを補正することにより、ノイズが発生しやすいという課題がある。つまり、ダイナミックレンジを圧縮する場合、飛び出している画像は奥側に移動し、引っ込んでいる画像は前側に移動するように補正する。この場合、例えば左眼の画像では、飛び出している画像は表示画面上で左側に移動し、引っ込んでいる画像は表示画面上で右側に移動する。一つの画面上で右側に移動する画像と左側に移動する画像とが存在することから、移動した画像の後ろにある、元の画像に存在しない画像が現れることになる。そのため、新たに現れた画像部分は、元の画像から推定して新たに作成することになるが、この修正が不十分な場合はノイズとして表示される。
この発明は、上述のような課題を解決するためになされたもので、ノイズの発生を抑えながら立体画像の飛び出し量と引っ込み量を、観察者が立体視を得やすい奥行き量の範囲とすることを目的とする。
本発明に係わる画像処理装置においては、立体画像をなす一対のフレーム画像から最も飛び出た画像の視差データをフレーム画像の視差データである第1の視差データとして出力するフレーム視差調整量生成部と、立体画像をなす一対の前記フレーム画像から所定の値より引っ込んだ画像の視差データを対象となる画像の視差データである第2の視差データとして出力する画素視差調整量生成部と、前記第1の視差データに基づきフレーム画像全体を奥側に移動させ前記第2の視差データに基づき前記対象となる画像を手前側に移動させる調整画像生成部とを備えることを特徴とする。
本発明によれば、視差量の調整に伴うノイズの発生を抑えて、観察者が立体視を得やすい奥行き量の範囲に立体画像を表示することができる。
本発明の実施の形態1に係る画像表示装置の構成を示す構成図である。 本発明の実施の形態1に係る画像処理装置のフレーム視差調整量生成部の構成を示す構成図である。 本発明の実施の形態1に係る画像処理装置の画素視差調整量生成部の構成を示す構成図である。 本発明の実施の形態1に係る画像処理装置の視差算出部が視差データを算出する方法を説明する説明図である。 本発明の実施の形態1に係る画像処理装置の視差算出部の詳細な構成を示す構成図である。 本発明の実施の形態1に係る画像処理装置の領域視差算出部が視差データを算出する方法を説明する説明図である。 本発明の実施の形態1に係る画像処理装置のフレーム視差算出部へ入力される視差データを詳細に示した構成図である。 本発明の実施の形態1に係る画像処理装置の視差データからフレーム視差のデータを算出する方法を説明する説明図である。 本発明の実施の形態1に係る画像処理装置のフレーム視差データから算出される補正後フレーム視差データについて詳細に説明する説明図である 本発明の実施の形態1に係る画像表示装置の画像入力データの視差量と画像出力データの視差量の変化による飛び出し量の変化を説明する説明図である。 本発明の実施の形態1に係る画像表示装置の画像入力データの視差量と画像出力データの視差量の変化による引っ込み量の変化を説明する説明図である。 本発明の実施の形態1に係る視差量の調整動作の例を説明する説明図である。 本発明の実施の形態2に係る画像処理装置の立体画像の画像処理方法のフローを表すフロー図である。 本発明の実施の形態2に係る画像処理装置のフレーム視差算出ステップのフローを表すフロー図である。 本発明の実施の形態2に係る画像処理装置のフレーム視差補正ステップのフローを表すフロー図である。
実施の形態1.
図1は、本発明の実施の形態1に係る立体画像を表示する画像表示装置200の構成を示す図である。実施の形態1に係る画像表示装置200は、フレーム視差調整量生成部1、画素視差調整量生成部2、調整画像生成部3および表示部4を備える。画像表示装置200の内の画像処理装置100は、フレーム視差調整量生成部1、画素視差調整量生成部2および調整画像生成部3で構成されている。
左眼用画像入力データDa1と右眼用画像入力データDb1とは、フレーム視差調整量生成部1、画素視差調整量生成部2および調整画像生成部3の各々に入力される。フレーム視差調整量生成部1は、左眼用画像入力データDa1と右眼用画像入力データDb1とに基づいて第1の視差データであるフレームの視差データT1を生成し調整画像生成部3に出力する。画素視差調整量生成部2は、左眼用画像入力データDa1と右眼用画像入力データDb1とに基づいて第2の視差データである画素の視差データT2を生成し調整画像生成部3に出力する。
調整画像生成部3は、フレームの視差データT1および画素の視差データT2に基づいて左眼用画像入力データDa1および右眼用画像入力データDb1の画素視差およびフレーム視差を調整した左眼用画像出力データDa2および右眼用画像出力データDb2を出力する。左眼用画像出力データDa2と右眼用画像出力データDb2とは表示部4に入力される。表示部4は、左眼用画像出力データDa2と右眼用画像出力データDb2とを表示面に表示する。
図2は、フレーム視差調整量生成部1の構成を示す図である。実施の形態1に係るフレーム視差調整量生成部1は、ブロック視差算出部11、フレーム視差算出部12、フレーム視差補正部13およびフレーム視差調整量算出部14で構成されている。
左眼用画像入力データDa1と右眼用画像入力データDb1とは、ブロック視差算出部11に入力される。ブロック視差算出部11は、左眼用画像入力データDa1と右眼用画像入力データDb1とに基づいて領域ごとの視差を算出し、ブロック視差データT11をフレーム視差算出部12に出力する。フレーム視差算出部12は、ブロック視差データT11に基づいて着目フレームに対する視差を算出しフレーム視差データT12として出力する。フレーム視差データT12は、フレーム視差補正部13に入力される。
フレーム視差補正部13は、着目フレームのフレーム視差データT12を他の時刻のフレームのフレーム視差データT12を参照して補正した補正後フレーム視差データT13を出力する。補正後フレーム視差データT13は、フレーム視差調整量算出部14に入力される。
フレーム視差調整量算出部14は、観察者9が入力する視差調整情報S1と補正後フレーム視差データT13に基づいて算出したフレーム視差調整データT14を出力する。フレーム視差調整データT14は、調整画像生成部3に入力される。
なお、本実施の形態1においては、フレーム視差調整量生成部1はフレーム視差データT12をフレーム視差補正部13およびフレーム視差調整量算出部14において処理したフレーム視差調整データT14を出力している。このため、第1の視差データであるフレームの視差データT1は視差調整情報S1を基に生成されるフレーム視差調整データT14となっている。しかし、フレーム視差補正部13およびフレーム視差調整量算出部14における処理を省き、フレーム視差データT12をフレームの視差データT1として出力することもできる。また、フレーム視差補正部13の処理のみ省くことや視差調整情報S1を観察者9からの入力ではなく、事前の設定値とすることもできる。
図3は、画素視差調整量生成部2の構成を示す図である。実施の形態1に係る画素視差調整量生成部2は、画素視差算出部21と画素視差調整量算出部24とで構成されている。
左眼用画像入力データDa1と右眼用画像入力データDb1とは、画素視差算出部21に入力される。画素視差算出部21は、左眼用画像入力データDa1と右眼用画像入力データDb1とに基づいて画素ごとの視差を算出し、画素視差データT21を画素視差調整量算出部24に出力する。
画素視差調整量算出部24は、観察者9が入力する視差調整情報S2と画素視差データT21に基づいて算出した画素視差調整データT24を出力する。画素視差調整データT24は、調整画像生成部3に入力される。
なお、本実施の形態1において、画素視差調整量生成部2は画素視差データT21および視差調整情報S1を基に画素視差調整量算出部24で処理された画素視差調整データT24を出力している。このため、第2の視差データである画素の視差データT2は視差調整情報S2を基に生成される画素視差調整データT24となっている。しかし、画素視差調整量算出部24における処理を省き、画素視差データT21を画素の視差データT2として出力することもできる。また、視差調整情報S2を観察者9からの入力ではなく、事前の設定値とすることもできる。また、画素視差調整量算出部24の前にフレーム視差補正部13と同様に、着目フレームの画素視差データT21を他の時刻のフレームの画素視差データT21を参照して補正した補正後画素視差データT23を画素の視差データT2として出力することもできる。
調整画像生成部3は、フレーム視差調整データT14と画素視差調整データT24とに基づいて左眼用画像入力データDa1と右眼用画像入力データDb1との視差を調整した左眼用画像出力データDa2と右眼用画像出力データDb2とを出力する。左眼用画像出力データDa2と右眼用画像出力データDb2とは表示部4に入力される。表示部4は、左眼用画像出力データDa2と右眼用画像出力データDb2とを表示面に表示する。
上述のように、フレーム視差調整量生成部1はフレームごとに1つのフレームの視差データT1を出力する。実施の形態1においては、フレームの視差データT1はフレーム視差調整データT14である。このフレーム視差調整データT14は、画像調整によって飛び出し量を減少させる視差量である。つまり、フレーム視差調整量生成部1はフレーム中の最も飛び出した画像の視差量を算出し、フレーム全体の画像を一定量だけ奥側に移動する処理を行う。フレーム全体の画像を一定量だけ奥側に動かすには、左眼用画像入力データDa1の全体を画面上左側に移動し、右眼用画像入力データDb1の全体を画面上右側に移動する。この処理は、画素ごとに移動量を決定して画像を調整する方法に比べて処理が簡単で、処理に伴うノイズの発生を抑制できるという効果を有する。
一方、画素視差調整量生成部2は、フレームの中の対象となる画像の視差データT2を出力する。実施の形態1においては、画像の視差データT2は画素視差調整データT24である。この画素視差調整データT24は、画像調整によって対象となる画像の引っ込み量を減少させる視差量である。つまり、フレーム中の引っ込み量が大きい部分の画素を一定量だけ前側に移動する処理を行う。
観察者9は、立体画像が飛び出し過ぎても、引っ込み過ぎても立体視を得にくくなる。フレーム視差調整量生成部1により、最も飛び出した画像を適正範囲まで奥側に移動させた場合、奥側の画像が適正範囲より奥側に出てしまう場合がある。画素視差調整量生成部2は、この適正範囲より奥側にある画像を、フレーム全体ではなく、対象となる画像ごとに前側に移動して、適正範囲に入れる作業を行う。これにより画像全体が適正な奥行き量の範囲の中に入ることになる。
上述のように、画素ごとに視差量を調整する方法は、ノイズが発生しやすいという欠点を有する。これは、画像を画面上で左右に移動させた場合、その画像の後ろ側にある画像が現れるが、その画像は元々存在しないため周辺の画像から推定を行って補完する。この際に不完全な補完によりノイズが発生する。しかし、奥側の画像は、通常対象となる画像自体が小さく、また、飛び出して近くに表示される画像に比べて不鮮明であることから、画素ごとの視差量の調整に伴うノイズの発生を抑制することができるという利点がある。
以下で、本発明の実施の形態1に係る画像処理装置100の詳細な動作について説明する。
図4は、ブロック視差算出部11が左眼用画像入力データDa1と右眼用画像入力データDb1とに基づいてブロック視差データT11を算出する方法を説明するための図である。
ブロック視差算出部11は、入力データである左眼用画像入力データDa1と右眼用画像入力データDb1とをディスプレイ表示面61の上で幅W1、高さH1に区切った大きさと対応するように分割し、その領域ごとの視差を算出する。立体映像は左眼用画像と右眼目用画像との一対の画像が連続して動画となっている。左眼用画像入力データDa1は左眼用画像であり、右眼用画像入力データDb1は右眼用画像であるため、映像の画像自体が左眼用画像入力データDa1と右眼用画像入力データDb1とになる。例えばテレビに実施の形態1に係る発明を適用する場合であれば、デコーダが放送信号を復号するが、その復号された映像信号が左眼用画像入力データDa1と右眼用画像入力データDb1として入力される。なお、画面の分割数については、実施の形態1に係る発明を実際のLSIなどに実装する際にLSIの処理量等を考慮して決定する。
ディスプレイ表示面61の上を区切った領域の垂直方向の領域の数を正の整数h、水平方向の領域の数を正の整数wとする。図4では、最も左上の領域の番号を第1番目とし、順次、左の列の上から下へ、列は左から右へと進み第2番目、第3番目から第h×w番目までの番号を振っている。さらに、左眼用画像入力データDa1の第1番目の領域に含まれる画像データをDa1(1)とし、以下各領域に対する画像データをDa1(2)、Da1(3)からDa1(h×w)までとし、右眼用画像入力データDb1の各領域に対する画像データも同様にDb1(1)、Db1(2)、Db1(2)、Db(3)からDb(h×w)までとする。
図5は、ブロック視差算出部11の詳細な構成を示す図である。ブロック視差算出部11は、領域ごとに視差を算出するため、h×w個の領域視差算出部で構成されている。領域視差算出部11b(1)は、第1番目の領域に含まれる左眼用画像入力データDa1(1)と右眼用画像入力データDb1(1)とに基づいて第1番目の領域の視差を算出し、第1番目の領域の視差データT11(1)として出力する。以下同様に、領域視差算出部11b(2)から領域視差算出部11b(h×w)までは、それぞれ第2番目から第h×w番目までの領域の視差を算出し、第2番目から第h×w番目までの領域の視差データT11(2)から領域の視差データT11(h×w)として出力する。そして、ブロック視差算出部11は第1番目から第h×w番目までの領域の視差データT11(1)から領域の視差データT11(h×w)をブロック視差データT11として出力する。
領域視差算出部11b(1)は、位相限定相関法を用いて左眼用画像入力データDa1(1)と右眼用画像入力データDb1(1)の領域の視差データT11(1)を算出する。位相限定相関法については例えば非特許文献(萩原瑞木、川俣政征著「位相限定関数を用いた画像のサブピクセル精度の位置ずれ検出」電子情報通信学会技術研究報告、No.CAS2001−11、VLD2001−28、DSP2001−30、2001年6月、pp.79−86)に説明されている。位相限定相関法は、立体映像の一対の画像を入力として受け取り、視差量を出力するアルゴリズムである。
次に示す式(1)は位相限定相関法で算出される視差量Noptを表す式である。式(1)において、Gab(n)は位相限定相関関数である。
Figure 0005488212
ここで、n:0≦n≦W1とする。argmax(Gab(n))はGab(n)が最大となるnの値であり、このときのnがNoptである。Gab(n)は次の数式(2)で表される。
Figure 0005488212
ここで、関数IFFTは、逆高速フーリエ変換関数であり、|Fab(n)|はFab(n)の大きさである。Fab(n)は次の数式(3)で表される。
Figure 0005488212
ここで、B*(n)はB(n)の複素共役の系列、A・B*(n)はAとB*(n)の畳み込みである。AおよびB(n)はつぎの数式(4)で表される。
Figure 0005488212
ここで、関数FFTは高速フーリエ変換関数である。a(m)、b(m)は連続する1次元の系列であり、mは系列のインデックスである。そしてb(m)=a(m−τ)すなわちb(m)はa(m)を右にτずらした系列であり、b(m−n)はb(m)を右にnずらした系列である。
領域視差算出部11bでは、左眼用画像入力データDa1(1)を式(4)のaとし、右眼用画像入力データDb1(1)を式(4)のbとして位相限定相関法によって算出されたNoptが領域の視差データT11(1)となる。
図6は、第1番目の領域に含まれる左眼用画像入力データDa1(1)と右眼用画像入力データDb1(1)から位相限定相関法を用いて領域の視差データT11(1)を算出する方法を説明するための図である。図6(a)の実線で表されるグラフは、第1番目の領域に対応する左眼用画像入力データDa1(1)であり、横軸は水平位置、縦軸は階調を示している。図6(b)のグラフは、第1番目の領域に対応する右眼用画像入力データDb1(1)であり、横軸は水平位置、縦軸は階調を示している。図6(a)の破線で表されるグラフは、第1番目の領域の視差量n1だけずらした右眼用画像入力データDb1(1)である。図6(c)のグラフは、位相限定相関関数Gab(n)であり、横軸はGab(n)の変数n、縦軸は相関の強さを示している。
位相限定相関関数Gab(n)は、連続する系列aとaをτシフトした系列bとで定義されており、式(2)、式(3)よりn=−τにピークを持つデルタ関数になる。右眼用画像入力データDb1(1)は、左眼用画像入力データDa1(1)に対して飛び出す場合に左方向にずれ、引っ込む場合に右方向にずれている。左眼用画像入力データDa1(1)と右眼用画像入力データDb(1)を領域に区切ったデータでは飛び出し方向、引っ込み方向いずれか一方にずれている可能性が高く、左眼用画像入力データDa1(1)と右眼用画像入力データDb1(1)を式(4)の入力a(m)、b(m)として算出した式(1)のNoptが領域の視差データT11(1)となる。
図6(a)と図6(b)の関係よりずれ量はn1であるため、図6(c)に示すように位相限定相関関数Gab(n)に関するずれ量の変数nがn1のときに相関関数の値が一番大きくなる。
領域視差算出部11b(1)は、式(1)より左眼用画像入力データDa1(1)と右眼用画像入力データDb1(1)に対する位相限定相関関数Gab(n)の値が最大となるずれ量n1を領域の視差データT11(1)として出力する。
同様に、領域視差算出部11b(2)から11b(h×w)までは、第2番目から第h×w番目までの領域に含まれる左眼用画像入力データDa1(2)からDa1(h×w)までと右眼用画像入力データDb1(2)からDb1(h×w)までのそれぞれの位相限定相関の値がピークとなるずれ量を領域の視差データT11(2)からT11(h×w)までとして出力する。
非特許文献1には、左眼用画像入力データDa1と右眼用画像入力データDb1とをそのまま入力として、左眼用画像入力データDa1と右眼用画像入力データDb1との視差を得る方法が記載されている。しかし、入力される画像が大きければ計算量が多くなり、LSIに実装した際、回路規模が大きくなるという問題がある。さらに、左眼用画像入力データDa1と右眼用画像入力データDb1に小さく写っている物体に対する位相限定相関関数Gab(n)のピークは小さくなってしまい、小さく写っている物体の視差の算出が難しい。
実施の形態1に係る発明のブロック視差算出部11では、左眼用画像入力データDa1と右眼用画像入力データDb1とを小さい領域に分割し、領域ごとに位相限定相関法を適用している。このため、小さい回路規模で位相限定相関法をLSIに実装できる。この場合、すべての領域を同時に計算するのではなく、1つの回路を使って1領域ずつ順番に視差を計算することでさらに回路規模を小さくできる。さらに、小さく分割された領域内では、左眼用画像入力データDa1と右眼用画像入力データDb1に小さく写っていた物体も、相対的に大きな面積を占めることになるので、位相限定相関関数Gab(n)のピークも大きくなり検出しやすくなる。このため、視差がより正確に求められる。領域ごとに求めた視差をもとに、次に説明するフレーム視差算出部12で左眼用画像入力データDa1と右眼用画像入力データDb1との画像全体での視差を出力する。
次に、フレーム視差算出部12の詳細な動作について説明する。
図7は、フレーム視差算出部12について入力されるブロック視差データT11を詳細に示した図である。フレーム視差算出部12は、入力される第1番目から第h×w番目までの領域に対応する領域の視差データT11(1)からT11(h×w)までを集約し、着目フレームの画像に対して1つのフレーム視差データT12を算出する。
図8は、領域の視差データT11(1)からT(h×w)までを基にフレーム視差データT12を算出する方法を説明するための図である。横軸は領域の番号であり、縦軸は視差データである。フレーム視差算出部12は、領域の視差データT11(1)からT11(h×w)までのうち、最大の視差データをフレーム画像のフレーム視差データT12として出力する。
これにより、視差の情報が埋め込まれていない立体映像に対しても、観察者9にとって最も影響が大きいと考えられる立体映像の各フレームでの最も飛び出している部分の視差量を算出することができる。
次に、フレーム視差補正部13の詳細な動作について説明する。
図9は、フレーム視差データT12から算出される補正後フレーム視差データT13について詳細に説明するための図である。図9(a)は、フレーム視差データT12の時間的変化を示した図である。横軸は時間であり、縦軸はフレーム視差データT12である。図9(b)は補正後フレーム視差データT13の時間的変化を示した図である。横軸は時間であり、縦軸は補正後フレーム視差データT13である。
フレーム視差補正部13は、フレーム視差データT12を一定時間分保持し、着目フレームの前後複数のフレーム視差データT12の平均を算出し、補正後フレーム視差データT13として出力する。
Figure 0005488212
ここで、T13(tj)は着目する時刻tjにおける補正後フレーム視差データであり、T12(k)は時刻kにおけるフレーム視差データであり、正の整数Lは平均を算出する幅である。またti<tjであるので、例えば図9(a)に示す時刻(ti−L)からtiまでにおけるフレーム視差データT12の平均から図9(b)に示す時刻tjの補正後フレーム視差データT13が求められる。
3Dの飛び出し量は時間的に連続的に変化するものが多い。フレーム視差データT12が時間的に不連続に変化する場合、例えば、時間軸に対してインパルス状に変化する場合はフレーム視差データT12の誤検出とみなしても良い。フレーム視差補正部13により、たとえインパルス状の変化があったとしても時間的に平均化しても問題なく、また、時間的に平均化することで誤検出を緩和することができる。
次に、フレーム視差調整量算出部14の詳細な動作について説明する。
フレーム視差調整量算出部14は、観察者9が立体視を得やすいように設定する視差調整情報S1と補正後のフレーム視差データT13とに基づいて視差調整量を算出しフレーム視差調整データT14を出力する。
視差調整情報S1は、視差調整係数S1aと視差調整閾値S1bを含み、フレーム視差調整データT14は、式4によって補正後フレーム視差データT13から算出される。フレーム視差調整データT14は次の式(6)で表される。
Figure 0005488212
フレーム視差調整データT14は、画像調整によって飛び出し量を減少させる視差量のことであり、左眼用画像入力データDa1と右眼用画像入力データDb1とを水平シフトする量を示す。後で詳述するように、左眼用画像入力データDa1と右眼用画像入力データDb1とを水平シフトする量の和がフレーム視差調整データT14となる。このため、補正後フレーム視差データT13が視差調整閾値S1b以下の場合は、画像調整により左眼用画像入力データDa1と右眼用画像入力データDb1とは水平方向にシフトしない。一方、補正後フレーム視差データT13が視差調整閾値S1bより大きい場合は、補正後フレーム視差データT13と視差調整閾値S1bとの差の値に視差調整係数S1aを乗じた値だけ左眼用画像入力データDa1と右眼用画像入力データDb1とは水平方向にシフトすることになる。
例えば、視差調整係数S1a=1、視差調整閾値S1b=0の場合、T13≦0ではT14=0となる。つまり画像調整は行われない。一方、T13>0ではT14=T13となり、左眼用画像入力データDa1と右眼用画像入力データDb1とは水平方向にT13だけシフトされる。補正後フレーム視差データT13はフレーム画像の最大の視差であるため、着目フレーム内で算出された最大の視差が0となる。また、視差調整係数S1aを1より小さくしていくとフレーム視差調整データT14は補正後フレーム視差データT13より小さくなり、着目フレーム内で算出された最大の視差も0より大きくなる。また、視差調整閾値S1bを0より大きくしていくと、補正後フレーム視差データT13が0より大きい値に対しても視差データの調整を行わない。つまり画像が少し飛び出しているフレームに対しても視差調整を行わないことになる。
ブロック視差算出部11では、領域ごとの視差を算出する場合について説明したが、画素視差算出部21は、画素ごとの視差を算出する。算出方法としては、ブロック視差算出部11が採用した分割領域をさらに小さくして、その微小領域の視差を領域に含まれる画素視差量とすることや、ブロック視差算出部11と同様に一定の大きさの領域で視差を算出した後に、その領域に含まれる画素ごとに同一点を検出して画素ごとの画素視差量を求めて画素視差データT21とすることができる。また、分割された左眼用画像入力データDa1と右眼用画像入力データDb1との間のブロックマッチングにより相関の高い領域を検索した後に領域に含まれる画素ごとの視差量である画素視差データT21を算出してもよい。
次に、画素視差調整量算出部24の詳細な動作について説明する。
画素視差調整量算出部24は、立体画像の立体の奥側である引っ込み量を調整するための画素視差調整データT24を算出する。画素視差調整量算出部24は、観察者9が立体視を得やすいように設定する視差調整情報S2と画素視差データT21とに基づいて視差調整量を算出し画素視差調整データT24を出力する。
視差調整情報S2は、視差調整係数S2aと視差調整閾値S2bを含み、画素視差調整データT24は次の式(7)で表される。
Figure 0005488212
画素視差調整データT24は、画像調整によって引っ込み量を減少させる視差量のことであり、左眼用画像入力データDa1と右眼用画像入力データDb1との立体映像の対となる画素の水平シフト量を示す。後で詳述するように、左眼用画像入力データDa1と右眼用画像入力データDb1とを水平シフトする量の和がT24となる。このため、画素視差データT21が視差調整閾値S2b以上の場合は、画像調整により左眼用画像入力データDa1と右眼用画像入力データDb1の画素データとを水平方向にシフトしない。一方、画素視差データT21が視差調整閾値S2bより小さい場合は、画素視差データT21と視差調整閾値S2bとの差の値に視差調整係数S2aを乗じた値だけ合計のシフト量として左眼用画像入力データDa1と右眼用画像入力データDb1との画素を水平方向にシフトすることになる。
例えば、視差調整係数S2a=0.5、視差調整閾値S2b=0の場合、T21≧0ではT24=0となる。つまり画像調整は行われない。一方、T21<0ではT24=T21×0.5となり、左眼用画像入力データDa1と右眼用画像入力データDb1とは各々水平方向にT21×0.5の半分の量だけシフトされ、全体として視差量は半分となる。画素視差データT21<0の場合、対応する画素がディスプレイ表示位置より奥側である引っ込み側の立体画像となっているため、奥側への引っ込み量が減少する。また、視差調整閾値S2bを0より小さくしていくとディスプレイ表示位置のさらに奥に表示される部分だけの視差が減少し、視差調整閾値S2bを0より大きくするとディスプレイ表示位置より手前に表示される部分の視差量も減少する。
視差調整情報S1,S2の設定は、例えばユーザーがリモコンなどの入力手段によって視差調整情報S1,S2を変化させて立体画像の飛び出し量の変化を見ながら決定する。リモコンの視差調整係数ボタンと視差調整閾値ボタンから入力することもできるが、ランク分けされた一つの視差調整ボタンから視差の調整度合いを入力すると、所定の視差調整係数S1a,S2aと視差調整閾値S1b,S2bが設定されるようにすることもできる。
以上より本実施の形態は、入力された一対の画像の視差を、観察者9とディスプレイ表示面61との距離、ディスプレイ表示面61の大きさ、観察者9の好みおよび立体視を得やすい範囲などの個人差に対応した、好適な奥行き感の視差に変更して立体画像を表示することができる。
次に、調整画像生成部3の動作について説明する。
図10は、調整画像生成部3における画像調整動作を説明するための図である。まず、調整画像生成部3は、画素視差調整量生成部2から出力された画素視差調整データT24に基づき、左眼用画像入力データDa1と右眼用画像入力データDb1との立体映像の対となる画素を水平シフトする。図10(a1)は、調整画像生成部3における画素視差調整データT24に基づいた第一の画像調整動作を示す図である。横軸は、調整前の画素視差、縦軸が調整後の画素視差を示している。前記式(7)に示したとおり、画素視差データT21が閾値S2bより小さい場合に視差量が調整される。図10は、ディスプレイ表示面61の視差量を0、ディスプレイ表示面61より観察者9側である手前側への飛び出しを正の視差量、ディスプレイ表示面61より奥側への引っ込みを負の視差量として表示している。すなわちディスプレイ表示面61の奥側への引っ込み量を小さくすることは、負の視差量を0に近づけることに相当する。
図10(a2)を用いて、ディスプレイ表示面61より手前に表示される丸印と奥に表示される三角印のディスプレイ表示面61上での調整動作を説明する。破線で示した三角印の調整前の視差量はda1(負の値)、丸印の視差量はdb1(正の値)とする。つまり、2つの破線で示した三角印のうち左側にあるものが左眼用画像入力データDa1に対応するものであり、右側にあるものが右眼用画像入力データDb1に対応するものである。また、2つの丸印のうち左側にあるものが右眼用画像入力データDa1に対応するものであり、右側にあるものが左眼用画像入力データDa1に対応するものである。今、da1<S2b、db1>S2bとすると式7に基づいてda1はda2に調整され、db1は変化しない。この調整動作は画素ごとの視差量に合わせて実施される。
次に調整画像生成部3は、フレーム視差調整量生成部1が出力されたフレーム視差調整データT14に基づき、第二の画像調整動作を実施する。
図10(b1)は、調整画像生成部3におけるフレーム視差調整データT14に基づいた第二の画像調整動作を示す図である。横軸は、調整前の画素視差、縦軸が調整後の画素視差を示している。前記式(6)に示したとおり、図10(b1)中の四角印で示したフレーム視差調整データT14が閾値S1bより大きい場合に視差量が調整され、図10(b1)に示したとおり、立体画像全体が奥に移動するように全画素の視差量が調整される。図10(a2)に示した破線で示した丸印の視差量db1は実線で示した丸印の視差量db2に調整され、破線で示した三角印の視差量da2は実線で示した三角印の視差量da3に調整される。
図11は、左眼用画像入力データDa1および右眼用画像入力データDb1の視差と、左眼用画像出力データDa2および右眼用画像出力データDb2の視差と、各々の画像の飛び出し量との関係を説明するための図である。図11(a)は、左眼用画像入力データDa1および右眼用画像入力データDb1と画像の飛び出し量との関係を示した図である。図11(b)は、左眼用画像出力データDa2および右眼用画像出力データDb2と画像の飛び出し量との関係を示している。
調整画像生成部3は、T13>S1bと判断した場合に、フレーム視差調整データT14に基づいて左眼用画像入力データDa1の画素P1lを左方向に水平移動し、右眼用画像入力データDb1の画素P1rを右方向に水平移動する。その結果、調整画像生成部3は、左眼用画像出力データDa2の画素P2lと右眼用画像出力データDb2の画素P2rを出力する。このとき視差db2は、db2=db1−T14で求められる。
左眼用画像入力データDa1の画素P1lと右眼用画像入力データDb1の画素P1rは同じ物体の同じ部分であるとすると、その視差はdb1となり観察者9からはF1の位置に飛び出して見える。
左眼用画像出力データDa2の画素P2lと右眼用画像入力データDb2の画素P2rは同じ物体の同じ部分であるとすると、その視差はdb2となり観察者9からはF2の位置に飛び出して見える。
左眼用画像入力データDa1を左方向に、右眼用画像入力データDb1右方向に水平移動することにより視差db1は視差db2へと小さくなるため、これに対して飛び出し位置がF1からF2へと変化する。
補正後フレーム視差データT13はフレーム画像の最大の視差データであるフレーム視差データT12から算出されるため、補正後フレーム視差データT13はフレーム画像の最大の視差データとなる。フレーム視差調整データT14は、式(6)より補正後フレーム視差データT13を基に求めているため、視差調整係数S1aが1の場合は着目フレーム内の最大の視差と等しくなり、視差調整係数S1aが1より小さい場合は最大の視差より小さくなる。図11の視差db1を着目フレーム内で算出された最大の視差と仮定すると、図10(b1),10(b2)に示す調整後の最大の視差db2は視差調整係数S1aを1より小さく設定した場合はdb1より小さい値となり、視差調整係数S1a=1、視差調整閾値S1b=0と設定した場合は映像が飛び出さない画像となりdb2=0となる。こうすることで、調整後の画像データの最大飛び出し位置F2が、ディスプレイ表示面61から飛び出し位置F1の間に調整される。
図12は、左眼用画像入力データDa1および右眼用画像入力データDb1の視差と、左眼用画像出力データDa2および右眼用画像出力データDb2の視差と、各々の画像の引っ込み量との関係を説明するための図である。図12(a)は、左眼用画像入力データDa1および右眼用画像入力データDb1と画像の引っ込み量との関係を示した図である。図12(b)は、左眼用画像出力データDa2および右眼用画像出力データDb2と画像の引っ込み量との関係を示している。
調整画像生成部3は、T21<S2b、T13>S1bと判断した場合に、第一の調整動作として画素視差調整データT24に基づいて左眼用画像入力データDa1の対照画素を右方向に水平移動するとともに右眼用画像入力データDb1の対照画素を左方向に水平移動した後に、第二の調整動作としてフレーム視差調整データT14に基づいて左眼用画像入力データDa1を左方向に水平移動するとともに右眼用画像入力データDb1を右方向に水平移動して左眼用画像出力データDa2と右眼用画像出力データDb2を出力する。このとき視差da3は、da3=da1−T24−T14で求められる。
左眼用画像入力データDa1の画素P3lと右眼用画像入力データDb1の画素P3rとは同じ物体の同じ部分であるとすると、その視差はda1となり観察者9からはF3の位置に引っ込んで見える。
左眼用画像出力データDa2の画素P4lと右眼用画像出力データDb2の画素P4rとは同じ物体の同じ部分であるとすると、その視差はda3となり観察者9からはF4の位置に引っ込んで見える。
前述した第一と第二の画像調整動作により視差da1は視差da3に調整されるため、これに対して引っ込み位置がF3からF4へと変化する。なお、調整画像生成部3において、最初に画素視差調整データT24に基づいて第一の調整動作を行い、次にフレーム視差調整データT14に基づいて第二の調整動作を行ったが、この順番に限らず、第二の調整動作を行った後に第一の調整動作を行うこともできる。
次に、表示部4の動作について述べる。表示部4は、左眼用画像出力データDa2および右眼用画像出力データDb2を観察者9の左眼と右眼とに別々に表示する。具体的には、光学的な機構により左眼と右眼で異なった画像を表示できるディスプレイを使う3D表示方式でも良いし、左眼用画像と右眼用画像を交互に表示したディスプレイに同期して左眼と右眼のレンズのシャッターを閉じる専用メガネを用いる3D表示方式でも良い。
なお、上記実施の形態1における画素視差調整量生成部2は、画素視差算出部21と画素視差調整量算出部24とで構成したが、フレーム視差補正部13と同様に、画素視差算出部21が出力する画素視差データT21を時間的に平均して誤検出を防止する構成としても良い。
実施の形態2.
図13は、本発明の実施の形態2に係る立体画像の画像処理方法のフローを表す図である。実施の形態2に係る立体画像処理方法は、ブロック視差算出ステップST11、フレーム視差算出ステップST12、フレーム視差補正ステップST13、フレーム視差調整量算出ステップST14、画素視差算出ステップST21および画素視差調整量算出ステップST24からなる。
フレーム視差算出ステップST11は、図14に示すように画像切り出しステップST1aと領域視差算出ステップST1bとからなる。
フレーム視差補正ステップST13は、図15に示すようにフレーム視差バッファステップST3aとフレーム視差加算平均ステップST3bとからなる。
以下では、本発明に係る実施の形態2の動作について説明する。
まず、ブロック視差算出ステップST11では、左眼用画像入力データDa1と右眼用画像入力データDb1とに対して、以下のような処理が行われる。
画像切り出しステップST1aにおいて、左眼用画像入力データDa1をディスプレイ表示面61上で幅W1高さH1の格子状に区切りh×w個の領域に分割し、分割された左眼用画像入力データDa1(1),Da1(2),Da1(3)からDa1(h×w)までを作成する。右眼用画像入力データDb1についても同様に幅W1高さH1の格子状に区切り、分割された右眼用画像入力データDb1(1),Db1(2),Db1(2),Db1(3)からDb1(h×w)までを作成する。
領域視差算出ステップST1bにおいて、第1番目の領域に対する左眼用画像入力データDa1(1)と右眼用画像入力データDb1(1)とに対して位相限定相関法を用いて、第1番目の領域の視差データT11(1)を算出する。すなわち、左眼用画像入力データDa1(1)と右眼用画像入力データDb1(1)とに対して位相限定相関Gab(n)が最大となるnを算出し、領域の視差データT11(1)とする。第2番目から第h×w番目までの領域に対する左眼用画像入力データDa1(2)からDa1(h×w)までと右眼用画像入力データDb1(2)からDb(h×w)までに対しても、位相限定相関法を用いて領域の視差データT11(2)からT11(h×w)までを算出する。この動作は、実施の形態1におけるブロック視差算出部11と同等である。
次に、フレーム視差算出ステップST12では、領域の視差データT11(1)からT11(h×w)までのうち最大の視差データを選択し、フレーム視差データT12とする。この動作は、実施の形態1におけるフレーム視差算出部12と同等である。
次に、フレーム視差補正ステップST13では、フレーム視差データT12に対して以下のような処理が行われる。
フレーム視差バッファステップST3aにおいて、時間的に変化するフレーム視差データT12を一定の容量のバッファ記憶装置に順次保存する。
フレーム視差加算平均ステップST3bにおいて、バッファ領域に保存されているフレーム視差データT12に基づき、着目フレームの前後複数のフレーム視差データT12の加算平均を算出し、補正後フレーム視差データT13を算出する。この動作は、実施の形態1におけるフレーム視差補正部13と同等である。
次に、フレーム視差調整量算出ステップST14では、あらかじめ観察者9により設定された視差調整係数S1aと視差調整閾値S1bに基づき、補正後フレーム視差データT13からフレーム視差調整データT14を算出する。補正後フレーム視差データT13が視差調整閾値S1b以下の時刻においては、フレーム視差調整データT14は0とする。逆に、補正後フレーム視差データT13が視差調整閾値S1bを超えている時刻では、補正後フレーム視差データT13が視差調整閾値S1bを超えた量にS1aを乗じた分をフレーム視差調整データT14とする。この動作は、実施の形態1におけるフレーム視差調整量算出部14と同等である。なお、説明上、視差調整閾値S1b以下の時刻と視差調整閾値S1bを超えている時刻としたが、視差調整閾値S1bより小さい時刻と視差調整閾値S1bを以上の時刻としても構わず、同様の効果を得ることができる。
ST11からST14の動作と平行して画素視差の調整動作が実施される。ブロック視差算出ステップST11では、分割された領域ごとの視差量を算出したが、画素視差算出ステップST21では、左眼用画像入力データDa1、右眼用画像入力データDb1に基づいて画素ごとの視差を算出し、画素視差データT21を画素視差調整量算出部24に入力する。画素視差算出ステップST21の動作は、実施の形態1の画素視差算出部21と同等である。
次に画素視差調整量算出ステップST24は、画素視差算出ステップST21が出力した画素視差データT21とあらかじめ観察者9が入力する視差調整情報S2とに基づいて算出した画素視差調整データT24を出力する。画素視差調整量算出ステップST24の動作は、実施の形態1の画素視差調整量算出部24と同等である。
次に調整画像生成ステップST3は、画素視差調整量算出ステップST24が出力した画素視差調整データT24に基づいて左眼用画像入力データDa1と右眼用画像入力データDb1との画素ごとの視差を調整した後、フレーム視差調整量算出ステップST14が出力したフレーム視差調整データT14に基づいて左眼用画像入力データDa1と右眼用画像入力データDb1とを調整する。その結果、調整画像生成ステップST3は、左眼用画像出力データDa2と右眼用画像出力データDb2を出力する。この動作は実施の形態1における調整画像生成部3と同等である。
以上が本発明の実施の形態2に係る立体画像処理方法の動作である。
これまでの説明から、本発明の実施の形態1における画像処理装置100と同等である。したがって本発明における画像処理方法は、本発明の実施の形態1における画像処理装置100と同様の効果を持つ。
1 フレーム視差調整量生成部、 2 画素視差調整量生成部、 3 調整画像生成部、 4 表示部、 11 ブロック視差算出部、 12 フレーム視差算出部、 13 フレーム視差補正部、 14 フレーム視差調整量算出部、 21 画素視差算出部、 24 画素視差調整量算出部、 9 観察者、61 ディスプレイ表示面、 100 画像処理装置、 200 画像表示装置、 S1,S2 視差調整情報、 Da1 左眼用画像入力データ、 Db1 右眼用画像入力データ、 Da2 左眼用画像出力データ、 Db2 右眼用画像出力データ、 T1 フレームの視差データ、 T11 ブロック視差データ、 T12 フレーム視差データ、 T13 補正後フレーム視差データ、 T14 フレーム視差調整データ、 T2 画素の視差データ、 T21 画素視差データ、 T24 画素視差調整データ、 ST11 ブロック視差算出ステップ、 ST1a 画像切り出しステップ、 ST1b 領域視差算出ステップ、 ST12 フレーム視差算出ステップ、 ST13 フレーム視差補正ステップ、 ST3a フレーム視差バッファステップ、 ST3b フレーム視差加算平均ステップ、 ST14 フレーム視差調整量算出ステップ、 ST21 画素視差算出ステップ、 ST24 画素視差調整両算出ステップ、 ST3 調整画像生成ステップ。

Claims (9)

  1. 立体画像をなす一対の画像入力データの中から第1の基準値より飛び出た画像部分の内最も飛び出た画像部分の視差データを第1の視差データとして出力するフレーム視差調整量生成部と、
    前記一対の画像入力データの中から第2の基準値より引っ込んだ画像部分の視差データを第2の視差データとして出力する画素視差調整量生成部と、
    前記第1の視差データに基づき前記一対の画像入力データ全体を奥側に移動させ、前記第2の視差データに基づき前記一対の画像入力データのうち前記第2の基準値より引っ込んだ画像部分を手前側に移動させて視差量を調整した一対の画像出力データを生成して出力する調整画像生成部と
    を備える画像処理装置。
  2. 前記調整画像生成部は、前記一対の画像入力データの視差データから前記第1の視差データと前記第1の基準値との差に基づく値を減ずる請求項1に記載の画像処理装置。
  3. 前記調整画像生成部は、前記引っ込んだ画像部分の視差データに前記引っ込んだ画像部分の前記第2の視差データと前記第2の基準値との差に基づく値を加える請求項1または2に記載の画像処理装置。
  4. 前記第1の視差データは、前記一対の画像入力データを複数の領域に分けた各領域の視差データを基に求められる請求項1から3のいずれか1項に記載の画像処理装置。
  5. 1つのフレームの前記第1の視差データを他のフレームの前記第1の視差データに基づいて補正し補正後の第1の視差データとする請求項1から4のいずれか1項に記載の画像処理装置。
  6. 前記補正後の第1の視差データは、1つのフレームの第1の視差データに前記1つのフレームの前後の第1の視差データを含めた平均値である請求項5に記載の画像処理装置。
  7. 請求項1から6のいずれか1項に記載の画像処理装置にさらに表示部を備え、前記表示部は前記調整画像生成部で生成された一対の画像出力データを表示する画像表示装置。
  8. 立体映像をなす一対の画像入力データを入力し、前記一対の画像入力データの中から第1の基準値より飛び出た画像部分のデータの内、最も飛び出た画像部分のデータの視差データを第1の視差データとして出力するステップと、
    前記一対の画像入力データの中から第2の基準値より引っ込んだ画像部分のデータの視差データを第2の視差データとして出力するステップと、
    前記第1の視差データに基づき前記一対の画像入力データ全体のデータを奥側に移動させ、前記第2の視差データに基づき前記一対の画像入力データのうち前記第2の基準値より引っ込んだ画像部分のデータを手前側に移動させた画像出力データを生成して出力するステップとを備える画像処理方法。
  9. 前記第1の視差データとして出力するステップは、
    立体映像をなす一対の画像入力データを入力し、前記一対の画像入力データを複数の領域に分けた各領域の視差量を算出してブロック視差データとして出力するブロック視差算出ステップと、
    前記ブロック視差データを基にフレーム視差データを出力するフレーム視差算出ステップと、
    1つのフレームのフレーム視差データを他のフレームのフレーム視差データによって補正した補正後フレーム視差データとして出力するフレーム視差補正ステップと、
    鑑賞の状況を示す情報を基に作成される視差調整情報および前記補正後フレーム視差データに基づいて前記第1の視差データとしてフレーム視差調整データを出力するフレーム視差調整量算出ステップとを有し、
    前記第2の視差データとして出力するステップは、
    前記一対の画像入力データの画素ごとの視差を検出して画素視差データを出力する画素視差算出ステップと、
    前記視差調整情報および前記画素視差データに基づいて前記第2の視差データとして画素視差調整データを出力する画素視差調整量算出ステップとを有する請求項8に記載の画像処理方法。
JP2010128995A 2010-06-04 2010-06-04 画像処理装置、画像処理方法および画像表示装置 Expired - Fee Related JP5488212B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010128995A JP5488212B2 (ja) 2010-06-04 2010-06-04 画像処理装置、画像処理方法および画像表示装置
US13/152,448 US20110298904A1 (en) 2010-06-04 2011-06-03 Image processing apparatus, image processing method, and image display apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010128995A JP5488212B2 (ja) 2010-06-04 2010-06-04 画像処理装置、画像処理方法および画像表示装置

Publications (3)

Publication Number Publication Date
JP2011257784A JP2011257784A (ja) 2011-12-22
JP2011257784A5 JP2011257784A5 (ja) 2013-07-04
JP5488212B2 true JP5488212B2 (ja) 2014-05-14

Family

ID=45064172

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010128995A Expired - Fee Related JP5488212B2 (ja) 2010-06-04 2010-06-04 画像処理装置、画像処理方法および画像表示装置

Country Status (2)

Country Link
US (1) US20110298904A1 (ja)
JP (1) JP5488212B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9106925B2 (en) * 2010-01-11 2015-08-11 Ubiquity Holdings, Inc. WEAV video compression system
JP6365153B2 (ja) * 2014-09-10 2018-08-01 株式会社ソシオネクスト 画像符号化方法および画像符号化装置
CN115426525B (zh) * 2022-09-05 2023-05-26 北京拙河科技有限公司 一种基于高速动帧联动图像拆分方法及装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0965373A (ja) * 1995-08-30 1997-03-07 Sanyo Electric Co Ltd 立体映像の立体度調整方法および立体度調整装置
JPH1040420A (ja) * 1996-07-24 1998-02-13 Sanyo Electric Co Ltd 奥行き感制御方法
JP2003018619A (ja) * 2001-07-03 2003-01-17 Olympus Optical Co Ltd 立体映像評価装置およびそれを用いた表示装置
JP4652727B2 (ja) * 2004-06-14 2011-03-16 キヤノン株式会社 立体画像生成システムおよびその制御方法
JP4283785B2 (ja) * 2005-05-10 2009-06-24 株式会社マーキュリーシステム 立体視画像生成装置およびプログラム
DE102007055026B4 (de) * 2007-11-15 2011-04-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zum autostereoskopischen Darstellen von Bildinformationen
US8228327B2 (en) * 2008-02-29 2012-07-24 Disney Enterprises, Inc. Non-linear depth rendering of stereoscopic animated images
JP2010045584A (ja) * 2008-08-12 2010-02-25 Sony Corp 立体画像補正装置、立体画像補正方法、立体画像表示装置、立体画像再生装置、立体画像提供システム、プログラム及び記録媒体
JP4737573B2 (ja) * 2009-02-05 2011-08-03 富士フイルム株式会社 3次元画像出力装置及び方法

Also Published As

Publication number Publication date
JP2011257784A (ja) 2011-12-22
US20110298904A1 (en) 2011-12-08

Similar Documents

Publication Publication Date Title
JP5545036B2 (ja) 画像処理装置、画像処理方法および画像表示装置
JP5567578B2 (ja) 入力された三次元ビデオ信号を処理するための方法及びシステム
JP2012009010A (ja) 画像処理装置、画像処理方法および画像表示装置
JP5002702B2 (ja) 視差画像生成装置、立体映像表示装置及び視差画像生成方法
JP5879713B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
US20110026809A1 (en) Fast multi-view three-dimensional image synthesis apparatus and method
US20150022631A1 (en) Content-aware display adaptation methods and editing interfaces and methods for stereoscopic images
KR20070025632A (ko) 3d 입체 영상 처리 장치 및 방법
US9172939B2 (en) System and method for adjusting perceived depth of stereoscopic images
JP2011135459A (ja) 画像処理装置および方法、並びにプログラム
US20130208088A1 (en) Three-dimensional image processing apparatus, three-dimensional imaging apparatus, and three-dimensional image processing method
JP2013521686A (ja) 3dtvのための視差分布推定
US9082210B2 (en) Method and apparatus for adjusting image depth
JP5488212B2 (ja) 画像処理装置、画像処理方法および画像表示装置
JP5127973B1 (ja) 映像処理装置、映像処理方法および映像表示装置
JP2012080294A (ja) 電子機器、映像処理方法、及びプログラム
Xiang et al. A gradient-based approach for interference cancelation in systems with multiple Kinect cameras
US9113140B2 (en) Stereoscopic image processing device and method for generating interpolated frame with parallax and motion vector
JP2012034336A (ja) 立体画像生成装置及び方法
JP4892105B1 (ja) 映像処理装置、映像処理方法および映像表示装置
US9330487B2 (en) Apparatus and method for processing 3D images through adjustment of depth and viewing angle
US9615051B2 (en) Performing video processing for frame sequential display for alternately displaying right and left images of stereoscopic video signals
JP5911325B2 (ja) 立体画像処理装置及び立体画像表示装置
JP2011188108A (ja) 画像処理装置、立体画像表示装置および画像処理方法
JP2017525197A (ja) 立体視ビデオ生成

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130516

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130516

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140210

R151 Written notification of patent or utility model registration

Ref document number: 5488212

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees