JP2011250278A - 画像処理装置、画像処理方法および画像表示装置 - Google Patents

画像処理装置、画像処理方法および画像表示装置 Download PDF

Info

Publication number
JP2011250278A
JP2011250278A JP2010122925A JP2010122925A JP2011250278A JP 2011250278 A JP2011250278 A JP 2011250278A JP 2010122925 A JP2010122925 A JP 2010122925A JP 2010122925 A JP2010122925 A JP 2010122925A JP 2011250278 A JP2011250278 A JP 2011250278A
Authority
JP
Japan
Prior art keywords
parallax
data
frame
image processing
adjustment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010122925A
Other languages
English (en)
Other versions
JP2011250278A5 (ja
JP5545036B2 (ja
Inventor
Hirotaka Sakamoto
浩隆 坂本
Noritaka Okuda
悟崇 奥田
Satoshi Yamanaka
聡 山中
Toshiaki Kubo
俊明 久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2010122925A priority Critical patent/JP5545036B2/ja
Priority to US13/117,190 priority patent/US20110293172A1/en
Publication of JP2011250278A publication Critical patent/JP2011250278A/ja
Publication of JP2011250278A5 publication Critical patent/JP2011250278A5/ja
Application granted granted Critical
Publication of JP5545036B2 publication Critical patent/JP5545036B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence

Abstract

【課題】入力された一対の画像の視差を、観察者とディスプレイ表示面との距離や観察者の立体映像に対する臨場感などの個人差に対応した、従来技術より目が疲れにくい好適な奥行き感の視差に変更して立体画像を表示することを目的とする。
【解決手段】両眼の視差に対応した一対の画像を複数の領域に分け、それぞれの領域の視差を算出し、これら視差を複数の視差データとして出力する視差算出部と、最大の視差データをフレーム視差データとして出力するフレーム視差算出部と、1つのフレームのフレーム視差データを他のフレームのフレーム視差データによって補正した補正後フレーム視差データを出力するフレーム視差補正部と、観察者の指示による視差調整情報および補正後フレーム視差データに基づいて視差調整データを出力する視差調整量算出部と、視差調整データに基づいて視差を調整した一対の画像を生成する調整画像生成部とを備える。
【選択図】図1

Description

本発明は、両眼の視差に対応した一対の入力画像を用いて立体映像を生成する画像処理装置に関するものである。
近年、観察者が擬似的に奥行き感を得るための画像表示技術として、両眼視差を利用した立体画像表示技術がある。両眼視差を利用した立体画像表示技術では、3次元空間の左眼で見た映像と右眼で見た映像とを観察者の左眼と右眼とに分けて見せることによって観察者が映像を立体と感じる。
観察者の左右の眼に異なる映像を見せるための技術として、左眼用画像と右眼用画像とを時間的に交互に切り替えてディスプレイに表示すると同時に、画像が切り替わるタイミングに同期して左右それぞれのレンズを透過する光量を制御する眼鏡を用いて左右の視界を時間的に分離する方式や、ディスプレイの前面に画像の表示角を制限するバリアやレンズを用いることで左右の眼それぞれに左眼用画像と右眼用画像とを見せる方式など、様々な方式がある。
このような立体画像表示装置において、観察者は飛び出した物体の位置に目の輻輳角を合わせながら、ディスプレイ表面にピントを合わせることになる。この不整合は、飛び出し量が大きすぎる場合、観察者に目の疲れを誘発するという問題点がある。一方、観察者にとって目の疲れを誘発する奥行き感は、観察者とディスプレイの表示面との距離や観察者の個人差によって異なるという問題がある。なお、輻輳角とは左眼の視線と右眼の視線が成す角度のことを表し、奥行き感とは両眼視差よって表現される物体の飛び出し量または引っ込み量のことを表す。
この問題に対して、特許文献1では、立体映像に埋め込まれた視差の情報に基づき立体画像の表示時間が所定時間を越えた場合に、立体画像の視差を変更することによって観察者の眼の疲れを軽減する技術が開示されている。
特開2008−306739号公報(3頁、図5)
しかしながら、上述のような従来の技術では、立体映像に視差情報が埋め込まれていない場合には立体画像の視差を変更することができない。また、視差を変更する量も、観察者とディスプレイ表示面との距離および観察者の個人差が考慮されていないため、個々の観察者に対応した目が疲れにくい好適な奥行き感の立体画像を表示することができない。
この発明は、上述のような課題を解決するためになされたもので、立体映像に視差情報が埋め込まれているか否かにかかわらず、入力された一対の画像の視差を、観察者とディスプレイ表示面との距離や観察者の立体映像に対する臨場感などの個人差に対応した、従来技術より目が疲れにくい好適な奥行き感の視差に変更して立体画像を表示することを目的とする。
本発明に係わる画像処理装置においては、両眼の視差に対応した一対の画像が入力され、前記一対の画像を複数の領域に分け、それぞれの領域の視差を算出し、前記それぞれの領域に対応した視差を複数の視差データとして出力する視差算出部と、前記複数の視差データの中で最大の視差データをフレーム視差データとして出力するフレーム視差算出部と、1つのフレームの前記フレーム視差データを他のフレームの前記フレーム視差データによって補正した補正後フレーム視差データとして出力するフレーム視差補正部と、観察者の指示による視差調整情報および前記補正後フレーム視差データに基づいて視差調整データを出力する視差調整量算出部と、前記視差調整データに基づいて前記一対の画像の視差を調整した一対の画像を生成する調整画像生成部とを備え、前記視差算出部は、位相限定相関法によって前記一対の画像を複数の領域に分けたそれぞれの領域の相関データおよび選択前視差データを出力する相関算出部と、前記複数の領域の前記相関データが高いか低いかの判定結果を高相関領域データとして出力する高相関領域抽出部と、前記高相関領域データに基づいて密集領域データを出力する密集検出部と、前記密集領域データと前記選択前視差データに基づいて、前記複数の領域の前記選択前視差データを補正した前記視差データを出力する視差選択部とを備えることを特徴とする。
本発明によれば、立体映像に視差情報が埋め込まれているか否かにかかわらず、観察者とディスプレイ表示面との距離および観察者の立体映像に対する臨場感などの個人差に対応し、観察者の目の疲れを軽減した奥行き感の立体画像を表示することができる。
本発明の実施の形態1に係る画像表示装置の構成を示す図である。 本発明の実施の形態1に係る画像処理装置の視差算出部1の詳細な構成を示す図である。 本発明の実施の形態1に係る画像処理装置の視差算出部1が左眼用画像入力データDa1と右眼用画像入力データDb1に基づいて視差データT1を算出する方法を説明する図である。 本発明の実施の形態1に係る画像処理装置の相関算出部10の詳細な構成を示す図である。 本発明の実施の形態1に係る画像処理装置の相関算出部10が相関データT10と選択前視差データT13を算出する方法を説明するための図である。 本発明の実施の形態1に係る画像処理装置の高相関領域検出部11に入力される相関データT10と高相関領域検出部11から出力される高相関領域データT11を詳細に示した図である。 本発明の実施の形態1に係る画像処理装置の相関データT10から高相関領域データT11を算出する方法を説明するための図である。 本発明の実施の形態1に係る画像処理装置の密集検出部12に入力される高相関領域データT11と密集検出部12から出力される密集領域データT12を詳細に示した図である。 本発明の実施の形態1に係る画像処理装置の高相関領域データT11から密集領域データT12を算出する方法を説明するための図である。 本発明の実施の形態1に係る画像処理装置の視差選択部13に入力される密集領域データT12と選択前視差データT13と視差選択部13から出力される視差データT1を詳細に示した図である。 本発明の実施の形態1に係る画像処理装置の密集領域データT12と選択前視差データT13から視差データT1を算出する方法を説明するための図である。 本発明の実施の形態1に係る画像処理装置のフレーム視差算出部2へ入力される視差データT1を詳細に示した図である。 本発明の実施の形態1に係る画像処理装置の視差データT1からフレーム視差のデータT2を算出する方法を説明する図である。 本発明の実施の形態1に係る画像処理装置のフレーム視差データT2から算出される補正後フレーム視差データT3について詳細に説明する図である 本発明の実施の形態1に係る画像処理装置の画像入力データDa1とDb1の視差量と画像出力データDa2とDb2の視差量の変化による飛び出し量の変化を説明する図である。 本発明の実施の形態2に係る画像処理方法のフローである。 本発明の実施の形態2に係る画像処理方法の視差算出ステップST1のフローである。 本発明の実施の形態2に係る画像処理方法のフレーム視差補正ステップST3のフローである。
実施の形態1.
図1は、本発明の実施の形態1に係る立体画像を表示する画像表示装置200の構成を示す図である。実施の形態1に係る立体画像表示装置200は、視差算出部1、フレーム視差算出部2、フレーム視差補正部3、視差調整量算出部4、調整画像生成部5および表示部6を備える。画像表示装置200の内の画像処理装置100は、視差算出部1、フレーム視差算出部2、フレーム視差補正部3、視差調整量算出部4および調整画像生成部5で構成されている。
左眼用画像入力データDa1と右眼用画像入力データDb1とは視差算出部1と調整画像生成部5に入力される。視差算出部1は、左眼用画像入力データDa1と右眼用画像入力データDb1に基づいて領域ごとに視差を算出し視差データT1を出力する。視差データT1は、フレーム視差算出部2に入力される。
フレーム視差算出部2は、視差データT1に基づいて着目フレームに対する視差を算出しフレーム視差データT2として出力する。フレーム視差データT2は、フレーム視差補正部3に入力される。
フレーム視差補正部3は、着目フレームのフレーム視差データT2を他の時刻のフレームのフレーム視差データT2を参照して補正した補正後フレーム視差データT3を出力する。補正後フレーム視差データT3は、視差調整量算出部4に入力される。
視差調整量算出部4は、観察者が入力する視差調整情報S1と補正後フレーム視差データT3に基づいて算出した視差調整データT4を出力する。視差調整データT4は、調整画像生成部5に入力される。
調整画像生成部5は、視差調整データT4に基づいて左眼用画像入力データDa1と右眼用画像入力データDb1との視差を調整した左眼用画像出力データDa2と右眼用画像出力データDb2とを出力する。左眼用画像出力データDa2と右眼用画像出力データDb2とは表示部6に入力される。表示部6は、左眼用画像出力データDa2と右眼用画像出力データDb2とを表示面に表示する。
図2は、視差算出部1の詳細な構成を示す図である。視差算出部1は、相関算出部10と高相関領域抽出部11と密集検出部12と視差選択部13とで構成されている。
左眼用画像入力データDa1と右眼用画像入力データDb1とは相関算出部10に入力される。相関算出部10は、左眼用画像入力データDa1と右眼用画像入力データDb1とに基づいて、領域ごとに相関値と視差とを算出し、相関値を相関データT10として出力し、視差を選択前視差データT13として出力する。相関データT10は高相関領域抽出部11に入力され、選択前視差データT13は視差選択部13に入力される。
高相関領域抽出部11は、相関データT10に基づいて各領域の相関値が高いか低いかを判定し、その結果を高相関領域データT11として出力する。高相関領域データT11は密集検出部12に入力される。
密集検出部12は、高相関領域データT11に基づいて、相関値が高い高相関領域について、複数の高相関領域が近接して密集している領域か否かを判定し、その結果を密集領域データT12として出力する。密集領域データT12は視差選択部13に入力される。
視差選択部13は、密集領域データT12と選択前視差データT13とに基づいて、密集している高相関領域に対しては平滑化した視差を視差データT1として出力し、それ以外の領域に対しては無効信号を視差データT1として出力する。
次に、本発明の実施の形態1に係る画像処理装置100の詳細な動作について説明する。 図3は、視差算出部1が左眼用画像入力データDa1と右眼用画像入力データDb1に基づいて視差データT1を算出する方法を説明するための図である。
視差算出部1は、入力データである左眼用画像入力データDa1と右眼用画像入力データDb1とを幅W1、高さH1の大きさに区切り、その領域ごとの視差を算出する。この時、左眼用画像入力データDa1と右眼用画像入力データDb1とを区切る領域は水平方向に幅V1(V1はW1以下の整数)ずつずらし、オーバーラップさせる。立体映像は左眼用画像と右眼目用画像との一対の画像が連続した動画となっている。左眼用画像入力データDa1は左眼用画像であり、右眼用画像入力データDb1は右眼用画像であるため、映像の画像自体が左眼用画像入力データDa1と右眼用画像入力データDb1とになる。例えばテレビに実施の形態1に係る画像処理装置を適用する場合であれば、デコーダで放送信号が復号されるが、その復号された映像信号が左眼用画像入力データDa1と右眼用画像入力データDb1として入力される。なお、画面を区切る領域の幅W1、高さH1およびオーバーラップさせる際のずらし幅V1については、任意の値を用いることができ、実施の形態1に係る画像処理装置を実際のLSIなどに実装する際にLSIの処理量等を考慮して決定される。
このように領域をオーバーラップさせることで、画像入力データを視差の検出しやすい位置で切り出した領域が増え、視差の算出の精度を高めることができる。
左眼用画像入力データDa1と右眼用画像入力データDb1とを区切る垂直方向の領域の数を正の整数h、区切った領域の数を正の整数xと表す。まず、図3の(a)、(b)では、最も左上の領域の番号を第1番目とし、縦方向にH1ずつずれた領域を順次、第2番目、第3番目・・・第h番目と番号を振っている。さらに、図3の(c)、(d)では、第1番目の領域から右にV1ずれた領域を第h+1番目の領域とし、順次、第2番目から右にV1ずれた領域を第h+2番目の領域・・・第h番目の領域から右にV1ずれた領域を第2×h番目の領域とする。同様に、ディスプレイ画面の右端まで、順次、左にV1ずつずれた領域に画面を区切り、最も右下の領域を第x番目の領域とする。
左眼用画像入力データDa1の第1番目の領域に含まれる画像入力データをDa1(1)とし、以下各領域に対する左眼用画像入力データをDa1(2)、Da1(3)・・・Da1(x)とし、右眼用画像入力データDb1の各領域に対する右眼用画像入力データも同様にDb1(1)、Db1(2)、Db1(2)、Db(3)・・・Db(x)とする。
上記の例では、左眼用画像入力データDa1と右眼用画像入力データDb1とを区切る領域は等間隔に水平方向にオーバーラップさせたが、左眼用画像入力データDa1と右眼用画像入力データDb1とを区切る領域を垂直方向にオーバーラップさせてもよい。あるいは、水平方向と垂直方向とにオーバーラップさせても良い。なお、領域は等間隔でオーバーラップさせなくても良い。
図4は、相関算出部10の詳細な構成を示す図である。相関算出部10は、領域ごとに相関値と視差とを算出するため、x個の領域相関算出部で構成されている。領域相関算出部10b(1)は、第1番目の領域に含まれる左眼用画像入力データDa1(1)と右眼用画像入力データDb1(1)とに基づいて、第1番目の領域の相関値と視差とを算出し、相関値を第1番目の領域の相関データT10(1)として出力し、視差を第1番目の領域の選択前視差データT13(1)として出力する。以下同様に、領域相関算出部10b(2)から領域相関算出部10b(x)は、それぞれ第2番目から第x番目までの領域の相関値と視差とを算出し、相関値を第2番目から第x番目までの領域の相関データT10(2)からT10(x)までとして出力し、視差を第2番目から第x番目までの領域の選択前視差データT13(2)からT13(x)までとして出力する。そして、相関算出部10は第1番目から第x番目までの領域の相関データT10(1)からT10(x)までを相関データT10として出力し、第1番目から第x番目までの領域の選択前視差データT13(1)からT13(x)までを選択前視差データT13として出力する。
領域視差算出部10b(1)は、位相限定相関法を用いて左眼用画像入力データDa1(1)と右眼用画像入力データDb1(1)との相関データT10(1)と選択前視差データT13(1)とを算出する。位相限定相関法については例えば非特許文献( 萩原 瑞木、川俣 政征著「位相限定関数を用いた画像のサブピクセル精度の位置ずれ検出」電子情報通信学会技術研究報告、No.CAS2001−11、VLD2001−28、DSP2001−30、2001年6月、pp.79−86)に説明されている。位相限定相関法は、立体映像の一対の画像を入力として受け取り、視差量を出力するアルゴリズムである。
次に示す式(1)は位相限定相関法で算出される視差量Noptを表す式である。式(1)において、Gab(n)は位相限定相関関数である。
Figure 2011250278
ここで、n:0≦n≦W1とする。argmax(Gab(n))はGab(n)が最大となるnの値であり、このときのnがNoptである。Gab(n)は次の式(2)で表される。
Figure 2011250278
ここで、関数IFFTは、逆高速フーリエ変換関数であり、|Fab(n)|はFab(n)の大きさである。Fab(n)は次の式(3)で表される。
Figure 2011250278
ここで、B(n)はB(n)の複素共役の系列、A・B(n)はAとB(n)との畳み込みである。AおよびB(n)は次の式(4)で表される。
Figure 2011250278
ここで、関数FFTは高速フーリエ変換関数である。a(m)、b(m)は連続する1次元の系列であり、mは系列のインデックスである。そしてb(m)=a(m−τ)すなわちb(m)はa(m)を右にτずらした系列であり、b(m−n)はb(m)を右にnずらした系列である。
領域視差算出部1bでは、左眼用画像入力データDa1(1)を式(4)のaとし、右眼用画像入力データDb1(1)を式(4)のbとして位相限定相関法によって算出されたGab(n)の最大値が相関データT10(1)となり、Gab(n)が最大となるnの値Noptが選択前視差データT13(1)となる。
図5は、第1番目の領域に含まれる左眼用画像入力データDa1(1)と右眼用画像入力データDb1(1)から位相限定相関法を用いて相関データT10(1)と選択前視差データT13(1)を算出する方法を説明するための図である。図5(a)の実線で表されるグラフは、第1番目の領域に対応する左眼用画像入力データDa1(1)であり、横軸は水平位置、縦軸は階調を示している。図5(b)のグラフは、第1番目の領域に対応する右眼用画像入力データDb1(1)であり、横軸は水平位置、縦軸は階調を示している。図5(a)の破線で表されるグラフは、第1番目の領域の視差量n1だけずらした右眼用画像入力データDb1(1)である。図5(c)のグラフは、位相限定相関関数Gab(n)であり、横軸はGab(n)の変数n、縦軸は相関の強さを示している。
位相限定相関関数Gab(n)は、連続する系列aとaをτシフトした系列bとで定義されており、式(2)、式(3)よりn=−τにピークを持つデルタ関数になる。右眼用画像入力データDb1(1)は、左眼用画像入力データDa1(1)に対して飛び出す場合に左方向にずれ、引っ込む場合に右方向にずれている。左眼用画像入力データDa1(1)と右眼用画像入力データDb(1)を領域に区切ったデータでは飛び出し方向、引っ込み方向いずれか一方にずれている可能性が高く、左眼用画像入力データDa1(1)と右眼用画像入力データDb1(1)を式(4)の入力a(m)、b(m)として算出した式(1)のNoptが選択前視差データT13(1)となり、このときの位相限定相関関数Gab(n)の最大値が相関データT10(1)となる。
図5(a)と図5(b)との関係よりずれ量はn1であるため、図5(c)に示すように位相限定相関関数Gab(n)に関するずれ量の変数nがn1のときに相関関数の値が一番大きくなる。
図4に示す領域相関算出部10b(1)は、式(1)より左眼用画像入力データDa1(1)と右眼用画像入力データDb1(1)に対する位相限定相関関数Gab(n)の最大値を相関データT10(1)として出力し、位相限定相関関数Gab(n)の値が最大となるずれ量n1を選択前視差データT13(1)として出力する。T13(1)からT13(x)までがT13である。
同様に、図4に示す領域相関算出部10b(2)から10b(x)までは、第2番目から第x番目までの領域に含まれる左眼用画像入力データDa1(2)からDa1(x)までと右眼用画像入力データDb1(2)からDb1(x)までのそれぞれの位相限定相関の最大値を相関データT10(2)からT10(x)までとして出力し、位相限定相関の値が最大となるずれ量を選択前視差データT13(2)からT13(x)までとして出力する。
前述の非特許文献には、左眼用画像入力データDa1と右眼用画像入力データDb1とをそのまま入力として、左眼用画像入力データDa1と右眼用画像入力データDb1との視差を得る方法が記載されている。しかし、入力される画像が大きければ計算量が多くなり、LSIに実装した際、回路規模が大きくなるという問題がある。さらに、左眼用画像入力データDa1と右眼用画像入力データDb1とに小さく写っている物体に対する位相限定相関関数Gab(n)のピークは小さくなってしまい、小さく写っている物体の視差の算出が難しい。
実施の形態1に係る画像処理装置の視差算出部1では、左眼用画像入力データDa1と右眼用画像入力データDb1とを小さい領域に分割し、領域ごとに位相限定相関法を適用している。このため、小さい回路規模で位相限定相関法をLSIに実装できる。この場合、すべての領域を同時に計算するのではなく、1つの回路を使って1領域ずつ順番に視差を計算することでさらに回路規模を小さくできる。さらに、小さく分割された領域内では、左眼用画像入力データDa1と右眼用画像入力データDb1とに小さく写っていた物体も、相対的に大きな面積を占めることになるので、位相限定相関関数Gab(n)のピークも大きくなり検出しやすくなる。このため、視差がより正確に求められる。
図6は、高相関領域検出部11に入力される相関データT10と高相関領域検出部11から出力される高相関領域データT11とを詳細に示した図である。高相関領域検出部11は入力される第1番目から第x番目までの領域に対応する相関データT10(1)からT10(x)までが高いか低いかを判定し、その判定結果を第1番目から第x番目までの領域に対応する高相関領域データT11(1)からT11(x)までとして出力する。T11(1)からT11(x)までがT11である。
図7は、相関データT10(1)〜T10(x)を基に高相関領域データT11(1)〜T11(x)を算出する方法を説明するための図である。横軸は領域番号であり、縦軸は相関データである。高相関領域検出部11は相関データT10(1)からT10(x)までの平均値を求め、その平均値より相関データT10(1)からT10(x)までが高いか低いかを判定し、その判定結果を高相関領域データT11(1)からT11(x)までとして算出する。図7の斜線でマスクした領域は相関データが低く、それ以外の領域の相関データが高い。相関データが高いと判定された領域を高相関領域と呼ぶ。これにより、相関が高く視差が正しく求められている領域を検出することができ、視差の算出精度を高めることができる。
上記の例では、相関データT10(1)からT10(x)までの平均値を基準として判定を行う例を示したが、相関データT10(1)からT10(x)までが高いか低いかを判定する基準は、あらかじめ設定した定数を用いても良い。
図8は、密集検出部12に入力される高相関領域データT11と密集検出部12から出力される密集領域データT12を詳細に示した図である。密集検出部12は入力される第1番目から第x番目までの領域に対応する高相関領域データT11(1)からT11(x)までに基づき、高相関領域について、複数の高相関領域が近接して密集している領域か否かを判定し、その判定結果を第1番目から第x番目までの領域に対応する密集領域データT12(1)からT12(x)までとして出力する。T12(1)からT12(x)までがT12である。
図9は、高相関領域データT11(1)〜T11(x)に基づき密集領域データT12(1)〜T12(x)を算出する方法を説明するための図である。横軸は領域番号であり、縦軸は相関データである。密集検出部12は高相関領域データT11(1)からT11(x)までに基づき、位置的に一定数以上連続している高相関領域を判定し、その判定結果を密集領域データT12(1)からT12(x)までとして算出する。ただし、第c×h番目(cは0以上の整数)と第c×h+1番目は画像入力データ上で連続していないので、高相関領域が連続しているかを判定する場合には、第c×h番目と第c×h+1番目の領域間をまたいで連続しているとは判定しない。図9では、高相関領域が12以上連続している領域を密集していると判定した場合を示している。相関が低いと判定されている領域をグレーのマスクで示し、高相関領域であるが密集していない領域を斜線のマスクで示しており、残りのマスクされていない領域が密集している高相関領域示を示している。これにより、視差を検出しやすい領域を検出することができ、検出しやすい領域の視差を選別することで、視差の算出精度を高めることができる。
密集していると判定する基準は、高相関領域が垂直方向に連続しているか否かという基準以外に、高相関領域が水平方向に連続しているか否かという基準でも良いし、また、高相関領域が垂直方向と水平方向両方に連続しているかという基準でも良い。さらには、連続しているという判定の代わりに、一定の範囲内の高相関領域の密度を基準にしても良い。
図10は、視差選択部13に入力される密集領域データT12、選択前視差データT13および視差選択部13から出力される視差データT1を詳細に示した図である。視差選択部13は入力される第1番目から第x番目までの領域に対応する密集領域データT12(1)からT12(x)までと選択前視差データT13(1)からT13(x)までに基づき、密集している高相関領域の選択前視差データT13(1)からT13(x)までを平滑化した値を視差データT1(1)からT1(x)までとして出力する。密集している高相関領域以外の領域に対しては、視差が選択されないことを表す無効信号を視差データT13(1)からT13(x)までとして出力する。T1(1)からT1(x)までがT1である。
図11は、密集領域データT12(1)〜T12(x)と選択前視差データT13(1)〜T13(x)とを基に視差データT1(1)〜T1(x)を算出する方法を説明するための図である。横軸は領域番号であり、縦軸は選択前視差データT13である。視差選択部13は、密集領域データT12(1)からT12(x)までと選択前視差データT13(1)からT13(x)までに基づき、視差データT1(1)からT1(x)までとして出力する。密集している高相関領域以外の領域に対しては、視差が選択されないことを表す無効信号を視差データT1(1)からT1(x)までとして出力する。図11では密集している高相関領域以外をグレーのマスクで表している。図11(a)は選択前視差データT13を示しており、図11(b)は視差データT1を示している。これにより、視差が検出しやすい領域である密集した高相関領域の視差のうち、誤検出と考えられるはずれ値を除去することができ、視差の算出精度を高めることができる。
次に、フレーム視差算出部2の詳細な動作について説明する。
図12は、フレーム視差算出部2について入力される視差データT1を詳細に示した図である。フレーム視差算出部2は、入力される第1番目から第x番目までの領域に対応する視差データT1(1)からT1(x)までのうち視差が選択されないことを表す無効信号以外の視差データを集約し、着目フレームの画像に対して1つのフレーム視差データT2を算出する。
図13は、視差データT1(1)からT(x)までを基にフレーム視差のデータT2を算出する方法を説明するための図である。横軸は領域の番号であり、縦軸は視差データである。フレーム視差算出部2は、視差データT1(1)からT(x)までのうち、最大の視差データをフレーム画像のフレーム視差データT2として出力する。
これにより、視差の情報が埋め込まれていない立体映像に対しても、観察者にとって最も影響が大きいと考えられる立体映像の各フレームでの最も飛び出している部分の視差量を算出することができる。
次に、フレーム視差補正部3の詳細な動作について説明する。
図14は、フレーム視差データT2から算出される補正後フレーム視差データT3について詳細に説明するための図である。図14(a)は、フレーム視差データT2の時間的変化を示した図である。横軸は時間であり、縦軸はフレーム視差データT2である。図14(b)は補正後フレーム視差データT3の時間的変化を示した図である。横軸は時間であり、縦軸は補正後フレーム視差データT3である。
フレーム視差補正部3は、フレーム視差データT2を一定時間分保持し、着目フレームの前後複数のフレーム視差データT2の平均を算出し、補正後フレーム視差データT3として出力する。補正後フレーム視差データT4は次の式(5)で表される。
Figure 2011250278
ここで、T3(tj)は着目する時刻tjにおける補正後フレーム視差データであり、T2(k)は時刻kにおけるフレーム視差データであり、正の整数Lは平均を算出する幅である。またti<tjであるので、例えば図14(a)に示す時刻(ti−L)からtiまでにおけるフレーム視差データT2の平均から図14(b)に示す時刻tjの補正後フレーム視差データT3が求められる。
3Dの飛び出し量は時間的に連続的に変化するものが多い。視差データT2が時間的に不連続に変化する場合、例えば、時間軸に対してインパルス状に変化する場合は視差データT2の誤検出とみなしても良い。フレーム視差データ補正部3により、たとえインパルス状の変化があったとしても時間的に平均化されるため誤検出を緩和することができる。
次に、視差調整量算出部4の詳細な動作について説明する。
視差調整量算出部4は、観察者9が好みや疲れ度合いに合わせて設定する視差調整情報S1と補正後のフレーム視差データT3とに基づいて視差調整量を算出し視差調整データT4を出力する。
視差調整情報S1は、視差調整係数S1aと視差調整閾値S1bを含み、視差調整データT4は次の式(6)で表される。
Figure 2011250278
視差調整データT4は、画像調整によって減少させる視差量のことであり、左眼用画像入力データDa1と右眼用画像入力データDb1とを水平シフトする量を示す。後で詳述するように、左眼用画像入力データDa1と右眼用画像入力データDb1とを水平シフトする量の和がT4となる。このため、フレーム視差データT3が視差調整閾値S1b以下の場合は、画像調整により左眼用画像入力データDa1と右眼用画像入力データDb1とは水平方向にシフトしない。一方、フレーム視差データT3が視差調整閾値S1bより大きい場合は、フレーム視差データT3と視差調整閾値S1bとの差の値に視差調整係数S1aを乗じた値だけ左眼用画像入力データDa1と右眼用画像入力データDb1とは水平方向にシフトすることになる。
例えば、視差調整係数S1a=1、視差調整閾値S1b=0の場合、T3≦0ではT4=0となる。つまり画像調整は行われない。一方、T3>0ではT4=T3となり、左眼用画像入力データDa1と右眼用画像入力データDb1とは水平方向にT3だけシフトされる。補正後フレーム視差データT3はフレーム画像の最大の視差であるため、着目フレーム内で算出された最大の視差が0となる。また、視差調整係数S1aを1より小さくしていくと視差調整データT4は補正後視差データT3より小さくなり、着目フレーム内で算出された最大の視差も0より大きくなる。また、視差調整閾値S1bを0より大きくしていくと、補正後視差データT3が0より大きい値に対しても視差データの調整を行わない。つまり画像が少し飛び出しているフレームに対しても視差調整を行わないことになる。
視差調整情報S1の設定は、例えばユーザーがリモコンなどの入力手段によって視差調整情報S1を変化させて立体画像の飛び出し量の変化を見ながら決定する。リモコンの視差調整係数ボタンと視差調整閾値ボタンから入力することもできるが、ランク分けされた一つの視差調整ボタンから視差の調整度合いを入力すると、所定の視差調整係数S1aと視差調整閾値S1bが設定されるようにすることもできる。
以上より本実施の形態は、入力された一対の画像の視差を、観察者9とディスプレイ表示面61との距離や観察者9の好みや疲れ度合いなどの個人差に対応した、目が疲れにくい好適な奥行き感の視差に変更して立体画像を表示することができる。
次に、調整画像生成部5の動作について説明する。
図15は、左眼用画像入力データDa1と右眼用画像入力データDb1との視差、左眼用画像出力データDa2と右眼用画像出力データDb2との視差および飛び出し量の関係を説明するための図である。図15(a)は、左眼用画像入力データDa1と右眼用画像入力データDb1と飛び出し量の関係を示した図である。図15(b)は、左眼用画像出力データDa2と右眼用画像出力データDb2と飛び出し量の関係を示している。
調整画像生成部5は、T3>S1bと判断した場合に、視差調整データT4に基づいて左眼用画像入力データDa1を左方向に水平移動し、右眼用画像入力データDb1を右方向に水平移動した左眼用画像出力データDa2と右眼用画像出力データDb2を出力する。このとき視差d2は、d2=d1−T4で求められる。
左眼用画像入力データDa1の画素P1lと右眼用画像入力データDb1の画素P1rとは同じ物体の同じ部分であるとすると、その視差はd1となり観察者からはF1の位置に飛び出して見える。
左眼用画像出力データDa2の画素P2lと右眼用画像入力データDb2の画素P2rとは同じ物体の同じ部分であるとすると、その視差はd2となり観察者からはF2の位置に飛び出して見える。
左眼用画像入力データDa1を左方向に、右眼用画像入力データDb1右方向に水平移動することにより視差d1は視差d2へと小さくなるため、これに対して飛び出し位置がF1からF2へと変化する。
補正後フレーム視差データT3はフレーム画像の最大の視差データであるフレーム視差データT2から算出されるため、補正後フレーム視差データT3はフレーム画像の最大の視差データとなる。視差調整データT4は、式(6)より補正後フレーム視差データT3を基に求めているため、視差調整係数S1aが1の場合は着目フレーム内の最大の視差と等しくなり、視差調整係数S1aが1より小さい場合は最大の視差より小さくなる。図15(a)の視差d1を着目フレーム内で算出された最大の視差と仮定すると、図15(b)に示す調整後の最大の視視差d2は視差調整係数S1aを1より小さく設定した場合はd1より小さい値となり、視差調整係数S1a=1、視差調整閾値S1b=0と設定した場合は映像が飛び出さない画像となりd2=0となる。こうすることで、調整後の画像出力データの最大飛び出し量F2が、のディスプレイ表示面61から飛び出し位置F1の間に調整される。
次に、表示部6の動作について述べる。表示部6は、左眼用画像出力データDa2と右眼用画像出力データDb2を観察者9の左眼と右眼に別々に表示する。具体的には、光学的な機構により左眼と右眼とで異なった画像を表示できるディスプレイを使う3D表示方式でも良いし、左眼用画像と右眼用画像とを交互に表示したディスプレイに同期して左眼と右眼のレンズのシャッターを開閉する専用メガネを用いる3D表示方式でも良い。
以上により本実施の形態においては、入力された一対の画像の視差を、観察者9とディスプレイ表示面61との距離や観察者9の好みや疲れ度合いなどの個人差に対応した、目が疲れにくい好適な奥行き感の視差に変更して立体画像を表示することができる。
なお、実施の形態1では、フレーム視差補正部3は、着目フレームの前後複数のフレーム視差データT2の平均を算出し、補正後フレーム視差データT3として出力した例を示したが、着目フレームの前後複数のフレーム視差データT2の中央値を算出し、補正後フレーム視差データT3として出力しても良い。その他の方法を用いて着目フレームの前後複数のフレーム視差データT2から補正した値を算出し、補正後フレーム視差データT3を出力しても良い。
実施の形態2.
図16は、本発明の実施の形態2に係る立体画像の画像処理方法のフローを表す図である。実施の形態2に係る画像処理方法は、視差算出ステップST1、フレーム視差算出ステップST2、フレーム視差補正ステップST3、視差調整量算出ステップST4および調整画像生成ステップST5からなる。
視差算出ステップST1は、図17に示すように画像切り出しステップST1aと領域視差算出ステップST1bとからなる。
フレーム視差補正ステップST3は、図18に示すようにフレーム視差バッファステップST3aとフレーム視差加算平均ステップST3bとからなる。
以下、実施の形態2係る画像処理方法動作について説明する。
まず、視差算出ステップST1では、左眼用画像入力データDa1と右眼用画像入力データDb1とに対して、以下のような処理が行われる。
画像切り出しステップST1aにおいて、左眼用画像入力データDa1を幅W1、高さH1のオーバーラップした格子状に区切りx個の領域に分割し、分割された左眼用画像入力データDa1(1)、Da1(2)、Da1(3)からDa1(x)までを作成する。右眼用画像入力データDb1についても同様に幅W1高さH1の格子状に区切り、分割された右眼用画像入力データDb1(1)、Db1(2)、Db1(3)からDb1(x)までを作成する。
領域視差算出ステップST1bにおいて、第1番目の領域に対する左眼用画像入力データDa1(1)と右眼用画像入力データDb1(1)とに対して位相限定相関法を用いて、第1番目の領域の視差データT1(1)を算出する。すなわち、左眼用画像入力データDa1(1)と右眼用画像入力データDb1(1)とに対して位相限定相関Gab(n)が最大となるnを算出し、視差データT1(1)とする。第2番目から第x番目までの領域に対する左眼用画像入力データDa1(2)からDa1(x)までと右眼用画像入力データDb1(2)からDb(x)までに対しても、位相限定相関法を用いて視差データT1(2)からT1(x)までを算出する。この動作は、実施の形態1における視差算出部1と同等である。
次に、フレーム視差算出ステップST2では、視差データT1(1)からT1(x)までのうち最大の視差データを選択し、フレーム視差データT2とする。この動作は、実施の形態1におけるフレーム視差算出部2と同等である。
次に、フレーム視差補正ステップST3では、フレーム視差データT2に対して以下のような処理が行われる。
フレーム視差バッファステップST3aにおいて、時間的に変化するフレーム視差データT2を一定の容量のバッファ記憶装置に順次保存する。
フレーム視差加算平均ステップST3bにおいて、バッファ領域に保存されている視差データT2に基づき、着目フレームの前後複数のフレーム視差データT2の加算平均を算出し、補正後フレーム視差データT3を算出する。この動作は、実施の形態1におけるフレーム視差補正部3と同等である。
次に、視差調整量算出ステップST4では、あらかじめ設定された視差調整係数S1aと視差調整閾値S1bに基づき、視差補正後フレーム視差データT3から視差調整量T4を算出する。補正後フレーム視差データT3が視差調整閾値S1b以下の時刻においては、視差調整データT4は0とする。逆に、補正後フレーム視差データT3が視差調整閾値S1bを超えている時刻では、補正後フレーム視差データT3が視差調整閾値S1bを超えた量にS1aを乗じた分を視差調整データT4とする。この動作は、実施の形態1における視差調整量算出部4と同等である。
次に、調整画像生成ステップST5では、視差調整データT4に基づいて左眼用画像入力データDa1と右眼用画像入力データDb1から、左眼用画像出力データDa2と右眼用画像出力データDb2を算出する。具体的には、左眼用画像入力データDa1をT4/2だけ左に水平移動し、右眼用画像入力データDb1をT4/2だけ右に水平移動することで、視差がT4減った左眼用画像出力データDa2と右眼用画像出力データDb2とが生成される。この動作は、実施の形態1における調整画像生成部5と同等である。以上が実施の形態2に係る画像処理方法の動作である。
このように構成された画像処理方法においては、視差がT4減った左眼用画像出力データDa2と右眼用画像出力データDb2とが生成されるので、入力された一対の画像の視差を、観察者とディスプレイ表示面との距離や観察者の好みや疲れ度合いなどの個人差に対応した、目が疲れにくい好適な奥行き感の視差に変更して立体画像を表示することができる。
1 視差算出部、 2 フレーム視差算出部、 3 フレーム視差補正部、 4 視差調整量、 5 調整画像生成部、 6 表示部、 9 観察者、 10 相関算出部、 11 高相関領域抽出部、 12 密集検出部、 13 視差選択部、 100 画像処理装置、 200 画像表示装置、 S1 視差調整情報、 Da1 左眼用画像入力データ、 Db1 右眼用画像入力データ、 Da2 左眼用画像出力データ、 Db2 右眼用画像出力データ、 T1 視差データ、 T2 フレーム視差データ、 T3 補正後フレーム視差データ、 T4 視差調整データ、 T10 相関データ、 T11 高相関領域データ、 T12 密集領域データ、 T13 選択前視差データ、 ST1 視差算出ステップ、 ST1a 画像切り出しステップ、 ST1b 領域視差算出ステップ、 ST2 フレーム視差算出ステップ、 ST3 フレーム視差補正ステップ、 ST3a フレーム視差バッファステップ、 ST3b フレーム視差加算平均ステップ、 ST4 視差調整量算出ステップ、 ST5 調整画像生成ステップ。

Claims (12)

  1. 両眼の視差に対応した一対の画像が入力され、前記一対の画像を複数の領域に分け、それぞれの領域の視差を算出し、前記それぞれの領域に対応した視差を複数の視差データとして出力する視差算出部と、
    前記複数の視差データの中で最大の視差データをフレーム視差データとして出力するフレーム視差算出部と、
    1つのフレームの前記フレーム視差データを他のフレームの前記フレーム視差データによって補正した補正後フレーム視差データとして出力するフレーム視差補正部と、
    観察者の指示による視差調整情報および前記補正後フレーム視差データに基づいて視差調整データを出力する視差調整量算出部と、
    前記視差調整データに基づいて前記一対の画像の視差を調整した一対の画像を生成する調整画像生成部とを備え、
    前記視差算出部は、位相限定相関法によって前記一対の画像を複数の領域に分けたそれぞれの領域の相関データおよび選択前視差データを出力する相関算出部と、
    前記複数の領域の前記相関データが高いか低いかの判定結果を高相関領域データとして出力する高相関領域抽出部と、
    前記高相関領域データに基づいて密集領域データを出力する密集検出部と、
    前記密集領域データと前記選択前視差データに基づいて、前記複数の領域の前記選択前視差データを補正した前記視差データを出力する視差選択部とを備えたことを特徴とする画像処理装置。
  2. 視差算出部は、一対の画像を互いに重なる複数の領域に分け、それぞれの領域の視差を算出した結果を複数の視差データとして出力することを特徴とする請求項1に記載の画像処理装置。
  3. 高相関領域抽出部は、複数の領域の相関データを前記複数の領域の前記相関データの平均値と比較した判定結果を高相関領域データとして出力することを特徴とする請求項1または2に記載の画像処理装置。
  4. 密集検出部は、高相関領域データが高い複数の領域があらかじめ定めた数以上に連続していることを基準として密集しているか否かを判定した判定結果を密集領域データとして出力することを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
  5. 視差選択部は、密集領域データに基づいて高相関領域データが高く密集している複数の領域に対応する選択前視差データをメディアンフィルターによって補正した視差データを出力することを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。
  6. 視差選択部は、密集領域データに基づいて高相関領域データが高く密集している複数の領域に対応する選択前視差データを移動平均によって補正した視差データを出力することを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。
  7. フレーム視差補正部は、1つフレームのフレーム視差データ及び他のフレームの前記フレーム視差データの平均を算出することにより、補正後フレーム視差データを算出することを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。
  8. 視差調整量算出部は、補正後フレーム視差データに視差調整情報に含まれる視差調整係数を乗ずることにより、前記視差調整データを生成することを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。
  9. 前記視差調整量算出部は、前記視差調整情報に含まれる視差調整閾値より大きい補正後フレーム視差データに対して前記視差調整情報に含まれる視差調整係数を乗ずることにより、前記視差調整データを算出することを特徴とする請求項1から8のいずれか1項に記載の画像処理装置。
  10. 調整画像生成部は、一対の画像を視差調整データ2分の1ずつ視差が減る方向にシフトすることにより、新たな一対の画像を生成することを特徴とする請求項1から9のいずれか1項に記載の画像処理装置。
  11. 請求項1に記載の画像処理装置にさらに表示部を備え、この表示部は前記画像処理装置の調整画像生成部で生成された一対の画像を表示することを特徴とする画像表示装置。
  12. 両眼の視差に対応した一対の画像が入力され、前記一対の画像の視差を検出して視差データを出力する視差算出ステップと、
    前記視差データを集約してフレーム視差データとして出力するフレーム視差算出ステップと、
    当該フレームの前記フレーム視差データを当該フレーム以外のフレームの前記フレーム視差データによって補正した補正後フレーム視差データとして出力するフレーム視差補正ステップと、
    観察者の指示による視差調整情報および前記補正後フレーム視差データに基づいて視差調整データを出力する視差調整量算出ステップと、
    前記視差調整データに基づいて前記一対の画像の視差を調整した新たな一対の画像を生成する調整画像生成ステップとを備えることを特徴とする画像処理方法。
JP2010122925A 2010-05-28 2010-05-28 画像処理装置、画像処理方法および画像表示装置 Expired - Fee Related JP5545036B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010122925A JP5545036B2 (ja) 2010-05-28 2010-05-28 画像処理装置、画像処理方法および画像表示装置
US13/117,190 US20110293172A1 (en) 2010-05-28 2011-05-27 Image processing apparatus, image processing method, and image display apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010122925A JP5545036B2 (ja) 2010-05-28 2010-05-28 画像処理装置、画像処理方法および画像表示装置

Publications (3)

Publication Number Publication Date
JP2011250278A true JP2011250278A (ja) 2011-12-08
JP2011250278A5 JP2011250278A5 (ja) 2013-07-04
JP5545036B2 JP5545036B2 (ja) 2014-07-09

Family

ID=45022185

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010122925A Expired - Fee Related JP5545036B2 (ja) 2010-05-28 2010-05-28 画像処理装置、画像処理方法および画像表示装置

Country Status (2)

Country Link
US (1) US20110293172A1 (ja)
JP (1) JP5545036B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013126106A (ja) * 2011-12-14 2013-06-24 Konica Minolta Inc 画像処理方法、画像処理システムおよび画像処理プログラム
WO2014013804A1 (ja) * 2012-07-18 2014-01-23 ソニー株式会社 画像処理装置及び画像処理方法、並びに画像表示装置
WO2014049894A1 (ja) * 2012-09-25 2014-04-03 パナソニック株式会社 画像信号処理装置および画像信号処理方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9374571B2 (en) * 2011-10-11 2016-06-21 Panasonic Intellectual Property Management Co., Ltd. Image processing device, imaging device, and image processing method
US20140085434A1 (en) * 2012-09-25 2014-03-27 Panasonic Corporation Image signal processing device and image signal processing method
JP5890816B2 (ja) * 2013-09-30 2016-03-22 富士重工業株式会社 フィルタリング装置および環境認識システム
JP6476831B2 (ja) * 2013-12-26 2019-03-06 株式会社リコー 視差演算システム、情報処理装置、情報処理方法及びプログラム
JP6365153B2 (ja) * 2014-09-10 2018-08-01 株式会社ソシオネクスト 画像符号化方法および画像符号化装置
CN112929640A (zh) * 2019-12-05 2021-06-08 北京芯海视界三维科技有限公司 多视点裸眼3d显示装置、显示方法、显示屏校正方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08317429A (ja) * 1995-05-23 1996-11-29 Matsushita Electric Ind Co Ltd 立体電子ズーム装置及び立体画質制御装置
JPH09200760A (ja) * 1995-11-01 1997-07-31 Samsung Electron Co Ltd 映像符号化装置における量子化間隔決定方法及び回路
JP2003284095A (ja) * 2002-03-27 2003-10-03 Sanyo Electric Co Ltd 立体画像処理方法および装置
JP2005142819A (ja) * 2003-11-06 2005-06-02 Univ Waseda 立体映像評価装置および立体映像チューナ
JP2008103820A (ja) * 2006-10-17 2008-05-01 Sharp Corp 立体画像処理装置
JP2010008739A (ja) * 2008-06-27 2010-01-14 Toshiba Corp 映像信号制御装置、映像表示システム、及び映像信号制御方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5308523B2 (ja) * 2009-06-01 2013-10-09 パナソニック株式会社 立体画像表示装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08317429A (ja) * 1995-05-23 1996-11-29 Matsushita Electric Ind Co Ltd 立体電子ズーム装置及び立体画質制御装置
JPH09200760A (ja) * 1995-11-01 1997-07-31 Samsung Electron Co Ltd 映像符号化装置における量子化間隔決定方法及び回路
JP2003284095A (ja) * 2002-03-27 2003-10-03 Sanyo Electric Co Ltd 立体画像処理方法および装置
JP2005142819A (ja) * 2003-11-06 2005-06-02 Univ Waseda 立体映像評価装置および立体映像チューナ
JP2008103820A (ja) * 2006-10-17 2008-05-01 Sharp Corp 立体画像処理装置
JP2010008739A (ja) * 2008-06-27 2010-01-14 Toshiba Corp 映像信号制御装置、映像表示システム、及び映像信号制御方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013126106A (ja) * 2011-12-14 2013-06-24 Konica Minolta Inc 画像処理方法、画像処理システムおよび画像処理プログラム
WO2014013804A1 (ja) * 2012-07-18 2014-01-23 ソニー株式会社 画像処理装置及び画像処理方法、並びに画像表示装置
WO2014049894A1 (ja) * 2012-09-25 2014-04-03 パナソニック株式会社 画像信号処理装置および画像信号処理方法
JP5830705B2 (ja) * 2012-09-25 2015-12-09 パナソニックIpマネジメント株式会社 画像信号処理装置および画像信号処理方法

Also Published As

Publication number Publication date
US20110293172A1 (en) 2011-12-01
JP5545036B2 (ja) 2014-07-09

Similar Documents

Publication Publication Date Title
JP5545036B2 (ja) 画像処理装置、画像処理方法および画像表示装置
JP2012009010A (ja) 画像処理装置、画像処理方法および画像表示装置
JP5002702B2 (ja) 視差画像生成装置、立体映像表示装置及び視差画像生成方法
TW201215096A (en) Image display device, image display viewing system and image display method
JP2011035712A (ja) 画像処理装置、画像処理方法及び立体画像表示装置
JP2011250278A5 (ja)
US9167237B2 (en) Method and apparatus for providing 3-dimensional image
JP5521608B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
US9082210B2 (en) Method and apparatus for adjusting image depth
JP5488212B2 (ja) 画像処理装置、画像処理方法および画像表示装置
JP5127973B1 (ja) 映像処理装置、映像処理方法および映像表示装置
JP2012080294A (ja) 電子機器、映像処理方法、及びプログラム
JP5562122B2 (ja) 画像処理装置及びその制御方法
JP5528162B2 (ja) 画像処理装置および画像処理方法
EP2667617A2 (en) Video signal processing apparatus
US9113140B2 (en) Stereoscopic image processing device and method for generating interpolated frame with parallax and motion vector
JP5911325B2 (ja) 立体画像処理装置及び立体画像表示装置
JP2012060246A (ja) 画像処理装置、集積回路装置
US9330487B2 (en) Apparatus and method for processing 3D images through adjustment of depth and viewing angle
JP2011146869A (ja) 映像視聴装置及びその制御方法
JP2012169822A (ja) 画像処理方法及び画像処理装置
JPWO2012117462A1 (ja) 立体映像処理装置および方法ならびに立体映像表示装置
JP2012156699A (ja) 立体画像処理装置及び立体画像表示装置
JP5490252B2 (ja) 立体画像処理装置、立体画像表示装置及び立体画像処理方法
JP5627798B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム、画像表示装置、および画像表示方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130517

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130517

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140305

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20140326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140415

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140428

R151 Written notification of patent or utility model registration

Ref document number: 5545036

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees