JP5907368B2 - 画像処理装置および方法、並びにプログラム - Google Patents

画像処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP5907368B2
JP5907368B2 JP2011153555A JP2011153555A JP5907368B2 JP 5907368 B2 JP5907368 B2 JP 5907368B2 JP 2011153555 A JP2011153555 A JP 2011153555A JP 2011153555 A JP2011153555 A JP 2011153555A JP 5907368 B2 JP5907368 B2 JP 5907368B2
Authority
JP
Japan
Prior art keywords
image
scenes
depth
scene
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011153555A
Other languages
English (en)
Other versions
JP2013021525A (ja
Inventor
上木 伸夫
伸夫 上木
浩典 森
浩典 森
尚 小嶋
尚 小嶋
友希 鴇崎
友希 鴇崎
西堀 一彦
一彦 西堀
青司 木村
青司 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011153555A priority Critical patent/JP5907368B2/ja
Priority to CN201210232990.2A priority patent/CN102883170B/zh
Priority to US13/542,141 priority patent/US9071832B2/en
Priority to BRBR102012016660-7A priority patent/BR102012016660A2/pt
Publication of JP2013021525A publication Critical patent/JP2013021525A/ja
Application granted granted Critical
Publication of JP5907368B2 publication Critical patent/JP5907368B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本技術は、画像処理装置および方法、並びにプログラムに関し、特に、2次元画像からなる入力画像を安定的に3次元立体視を実現できる左眼用画像、および右眼用画像からなる3次元画像に変換できるようにした画像処理装置および方法、並びにプログラムに関する。
近年、3次元立体視聴可能な3次元画像を表示することができる液晶パネルやPDP(Plasma Display Panel)が普及しつつあるが、3次元立体視聴可能な画像信号、すなわち、左眼用画像、および右眼用画像からなる3次元画像信号のコンテンツが不足している。そこで、通常の2次元画像信号を疑似的に3次元画像信号に変換する技術によりコンテンツ不足を補うことが求められている。
通常、2次元画像信号を3次元画像信号に変換する際には、2次元画像の色や明るさを手掛かりとすることで、画素単位で奥行値を画素値とする奥行画像を求めて、その奥行画像の情報に基づいた視差を利用して、左眼用画像、および右眼用画像が生成されている。
ところが、近年、より立体感のある3次元画像に変換する手法として、各画像のシーンを推定して分類することにより、シーンに応じた奥行画像を求め、この奥行画像に基づいて変換するといった手法が提案されている(非特許文献1参照)。
東芝レビューVol.66(2011)
しかしながら、非特許文献1で提案されている手法においては、シーンを推定して分類する際、分類結果を間違えると実際に付けるべき奥行きと大きく異なってしまうため違和感を生じる可能性があった。
本技術はこのような状況に鑑みてなされたものであり、特に、2次元画像からなる入力画像を安定的に3次元立体視を実現できる左眼用画像、および右眼用画像からなる3次元画像に変換できるようにするものである。
本技術の一側面の画像処理装置は、2次元画像からなる入力画像に対して、前記入力画像に含まれる被写体の種別、および前記被写体の動きを含む特徴量に応じて分類される、複数のシーン毎に、前記入力画像と分類されたシーンとがどの程度類似しているのかを示す適合度を検出する適合度検出部と、前記入力画像に対して、複数のシーン毎に対応する手法により奥行画像を生成する奥行画像生成部と、前記複数のシーン毎の適合度に基づいた比率で、前記奥行画像生成部により生成された複数のシーン毎に対応する手法で生成された奥行画像を混合し、混合奥行画像を生成する混合部と、前記混合奥行画像を用いて、前記入力画像の各画素をシフトさせ左眼用画像および右眼用画像を生成して、前記左眼用画像および前記右眼用画像からなる3次元視聴可能な3次元画像を生成する3次元画像生成部とを含む。
前記入力画像の付加情報を取得する付加情報取得部と、前記付加情報に基づいて、前記シーン毎の重みを前記シーン毎の適合度に付加する付加情報重み付加部とを含ませるようにすることができ、前記混合部には、前記複数のシーン毎の、前記付加情報重み付加部により重みが付加された適合度に基づいた比率で、前記奥行画像生成部により生成された複数のシーン毎に対応する手法で生成された奥行画像を混合させるようにすることができる。
前記入力画像の付加情報は、EPGに含まれる前記入力画像の番組の情報とすることができる。
前記複数のシーン毎の、前記付加情報重み付加部により重みが付加された適合度を時間方向に安定化させる安定化部をさらに含ませるようにすることができ、前記混合部には、前記複数のシーン毎の、前記付加情報重み付加部により重みが付加されて、さらに、安定化された適合度に基づいた比率で、前記奥行画像生成部により生成された複数のシーン毎に対応する手法で生成された奥行画像を混合させるようにすることができる。
前記安定化部は、IIRフィルタとすることができる。
前記適合度検出により検出された前記複数のシーン毎の適合度を正規化する正規化部をさらに含ませるようにすることができ、前記混合部には、前記正規化部により正規化された、前記複数のシーン毎の適合度に基づいた比率で、前記奥行画像生成部により生成された複数のシーン毎に対応する手法で生成された奥行画像を混合させるようにすることができる。
前記混合部には、前記正規化部により正規化された、前記複数のシーン毎の適合度に基づいた混合比と、前記奥行画像生成部により生成された複数のシーン毎に対応する手法で生成された奥行画像との積和を求めることにより、前記奥行画像生成部により生成された複数のシーン毎に対応する手法で生成された奥行画像を混合させるようにすることができる。
本発明の一側面の画像処理方法は、2次元画像からなる入力画像に対して、前記入力画像に含まれる被写体の種別、および前記被写体の動きを含む特徴量に応じて分類される、複数のシーン毎に、前記入力画像と分類されたシーンとがどの程度類似しているのかを示す適合度を検出する適合度検出部における、前記2次元画像からなる入力画像に対して、前記入力画像に含まれる被写体の種別、および前記被写体の動きを含む特徴量に応じて分類される、複数のシーン毎に、前記入力画像と分類されたシーンとがどの程度類似しているのかを示す適合度を検出する適合度検出ステップと、前記入力画像に対して、複数のシーン毎に対応する手法により奥行画像を生成する奥行画像生成部における、前記入力画像に対して、複数のシーン毎に対応する手法により奥行画像を生成する奥行画像生成ステップと、前記複数のシーン毎の適合度に基づいた比率で、前記奥行画像生成部により生成された複数のシーン毎に対応する手法で生成された奥行画像を混合し、混合奥行画像を生成する混合部における、前記複数のシーン毎の適合度に基づいた比率で、前記奥行画像生成ステップの処理により生成された複数のシーン毎に対応する手法で生成された奥行画像を混合し、混合奥行画像を生成する混合ステップと、前記混合奥行画像を用いて、前記入力画像の各画素をシフトさせ左眼用画像および右眼用画像を生成して、前記左眼用画像および前記右眼用画像からなる3次元視聴可能な3次元画像を生成する3次元画像生成部における、前記混合奥行画像を用いて、前記入力画像の各画素をシフトさせ左眼用画像および右眼用画像を生成して、前記左眼用画像および前記右眼用画像からなる3次元視聴可能な3次元画像を生成する3次元画像生成ステップとを含む。
本発明の一側面のプログラムは、2次元画像からなる入力画像に対して、前記入力画像に含まれる被写体の種別、および前記被写体の動きを含む特徴量に応じて分類される、複数のシーン毎に、前記入力画像と分類されたシーンとがどの程度類似しているのかを示す適合度を検出する適合度検出部と、前記入力画像に対して、複数のシーン毎に対応する手法により奥行画像を生成する奥行画像生成部と、前記複数のシーン毎の適合度に基づいた比率で、前記奥行画像生成部により生成された複数のシーン毎に対応する手法で生成された奥行画像を混合し、混合奥行画像を生成する混合部と、前記混合奥行画像を用いて、前記入力画像の各画素をシフトさせ左眼用画像および右眼用画像を生成して、前記左眼用画像および前記右眼用画像からなる3次元視聴可能な3次元画像を生成する3次元画像生成部とを含む画像処理装置を制御するコンピュータに、前記適合度検出部における、前記2次元画像からなる入力画像に対して、前記入力画像に含まれる被写体の種別、および前記被写体の動きを含む特徴量に応じて分類される、複数のシーン毎に、前記入力画像と分類されたシーンとがどの程度類似しているのかを示す適合度を検出する適合度検出ステップと、前記奥行画像生成部における、前記入力画像に対して、複数のシーン毎に対応する手法により奥行画像を生成する奥行画像生成ステップと、前記混合部における、前記複数のシーン毎の適合度に基づいた比率で、前記奥行画像生成ステップの処理により生成された複数のシーン毎に対応する手法で生成された奥行画像を混合し、混合奥行画像を生成する混合ステップと、前記3次元画像生成部における、前記混合奥行画像を用いて、前記入力画像の各画素をシフトさせ左眼用画像および右眼用画像を生成して、前記左眼用画像および前記右眼用画像からなる3次元視聴可能な3次元画像を生成する3次元画像生成ステップとを含む処理を実行させる。
本技術の一側面においては、2次元画像からなる入力画像に対して、前記入力画像に含まれる被写体の種別、および前記被写体の動きを含む特徴量に応じて分類される、複数のシーン毎に、前記入力画像と分類されたシーンとがどの程度類似しているのかを示す適合度が検出され、前記入力画像に対して、複数のシーン毎に対応する手法により奥行画像が生成され、前記複数のシーン毎の適合度に基づいた比率で、生成された複数のシーン毎に対応する手法で生成された奥行画像が混合され、混合奥行画像が生成され、前記混合奥行画像が用いられて、前記入力画像の各画素がシフトされ左眼用画像および右眼用画像が生成されて、前記左眼用画像および前記右眼用画像からなる3次元視聴可能な3次元画像が生成される。
本技術の画像処理装置は、独立した装置であっても良いし、画像処理を行うブロックであっても良い。
本技術によれば、2次元画像からなる入力画像を安定的に3次元立体視を実現できる左眼用画像、および右眼用画像からなる3次元画像に変換することが可能となる。
本技術を適用した画像処理装置の実施の形態の構成例を示す図である。 図1のシーン分類処理部の構成例を示す図である。 図1の重付処理部の構成例を示す図である。 図1の時間軸制御処理部の構成例を示す図である。 図1のブレンド処理部の構成例を示す図である。 図1の視差生成処理部の構成例を示す図である。 図1の画像処理装置による2D3D画像変換処理を説明するフローチャートである。 シーン分類処理を説明するフローチャートである。 時間軸制御処理を説明するフローチャートである。 分類シーン別奥行画像生成処理を説明するフローチャートである。 ブレンド処理を説明するフローチャートである。 視差画像生成処理を説明するフローチャートである。 汎用のパーソナルコンピュータの構成例を説明する図である。
[本技術を適用した画像処理装置の構成例]
図1を参照して、本技術を適用した画像処理装置の構成例について説明する。
図1の画像処理装置11は、2次元画像信号からなる入力画像を、3次元立体視可能な3次元画像信号に変換するものである。
より詳細には、画像処理装置11は、シーン分類処理部21、時間軸制御処理部22、ブレンド処理部23、分類シーン別奥行画像生成部24、および視差生成処理部25を備えている。
シーン分類処理部21は、2次元画像信号からなる入力画像信号の画像が、第1分類シーン乃至第3分類シーンの3種類のシーンのそれぞれにどの程度適合しているかを示す適合度を算出して時間軸制御処理部22に供給する。第1分類シーン乃至第3分類シーンとは、例えば、風景画像のシーン、顔画像を含むシーン、または、動きのあるシーンなどである。すなわち、シーン分類処理部21は、このような3種類のシーンのそれぞれに対して、入力画像がどの程度適合しているかを示す適合度を検出する。尚、シーン分類処理部21の詳細な構成については、図2を参照して、後述する。また、ここでは、3種類のシーンを考慮して2次元画像を3次元画像に変換する例について説明するが、シーンの種類は、3種類に限るものではなく、これ以上の種類であってもよいものである。
時間軸制御処理部22は、シーン分類処理部21より供給されてくる3種類のシーンのそれぞれに対応する適合度を時間軸に対して安定化するように処理し、シーン毎の混合比としてブレンド処理部23に出力する。尚、時間軸制御処理部22の詳細な構成については、図4を参照して、詳細を後述する。
分類シーン別奥行画像生成部24は、入力画像を第1分類シーン乃至第3分類シーンのそれぞれに対応する手法で奥行画像を生成し、ブレンド処理部23に供給する。すなわち、今の場合、第1分類シーン乃至第3分類シーンについて、それぞれに対応した手法で合計3種類の奥行画像が生成されることになる。より詳細には、分類シーン別奥行画像生成部24は、第1分類シーン用奥行画像生成部31−1乃至第3分類シーン用奥行画像生成部31−3を備えている。第1分類シーン用奥行画像生成部31−1乃至第3分類シーン用奥行画像生成部31−3は、それぞれ入力画像を第1分類シーン乃至第3分類シーンのそれぞれに対応する手法で奥行画像を生成してブレンド処理部23に出力する。例えば、シーンが人物の顔画像であれば、画像内に顔画像を検出して、検出した顔画像の位置に、予め統計的に求められている顔画像の奥行画像が読み出されて、検出された顔画像の大きさや形状に揃えて貼り付けられる。また、例えば、空と地上とを含むような風景画像のシーンであれば、画像内に地上と空との境界を検出して、予め求められている地上における奥行パターンと、空における奥行パターンとが貼り付けられる。さらに、例えば、動きのあるシーンであるような場合、連続する複数のフレームの画素間の情報を利用して奥行画像が生成される。
ブレンド処理部23は、分類シーン別奥行画像生成部24より供給されてくる3種類の奥行画像を、それぞれのシーンに対応して時間軸方向に安定化されているシーン毎の混合比に基づいて混合して、1枚の奥行画像として視差生成処理部25に供給する。尚、ブレンド処理部23の詳細な構成については、図5を参照して後述する。
視差生成処理部25は、ブレンド処理部23より供給されてくる奥行画像に基づいた視差の情報を、入力画像である2次元画像信号に付加して処理することにより、左眼用画像信号、および右眼用画像信号を生成して出力する。尚、視差生成処理部25の詳細な構成については、図6を参照して、詳細を後述する。
[シーン分類処理部]
次に、図2を参照して、シーン分類処理部21の詳細な構成について説明する。
シーン分類処理部21は、第1分類シーン適合度検出処理部41−1乃至第3分類シーン適合度検出処理部41−3、および重付処理部42を備えている。第1分類シーン適合度検出処理部41−1乃至第3分類シーン適合度検出処理部41−3は、第1分類シーン乃至第3分類シーンのそれぞれにどの程度適合しているかを示す指標として適合度M1乃至M3を検出する。すなわち、例えば、画像の4隅の所定範囲のヒストグラムを求めることにより、上部の2箇所の隅のヒストグラム、および、下部の2箇所のヒストグラムとの差異が小さく、左右の上部および下部とのヒストグラムとの差異が大きい場合、風景画像としてのシーンの可能性が高いと考えられる。すなわち、上部に空があり、下部が地上であれば、上述したようなヒストグラムの関係となる。そこで、このような4隅のヒストグラムを求めることにより、4隅のヒストグラムの分布が、風景画像において設定される場合と、どの程度類似しているのかが適合度として求められる。尚、以降において、第1分類シーン乃至第3分類シーン、および第1分類シーン適合度検出処理部41−1乃至第3分類シーン適合度検出処理部41−3について、それぞれ特に区別する必要がない場合、単に、第N分類シーン、および第N分類シーン適合度検出処理部41(または41−N)と称するものとし、その他の構成についても同様に称するものとする。
重付処理部42は、入力画像を構成する番組についての、EPG(Electronic Program Guide)などのテキスト情報からなる付加情報に基づいて、第1分類シーン乃至第3分類シーンのそれぞれに付加する重みを制御して付加する。より詳細には、重付処理部42は、図3で示されるような構成であり、シーン情報抽出処理部61、重付変換部62、および乗算部63−1乃至63−3を備えている。シーン情報抽出処理部61は、EPGなどからなる入力画像の属する番組などの付加情報からシーンを識別するのに利用することが可能な情報を抽出して重付変換部62に供給する。重付変換部62は、シーン情報抽出処理部61より供給されてくるシーンに対応したキーワード数などに応じて、適合度M1乃至M3に重みW1乃至W3を供給し、乗算部63−1乃至63−3により乗じさせて付加させ、混合比として時間軸制御処理部22に供給する。
すなわち、シーン情報抽出処理部61が、付加情報から「旅行」、および「紀行」といったキーワードを抽出して重付処理部42に供給するものとする。重付処理部42は、例えば、第1分類シーンが風景画像である場合、「旅行」、および「紀行」といったキーワードから、入力画像の番組が風景画像を多く含む可能性があるものとみなし、重みW1を1より大きくして乗算部63−1に供給する。このとき、第2分類シーン、および第3分類シーンへの重みW2,W3については、重みを1のまま乗算部63−2,63−3に供給する。このようにすることにより、入力画像に関連しそうなシーンについてのみ、重みを増すことが可能となる。
[時間軸制御処理部]
次に、図4を参照して、時間軸制御処理部22の構成例について説明する。
時間軸制御処理部22は、IIR(Infinite impulse response)フィルタ71−1乃至71−3、および正規化処理部72を備えている。IIRフィルタ71−1乃至71−3は、それぞれ第1分類シーン乃至第3分類シーンに対応する重みが付された適W合度を時間軸方向に対して安定化させて、時間安定化した適合度S_(W1×M1)乃至S_(W3×M3)を正規化処理部72に供給する。正規化処理部72は、適合度S_(W1×M1)乃至S_(W3×M3)の総和が1となるように正規化して、第1分類シーン乃至第3分類シーンに対する混合比α,β,γとしてブレンド処理部23に供給する。
[ブレンド処理部]
次に、図5を参照して、ブレンド処理部23の構成例について説明する。
ブレンド処理部23は、乗算部81−1乃至81−3、および加算部82を備えている。すなわち、乗算部81−1乃至81−3は、それぞれ第1分類シーン乃至第3分類シーンのそれぞれに対応する奥行画像Map1乃至3の各画素に対して、混合比α,β,γを乗算して奥行画像α×Map1,β×Map2,γ×Map3を加算部82に出力する。加算部82は、これらの画像信号を加算することで第1分類シーン乃至第3分類シーンのそれぞれに対応する手法で求められた奥行画像Map1乃至Map3を混合して合成し1枚の奥行画像B−Mapとして視差生成処理部25に供給する。
[視差画像生成部]
次に、図6を参照して、視差生成処理部25の詳細な構成例について説明する。
視差生成処理部25は、右眼用シフト処理部91−1、および左眼用シフト処理部91−2を備えている。右眼用シフト処理部91−1、および左眼用シフト処理部91−2は、それぞれ奥行画像B−Mapの各画素の情報を視差情報として利用し、入力画像である2次元画像信号の各画素に対して右眼用、および左眼用にシフトさせることで、右眼用画像および左眼用画像を生成して出力する。
[2D3D画像変換処理]
次に、図7のフローチャートを参照して、画像処理装置11による入力画像である2次元画像信号を3次元画像信号に変換する2D3D変換処理について説明する。
ステップS1において、シーン分類処理部21は、図示せぬ放送局より放送波により無線で、または、有線で配信され、図示せぬアンテナにより受信されて供給されてくる放送番組の2次元画像信号(2D画像信号)が供給されてきたか否かを判定する。そして、シーン分類処理部21は、2次元画像信号が送信されてくるまで、同様の処理を繰り返す。ステップS1において、2次元画像信号が供給されてきた場合、処理は、ステップS2に進む。
ステップS2において、シーン分類処理部21、および分類シーン別奥行画像生成部24は、供給されてくる2次元画像信号を取得する。尚、取得される画像については、単体のフレームであってもよいし、後述する特徴量の抽出のため、連続する複数のフレームなどであってもよい。
ステップS3において、シーン分類処理部21における重付処理部42のシーン情報抽出処理部61は、2次元画像信号と共に重畳されてくるEPGのテキスト情報を付加情報として読み出して、重付変換部62に供給する。
ステップS4において、シーン分類処理部21は、シーン分類処理を実行し、供給されてきた2次元画像の、予め分類されている第1分類シーン乃至第3分類シーンのそれぞれに対する適合度を求めて、時間軸制御処理部22に供給する。
[シーン分類処理]
ここで、図8のフローチャートを参照して、シーン分類処理について説明する。
ステップS31において、シーン分類処理部21は、第1分類シーン乃至第3分類シーンを識別する、図示せぬカウンタNを1に初期化する。
ステップS32において、重付処理部42のシーン情報抽出処理部61は、2次元画像信号と共に重畳されてくるEPGの情報より、シーン情報を抽出する。ここでいう、シーン情報とは、EPGの情報に含まれている、第1分類シーン乃至第3分類シーンに関連するキーワードであり、例えば、風景画像のシーンについてであれば、「紀行」、または「旅行」といった風景画像が頻繁に映し出される可能性のある番組を指すキーワードであり、また、顔画像のシーンについてであれば、「野球」、または「サッカー」といった競技者などの顔画像が頻繁に映し出される画像を多く含む可能性のある番組を指すキーワードである。シーン情報抽出処理部61は、このようなキーワードを検索し、シーン情報として抽出して、重付変換部62に供給する。
ステップS33において、シーン分類処理部21は、第1分類シーン適合度検出処理部41−1乃至第3分類シーン適合度検出処理部41−3のうちの第N分類シーン適合度検出処理部41を制御して、第N分類シーンを識別するのに必要な特徴量を抽出させる。すなわち、第N分類シーンが、例えば、風景画像を含むシーンであるような場合、入力画像における4隅付近の画素のヒストグラムが特徴量として抽出される。また、第N分類シーンが、例えば、顔画像を含むシーンであるような場合、入力画像における顔画像を構成する眼、鼻、耳、および口といった器官の画像が検索されて特徴量として抽出される。さらに、第N分類シーンが、動画像であって、動きのある画像からなるシーンであるような場合、入力画像の複数のフレーム分の各画素間のブロックマッチングなどにより求められる動きベクトルが特徴量として抽出される。
ステップS34において、シーン分類処理部21は、第1分類シーン適合度検出処理部41−1乃至第3分類シーン適合度検出処理部41−3のうちの第N分類シーン適合度検出処理部41を制御して、第N分類シーン毎の特徴量からそれぞれの適合度MNを検出する。第N分類シーンが、例えば、風景画像のシーンである場合、上述したように、画像の4隅の所定範囲のヒストグラムが特徴量として求められている。そして、上部の2箇所の隅のヒストグラム、および、下部の2箇所のヒストグラムとの差異が小さく、左右の上部および下部とのヒストグラムとの差異が大きい場合、風景画像としてのシーンの可能性が高いと考えられる。そこで、第N分類シーン適合度検出処理部41は、上部の2箇所の隅のヒストグラムの差異が小さい、下部の2箇所の隅のヒストグラムの差異が小さい、右上部と右下部の2箇所の隅のヒストグラムの差異が大きい、および左上部と左下部の2箇所の隅のヒストグラムの差異が大きいという4種類の特徴に対して、いずれの関係も満たせば適合度を100%として求め、一方で、例えば、このうち2種類の特徴を満たさないのであれば、適合度を50%として求める。
また、第N分類シーンが、例えば、顔画像を服務のシーンである場合、上述したように、顔を構成する器官が多く検出でできれば顔画像としてのシーンの可能性が高いと考えられる。そこで、第N分類シーン適合度検出処理部41は、器官を眼、鼻、口、および耳の4種類が全てであるものとしたとき、その全てが検出できたとき、適合度を100%とし、例えば、眼、または鼻のみしか検出できなかったとき、4種類のうち2種類が検出されているので、適合度を50%として求める。
ステップS35において、第N分類シーン適合度検出処理部41は、検出した適合度MNを重付処理部42に出力する。
ステップS36において、重付変換部62は、シーン情報が、第N分類シーンに関連する情報であるか否かを判定する。すなわち、第N分類シーンが、風景画像のシーンであれば、シーン情報が、「紀行」、または「旅行」といった風景画像が頻繁に映し出される可能性のある番組を指すキーワードであれば、関連しているものとみなされる。また、第N分類シーンが、顔画像のシーンであれば、「野球」、または「サッカー」といった競技者などの顔画像が頻繁に映し出される画像を多く含む可能性のある番組を指すキーワードであれば、関連しているものとみなされる。このように、シーン情報が第N分類シーンと関連しているとみなされた場合、処理は、ステップS37に進む。
ステップS37において、重付変換部62は、第N分類シーンの適合度への重み係数WNを1より高い値に設定し、乗算部63−Nに出力する。
一方、ステップS36において、シーン情報が第N分類シーンと関連していないとみなされた場合、ステップS38において、重付変換部62は、第N分類シーンの適合度への係数WNを1に設定し、乗算部63−Nに出力する。
ステップS39において、乗算部63−Nは、第N分類シーンの適合度MNに、供給されてきた重み係数WNを乗じて、第N分類シーンの重付変換された適合度WN×MNとして出力する。
ステップS40において、シーン分類処理部21は、カウンタNが3であるか、すなわち、第1分類シーン乃至第3分類シーンの全てについてシーン分類処理がなされたか否かを判定し、カウンタNが3ではない場合、処理は、ステップS41に進む。
ステップS41において、シーン分類処理部21は、カウンタNを1インクリメントして、処理は、ステップS33に戻る。すなわち、第1分類シーン乃至第3分類シーンの全てについてシーン分類処理がなされたと判定されるまで、ステップS33乃至S41の処理が繰り返される。そして、ステップS41において、カウンタNが3であり、第1分類シーン乃至第3分類シーンの全てについてシーン分類処理がなされたとみなされた場合、処理は、終了する。
すなわち、以上の処理により、第N分類シーン毎に適合度MNが求められると共に、EPGなどの付加情報から得られるシーン情報が、それぞれに関連するときのみ、重み係数WNが1より大きく設定されて、それ以外のとき1とすることにより、適合度が高く、シーン情報が関連しているほど、大きな重み係数WNが付された適合度が求められる。
ここで、図7のフローチャートの説明に戻る。
ステップS4において、シーン分類処理が終了すると、ステップS5において、時間軸制御処理部22が、時間軸制御処理を実行し、第1分類シーン乃至第3分類シーンのそれぞれについて重み係数WNが付加された適合度WN×MNを時間軸方向に安定化させる。
[時間軸制御処理]
ここで、図9のフローチャートを参照して、時間軸制御処理について説明する。
ステップS61において、時間軸制御処理部22は、図示せぬカウンタNを1に初期化する。
ステップS62において、IIRフィルタ71−Nは、第N分類シーンの重み付け適合度WN×MNを、IIRフィルタ処理することにより、時間軸方向に安定化させて、安定化された第N分類シーンの重み付け適合度S_WN×MNとして出力する。
ステップS63において、時間軸制御処理部22は、カウンタNが3であるか否か、すなわち、第1分類シーン乃至第3分類シーンの全ての重み付け適合度WN×MNを、IIRフィルタ処理したか否かを判定する。ステップS63において、カウンタNが3ではない場合、ステップS64において、時間軸制御処理部22は、カウンタNを1インクリメントして、処理は、ステップS62に戻る。すなわち、第1分類シーン乃至第3分類シーンの全ての重み付け適合度WN×MNを、IIRフィルタ処理されるまで、ステップS62乃至S64の処理が繰り返される。そして、ステップS63において、カウンタNが3である、すなわち、第1分類シーン乃至第3分類シーンの全ての重み付け適合度WN×MNを、IIRフィルタ処理されたとみなされた場合、処理は、ステップS65に進む。
ステップS65において、正規化処理部72は、IIRフィルタ71−1乃至71−3よりそれぞれ供給されてきた第1分類シーン乃至第3分類シーンの安定化された重み付け適合度S_WN×MNを正規化し、第1分類シーン乃至第3分類シーンの奥行画像Map1乃至Map3の混合比α,β,γとしてブレンド処理部23に供給する。
以上の処理により、シーン情報に基づいて重み付けされた第N分類シーンの適合度WN×MNを時間軸方向に安定化させた上で、第1乃至第3分類シーンの奥行画像Map1乃至Map3の混合比α,β,γを算出して、ブレンド処理部23に供給させることが可能となる。
ここで、図7のフローチャートの説明に戻る。
ステップS5の処理により時間軸制御処理が実行されると、ステップS6において、分類シーン別奥行画像生成部24は、分類シーン別奥行画像生成処理を実行して、分類シーン毎に異なる手法で奥行画像を生成し、ブレンド処理部23に供給する。
[分類シーン別奥行画像生成処理]
ここで、図10のフローチャートを参照して、分類シーン別奥行画像生成処理について説明する。
ステップS81において、分類シーン別奥行画像生成部24は、図示せぬカウンタNを1に初期化する。
ステップS82において、分類シーン別奥行画像生成部24は、第N分類シーン用奥行画像生成部31−Nを制御して、第N分類シーン用奥行画像MapNを生成させ、ブレンド処理部23に出力させる。
すなわち、第N分類シーンが、例えば、風景画像のシーンである場合、第N分類シーン用奥行画像生成部31−Nは、予め登録されているベースラインを含むような奥行パターンと、上述した4隅近傍の画素値のヒストグラムの差分の関係との情報に基づいて、ベースラインを含むような奥行パターンを読み出して、奥行画像とする。ここでいう、ベースラインとは、例えば、地平線や、地上部分と建物との境界などの画像内に直線状に生じる奥行が変化する境界を示している。ここでは、風景画像のシーンとして、そのようなベースラインを含むいくつかの画像について、予め奥行パターンと、上述した4隅近傍の画素値のヒストグラムの差分との関係を求めておき、4隅近傍の画素値のヒストグラムの差分に基づいて、奥行画像が選択される構成となっている。
第N分類シーンが、例えば、顔画像を含むシーンである場合、第N分類シーン用奥行画像生成部31−Nは、予め登録されている顔画像に対応した奥行パターンを利用して、供給さてきた顔画像の大きさに拡大または縮小して調整し、貼り付けることにより、人物の顔画像を含むシーンについて奥行画像を生成する。
また、第N分類シーンが、例えば、顔画像を含むシーンである場合、第N分類シーン用奥行画像生成部31−Nは、予め登録されている顔画像に対応した奥行パターンを、供給さてきた画像内において検出される顔画像の大きさに拡大または縮小して調整し、貼り付けることにより、人物の顔画像を含むシーンについて奥行画像を生成する。
さらに、第N分類シーンが、例えば、動きのある画像を含むシーンである場合、第N分類シーン用奥行画像生成部31−Nは、連続する複数のフレームに基づいて、画素単位で動きベクトルを求め、これをクラスタリングする。このとき、各クラスタは、オブジェクト毎にクラスタリングされることになるので、動きの相互関係、すなわち、動きに応じて、他のオブジェクトにより覆い隠されるオブジェクトが最も奥に存在するオブジェクトになる。第N分類シーン用奥行画像生成部31−Nは、最も奥に存在するオブジェクトと、他のオブジェクトとの動きベクトルの二乗誤差を求めることで、相対的な奥行き方向の関係と求めて、これに基づいて奥行画像を生成する。
ステップS83において、分類シーン別奥行画像生成部24は、カウンタNが3であるか否かを判定し、Nが3である、すなわち、第1分類シーン乃至第3分類シーンの全ての手法で奥行画像MapNを生成してブレンド処理部23に供給したか否かを判定する。ステップS83において、カウンタNが3ではなく、第1分類シーン乃至第3分類シーンのそれぞれの手法で奥行画像MapNが生成されてブレンド処理部23に供給されていない場合、処理は、ステップS84に進む。
ステップS84において、分類シーン別奥行画像生成部24は、カウンタNを1インクリメントし、処理は、ステップS82に戻る。すなわち、第1分類シーン乃至第3分類シーンの全てについて、それぞれの手法で奥行画像MapNが生成されてブレンド処理部23に供給されるまで、ステップS82乃至S84の処理が繰り返される。そして、ステップS83において、第1分類シーン乃至第3分類シーンの全ての手法で奥行画像MapNが生成されてブレンド処理部23に供給されたとみなされた場合、処理は、終了する。
以上の処理により、第1分類シーンおよび第3分類シーンの全てについて、それぞれの特性に応じた手法により、奥行画像が生成されて、ブレンド処理部23に供給される。
ここで、図7のフローチャートの説明に戻る。
ステップS6において、分類シーン別奥行画像生成処理が実行されて、第1分類シーン乃至第3分類シーンの全てについて、それぞれの手法で奥行画像MapNが生成されると、処理は、ステップS7に進む。
ステップS7において、ブレンド処理部23は、ブレンド処理を実行し、分類シーン別奥行画像生成部24からの第N分類シーン毎の奥行画像を、時間軸制御処理部22からの第N分類シーン毎の混合比α,β,γを用いて混合して視差生成処理部25に供給する。
[ブレンド処理]
ここで、図11のフローチャートを参照して、ブレンド処理について説明する。
ステップS101において、ブレンド処理部23は、図示せぬカウンタNを1に初期化する。
ステップS102において、ブレンド処理部23は、第N分類シーンの混合比と、第N分類シーンの奥行画像MapNの各画素とを乗算する。
ステップS103において、ブレンド処理部23は、カウンタNが3であるか否かを判定する。ステップS103において、カウンタN=3ではない、すなわち、全ての第N分類シーンの混合比が第N分類シーンの奥行画像MapNの各画素の画素値に乗算されていないとみなされた場合、処理は、ステップS104に進む。
ステップS104において、ブレンド処理部23は、カウンタNを1インクリメントして、処理は、ステップS102に戻る。すなわち、全ての第N分類シーンの混合比が第N分類シーンの奥行画像MapNの各画素の画素値に乗算されたとみなされるまで、ステップS102乃至S104の処理が繰り返される。
そして、ステップS103において、カウンタNが3であり、全ての第N分類シーンの混合比が第N分類シーンの奥行画像MapNの各画素の画素値に乗算されたとみなされた場合、処理は、ステップS105に進む。
ステップS105において、ブレンド処理部23は、第N分類シーン毎の奥行画像の各画素の画素値が混合比と乗算された値を、同一の画素位置の画素毎に総和を求め、これを画素値とする画像を混合奥行画像B−Mapとして視差生成処理部25に出力する。
すなわち、以上の処理により、第N分類シーン毎の奥行画像の画素値を、適合度に基づいて求められる混合比を用いた積和で表現することにより、第N分類シーン毎の奥行画像が混合されて、1枚の混合奥行画像B−Mapとして出力させることが可能となる。
ここで、図7のフローチャートの説明に戻る。
ステップS7において、ブレンド処理により複数の第N分類シーン毎の特性に応じた手法で求められた奥行画像が、適合度に応じた混合比で混合されて、入力画像に対する1枚の混合奥行画像B−Mapが生成されると、処理は、ステップS8に進む。
ステップS8において、視差生成処理部25は、視差生成処理を実行することにより、混合奥行画像B−Mapにおける各画素の画素値である奥行値に基づいて、入力画像である2次元画像の各画素を左右方向にシフトさせることにより、視差を付加して、右眼用画像および左眼用画像を生成して出力する。
[視差生成処理]
ここで、図12のフローチャートを参照して、視差生成処理について説明する。
ステップS121において、右眼用シフト処理部91−1は、入力画像である2次元画像の各画素を、混合奥行画像B−Mapの対応する画素位置の奥行値に対応する距離だけ左方向にシフトさせることで、入力画像に右眼用の視差を付加して右眼用画像を生成する。
ステップS122において、左眼用シフト処理部91−2は、入力画像である2次元画像の各画素を、混合奥行画像B−Mapの対応する画素位置の奥行値に対応する距離だけ右方向にシフトさせることで、入力画像に左眼用の視差を付加して左眼用画像を生成する。
以上の処理により、入力画像である2次元画像の各画素位置に対応する奥行画像の各画素値である奥行値に基づいて、それぞれ右方向および左方向にシフトすることにより、左眼用画像、および右眼用画像を生成することが可能となる。
ここで、図7のフローチャートの説明に戻る。
ステップS8により視差生成処理がなされて、左眼用画像および右眼用画像が生成されると、ステップS9において、視差生成処理部25は、生成した左眼用画像および右眼用画像を3次元視聴可能な3次元画像信号として出力する。
ステップS10において、分類シーン別奥行画像生成部24は、次の画像が供給されてきているか否かを判定し、次の画像が供給されてきている場合、処理は、ステップS2に戻り、それ以降の処理が繰り返される。そして、ステップS10において、次の画像が供給されてきていない場合、処理は、終了する。
以上の処理により、分類シーン別に奥行画像が生成されて、シーン情報とそれぞれの分類シーン毎の適合度に応じた混合比で混合されて奥行画像が生成されるので、分類したシーンに誤りがあった場合に生じるような破綻が抑制された奥行画像を生成することが可能となる。また、この際、混合比を求める際には、IIRフィルタによる処理がなされているので、時間軸方向にも安定した混合比が求められるので、生成される奥行画像も安定したものとすることが可能となる。結果として、2次元画像を3次元画像に変換する2D3D変換処理において、違和感が抑制された、安定性の高い3次元画像への変換処理を実現することが可能となる。
以上の如く、本技術によれば、2次元画像信号より、3次元立体視を実現できる左眼用画像、および右眼用画像からなる3次元画像信号を違和感なく安定的に生成することが可能となる。
ところで、上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。
図13は、汎用のパーソナルコンピュータの構成例を示している。このパーソナルコンピュータは、CPU(Central Processing Unit)1001を内蔵している。CPU1001にはバス1004を介して、入出力インタフェイス1005が接続されている。バス1004には、ROM(Read Only Memory)1002およびRAM(Random Access Memory)1003が接続されている。
入出力インタフェイス1005には、ユーザが操作コマンドを入力するキーボード、マウスなどの入力デバイスよりなる入力部1006、処理操作画面や処理結果の画像を表示デバイスに出力する出力部1007、プログラムや各種データを格納するハードディスクドライブなどよりなる記憶部1008、LAN(Local Area Network)アダプタなどよりなり、インターネットに代表されるネットワークを介した通信処理を実行する通信部1009が接続されている。また、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどのリムーバブルメディア1011に対してデータを読み書きするドライブ1010が接続されている。
CPU1001は、ROM1002に記憶されているプログラム、または磁気ディスク、光ディスク、光磁気ディスク、もしくは半導体メモリ等のリムーバブルメディア1011から読み出されて記憶部1008にインストールされ、記憶部1008からRAM1003にロードされたプログラムに従って各種の処理を実行する。RAM1003にはまた、CPU1001が各種の処理を実行する上において必要なデータなども適宜記憶される。
尚、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理は、もちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理を含むものである。
尚、本技術は以下のような構成を取ることができる。
(1) 2次元画像からなる入力画像に対して複数のシーン毎の適合度を検出する適合度検出部と、
前記入力画像に対して、複数のシーン毎に対応する手法により奥行画像を生成する奥行画像生成部と、
前記複数のシーン毎の適合度に基づいた比率で、前記奥行画像生成部により生成された複数のシーン毎に対応する手法で生成された奥行画像を混合し、混合奥行画像を生成する混合部と、
前記混合奥行画像を用いて、前記入力画像の各画素をシフトさせ左眼用画像および右眼用画像を生成して、前記左眼用画像および前記右眼用画像からなる3次元視聴可能な3次元画像を生成する3次元画像生成部と
を含む画像処理装置。
(2) 前記入力画像の付加情報を取得する付加情報取得部と、
前記付加情報に基づいて、前記シーン毎の重みを前記シーン毎の適合度に付加する付加情報重み付加部とを含み、
前記混合部は、前記複数のシーン毎の、前記付加情報重み付加部により重みが付加された適合度に基づいた比率で、前記奥行画像生成部により生成された複数のシーン毎に対応する手法で生成された奥行画像を混合する
(1)に記載の画像処理装置。
(3) 前記入力画像の付加情報は、EPGに含まれる前記入力画像の番組の情報である
(1)または(2)に記載の画像処理装置。
(4) 前記複数のシーン毎の、前記付加情報重み付加部により重みが付加された適合度を時間方向に安定化させる安定化部をさらに含み、
前記混合部は、前記複数のシーン毎の、前記付加情報重み付加部により重みが付加されて、さらに、安定化された適合度に基づいた比率で、前記奥行画像生成部により生成された複数のシーン毎に対応する手法で生成された奥行画像を混合する
(1)乃至(3)のいずれかに記載の画像処理装置。
(5) 前記安定化部は、IIRフィルタである
(4)に記載の画像処理装置。
(6) 前記適合度算出部により算出された、前記適合度検出手段により検出された前記複数のシーン毎の適合度を正規化する正規化部をさらに含み、
前記混合部は、前記正規化部により正規化された、前記複数のシーン毎の適合度に基づいた比率で、前記奥行画像生成部により生成された複数のシーン毎に対応する手法で生成された奥行画像を混合する
(1)乃至(5)のいずれかに記載の画像処理装置。
(7)
前記混合部は、前記正規化部により正規化された、前記複数のシーン毎の適合度に基づいた混合比と、前記奥行画像生成部により生成された複数のシーン毎に対応する手法で生成された奥行画像との積和を求めることにより、前記奥行画像生成部により生成された複数のシーン毎に対応する手法で生成された奥行画像を混合する
(6)に記載の画像処理装置。
(8) 2次元画像からなる入力画像に対して複数のシーン毎の適合度を検出する適合度検出部における、前記2次元画像からなる入力画像に対して複数のシーン毎の適合度を検出する適合度検出ステップと、
前記入力画像に対して、複数のシーン毎に対応する手法により奥行画像を生成する奥行画像生成部における、前記入力画像に対して、複数のシーン毎に対応する手法により奥行画像を生成する奥行画像生成ステップと、
前記複数のシーン毎の適合度に基づいた比率で、前記奥行画像生成部により生成された複数のシーン毎に対応する手法で生成された奥行画像を混合し、混合奥行画像を生成する混合部における、前記複数のシーン毎の適合度に基づいた比率で、前記奥行画像生成ステップの処理により生成された複数のシーン毎に対応する手法で生成された奥行画像を混合し、混合奥行画像を生成する混合ステップと、
前記混合奥行画像を用いて、前記入力画像の各画素をシフトさせ左眼用画像および右眼用画像を生成して、前記左眼用画像および前記右眼用画像からなる3次元視聴可能な3次元画像を生成する3次元画像生成部における、前記混合奥行画像を用いて、前記入力画像の各画素をシフトさせ左眼用画像および右眼用画像を生成して、前記左眼用画像および前記右眼用画像からなる3次元視聴可能な3次元画像を生成する3次元画像生成ステップと
を含む画像処理方法。
(9) 2次元画像からなる入力画像に対して複数のシーン毎の適合度を検出する適合度検出部と、
前記入力画像に対して、複数のシーン毎に対応する手法により奥行画像を生成する奥行画像生成部と、
前記複数のシーン毎の適合度に基づいた比率で、前記奥行画像生成部により生成された複数のシーン毎に対応する手法で生成された奥行画像を混合し、混合奥行画像を生成する混合部と、
前記混合奥行画像を用いて、前記入力画像の各画素をシフトさせ左眼用画像および右眼用画像を生成して、前記左眼用画像および前記右眼用画像からなる3次元視聴可能な3次元画像を生成する3次元画像生成部と
を含む画像処理装置を制御するコンピュータに、
前記適合度検出部における、前記2次元画像からなる入力画像に対して複数のシーン毎の適合度を検出する適合度検出ステップと、
前記奥行画像生成部における、前記入力画像に対して、複数のシーン毎に対応する手法により奥行画像を生成する奥行画像生成ステップと、
前記混合部における、前記複数のシーン毎の適合度に基づいた比率で、前記奥行画像生成ステップの処理により生成された複数のシーン毎に対応する手法で生成された奥行画像を混合し、混合奥行画像を生成する混合ステップと、
前記3次元画像生成部における、前記混合奥行画像を用いて、前記入力画像の各画素をシフトさせ左眼用画像および右眼用画像を生成して、前記左眼用画像および前記右眼用画像からなる3次元視聴可能な3次元画像を生成する3次元画像生成ステップと
を含む処理を実行させるプログラム。
11 画像処理装置, 21 シーン分類処理部, 22 時間軸制御処理部, 23 ブレンド処理部, 24 分類シーンン別奥行画像生成部, 25 視差生成処理部, 41−1乃至41−3 第1乃至第3分類シーン適合度検出処理部, 42 重付処理部, 61 シーン情報抽出処理部, 62 重付変換部, 63−1乃至63−3 乗算部, 71−1乃至71−3 IIRフィルタ, 72 正規化処理部, 81−1乃至81−3 乗算部, 82 加算部, 91−1,91−2 右眼用および左眼用シフト処理部

Claims (9)

  1. 2次元画像からなる入力画像に対して、前記入力画像に含まれる被写体の種別、および前記被写体の動きを含む特徴量に応じて分類される、複数のシーン毎に、前記入力画像と分類されたシーンとがどの程度類似しているのかを示す適合度を検出する適合度検出部と、
    前記入力画像に対して、複数のシーン毎に対応する手法により奥行画像を生成する奥行画像生成部と、
    前記複数のシーン毎の適合度に基づいた比率で、前記奥行画像生成部により生成された複数のシーン毎に対応する手法で生成された奥行画像を混合し、混合奥行画像を生成する混合部と、
    前記混合奥行画像を用いて、前記入力画像の各画素をシフトさせ左眼用画像および右眼用画像を生成して、前記左眼用画像および前記右眼用画像からなる3次元視聴可能な3次元画像を生成する3次元画像生成部と
    を含む画像処理装置。
  2. 前記入力画像の付加情報を取得する付加情報取得部と、
    前記付加情報に基づいて、前記シーン毎の重みを前記シーン毎の適合度に付加する付加情報重み付加部とを含み、
    前記混合部は、前記複数のシーン毎の、前記付加情報重み付加部により重みが付加された適合度に基づいた比率で、前記奥行画像生成部により生成された複数のシーン毎に対応する手法で生成された奥行画像を混合する
    請求項1に記載の画像処理装置。
  3. 前記入力画像の付加情報は、EPGに含まれる前記入力画像の番組の情報である
    請求項2に記載の画像処理装置。
  4. 前記複数のシーン毎の、前記付加情報重み付加部により重みが付加された適合度を時間方向に安定化させる安定化部をさらに含み、
    前記混合部は、前記複数のシーン毎の、前記付加情報重み付加部により重みが付加されて、さらに、安定化された適合度に基づいた比率で、前記奥行画像生成部により生成された複数のシーン毎に対応する手法で生成された奥行画像を混合する
    請求項3に記載の画像処理装置。
  5. 前記安定化部は、IIRフィルタである
    請求項4に記載の画像処理装置。
  6. 前記適合度検出により検出された前記複数のシーン毎の適合度を正規化する正規化部をさらに含み、
    前記混合部は、前記正規化部により正規化された、前記複数のシーン毎の適合度に基づいた比率で、前記奥行画像生成部により生成された複数のシーン毎に対応する手法で生成された奥行画像を混合する
    請求項1乃至5のいずれかに記載の画像処理装置。
  7. 前記混合部は、前記正規化部により正規化された、前記複数のシーン毎の適合度に基づいた混合比と、前記奥行画像生成部により生成された複数のシーン毎に対応する手法で生成された奥行画像との積和を求めることにより、前記奥行画像生成部により生成された複数のシーン毎に対応する手法で生成された奥行画像を混合する
    請求項6に記載の画像処理装置。
  8. 2次元画像からなる入力画像に対して、前記入力画像に含まれる被写体の種別、および前記被写体の動きを含む特徴量に応じて分類される、複数のシーン毎に、前記入力画像と分類されたシーンとがどの程度類似しているのかを示す適合度を検出する適合度検出部における、前記2次元画像からなる入力画像に対して、前記入力画像に含まれる被写体の種別、および前記被写体の動きを含む特徴量に応じて分類される、複数のシーン毎に、前記入力画像と分類されたシーンとがどの程度類似しているのかを示す適合度を検出する適合度検出ステップと、
    前記入力画像に対して、複数のシーン毎に対応する手法により奥行画像を生成する奥行画像生成部における、前記入力画像に対して、複数のシーン毎に対応する手法により奥行画像を生成する奥行画像生成ステップと、
    前記複数のシーン毎の適合度に基づいた比率で、前記奥行画像生成部により生成された複数のシーン毎に対応する手法で生成された奥行画像を混合し、混合奥行画像を生成する混合部における、前記複数のシーン毎の適合度に基づいた比率で、前記奥行画像生成ステップの処理により生成された複数のシーン毎に対応する手法で生成された奥行画像を混合し、混合奥行画像を生成する混合ステップと、
    前記混合奥行画像を用いて、前記入力画像の各画素をシフトさせ左眼用画像および右眼用画像を生成して、前記左眼用画像および前記右眼用画像からなる3次元視聴可能な3次元画像を生成する3次元画像生成部における、前記混合奥行画像を用いて、前記入力画像の各画素をシフトさせ左眼用画像および右眼用画像を生成して、前記左眼用画像および前記右眼用画像からなる3次元視聴可能な3次元画像を生成する3次元画像生成ステップと
    を含む画像処理方法。
  9. 2次元画像からなる入力画像に対して、前記入力画像に含まれる被写体の種別、および前記被写体の動きを含む特徴量に応じて分類される、複数のシーン毎に、前記入力画像と分類されたシーンとがどの程度類似しているのかを示す適合度を検出する適合度検出部と、
    前記入力画像に対して、複数のシーン毎に対応する手法により奥行画像を生成する奥行画像生成部と、
    前記複数のシーン毎の適合度に基づいた比率で、前記奥行画像生成部により生成された複数のシーン毎に対応する手法で生成された奥行画像を混合し、混合奥行画像を生成する混合部と、
    前記混合奥行画像を用いて、前記入力画像の各画素をシフトさせ左眼用画像および右眼用画像を生成して、前記左眼用画像および前記右眼用画像からなる3次元視聴可能な3次元画像を生成する3次元画像生成部と
    を含む画像処理装置を制御するコンピュータに、
    前記適合度検出部における、前記2次元画像からなる入力画像に対して、前記入力画像に含まれる被写体の種別、および前記被写体の動きを含む特徴量に応じて分類される、複数のシーン毎に、前記入力画像と分類されたシーンとがどの程度類似しているのかを示す適合度を検出する適合度検出ステップと、
    前記奥行画像生成部における、前記入力画像に対して、複数のシーン毎に対応する手法により奥行画像を生成する奥行画像生成ステップと、
    前記混合部における、前記複数のシーン毎の適合度に基づいた比率で、前記奥行画像生成ステップの処理により生成された複数のシーン毎に対応する手法で生成された奥行画像を混合し、混合奥行画像を生成する混合ステップと、
    前記3次元画像生成部における、前記混合奥行画像を用いて、前記入力画像の各画素をシフトさせ左眼用画像および右眼用画像を生成して、前記左眼用画像および前記右眼用画像からなる3次元視聴可能な3次元画像を生成する3次元画像生成ステップと
    を含む処理を実行させるプログラム。
JP2011153555A 2011-07-12 2011-07-12 画像処理装置および方法、並びにプログラム Expired - Fee Related JP5907368B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2011153555A JP5907368B2 (ja) 2011-07-12 2011-07-12 画像処理装置および方法、並びにプログラム
CN201210232990.2A CN102883170B (zh) 2011-07-12 2012-07-05 图像处理装置及图像处理方法
US13/542,141 US9071832B2 (en) 2011-07-12 2012-07-05 Image processing device, image processing method, and image processing program
BRBR102012016660-7A BR102012016660A2 (pt) 2011-07-12 2012-07-05 dispositivo e mÉtodo de processamento de imagem, e, programa

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011153555A JP5907368B2 (ja) 2011-07-12 2011-07-12 画像処理装置および方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2013021525A JP2013021525A (ja) 2013-01-31
JP5907368B2 true JP5907368B2 (ja) 2016-04-26

Family

ID=47484285

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011153555A Expired - Fee Related JP5907368B2 (ja) 2011-07-12 2011-07-12 画像処理装置および方法、並びにプログラム

Country Status (4)

Country Link
US (1) US9071832B2 (ja)
JP (1) JP5907368B2 (ja)
CN (1) CN102883170B (ja)
BR (1) BR102012016660A2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104660900B (zh) * 2013-10-30 2018-03-02 株式会社摩如富 图像处理装置及图像处理方法
US10951875B2 (en) 2018-07-03 2021-03-16 Raxium, Inc. Display processing circuitry
CN111881709A (zh) * 2019-05-03 2020-11-03 爱唯秀股份有限公司 人脸图像处理方法及装置
CN110378946B (zh) * 2019-07-11 2021-10-01 Oppo广东移动通信有限公司 深度图处理方法、装置以及电子设备
US11869192B2 (en) * 2019-11-08 2024-01-09 General Electric Company System and method for vegetation modeling using satellite imagery and/or aerial imagery

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6163337A (en) * 1996-04-05 2000-12-19 Matsushita Electric Industrial Co., Ltd. Multi-view point image transmission method and multi-view point image display method
JP3413065B2 (ja) * 1997-07-03 2003-06-03 松下電器産業株式会社 番組情報処理装置
JP2002112186A (ja) * 2000-09-28 2002-04-12 Toshiba Corp 電子番組ガイド受信装置
JP4729812B2 (ja) * 2001-06-27 2011-07-20 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
DE602005027379D1 (de) * 2004-10-26 2011-05-19 Koninkl Philips Electronics Nv Disparitätskarte
JP4214529B2 (ja) * 2004-12-28 2009-01-28 日本ビクター株式会社 奥行き信号生成装置、奥行き信号生成プログラム、擬似立体画像生成装置、及び擬似立体画像生成プログラム
WO2006106522A2 (en) * 2005-04-07 2006-10-12 Visionsense Ltd. Method for reconstructing a three- dimensional surface of an object
CN101243448A (zh) * 2005-08-17 2008-08-13 松下电器产业株式会社 影像场面分类装置及影像场面分类方法
EP2130178A1 (en) * 2007-03-23 2009-12-09 Thomson Licensing System and method for region classification of 2d images for 2d-to-3d conversion
WO2009011492A1 (en) * 2007-07-13 2009-01-22 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding stereoscopic image format including both information of base view image and information of additional view image
KR101420681B1 (ko) * 2008-02-01 2014-07-17 한국과학기술원 비디오 영상의 깊이 지도 생성 방법 및 장치
GB2465791A (en) * 2008-11-28 2010-06-02 Sony Corp Rendering shadows in augmented reality scenes
JP2010263527A (ja) * 2009-05-11 2010-11-18 Canon Inc 放送受信装置及びその制御方法
US20110050723A1 (en) * 2009-09-03 2011-03-03 Sony Corporation Image processing apparatus and method, and program
JP5238887B2 (ja) * 2009-09-25 2013-07-17 株式会社東芝 多視点画像生成方法および装置
US8472704B2 (en) * 2009-10-30 2013-06-25 Fujifilm Corporation Image processing apparatus and image processing method
JP2012138787A (ja) * 2010-12-27 2012-07-19 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
US8749548B2 (en) * 2011-09-01 2014-06-10 Samsung Electronics Co., Ltd. Display system with image conversion mechanism and method of operation thereof

Also Published As

Publication number Publication date
US20130063424A1 (en) 2013-03-14
JP2013021525A (ja) 2013-01-31
CN102883170A (zh) 2013-01-16
US9071832B2 (en) 2015-06-30
BR102012016660A2 (pt) 2013-07-30
CN102883170B (zh) 2016-02-10

Similar Documents

Publication Publication Date Title
CN102741879B (zh) 由单眼图像产生深度图的方法及其系统
Guttmann et al. Semi-automatic stereo extraction from video footage
US8933927B2 (en) Display system with image conversion mechanism and method of operation thereof
US8861836B2 (en) Methods and systems for 2D to 3D conversion from a portrait image
US8520935B2 (en) 2D to 3D image conversion based on image content
CN101635859B (zh) 一种实现平面视频转立体视频的方法和装置
US8441521B2 (en) Method and apparatus for determining view of stereoscopic image for stereo synchronization
US8897542B2 (en) Depth map generation based on soft classification
JP5907368B2 (ja) 画像処理装置および方法、並びにプログラム
Shao et al. QoE-guided warping for stereoscopic image retargeting
CN102098528B (zh) 一种平面图像的立体转换方法及装置
US9280828B2 (en) Image processing apparatus, image processing method, and program
US8406524B2 (en) Apparatus, method, and medium of generating visual attention map
CN104125412B (zh) 一种信息处理方法及电子设备
CN111598932A (zh) 使用与示例相似图像相关联的示例近似深度映射图对输入图像生成深度映射图
US20120087570A1 (en) Method and apparatus for converting 2D image into 3D image
JP2014504462A (ja) 映像変換装置およびそれを利用するディスプレイ装置とその方法
KR20120023431A (ko) 깊이 조정이 가능한 2차원/3차원 영상 변환 방법 및 그 장치
TW201215101A (en) Method and apparatus for customizing 3-dimensional effects of stereo content
JP2010093816A (ja) 視覚的関心に基づいた2次元映像の3次元映像変換器および変換方法
JP6610535B2 (ja) 画像処理装置および画像処理方法
Chen et al. Salbinet360: Saliency prediction on 360 images with local-global bifurcated deep network
JP2018206292A (ja) 要約映像生成装置及びプログラム
KR101820456B1 (ko) 깊이 맵 생성 방법 및 장치
KR101544171B1 (ko) 혼합 특징 벡터를 적용한 초해상도 장치 및 그 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140516

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150120

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150910

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160309

R151 Written notification of patent or utility model registration

Ref document number: 5907368

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees