JP2012257022A - 画像処理装置および方法、並びにプログラム - Google Patents

画像処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP2012257022A
JP2012257022A JP2011128101A JP2011128101A JP2012257022A JP 2012257022 A JP2012257022 A JP 2012257022A JP 2011128101 A JP2011128101 A JP 2011128101A JP 2011128101 A JP2011128101 A JP 2011128101A JP 2012257022 A JP2012257022 A JP 2012257022A
Authority
JP
Japan
Prior art keywords
parallax
stereoscopic image
image
unit
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011128101A
Other languages
English (en)
Other versions
JP2012257022A5 (ja
Inventor
Takafumi Morifuji
孝文 森藤
Kyoko Fukuda
京子 福田
Masami Ogata
昌美 緒形
Suguru Ushiki
卓 牛木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011128101A priority Critical patent/JP2012257022A/ja
Priority to US13/486,763 priority patent/US8989482B2/en
Priority to CN201210180185.XA priority patent/CN102821291B/zh
Publication of JP2012257022A publication Critical patent/JP2012257022A/ja
Publication of JP2012257022A5 publication Critical patent/JP2012257022A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • G06T5/70
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Abstract

【課題】立体画像の視差制御をより適切に行なうことができるようにする。
【解決手段】注目領域推定部は、立体画像からユーザが注目すると推定される注目領域を推定する。視差検出部は、立体画像の視差を検出し、立体画像の各領域の視差を示す視差マップを生成する。視差解析部は、視差マップと注目領域とに基づいて、注目領域が立体画像の表示面近傍に定位するように、立体画像の視差の変換特性を定める。視差変換部は、変換特性に基づいて視差マップを補正して補正視差マップを生成し、画像合成部は補正視差マップに基づいて、立体画像の視差を補正する。本発明は、画像処理装置に適用することができる。
【選択図】図3

Description

本技術は画像処理装置および方法、並びにプログラムに関し、特に、より適切な視差制御を行なうことができるようにした画像処理装置および方法、並びにプログラムに関する。
従来、表示装置により立体画像を表示する技術が知られている。このような立体画像により再現される被写体の奥行き感は、ユーザが立体画像を観察するときの視聴条件や立体画像の撮像条件によって変化する。そのため、場合によっては、被写体が飛び出しすぎたり、引っ込みすぎたりして再現される奥行き感が不自然なものとなり、ユーザが疲労してしまうことがある。
そこで、表示する立体画像の視差を適切に制御する技術が多く提案されている。例えば、そのような技術として、立体画像の各画素の視差に基づいて、立体画像視聴時におけるユーザへのストレスの度合いを示すストレス値を求め、そのストレス値が最小となるように立体画像の視差制御を行なう技術が提案されている(例えば、特許文献1参照)。
特開2011−055022号公報
しかしながら、上述した技術では、必ずしも適切な視差制御を行なうことができない場合があった。
例えば、ストレス値を最小とするような視差制御を行なう技術では、立体画像の画面全体では快適な奥行き感を再現することができるが、立体画像上のユーザが注目している被写体の奥行き位置が適切な位置とならないことがあった。このように、ユーザが注目している主要な被写体の奥行き位置が不適切な位置となると、立体画像の視聴時にユーザの眼が疲労してしまうことになる。
本技術は、このような状況に鑑みてなされたものであり、立体画像の視差制御をより適切に行なうことができるようにするものである。
本技術の第1の側面の画像処理装置は、ユーザが注目すると推定される立体画像上の注目領域を推定する注目領域推定部と、前記立体画像の視差を検出し、前記立体画像の各領域の視差を示す視差マップを生成する視差検出部と、前記注目領域および前記視差マップに基づいて、前記立体画像の視差を補正する変換特性を定める設定部と、前記変換特性に基づいて前記視差マップを補正する視差変換部とを備える。
画像処理装置には、補正された前記視差マップに基づいて、前記立体画像の視差を補正する画像合成部をさらに設けることができる。
画像処理装置には、前記視差マップにより示される視差の最大値および最小値を検出するとともに、前記視差マップと前記注目領域とに基づいて、前記注目領域の視差を検出する最大/最小視差検出部をさらに設け、前記設定部には、前記最大値、前記最小値、および前記注目領域の視差に基づいて、前記変換特性を定めさせることができる。
前記設定部には、前記注目領域の視差が予め定められた所定の大きさの視差に変換されるように前記変換特性を定めさせることができる。
前記設定部には、前記立体画像上の前記注目領域と、前記立体画像上の前記注目領域外の領域とに対して、それぞれ異なる前記変換特性を定めさせることができる。
前記設定部には、前記注目領域の視差を含む所定の視差の区間において、視差が線形変換されるように、前記立体画像上の前記注目領域の前記変換特性を定めさせることができる。
画像処理装置には、前記注目領域または前記変換特性を平滑化する平滑化部をさらに設けることができる。
本技術の第1の側面の画像処理方法またはプログラムは、ユーザが注目すると推定される立体画像上の注目領域を推定し、前記立体画像の視差を検出して、前記立体画像の各領域の視差を示す視差マップを生成し、前記注目領域および前記視差マップに基づいて、前記立体画像の視差を補正する変換特性を定め、前記変換特性に基づいて前記視差マップを補正するステップを含む。
本技術の第1の側面においては、ユーザが注目すると推定される立体画像上の注目領域が推定され、前記立体画像の視差が検出されて、前記立体画像の各領域の視差を示す視差マップが生成され、前記注目領域および前記視差マップに基づいて、前記立体画像の視差を補正する変換特性が定められ、前記変換特性に基づいて前記視差マップが補正される。
本技術の第2の側面の画像処理装置は、ユーザが注目すると推定される立体画像上の注目領域を推定する注目領域推定部と、前記立体画像の視差を検出し、前記立体画像の各領域の視差を示す視差マップを生成する視差検出部と、前記注目領域の視差に重みを付けて、前記視差マップにより示される前記立体画像の視差のヒストグラムを生成するヒストグラム生成部と、前記ヒストグラムに基づいて、前記立体画像の視差の補正量を示すシフト量を算出するシフト量算出部と、前記シフト量に基づいて、前記立体画像を構成する左眼画像または右眼画像の少なくとも一方をシフトさせ、前記立体画像の視差を補正する画像処理部とを備える。
本技術の第2の側面の画像処理方法またはプログラムは、ユーザが注目すると推定される立体画像上の注目領域を推定し、前記立体画像の視差を検出して、前記立体画像の各領域の視差を示す視差マップを生成し、前記注目領域の視差に重みを付けて、前記視差マップにより示される前記立体画像の視差のヒストグラムを生成し、前記ヒストグラムに基づいて、前記立体画像の視差の補正量を示すシフト量を算出し、前記シフト量に基づいて、前記立体画像を構成する左眼画像または右眼画像の少なくとも一方をシフトさせ、前記立体画像の視差を補正するステップを含む。
本技術の第2の側面においては、ユーザが注目すると推定される立体画像上の注目領域が推定され、前記立体画像の視差が検出されて、前記立体画像の各領域の視差を示す視差マップが生成され、前記注目領域の視差に重みが付けられて、前記視差マップにより示される前記立体画像の視差のヒストグラムが生成され、前記ヒストグラムに基づいて、前記立体画像の視差の補正量を示すシフト量が算出され、前記シフト量に基づいて、前記立体画像を構成する左眼画像または右眼画像の少なくとも一方がシフトされ、前記立体画像の視差が補正される。
本技術の第3の側面の画像処理装置は、立体画像に対するシーン認識を行なうシーン認識部と、前記立体画像の視差を検出し、前記立体画像の各領域の視差を示す視差マップを生成する視差検出部と、前記視差マップに基づいて、前記立体画像の視差を補正する変換特性を定める設定部と、前記変換特性および前記シーン認識の結果に基づいて前記視差マップを補正する視差変換部とを備える。
本技術の第3の側面の画像処理方法またはプログラムは、立体画像に対するシーン認識を行ない、前記立体画像の視差を検出して、前記立体画像の各領域の視差を示す視差マップを生成し、前記視差マップに基づいて、前記立体画像の視差を補正する変換特性を定め、前記変換特性および前記シーン認識の結果に基づいて前記視差マップを補正するステップを含む。
本技術の第3の側面においては、立体画像に対するシーン認識が行なわれ、前記立体画像の視差が検出されて、前記立体画像の各領域の視差を示す視差マップが生成され、前記視差マップに基づいて、前記立体画像の視差を補正する変換特性が定められ、前記変換特性および前記シーン認識の結果に基づいて前記視差マップが補正される。
本技術の第1の側面乃至第3の側面によれば、立体画像の視差制御をより適切に行なうことができる。
本技術の概要を説明する図である。 適切な視差の範囲について説明する図である。 画像処理装置の一実施の形態の構成例を示す図である。 画像変換処理を説明するフローチャートである。 変換関数の一例を示す図である。 変換関数の一例を示す図である。 画像変換について説明する図である。 領域ごとの変換関数について説明する図である。 画像処理装置の他の構成例を示す図である。 画像変換処理を説明するフローチャートである。 画像処理装置の他の構成例を示す図である。 画像変換処理を説明するフローチャートである。 視差マップの各領域について説明する図である。 ヒストグラムの生成について説明する図である。 ストレス関数の一例を示す図である。 ストレス関数の一例を示す図である。 注目領域を考慮した視差制御の効果について説明する図である。 画像処理装置の他の構成例を示す図である。 画像変換処理を説明するフローチャートである。 変換関数の一例を示す図である。 画像処理装置の他の構成例を示す図である。 画像変換処理を説明するフローチャートである。 注目領域の平滑化について説明する図である。 変換関数の平滑化について説明する図である。 画像処理装置の他の構成例を示す図である。 視差変換部の構成例を示す図である。 画像変換処理を説明するフローチャートである。 合成視差マップの生成について説明する図である。 コンピュータの構成例を示す図である。
以下、図面を参照して、本技術を適用した実施の形態について説明する。
〈第1の実施の形態〉
[本技術の概要]
まず、図1を参照して本技術の概要について説明する。
本技術は、例えば図1中、上側に示すように、左眼画像Lと右眼画像Rとからなる立体画像の視差制御を行なうものである。このような左眼画像Lと右眼画像Rが入力されると、まず左眼画像Lと右眼画像Rの視差を示す視差マップDM11が生成される。また、例えばこの視差マップDM11から立体画像上の各画素の視差のヒストグラムHT11を生成すると、立体画像の各被写体の視差分布が分かる。
なお、ヒストグラムHT11の横軸は視差、つまり被写体の奥行きを示しており、縦軸は各視差の頻度、つまりその視差を有する視差マップの画素数を示している。特に、ヒストグラムHT11の横軸の右方向は、立体画像を観察するユーザから見て被写体が手前側に定位する視差の方向を示しており、横軸の左方向は、立体画像を観察するユーザから見て被写体が奥行き側に定位する視差の方向を示している。また、視差が「0」である被写体は、立体画像が表示されるディスプレイ面に定位し、視差が正の値である被写体は、ユーザから見てディスプレイ面よりも手前側に定位する。
ここで、例えば立体画像上のユーザが注目すると推定される領域を注目領域と呼ぶこととし、注目領域と同じ位置にある視差マップDM11上の領域が領域AR11であったとする。また、領域AR11内の各画素の視差の分布が、ヒストグラムHT11におけるAR’11の部分に対応しているとする。
この場合、立体画像上の注目領域の視差は正の値であるので、注目領域内の被写体は、ユーザから見てディスプレイ面の手前側に見えることになる。つまり、被写体が飛び出して見えることになる。一般的に、ユーザが注目している被写体の視差が小さく、その被写体がディスプレイ面近傍に定位すると、輻輳とピント調整の矛盾が生じないため、立体画像を観察するユーザの疲労が最も少なくなる。
そこで、本技術では、注目領域の被写体がディスプレイ面近傍に定位し、かつ立体画像上の各被写体の視差が、ユーザに対する負荷が少ない適切な視差範囲内の値となるように、視差マップが補正され、補正視差マップDM12とされる。この補正視差マップDM12から得られる視差のヒストグラムHT12では、注目領域と同じ位置にある領域AR12内の各画素の視差の分布が、ヒストグラムHT12のAR’12の部分に対応しており、注目領域の被写体がディスプレイ面近傍に定位することが分かる。
このようにして補正視差マップDM12が得られると、左眼画像Lと右眼画像Rの視差が補正視差マップDM12に示される視差となるように、左眼画像Lと右眼画像Rに対する画像変換が行なわれ、最終的な左眼画像L’と右眼画像R’が生成される。
画像変換では、左眼画像Lまたは右眼画像Rの何れか一方はそのままとされ、他方の画像のみが画像変換されるようにしてもよいし、左眼画像Lと右眼画像Rの両方が画像変換され、新たな左眼画像L’と右眼画像R’が生成されるようにしてもよい。
また、立体画像の視聴時におけるユーザの負荷が少ない適切な視差の範囲は、立体画像の視聴距離やディスプレイの大きさなどにより定まる。
例えば図2に示すように、立体画像が表示されるディスプレイ面DS11から視聴距離Lの位置でユーザが立体画像を観察し、ユーザの両眼間隔がdであるとする。また、ユーザから立体画像上の被写体の定位位置、つまり被写体の立体像が生じる位置までの距離がLであるとし、立体像が生じる位置までの距離Lが視聴距離Lと同一である場合の輻輳角をβとする。
さらに、立体画像の適切な視差範囲内の視差の最小値となる被写体の定位位置、つまり最も奥行き側にある被写体の定位位置に対する輻輳角をαminとし、適切な視差範囲内の視差の最大値となる被写体の定位位置に対する輻輳角をαmaxとする。
図2に示す視聴条件で、ユーザがディスプレイ面DS11上の立体画像を視聴する場合、一般的に次式(1)が成立すれば、視聴者が快適に立体画像を視聴できると言われている。なお、式(1)において、αは、立体画像上の被写体の定位位置に対する輻輳角である。
Figure 2012257022
また、視聴距離Lと輻輳角βとの関係は、次式(2)で表される。
Figure 2012257022
したがって、この式(2)を変形すると、次式(3)が得られる。
Figure 2012257022
また、式(2)と同様に、立体像が生じる位置までの距離Lと輻輳角αとの関係は、次式(4)で表される。
Figure 2012257022
ここで、輻輳角αの取り得る範囲は、αmin≦α≦αmaxであるので、立体像が生じる位置までの距離Lの取り得る値の範囲は、次式(5)で表すことができる。
Figure 2012257022
なお、上述した式(1)から、輻輳角αmin=β−(Π/180),輻輳角αmax=β+(Π/180)である。したがって、ユーザが快適に立体画像を視聴することができる被写体の視差の範囲は、両眼間隔がdと輻輳角βから求めることができる。
例えば、立体画像が表示されるディスプレイが46V型の表示装置であり、視聴距離Lが1.7mである場合、ユーザから各被写体の定位位置までの距離Lが0.5mから1.5mの範囲内であれば、ユーザは快適に立体画像を視聴することができる。この距離Lの範囲を視差に置き換えると−56画素から55画素程度の範囲となる。
[画像処理装置の構成例]
次に、本技術を適用した画像処理装置の実施の形態について説明する。図3は、本技術を適用した画像処理装置の一実施の形態の構成例を示す図である。
画像処理装置11は、注目領域推定部21、視差検出部22、視差解析部23、視差変換部24、および画像合成部25から構成される。この画像処理装置11では、立体画像を構成する左眼画像Lおよび右眼画像Rが、注目領域推定部21、視差検出部22、および画像合成部25に供給される。
注目領域推定部21は、供給された左眼画像Lおよび右眼画像Rに基づいて、立体画像上の注目領域を推定し、その推定結果を視差解析部23に供給する。ここで、注目領域とは、立体画像を観察するユーザが注目すると推定される領域である。
視差検出部22は、供給された左眼画像Lおよび右眼画像Rに基づいて、立体画像の各画素の視差を示す視差マップを生成し、視差解析部23および視差変換部24に供給する。
視差解析部23は、注目領域推定部21からの推定結果と、視差検出部22からの視差マップとに基づいて、立体画像の視差の補正、より詳細には視差マップの補正に用いられる視差の変換特性を定め、視差変換部24に供給する。視差解析部23は、最大/最小視差検出部31および設定部32を備えている。
最大/最小視差検出部31は、視差検出部22からの視差マップの各画素の画素値(視差)の最大値と最小値(以下、最大視差および最小視差と称する)を検出する。また、最大/最小視差検出部31は、視差検出部22からの視差マップと、注目領域推定部21からの推定結果とに基づいて、注目領域の視差(以下、注目視差とも称する)を検出し、注目視差と、最大視差および最小視差とを設定部32に供給する。
設定部32は、最大/最小視差検出部31からの注目視差と、最大視差および最小視差とに基づいて変換特性を定め、視差変換部24に供給する。
視差変換部24は、設定部32からの変換特性に基づいて、視差検出部22からの視差マップの各画素の視差を変換することで視差マップを補正し、その結果得られた補正視差マップと視差マップを画像合成部25に供給する。画像合成部25は、視差変換部24からの補正視差マップと視差マップに基づいて、供給された左眼画像Lおよび右眼画像Rに対する画像変換を行なうことで立体画像の視差調整を行ない、その結果得られた左眼画像L’および右眼画像R’を出力する。
[画像変換処理の説明]
図3の画像処理装置11は、左眼画像Lと右眼画像Rからなる立体画像が供給され、立体画像の視差調整が指示されると、画像変換処理を行って立体画像の視差調整を行い、視差調整された立体画像を出力する。以下、図4のフローチャートを参照して、画像処理装置11による画像変換処理について説明する。
ステップS11において、注目領域推定部21は、供給された左眼画像Lまたは右眼画像Rの少なくとも一方に基づいて、立体画像上の注目領域を推定し、注目領域を示す情報を最大/最小視差検出部31に供給する。例えば、注目領域推定部21は、顔認識やビジュアルアテンション、シーン認識などを行なって、注目領域を推定する。
具体的には、例えば顔認識により左眼画像Lや右眼画像Rから顔の領域が検出された場合、その顔の領域が注目領域とされる。また、例えばビジュアルアテンションが行なわれる場合、左眼画像Lや右眼画像Rから輝度情報や色情報、エッジ情報などの所定の特徴量が抽出され、それらの特徴量から画像上の輝度差の大きい領域や、周囲と色が異なる領域などが検出され、注目領域とされる。
なお、注目領域推定部21が左眼画像Lや右眼画像R上の面積が大きいオブジェクトの領域や、動被写体の領域を検出し、それらの領域を注目領域とするようにしてもよい。
ステップS12において、視差検出部22は、供給された左眼画像Lおよび右眼画像Rに基づいて立体画像の視差を検出し、視差マップを生成する。
例えば、視差検出部22は、右眼画像Rの各画素を順番に注目画素として、注目画素に対応する左眼画像Lの画素(以下、対応画素と称する)を検出することで、右眼画像Rの各画素の左眼画像Lに対する視差を求める。
このとき、右眼画像R上の注目画素近傍の領域と、左眼画像L上の各画素近傍の領域との差分、より詳細には例えば領域内の画素の差分絶対値和が算出され、差分が最小となる左眼画像Lの画素が注目画素に対する対応画素とされる。そして、右眼画像Rの注目画素と左眼画像Lの対応画素との距離が、それらの画素間の視差とされ、その視差が注目画素と同じ位置にある視差マップの画素の画素値とされる。
なお、ここでは右眼画像Rの各画素を注目画素として、右眼画像Rを基準とする視差マップを生成する場合を例として説明したが、左眼画像Lを基準とする視差マップが生成されてもよいし、右眼画像Rおよび左眼画像Lのそれぞれを基準とする視差マップが生成されてもよい。
このようにして視差マップが生成されると、視差検出部22は生成した視差マップを最大/最小視差検出部31および視差変換部24に供給し、処理はステップS13に進む。
ステップS13において、最大/最小視差検出部31は、視差検出部22から供給された視差マップに基づいて、最大視差および最小視差を検出する。すなわち、視差マップ上の各画素の視差のうちの最大値と最小値が検出されて、それぞれ最大視差および最小視差とされる。
ステップS14において、最大/最小視差検出部31は、視差検出部22から供給された視差マップと、注目領域推定部21から供給された注目領域の推定結果とに基づいて、注目領域の視差を検出する。
例えば、最大/最小視差検出部31は、視差マップ上の注目領域と同じ領域内にある画素の画素値(視差)の平均値を注目領域の視差である注目視差とする。なお、その他、視差マップ上の注目領域と同じ領域内にある画素の画素値の重心値や、注目領域と同じ領域内にある画素の画素値のうち、最も多い画素値などが注目視差とされてもよい。
最大/最小視差検出部31は、注目領域の注目視差が得られると、最大視差、最小視差、および注目視差を設定部32に供給し、処理はステップS15へと進む。
ステップS15において、設定部32は、最大/最小視差検出部31から供給された最大視差、最小視差、および注目視差に基づいて、変換特性を設定する。
例えば、図2を参照して説明した、適切な視差の範囲が予め求められており、その視差の範囲の最大値および最小値が、それぞれ許容最大視差dmax’および許容最小視差dmin’であるとする。また、最大視差、最小視差、および注目視差を、それぞれdmax、dmin、およびdatとする。
この場合、設定部32は、図5に示すように、視差マップ上の各視差が、許容最小視差dmin’から許容最大視差dmax’までの範囲(以下、許容視差範囲と称する)内の視差に変換され、かつ注目視差datが視差「0」に変換されるように、変換特性を定める。すなわち、それらの条件を満たすように、視差マップ上の各視差dを補正視差dに変換する変換関数が定められる。
なお、図5において、横軸は視差マップ上の各画素の視差dを示しており、縦軸は補正視差dを示している。また、図中、折れ線F11は変換関数のグラフを示している。
折れ線F11で表される変換関数では、最大視差dmaxが許容最大視差dmax’に変換され、最小視差dminが許容最小視差dmin’に変換される。また、注目視差datは0に変換される。さらに、変換関数の注目視差datから最大視差dmaxまでの区間は、所定の傾きの一次関数となっており、同様に最小視差dminから注目視差datまでの区間も所定の傾きの一次関数となっているが、変換関数全体では、非線形関数となっている。
このように、注目領域の視差が0に変換されるようにすれば、注目領域の奥行き位置が立体画像の表示面となり、ユーザの眼の疲労を低減させることができる。しかも、立体画像全体の視差が許容視差範囲内となるので、ユーザは快適に立体画像を視聴することができるようになる。
設定部32は、このようにして変換関数を定めると、定めた変換関数を変換特性として視差変換部24に供給する。
なお、変換特性は図5に示した例に限らず、視差に対して単調増加する折れ線で表される関数や、任意の関数とすることができる。
したがって、例えば図6に示す線形関数が変換関数とされてもよい。なお、図6において、横軸は視差マップ上の各画素の視差dを示しており、縦軸は補正視差dを示している。また、図中、直線F12は変換関数のグラフを示している。図6の例では、直線F12で表される変換関数は、一次関数となっている。
図4のフローチャートの説明に戻り、ステップS16において、視差変換部24は、設定部32からの変換特性と、視差検出部22からの視差マップとに基づいて補正視差マップを生成し、補正視差マップと視差マップを画像合成部25に供給する。
例えば、視差変換部24は、変換特性としての変換関数に、視差マップの画素の視差dを代入して補正視差dを求め、求めた補正視差を、その画素と同じ位置にある補正視差マップの画素の画素値とする。
なお、変換関数を用いた補正視差の算出は、各視差dと、その視差dの変換により得られる補正視差dとが対応付けられている変換テーブルにより実現されるようにしてもよい。そのような場合、視差変換部24は、設定部32から変換特性が供給されると、その変換特性を有する変換テーブルを生成するとともに、変換テーブルを用いて視差マップを補正視差マップに変換する。
ステップS17において、画像合成部25は、視差変換部24からの補正視差マップと視差マップを用いて、供給された左眼画像Lおよび右眼画像Rを、適切な視差を有する左眼画像L’および右眼画像R’に変換し、出力する。
例えば、視差検出部22において、右眼画像Rを基準とする視差マップが生成されるとともに、注目領域推定部21において右眼画像R上の注目領域が推定され、視差変換部24で右眼画像Rを基準とする補正視差マップが生成されたとする。
この場合、画像合成部25は、右眼画像Rをそのまま出力用の右眼画像R’とするとともに、図7に示すように、右眼画像Rおよび左眼画像Lから、補正視差マップの画素により特定される視点の位相の画像を生成し、得られた画像を出力用の左眼画像L’とする。
なお、図7では、図中、横方向は左眼画像Lと右眼画像Rの視差の方向(水平方向)を示している。例えば、右眼画像R上の画素Grの対応画素が左眼画像L上の画素Glであり、画素Grと同じ位置にある視差マップ上の画素の画素値(視差)がdであったとする。
この場合、画素Grの図中、横方向の位置(以下、x座標という)がxであるとすると、画素Glのx座標xは、x+dとなる。さらに、画素Grと同じ位置にある補正視差マップ上の画素の画素値(視差)がd’(但し、d>d’)であるとすると、右眼画像Rの視点の位相1と左眼画像Lの視点の位相0の間の視点の位相pの画像の画素Gl’が、画像変換後の左眼画像L’の画素として生成されることになる。
すなわち、次式(6)の演算が行なわれて、画素Gl’の画素値I(x’)が算出される。
Figure 2012257022
なお、式(6)において、I(x)およびI(x)は、それぞれ画素Glおよび画素Grの画素値を示している。また、生成される視点の位相pは、p=d’/(d’+|d−d’|)である。
このようにして、画像合成部25は、右眼画像R上の各画素について式(6)に示した演算を行い、右眼画像Rと視差d’を有する新たな左眼画像L’を生成し、右眼画像R’と左眼画像L’とからなる立体画像を、視差調整後の立体画像として出力する。
また、右眼画像Rがそのまま右眼画像R’とされ、左眼画像Lが左眼画像L’に変換される例について説明したが、左眼画像Lがそのまま左眼画像L’とされ、右眼画像Rが右眼画像R’に変換されるようにしてもよい。
さらに、右眼画像Rと左眼画像Lが、それぞれ右眼画像R’と左眼画像L’に変換されるようにしてもよい。そのような場合、注目領域推定部21では、右眼画像Rと左眼画像Lのそれぞれから注目領域が検出され、視差検出部22では、右眼画像Rを基準とする視差マップと、左眼画像Lを基準とする視差マップが生成される。
そして、右眼画像R上の注目領域と、右眼画像Rを基準とする視差マップとから変換特性が定められ、その視差マップが補正視差マップに変換される。同様に、左眼画像L上の注目領域と、左眼画像Lを基準とする視差マップとから変換特性が定められ、その視差マップが補正視差マップに変換される。
さらに、右眼画像R上の各画素と、それらの画素に対応する左眼画像L上の対応画素とが用いられて、右眼画像Rを基準とする補正視差マップの画素の視差d’の半分の視差分だけ右眼画像Rの視点と位相が異なる画像の画素の画素値が求められ、左眼画像L’が生成される。同様に、左眼画像L上の各画素と、右眼画像R上の対応画素とが用いられて、左眼画像Lを基準とする補正視差マップの画素の視差d’の半分の視差分だけ左眼画像Lの視点と位相が異なる画像の画素の画素値が求められ、右眼画像R’が生成される。
以上のようにして、画像処理装置11は、視差マップと注目領域とに基づいて、立体画像が表示される表示面近傍に注目領域が定位し、かつ立体画像の各画素の視差が許容視差範囲内の視差となるように変換特性を定め、立体画像の視差調整を行なう。これにより、立体画像の視差制御をより適切に行なうことができ、ユーザがより快適に立体画像を視聴することができるようになる。その結果、ユーザの眼の疲労を低減させることができる。
〈第2の実施の形態〉
[画像処理装置の構成例]
なお、以上においては、視差マップの全画素が同じ変換関数(変換特性)により変換される場合について説明したが、視差マップ上の注目領域と同じ位置の領域内と注目領域と異なる位置の領域とで異なる変換関数が用いられてもよい。
そのような場合、例えば図8に示すように、視差マップDM21上の注目領域と同じ位置にある領域AR41が特定される。そして、図中、下側に示すように、領域AR41内の各画素の視差の変換関数と、領域AR41外の各画素の視差の変換関数とが定められる。
図8の例では、折れ線F31は、領域AR41内の各画素の視差の変換関数を示しており、折れ線F32は、領域AR41外の各画素の視差の変換関数を示している。なお、変換関数のグラフにおいて、横軸は視差マップ上の各画素の視差dを示しており、縦軸は補正視差dを示している。
折れ線F31で表される変換関数では、注目視差datは0に変換され、かつ注目視差datを含む視差datsから視差dateまでの区間では、変換関数は所定の傾きの一次関数となっている。
なお、視差datsと視差dateや、視差datsから視差dateまでの区間における変換関数の傾きは、予め定められていてもよいし、ユーザにより設定されるようにしてもよい。また、視差datsおよび視差dateが、領域AR41内の各画素の視差に基づいて定められるようにしてもよい。そのような場合、例えば領域AR41内の画素の視差の最小値および最大値が、それぞれ視差datsおよび視差dateとされる。
また、折れ線F31で表される変換関数では、視差マップの画素の最大視差dmaxおよび最小視差dminが、それぞれ許容最大視差dmax’および許容最小視差dmin’に変換され、変換関数は全区間で連続である。この例でも最小視差dminから視差datsまでの区間、および視差dateから最大視差dmaxまでの区間は、一次関数となっている。
これに対して、折れ線F32で表される変換関数では、最大視差dmaxが許容最大視差dmax’に変換され、最小視差dminが許容最小視差dmin’に変換される。また、注目視差datは0に変換される。すなわち、折れ線F32で表される変換関数は、図5の折れ線F11に示した変換関数と同じ関数となっている。
このように、注目領域と同じ位置にある視差マップDM21の領域AR41の内部と外部とで、それぞれ異なる変換特性の変換関数を用いて視差マップの変換を行なえば、立体画像の注目領域の視差制御をより適切に行なうことができる。特に領域AR41内の変換関数における注目視差近傍の区間の特性を線形関数(一次関数)とすることで、注目領域周辺の奥行きの歪みを抑制することができる。
このように、視差マップの領域に応じて異なる変換特性で視差マップを補正視差マップに変換する場合、画像処理装置は、例えば図9に示すように構成される。なお、図9において、図3における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図9の画像処理装置61は、注目領域推定部21乃至画像合成部25から構成される点では図3の画像処理装置11と同じである。但し、画像処理装置61では、注目領域推定部21で求められた注目領域の推定結果が、視差解析部23の最大/最小視差検出部31と視差変換部24に供給される。また、視差変換部24では、注目領域の推定結果と変換特性に基づいて、領域ごとに視差マップの変換が行なわれる。
[画像変換処理の説明]
次に、図10のフローチャートを参照して、画像処理装置61による画像変換処理について説明する。なお、ステップS41乃至ステップS44の処理は、図4のステップS11乃至ステップS14の処理と同様であるので、その説明は省略する。
但し、ステップS41では、注目領域の推定結果が注目領域推定部21から最大/最小視差検出部31および視差変換部24に供給される。
ステップS45において、設定部32は、最大/最小視差検出部31からの最大視差、最小視差、および注目視差に基づいて、変換特性を設定する。具体的には、例えば図8を参照して説明したように、視差マップ上の注目領域と同じ位置の領域についての変換関数と、視差マップ上の注目領域と異なる位置の領域についての変換関数とが設定される。設定部32は、領域ごとに設定した変換関数を視差変換部24に供給する。
ステップS46において、視差変換部24は、設定部32からの変換関数(変換特性)、および注目領域推定部21からの推定結果に基づいて、視差検出部22からの視差マップを補正視差マップに変換する。
すなわち、視差変換部24は、視差マップ上の注目領域と同じ位置の領域については、その領域の変換関数を用いて視差マップの各画素の視差を補正視差に変換する。また、視差変換部24は、視差マップ上の注目領域と異なる位置の領域については、その領域の変換関数を用いて視差マップの各画素の視差を補正視差に変換する。このように、視差マップの領域ごとに、それらの領域に対して設定された変換関数が用いられて補正視差が求められ、補正視差マップが生成される。
補正視差マップが生成されると、その後、ステップS47の処理が行われて画像変換処理は終了するが、この処理は図4のステップS17の処理と同様であるので、その説明は省略する。
以上のようにして、画像処理装置61は、視差マップの領域ごと、特に注目領域と同じ領域とその他の領域について変換関数を設定し、視差マップを補正視差マップに変換する。これにより、注目領域の視差制御をより適切に行なうことができるようになる。
〈第3の実施の形態〉
[画像処理装置の構成例]
さらに以上においては、補正視差マップに基づいて立体画像の視差調整を行なう場合について説明したが、立体画像の各画素の視差、特に注目領域の視差を用いてシフト量を算出し、左眼画像Lと右眼画像Rをシフトさせることで視差調整を行なうようにしてもよい。
そのような場合、画像処理装置は、例えば図11に示すように構成される。なお、図11において、図3における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図11の画像処理装置91は、注目領域推定部21、視差検出部22、ヒストグラム算出部101、ストレス値算出部102、シフト量算出部103、および画像処理部104から構成される。
ヒストグラム算出部101は、視差検出部22からの視差マップと、注目領域推定部21からの注目領域とに基づいて、立体画像上の領域ごとに視差のヒストグラムを生成し、ストレス値算出部102に供給する。ヒストグラムの生成時には、注目領域の各画素の視差に重み付けが行なわれる。
ストレス値算出部102は、ヒストグラム算出部101から供給されたヒストグラムに基づいて、左眼画像Lと右眼画像Rを所定量だけシフトさせて視差調整した場合に、視差調整後の立体画像をユーザが視聴したときに感じるストレスを示すストレス値を算出し、シフト量算出部103に供給する。シフト量算出部103は、ストレス値算出部102から供給されたストレス値が最小となるシフト量を算出し、画像処理部104に供給する。
画像処理部104は、供給された左眼画像Lおよび右眼画像Rを、シフト量算出部103からのシフト量に基づいてシフトさせて左眼画像L’および右眼画像R’を生成し、出力する。
[画像変換処理の説明]
次に、図12のフローチャートを参照して、画像処理装置91による画像変換処理について説明する。
ステップS71において、注目領域推定部21は、供給された左眼画像Lおよび右眼画像Rに基づいて注目領域を推定し、その推定結果をヒストグラム算出部101に供給する。例えば、顔検出やビジュアルアテンションなどの処理が行われて、注目領域が推定される。
具体的には例えば、顔検出では、左眼画像Lや右眼画像R上の人の顔が含まれる矩形領域の頂点の座標や矩形領域の大きさなどが検出される。
また、例えば画像処理装置91が立体画像を撮像する撮像装置などである場合には、立体画像の撮像時のオートフォーカス処理で得られた情報などが用いられてもよい。すなわち、コントラスト方式のオートフォーカスでは、立体画像上のフォーカス(ピント)が合っている被写体の領域が特定されるので、ピントが合っている被写体の領域がユーザにより注目されている注目領域とされる。
このように、オートフォーカスに関する情報を利用して注目領域を推定する場合には、立体画像を撮像するユーザが注目する被写体を中心として、立体画像の視差調整が可能となる。なお、ステップS71では、図4のステップS11の処理と同様の処理が行われる。
ステップS72において、視差検出部22は、供給された左眼画像Lと右眼画像Rに基づいて視差を検出し、その結果得られた視差マップをヒストグラム算出部101に供給する。なお、ステップS72では、図4のステップS12の処理と同様の処理が行われる。
ステップS73において、ヒストグラム算出部101は、視差検出部22からの視差マップと、注目領域推定部21からの注目領域とに基づいて、立体画像上の領域ごとに視差の分布を示すヒストグラムを生成し、ストレス値算出部102に供給する。
例えば、ヒストグラム算出部101は、図13に示す視差マップDM41が供給された場合、視差マップDM41の中央の領域DC、左端近傍の領域DL、および右端近傍の領域DRのそれぞれについて、それらの領域内の画素の視差のヒストグラムを生成する。
ここで、領域DCは、立体画像上の中央の領域と同じ領域であり、領域DLおよび領域DRは、立体画像の左右の画枠(左右の端)部分の領域と同じ領域である。なお、以下、領域DC、領域DL、および領域DRのそれぞれを、中央領域DC、左画枠領域DL、および右画枠領域DRと称することとする。
例えば、ヒストグラム算出部101は、中央領域DCのヒストグラムを生成する場合、視差マップDM41上の中央領域DC内の画素を順番に注目画素として選択していく。ヒストグラム算出部101は、注目画素が注目領域外の画素であれば、注目画素の視差が属するヒストグラムのビンの頻度値に1を加算し、注目画素が注目領域内の画素であれば、注目画素の視差が属するヒストグラムのビンの頻度値に所定の重み値W(但し、1<W)を加算することで、中央領域DCのヒストグラムを生成する。
なお、ヒストグラムの生成時において、例えば図14に示すように、複数の注目領域AR51乃至注目領域AR53が検出され、それらの注目領域のうちのいくつかが重なっている場合には、注目領域ごとの重みのうち、最も大きい重みが用いられる。
例えば、注目領域AR51乃至注目領域AR53のそれぞれに対して、重みW1乃至重みW3が予め定められているとする。このような場合、例えば、注目領域AR51乃至注目領域AR53が重なっている領域Q11内に注目画素がある場合、重みW1乃至重みW3のうちの最も大きい値が、注目画素の視差が属するビンの頻度値に加算される。具体的には、重みW1乃至重みW3のうち、重みW1が最も大きい場合には、その重みW1が頻度値に加算されることになる。
また、注目領域AR51と注目領域AR53が重なっている領域Q12内に注目画素がある場合、重みW1と重みW3のうちの最も大きい値が、注目画素の視差が属するビンの頻度値に加算される。さらに、注目領域AR53上の他の注目領域と重なっていない領域Q13内に注目画素がある場合、重みW3が、注目画素の視差が属するビンの頻度値に加算される。
図12のフローチャートの説明に戻り、ヒストグラム算出部101は、中央領域DC、左画枠領域DL、および右画枠領域DRのそれぞれについてヒストグラムを生成すると、それらのヒストグラムをストレス値算出部102に供給し、処理はステップS74に進む。
ステップS74において、ストレス値算出部102は、ヒストグラム算出部101から供給されたヒストグラムに基づいてストレス値を算出し、シフト量算出部103に供給する。
例えば、ストレス値算出部102は、中央領域DC、左画枠領域DL、および右画枠領域DRの各領域について、予めストレス関数を記録している。ここで、ストレス関数とは、立体画像の視差と、立体画像の視聴時におけるユーザのストレスとの関係を示す関数である。
具体的には、中央領域DCのストレス関数stress_func(d)は、図15の曲線F51で表される関数とされる。なお、図15において、横軸は視差を示しており、縦軸はストレス値を示している。また、視差の値−thfarおよびthnearは、許容視差範囲などから予め算出された値である。
曲線F51で表されるストレス関数stress_func(d)は、視差dが−thfar未満の区間では4次関数となっており、視差dが−thfar以上thnear以下の区間では2次関数となっており、視差dがthnearより大きい区間では1次関数となっている。
このようなストレス関数stress_func(d)は、次式(7)で表される。
Figure 2012257022
また、左画枠領域DLと右画枠領域DRのストレス関数stress_func_border(d)は、図16の折れ線F61で表される関数とされる。なお、図16において、横軸は視差を示しており、縦軸はストレス値を示している。
折れ線F61で表されるストレス関数stress_func_border(d)は、視差dが0未満の区間では0となっており、視差dが0以上の区間では1次関数となっている。
このようなストレス関数stress_func_border(d)は、次式(8)で表される。
Figure 2012257022
なお、式(8)において、BORDER_RATIOは、左画枠領域DLと右画枠領域DRに対する重みを示しており、重みBORDER_RATIOが大きいほど、左画枠領域DLと右画枠領域DRのストレス値の算出への寄与率が高くなる。また、図16の折れ線F61で表されるストレス関数stress_func_border(d)では、重みBORDER_RATIO=1となっている。
ストレス値算出部102は、中央領域DCのストレス関数stress_func(d)、左画枠領域DLと右画枠領域DRのストレス関数stress_func_border(d)、および各領域のヒストグラムに基づいて次式(9)を計算し、シフト量sに対するストレス値stress(s)を算出する。
Figure 2012257022
なお、式(9)では、HistC(d)は、中央領域DCのヒストグラムにおける視差dが属すビンの頻度値を示している。また、HistL(d)およびHistR(d)は、それぞれ左画枠領域DLと右画枠領域DRのヒストグラムにおける視差dが属すビンの頻度値を示している。さらに、式(9)では、視差dの検出範囲は、VX_MIN≦d≦VX_MAXとされている。
ここで、式(9)のストレス値stress(s)の右辺の第1項は、中央領域DCのストレス値を表している。すなわち、立体画像をシフト量sだけシフトさせて視差調整した場合における検出範囲内の各視差について、その視差のストレス値と、その視差の頻度値との積が求められ、各視差について求めた積の総和が中央領域DCの最終的なストレス値とされる。
また、ストレス値stress(s)の右辺の第2項は、左画枠領域DLと右画枠領域DRのストレス値を表している。すなわち、立体画像をシフト量sだけシフトさせて視差調整した場合における検出範囲内の各視差について、その視差のストレス値と、その視差の左画枠領域DLと右画枠領域DRのヒストグラムの頻度値の和との積が求められる。そして、各視差について求めた積の総和が左右の画枠部分(左画枠領域DLと右画枠領域DR)の最終的なストレス値とされる。
このようにして求められた中央領域DCのストレス値と、左右の画枠部分のストレス値との和がストレス値stress(s)とされる。
このように、ストレス値stress(s)の算出時には、立体画像の各画素を単位として、各画素のストレス値を加算することで立体画像全体のストレス値stress(s)が算出される。したがって、面積が大きい支配的な被写体、つまり主要な被写体に重きをおいて視差制御を行なうことができる。
また、視差分布の検出に多少のエラーが生じたとしても、立体画像の視差制御に対する影響を少なくすることができる。さらに、ストレス値stress(s)を用いて立体画像の視差制御を行なえば、立体画像の左右の画枠部分を考慮した視差制御が可能である。
ステップS75において、シフト量算出部103は、ストレス値算出部102から供給されたストレス値stress(s)が最小となるシフト量sを算出し、画像処理部104に供給する。なお、シフト量sは、視差dの検出範囲と同じ範囲、つまりVX_MIN≦s≦VX_MAXの範囲で検出が行なわれる。
具体的には、シフト量算出部103は次式(10)の演算を行ない、ストレス値stress(s)が最小となるシフト量sを求める。なお、式(10)の算出時には、シフト量算出部103は立体画像の視差分布が平坦(フラット)である場合も想定し、シフト量s=0である場合のストレス値stress(0)を最初に求めて、求められた値を一時的にストレス値stress(s)が最小となるシフト量sとする。
Figure 2012257022
ステップS76において、画像処理部104は、供給された左眼画像Lおよび右眼画像Rを、シフト量算出部103からのシフト量sに基づいてシフトさせ、左眼画像L’および右眼画像R’を生成する。
例えば、画像処理部104は、左眼画像Lを−s/2だけ視差方向にシフトさせて左眼画像L’とするとともに、右眼画像Rをs/2だけ視差方向にシフトさせて右眼画像R’とし、立体画像の視差調整を行なう。画像処理部104は、このようにして得られた左眼画像L’および右眼画像R’からなる立体画像を、視差調整後の立体画像として出力し、画像変換処理は終了する。
以上のようにして画像処理装置91は、立体画像の領域ごとに注目領域に重みを付けてヒストグラムを生成し、生成したヒストグラムと領域ごとのストレス関数とからストレス値を求める。そして、画像処理装置91は、ストレス値から得られる適切なシフト量に基づいて立体画像をシフトさせ、視差調整を行なう。
このように、注目領域を考慮してシフト量を算出することで、より適切な視差制御を実現することができ、注目領域の被写体をより見やすくすることができるとともに、立体画像を視聴するユーザの疲労を最小限に抑えることができるようになる。
具体的には、例えば図17に示すように、注目領域を考慮せずに視差調整を行なった立体画像の視差分布と、注目領域を考慮して視差調整を行なった立体画像の視差分布とを比較すると、注目領域を考慮した方がより適切な視差制御が行なわれていることが分かる。
なお、図17において、図中、左側には注目領域を考慮せずに視差調整を行なった立体画像の視差分布を示すヒストグラムが示されており、図中、右側には注目領域を考慮して視差調整を行なった立体画像の視差分布を示すヒストグラムが示されている。また、各ヒストグラムにおいて、横軸は視差を示しており、縦軸は各視差の頻度値を示している。ここで、注目領域を考慮せずに行なわれる視差調整とは、注目領域の画素の視差に対して重み付けを行なわずに図12の画像変換処理を行う視差調整をいう。
図中、左側に示すヒストグラムでは、曲線C11乃至曲線C13は、視差調整後の立体画像の中央領域DC、左画枠領域DL、および右画枠領域DRのそれぞれの領域における視差の分布を示している。
また、x11は立体画像を表示させるディスプレイ面の位置を示しており、x12は曲線C11のピーク位置、つまり立体画像上の前景(主要被写体)の定位位置を示している。さらに、x13は、曲線C12と曲線C13から定まる画枠部分の視差の頻度値のピーク位置、つまり立体画像上の背景の定位位置を示している。
図中、左側のヒストグラムから分かるように、注目領域を考慮せずにシフト量を求めると、前景となる主要な被写体がユーザ側に飛び出しすぎてしまい、背景もディスプレイ面に近く、奥行き感が不足してしまう。
これに対して、図中、右側に示すヒストグラムは、画像処理装置91により視差調整されて得られた立体画像の視差分布を示すヒストグラムである。このヒストグラムでは、曲線C21乃至曲線C23は、視差調整後の立体画像の中央領域DC、左画枠領域DL、および右画枠領域DRのそれぞれの領域における視差の分布を示している。
また、x21は立体画像を表示させるディスプレイ面の位置を示しており、x22は曲線C21のピーク位置、つまり立体画像上の前景の定位位置を示している。さらに、x23は、曲線C22と曲線C23から定まる立体画像上の背景の定位位置を示している。
図中、右側のヒストグラムから分かるように、注目領域を考慮してシフト量を求めると、前景となる主要な被写体のユーザ側への飛び出しを抑えることができ、前景と背景がディスプレイ面に対してバランスよく定位していることが分かる。
なお、以上においては、立体画像を構成する左眼画像Lと右眼画像Rをそのままの大きさで処理対象として用いて、シフト量sを算出する場合について説明したが、左眼画像Lと右眼画像Rを所定の縮小率で縮小させてからシフト量sを算出するようにしてもよい。そのような場合、縮小された左眼画像Lと右眼画像Rが用いられて注目領域の検出やヒストグラムの生成が行なわれて、シフト量が算出される。
また、この場合、立体画像の視差調整時には、算出されたシフト量が、左眼画像Lや右眼画像Rの縮小率の逆数で拡大されて視差調整に用いられる。すなわち、拡大されたシフト量に基づいて、左眼画像Lや右眼画像Rがシフトされる。このように立体画像を縮小してシフト量を算出すれば、より少ない処理量で、より迅速に立体画像の視差調整を行なうことができる。
さらに、画像処理装置91では、各領域のストレス関数を変更することで、立体画像の視差の制御方法を自由に変更することができるので、立体画像や視聴環境に応じてより適切な視差制御を実現することができるようになる。
〈第4の実施の形態〉
[画像処理装置の構成例]
また、上述したシフト量sにより視差調整を行なった後、変換関数によりさらに視差の調整を行なって左眼画像L’および右眼画像R’を生成するようにしてもよい。
そのような場合、画像処理装置は、図18に示すように構成される。なお、図18において、図3または図11における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図18の画像処理装置131は、注目領域推定部21、視差検出部22、ヒストグラム算出部101、ストレス値算出部102、シフト量算出部103、視差解析部141、視差変換部24、および画像合成部25から構成される。
画像処理装置131では、注目領域推定部21で得られた注目領域の推定結果は、視差解析部141およびヒストグラム算出部101に供給される。また、視差検出部22で得られた視差マップも視差解析部141およびヒストグラム算出部101に供給される。さらに、シフト量算出部103で得られたシフト量は、視差解析部141に供給される。
視差解析部141は、注目領域推定部21からの注目領域、視差検出部22からの視差マップ、およびシフト量算出部103からのシフト量に基づいて変換特性を設定し、視差変換部24に供給する。視差解析部141は、最大/最小視差検出部151および設定部152を備えている。
最大/最小視差検出部151は、シフト量算出部103からのシフト量に基づいて注目領域推定部21からの注目領域と、視差検出部22からの視差マップの各画素の視差とをシフトさせて注目視差、最大視差、および最小視差を検出し、設定部152に供給する。また、最大/最小視差検出部151は、シフト量に基づいて補正した視差マップを視差変換部24に供給する。
設定部152は、最大/最小視差検出部151からの注目視差、最大視差、および最小視差に基づいて変換特性を設定し、視差変換部24に供給する。
[画像変換処理の説明]
次に、図19のフローチャートを参照して、画像処理装置131による画像変換処理について説明する。なお、ステップS101およびステップS102の処理は、図4のステップS11およびステップS12の処理と同様であるので、その説明は省略する。但し、ステップS101で得られた注目領域、およびステップS102で得られた視差マップは、ヒストグラム算出部101および最大/最小視差検出部151に供給される。
ステップS103において、ヒストグラム算出部101は、注目領域推定部21からの注目領域と、視差検出部22からの視差マップに基づいて、中央領域DC、左画枠領域DL、および右画枠領域DRのヒストグラムを生成し、ストレス値算出部102に供給する。
各領域のヒストグラムが生成されると、その後、ステップS104およびステップS105の処理が行われてシフト量が算出されるが、これらの処理は図12のステップS74およびステップS75の処理と同様であるので、その説明は省略する。ステップS105においてシフト量が算出されると、シフト量算出部103は算出したシフト量を最大/最小視差検出部151に供給する。
ステップS106において、最大/最小視差検出部151は、シフト量算出部103から供給されたシフト量sに基づいて、注目領域推定部21からの注目領域の位置と、視差検出部22からの視差マップとを補正する。例えば、注目領域の位置がシフト量sだけシフト(平行移動)され、視差マップの各画素の画素値(視差)にシフト量sが加算され、補正後の視差マップとされる。また、最大/最小視差検出部151は、シフト量sに基づいて補正した視差マップを視差変換部24に供給する。
注目領域および視差マップが補正されると、その後、ステップS107乃至ステップS111の処理が行われて画像変換処理は終了するが、これらの処理は図4のステップS13乃至ステップS17の処理と同様であるので、その説明は省略する。
但し、ステップS107およびステップS108では、補正された注目領域と視差マップに基づいて、注目領域の視差と、最大視差および最小視差が求められる。また、ステップS110では、視差変換部24は、最大/最小視差検出部151から供給された補正後の視差マップを、設定部152からの変換関数を用いて補正視差マップに変換し、画像合成部25に供給する。さらに、視差変換部24は、必要に応じて、補正前の視差マップを最大/最小視差検出部151から取得して、画像合成部25に供給する。
また、画像処理装置131では、シフト量sにより視差マップや注目領域が補正されるため、この補正により例えば図20に示すように、変換関数がシフトされることになる。なお、図20において、横軸は視差マップ上の各画素の視差dを示しており、縦軸は補正視差dを示している。また、図中、折れ線F71は変換関数のグラフを示している。
例えば、補正前の視差マップにおける最大視差、注目視差、および最小視差がdbmax、dbat、およびdbminであったとすると、注目領域と視差マップのシフト量sによる補正により、これらの視差はdmax、dat、およびdminにシフトされる。そして、このシフトが行なわれた後、視差マップ上の各画素の視差が許容視差範囲内の視差であり、かつ注目視差datが0に変換される変換関数が設定されることになる。図20の例では、注目視差datは0となっており、折れ線F71により表される非線形の変換関数では、この注目視差datは補正視差d=0に変換される。
以上のように、画像処理装置131は、領域ごとのヒストグラムを生成してシフト量sを算出し、そのシフト量sにより注目領域と視差マップの補正を行なってから変換関数を設定し、補正視差マップを生成する。
このように、シフト量sにより視差マップと注目領域を補正すれば、補正後の注目領域の視差をほぼ0とすることができる。そして、このようにして補正された視差マップと注目領域から変換関数を設定すれば、立体画像の各画素の視差を、適切な視差範囲内の視差に変換することができ、より適切な視差制御が可能となる。
〈第5の実施の形態〉
[画像処理装置の構成例]
さらに、変換関数により視差マップを補正視差マップに変換し、補正視差マップを用いて立体画像の視差調整を行なう場合に、注目領域や変換関数の時間変動を考慮して、これらの注目領域や変換関数が平滑化されるようにしてもよい。
そのような場合、画像処理装置は例えば図21に示すように構成される。なお、図21において、図3における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図21の画像処理装置181は、注目領域推定部21、平滑化部191、視差検出部22、視差解析部23、視差変換部24、および画像合成部25から構成される。画像処理装置181の構成は、新たに平滑化部191が設けられた点、および視差変換部24に平滑化部201が設けられた点で図3の画像処理装置11と異なり、他の構成は画像処理装置11の構成と同じである。
平滑化部191は、注目領域推定部21から供給された注目領域を一定期間保持するとともに、保持している注目領域を平滑化して最大/最小視差検出部31に供給する。
また、視差変換部24に設けられた平滑化部201は、視差解析部23から供給された変換関数に基づいて生成された変換テーブルを一定期間保持し、保持している変換テーブルを平滑化する。視差変換部24は、平滑化部201により平滑化された変換テーブルを用いて視差マップを補正視差マップに変換する。
[画像変換処理の説明]
次に、図22のフローチャートを参照して、画像処理装置181により行われる画像変換処理について説明する。
ステップS141において、注目領域推定部21は、供給された左眼画像Lおよび右眼画像Rに基づいて注目領域を推定し、その推定結果を平滑化部191に供給する。なお、ステップS141では、図4のステップS11と同様の処理が行われる。
ステップS142において、平滑化部191は、過去に注目領域推定部21から供給されたいくつかの注目領域と、今回、注目領域推定部21から供給された注目領域とを用いて注目領域を平滑化し、最大/最小視差検出部31に供給する。
例えば、図23に示すように、現フレームを含む、連続するN個のフレームの左眼画像L−1乃至左眼画像L−N上の注目領域TR−1乃至注目領域TR−Nが平滑化されて、その結果得られた注目領域TR−N’が現フレームの左眼画像L−Nの注目領域とされるとする。
ここで、左眼画像L−1乃至左眼画像L−(N−1)(但し、左眼画像L−3乃至左眼画像L−(N−1)は図示せず)は、過去のフレームの左眼画像であるとする。この場合、平滑化部191は、矩形の注目領域TR−1乃至注目領域TR−Nの各頂点の座標に対してフィルタ処理を施し、その結果得られた座標を平滑化後の注目領域TR−N’の各頂点の座標とする。
したがって、例えば注目領域TR−1乃至注目領域TR−Nの左上の頂点である頂点U−1乃至頂点U−Nを用いたフィルタ処理が行われ、これにより得られた座標が現フレームの注目領域TR−N’の左上の頂点U−N’の座標とされる。
ここで、平滑化は、平均値や多数決、IIR(Infinite Impulse Response)フィルタを用いたフィルタ処理などとされる。したがって、例えば平均値により平滑化が行なわれる場合には、頂点U−1乃至頂点U−Nの各座標の平均値が頂点U−N’の座標とされる。
このように、注目領域を平滑化することで、注目領域の時間変動を抑制し、安定した視差制御を行なうことができる。つまり、立体画像上の視差が急激に変化することを抑制することができる。
図22のフローチャートの説明に戻り、注目領域が平滑化されると、その後、ステップS143乃至ステップS146の処理が行われるが、これらの処理は図4のステップS12乃至ステップS15の処理と同様であるので、その説明は適宜省略する。但し、ステップS145では、平滑化された注目領域に基づいて注目領域の視差が検出される。
設定部32により現フレームの立体画像の変換関数(変換特性)が設定されると、視差変換部24は、設定部32から供給された変換関数に基づいて変換テーブルを生成する。この変換テーブルは、変換関数の入力および出力である視差dと補正視差dとが対応付けられて記録されているテーブルである。
ステップS147において、平滑化部201は、視差変換部24により生成された現フレームの変換テーブルと、記録している過去数フレーム分の変換テーブルとを用いて変換テーブルの平滑化を行なう。
例えば、それらの変換テーブルの同じ視差dと対応付けられている補正視差dを用いたフィルタ処理が行われ、その結果得られた補正視差が、現フレームの平滑化後の変換テーブルにおける、視差dに対応する補正視差となる。変換テーブルの平滑化も、例えば平均値や多数決、IIRフィルタを用いたフィルタ処理などとされる。
このような変換テーブルの平滑化は、例えば図24に示すように連続する複数フレームの変換関数の平滑化と等価である。なお、図24において、折れ線FU−1乃至折れ線FU−N(但し、折れ線FU−2乃至折れ線FU−(N−1)は図示せず)のそれぞれは、各フレームの変換関数を示している。また、変換関数のグラフにおける横軸は視差dを示しており、縦軸は補正視差dを示している。
このように変換テーブルを平滑化することで、視差の変換特性の時間変動を抑制し、安定した視差制御を行なうことができる。つまり、立体画像上の視差が急激に変化することを抑制することができる。
図22のフローチャートの説明に戻り、変換テーブルの平滑化が行なわれると、その後、ステップS148およびステップS149の処理が行われて画像変換処理は終了する。なお、これらの処理は図4のステップS16およびステップS17の処理と同様であるので、その説明は省略する。但し、ステップS148では、平滑化により得られた変換テーブルが用いられて視差マップが補正視差マップに変換される。
以上のようにして画像処理装置181は、注目領域および変換テーブルを平滑化して補正視差マップを生成し、立体画像の視差を調整する。これにより、より適切かつ安定した視差制御を行なうことができる。
なお、この実施の形態では、注目領域と変換テーブルの両方が平滑化される場合を例として説明したが、注目領域と変換テーブルのうちの何れか一方だけが平滑化されるようにしてもよい。また、上述した第2の実施の形態乃至第4の実施の形態においても、注目領域や変換テーブルが平滑化されるようにしてもよい。
〈第6の実施の形態〉
[画像処理装置の構成例]
さらに、以上においては、注目領域を推定し、注目領域を考慮した視差制御を行なう場合を例として説明したが、立体画像のシーン認識を行い、その認識結果を視差制御に用いるようにしてもよい。
そのような場合、画像処理装置は図25に示すように構成される。なお、図25において、図3における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図25の画像処理装置231は、シーン認識部241、視差検出部22、視差解析部242、視差変換部243、および画像合成部25から構成される。
シーン認識部241は、供給された左眼画像Lおよび右眼画像Rのうちの少なくとも一方に対してシーン認識を行い、その認識結果を視差変換部243に供給する。また、視差検出部22は、供給された左眼画像Lおよび右眼画像Rから視差マップを生成し、視差解析部242および視差変換部243に供給する。
視差解析部242は、視差検出部22からの視差マップに基づいて変換関数(変換特性)を設定し、視差変換部243に供給する。視差変換部243は、シーン認識部241からのシーン認識結果、視差検出部22からの視差マップ、および視差解析部242からの変換関数に基づいて補正視差マップを生成し、画像合成部25に供給する。
[視差変換部の構成例]
また、図25の視差変換部243は、より詳細には図26に示すように構成される。すなわち、視差変換部243は、変換テーブル生成部271、視差変換マップ生成部272、視差マップ合成部273、および視差マップ変換部274から構成される。
変換テーブル生成部271は、視差解析部242から供給された変換関数に基づいて変換テーブルを生成し、視差マップ変換部274に供給する。視差変換マップ生成部272は、シーン認識部241から供給されたシーン認識結果に基づいて視差変換マップを生成し、視差マップ合成部273に供給する。ここで、視差変換マップは、立体画像のシーンに応じて視差マップを補正するための補正分の視差を示すマップである。
視差マップ合成部273は、視差検出部22からの視差マップと、視差変換マップ生成部272からの視差変換マップとを合成し、その結果得られた合成視差マップを視差マップ変換部274に供給する。視差マップ変換部274は、変換テーブル生成部271からの変換テーブルを用いて、視差マップ合成部273からの合成視差マップの各画素の視差を変換し、その結果得られた補正視差マップを画像合成部25に供給する。
[画像変換処理の説明]
次に、図27のフローチャートを参照して、画像処理装置231により行われる画像変換処理について説明する。
ステップS171において、シーン認識部241は、供給された左眼画像Lおよび右眼画像Rのうちの少なくとも一方に対してシーン認識を行い、その認識結果を視差変換部243に供給する。
例えば、シーン認識部241は、立体画像が、予め定められた「街並み」、「風景」、「屋内」、「ポートレート」などのいくつかのシーンのうちの何れのシーンの画像であるかを特定し、特定されたシーンを示す情報を、シーン認識の結果とする。これにより、立体画像が撮像されたシーンが特定される。
ステップS172において、視差検出部22は、供給された左眼画像Lおよび右眼画像Rに基づいて立体画像の各画素の視差を検出し、その結果得られた視差マップを視差解析部242および視差変換部243に供給する。
ステップS173において、視差解析部242は、視差検出部22から供給された視差マップ上の画素の視差の最大視差と最小視差を検出する。そして、ステップS174において、視差解析部242は、検出した最大視差および最小視差と、予め定められた許容視差範囲とに基づいて、視差マップ上の各画素の視差が許容視差範囲内の視差となるように、変換特性(変換関数)を設定する。また、視差解析部242は、設定した変換関数を変換テーブル生成部271に供給する。
ステップS175において、変換テーブル生成部271は、視差解析部242から供給された変換関数に基づいて変換テーブルを生成し、視差マップ変換部274に供給する。
ステップS176において、視差変換マップ生成部272は、シーン認識部241から供給されたシーン認識結果に基づいて視差変換マップを生成し、視差マップ合成部273に供給する。なお、より詳細には、視差変換マップ生成部272は、予め各シーンに対して定められた視差変換マップを記録しており、シーン認識結果により示されるシーンの視差変換マップを選択して視差マップ合成部273に供給する。
ステップS177において、視差マップ合成部273は、視差検出部22からの視差マップと、視差変換マップ生成部272からの視差変換マップとを合成し、その結果得られた合成視差マップを視差マップ変換部274に供給する。
例えば、図28に示すように、視差変換マップ生成部272には、シーンごとの視差変換マップCM11乃至視差変換マップCM13などが記録されている。
図28の例では、視差変換マップCM11乃至視差変換マップCM13のそれぞれは、「街並み」、「風景」、および「屋内」の各シーンの視差変換マップとなっている。
例えば、視差変換マップCM11は、「街並み」のシーンの視差変換マップである。そのため、視差変換マップCM11によれば、立体画像の中央部分の領域の被写体がユーザから見てより奥行き側に定位し、立体画像の端近傍の領域の被写体は、ユーザから見てより手前側に定位するように視差マップが補正される。例えば、視差変換マップCM11の中央の領域の各画素の画素値(視差)は負の値とされ、端近傍の領域の各画素の画素値は正の値となっている。
通常、街並みの画像では、画像中央が道路となっており、画像の端近傍の領域には道路の両側にある建物が位置していることが多い。そこで、道路の部分がより奥側に引っ込み、建物の部分が手前側に飛び出すように視差マップの各画素の視差を補正すれば、立体画像の立体感をより強調することができる。
また、視差変換マップCM12は、「風景」のシーンの視差変換マップである。そのため、視差変換マップCM12によれば、立体画像の図中、上側の領域の被写体がより奥側に定位し、立体画像の下側の領域の被写体は、より手前側に定位するように視差マップが補正される。
通常、風景の画像では、画像の上側は空となっており、画像の下側にその他の被写体が位置していることが多い。そこで、画像の上側に位置する空の部分がより奥側に引っ込み、その他の主要な被写体の部分が手前側に飛び出すように視差マップの各画素の視差を補正すれば、立体画像の立体感をより強調することができる。
さらに、視差変換マップCM13は、「屋内」のシーンの視差変換マップである。そのため、視差変換マップCM13では、立体画像の全体、つまり視差マップ全体が均一に視差補正されるようになされている。これは、屋内で撮像した画像では、背景が壁などとなるため、特に遠近感を強調する必要がないことが多いためである。
視差変換マップ生成部272では、このように予め用意された視差変換マップのうちの何れかが選択される。例えば、シーン「街並み」が認識され、視差変換マップCM11が選択されたとすると、視差マップ合成部273では、視差マップDM61と視差変換マップCM11とが合成されて、合成視差マップBM11とされる。
すなわち、合成視差マップBM11の注目する画素を注目画素とすると、注目画素と同じ位置にある視差マップDM61と視差変換マップCM11の画素の画素値の和が求められ、得られた和の値が注目画素の画素値とされる。
図27のフローチャートの説明に戻り、合成視差マップが生成されると、処理はステップS177からステップS178に進む。
ステップS178において、視差マップ変換部274は、変換テーブル生成部271からの変換テーブルを用いて、視差マップ合成部273からの合成視差マップの各画素の視差を変換し、その結果得られた補正視差マップを画像合成部25に供給する。また、視差マップ変換部274は、必要に応じて視差マップ合成部273から視差マップを取得し、画像合成部25に供給する。
補正視差マップが生成されると、その後、ステップS179の処理が行われて画像変換処理は終了するが、この処理は図4のステップS17と同様であるので、その説明は省略する。
以上のようにして画像処理装置231は、シーン認識を行い、その認識結果に応じて視差マップを補正して合成視差マップとするとともに、合成視差マップを変換テーブルに基づいて補正視差マップに変換し、立体画像の画像変換を行なう。
このように、シーン認識の結果に応じて視差マップを補正することで、立体画像のシーンに応じて適切に立体画像の視差を強調することができる。すなわち、より適切な視差制御を行なうことができる。
なお、画像処理装置231においても立体画像の注目領域を推定し、その推定結果に基づいて変換関数を設定するようにしてもよいし、シーン認識結果を用いて変換関数を設定するようにしてもよい。
例えば、シーン認識結果を用いて変換関数を設定する場合、シーン認識の結果から視差変換マップが特定できるので、合成視差マップの最大視差と最小視差を特定することが可能である。したがって、合成視差マップの各画素の視差が許容視差範囲内の視差となるように、合成視差マップの最大視差と最小視差に基づいて変換関数を設定すれば、より適切な視差制御を行なうことができるようになる。
また、上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図29は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
バス504には、さらに、入出力インターフェース505が接続されている。入出力インターフェース505には、キーボード、マウス、マイクロホンなどよりなる入力部506、ディスプレイ、スピーカなどよりなる出力部507、ハードディスクや不揮発性のメモリなどよりなる記録部508、ネットワークインターフェースなどよりなる通信部509、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア511を駆動するドライブ510が接続されている。
以上のように構成されるコンピュータでは、CPU501が、例えば、記録部508に記録されているプログラムを、入出力インターフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU501)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア511に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
そして、プログラムは、リムーバブルメディア511をドライブ510に装着することにより、入出力インターフェース505を介して、記録部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記録部508にインストールすることができる。その他、プログラムは、ROM502や記録部508に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
さらに、本技術は、以下の構成とすることも可能である。
[1]
ユーザが注目すると推定される立体画像上の注目領域を推定する注目領域推定部と、
前記立体画像の視差を検出し、前記立体画像の各領域の視差を示す視差マップを生成する視差検出部と、
前記注目領域および前記視差マップに基づいて、前記立体画像の視差を補正する変換特性を定める設定部と、
前記変換特性に基づいて前記視差マップを補正する視差変換部と
を備える画像処理装置。
[2]
補正された前記視差マップに基づいて、前記立体画像の視差を補正する画像合成部をさらに備える
[1]に記載の画像処理装置。
[3]
前記視差マップにより示される視差の最大値および最小値を検出するとともに、前記視差マップと前記注目領域とに基づいて、前記注目領域の視差を検出する最大/最小視差検出部をさらに備え、
前記設定部は、前記最大値、前記最小値、および前記注目領域の視差に基づいて、前記変換特性を定める
[1]または[2]に記載の画像処理装置。
[4]
前記設定部は、前記注目領域の視差が予め定められた所定の大きさの視差に変換されるように前記変換特性を定める
[3]に記載の画像処理装置。
[5]
前記設定部は、前記立体画像上の前記注目領域と、前記立体画像上の前記注目領域外の領域とに対して、それぞれ異なる前記変換特性を定める
[1]乃至[4]の何れかに記載の画像処理装置。
[6]
前記設定部は、前記注目領域の視差を含む所定の視差の区間において、視差が線形変換されるように、前記立体画像上の前記注目領域の前記変換特性を定める
[5]に記載の画像処理装置。
[7]
前記注目領域または前記変換特性を平滑化する平滑化部をさらに備える
[1]乃至[6]の何れかに記載の画像処理装置。
11 画像処理装置, 21 注目領域推定部, 22 視差検出部, 23 視差解析部, 24 視差変換部, 25 画像合成部, 101 ヒストグラム算出部, 102 ストレス値算出部, 103 シフト量算出部, 141 視差解析部, 191 平滑化部, 201 平滑化部, 241 シーン認識部, 242 視差解析部, 243 視差変換部

Claims (15)

  1. ユーザが注目すると推定される立体画像上の注目領域を推定する注目領域推定部と、
    前記立体画像の視差を検出し、前記立体画像の各領域の視差を示す視差マップを生成する視差検出部と、
    前記注目領域および前記視差マップに基づいて、前記立体画像の視差を補正する変換特性を定める設定部と、
    前記変換特性に基づいて前記視差マップを補正する視差変換部と
    を備える画像処理装置。
  2. 補正された前記視差マップに基づいて、前記立体画像の視差を補正する画像合成部をさらに備える
    請求項1に記載の画像処理装置。
  3. 前記視差マップにより示される視差の最大値および最小値を検出するとともに、前記視差マップと前記注目領域とに基づいて、前記注目領域の視差を検出する最大/最小視差検出部をさらに備え、
    前記設定部は、前記最大値、前記最小値、および前記注目領域の視差に基づいて、前記変換特性を定める
    請求項2に記載の画像処理装置。
  4. 前記設定部は、前記注目領域の視差が予め定められた所定の大きさの視差に変換されるように前記変換特性を定める
    請求項3に記載の画像処理装置。
  5. 前記設定部は、前記立体画像上の前記注目領域と、前記立体画像上の前記注目領域外の領域とに対して、それぞれ異なる前記変換特性を定める
    請求項4に記載の画像処理装置。
  6. 前記設定部は、前記注目領域の視差を含む所定の視差の区間において、視差が線形変換されるように、前記立体画像上の前記注目領域の前記変換特性を定める
    請求項5に記載の画像処理装置。
  7. 前記注目領域または前記変換特性を平滑化する平滑化部をさらに備える
    請求項6に記載の画像処理装置。
  8. ユーザが注目すると推定される立体画像上の注目領域を推定する注目領域推定部と、
    前記立体画像の視差を検出し、前記立体画像の各領域の視差を示す視差マップを生成する視差検出部と、
    前記注目領域および前記視差マップに基づいて、前記立体画像の視差を補正する変換特性を定める設定部と、
    前記変換特性に基づいて前記視差マップを補正する視差変換部と
    を備える画像処理装置の画像処理方法であって、
    前記注目領域推定部が前記注目領域を推定し、
    前記視差検出部が前記視差マップを生成し、
    前記設定部が前記変換特性を定め、
    前記視差変換部が前記視差マップを補正する
    ステップを含む画像処理方法。
  9. ユーザが注目すると推定される立体画像上の注目領域を推定し、
    前記立体画像の視差を検出して、前記立体画像の各領域の視差を示す視差マップを生成し、
    前記注目領域および前記視差マップに基づいて、前記立体画像の視差を補正する変換特性を定め、
    前記変換特性に基づいて前記視差マップを補正する
    ステップを含む処理をコンピュータに実行させるプログラム。
  10. ユーザが注目すると推定される立体画像上の注目領域を推定する注目領域推定部と、
    前記立体画像の視差を検出し、前記立体画像の各領域の視差を示す視差マップを生成する視差検出部と、
    前記注目領域の視差に重みを付けて、前記視差マップにより示される前記立体画像の視差のヒストグラムを生成するヒストグラム生成部と、
    前記ヒストグラムに基づいて、前記立体画像の視差の補正量を示すシフト量を算出するシフト量算出部と、
    前記シフト量に基づいて、前記立体画像を構成する左眼画像または右眼画像の少なくとも一方をシフトさせ、前記立体画像の視差を補正する画像処理部と
    を備える画像処理装置。
  11. ユーザが注目すると推定される立体画像上の注目領域を推定する注目領域推定部と、
    前記立体画像の視差を検出し、前記立体画像の各領域の視差を示す視差マップを生成する視差検出部と、
    前記注目領域の視差に重みを付けて、前記視差マップにより示される前記立体画像の視差のヒストグラムを生成するヒストグラム生成部と、
    前記ヒストグラムに基づいて、前記立体画像の視差の補正量を示すシフト量を算出するシフト量算出部と、
    前記シフト量に基づいて、前記立体画像を構成する左眼画像または右眼画像の少なくとも一方をシフトさせ、前記立体画像の視差を補正する画像処理部と
    を備える画像処理装置の画像処理方法であって、
    前記注目領域推定部が前記注目領域を推定し、
    前記視差検出部が前記視差マップを生成し、
    前記ヒストグラム生成部が前記ヒストグラムを生成し、
    前記シフト量算出部が前記シフト量を算出し、
    前記画像処理部が前記立体画像の視差を補正する
    ステップを含む画像処理方法。
  12. ユーザが注目すると推定される立体画像上の注目領域を推定し、
    前記立体画像の視差を検出して、前記立体画像の各領域の視差を示す視差マップを生成し、
    前記注目領域の視差に重みを付けて、前記視差マップにより示される前記立体画像の視差のヒストグラムを生成し、
    前記ヒストグラムに基づいて、前記立体画像の視差の補正量を示すシフト量を算出し、
    前記シフト量に基づいて、前記立体画像を構成する左眼画像または右眼画像の少なくとも一方をシフトさせ、前記立体画像の視差を補正する
    ステップを含む処理をコンピュータに実行させるプログラム。
  13. 立体画像に対するシーン認識を行なうシーン認識部と、
    前記立体画像の視差を検出し、前記立体画像の各領域の視差を示す視差マップを生成する視差検出部と、
    前記視差マップに基づいて、前記立体画像の視差を補正する変換特性を定める設定部と、
    前記変換特性および前記シーン認識の結果に基づいて前記視差マップを補正する視差変換部と
    を備える画像処理装置。
  14. 立体画像に対するシーン認識を行なうシーン認識部と、
    前記立体画像の視差を検出し、前記立体画像の各領域の視差を示す視差マップを生成する視差検出部と、
    前記視差マップに基づいて、前記立体画像の視差を補正する変換特性を定める設定部と、
    前記変換特性および前記シーン認識の結果に基づいて前記視差マップを補正する視差変換部と
    を備える画像処理装置の画像処理方法であって、
    前記シーン認識部が前記シーン認識を行い、
    前記視差検出部が前記視差マップを生成し、
    前記設定部が前記変換特性を定め、
    前記視差変換部が前記視差マップを補正する
    ステップを含む画像処理方法。
  15. 立体画像に対するシーン認識を行ない、
    前記立体画像の視差を検出して、前記立体画像の各領域の視差を示す視差マップを生成し、
    前記視差マップに基づいて、前記立体画像の視差を補正する変換特性を定め、
    前記変換特性および前記シーン認識の結果に基づいて前記視差マップを補正する
    ステップを含む処理をコンピュータに実行させるプログラム。
JP2011128101A 2011-06-08 2011-06-08 画像処理装置および方法、並びにプログラム Pending JP2012257022A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011128101A JP2012257022A (ja) 2011-06-08 2011-06-08 画像処理装置および方法、並びにプログラム
US13/486,763 US8989482B2 (en) 2011-06-08 2012-06-01 Image processing apparatus, image processing method, and program
CN201210180185.XA CN102821291B (zh) 2011-06-08 2012-06-01 图像处理设备、图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011128101A JP2012257022A (ja) 2011-06-08 2011-06-08 画像処理装置および方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2012257022A true JP2012257022A (ja) 2012-12-27
JP2012257022A5 JP2012257022A5 (ja) 2014-07-24

Family

ID=47293245

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011128101A Pending JP2012257022A (ja) 2011-06-08 2011-06-08 画像処理装置および方法、並びにプログラム

Country Status (3)

Country Link
US (1) US8989482B2 (ja)
JP (1) JP2012257022A (ja)
CN (1) CN102821291B (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016005018A (ja) * 2014-06-13 2016-01-12 株式会社ニコン 画像処理装置、撮像装置および画像処理プログラム
JP2016540401A (ja) * 2013-10-14 2016-12-22 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 3d表示のための深度マップのリマッピング
WO2019225361A1 (ja) * 2018-05-22 2019-11-28 Eizo株式会社 立体画像表示装置、立体画像表示方法及びプログラム
US10817054B2 (en) 2017-09-06 2020-10-27 Samsung Electronics Co., Ltd. Eye watch point tracking via binocular and stereo images
US10943109B2 (en) 2017-09-06 2021-03-09 Samsung Electronics Co., Ltd. Electronic apparatus, method for controlling thereof and the computer readable recording medium
WO2021229679A1 (ja) * 2020-05-12 2021-11-18 日本電信電話株式会社 情報処理装置、情報処理方法、およびプログラム

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014013805A1 (ja) * 2012-07-18 2014-01-23 ソニー株式会社 画像処理装置及び画像処理方法、並びに画像表示装置
US9641821B2 (en) * 2012-09-24 2017-05-02 Panasonic Intellectual Property Management Co., Ltd. Image signal processing device and image signal processing method
JP6376429B2 (ja) * 2012-11-13 2018-08-22 株式会社リコー 対象地点到達検知装置、対象地点到達検知用プログラム、移動体機器制御システム及び移動体
JP6344638B2 (ja) * 2013-03-06 2018-06-20 株式会社リコー 物体検出装置、移動体機器制御システム及び物体検出用プログラム
JP2014206893A (ja) * 2013-04-15 2014-10-30 ソニー株式会社 画像処理装置と画像処理方法およびプログラム
US10212407B2 (en) 2014-10-14 2019-02-19 Koninklijke Philips N.V. Processing a disparity of a three dimensional image
KR102281184B1 (ko) * 2014-11-20 2021-07-23 삼성전자주식회사 영상 보정 방법 및 장치
CN106027905B (zh) * 2016-06-29 2019-05-21 努比亚技术有限公司 一种用于天空对焦的方法和移动终端
CN106101685B (zh) * 2016-07-14 2018-06-19 腾讯科技(深圳)有限公司 一种信息处理方法、穿戴式电子设备、处理装置及系统
JP7269874B2 (ja) * 2016-08-12 2023-05-09 スリーエム イノベイティブ プロパティズ カンパニー 複数の対象とする領域を独立的に処理する方法
CN108960130B (zh) * 2018-06-29 2021-11-16 联想(北京)有限公司 视频文件智能处理方法和装置
CN110149482B (zh) * 2019-06-28 2021-02-02 Oppo广东移动通信有限公司 对焦方法、装置、电子设备和计算机可读存储介质
CN110889672B (zh) * 2019-11-19 2022-04-12 哈尔滨理工大学 一种基于深度学习的学生打卡及上课状态的检测系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08153197A (ja) * 1994-11-28 1996-06-11 Sony Corp 画像処理装置
JP2003209858A (ja) * 2002-01-17 2003-07-25 Canon Inc 立体画像生成方法及び記録媒体
JP2011039455A (ja) * 2009-08-18 2011-02-24 Canon Inc 自動合焦装置、自動合焦方法及びプログラム
JP2011055022A (ja) * 2009-08-31 2011-03-17 Sony Corp 立体画像表示システム、視差変換装置、視差変換方法およびプログラム
WO2011052389A1 (ja) * 2009-10-30 2011-05-05 富士フイルム株式会社 画像処理装置及び画像処理方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US619848A (en) * 1899-02-21 George jb
KR101185870B1 (ko) * 2005-10-12 2012-09-25 삼성전자주식회사 3d 입체 영상 처리 장치 및 방법
WO2008102296A2 (en) * 2007-02-23 2008-08-28 Koninklijke Philips Electronics N.V. Method for enhancing the depth sensation of an image
KR20100040236A (ko) * 2008-10-09 2010-04-19 삼성전자주식회사 시각적 관심에 기반한 2차원 영상의 3차원 영상 변환기 및 변환 방법
JP2011101230A (ja) * 2009-11-06 2011-05-19 Sony Corp 表示制御装置、表示制御方法、プログラム、出力装置、および送信装置
KR101690297B1 (ko) * 2010-04-12 2016-12-28 삼성디스플레이 주식회사 영상 변환 장치 및 이를 포함하는 입체 영상 표시 장치
JP5227368B2 (ja) * 2010-06-02 2013-07-03 パナソニック株式会社 3次元撮像装置
JP5678643B2 (ja) * 2010-12-21 2015-03-04 ソニー株式会社 情報処理装置、情報処理方法およびプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08153197A (ja) * 1994-11-28 1996-06-11 Sony Corp 画像処理装置
JP2003209858A (ja) * 2002-01-17 2003-07-25 Canon Inc 立体画像生成方法及び記録媒体
JP2011039455A (ja) * 2009-08-18 2011-02-24 Canon Inc 自動合焦装置、自動合焦方法及びプログラム
JP2011055022A (ja) * 2009-08-31 2011-03-17 Sony Corp 立体画像表示システム、視差変換装置、視差変換方法およびプログラム
WO2011052389A1 (ja) * 2009-10-30 2011-05-05 富士フイルム株式会社 画像処理装置及び画像処理方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016540401A (ja) * 2013-10-14 2016-12-22 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 3d表示のための深度マップのリマッピング
JP2016005018A (ja) * 2014-06-13 2016-01-12 株式会社ニコン 画像処理装置、撮像装置および画像処理プログラム
US10817054B2 (en) 2017-09-06 2020-10-27 Samsung Electronics Co., Ltd. Eye watch point tracking via binocular and stereo images
US10943109B2 (en) 2017-09-06 2021-03-09 Samsung Electronics Co., Ltd. Electronic apparatus, method for controlling thereof and the computer readable recording medium
WO2019225361A1 (ja) * 2018-05-22 2019-11-28 Eizo株式会社 立体画像表示装置、立体画像表示方法及びプログラム
US11509885B2 (en) 2018-05-22 2022-11-22 Eizo Corporation Stereoscopic image display device, stereoscopic image display method, and program
WO2021229679A1 (ja) * 2020-05-12 2021-11-18 日本電信電話株式会社 情報処理装置、情報処理方法、およびプログラム
JP7406166B2 (ja) 2020-05-12 2023-12-27 日本電信電話株式会社 情報処理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
CN102821291B (zh) 2015-10-28
CN102821291A (zh) 2012-12-12
US8989482B2 (en) 2015-03-24
US20120314933A1 (en) 2012-12-13

Similar Documents

Publication Publication Date Title
JP2012257022A (ja) 画像処理装置および方法、並びにプログラム
JP5750505B2 (ja) 立体映像エラー改善方法及び装置
JP5556394B2 (ja) 立体画像表示システム、視差変換装置、視差変換方法およびプログラム
JP5291755B2 (ja) 立体視画像生成方法および立体視画像生成システム
JP2013527646A5 (ja)
US8817020B2 (en) Image processing apparatus and image processing method thereof
TW201432622A (zh) 產生一關於一影像之深度圖
JP2013005259A (ja) 画像処理装置、および画像処理方法、並びにプログラム
US20130293533A1 (en) Image processing apparatus and image processing method
JPH11275604A (ja) 2次元連続映像の3次元映像変換装置及び方法並びに3次元映像の後処理方法
JP2013172190A (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP2012138787A (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP5669599B2 (ja) 画像処理装置及びその制御方法
KR20110138733A (ko) 2차원에서 3차원으로의 영상 변환 방법 및 장치
JP6610535B2 (ja) 画像処理装置および画像処理方法
US20170309055A1 (en) Adjusting parallax of three-dimensional display material
WO2015129260A1 (ja) 画像処理装置及び画像処理方法
JP6148154B2 (ja) 画像処理装置及び画像処理プログラム
JP5464129B2 (ja) 画像処理装置および視差情報生成装置
JP2013172214A (ja) 画像処理装置、および画像処理方法、並びにプログラム
KR20150037203A (ko) 3차원 입체 영상용 깊이지도 보정장치 및 보정방법
US9736456B1 (en) Two dimensional to three dimensional video conversion
KR20170049042A (ko) 깊이 지도 보정 방법 및 그 장치
JP2013126106A (ja) 画像処理方法、画像処理システムおよび画像処理プログラム
JP6217485B2 (ja) 立体画像生成装置、立体画像生成方法、及び立体画像生成プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140605

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140605

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150423

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20151001