JP2013026826A - 画像処理方法、画像処理装置及び表示装置 - Google Patents

画像処理方法、画像処理装置及び表示装置 Download PDF

Info

Publication number
JP2013026826A
JP2013026826A JP2011159802A JP2011159802A JP2013026826A JP 2013026826 A JP2013026826 A JP 2013026826A JP 2011159802 A JP2011159802 A JP 2011159802A JP 2011159802 A JP2011159802 A JP 2011159802A JP 2013026826 A JP2013026826 A JP 2013026826A
Authority
JP
Japan
Prior art keywords
pixels
disparity
image
region
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011159802A
Other languages
English (en)
Inventor
Takuya Oi
拓哉 大井
Harukazu Komoriya
陽多 小森谷
Takanori Ishikawa
貴規 石川
Kentaro Tsuchiba
健太郎 土場
Tsutomu Nikami
勉 仁紙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011159802A priority Critical patent/JP2013026826A/ja
Priority to CN2012102375262A priority patent/CN103024406A/zh
Priority to US13/546,682 priority patent/US20130021332A1/en
Publication of JP2013026826A publication Critical patent/JP2013026826A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】ディスパリティの抽出エラーを軽減し、高画質な画像を生成する。
【解決手段】原画像を取得することと、前記取得した原画像のうち視差情報が抽出又は取得されない領域の画素に対して、視差情報が抽出又は取得された画素のうち、前記領域の画素に隣接又は近接する2以上の画素の視差情報の大小関係に応じて前記領域の画素の視差情報を生成することと、を含む画像処理方法が提供される。
【選択図】図6

Description

本開示は、画像処理方法、画像処理装置及び表示装置に関する。
左眼用画像(L画像)及び右眼用画像(R画像)のステレオ画像(原画像)と視差情報とを用いて、所望の生成位相の補間画像を生成することが知られている。生成された補間画像は、多視点画像中の一視点画像として立体視可能な表示装置の所定位置に表示される。
原画像の視差情報は、立体画像の奥行き方向の情報を示し、例えばL画像とR画像の水平方向のずれ量をディスパリティとして抽出することにより得られる。ディスパリティは、ステレオ画像を補間する補間画像を生成する際に使用される。しかしながら、L画像とR画像から抽出したディスパリティマップを用いて補間画像を生成する際、ディスパリティの抽出エラーに起因して補間エラーが生じる場合がある。補間エラーの一例としては、既に前景を表す画素が描画されている補間画像の座標を、背景を表す画素で上書きしてしまうことが挙げられる。その結果、補間画像の一部で前景が背景で侵食され、補間画像の画質が劣化する。
そこで、特許文献1では、ディスパリティを用いて画像を生成する際、より奥行き値の大きい、つまり奥側にある画素から書き込むことにより前景の画素を背景の画素で上書きすることを回避する。
特開平2010−78768号公報
しかしながら、特許文献1では、原画像の各画素についてディスパリティの大小関係を比較するため、処理の負荷が高くなり、効率的でない。
また、例えばDPマッチングによりL画像及びR画像のディスパリティを抽出する際、図1に示したように各原画像L,Rにオブジェクトが描画されている場合、L画像及びR画像のディスパリティマップL,Rの領域La,Lbはオクルージョン領域となり、L画像とR画像の左右画像間で対応関係がない。このため、オクルージョン領域では一般的にディスパリティ値が求められていないか、エラーである可能性が高い。よって、このような場合には、特許文献1のように原画像のすべての画素についてディスパリティの大小関係を比較してもディスパリティ自体に抽出エラーが生じる可能性が高いため、前景の画素を背景の画素で上書きする現象を完全には回避できない。
そこで、ディスパリティの抽出エラーを軽減し、高画質な画像を生成することが可能な画像処理方法、画像処理装置及び表示装置が求められていた。
本開示によれば、原画像を取得することと、前記取得した原画像のうち視差情報が抽出又は取得されない領域の画素に対して、視差情報が抽出又は取得された画素のうち、前記領域の画素に隣接又は近接する2以上の画素の視差情報の大小関係に応じて、前記領域の画素の視差情報を生成することと、を含む画像処理方法が提供される。
また、本開示によれば、原画像を取得する取得部と、前記取得した原画像のうち視差情報が抽出又は取得されない領域の画素に対して、視差情報が抽出又は取得された画素のうち、前記領域の画素に隣接又は近接する2以上の画素の視差情報の大小関係に応じて前記領域の画素の視差情報を生成する生成部と、を備える画像処理装置が提供される。
また、本開示によれば、原画像を取得する取得部と、前記取得した原画像のうち視差情報が抽出又は取得されない領域の画素に対して、視差情報が抽出又は取得された画素のうち、前記領域の画素に隣接又は近接する2以上の画素の視差情報の大小関係に応じて前記領域の画素の視差情報を生成する生成部と、前記生成された視差情報を用いて前記原画像の表示を制御する表示制御部と、を備える表示装置が提供される。
以上説明したように、本開示の画像処理によれば、ディスパリティの抽出エラーを軽減し、高画質な画像を生成することができる。
ディスパリティマップ中のオクルージョン領域を示した図である。 比較例及び本開示の実施形態に係るオクルージョン領域の補間方法を説明するための図である。 図2の補間方法によるオクルージョン領域の補間結果を示した図である。 本開示の実施形態に係る画像処理装置の機能構成図である。 本開示の実施形態にて実行される画像処理を示したフローチャートである。 本開示の実施形態にて実行されるディスパリティマップ生成処理を示したフローチャートである。 補間前及び補間後のディスパリティ値の一例を示した図である。 変形例1に係るオクルージョン領域の補間方法を説明するための図である。 変形例1に係る補間方法を説明するための図である。 変形例2に係るオクルージョン領域の補間方法を説明するための図である。 変形例2に係る補間方法を説明するための図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.はじめに
1.1.ディスパリティとオクルージョン
2.本開示の実施形態
2.1.オクルージョン領域の補間方法の比較
2.2.比較結果
2.3.画像処理装置の機能
2.4.画像処理装置の動作
2.5.効果の例
3.変形例1
4.変形例2
<1.はじめに>
[1.1.ディスパリティとオクルージョン]
はじめに、ディスパリティとオクルージョン領域について簡単に説明する。原画像であるL画像及びR画像の視差情報は、立体画像の奥行き方向の情報を示し、例えばL画像及びR画像の水平方向のずれ量をディスパリティとして抽出することにより得られる。なお、以下では、ディスパリティマップを視差情報として抽出するが、必ずしもマップ形式にする必要はない。また、視差情報は、L画像及びR画像の水平方向のずれ量を示したディスパリティに限られず、L画像及びR画像の垂直方向のずれ量や、その他の奥行き情報であってもよい。
例えばDPマッチングによりL画像及びR画像のディスパリティマップを生成する際、図1に示したディスパリティマップL,Rの領域La,Lbは、オクルージョン領域、つまり前景にオブジェクトが存在するためにカメラで視認できない領域となる。このようなオクルージョン領域ではL画像とR画像の左右画像間で対応関係がない。このため、オクルージョン領域では、一般的にディスパリティ値が求められていないか(この場合にはディスパリティ値に初期値が設定されている)、エラーである可能性が高く、補間画像を生成する際、そもそも画像生成のための計算ができず補間画像が破綻してしまう。このように、オクルージョンエリアのディスパリティ値をそのまま使用して補間画像を生成すると、前景の画素を背景の画素で上書きするという現象だけでなく補間画像が破綻するという現象が生じる。そこで、以下では、まず、ディスパリティの抽出エラーをより軽減するためのオクルージョン領域の補間方法について説明する。
<2.本開示の実施形態>
[2.1.オクルージョン領域の補間方法の比較]
図2は、原画像の水平方向の任意のラインにおけるX座標に対するディスパリティ値を示した図である。図2の上側は比較例に係る補間方法を示し、下側は本開示の実施形態に係る補間方法を示す。上側の比較例では、オクルージョン領域をその左右のディスパリティ値に直線的につなげ、この線形補間によりオクルージョン領域のディスパリティを推定する。
一方、下側の本開示の実施形態では、オクルージョン領域の左右を探索し、左右のディスパリティ値を取得する。取得された左右のディスパリティ値の大小関係からより奥側を示すディスパリティ値を特定し、その値をオクルージョン領域のディスパリティ値とする。本開示の実施形態では、左右のディスパリティ値のうち小さいほうの値がより奥側を示すと定義している。よって、左右のディスパリティ値のうち小さいほうの値、例えば図2では左のディスパリティ値をオクルージョン領域のディスパリティ値と推定する。
ただし、ディスパリティ値の大小関係と前景または背景の判断は、ディスパリティ値を表す数値の定義の仕方によって変わってくる。例えば、本実施形態とは逆に、前景を示す数値が背景を示す数値より小さい値になるようにディスパリティ値を定義した場合には、ディスパリティ値の大小関係と前述した制御との関係は反対になる。つまり、左右のディスパリティ値のうち大きいほうの値がより奥側を示すから、左右のディスパリティ値のうち大きいほうの値、例えば図2では右のディスパリティ値をオクルージョン領域のディスパリティ値と推定する。
なお、図2には、ディスパリティマップの一水平ラインのみが示されているが、原画像が有する水平ラインの数だけディスパリティ抽出処理が実行され、オクルージョン領域が存在するライン毎に補間処理が実行される。
[2.2.比較結果]
図3は、図2に示した2つのオクルージョン領域の補間方法の結果を示す。結果を比較すると、上側の比較例の場合、オクルージョン領域において前景のオブジェクトと背景との境界ラインがぼやけている。これに対して、下側の本開示の実施形態の場合、前景のオブジェクトと背景との境界ラインが明瞭であり、前景が背景で上書きされておらずディスパリティの抽出エラーが回避されている。以上から本開示の実施形態によるオクルージョン領域の補間方法を用いれば、オクルージョン領域のディスパリティ値をより正確に特定でき、高画質な画像を生成することができることがわかる。
よって、以下では、本開示の実施形態によるオクルージョン領域の補間方法(画像処理方法)を用いた画像処理装置の機能、動作について順に説明する。
[2.3.画像処理装置の機能]
まず、本開示の実施形態に係る画像処理装置の機能構成について、図4を参照しながら説明する。本開示の実施形態に係る画像処理装置10は、取得部105、生成部110、画像処理部115、記憶部120及び表示制御部125を有する。
取得部105は、コンテンツのL画像及びR画像のステレオ画像(原画像)を取得する。取得可能なコンテンツの情報としては、ステレオ画像の映像信号のみの場合や、CG(Computer Graphics)のようにステレオ画像の映像信号とディスパリティ情報の場合がある。
取得部105がL画像及びR画像を取得すると、生成部110は、L画像及びR画像の水平方向のずれ量からディスパリティ値を抽出し、ディスパリティマップを生成する。
ただし、ディスパリティマップは視差情報の一例であり、視差情報は必ずしもマップ形式にする必要はない。生成部110は、取得したステレオ画像のうちディスパリティが抽出又は取得されないオクルージョン領域の画素に対して補間処理を行う。具体的には、生成部110は、オクルージョン領域に隣接する、左右の画素のディスパリティの大小関係に応じてオクルージョン領域の画素のディスパリティを特定する。
なお、取得部105がステレオ画像とともにディスパリティを取得した場合にも、生成部110は、オクルージョン領域が存在する場合には、本実施形態に係る補間方法に従ったディスパリティを抽出する。これにより、ディスパリティの抽出エラーを軽減し、高画質な画像を生成することができる。
画像処理部115は、L画像及びR画像のステレオ画像と各画像のディスパリティマップから所望のフェース(生成位相)の補間画像を生成する。
記憶部120は、生成されたディスパリティマップや補間画像を記憶する。
表示制御部125は、生成されたディスパリティ値を用いて原画像及び補間画像の表示を制御する。これにより、多視点画像をディスプレイに立体視可能に表示することができる。ただし、ディスプレイは、生成された多視点画像のコンテンツを必ずしも立体視可能に表示する必要はなく、2D表示してもよい。ディスプレイは、3D表示及び2D表示が切り替えにより可能なディスプレイであってもよく、所定の領域毎に3D表示及び2D表示が同時に可能なディスプレイであってもよい。
なお、生成部110、画像処理部115及び表示制御部125の機能は、例えば、図示しないCPU(Central Processing Unit)が記憶部120に格納されたプログラムに従って動作することによって実現され得る。このプログラムは、記憶媒体に格納して提供され、図示しないドライバを介して記憶部120に読み込まれるものであってもよく、また、ネットワークからダウンロードされて記憶部120に格納されるものであってもよい。また、上記各部の機能を実現するために、CPUに代えてDSP(Digital Signal Processor)が用いられてもよい。記憶部120は、例えば半導体メモリ、磁気ディスク、または光学ディスクなどを用いるRAM(Random Access Memory)またはROM(Read Only Memory)として実現されうる。また、上記各部の機能は、ソフトウエアを用いて動作することにより実現されてもよく、ハードウエアを用いて動作することにより実現されてもよい。
[2.4.画像処理装置の動作]
次に、図5を参照して、実施形態に係る画像処理装置10の動作について説明する。図5は、本開示の一実施形態に係る画像処理を示すフローチャートである。
本画像処理が始まると、ステップS205にて、取得部105は、L画像及びR画像のステレオ画像を取得する。次に、ステップS210にて、生成部110は、L画像及びR画像からディスパリティを生成する。具体的な生成処理を図6に示す。
ディスパリティマップ生成処理では、生成部110は、ステップS305にて、ディスパリティを抽出するか、取得部105が取得したディスパリティ値を入力する。例えば、生成部110は、L画像のディスパリティマップとR画像のディスパリティマップとを生成する。例えば、図7の上側には、オクルージョン領域に対する補間前のL画像(又はR画像)のディスパリティ値が示されている。ディスパリティは、L画像及びR画像のずれ量を示すから、例えばディスパリティ値が「20」の場合には、「20」で示されたディスパリティに対応するL画像の映像情報と、L画像の座標から水平方向に20画素ずれたR画像の「20」で示されたディスパリティに対応するR画像の映像情報とが同じ映像であることを示している。また、本実施形態では、ディスパリティ値「0」は背景を示し、対応するL画像及びR画像のずれはなく、それより大きい数のディスパリティ値に対応する画像ほど前景を示す。また、本実施形態では、ディスパリティ値の初期値は「−1」として示されているが、初期値はこれに限らない。
ステップS310では、左端の画素から処理が開始される。例えば、図7の上側の水平ライン(補間前のディスパリティ値)では、画素NO.が「1」の左端の画素のディスパリィが抽出される。ステップS315で、生成部110は、左端の画素がオクルージョン領域かを判定する。オクルージョン領域かの判定は、ディスパリティ値が初期値である「−1」であるかにより判定される。オクルージョン領域は、L画像又はR画像のいずれか一方の画像に対して対応する画像が存在しないため、ディスパリティ値を生成できない領域であるから、ディスパリティ値は、当然、初期値「−1」のままである。
よって、ディスパリティ値が「−1」でないと判定された場合、生成部110は、オクルージョン領域外であり補間処理は不要と判断し、ステップS320にて、判定対象画素を一画素右へ進める。このようにして、ディスパリティ値が「−1」であると判定されるまで、判定対象画素を一画素右へ進めながらステップS315,320の処理を繰り返す。
図7の上側の水平ラインでは、画素No.が「7」になるまでステップS315,320の処理を繰り返し、「7」になったときに生成部110は、ディスパリティ値が「−1」であると判定して、オクルージョン領域のディスパリティ値の補間処理を行うためにステップS325に進む。
ステップS325では、生成部110は、まず、オクルージョン領域に隣接する左右のディスパリティの大小関係を比較するために、オクルージョン領域に隣接する左側の画素、つまり、画素No.6のディスパリティ値をLeft_dspvalに保存する。次に、ステップS330にて、生成部110は、判定対象画素を一画素右へ進め、ステップS335にて、判定対象画素がオクルージョン領域かを判定する。ディスパリティ値が「−1」であると判定された場合、オクルージョン領域であるからステップS330に戻り、ディスパリティ値が「−1」でないと判定されるまで、生成部110は、判定対象画素を一画素右へ進めながらステップS330,335の処理を繰り返す。
ディスパリティ値が「−1」でないと判定された場合、ステップS340に進み、生成部110は、オクルージョン領域に隣接する右側の画素、つまり、画素No.11のディスパリティ値をRight_dspvalに保存する。次に、生成部110は、ステップS345にて、オクルージョン領域に隣接する左右とのディスパリティLeft_dspval、Right_dspvalの大小関係を判定する。判定の結果、Left_dspvalがRight_dspvalより小さい場合、生成部110は、オクルージョン領域に隣接する左側の画素が背景、オクルージョン領域に隣接する右側の画素が前景と判定し、ステップS350に進んで、オクルージョン領域のディスパリティ値に背景と判定されたLeft_dspvalの値を代入する。一方、判定の結果、Right_dspvalがLeft_dspvalより小さい場合、生成部110は、オクルージョン領域に隣接する右側の画素が背景、オクルージョン領域に隣接する左側の画素が前景と判定し、ステップS355に進んで、オクルージョン領域のディスパリティ値に背景と判定されたRight _dspvalの値を代入する。
図7の上側の場合、画素No.6のLeft_dspvalは「0」、画素No.11のRight_dspvalは「20」である。よって、生成部110は、オクルージョン領域に隣接する左側の画素No.6が背景、オクルージョン領域に隣接する右側の画素No.11が前景と判定し、オクルージョン領域のディスパリティ値に、背景と判定されたLeft_dspvalの値「0」を代入する。この結果、図7の下側の水平ラインに示した補間後のオクルージョン領域のディスパリティ値は、オクルージョン領域に隣接する左側の画素No.6と同じ値である「0」に変更される。この結果、オクルージョン領域のディスパリティ抽出エラーによりオクルージョン領域にて前景が背景にて上書きされ、侵食されることを回避できる。
次に、図6のステップS360に進み、生成部110は、オクルージョン領域において、オクルージョン領域の右画素のディスパリティ値を左画素のディスパリティ値Left_dspvalに代入し、保存する。次に、ステップS365に進み、生成部110は、同ラインのさらに右側に画素があるかを判定する。画素がある場合、生成部110は、ステップS370にて判定対象画素を一画素右へ進め、ステップS315に戻り、ステップS365にて同ラインのさらに右側に画素がないと判定されるまでステップS315〜S370の処理を繰り返し、ステップS365にて同ラインのさらに右側に画素がないと判定されたとき、本処理を終了する。
以上のオクルージョン領域の補間処理をL画像及びR画像のディスパリティ生成に適用した後、図5に戻って、ステップS215のL画像の補間画像生成処理及びステップS220のR画像の補間画像生成処理を実行する。具体的には、画像処理部115は、L画像及びR画像のステレオ画像と各画像のディスパリティマップから所望のフェース(生成位相)の補間画像を生成し、本処理を終了する。生成されたディスパリティマップや補間画像は記憶部120に記憶される。
[2.5.効果の例]
前述したように、オクルージョン領域ではディスパリティ値が正確に求められない可能性が高い。一方、オクルージョン領域は、前景のオブジェクトに隠れた背景領域である可能性が高い。この原理に基づき、オクルージョン領域の左右を探索してオクルージョン領域に隣接するディスパリティ有効領域を特定し、ディスパリティ有効領域の左右どちらかのより奥側のディスパリティ値をオクルージョン領域のディスパリティ値に代入する。
このようにして、左右のディスパリティ値の大小関係からよい奥側を示すディスパリティ値を特定し、その値をオクルージョン領域のディスパリティ値とすることにより、例えば図3に示したように、前景のオブジェクトと背景との境界ラインが明瞭となり、前景が背景で上書きされておらずディスパリティの抽出エラーが軽減される。従って、本開示の実施形態によるオクルージョン領域の補間方法を用いれば、オクルージョン領域のディスパリティ値をより正確に特定でき、高画質な画像を生成及び表示することができる。
なお、本実施形態では、オクルージョン領域の左右を探索してオクルージョン領域に隣接するディスパリティ有効領域の画素(図7では、No.6及びNo.11の画素)のディスパリティ値の大小関係により奥側のディスパリティ値をオクルージョン領域のディスパリティ値に代入した。しかし、これに限らず、オクルージョン領域に近接する画素、例えば図7では、No.5及びNo.12の画素等のディスパリティ値のどちらかのより奥側のディスパリティ値をオクルージョン領域のディスパリティ値に代入してもよい。
また、本実施形態では、オクルージョン領域の左右を探索したが、これに限らず、オクルージョン領域の上下を探索してオクルージョン領域に隣接又は近接する画素のディスパリティ値の大小関係により奥側のディスパリティ値をオクルージョン領域のディスパリティ値に代入してもよい。
<3.変形例1>
以下では、上述した本開示の実施形態の変形例1について、図8及び図9を参照しながら説明する。本開示の上記実施形態では、図2の下側に示したように、オクルージョン領域のディスパリティ値を左右のディスパリティ値のうちの奥側のディスパリティ値とすべて同値にした。しかしながら、変形例1のように、図8に示したように、オクルージョン領域のディスパリティ値をベジエ曲線を用いて補間してもよい。
具体的には、生成部110は、オクルージョン領域とその両端のディスパリティ値(P0,P1,P2,P3の座標のディスパリティ値)を用いて、オクルージョン領域をベジエ曲線を用いて補間する。ここでは、P0,P1,P2,P3の4つの制御点で示される3次のベジエ曲線を用いた図9を参照しながら、ベジエ曲線のアルゴリズムについて説明する。
P0,P1,P2,P3は、与えられた制御点である。今、ベジエ曲線のP0からt(0<t<1)の比率の位置の点の座標を求めるために、次のような計算を行う。
1.まず、制御点を順に結んで得られる3つの線分P0−P1、P1−P2、P2−P3をそれぞれt:1−tの比率で分割する点P4,P5,P6を算出する。
2.次に、これらの点を順に結んで得られる2つの線分P4−P5、P5−P6を再びそれぞれt:1−tの比率で分割する点P7,P8を算出する。
3.最後に、この2点を結ぶ線分P7−P8を再びt:1−tの比率で分割する点P9を算出する。求められた点P9が、ベジエ曲線上の点となる。
4.1〜3の処理を0<t<1の範囲で繰り返し行うことにより、P0,P1,P2,P3を制御点とする3次のベジエ曲線が得られる。
本変形例1によれば、本実施形態にかかる水平線又は比較例にかかる斜めリニア線でオクルージョン領域を補間する方法と比べて、なめらかに奥行きの変化を表現でき、オクルージョン領域のディスパリティ値に抽出エラーが生じてしまった場合にも、急激にディスパリティ値が変化しない分、補間画像エラーを目立たなくできる。また、比較例にかかる斜めリニア線で補間する方法と比べて、前景が背景で上書きされる確率を低くすることができ、ディスパリティの抽出エラーを低減することができるとともに、オクルージョン領域の両端のディスパリティ値の違いによりリニア線の傾斜が大きな値をとる場合にもスムーズに補間できる。
<4.変形例2>
以下では、上述した本開示の実施形態の変形例2について、図10及び図11を参照しながら説明する。変形例1ではベジエ曲線を用いてオクルージョン領域のディスパリティ値が推定されたが、変形例2では、図10に示したように、シグモイド曲線を用いてオクルージョン領域のディスパリティ値が推定される。
ここでは、シグモイド曲線について説明する。シグモイド関数(sigmoid function)は、図11の式(1)で表される実関数であり、上側のグラフに示した曲線で表される(ゲイン5の場合のシグモイド曲線)。なお、式(1)のaをゲインと呼ぶ。
狭義には、シグモイド関数は、図11の式(2)で表されるゲインaが1の標準シグモイド関数(standard sigmoid function)を指し、下側のグラフに示した曲線で表される。
以下では、広義のシグモイド関数について述べる。標準シグモイド関数については、a=1を代入すればよい。
シグモイド(sigmoid)とは、シグモイド曲線(sigmoid curve)ともいい、ギリシャ文字のシグマσ(式(1)及び式(2)では「S」)に似た形という意味である。ただし、単にシグモイド又はシグモイド曲線といった場合には、シグモイド関数と似た性質を持つ型の関数(累積正規分布関数、ゴンベルツ関数等)を総称するのが普通である。
本変形例2によれば、オクルージョン領域の両端の傾斜が水平の場合、水平線、又は斜めリニア線でオクルージョン領域を補間する方法と比べて、なめらかに補間でき、なめらかに奥行きの変化を表現できる。よって、オクルージョン領域の両端のオブジェクト境界がオクルージョン領域の中央にあると思われる場合にも、補間画像の生成エラーを目立たなくすることができ、より高画質な補間画像を生成することができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記実施形態では、水平方向のずれ量をディスパリティとして抽出したが、本技術はこれに限られない。例えば、本技術では、垂直方向のずれ量をディスパリティとして抽出してもよい。
例えば、上記実施形態では、左眼用画像(L画像)及び右眼用画像(R画像)は原画像の一例であって、本開示は、これに限られず、異なる角度で撮像された2つの画像であればよい。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)原画像を取得することと、
前記取得した原画像のうち視差情報が抽出又は取得されない領域の画素に対して、視差情報が抽出又は取得された画素のうち、前記領域の画素に隣接又は近接する2以上の画素の視差情報の大小関係に応じて前記領域の画素の視差情報を生成することと、
を含む画像処理方法。
(2)前記領域の画素の視差情報は、
前記取得した原画像のうち視差情報が抽出又は取得されない領域の画素に対して、該領域の画素と同じラインの視差情報が抽出又は取得された画素のうち、前記領域の画素に隣接する両側の画素の視差情報の大小関係に応じて生成される、前記(1)に記載の画像処理方法。
(3)前記視差情報の大小関係から、前記領域の画素に隣接又は近接する両側の画素の映像情報の奥行き方向の前後関係を判定し、
一方の側の画素の映像情報が他方の側の画素の映像情報より背景であると判定された場合、前記一方の側の画素の視差情報を前記領域の画素の視差情報とする前記(1)又は(2)に記載の画像処理方法。
(4)前記領域の画素の視差情報は、前記取得した原画像の水平方向のライン毎に生成される前記(1)〜(3)のいずれか一項に記載の画像処理方法。
(5)前記視差情報生成部は、前記領域の画素の視差情報を生成することにより、前記取得した原画像に応じたディスパリティマップを作成する前記(1)〜(4)のいずれか一項に記載の画像処理方法。
(6)前記視差情報の大小関係から、ベジエ曲線又はシグモイド曲線を用いて前記領域の画素の視差情報を生成する前記(1)、(2)(4)、(5)のいずれか一項に記載の画像処理方法。
(7)原画像を取得する取得部と、
前記取得した原画像のうち視差情報が抽出又は取得されない領域の画素に対して、視差情報が抽出又は取得された画素のうち、前記領域の画素に隣接又は近接する2以上の画素の視差情報の大小関係に応じて前記領域の画素の視差情報を生成する生成部と、
を備える画像処理装置。
(8)原画像を取得する取得部と、
前記取得した原画像のうち視差情報が抽出又は取得されない領域の画素に対して、視差情報が抽出又は取得された画素のうち、前記領域の画素に隣接又は近接する2以上の画素の視差情報の大小関係に応じて前記領域の画素の視差情報を生成する生成部と、
前記生成された視差情報を用いて前記原画像の表示を制御する表示制御部と、
を備える表示装置。
10 画像処理装置
105 取得部
110 生成部
115 画像処理部
120 記憶部
125 画像処理部

Claims (8)

  1. 原画像を取得することと、
    前記取得した原画像のうち視差情報が抽出又は取得されない領域の画素に対して、視差情報が抽出又は取得された画素のうち、前記領域の画素に隣接又は近接する2以上の画素の視差情報の大小関係に応じて前記領域の画素の視差情報を生成することと、
    を含む画像処理方法。
  2. 前記領域の画素の視差情報は、
    前記取得した原画像のうち視差情報が抽出又は取得されない領域の画素に対して、該領域の画素と同じラインの視差情報が抽出又は取得された画素のうち、前記領域の画素に隣接する両側の画素の視差情報の大小関係に応じて生成される、請求項1に記載の画像処理方法。
  3. 前記視差情報の大小関係から、前記領域の画素に隣接又は近接する両側の画素の映像情報の奥行き方向の前後関係を判定し、
    一方の側の画素の映像情報が他方の側の画素の映像情報より背景であると判定された場合、前記一方の側の画素の視差情報を前記領域の画素の視差情報とする請求項1に記載の画像処理方法。
  4. 前記領域の画素の視差情報は、前記取得した原画像の水平方向のライン毎に生成される請求項1に記載の画像処理方法。
  5. 前記視差情報生成部は、前記領域の画素の視差情報を生成することにより、前記取得した原画像に応じたディスパリティマップを作成する請求項1に記載の画像処理方法。
  6. 前記視差情報の大小関係から、ベジエ曲線又はシグモイド曲線を用いて前記領域の画素の視差情報を生成する請求項1に記載の画像処理方法。
  7. 原画像を取得する取得部と、
    前記取得した原画像のうち視差情報が抽出又は取得されない領域の画素に対して、視差情報が抽出又は取得された画素のうち、前記領域の画素に隣接又は近接する2以上の画素の視差情報の大小関係に応じて前記領域の画素の視差情報を生成する生成部と、
    を備える画像処理装置。
  8. 原画像を取得する取得部と、
    前記取得した原画像のうち視差情報が抽出又は取得されない領域の画素に対して、視差情報が抽出又は取得された画素のうち、前記領域の画素に隣接又は近接する2以上の画素の視差情報の大小関係に応じて前記領域の画素の視差情報を生成する生成部と、
    前記生成された視差情報を用いて前記原画像の表示を制御する表示制御部と、
    を備える表示装置。
JP2011159802A 2011-07-21 2011-07-21 画像処理方法、画像処理装置及び表示装置 Withdrawn JP2013026826A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011159802A JP2013026826A (ja) 2011-07-21 2011-07-21 画像処理方法、画像処理装置及び表示装置
CN2012102375262A CN103024406A (zh) 2011-07-21 2012-07-09 图像处理方法、图像处理装置以及显示装置
US13/546,682 US20130021332A1 (en) 2011-07-21 2012-07-11 Image processing method, image processing device and display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011159802A JP2013026826A (ja) 2011-07-21 2011-07-21 画像処理方法、画像処理装置及び表示装置

Publications (1)

Publication Number Publication Date
JP2013026826A true JP2013026826A (ja) 2013-02-04

Family

ID=47555461

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011159802A Withdrawn JP2013026826A (ja) 2011-07-21 2011-07-21 画像処理方法、画像処理装置及び表示装置

Country Status (3)

Country Link
US (1) US20130021332A1 (ja)
JP (1) JP2013026826A (ja)
CN (1) CN103024406A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105247860B (zh) * 2013-06-05 2017-12-19 索尼公司 图像处理设备及图像处理方法
US10789723B1 (en) * 2018-04-18 2020-09-29 Facebook, Inc. Image object extraction and in-painting hidden surfaces for modified viewpoint rendering

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100505334B1 (ko) * 2003-03-28 2005-08-04 (주)플렛디스 운동 시차를 이용한 입체 영상 변환 장치
KR100950046B1 (ko) * 2008-04-10 2010-03-29 포항공과대학교 산학협력단 무안경식 3차원 입체 tv를 위한 고속 다시점 3차원 입체영상 합성 장치 및 방법
JP5238429B2 (ja) * 2008-09-25 2013-07-17 株式会社東芝 立体映像撮影装置および立体映像撮影システム
WO2010048632A1 (en) * 2008-10-24 2010-04-29 Real D Stereoscopic image format with depth information
JP5497758B2 (ja) * 2009-06-26 2014-05-21 パナソニック株式会社 立体視画像表示装置
WO2011014419A1 (en) * 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for creating three-dimensional (3d) images of a scene
CN102074020B (zh) * 2010-12-31 2012-08-15 浙江大学 对视频进行多体深度恢复和分割的方法

Also Published As

Publication number Publication date
US20130021332A1 (en) 2013-01-24
CN103024406A (zh) 2013-04-03

Similar Documents

Publication Publication Date Title
KR101429349B1 (ko) 중간 시점 영상 합성 장치 및 방법과 이에 관한 기록매체
US9153032B2 (en) Conversion method and apparatus with depth map generation
JP6016061B2 (ja) 画像生成装置、画像表示装置及び画像生成方法並びに画像生成プログラム
KR102538939B1 (ko) 텍스처 맵들 및 메시들에 기초한 3d 이미지 정보의 처리
JP2005235211A (ja) 中間時点の画像合成方法及びそれを適用した3dディスプレイ装置
KR102581134B1 (ko) 광 강도 이미지를 생성하기 위한 장치 및 방법
KR101415147B1 (ko) 가상시점 영상 생성을 위한 경계 잡음 제거 및 홀 채움 방법
CN103731657B (zh) 一种对dibr算法处理后的含有空洞影像的空洞填充处理方法
Liu et al. Arbitrary view generation based on DIBR
JP2013026826A (ja) 画像処理方法、画像処理装置及び表示装置
CN103945206A (zh) 一种基于相似帧比较的立体图像合成系统
CN108696731A (zh) 一种裸眼3d显示技术中的空洞填充方法
JP2012235338A (ja) 画像処理方法、画像処理装置及び表示装置
Ramachandran et al. Multiview synthesis from stereo views
JP2014071870A (ja) 仮想視点画像合成装置、仮想視点画像合成方法及び仮想視点画像合成プログラム
US20160286198A1 (en) Apparatus and method of converting image
Liu et al. Texture-adaptive hole-filling algorithm in raster-order for three-dimensional video applications
Caviedes et al. Real time 2D to 3D conversion: Technical and visual quality requirements
Li et al. An improved virtual view rendering method based on depth image
Wang et al. A novel approach for depth image based rendering, based on non-linear transformation of depth values
Liu et al. 3D video rendering adaptation: a survey
KR101378190B1 (ko) 거리변환 기반 양측 보간을 이용하여 저 해상도 깊이 맵으로부터 고 해상도 깊이 맵을 생성하는 방법 및 이를 기록한 기록매체
Liu et al. Hole-filling based on disparity map for DIBR
KR20120073804A (ko) 영상 처리 장치 및 방법
Cho et al. Occlusion detection and filling in disparity map for multiple view synthesis

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141007