JP2015019204A - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP2015019204A
JP2015019204A JP2013144504A JP2013144504A JP2015019204A JP 2015019204 A JP2015019204 A JP 2015019204A JP 2013144504 A JP2013144504 A JP 2013144504A JP 2013144504 A JP2013144504 A JP 2013144504A JP 2015019204 A JP2015019204 A JP 2015019204A
Authority
JP
Japan
Prior art keywords
image
depth
current frame
pixel
generation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013144504A
Other languages
English (en)
Inventor
浩典 森
Hironori Mori
浩典 森
功久 井藤
Norihisa Ito
功久 井藤
健吾 早坂
Kengo Hayasaka
健吾 早坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013144504A priority Critical patent/JP2015019204A/ja
Priority to US14/320,833 priority patent/US9262839B2/en
Priority to CN201410315682.5A priority patent/CN104284192B/zh
Publication of JP2015019204A publication Critical patent/JP2015019204A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】前のフレームの奥行き画像を用いて高速に奥行き画像を生成することができるようにする。【解決手段】奥行き生成部は、カレントフレームの画像とカレントフレームより前のフレームの画像とに基づいて、前のフレームの画像の被写体の奥行き方向の位置を表す奥行き画像を、カレントフレームの奥行き画像として生成する。本開示は、例えば、複数の視点のうちの基準となる1つの視点である基準視点の画像と基準視点以外の視点である周辺視点の画像とを用いて基準視点の奥行き画像を生成する画像処理装置等に適用することができる。【選択図】図1

Description

本開示は、画像処理装置および画像処理方法に関し、特に、前のフレームの奥行き画像を用いて高速に奥行き画像を生成することができるようにした画像処理装置および画像処理方法に関する。
複数の視点の画像を用いて生成される画像の被写体の奥行き方向の位置を表す奥行き画像を用いた画像認識により、人間の腕や手、指などの動きを高精度に検出し、その動きを様々なアプリケーションのユーザーインターフェースとして利用する技術が提案されている。
このような技術では、高精度な奥行き画像が必要とされるため、画素単位よりもさらに細かいサブ画素単位で奥行き方向の位置を検出することが望ましい。サブ画素単位で奥行き方向の位置を検出する方法としては、例えば、複数の視点の画像を線形補間などによって疑似的に高解像度化し、高解像度化後の複数の視点の画像を用いて奥行き方向の位置を検出する方法がある。
また、画素単位で検出された奥行き方向の位置を表す関数に基づいて、サブ画素単位の奥行き方向の位置を内挿する方法もある。さらに、位相限定相関法によりサブ画素単位で奥行き方向の位置を検出する方法もある(例えば、特許文献1参照)。
しかしながら、サブ画素単位で奥行き方向の位置を検出する場合、画素単位で奥行き方向の位置を検出する場合に比べて計算量が増加する。従って、サブ画素単位の奥行き方向の位置の検出が画面全体に対して行われる場合、検出時間が長くなり、高フレームレートで奥行き画像を生成することはできない。よって、上述した技術において、人間の腕や手、指などの動きをユーザーインターフェースとして十分に利用することは難しい。
一方、動きベクトルを利用して、動きベクトルが大きい領域の被写体の奥行き方向の位置は手前側の位置であり、動きベクトルが小さい領域の被写体の奥行き方向の位置は奥側の位置であるとして、容易に奥行き画像を生成する方法が提案されている(例えば、特許文献2および特許文献3参照)。
特開2013−19801号公報 特開2000−261828号公報 特開2012−109788号公報
上述したように、サブ画素単位の奥行き方向の位置の検出が画面全体に対して行われる場合、検出時間が長くなる。従って、奥行き方向の位置の検出を画面の少なくとも一部に対して行わないようにすることで、高速に奥行き画像を生成することが望まれている。
本開示は、このような状況に鑑みてなされたものであり、前のフレームの奥行き画像を用いて高速に奥行き画像を生成することができるようにするものである。
本開示の一側面の画像処理装置は、カレントフレームの画像と前記カレントフレームより前のフレームの画像とに基づいて、前記前のフレームの画像の被写体の奥行き方向の位置を表す奥行き画像を、前記カレントフレームの奥行き画像として生成する奥行き生成部を備える画像処理装置である。
本開示の一側面の画像処理方法は、本開示の一側面の画像処理装置に対応する。
本開示の一側面においては、カレントフレームの画像と前記カレントフレームより前のフレームの画像とに基づいて、前記前のフレームの画像の被写体の奥行き方向の位置を表す奥行き画像が、前記カレントフレームの奥行き画像として生成される。
なお、本開示の一側面の画像処理装置は、コンピュータにプログラムを実行させることにより実現することができる。
また、本開示の一側面の画像処理装置を実現するために、コンピュータに実行させるプログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。
本開示の一側面によれば、前のフレームの奥行き画像を用いて高速に奥行き画像を生成することができる。
本開示を適用した画像処理装置の第1実施の形態の構成例を示すブロック図である。 予測生成部による予測奥行き画像の生成について説明する図である。 図1の画像処理装置の奥行き画像生成処理を説明するフローチャートである。 図3の生成処理の詳細を説明するフローチャートである。 本開示を適用した画像処理装置の第2実施の形態の構成例を示すブロック図である。 図5の奥行き生成部により設定される探索範囲を説明する図である。 図5の奥行き生成部の生成処理を説明するフローチャートである。 本開示を適用した画像処理装置の第3実施の形態の構成例を示すブロック図である。 図8の奥行き生成部81の生成処理を説明するフローチャートである。 動き量と探索範囲のサイズの関係の例を示す図である。 本開示を適用した画像処理装置の第4実施の形態の構成例を示すブロック図である。 前フレームと現在のフレームの基準視点の画像の差分の例を示す図である。 奥行き値を生成する頻度の例を示す図である。 図11の画像処理装置の奥行き画像生成処理を説明するフローチャートである。 図14の生成処理の詳細を説明するフローチャートである。 第1乃至第4実施の形態の処理をまとめた表を示す図である。 本開示を適用した符号化装置の一実施の形態の構成例を示すブロック図である。 復号装置の一実施の形態の構成例を示すブロック図である。 コンピュータのハードウエアの構成例を示すブロック図である。
<第1実施の形態>
(本開示を適用した画像処理装置の第1実施の形態の構成例)
図1は、本開示を適用した画像処理装置の第1実施の形態の構成例を示すブロック図である。
図1の画像処理装置10は、基準画像取得部11、周辺画像取得部12、検出部13、フレームメモリ14、予測生成部15、および奥行き生成部16により構成される。画像処理装置10は、複数の視点の画像を用いて、それらの視点のうちの基準となる1つの視点である基準視点のサブ画素単位の奥行き画像を生成する。
具体的には、画像処理装置10の基準画像取得部11は、現在のフレーム(カレントフレーム)の基準視点の画像を取得する。基準画像取得部11は、現在のフレームの基準視点の画像を検出部13と奥行き生成部16に供給する。
周辺画像取得部12は、現在のフレームの基準視点以外の視点である周辺視点の画像を取得する。本明細書では、説明を簡単にするため、周辺視点の数は1つであるものとするが、複数であってもよい。周辺画像取得部12は、現在のフレームの周辺視点の画像を奥行き生成部16に供給する。
検出部13は、基準画像取得部11から供給される現在のフレームの基準視点の画像を保持する。検出部13は、保持している現在のフレームより1つ前のフレームである前フレームの基準視点の画像と現在のフレームの基準視点の画像とに基づいて、フレーム間の変化を表す情報としての動きベクトルを検出する。具体的には、検出部13は、前フレームの基準視点の画像と現在のフレームの基準視点とに基づいて、ブロックマッチング法などにより、現在のフレームの基準視点の画像の各画素の動きベクトルを検出する。検出部13は、動きベクトルを予測生成部15に供給する。
フレームメモリ14は、奥行き生成部16から供給される基準視点のサブ画素単位の奥行き画像を1フレーム分保持する。フレームメモリ14は、保持している前フレームのサブ画素単位の奥行き画像を読み出し、予測生成部15に供給する。
予測生成部15は、検出部13から供給される動きベクトルに基づいて、フレームメモリ14から供給される前フレームの奥行き画像の各サブ画素の画素値を移動させ、現在のフレームの基準視点の奥行き画像のサブ画素の画素値の予測値とする。これにより、予測生成部15は、現在のフレームの基準視点の奥行き画像の各サブ画素の画素値の予測値からなる予測奥行き画像を生成する。
このようにして生成された予測奥行き画像には、現在のフレームの基準視点の画像には存在するが、前フレームの基準視点の画像には存在しないオクルージョン領域が発生する。予測奥行き画像のオクルージョン領域には画素値は存在しない。予測生成部15は、予測奥行き画像と動きベクトルを奥行き生成部16に供給する。
奥行き生成部16は、基準画像取得部11からの基準視点の画像と、周辺画像取得部12からの周辺視点の画像とを用いて、予測奥行き画像内の画素値が存在しないオクルージョン領域の被写体の奥行き方向の位置を表す奥行き値を画素単位で生成する。
具体的には、奥行き生成部16は、基準視点の画像のオクルージョン領域の各画素に対して、その画素を中心とした周辺視点の画像の所定の範囲を探索範囲に設定する。奥行き生成部16は、オクルージョン領域の各画素に対して探索範囲内の画素とのマッチングを行い、オクルージョン領域の画素と最も類似度の高い探索範囲内の画素との距離を奥行き値として生成する。
また、奥行き生成部16は、予測生成部15から供給される動きベクトルに基づいて、基準視点の画像のオクルージョン領域以外の領域を、動きがある領域と動きがない領域に分割する。奥行き生成部16は、予測奥行き画像から動きがない領域のサブ画素単位の画素値を抽出し、動きがない領域のサブ画素単位の奥行き値とする。
奥行き生成部16は、予測奥行き画像から動きがある領域のサブ画素単位の画素値を抽出し、その画素値に基づいて動きがある領域の画素単位の奥行き値を生成する。奥行き生成部16は、オクルージョン領域と動きがある領域の画素単位の奥行き値に基づいて内挿等によりサブ画素単位の奥行き値を生成する。
奥行き生成部16は、以上のようにして得られた動きがない領域、オクルージョン領域、および動きがある領域のサブ画素単位の奥行き値を各サブ画素の画素値とする奥行き画像を、現在のフレームの基準視点の奥行き画像として生成する。奥行き生成部16は、現在のフレームの基準視点の奥行き画像を出力するとともに、フレームメモリ14に供給する。
(予測奥行き画像の生成について)
図2は、図1の予測生成部15による予測奥行き画像の生成について説明する図である。
図2の例では、基準視点の画像が、アルファベットを背景とし、バスケットボールを前景とした画像となっている。また、バスケットボールは、前フレームでは画面の右上に存在し、現在のフレームでは画面の中央に存在している。即ち、前フレームと現在のフレームの間で、バスケットボールは左下へ移動している。
この場合、現在のフレームの基準視点の各画素の動きベクトルは、図2の中央に矢印で示すように、バスケットボールの領域では右上から左下の自分の画素へ向かうベクトルであり、バスケットボール以外の領域では0である。
従って、予測生成部15は、前フレームの奥行き画像のバスケットボールの領域内のサブ画素31の画素値を、動きベクトルに基づいて左下へ移動する。そして、予測生成部15は、サブ画素31の画素値を、現在のフレームの予測奥行き画像のサブ画素31と同一の位置のサブ画素41の左下のサブ画素42の画素値とする。バスケットボールの領域内の他のサブ画素についても同様である。
また、予測生成部15は、前フレームの奥行き画像のバスケットボールの領域外の領域内のサブ画素32の奥行き値を、現在のフレームの予測奥行き画像のサブ画素32と同一の位置のサブ画素43の画素値とする。バスケットボールの領域外の領域内の他のサブ画素についても同様である。
その結果、現在のフレームでバスケットボールの領域外の領域であるが、前フレームでバスケットボールの領域であったオクルージョン領域44では、予測奥行き画像の画素値は生成されない。
(画像処理装置の処理の説明)
図3は、図1の画像処理装置10の奥行き画像生成処理を説明するフローチャートである。
図3のステップS11において、画像処理装置10の基準画像取得部11は、現在のフレームの基準視点の画像を取得し、周辺画像取得部12は、現在のフレームの周辺視点の画像を取得する。基準画像取得部11は、現在のフレームの基準視点の画像を検出部13に供給して保持させるとともに、奥行き生成部16に供給する。周辺画像取得部12は、現在のフレームの周辺視点の画像を奥行き生成部16に供給する。
ステップS12において、検出部13は、保持している前フレームの基準視点の画像と、基準画像取得部11からの現在のフレームの基準視点の画像とを比較し、現在のフレームの基準視点の画像の各画素の動きベクトルを検出する。検出部13は、動きベクトルを予測生成部15に供給する。
ステップS13において、フレームメモリ14は、保持している前フレームの基準視点のサブ画素単位の奥行き画像を読み出し、予測生成部15に供給する。
ステップS14において、予測生成部15は、検出部13から供給される動きベクトルと、フレームメモリ14から供給される前フレームの奥行き画像とに基づいて、図2で説明したように、現在のフレームの基準視点の予測奥行き画像を生成する。予測生成部15は、予測奥行き画像と動きベクトルを奥行き生成部16に供給する。
ステップS15において、奥行き生成部16は、予測奥行き画像を用いて現在のフレームの基準視点の奥行き画像を生成する生成処理を行う。この生成処理の詳細は、後述する図4を参照して説明する。
ステップS16において、奥行き生成部16は、生成処理により生成された現在のフレームの基準視点の奥行き画像を出力するとともに、フレームメモリ14に供給して保持させる。そして、処理は終了する。
図4は、図3のステップS15の生成処理の詳細を説明するフローチャートである。この生成処理は、現在のフレームの基準視点の画像の各画素を処理対象の画素として行われる。
図4のステップS31において、奥行き生成部16は、予測生成部15から供給される予測奥行き画像内に処理対象の画素の画素値が存在するかどうかを判定する。ステップS31で画素値が存在すると判定された場合、即ち処理対象の画素がオクルージョン領域外に存在する場合、処理はステップS32に進む。
ステップS32において、奥行き生成部16は、予測生成部15から供給される処理対象の画素の動きベクトルの動き量が第1の閾値(例えば、0)より大きいかどうかを判定する。
ステップS32で動き量が第1の閾値より大きいと判定された場合、奥行き生成部16は、処理対象の画素が、動きがある領域の画素であると判断する。そして、ステップS33において、奥行き生成部16は、予測奥行き画像から処理対象の画素のサブ画素単位の画素値を抽出し、その画素値に基づいて処理対象の画素の画素単位の奥行き値を生成する。そして処理はステップS35に進む。
一方、ステップS31で画素値が存在しないと判定された場合、即ち処理対象の画素がオクルージョン領域内に存在する場合、処理はステップS34に進む。
ステップS34において、奥行き生成部16は、基準画像取得部11からの基準視点の画像と、周辺画像取得部12からの周辺視点の画像とを用いて、処理対象の画素の奥行き値を画素単位で生成する。そして、処理はステップS35に進む。
ステップS35において、奥行き生成部16は、ステップS33またはステップS34において生成された画素単位の奥行き値に基づいて、内挿等によりサブ画素単位の奥行き値を生成する。そして処理は図3のステップS15に戻り、処理はステップS16に進む。
また、ステップS32で動き量が第1の閾値以下であると判定された場合、奥行き生成部16は、処理対象の画素が、動きがない領域の画素であると判断する。そして、ステップS36において、奥行き生成部16は、予測奥行き画像から処理対象の画素のサブ画素単位の画素値を抽出し、処理対象の画素のサブ画素単位の奥行き値とする。そして処理は図3のステップS15に戻り、処理はステップS16に進む。
以上のように、画像処理装置10は、現在のフレームの画像と前フレームの画像に基づいて、動きがない領域について、前フレームの奥行き値を現在のフレームの奥行き値として生成する。従って、動きがない領域の奥行き値を生成する必要がなく、高速に奥行き画像を生成することができる。
また、画像処理装置10は、動きがある領域について、前フレームの奥行き値に基づいて現在のフレームの画素単位の奥行き値を生成する。従って、動きがある領域の画素単位の奥行き値を検出する必要がなく、より高速に奥行き画像を生成することができる。
<第2実施の形態>
(本開示を適用した画像処理装置の第2実施の形態の構成例)
図5は、本開示を適用した画像処理装置の第2実施の形態の構成例を示すブロック図である。
図5に示す構成のうち、図1の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図5の画像処理装置60の構成は、奥行き生成部16の代わりに奥行き生成部61が設けられる点が、図1の画像処理装置10の構成と異なる。画像処理装置60は、動きがある領域について、現在のフレームの画素単位の奥行き値を前フレームの奥行き値から生成するのではなく、前フレームの奥行き値に基づいて探索範囲を限定する。
具体的には、画像処理装置60の奥行き生成部61は、奥行き生成部16と同様に、基準視点の画像と周辺視点の画像とを用いて、オクルージョン領域の奥行き値を画素単位で生成する。また、奥行き生成部61は、奥行き生成部16と同様に、動きベクトルに基づいて、基準視点の画像のオクルージョン領域以外の領域を、動きがある領域と動きがない領域に分割する。
奥行き生成部61は、予測奥行き画像から動きがある領域のサブ画素単位の画素値を抽出する。奥行き生成部61は、動きがある領域の各画素に対して、その画素の予測値に基づく、周辺視点の画像のオクルージョン領域についての探索範囲のサイズである通常サイズより小さいサイズの範囲を、探索範囲に設定する。奥行き生成部61は、動きがある領域の各画素に対して探索範囲内の画素とのマッチングを行い、動きがある領域の画素と最も類似度の高い探索範囲内の画素との距離を奥行き値として生成する。
奥行き生成部61は、オクルージョン領域と動きがある領域の画素単位の奥行き値に基づいて内挿等によりサブ画素単位の奥行き値を生成する。奥行き生成部61は、奥行き生成部16と同様に、予測奥行き画像から動きがない領域のサブ画素単位の画素値を抽出し、動きがない領域のサブ画素単位の奥行き値とする。
奥行き生成部61は、以上のようにして得られた動きがない領域、オクルージョン領域、および動きがある領域のサブ画素単位の奥行き値を各サブ画素の画素値とする奥行き画像を、現在のフレームの基準視点の奥行き画像として生成する。奥行き生成部61は、現在のフレームの基準視点の奥行き画像を出力するとともに、フレームメモリ14に供給する。
(探索範囲の説明)
図6は、図5の奥行き生成部61により設定される探索範囲を説明する図である。
図6の例では、基準視点および周辺視点の画像が、アルファベットを背景とし、バスケットボールを前景とした画像となっている。また、バスケットボールは、前フレームでは画面の右上に存在し、現在のフレームでは画面の中央に存在している。即ち、前フレームと現在のフレームの間で、バスケットボールは左下へ移動している。
この場合、現在のフレームの画像のバスケットボールの領域は動きがある領域である。この動きがある領域内の画素71の探索範囲としては、その画素71を中心とした周辺視点の画像の通常サイズの範囲75ではなく、画素71の画素値に基づく通常サイズより小さいサイズの範囲76が設定される。範囲76は、例えば、画素71に対して画素71の予測値に対応する水平方向の距離だけ離れた位置を中心とした通常サイズより小さいサイズの範囲である。
また、現在のフレームでバスケットボールの領域以外の領域であるが、前フレームでバスケットボールの領域であった領域は、オクルージョン領域72である。このオクルージョン領域72の画素73の探索範囲としては、その画素73を中心とした周辺視点の画像の通常サイズの範囲77である。
現在のフレームと前フレームの両方でバスケットボールの領域以外の領域である領域内の画素74については、動きベクトルが0であるため、探索範囲は設定されず、画素74の奥行き値は生成されない。画素74の奥行き値は、現在のフレームの予測奥行き画像の画素74と同一の位置のサブ画素の画素値とされる。
(画像処理装置の処理の説明)
図5の画像処理装置60の奥行き画像生成処理は、ステップS15の生成処理を除いて図3の奥行き画像生成処理と同一である。従って、以下では、生成処理についてのみ説明する。
図7は、画像処理装置60の奥行き生成部61(図5)の生成処理を説明するフローチャートである。この生成処理は、現在のフレームの基準視点の画像の各画素を処理対象の画素として行われる。
図7のステップS51およびS52の処理は、図4のステップS31およびS32の処理と同一であるので、説明は省略する。
ステップS53において、奥行き生成部61は、予測奥行き画像内の処理対象の画素のサブ画素単位の画素値に基づく通常サイズより小さいサイズの周辺視点の画像の探索範囲内の画素と処理対象の画素とのマッチングを行う。そして、奥行き生成部61は、処理対象の画素と最も類似度の高い探索範囲内の画素との距離を奥行き値として生成し、処理をステップS55に進める。
一方、ステップS51で画素値が存在しないと判定された場合、即ち処理対象の画素がオクルージョン領域内に存在する場合、処理はステップS54に進む。ステップS54において、奥行き生成部61は、通常サイズの周辺視点の画像の探索範囲内の画素と処理対象の画素とのマッチングを行う。そして、奥行き生成部61は、処理対象の画素と最も類似度の高い探索範囲内の画素との距離を奥行き値として生成し、処理をステップS55に進める。
また、ステップS52で動き量が第1の閾値以下であると判定された場合、奥行き生成部61は、処理対象の画素が、動きがない領域の画素であると判断する。そして、処理はステップS56に進む。
ステップS55およびS56の処理は、図4のステップS35およびS36の処理と同様であるので、説明は省略する。
以上のように、画像処理装置60は、動きがある領域について、現在のフレームの画素単位の奥行き値を生成する際の探索範囲を、予測値に基づく通常サイズより小さいサイズの範囲に限定する。従って、動きがある領域の画素単位の奥行き値の生成時の計算量が軽減され、より高速に奥行き画像を生成することができる。
<第3実施の形態>
(本開示を適用した画像処理装置の第3実施の形態の構成例)
図8は、本開示を適用した画像処理装置の第3実施の形態の構成例を示すブロック図である。
図8に示す構成のうち、図1の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図8の画像処理装置80の構成は、奥行き生成部16の代わりに奥行き生成部81が設けられる点が図1の画像処理装置10の構成と異なる。画像処理装置80は、小さい動きがある領域についてのみ、前フレームの奥行き値に基づいて探索範囲を限定する。
具体的には、画像処理装置80の奥行き生成部81は、奥行き生成部16と同様に、動きベクトルに基づいて、基準視点の画像のオクルージョン領域以外の領域を、動きがある領域と動きがない領域に分割する。奥行き生成部81は、動きベクトルに基づいて、動きがある領域を、さらに、小さい動きがある領域と大きい動きがある領域に分割する。
奥行き生成部81は、オクルージョン領域と大きい動きがある領域について、基準視点の画像と周辺視点の画像とを用いて、通常サイズの探索範囲でマッチングを行うことにより、奥行き値を画素単位で生成する。
奥行き生成部81は、予測奥行き画像から小さい動きがある領域のサブ画素単位の画素値を抽出する。奥行き生成部81は、小さい動きがある領域の各画素に対して、その画素の予測値に基づく周辺視点の画像の通常サイズより小さいサイズの範囲を、探索範囲に設定する。奥行き生成部81は、小さい動きがある領域の各画素に対して探索範囲内の画素とのマッチングを行い、小さい動きがある領域の画素と最も類似度の高い探索範囲内の画素との距離を奥行き値として生成する。
奥行き生成部81は、オクルージョン領域、大きい動きがある領域、および小さい動きがある領域の画素単位の奥行き値に基づいて、内挿等によりサブ画素単位の奥行き値を生成する。奥行き生成部81は、奥行き生成部16と同様に、予測奥行き画像から動きがない領域のサブ画素単位の画素値を抽出し、動きがない領域のサブ画素単位の奥行き値とする。
奥行き生成部81は、以上のようにして得られた動きがない領域、オクルージョン領域、大きい動きがある領域、および小さい動きがある領域のサブ画素単位の奥行き値を各サブ画素の画素値とする奥行き画像を、現在のフレームの基準視点の奥行き画像として生成する。奥行き生成部81は、現在のフレームの基準視点の奥行き画像を出力するとともに、フレームメモリ14に供給する。
(画像処理装置の処理の説明)
図8の画像処理装置80の奥行き画像生成処理は、ステップS15の生成処理を除いて図3の奥行き画像生成処理と同一である。従って、以下では、生成処理についてのみ説明する。
図9は、画像処理装置80の奥行き生成部81(図8)の生成処理を説明するフローチャートである。この生成処理は、現在のフレームの基準視点の画像の各画素を処理対象の画素として行われる。
図9のステップS71およびS72の処理は、図4のステップS31およびS32の処理と同一であるので、説明は省略する。
ステップS72で動き量が第1の閾値より大きいと判定された場合、ステップS73において、奥行き生成部81は、処理対象の画素の動きベクトルの動き量が第1の閾値より大きい第2の閾値以下であるかどうかを判定する。ステップS73で動き量が第2の閾値以下であると判定された場合、即ち動き量が第1の閾値より大きく第2の閾値以下である場合、奥行き生成部81は、処理対象の画素が、小さい動きがある領域の画素であると判断する。そして、処理はステップS74に進む。
一方、ステップS73で動き量が第2の閾値以下ではないと判定された場合、即ち動き量が第2の閾値より大きい場合、奥行き生成部81は、処理対象の画素が、大きい動きがある領域の画素であると判断する。そして、処理はステップS75に進む。
ステップS74乃至S77の処理は、図7のステップS53乃至S56の処理と同様であるので、説明は省略する。
以上のように、画像処理装置80は、動きがある領域のうちの、予測値の信頼度が高い小さい動きがある領域についてのみ、探索範囲を予測値に基づく通常サイズより小さいサイズの範囲に限定する。従って、画像処理装置60に比べて奥行き画像の精度を向上させることができる。
(探索範囲のサイズの他の例)
第2および第3実施の形態における限定された探索範囲のサイズは、固定されていてもよいし、可変であってもよい。限定された探索範囲のサイズが可変である場合には、そのサイズは、例えば動き量に応じて設定される。
図10は、この場合の動き量と探索範囲のサイズの関係の例を示す図である。
図10のグラフの横軸は動き量を表し、縦軸は探索範囲の中心を0としたときの探索範囲の水平方向および垂直方向の位置を表している。
図10の例では、動き量が0以上でBより小さい場合、探索範囲の水平方向および垂直方向の長さは2DBとされる。また、動き量がB以上でAより小さい場合、探索範囲の水平方向および垂直方向の長さは、動き量に比例して2DBより大きくなり、動き量がAである場合、その長さは2DAとなる。動き量がAより大きい場合、探索範囲の水平方向および垂直方向の長さは2DAとされる。
<第4実施の形態>
(本開示を適用した画像処理装置の第4実施の形態の構成例)
図11は、本開示を適用した画像処理装置の第4実施の形態の構成例を示すブロック図である。
図11に示す構成のうち、図1の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図11の画像処理装置100の構成は、検出部13、予測生成部15、奥行き生成部16の代わりに、検出部101、予測生成部102、奥行き生成部103が設けられる点が図1の画像処理装置10の構成と異なる。画像処理装置100は、基準視点の画像のフレーム間の変化を表す情報としての差分に基づいて奥行き値を生成する頻度を決定する。
具体的には、検出部101は、基準画像取得部11から供給される現在のフレームの基準視点の画像を保持する。検出部101は、保持している前フレームの基準視点の画像と現在のフレームの基準視点の画像との差分を画素単位で検出し、予測生成部102に供給する。
予測生成部102は、基準視点の画像の画素ごとに、検出部101から供給される差分に基づいて、奥行き値を更新(生成)することを表す更新フラグをネガティブまたはポジティブに設定する。予測生成部102は、フレームメモリ14から供給される前フレームの奥行き画像を予測奥行き画像として奥行き生成部103に供給するとともに、各画素の更新フラグを奥行き生成部103に供給する。
奥行き生成部103は、予測生成部102から供給される更新フラグに基づいて、各画素の更新フラグが連続してネガティブになった回数をカウントする。奥行き生成部103は、更新フラグがポジティブである画素に対して、基準画像取得部11からの基準視点の画像と周辺画像取得部12からの周辺視点の画像とを用いて、画素単位で奥行き値を生成する。
また、奥行き生成部103は、更新フラグがネガティブであり、更新フラグが連続してネガティブになった回数が所定の回数(ここでは、10回)である画素に対して、基準視点の画像と周辺視点の画像とを用いて画素単位で奥行き値を生成する。奥行き生成部103は、生成された画素単位の奥行き値に基づいて内挿等によりサブ画素単位の奥行き値を生成する。
さらに、奥行き生成部103は、更新フラグがネガティブであり、更新フラグが連続してネガティブになった回数が所定の回数ではない画素について、予測奥行き画像のサブ画素単位の画素値を、サブ画素単位の奥行き値とする。
奥行き生成部103は、以上のようにして得られた基準視点の画像の各画素のサブ画素単位の奥行き値を各サブ画素の画素値とする奥行き画像を、現在のフレームの基準視点の奥行き画像として生成する。奥行き生成部103は、現在のフレームの基準視点の奥行き画像を出力するとともに、フレームメモリ14に供給する。
(差分の例)
図12は、前フレームと現在のフレームの基準視点の画像の差分の例を示す図である。
図12の例では、基準視点の画像が、アルファベットを背景とし、バスケットボールを前景とした画像となっている。また、バスケットボールは、前フレームでは画面の右上に存在し、現在のフレームでは画面の中央に存在している。即ち、前フレームと現在のフレームの間で、バスケットボールは左下へ移動している。
この場合、前フレームと現在のフレームの基準視点の画像の差分は、図12中斜線で示す、前フレームと現在のフレームのバスケットボールの領域111で大きくなる。なお、図12の右側の小さい四角は画素を表している
(奥行き値を生成する頻度の例)
図13は、奥行き値を生成する頻度の例を示す図である。
図13のグラフの横軸は、前フレームと現在のフレームの基準視点の画像の差分を表し、縦軸は、1フレームの頻度を1としたときの奥行き値を生成する頻度を表す。
図13の例では、差分が0以上閾値Th以下である場合、奥行き値を生成する頻度が1/10であり、差分が閾値Thより大きい場合、奥行き値を生成する頻度が1である。即ち、差分が0以上閾値Th以下である場合、10フレームに9回の割合で前フレームの奥行き値が現在のフレームの奥行き値とされ、差分が閾値Thより大きい場合、毎フレームで前フレームの奥行き値が用いられない。
(画像処理装置の処理の説明)
図14は、図11の画像処理装置100の奥行き画像生成処理を説明するフローチャートである。
図14のステップS91において、画像処理装置100の基準画像取得部11は、現在のフレームの基準視点の画像を取得し、周辺画像取得部12は、現在のフレームの周辺視点の画像を取得する。基準画像取得部11は、現在のフレームの基準視点の画像を検出部101に供給して保持させるとともに、奥行き生成部103に供給する。周辺画像取得部12は、現在のフレームの周辺視点の画像を奥行き生成部103に供給する。
ステップS92において、検出部101は、保持している前フレームの基準視点の画像と現在のフレームの基準視点の画像との差分を画素単位で検出し、予測生成部102に供給する。
ステップS93において、フレームメモリ14は、保持している前フレームの基準視点のサブ画素単位の奥行き画像を読み出し、予測生成部102に供給する。
ステップS94において、予測生成部102は、検出部101から供給される差分が0以上閾値Th以下である画素の更新フラグをネガティブにし、差分が閾値Thより大きい画素の更新フラグをポジティブに設定する。
ステップS95において、予測生成部102は、フレームメモリ14から供給される前フレームの奥行き画像を予測奥行き画像として奥行き生成部103に供給するとともに、各画素の更新フラグを奥行き生成部103に供給する。
ステップS96において、奥行き生成部103は、予測奥行き画像を用いて現在のフレームの基準視点の奥行き画像を生成する生成処理を行う。この生成処理の詳細は、後述する図15を参照して説明する。
ステップS97において、奥行き生成部103は、生成処理により生成された現在のフレームの基準視点の奥行き画像を出力するとともに、フレームメモリ14に供給して保持させる。そして、処理は終了する。
図15は、図14のステップS96の生成処理の詳細を説明するフローチャートである。この生成処理は、現在のフレームの基準視点の画像の各画素を処理対象の画素として行われる。
図15のステップS111において、奥行き生成部103は、処理対象の画素の更新フラグがポジティブであるかどうかを判定する。ステップS111で更新フラグがポジティブではないと判定された場合、即ち更新フラグがネガティブである場合、処理はステップS112に進む。
ステップS112において、奥行き生成部103は、更新フラグが連続してネガティブになった回数のカウント値を1だけインクリメントする。このカウント値の初期値は0である。
ステップS113において、奥行き生成部103は、カウント値が10であるかどうかを判定する。ステップS113でカウント値が10ではないと判定された場合、即ち更新フラグが連続して10回ネガティブになっていないと判定された場合、処理はステップS114に進む。
ステップS114において、奥行き生成部103は、予測生成部102から供給される予測奥行き画像から処理対象の画素のサブ画素単位の画素値を抽出し、奥行き値とする。そして処理は図14のステップS96に戻り、処理はステップS97に進む。
一方、ステップS111で更新フラグがポジティブであると判定された場合、または、ステップS113でカウント値が10であると判定された場合、ステップS115において、奥行き生成部103はカウント値を0に変更する。
ステップS116において、奥行き生成部103は、基準画像取得部11からの基準視点の画像と周辺画像取得部12からの周辺視点の画像とを用いて、処理対象の画素の画素単位の奥行き値を生成する。そして、奥行き生成部103は、処理対象の画素の画素単位の奥行き値に基づいてサブ画素単位の奥行き値を生成する。そして処理は図14のステップS96に戻り、処理はステップS97に進む。
以上のように、画像処理装置100は、現在のフレームの画像と前フレームの画像に基づいて、その差分が小さい領域について、前フレームの奥行き値を現在のフレームの奥行き値として生成する。従って、差分が小さい領域の奥行き値を生成する必要がなく、高速に奥行き画像を生成することができる。
また、画像処理装置100は、差分が小さい領域であっても、差分が大きい領域に比べて少ない頻度で奥行き値を生成するので、奥行き画像の精度を向上させることができる。
なお、差分が小さい領域の奥行き値を生成する頻度は、上述した10フレームに1回に限定されない。また、差分が大きい領域の奥行き値を生成する頻度は、上述した毎フレームに限定されない。
<第1乃至第4実施の形態のまとめ>
図16は、第1乃至第4実施の形態の処理をまとめた表を示す図である。
図16に示すように、第1乃至第3実施の形態では、オクルージョン領域とオクルージョン領域以外の領域で処理が異なる。また、オクルージョン領域以外の領域では、動きがない領域と動きがある領域で処理が異なる。第3実施の形態では、さらに、動きがある領域のうちの動きが小さい領域と動きが大きい領域で処理が異なる。
具体的には、第1実施の形態では、オクルージョン領域以外の領域のうちの動きがない領域において、前フレームのサブ画素単位の奥行き値が現在のフレームのサブ画素単位の奥行き値として用いられる。一方、動きがある領域において、前フレームのサブ画素単位の奥行き値から現在のフレームの画素単位の奥行き値が生成され、その画素単位の奥行き値に基づいてサブ画素単位の奥行き値が生成される。
また、オクルージョン領域において、マッチングにより現在のフレームの画素単位の奥行き値が生成され、その画素単位の奥行き値に基づいてサブ画素単位の奥行き値が生成される。
第2実施の形態では、オクルージョン領域以外の領域のうちの動きがない領域において、第1実施の形態と同様に、前フレームのサブ画素単位の奥行き値が現在のフレームのサブ画素単位の奥行き値として用いられる。一方、動きがある領域において、前フレームのサブ画素単位の奥行き値に基づいて通常サイズより小さいサイズの探索範囲が設定され、その探索範囲でマッチングが行われる。そして、マッチングの結果得られる画素単位の奥行き値に基づいてサブ画素単位の奥行き値が生成される。
また、オクルージョン領域において、通常サイズの探索範囲のマッチングにより現在のフレームの画素単位の奥行き値が生成され、その画素単位の奥行き値に基づいてサブ画素単位の奥行き値が生成される。
第3実施の形態では、オクルージョン領域以外の領域のうちの動きがない領域において、第1実施の形態と同様に、前フレームのサブ画素単位の奥行き値が現在のフレームのサブ画素単位の奥行き値として用いられる。一方、動きがある領域であり、かつ、動きが小さい領域において、第2実施の形態の動きがある領域の場合と同様に、通常サイズより小さいサイズの探索範囲でサブ画素単位の奥行き値が生成される。
また、動きがある領域であり、かつ、動きが大きい領域、および、オクルージョン領域において、第2実施の形態のオクルージョン領域の場合と同様に、通常サイズの探索範囲でサブ画素単位の奥行き値が生成される。
第4実施の形態では、前フレームと現在のフレームの基準視点の画像の差分が大きい領域と小さい領域で処理が異なる。
具体的には、差分が大きい領域では、毎フレームでサブ画素単位の奥行き値が生成される。一方、差分が小さい領域では、10フレームに1回の頻度でサブ画素単位の奥行き値が生成される。
<第5実施の形態>
(本開示を適用した符号化装置の一実施の形態の構成例)
図17は、本開示を適用した符号化装置の一実施の形態の構成例を示すブロック図である。
図17の符号化装置120は、基準画像取得部121、周辺画像取得部122、奥行き画像生成部123、および符号化部124により構成される。符号化装置120は、基準視点の画像、周辺視点の画像、および基準視点の奥行き画像を符号化する。
符号化装置120の基準画像取得部121は、図示せぬ外部の撮像装置により撮像された基準視点の画像を取得し、奥行き画像生成部123と符号化部124に供給する。
周辺画像取得部122は、図示せぬ外部の撮像装置により撮像された周辺視点の画像を取得し、奥行き画像生成部123と符号化部124に供給する。
奥行き画像生成部123は、上述した画像処理装置の第1乃至第4実施の形態のいずれかにより構成される。奥行き画像生成部123は、基準画像取得部121からの基準視点の画像と、周辺画像取得部122からの周辺視点の画像とを用いて、基準視点の奥行き画像を生成し、符号化部124に供給する。
符号化部124は、基準画像取得部121からの基準視点の画像、周辺画像取得部122からの周辺視点の画像、および奥行き画像生成部123からの奥行き画像を符号化する。奥行き画像の符号化方式としては、AVC(Advanced Video Coding)方式,MVC(Multiview Video Coding)方式,HEVC(High Efficiency Video Coding)方式等を採用することができる。符号化部124は、符号化の結果得られる符号化ストリームを伝送する。
(復号装置の一実施の形態の構成例)
図18は、図17の符号化装置120により生成された符号化ストリームを復号する復号装置の一実施の形態の構成例を示すブロック図である。
図18の復号装置140は、復号部141、基準画像出力部142、周辺画像出力部143、および奥行き画像生成部144により構成される。
復号装置140の復号部141は、符号化装置120から伝送されてくる符号化ストリームを取得する。復号部141は、符号化装置120の符号化方式に対応する方式で符号化ストリームを復号し、基準視点の画像、周辺視点の画像、および基準視点の奥行き画像を生成する。復号部141は、基準視点の画像を基準画像出力部142に供給し、周辺視点の画像を周辺画像出力部143に供給し、基準視点の奥行き画像を奥行き画像出力部144に供給する。
基準画像出力部142は、復号部141から供給される基準視点の画像を出力する。周辺画像出力部143は、復号部141から供給される周辺視点の画像を出力する。奥行き画像出力部144は、復号部141から供給される奥行き画像を出力する。
<第6実施の形態>
(本開示を適用したコンピュータの説明)
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図19は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)201,ROM(Read Only Memory)202,RAM(Random Access Memory)203は、バス204により相互に接続されている。
バス204には、さらに、入出力インタフェース205が接続されている。入出力インタフェース205には、入力部206、出力部207、記憶部208、通信部209、及びドライブ210が接続されている。
入力部206は、キーボード、マウス、マイクロフォンなどよりなる。出力部207は、ディスプレイ、スピーカなどよりなる。記憶部208は、ハードディスクや不揮発性のメモリなどよりなる。通信部209は、ネットワークインタフェースなどよりなる。ドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア211を駆動する。
以上のように構成されるコンピュータでは、CPU201が、例えば、記憶部208に記憶されているプログラムを、入出力インタフェース205及びバス204を介して、RAM203にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU201)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア211に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディア211をドライブ210に装着することにより、入出力インタフェース205を介して、記憶部208にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部209で受信し、記憶部208にインストールすることができる。その他、プログラムは、ROM202や記憶部208に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、第2乃至第4実施の形態では、奥行き値をサブ画素単位で生成するのではなく、画素単位で生成するようにしてもよい。
また、第1乃至第3実施の形態では、動きベクトルに基づく領域分割が奥行き生成部16(61,81)により行われたが、領域分割は予測生成部15により行われるようにしてもよい。
この場合、奥行き生成部16および61には、画素ごとに設定された奥行き値の生成を行うかどうかを表すフラグ、即ち動きがある領域であるかどうかを表すフラグが予測生成部15から供給される。また、奥行き生成部81には、画素ごとに設定された奥行き値の生成を行うかどうか、および、探索範囲を限定するかどうかを表すフラグが予測生成部15から供給される。即ち、各画素が、動きがない領域、大きい動きがある領域、および小さい動きがある領域のいずれの領域内の画素であるかを表すフラグが、奥行き生成部81から予測生成部15に供給される。
さらに、第1乃至第3実施の形態では、現在のフレームの動きベクトルに基づいて領域が分割されたが、動きベクトルの履歴に基づいて領域が分割されるようにしてもよい。
また、例えば、本開示は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
本開示は、以下のような構成もとることができる。
(1)
カレントフレームの画像と前記カレントフレームより前のフレームの画像とに基づいて、前記前のフレームの画像の被写体の奥行き方向の位置を表す奥行き画像を、前記カレントフレームの奥行き画像として生成する奥行き生成部
を備える画像処理装置。
(2)
前記奥行き生成部は、前記カレントフレームの画像と前記前のフレームの画像の間の変化に基づいて、前記奥行き画像を生成する
前記(1)に記載の画像処理装置。
(3)
前記カレントフレームの画像と前記前のフレームの画像とに基づいて、前記カレントフレームの画像の動きベクトルを検出する検出部
をさらに備え、
前記奥行き生成部は、前記検出部により検出された前記動きベクトルに基づいて、前記前のフレームの奥行き画像を、前記カレントフレームの奥行き画像として生成する
前記(2)に記載の画像処理装置。
(4)
前記奥行き生成部は、前記動きベクトルの動き量が第1の閾値以下である場合、前記前のフレームの奥行き画像を、前記カレントフレームの奥行き画像として生成する
前記(3)に記載の画像処理装置。
(5)
前記奥行き生成部は、前記動きベクトルの動き量が前記第1の閾値より大きい場合、前記前のフレームの奥行き画像に基づいて、前記カレントフレームの奥行き画像を生成する
前記(4)に記載の画像処理装置。
(6)
前記奥行き生成部は、前記動きベクトルの動き量が前記第1の閾値より大きい場合、前記前のフレームのサブ画素単位の奥行き画像を用いて前記カレントフレームの画素単位の奥行き画像を生成し、前記カレントフレームの画素単位の奥行き画像に基づいて、前記カレントフレームのサブ画素単位の奥行き画像を生成する
前記(5)に記載の画像処理装置。
(7)
前記奥行き生成部は、前記動きベクトルの動き量が前記第1の閾値より大きい場合、前記前のフレームの奥行き画像に基づいて限定された探索範囲でマッチングを行うことにより、前記カレントフレームの奥行き画像を生成する
前記(5)に記載の画像処理装置。
(8)
前記奥行き生成部は、前記動きベクトルの動き量が前記第1の閾値より大きく、第2の閾値以下である場合、前記前のフレームの奥行き画像に基づいて限定された探索範囲でマッチングを行うことにより、前記カレントフレームの奥行き画像を生成する
前記(7)に記載の画像処理装置。
(9)
前記探索範囲のサイズは、前記動き量に応じたサイズである
前記(7)または(8)に記載の画像処理装置。
(10)
前記カレントフレームの画像と前記前のフレームの画像との差分を検出する検出部
をさらに備え、
前記奥行き生成部は、前記検出部により検出された前記差分が閾値以下である場合、前記前のフレームの画像の奥行き画像を前記カレントフレームの奥行き画像として生成する頻度にしたがって、前記カレントフレームの奥行き画像を生成する
前記(1)または(2)に記載の画像処理装置。
(11)
前記奥行き生成部は、前記検出部により検出された前記差分が前記閾値より大きい場合、前記前のフレームの画像の奥行き画像を前記カレントフレームの奥行き画像として生成する頻度より少ない頻度にしたがって、前記カレントフレームの奥行き画像を生成する
前記(10)に記載の画像処理装置。
(12)
前記奥行き生成部により生成される前記奥行き画像を符号化する符号化部
をさらに備える
前記(1)乃至(11)のいずれかに記載の画像処理装置。
(13)
画像処理装置が、
カレントフレームの画像と前記カレントフレームより前のフレームの画像とに基づいて、前記前のフレームの画像の被写体の奥行き方向の位置を表す奥行き画像を、前記カレントフレームの奥行き画像として生成する奥行き生成ステップ
を含む画像処理方法。
10 画像処理装置, 13 検出部, 16 奥行き生成部, 60 画像処理装置, 61 奥行き生成部, 80 画像処理装置, 81 奥行き生成部, 100 画像処理装置, 101 検出部, 120 符号化装置, 123 奥行き画像生成部, 124 符号化部

Claims (13)

  1. カレントフレームの画像と前記カレントフレームより前のフレームの画像とに基づいて、前記前のフレームの画像の被写体の奥行き方向の位置を表す奥行き画像を、前記カレントフレームの奥行き画像として生成する奥行き生成部
    を備える画像処理装置。
  2. 前記奥行き生成部は、前記カレントフレームの画像と前記前のフレームの画像の間の変化に基づいて、前記奥行き画像を生成する
    請求項1に記載の画像処理装置。
  3. 前記カレントフレームの画像と前記前のフレームの画像とに基づいて、前記カレントフレームの画像の動きベクトルを検出する検出部
    をさらに備え、
    前記奥行き生成部は、前記検出部により検出された前記動きベクトルに基づいて、前記前のフレームの奥行き画像を、前記カレントフレームの奥行き画像として生成する
    請求項2に記載の画像処理装置。
  4. 前記奥行き生成部は、前記動きベクトルの動き量が第1の閾値以下である場合、前記前のフレームの奥行き画像を、前記カレントフレームの奥行き画像として生成する
    請求項3に記載の画像処理装置。
  5. 前記奥行き生成部は、前記動きベクトルの動き量が前記第1の閾値より大きい場合、前記前のフレームの奥行き画像に基づいて、前記カレントフレームの奥行き画像を生成する
    請求項4に記載の画像処理装置。
  6. 前記奥行き生成部は、前記動きベクトルの動き量が前記第1の閾値より大きい場合、前記前のフレームのサブ画素単位の奥行き画像を用いて前記カレントフレームの画素単位の奥行き画像を生成し、前記カレントフレームの画素単位の奥行き画像に基づいて、前記カレントフレームのサブ画素単位の奥行き画像を生成する
    請求項5に記載の画像処理装置。
  7. 前記奥行き生成部は、前記動きベクトルの動き量が前記第1の閾値より大きい場合、前記前のフレームの奥行き画像に基づいて限定された探索範囲でマッチングを行うことにより、前記カレントフレームの奥行き画像を生成する
    請求項5に記載の画像処理装置。
  8. 前記奥行き生成部は、前記動きベクトルの動き量が前記第1の閾値より大きく、第2の閾値以下である場合、前記前のフレームの奥行き画像に基づいて限定された探索範囲でマッチングを行うことにより、前記カレントフレームの奥行き画像を生成する
    請求項7に記載の画像処理装置。
  9. 前記探索範囲のサイズは、前記動き量に応じたサイズである
    請求項7に記載の画像処理装置。
  10. 前記カレントフレームの画像と前記前のフレームの画像との差分を検出する検出部
    をさらに備え、
    前記奥行き生成部は、前記検出部により検出された前記差分が閾値以下である場合、前記前のフレームの画像の奥行き画像を前記カレントフレームの奥行き画像として生成する頻度にしたがって、前記カレントフレームの奥行き画像を生成する
    請求項1に記載の画像処理装置。
  11. 前記奥行き生成部は、前記検出部により検出された前記差分が前記閾値より大きい場合、前記前のフレームの画像の奥行き画像を前記カレントフレームの奥行き画像として生成する頻度より少ない頻度にしたがって、前記カレントフレームの奥行き画像を生成する
    請求項10に記載の画像処理装置。
  12. 前記奥行き生成部により生成される前記奥行き画像を符号化する符号化部
    をさらに備える
    請求項1に記載の画像処理装置。
  13. 画像処理装置が、
    カレントフレームの画像と前記カレントフレームより前のフレームの画像とに基づいて、前記前のフレームの画像の被写体の奥行き方向の位置を表す奥行き画像を、前記カレントフレームの奥行き画像として生成する奥行き生成ステップ
    を含む画像処理方法。
JP2013144504A 2013-07-10 2013-07-10 画像処理装置および画像処理方法 Pending JP2015019204A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013144504A JP2015019204A (ja) 2013-07-10 2013-07-10 画像処理装置および画像処理方法
US14/320,833 US9262839B2 (en) 2013-07-10 2014-07-01 Image processing device and image processing method
CN201410315682.5A CN104284192B (zh) 2013-07-10 2014-07-03 图像处理设备和图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013144504A JP2015019204A (ja) 2013-07-10 2013-07-10 画像処理装置および画像処理方法

Publications (1)

Publication Number Publication Date
JP2015019204A true JP2015019204A (ja) 2015-01-29

Family

ID=52258601

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013144504A Pending JP2015019204A (ja) 2013-07-10 2013-07-10 画像処理装置および画像処理方法

Country Status (3)

Country Link
US (1) US9262839B2 (ja)
JP (1) JP2015019204A (ja)
CN (1) CN104284192B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017223648A (ja) * 2016-03-16 2017-12-21 アナログ ディヴァイスィズ インク 飛行時間型深度イメージングの際の消費電力の低減
US11209528B2 (en) 2017-10-15 2021-12-28 Analog Devices, Inc. Time-of-flight depth image processing systems and methods

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201607296A (zh) * 2014-08-07 2016-02-16 國立臺灣大學 快速產生影像景深圖的方法及影像處理裝置
JP6425534B2 (ja) * 2014-12-25 2018-11-21 キヤノン株式会社 画像処理装置及びその制御方法、並びにプログラム
US20170127039A1 (en) * 2015-11-02 2017-05-04 Mediatek Inc. Ultrasonic proximity detection system
US10294552B2 (en) * 2016-01-27 2019-05-21 GM Global Technology Operations LLC Rapidly solidified high-temperature aluminum iron silicon alloys
KR102529120B1 (ko) * 2016-07-15 2023-05-08 삼성전자주식회사 영상을 획득하는 방법, 디바이스 및 기록매체
KR20190067806A (ko) * 2016-10-25 2019-06-17 소니 주식회사 화상 처리 장치 및 화상 처리 방법
CN118354099A (zh) * 2018-04-02 2024-07-16 寰发股份有限公司 用于视频编解码系统中的子块运动补偿的视频处理方法和装置
CN113228635B (zh) * 2018-11-13 2024-01-05 北京字节跳动网络技术有限公司 用于帧内块复制的运动候选列表构建方法
WO2020112620A2 (en) * 2018-11-29 2020-06-04 Interdigital Vc Holdings, Inc. Motion vector predictor candidates ordering in merge list
GB2588827B (en) * 2019-11-11 2022-10-12 Advanced Risc Mach Ltd Depth processing
CN112750157B (zh) * 2020-08-11 2023-09-12 腾讯科技(深圳)有限公司 一种深度图像生成方法及装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000261828A (ja) 1999-03-04 2000-09-22 Toshiba Corp 立体映像生成方法
EP2300987B1 (en) * 2008-06-24 2014-01-22 Thomson Licensing System and method for depth extraction of images with motion compensation
CN101605269B (zh) * 2009-07-10 2010-09-29 清华大学 一种密集深度图像跟踪的方法和装置
JP5464129B2 (ja) 2010-11-17 2014-04-09 コニカミノルタ株式会社 画像処理装置および視差情報生成装置
WO2012140869A1 (ja) * 2011-04-12 2012-10-18 パナソニック株式会社 動き推定装置、奥行き推定装置、及び動き推定方法
JP5787398B2 (ja) 2011-07-12 2015-09-30 国立大学法人東北大学 関数算出装置、デプスマップ生成装置、関数算出方法及び関数算出プログラム
KR101957873B1 (ko) * 2012-06-04 2019-03-13 삼성전자주식회사 3차원 영상을 위한 영상 처리 장치 및 방법
CN102881018B (zh) * 2012-09-27 2014-10-29 清华大学深圳研究生院 一种图像深度图生成方法
US20140267616A1 (en) * 2013-03-15 2014-09-18 Scott A. Krig Variable resolution depth representation

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017223648A (ja) * 2016-03-16 2017-12-21 アナログ ディヴァイスィズ インク 飛行時間型深度イメージングの際の消費電力の低減
US10841491B2 (en) 2016-03-16 2020-11-17 Analog Devices, Inc. Reducing power consumption for time-of-flight depth imaging
US11209528B2 (en) 2017-10-15 2021-12-28 Analog Devices, Inc. Time-of-flight depth image processing systems and methods

Also Published As

Publication number Publication date
US20150016713A1 (en) 2015-01-15
US9262839B2 (en) 2016-02-16
CN104284192A (zh) 2015-01-14
CN104284192B (zh) 2019-06-14

Similar Documents

Publication Publication Date Title
JP2015019204A (ja) 画像処理装置および画像処理方法
US9299152B2 (en) Systems and methods for image depth map generation
KR102059066B1 (ko) 모션 벡터 필드 코딩 방법 및 디코딩 방법, 및 코딩 및 디코딩 장치들
KR101620933B1 (ko) 제스쳐 인식 메커니즘을 제공하는 방법 및 장치
WO2019072246A1 (zh) 视频编码中的运动估计方法、装置、电子设备及存储介质
JP2016201668A (ja) 画像処理装置、画像処理方法およびプログラム
US8718331B2 (en) Image detecting apparatus and method thereof
US20120287339A1 (en) Image Processing Method and System with Repetitive Pattern Detection
US20130069935A1 (en) Depth generation method and apparatus using the same
US20130083162A1 (en) Depth fusion method and apparatus using the same
US8970670B2 (en) Method and apparatus for adjusting 3D depth of object and method for detecting 3D depth of object
JP6090305B2 (ja) 決定装置、決定プログラムおよび決定方法
US9076228B2 (en) Image processing device, image processing method, and image processing system
JP6012230B2 (ja) エッジ方向判定装置、エッジ方向判定装置の制御方法、及び、画像処理装置
KR20220003087A (ko) Vr 영상 품질 평가 방법 및 장치
JP5987899B2 (ja) 生成装置、生成プログラムおよび生成方法
JP5867289B2 (ja) 動きベクトル生成装置及び方法
JP6237035B2 (ja) 動き検出装置及び動き検出用プログラム
JP2016039535A (ja) 映像符号化装置及び映像符号化プログラム
CN118485703A (zh) 用于还原图像深度的方法、装置和设备
JP2013074384A (ja) 画像処理装置及び画像処理方法
JP2015076766A (ja) 映像符号化装置、映像符号化方法及び映像符号化プログラム
JP2012204914A (ja) 動きベクトル検出方法と装置、及びビデオカメラ
JP2013030838A (ja) 動きベクトル導出装置および方法
JP2018191084A (ja) 画像処理装置、画像処理方法およびプログラム