JP5934375B2 - 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体 - Google Patents

画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体 Download PDF

Info

Publication number
JP5934375B2
JP5934375B2 JP2014538499A JP2014538499A JP5934375B2 JP 5934375 B2 JP5934375 B2 JP 5934375B2 JP 2014538499 A JP2014538499 A JP 2014538499A JP 2014538499 A JP2014538499 A JP 2014538499A JP 5934375 B2 JP5934375 B2 JP 5934375B2
Authority
JP
Japan
Prior art keywords
image
depth
depth map
subject
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014538499A
Other languages
English (en)
Other versions
JPWO2014050830A1 (ja
Inventor
信哉 志水
信哉 志水
志織 杉本
志織 杉本
木全 英明
英明 木全
明 小島
明 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Application granted granted Critical
Publication of JP5934375B2 publication Critical patent/JP5934375B2/ja
Publication of JPWO2014050830A1 publication Critical patent/JPWO2014050830A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、多視点画像を符号化及び復号する画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体に関する。
本願は、2012年9月25日に、日本に出願された特願2012−211155号に基づき優先権を主張し、その内容をここに援用する。
従来から、複数のカメラで同じ被写体と背景を撮影した複数の画像からなる多視点画像が知られている。この複数のカメラで撮影した動画像のことを多視点動画像(または多視点映像)という。以下の説明では1つのカメラで撮影された画像(動画像)を“2次元画像(動画像)”と称し、同じ被写体と背景とを位置や向き(以下、視点と称する)が異なる複数のカメラで撮影した2次元画像(2次元動画像)群を“多視点画像(多視点動画像)”と称する。
2次元動画像は、時間方向に関して強い相関があり、その相関を利用することによって符号化効率を高めることができる。一方、多視点画像や多視点動画像では、各カメラが同期されている場合、各カメラの映像の同じ時刻に対応するフレーム(画像)は、全く同じ状態の被写体と背景を別の位置から撮影したものであるので、カメラ間で強い相関がある。多視点画像や多視点動画像の符号化においては、この相関を利用することによって符号化効率を高めることができる。
ここで、2次元動画像の符号化技術に関する従来技術を説明する。国際符号化標準であるH.264、MPEG−2、MPEG−4をはじめとした従来の多くの2次元動画像符号化方式では、動き補償予測、直交変換、量子化、エントロピー符号化という技術を利用して、高効率な符号化を行う。例えば、H.264では、過去あるいは未来の複数枚のフレームとの時間相関を利用した符号化が可能である。
H.264で使われている動き補償予測技術の詳細については、例えば非特許文献1に記載されている。H.264で使われている動き補償予測技術の概要を説明する。H.264の動き補償予測は、符号化対象フレームを様々なサイズのブロックに分割し、各ブロックで異なる動きベクトルと異なる参照フレームを持つことを許可している。各ブロックで異なる動きベクトルを使用することで、被写体ごとに異なる動きを補償した精度の高い予測を実現している。一方、各ブロックで異なる参照フレームを使用することで、時間変化によって生じるオクルージョンを考慮した精度の高い予測を実現している。
次に、従来の多視点画像や多視点動画像の符号化方式について説明する。多視点画像の符号化方法と、多視点動画像の符号化方法との違いは、多視点動画像にはカメラ間の相関に加えて、時間方向の相関が同時に存在するということである。しかし、カメラ間の相関を利用する方法はどちらの場合でも、同じ方法を用いることができる。そのため、ここでは多視点動画像の符号化において用いられる方法について説明する。
多視点動画像の符号化については、カメラ間の相関を利用するために、動き補償予測を同じ時刻の異なるカメラで撮影された画像に適用した“視差補償予測”によって高効率に多視点動画像を符号化する方式が従来から存在する。ここで、視差とは、異なる位置に配置されたカメラの画像平面上で、被写体上の同じ部分が存在する位置の差である。図21は、カメラ間で生じる視差を示す概念図である。図21に示す概念図では、光軸が平行なカメラの画像平面を垂直に見下ろしたものとなっている。このように、異なるカメラの画像平面上で被写体上の同じ部分が投影される位置は、一般的に対応点と呼ばれる。
視差補償予測では、この対応関係に基づいて、符号化対象フレームの各画素値を参照フレームから予測して、その予測残差と、対応関係を示す視差情報とを符号化する。視差は対象とするカメラ対や位置ごとに変化するため、視差補償予測を行う領域ごとに視差情報を符号化することが必要である。実際に、H.264の多視点符号化方式では、視差補償予測を用いるブロックごとに視差情報を表すベクトルを符号化している。
視差情報によって与えられる対応関係は、カメラパラメータを用いることで、エピポーラ幾何拘束に基づき、2次元ベクトルではなく、被写体の3次元位置を示す1次元量で表すことができる。被写体の3次元位置を示す情報としては、様々な表現が存在するが、基準となるカメラから被写体までの距離や、カメラの画像平面と平行ではない軸上の座標値を用いることが多い。なお、距離ではなく距離の逆数を用いる場合もある。また、距離の逆数は視差に比例する情報となるため、基準となるカメラを2つ設定し、それらのカメラで撮影された画像間での視差量として表現する場合もある。どのような表現を用いたとしてもその物理的な意味に本質的な違いはないため、以下では、表現による区別をせずに、それら3次元位置を示す情報をデプスと表現する。
図22はエピポーラ幾何拘束の概念図である。エピポーラ幾何拘束によれば、あるカメラの画像上の点に対応する別のカメラの画像上の点はエピポーラ線という直線上に拘束される。このとき、その画素に対するデプスが得られた場合、対応点はエピポーラ線上に一意に定まる。例えば、図22に示すように、第1のカメラ画像においてmの位置に投影された被写体に対する第2のカメラ画像での対応点は、実空間における被写体の位置がM’の場合にはエピポーラ線上の位置m’に、実空間における被写体の位置がM’’の場合にはエピポーラ線上の位置m’’に、投影される。
非特許文献2では、この性質を利用して、参照フレームに対するデプスマップ(距離画像)によって与えられる各被写体の3次元情報に従って、参照フレームから符号化対象フレームに対する予測画像を合成することで、精度の高い予測画像を生成し、効率的な多視点動画像の符号化を実現している。なお、このデプスに基づいて生成される予測画像は視点合成画像、視点補間画像、または視差補償画像と呼ばれる。
さらに、特許文献1では、最初に参照フレームに対するデプスマップ(参照デプスマップ)を符号化対象フレームに対するデプスマップ(仮想デプスマップ)へと変換し、その変換されたデプスマップ(仮想デプスマップ)を用いて対応点を求めることで、必要な領域に対してのみ視点合成画像を生成することを可能にしている。これによって、符号化対象または復号対象となるフレームの領域ごとに、予測画像を生成する方法を切り替えながら画像または動画像を符号化または復号する場合において、視点合成画像を生成するための処理量や、視点合成画像を一時的に蓄積するためのメモリ量の削減を実現している。
特開2010−21844号公報
ITU-T Recommendation H.264 (03/2009), "Advanced video coding for generic audiovisual services", March, 2009. Shinya SHIMIZU, Masaki KITAHARA, Kazuto KAMIKURA and Yoshiyuki YASHIMA, "Multi-view Video Coding based on 3-D Warping with Depth Map", In Proceedings of Picture Coding Symposium 2006, SS3-6, April, 2006. Y. Mori, N. Fukushima, T. Fuji, and M. Tanimoto, "View Generation with 3D Warping Using Depth Information for FTV", In Proceedings of 3DTV-CON2008, pp.229-232, May 2008.
特許文献1の方法によれば、符号化対象フレームに対してデプスが得られるため、符号対象フレームの画素から参照フレーム上の対応する画素を求めることが可能となる。これにより、符号化対象フレームの指定された領域のみに対して視点合成画像を生成することで、常に1フレーム分の視点合成画像を生成する場合に比べて、処理量や要求されるメモリの量を削減することができる。
しかしながら、参照フレームに対するデプスマップ(参照デプスマップ)から符号化対象フレームに対するデプスマップ(仮想デプスマップ)を合成する方法では、図11に示すように、符号化対象フレームを撮影した視点からは観測可能だが、参照フレームを撮影した視点からは観測不可能な符号化対象フレーム上の領域(以下、オクルージョン領域OCCと称する)に対しては、デプス情報が得られないという問題がある。図11は、オクルージョン領域OCCが発生する状況を示す説明図である。これは、参照フレームに対するデプスマップ上に、対応するデプス情報が存在しないためである。デプス情報が得られない結果、視点合成画像を生成することができない状況が発生する。
特許文献1では、変換して得られた符号化対象フレームに対するデプスマップ(仮想デプスマップ)に対して、実空間での連続性を仮定した補正をすることで、オクルージョン領域OCCに対してもデプス情報を生成する方法も提供している。この場合、オクルージョン領域OCCは周辺のオブジェクトによって遮蔽されていた領域となるため、実空間での連続性を仮定した補正では、オクルージョン領域の周辺の背景オブジェクトOBJ−Bのデプス、または、前景オブジェクトOBJ−Fと背景オブジェクトOBJ−Bとを滑らかにつなぐデプスが、オクルージョン領域OCCのデプスとして与えられる。
図13は、オクルージョン領域OCCに対して、その周辺の背景オブジェクトOBJ−Bのデプスが与えられた場合(すなわち、背景オブジェクトの連続性を仮定して、オクル―ジョン領域OCCにデプスが与えられた場合)のデプスマップを示す。この場合、符号化対象フレームのオクリュージョン領域OCCにおけるデプス値として、背景オブジェクトOBJ−Bのデプス値が与えられる。従って、生成された仮想デプスマップを用いて視点合成画像を生成すると、図19に示すように、参照フレームではオクルージョンのために背景オブジェクトOBJ−Bが前景オブジェクトOBJ−Fに遮蔽されているため、オクルージョン領域OCC上の画素は、参照フレーム上の前景オブジェクトOBJ−F上の画素と対応づけられ、視点合成画像の品質が低下してしまう。図19は、オクル―ジョン領域OCCにおいて背景オブジェクトの連続性を仮定した場合に、オクルージョン領域OCCを含む符号化対象フレームに生成される視点合成画像を示す説明図である。
一方、図14は、オクルージョン領域OCCに対して、前景オブジェクトOBJ−Fと背景オブジェクトOBJ−Bとを滑らかにつなぐデプスが与えられた場合(すなわち、被写体の連続性を仮定してオクル―ジョン領域OCCにデプスが与えられた場合)のデプスマップを示す。この場合、符号化対象フレームのオクリュージョン領域OCCにおけるデプス値として、視点から近いことを示すデプス値から視点から遠いことを示すデプス値まで連続的に変化するデプス値が与えられる。そのような仮想デプスマップを用いて視点合成画像を生成すると、図20に示すように、オクル―ジョン領域OCC上の画素は、参照フレーム上の前景オブジェクトOBJ−Fの画素と背景オブジェクトOBJ−Bの画素との間に対応づけられる。図20は、オクルージョン領域OCCに対して前景オブジェクトOBJ−Fと背景オブジェクトOBJ−Bとを滑らかにつなぐデプスを与えた状況において、オクルージョン領域OCCを含む符号化対象フレームに生成される視点合成画像を示す説明図である。この時のオクルージョン領域OCCの画素値は前景オブジェクトOBJ−Fの画素と背景オブジェクトOBJ−Bの画素を補間することで得られる。すなわち、オクルージョン領域OCCの画素は前景オブジェクトOBJ−Fと背景オブジェクトOBJ−Bとが混ざった値を持つことになり、現実では基本的に発生しない状況であるため、視点合成画像の品質は低下してしまう。
このようなオクルージョン領域に対しては、非特許文献3に代表されるように、オクルージョン領域の周辺領域で得られる視点合成画像を用いてインペイント処理を行うことで、視点合成画像を生成することが可能である。しかしながら、インペイント処理を行うためには、オクルージョン領域の周辺領域に対しても視点合成画像を生成する必要があるため、符号化対象フレームの指定された領域のみに対して視点合成画像を生成して処理量や一時メモリの量を削減することができるという特許文献1の効果が得られなくなる。
本発明は、このような事情に鑑みてなされたもので、参照フレームに対してデプスマップを用いて、符号化処理または復号処理対象のフレームの視点合成画像を生成する際に、視点合成画像の品質の低下を抑えつつ、高い符号化効率とメモリ容量及び演算量の削減を実現することが可能な画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体を提供することを目的とする。
本発明は、複数の視点の画像である多視点画像を符号化する際に、符号化対象画像の視点とは異なる視点に対する符号化済みの参照画像と、前記参照画像中の被写体のデプスマップである参照デプスマップとを用いて、視点間で画像を予測しながら符号化を行う画像符号化方法であって、前記参照デプスマップを、前記符号化対象画像中の被写体のデプスマップである仮想デプスマップに変換するデプスマップ変換ステップと、前記被写体の前後関係によって生じる前記参照デプスマップ内にデプス値が存在しない仮想デプスマップ上で生ずるオクルージョン領域に対して、前記参照画像において遮蔽されている被写体と同じ被写体上の領域に対して対応関係が得られるデプス値を割り当てることにより前記オクルージョン領域のデプス値を生成するオクルージョン領域デプス生成ステップと、前記オクルージョン領域に対するデプス値を生成した後の前記仮想デプスマップと前記参照画像とから、前記符号化対象画像に対する視差補償画像を生成することで、視点間の画像予測を行う視点間画像予測ステップとを有する。
本発明の画像符号化方法においては、前記オクルージョン領域デプス生成ステップでは、前記参照デプスマップ上において前記オクルージョン領域を遮蔽する被写体の連続性を仮定することにより前記オクルージョン領域のデプス値を生成するようにしてもよい。
本発明の画像符号化方法においては、前記オクルージョン領域に対応する前記参照デプスマップ上の画素境界を決定するオクルージョン発生画素境界決定ステップをさらに有し、前記オクルージョン領域デプス生成ステップでは、前記画素境界に隣接する前記参照デプスマップの画素のうち、前記参照デプスマップ上で前記視点から近いことを示すデプス値を持つ画素を、視点から遠いことを示すデプス値を持つ画素の向きに伸張し、伸張した画素の位置において、前記視点から近いことを示すデプス値を持つ画素と同じデプス値から、前記視点から遠いことを示すデプス値を持つ画素と同じデプス値まで、前記被写体が連続的に存在すると仮定して、当該仮定された被写体のデプスを前記符号化対象画像上のデプスへと変換することで、前記オクルージョン領域のデプス値を生成するようにしてもよい。
本発明の画像符号化方法においては、前記オクルージョン領域を前記参照デプスマップ上で遮蔽する領域に対する前記仮想デプスマップ上の被写体領域を決定する被写体領域決定ステップと、前記被写体領域を前記オクルージョン領域の方向へ画素を伸張する被写体領域伸張ステップとをさらに有してもよく、前記オクルージョン領域デプス生成ステップでは、前記伸張して生成された画素と、前記オクルージョン領域に隣接し前記被写体領域とは反対方向に存在する画素との間でデプス値を滑らかに補間することにより前記オクルージョン領域のデプス値を生成するようにしてもよい。
本発明の画像符号化方法においては、前記デプスマップ変換ステップでは、前記参照デプスマップの参照画素ごとに前記仮想デプスマップ上の対応画素を求め、前記参照画素に対するデプスと同じ3次元位置を示すデプスを、前記対応画素に割り当てることにより仮想デプスマップへの変換を行うようにしてもよい。
また、本発明は、多視点画像の復号対象画像を復号する際に、復号済みの参照画像と、前記参照画像中の被写体のデプスマップである参照デプスマップとを用いて、視点間で画像を予測しながら復号を行う画像復号方法であって、前記参照デプスマップを、前記復号対象画像中の被写体のデプスマップである仮想デプスマップに変換するデプスマップ変換ステップと、前記被写体の前後関係によって生じる前記参照デプスマップ内にデプス値が存在しない仮想デプスマップ上で生ずるオクルージョン領域に対して、前記参照画像において遮蔽されている被写体と同じ被写体上の領域に対して対応関係が得られるデプス値を割り当てることにより前記オクルージョン領域のデプス値を生成するオクルージョン領域デプス生成ステップと、前記オクルージョン領域に対するデプス値を生成した後の前記仮想デプスマップと前記参照画像とから、前記復号対象画像に対する視差補償画像を生成することで、視点間の画像予測を行う視点間画像予測ステップとを有する。
本発明の画像復号方法においては、前記オクルージョン領域デプス生成ステップでは、前記参照デプスマップ上において前記オクルージョン領域を遮蔽する被写体の連続性を仮定することにより前記オクルージョン領域のデプス値を生成するようにしてもよい。
本発明の画像復号方法においては、前記オクルージョン領域に対応する前記参照デプスマップ上の画素境界を決定するオクルージョン発生画素境界決定ステップをさらに有し、
前記オクルージョン領域デプス生成ステップでは、前記画素境界に隣接する前記参照デプスマップの画素のうち、前記参照デプスマップ上で前記視点から近いことを示すデプス値を持つ画素を、視点から遠いことを示すデプス値を持つ画素の向きに伸張し、伸張した画素の位置において、前記視点から近いことを示すデプス値を持つ画素と同じデプス値から、前記視点から遠いことを示すデプス値を持つ画素と同じデプス値まで、前記被写体が連続的に存在すると仮定して、当該仮定された被写体のデプスを前記復号対象画像上のデプスへと変換することで、前記オクルージョン領域のデプス値を生成するようにしてもよい。
本発明の画像復号方法においては、前記オクルージョン領域を前記参照デプスマップ上で遮蔽する領域に対する前記仮想デプスマップ上の被写体領域を決定する被写体領域決定ステップと、前記被写体領域を前記オクルージョン領域の方向へ画素を伸張する被写体領域伸張ステップとをさらに有してもよく、前記オクルージョン領域デプス生成ステップでは、前記伸張して生成された画素と、前記オクルージョン領域に隣接し前記被写体領域とは反対方向に存在する画素との間でデプス値を滑らかに補間することにより前記オクルージョン領域のデプス値を生成するようにしてもよい。
本発明の画像復号方法においては、前記デプスマップ変換ステップでは、前記参照デプスマップの参照画素ごとに前記仮想デプスマップ上の対応画素を求め、前記参照画素に対するデプスと同じ3次元位置を示すデプスを、前記対応画素に割り当てることにより仮想デプスマップへの変換を行うようにしてもよい。
本発明は、複数の視点の画像である多視点画像を符号化する際に、符号化対象画像の視点とは異なる視点に対する符号化済みの参照画像と、前記参照画像中の被写体のデプスマップである参照デプスマップとを用いて、視点間で画像を予測しながら符号化を行う画像符号化装置であって、前記参照デプスマップを、前記符号化対象画像中の被写体のデプスマップである仮想デプスマップに変換するデプスマップ変換部と、前記被写体の前後関係によって生じる前記参照デプスマップ内にデプス値が存在しない仮想デプスマップ上で生ずるオクルージョン領域に対して、前記参照画像において遮蔽されている被写体と同じ被写体上の領域に対して対応関係が得られるデプス値を割り当てることにより前記オクルージョン領域のデプス値を生成するオクルージョン領域デプス生成部と、前記オクルージョン領域に対するデプス値を生成した後の前記仮想デプスマップと前記参照画像とから、前記符号化対象画像に対する視差補償画像を生成することで、視点間の画像予測を行う視点間画像予測部とを備える。
本発明の画像符号化装置においては、前記オクルージョン領域デプス生成部は、前記参照デプスマップ上において前記オクルージョン領域を遮蔽する被写体の連続性を仮定することにより前記オクルージョン領域のデプス値を生成するようにしてもよい。
さらに、本発明は、多視点画像の復号対象画像を復号する際に、復号済みの参照画像と、前記参照画像中の被写体のデプスマップである参照デプスマップとを用いて、視点間で画像を予測しながら復号を行う画像復号装置であって、前記参照デプスマップを、前記復号対象画像中の被写体のデプスマップである仮想デプスマップに変換するデプスマップ変換部と、前記被写体の前後関係によって生じる前記参照デプスマップ内にデプス値が存在しない仮想デプスマップ上で生ずるオクルージョン領域に対して、前記参照画像において遮蔽されている被写体と同じ被写体上の領域に対して対応関係が得られるデプス値を割り当てることにより前記オクルージョン領域のデプス値を生成するオクルージョン領域デプス生成部と、前記オクルージョン領域に対するデプス値を生成した後の前記仮想デプスマップと前記参照画像とから、前記復号対象画像に対する視差補償画像を生成することで、視点間の画像予測を行う視点間画像予測部とを備える。
本発明の画像復号装置においては、前記オクルージョン領域デプス生成部は、前記参照カメラデプスマップ上において前記オクルージョン領域を遮蔽する被写体の連続性を仮定することにより前記オクルージョン領域のデプス値を生成するようにしてもよい。
本発明は、コンピュータに、前記画像符号化方法を実行させるための画像符号化プログラムである。
本発明は、コンピュータに、前記画像復号方法を実行させるための画像復号プログラムである。
本発明は、前記画像符号化プログラムを記録したコンピュータ読み取り可能な記録媒体である。
本発明は、前記画像復号プログラムを記録したコンピュータ読み取り可能な記録媒体である。
本発明によれば、参照フレームに対してデプスマップを用いて、符号化処理または復号処理対象のフレームの視点合成画像を生成する際に、視点合成画像の品質の低下を抑えつつ、高い符号化効率とメモリ容量及び演算量の削減を実現することができるという効果が得られる。
本発明の一実施形態における画像符号化装置の構成を示すブロック図である。 図1に示す画像符号化装置の動作を示すフローチャートである。 図1に示す画像符号化装置における、符号化対象画像を符号化する動作の他の例を示すフローチャートである。 図2、図3に示す参照カメラデプスマップの変換処理の処理動作を示すフローチャートである。 図1に示すデプスマップ変換部における、参照カメラデプスマップから仮想デプスマップを生成する動作を示すフローチャートである。 本発明の一実施形態における画像復号装置の構成を示すブロック図である。 図6に示す画像復号装置の動作を示すフローチャートである。 図6に示す画像復号装置における、復号対象画像を復号する動作の他の例を示すフローチャートである。 本発明の一実施例の画像符号化装置の構成の他の例を示すブロック図である。 本発明の一実施例の画像復号装置の構成の他の例を示すブロック図である。 符号化対象フレームにおいて発生するオクルージョン領域示す説明図である。 本発明の一実施例における、オクルージョン領域に対するデプスを生成する動作を示す説明図である。 背景オブジェクトの連続性を仮定して、オクリュージョン領域を含む符号化対象領域の仮想デプスマップを作成する従来の処理を示す断面図である。 前景オブジェクトと背景オブジェクトとの連続性を仮定して、オクリュージョン領域を含む符号化対象領域の仮想デプスマップを作成する従来の処理の他の例を示す断面図である。 前景オブジェクトの連続性を仮定して、オクリュージョン領域を含む符号化対象領域の仮想デプスマップを作成する本発明の一実施例の処理を示す断面図である。 前景オブジェクトを伸張させた後に被写体の連続性を仮定して、オクリュージョン領域を含む符号化対象領域の仮想デプスマップを作成する本発明の他の実施例の処理を示す断面図である。 図15に示す仮想デプスマップを用いて作成される、オクルージョン領域を含む符号化対象領域の視差補償画像を生成する本発明の一実施例の処理を示す断面図である。 図16に示す仮想デプスマップを用いて作成される、オクルージョン領域を含む符号化対象領域の視差補償画像を生成する本発明の他の実施例の処理を示す断面図である。 図13に示す仮想デプスマップを用いて作成される、オクルージョン領域を含む符号化対象領域の視差補償画像を生成する従来の処理を示す断面図である。 図14に示す仮想デプスマップを用いて作成される、オクルージョン領域を含む符号化対象領域の視差補償画像を生成する従来の処理の他の例を示す断面図である。 カメラ(視点)間で生じる視差を示す断面図である。 エピポーラ幾何拘束を説明するための概念図である。
以下、図面を参照して、本発明の実施形態による画像符号化装置及び画像復号装置を説明する。以下の説明においては、第1のカメラ(カメラAという)、第2のカメラ(カメラBという)の2つのカメラで撮影された多視点画像を符号化する場合を想定し、カメラAの画像を参照画像としてカメラBの画像を符号化または復号するものとして説明する。
なお、デプス情報から視差を得るために必要となる情報は別途与えられているものとする。具体的には、カメラAとカメラBの位置関係を表す外部パラメータや、カメラによる画像平面への投影情報を表す内部パラメータであるが、これら以外の形態であってもデプス情報から視差が得られるものであれば、別の情報が与えられていてもよい。これらのカメラパラメータに関する詳しい説明は、例えば、文献「Oliver Faugeras, "Three-Dimension Computer Vision", MIT Press; BCTC/UFF-006.37 F259 1993, ISBN:0-262-06158-9.」に記載されている。この文献には、複数のカメラの位置関係を示すパラメータや、カメラによる画像平面への投影情報を表すパラメータに関する説明が記載されている。
以下の説明では、画像や映像フレーム、デプスマップに対して、記号[]で挟まれた位置を特定可能な情報(座標値もしくは座標値に対応付け可能なインデックス)を付加することで、その位置の画素によってサンプリングされた画像信号や、それに対するデプスを示すものとする。また、デプスはカメラから離れる(視差が小さい)ほど小さな値を持つ情報であるとする。デプスの大小とカメラからの距離の関係が逆に定義されている場合は、デプスに対する値の大きさの記述を適宜読み替える必要がある。
図1は本実施形態における画像符号化装置の構成を示すブロック図である。画像符号化装置100は、図1に示すように、符号化対象画像入力部101、符号化対象画像メモリ102、参照カメラ画像入力部103、参照カメラ画像メモリ104、参照カメラデプスマップ入力部105、デプスマップ変換部106、仮想デプスマップメモリ107、視点合成画像生成部108及び画像符号化部109を備えている。
符号化対象画像入力部101は、符号化対象となる画像を入力する。以下では、この符号化対象となる画像を符号化対象画像と称する。ここではカメラBの画像を入力するものとする。また、符号化対象画像を撮影したカメラ(ここではカメラB)を符号化対象カメラと称する。符号化対象画像メモリ102は、入力した符号化対象画像を記憶する。参照カメラ画像入力部103は、視点合成画像(視差補償画像)を生成する際に参照画像となる画像を入力する。ここではカメラAの画像を入力するものとする。参照カメラ画像メモリ104は、入力された参照画像を記憶する。
参照カメラデプスマップ入力部105は、参照画像に対するデプスマップを入力する。
以下では、この参照画像に対するデプスマップを参照カメラデプスマップまたは参照デプスマップと称する。なお、デプスマップとは対応する画像の各画素に写っている被写体の3次元位置を表すものである。別途与えられるカメラパラメータ等の情報によって3次元位置が得られるものであれば、どのような情報でもよい。例えば、カメラから被写体までの距離や、画像平面とは平行ではない軸に対する座標値、別のカメラ(例えばカメラB)に対する視差量を用いることができる。また、ここではデプスマップとして画像の形態で渡されるものとしているが、同様の情報が得られるのであれば、画像の形態でなくても構わない。以下では、参照カメラデプスマップに対応するカメラを参照カメラと称する。
デプスマップ変換部106は、参照カメラデプスマップ(参照デプスマップ)を用いて、符号化対象画像に対するデプスマップを生成する。この符号化対象画像に対して生成されたデプスマップを仮想デプスマップと呼ぶ。仮想デプスマップメモリ107は、生成された仮想デプスマップを記憶する。
視点合成画像生成部108は、仮想デプスマップメモリ107から得られる仮想デプスマップを用いて、符号化対象画像の画素と参照カメラ画像の画素との対応関係を求め、符号化対象画像に対する視点合成画像を生成する。画像符号化部109は、視点合成画像を用いて、符号化対象画像に対して予測符号化を行い符号データであるビットストリームを出力する。
次に、図2を参照して、図1に示す画像符号化装置100の動作を説明する。図2は、図1に示す画像符号化装置100の動作を示すフローチャートである。まず、符号化対象画像入力部101は、符号化対象画像を入力し、符号化対象画像メモリ102に記憶する(ステップS1)。次に、参照カメラ画像入力部103は、参照カメラ画像を入力し、参照カメラ画像メモリ104に記憶する。これと並行して、参照カメラデプスマップ入力部105は参照カメラデプスマップを入力し、デプスマップ変換部106へ出力する(ステップS2)。
なお、ステップS2で入力される参照カメラ画像、参照カメラデプスマップは、既に符号化済みのものを復号したものなど、復号側で得られるものと同じものとする。これは復号装置で得られるものと全く同じ情報を用いることで、ドリフト等の符号化ノイズの発生を抑えるためである。ただし、そのような符号化ノイズの発生を許容する場合には、符号化前のものなど、符号化側でしか得られないものが入力されてもよい。参照カメラデプスマップに関しては、既に符号化済みのものを復号したもの以外に、複数のカメラに対して復号された多視点画像に対してステレオマッチング等を適用することで推定したデプスマップや、復号された視差ベクトルや動きベクトルなどを用いて推定されるデプスマップなども、復号側で同じものが得られるものとして用いることができる。
次に、デプスマップ変換部106は、参照カメラデプスマップから仮想デプスマップを生成し、仮想デプスマップメモリ107に記憶する(ステップS3)。ここでの処理の詳細については後述する。
次に、視点合成画像生成部108は、参照カメラ画像メモリ104に記憶されている参照カメラ画像と、仮想デプスマップメモリ107に記憶されている仮想デプスマップとから、符号化対象画像に対する視点合成画像を生成し、画像符号化部109へ出力する(ステップS4)。ここでの処理は、符号化対象画像に対するデプスマップと、符号化対象カメラとは異なるカメラで撮影された画像とを用いて、符号化対象カメラの画像を合成する方法であれば、どのような方法を用いても構わない。
例えば、まず、符号化対象画像の1つの画素を選択し、仮想デプスマップ上で対応する画素のデプス値を用いて、参照カメラ画像上の対応点を求める。次に、その対応点の画素値を求める。そして、得られた画素値を選択した符号化対象画像の画素と同じ位置の視点合成画像の画素値として割り当てる。この処理を符号化対象画像の全ての画素に対して行うことで、1フレーム分の視点合成画像が得られる。なお、参照カメラ画像上の対応点が、フレーム外になった場合は、画素値なしとしても構わないし、あらかじめ定められた画素値を割り当てても構わないし、最も近いフレーム内の画素の画素値やエピポーラ直線状で最も近いフレーム内の画素の画素値を割り当てても構わない。ただし、どのように決定するかは復号側と同じにする必要がある。さらに、1フレーム分の視点合成画像が得られた後に、ローパスフィルタ等のフィルタをかけても構わない。
次に、視点合成画像が得られた後に、画像符号化部109は、視点合成画像を予測画像として、符号化対象画像を予測符号化して出力する(ステップS5)。符号化の結果得られるビットストリームが画像符号化装置100の出力となる。なお、復号側で正しく復号可能であるならば、符号化にはどのような方法を用いてもよい。
MPEG−2やH.264、JPEGなどの一般的な動画像符号化または画像符号化では、画像を予め定められた大きさのブロックに分割して、ブロックごとに、符号化対象画像と予測画像との差分信号を生成し、差分画像に対してDCT(discrete cosine transform)などの周波数変換を施し、その結果得られた値に対して、量子化、2値化、エントロピー符号化の処理を順に適用することで符号化を行う。
なお、予測符号化処理をブロックごとに行う場合、視点合成画像の生成処理(ステップS4)と符号化対象画像の符号化処理(ステップS5)をブロック毎に交互に繰り返すことで、符号化対象画像を符号化してもよい。その場合の処理動作を図3を参照して説明する。図3は、視点合成画像の生成処理と符号化対象画像の符号化処理をブロック毎に交互に繰り返すことで、符号化対象画像を符号化する動作を示すフローチャートである。図3において、図2に示す処理動作と同一の部分には同一の符号を付し、その説明を簡単に行う。図3に示す処理動作では予測符号化処理を行う単位となるブロックのインデックスをblkとし、符号化対象画像中のブロック数をnumBlksで表している。
まず、符号化対象画像入力部101は、符号化対象画像を入力し、符号化対象画像メモリ102に記憶する(ステップS1)。次に、参照カメラ画像入力部103は参照カメラ画像を入力し、参照カメラ画像メモリ104に記憶する。これと並行して、参照カメラデプスマップ入力部105は参照カメラデプスマップを入力し、デプスマップ変換部106へ出力する(ステップS2)。
次に、デプスマップ変換部106は、参照カメラデプスマップ入力部105から出力する参照カメラデプスマップに基づき仮想デプスマップを生成し、仮想デプスマップメモリ107に記憶する(ステップS3)。そして、視点合成画像生成部108は、変数blkに0を代入する(ステップS6)。
次に、視点合成画像生成部108は、参照カメラ画像メモリ104に記憶されている参照カメラ画像と、仮想デプスマップメモリ107に記憶されている仮想デプスマップとから、ブロックblkに対する視点合成画像を生成し、画像符号化部109へ出力する(ステップS4a)。続いて、視点合成画像を得た後に、画像符号化部109は、視点合成画像を予測画像として、ブロックblkに対する符号化対象画像を予測符号化して出力する(ステップS5a)。そして、視点合成画像生成部108は、変数blkをインクリメントし(blk←blk+1,ステップS7)、blk<numBlksを満たすか否かを判定する(ステップS8)。この判定の結果、blk<numBlksを満たしていればステップS4aに戻って処理を繰り返し、blk=numBlksを満たした時点で処理を終了する。
次に、図4を参照して、図1に示すデプスマップ変換部106の処理動作を説明する。
図4は、図2、図3に示す参照カメラデプスマップの変換処理(ステップS3)の処理動作を示すフローチャートである。この処理では、3つのステップによって、参照カメラデプスマップから仮想デプスマップを生成する。各ステップでは、仮想デプスマップの異なる領域に対してデプス値を生成する。
まず、デプスマップ変換部106は、符号化対象画像と参照カメラデプスマップとの両方に写っている領域に対する仮想デプスマップを生成する(ステップS21)。この領域は、参照カメラデプスマップに含まれているデプス情報であり、仮想デプスマップにも存在すべき情報となるため、参照カメラデプスマップを変換することで求める仮想デプスマップが得られる。どのような処理を用いても構わないが、例えば、非特許文献3に記載の方法を用いても構わない。
別の方法としては、参照カメラデプスマップから各画素の3次元位置が得られるため、被写体空間の3次元モデルを復元し、復元されたモデルを符号化対象カメラから観測した際のデプスを求めることで、この領域に対する仮想デプスマップを生成することもできる。更に別の方法としては、参照カメラデプスマップの画素ごとに、その画素のデプス値を用いて、仮想デプスマップ上の対応点を求め、その対応点に変換したデプス値を割り当てることで生成することができる。ここで、変換したデプス値とは、参照カメラデプスマップに対するデプス値を、仮想デプスマップに対するデプス値へと変換したものである。デプス値を表現する座標系として、参照カメラデプスマップと仮想デプスマップとで、共通の座標系を用いる場合は、変換せずに参照カメラデプスマップのデプス値を使用することになる。
なお、対応点は必ずしも仮想デプスマップの整数画素位置として得られるわけではないため、参照カメラデプスマップ上で隣接する画素との、仮想デプスマップ上での連続性を仮定することで、仮想デプスマップの各画素に対するデプス値を補間して生成する必要がある。ただし、参照カメラデプスマップ上で隣接する画素に対して、そのデプス値の変化が予め定められた範囲内の場合においてのみ連続性を仮定する。これは、デプス値が大きく異なる画素には、異なる被写体が写っていると考えられ、実空間における被写体の連続性を仮定できないためである。また、得られた対応点から1つまたは複数の整数画素位置を求め、その画素に対して変換したデプス値を割り当てても構わない。この場合、デプス値の補間を行う必要がなくなり、演算量を削減することができる。
また、被写体の前後関係によって、参照カメラ画像の一部の領域が、参照カメラ画像の別の領域によって遮蔽され、符号化対象画像には写らない領域が存在するため、この方法を用いる場合は、前後関係を考慮しながら、対応点にデプス値を割り当てる必要がある。
ただし、符号化対象カメラと参照カメラの光軸が同一平面上に存在する場合、符号化対象カメラと参照カメラとの位置関係に従って、参照カメラデプスマップの画素を処理する順序を決定し、その決定された順序に従って処理を行うことで、前後関係を考慮せずに、得られた対応点に対して常に上書き処理を行うことで、仮想デプスマップを生成することができる。具体的には、符号化対象カメラが参照カメラよりも右に存在している場合、参照カメラデプスマップの画素を各行で左から右にスキャンする順で処理し、符号化対象カメラが参照カメラよりも左に存在している場合、参照カメラデプスマップの画素を各行で右から左にスキャンする順で処理することで、前後関係を考慮する必要がなくなる。なお、前後関係を考慮する必要がなくなることによって、演算量を削減することができる。
ステップS21が終了した時点で、デプス値が得られていない仮想デプスマップの領域は、参照カメラデプスマップにおいて写っていない領域となる。図11は、オクルージョン領域OCCが発生する状況を示す説明図である。図11に示す通り、この領域には、被写体の前後関係によって写っていない領域(オクルージョン領域OCC)と、参照カメラデプスマップのフレーム外に対応するために写っていない領域(フレーム外領域OUT)の2種類の領域が存在する。そこで、デプスマップ変換部106は、オクルージョン領域OCCに対してデプスを生成する(ステップS22)。
オクルージョン領域OCCに対するデプスを生成する第1の方法は、オクルージョン領域OCCの周辺の前景オブジェクトOBJ−Fと同じデプス値を割り当てる方法である。オクルージョン領域OCCに含まれる画素ごとに割り当てるデプス値を求めても構わないし、オクルージョン領域OCCのラインごとやオクルージョン領域OCC全体など、複数画素に対して1つのデプス値を求めても構わない。なお、オクルージョン領域OCCのラインごとに求める場合は、エピポーラ直線が一致する画素のラインごとに求めても構わない。
具体的な処理としては、同一のデプス値を割り当てる画素の集合ごとに、まず、オクルージョン領域OCCの画素群を、参照カメラデプスマップ上で遮蔽する前景オブジェクトOBJ−Fが存在する仮想デプスマップ上の1つ以上の画素を決定する。次に、決定した前景オブジェクトOBJ−Fの画素の持つデプス値から割り当てるデプス値を決定する。複数の画素が得られた場合は、それらの画素に対するデプス値の平均値、中央値、最大値、最も多く表れた値のいずれかによって1つのデプス値を決定する。最後に、決定したデプス値を、その同一のデプスを割り当てる画素の集合に含まれる全ての画素に割り当てる。
なお、同一のデプスを割り当てる画素の集合ごとに、前景オブジェクトOBJ−Fが存在する画素を決定する際に、符号化対象カメラと参照カメラの位置関係から、オクルージョン領域OCCを、参照カメラデプスマップ上で遮蔽する被写体が存在する仮想デプスマップ上の方向を決定し、その方向に対してのみ探索を行うことで、前景オブジェクトOBJ−Fが存在する画素を決定するのに必要な処理を削減しても構わない。
さらに、ラインごとに1つのデプス値を割り当てた場合に、前景オブジェクトOBJ−Fから遠いオクルージョン領域OCCにおいて、複数ラインにわたって同じデプス値となるように、デプス値が滑らかに変化するように修正しても構わない。その際、前景オブジェクトOBJ−Fから近い画素から遠い画素へと、デプス値は単調に増加または減少するように変化させるものとする。
オクルージョン領域OCCに対するデプスを生成する第2の方法は、オクルージョン領域OCCの周辺の背景オブジェクトOBJ−Bに対する参照デプスマップ上の画素に対して、対応関係が得られるデプス値を割り当てる方法である。具体的な処理としては、まず、オクルージョン領域OCCの周辺の背景オブジェクトOBJ−Bに対する1つ以上の画素を選択し、そのオクルージョン領域OCCに対する背景オブジェクトデプス値として決定する。複数の画素を選択した場合は、それらの画素に対するデプス値の平均値、中央値、最小値、最も多く表れた値のいずれかによって1つの背景オブジェクトデプス値を決定する。
背景オブジェクトデプス値が得られたら、オクルージョン領域OCCの画素ごとに、背景オブジェクトデプス値より大きく、参照カメラデプスマップ上の背景オブジェクトOBJ−Bに対応する領域と対応関係が得られるデプス値のなかで、最小のデプス値を求め、仮想デプスマップのデプス値として割り当てる。
ここで、図12を参照して、オクルージョン領域OCCに対するデプスを生成する第2の方法の別の実現方法を説明する。図12は、オクルージョン領域OCCに対するデプスを生成する動作を示す説明図である。
まず、参照カメラデプスマップ上の前景オブジェクトOBJ−Fに対する画素と背景オブジェクトOBJ−Bに対する画素との境界であり、仮想デプスマップにおいてオクルージョン領域OCCが発生する境界Bを求める(S12−1)。次に、得られた境界に隣接する前景オブジェクトOBJ−Fの画素を1画素Eだけ、隣接する背景オブジェクトOBJ−Bの向きに伸張する(S12−2)。この時、伸張して得られた画素は、元の背景オブジェクトOBJ−Bの画素に対するデプス値と、隣接する前景オブジェクトOBJ−Fの画素に対するデプス値の2つのデプス値を持つ。
次に、その画素Eにおいて前景オブジェクトOBJ−Fと背景オブジェクトOBJ−Bとが連続していると仮定Aして(S12−3)、仮想デプスマップを生成する(S12−4)。すなわち、参照カメラデプスマップ上の画素Eの位置において、参照カメラから近いことを示すデプス値を持つ画素と同じデプス値から、参照カメラから遠いことを示すデプス値を持つ画素と同じデプス値まで、被写体が連続的に存在すると仮定して、仮定された被写体のデプスを符号化対象画像上のデプスへと変換することで、オクルージョン領域OCCの画素に対するデプス値を決定する。
ここでの最後の処理は、伸張して得られた画素に対する仮想デプスマップ上の対応点を、デプス値を変化させながら複数回求めることに相当する。なお、伸張して得られた画素に対して、元の背景オブジェクトOBJ−Bの画素に対するデプス値を用いて得られる対応点と、隣接する前景オブジェクトOBJ−Fの画素に対するデプス値を用いて得られる対応点とを求めて、その対応点間で線形補間を行うことで、オクルージョン領域OCCの画素に対するデプス値を求めても構わない。
一般に、オクルージョン領域OCCに対するデプス値の割り当てでは、オクルージョン領域OCCは前景オブジェクトOBJ−Fによって遮蔽される領域であることから、そのような実空間での構造を考慮して、図13に示すように、背景オブジェクトOBJ−Bの連続性を仮定して、周辺の背景オブジェクトOBJ−Bに対するデプス値を割り当てる。
図13は、背景オブジェクトOBJ−Bの連続性を仮定して、オクル―ジョン領域OCCの周辺の背景オブジェクトOBJ−Bに対するデプス値を割り当てる動作を示す説明図である。また、図14に示すように、参照カメラにおける被写体の連続性を考慮して、周辺領域の前景オブジェクトOBJ−Fと背景オブジェクトOBJ−Bとの間を補間したデプス値を割り当てることもある。
図14は、周辺領域の前景オブジェクトOBJ−Fと背景オブジェクトOBJ−Bとの間を補間したデプス値を割り当てる動作を示す説明図である。
しかしながら、前述したオクルージョン領域OCCに対するデプスを生成する第1の方法は、図15に示すように、実空間での構造を無視して、前景オブジェクトOBJ−Fの連続性を仮定した処理となる。図15は、前景オブジェクトOBJ−Fの連続性を仮定した処理動作を示す説明図である。
図15において、符号化対象フレームの仮想デプスマップは、オクル―ジョン領域OCCに、デプス値として前景オブジェクトOBJ−Fのデプス値が与えられることによって作成される。
また、第2の方法も、図16に示すように、オブジェクトの形状を変化させる処理となる。図16は、オブジェクトの形状を変化させる処理動作を示す説明図である。
図16において、符号化対象フレームの仮想デプスマップは、オクル―ジョン領域OCCに、デプス値として前景オブジェクトOBJ−Fを図12のS12−2に示すように伸張させた後に、S12−4に示すような連続性が仮定された被写体のデプス値が与えられることによって作成される。すなわち、図16のオクル―ジョン領域OCCには、デプス値として視点から近いことを示すデプス値から遠いことを示すデプス値まで図16の右方向に連続的に変化するデプス値が与えられる。
これらの仮定では、参照カメラに対して与えられた参照カメラデプスマップと矛盾することになる。実際に、このような仮定をした場合、図15および図16において破線の楕円で囲んだ画素において、デプス値の矛盾I1およびI2がそれぞれ発生していることが確認できる。図15の場合では、参照カメラデプスマップにおいては、背景オブジェクトOBJ−Bのデプス値が存在するはずの位置に、仮定した被写体空間では前景オブジェクトOBJ−Fのデプス値が存在してしまう。図16の場合では、参照カメラデプスマップにおいては、背景オブジェクトOBJ−Bのデプス値が存在するはずの位置に、仮定した被写体空間では前景オブジェクトOBJ−Fと背景オブジェクトOBJ−Bとをつなぐオブジェクトのデプス値が存在してしまう。
したがって、この方法では参照カメラデプスマップ上のオクルージョン領域OCCに対して、矛盾のないデプス値を生成することができない。しかし、このように生成された図15および図16に示された仮想デプスマップを用いて、符号化対象画像の画素ごとに対応点を求めて視点合成画像を合成した場合、各々図17および図18に示すように、オクルージョン領域OCCの画素には背景オブジェクトOBJ−Bの画素値が割り当てられることになる。
一方、従来の方法で矛盾の生じない仮想デプスマップを生成した場合は、図19および図20に示すように、オクルージョン領域OCCの画素に前景オブジェクトOBJ−Fの画素値が割り当てられることや、前景オブジェクトOBJ−Fと背景オブジェクトOBJ−Bの中間に対応するため、その両者から補間した画素値が割り当てることになる。図19および図20は、前景オブジェクトOBJ−Fの画素値や補間した画素値が割り当てられることを示す説明図である。オクルージョン領域OCCは前景オブジェクトOBJ−Fによって遮蔽される領域であることから、背景オブジェクトOBJ−Bが存在すると想定されるため、前述した手法の方が従来手法よりも、品質の高い視点合成画像を生成できることになる。
なお、従来手法で生成された仮想デプスマップを用いて視点合成画像を生成する際に、符号化対象画像の画素に対する仮想デプスマップのデプス値と、参照カメラ画像上の対応点に対する参照カメラデプスマップのデプス値を比較して、前景オブジェクトOBJ−Fによる遮蔽が発生しているか否か(それらのデプス値の差が小さいか否か)を判定して、遮蔽が発生していない(デプス値の差が小さい)場合にのみ、参照カメラ画像から画素値を生成することにすることで、誤った視点合成画像が生成されるのを防ぐことは可能である。
しかしながら、そのような方法では、遮蔽の発生の有無をチェックことによる演算量の増加が発生する。さらに、遮蔽が発生していた画素に対しては、視点合成画像を生成できない、または、画像復元(インペインティング)などの手法によって更なる演算量をかけて視点合成画像を生成する必要が生じてしまう。したがって、前述した手法を用いて仮想デプスマップを生成することで、少ない演算量で高品質な視点合成画像を生成できるという効果が得られる。
図4に戻り、オクルージョン領域OCCに対するデプスの生成が終了したら、デプスマップ変換部106は、フレーム外領域OUTに対するデプスを生成する(ステップS23)。なお、連続するフレーム外領域OUTに対して1つのデプス値を割り当てても構わないし、ラインごとに1つのデプス値を割り当てても構わない。具体的にはデプス値を決定するフレーム外領域OUTに隣接する画素のデプス値の最小値や、その最小値よりさらに小さな値の任意のデプス値を割り当てる方法がある。
なお、フレーム外領域OUTに対しては視点合成画像を生成しないのであれば、フレーム外領域OUTに対してはデプスを生成しなくても構わない。ただし、その場合は視点合成画像を生成するステップ(ステップS4またはステップS4a)において、有効なデプス値が与えられていない画素について、対応点を求めず、画素値を割り当てないもしくはデフォルトの画素値を割り当てるような視点合成画像の生成方法を用いる必要がある。
次に、図5を参照して、カメラ配置が一次元平行の場合に、デプスマップ変換部106の具体的な動作の一例を説明する。なお、カメラ配置が一次元平行とは、カメラの理論投影面が同一平面上に存在し、光軸が互いに平行な状態である。また、ここではカメラは水平方向に隣り合って設置されており、参照カメラが符号化対象カメラの左側に存在しているとする。このとき、画像平面上の水平ライン上の画素に対するエピポーラ直線は、同じ高さに存在する水平なライン状となる。このため、視差は常に水平方向にしか存在していないことになる。さらに投影面が同一平面上に存在するため、デプスを光軸方向の座標軸に対する座標値として表現する場合、カメラ間でデプスの定義軸が一致することになる。
図5は、デプスマップ変換部106が参照カメラデプスマップから仮想デプスマップを生成する動作を示すフローチャートである。図5においては、参照カメラデプスマップをRDepth、仮想デプスマップをVDepthと表記している。カメラ配置が一次元平行であるため、ラインごとに参照カメラデプスマップを変換して、仮想デプスマップを生成する。すなわち、参照カメラデプスマップのラインを示すインデックスをh、参照カメラデプスマップのライン数をHeightとすると、デプスマップ変換部106は、hを0で初期化した後(ステップS31)、hを1ずつ加算しながら(ステップS45)、hがHeightになるまで(ステップS46)、以下の処理(ステップS32〜ステップS44)を繰り返す。
ラインごとに行う処理では、まず、デプスマップ変換部106は、参照カメラデプスマップのデプスをワーピングする(ステップS32〜ステップS42)。その後、フレーム外領域OUTに対するデプスを生成する(ステップS43〜S44)ことで、1ライン分の仮想デプスマップを生成する。
参照カメラデプスマップのデプスをワーピングする処理は、参照カメラデプスマップの画素ごとに行われる。すなわち、水平方向の画素位置を示すインデックスをw、1ラインの総画素数をWidthとすると、デプスマップ変換部106は、wを0で、直前の画素のデプスをワーピングした仮想デプスマップ上の画素位置lastWを−1で初期化した後(ステップS32)、wを1ずつ加算しながら(ステップS41)、wがWidthになるまで(ステップS42)、以下の処理(ステップS33〜ステップS40)を繰り返す。
参照カメラデプスマップの画素ごとに行われる処理では、まず、デプスマップ変換部106は、参照カメラデプスマップの値から、画素(h,w)の仮想デプスマップに対する視差dvを求める(ステップS33)。ここでの処理は、デプスの定義によって異なる。
なお、視差dvは視差の方向を持ったベクトル量とし、参照カメラデプスマップの画素(h,w)が仮想デプスマップ上の画素(h,w+dv)と対応することを示すものとする。
次に、視差dvが得られたら、デプスマップ変換部106は、仮想デプスマップ上の対応画素がフレーム内に存在するか否かをチェックする(ステップS34)。ここでは、カメラの位置関係による制約からw+dvが負であるか否かをチェックする。w+dvが負の場合、対応画素が存在しないため、参照カメラデプスマップの画素(h,w)に対するデプスはワーピングせずに、画素(h,w)に対する処理を終了する。
w+dvが0以上の場合、デプスマップ変換部106は、仮想デプスマップの対応画素(h,w+dv)に参照カメラデプスマップの画素(h,w)に対するデプスをワーピングする(ステップS35)。次に、デプスマップ変換部106は、直前の画素のデプスをワーピングした位置と今回ワーピングを行った位置との位置関係をチェックする(ステップS36)。具体的には、直前の画素と今回の画素の参照カメラデプスマップ上での左右の順序が、仮想デプスマップ上でも同じか否かを判定する。位置関係が反転している場合は、直前に処理した画素よりも今回処理した画素の方がカメラに近い被写体が写っていたと判断され、特別な処理を行わず、lastWをw+dvに更新して(ステップS40)、画素(h,w)に対する処理を終了する。
一方、位置関係が反転していない場合、デプスマップ変換部106は、直前の画素のデプスをワーピングした位置lastWと今回ワーピングを行った位置w+dvの間に存在する仮想デプスマップの画素に対するデプスを生成する。そして、直前の画素のデプスをワーピングした位置と今回ワーピングを行った位置の間に存在する仮想デプスマップの画素に対するデプスを生成する処理では、まず、デプスマップ変換部106は、直前の画素と今回ワーピングを行った画素に同一の被写体が写っていたか否かをチェックする(ステップS37)。どのような方法を用いて判定を行っても構わないが、ここでは被写体の実空間での連続性から、同一被写体に対するデプスの変化は小さいと仮定した判定を行う。
具体的には、直前の画素のデプスをワーピングした位置と今回ワーピングを行った位置の差から得られる視差の差が予め定められた閾値より小さいか否かを判定する。
次に、位置の差が閾値より小さかった場合、デプスマップ変換部106は、2つの画素には同一の被写体が写っていたと判断し、直前の画素のデプスをワーピングした位置lastWと今回ワーピングを行った位置w+dvの間に存在する仮想デプスマップの画素に対するデプスを被写体の連続性を仮定して補間する(ステップS38)。デプスの補間にはどのような方法を用いても構わないが、例えば、lastWのデプスとw+dvのデプスを線形補間することで行っても構わないし、lastWのデプスまたはw+dvのデプスのどちらか一方と同じデプスを割り当てることで行っても構わない。
一方、位置の差が閾値以上だった場合、デプスマップ変換部106は、2つの画素には異なる被写体が写っていたと判断する。なお、その位置関係より、今回処理した画素よりも直前に処理した画素の方がカメラに近い被写体が写っていたと判断できる。すなわち、2つの画素の間はオクルージョン領域OCCであり、次に、このオクルージョン領域OCCに対してデプスを生成する(ステップS39)。オクルージョン領域OCCに対するデプスの生成方法は、前述の通り複数の方法が存在する。前述の第1の方法、すなわち、オクルージョン領域OCCの周辺の前景オブジェクトOBJ−Fのデプス値を割り当てる場合は、直前に処理した画素のデプスVDepth[h,lastW]を割り当てる。一方、前述の第2の方法、すなわち、前景オブジェクトOBJ−Fを伸張させ、背景と連続的にデプスを割り当てる場合は、VDepth[h,lastW]をVDepth[h,lastW+1]にコピーし、(h,lastW+1)から(h,w+dv)の間に存在する仮想デプスマップの画素については、VDepth[h,lastW+1]とVDepth[h,w+dv]のデプスを線形補間することで生成する。
次に、直前の画素のデプスをワーピングした位置と今回ワーピングを行った位置の間に存在する仮想デプスマップの画素に対するデプスの生成が終了したら、デプスマップ変換部106は、lastWをw+dvに更新して(ステップS40)、画素(h,w)に対する処理を終了する。
次に、フレーム外領域OUTに対するデプスの生成処理では、まず、デプスマップ変換部106は、参照カメラデプスマップのワーピング結果を確認し、フレーム外領域OUTが存在するか否かを判定する(ステップS43)。フレーム外領域OUTが存在しない場合は、何もせずに終了する。一方、フレーム外領域OUTが存在する場合、デプスマップ変換部106は、フレーム外領域OUTに対するデプスを生成する(ステップS44)。どのような方法を用いても構わないが、例えば、フレーム外領域OUTの全ての画素に対して、最後にワーピングしたデプスVDepth[h,lastW]を割り当てても構わない。
図5に示す処理動作は、参照カメラが符号化対象カメラの左側に設置されている場合の処理であるが、参照カメラと符号化対象カメラの位置関係が逆の場合は、処理する画素の順序や画素位置の判定条件を逆にすればよい。具体的には、ステップS32では、wはWidth−1で、lastWはWidthで初期化し、ステップS41ではwを1ずつ減算し、wが0未満になるまで(ステップS42)、前述の処理(ステップS33〜ステップS40)を繰り返す。また、ステップS34の判定条件はw+dv>=Width、ステップS36の判定条件はlastW>w+dv、ステップS37の判定条件はlastW−w−dv>thとなる。
また、図5に示す処理動作は、カメラ配置が一次元平行の場合の処理であるが、カメラ配置が一次元コンバージェンスの場合も、デプスの定義によっては同じ処理動作を適用することが可能である。具体的には、デプスを表現する座標軸が参照カメラデプスマップと仮想デプスマップとで同一の場合に、同じ処理動作を適用することが可能である。また、デプスの定義軸が異なる場合は、参照カメラデプスマップの値を直接、仮想デプスマップに割り当てるのではなく、参照カメラデプスマップのデプスによってあらわされる3次元位置を、デプスの定義軸に従って変換した後に、仮想デプスマップに割り当てるだけで、基本的には同じ処理動作を適用することができる。
次に、画像復号装置について説明する。図6は、本実施形態における画像復号装置の構成を示すブロック図である。画像復号装置200は、図6に示すように、符号データ入力部201、符号データメモリ202、参照カメラ画像入力部203、参照カメラ画像メモリ204、参照カメラデプスマップ入力部205、デプスマップ変換部206、仮想デプスマップメモリ207、視点合成画像生成部208及び画像復号部209を備えている。
符号データ入力部201は、復号対象となる画像の符号データを入力する。以下では、この復号対象となる画像を復号対象画像と呼ぶ。ここではカメラBの画像を指す。また、以下では、復号対象画像を撮影したカメラ(ここではカメラB)を復号対象カメラと呼ぶ。符号データメモリ202は、入力した復号対象画像である符号データを記憶する。参照カメラ画像入力部203は、視点合成画像(視差補償画像)を生成する際に参照画像となる画像を入力する。ここではカメラAの画像を入力する。参照カメラ画像メモリ204は、入力した参照画像を記憶する。
参照カメラデプスマップ入力部205は、参照画像に対するデプスマップを入力する。
以下では、この参照画像に対するデプスマップを参照カメラデプスマップと呼ぶ。なお、デプスマップとは対応する画像の各画素に写っている被写体の3次元位置を表すものである。別途与えられるカメラパラメータ等の情報によって3次元位置が得られるものであれば、どのような情報でもよい。例えば、カメラから被写体までの距離や、画像平面とは平行ではない軸に対する座標値、別のカメラ(例えばカメラB)に対する視差量を用いることができる。また、ここではデプスマップとして画像の形態で渡されるものとしているが、同様の情報が得られるのであれば、画像の形態でなくても構わない。以下では、参照カメラデプスマップに対応するカメラを参照カメラと呼ぶ。
デプスマップ変換部206は、参照カメラデプスマップを用いて、復号対象画像に対するデプスマップを生成する。以下では、この復号対象画像に対して生成されたデプスマップを仮想デプスマップと呼ぶ。仮想デプスマップメモリ207は、生成した仮想デプスマップを記憶する。視点合成画像生成部208は、仮想デプスマップから得られる復号対象画像の画素と参照カメラ画像の画素との対応関係を用いて、復号対象画像に対する視点合成画像を生成する。画像復号部209は、視点合成画像を用いて、符号データから復号対象画像を復号して復号画像を出力する。
次に、図7を参照して、図6に示す画像復号装置200の動作を説明する。図7は、図6に示す画像復号装置200の動作を示すフローチャートである。まず、符号データ入力部201は、復号対象画像の符号データを入力し、符号データメモリ202に記憶する(ステップS51)。これと並行して、参照カメラ画像入力部203は参照画像を入力し、参照カメラ画像メモリ204に記憶する。また、参照カメラデプスマップ入力部205は参照カメラデプスマップを入力し、デプスマップ変換部206へ出力する(ステップS52)。
なお、ステップS52で入力される参照カメラ画像、参照カメラデプスマップは、符号化側で使用されたものと同じものとする。これは符号化装置で使用したものと全く同じ情報を用いることで、ドリフト等の符号化ノイズの発生を抑えるためである。ただし、そのような符号化ノイズの発生を許容する場合には、符号化時に使用されたものと異なるものが入力されてもよい。参照カメラデプスマップに関しては、別途復号したもの以外に、複数のカメラに対して復号された多視点画像に対してステレオマッチング等を適用することで推定したデプスマップや、復号された視差ベクトルや動きベクトルなどを用いて推定されるデプスマップなどを用いることもある。
次に、デプスマップ変換部206は、参照カメラデプスマップを変換して仮想デプスマップを生成し、仮想デプスマップメモリ207に記憶する(ステップS53)。ここでの処理は、符号化対象画像と復号対象画像など、符号化と復号が異なるだけで、図2に示すステップS3と同じである。
次に、仮想デプスマップを得た後、視点合成画像生成部208は、参照カメラ画像メモリ204に記憶された参照カメラ画像と、仮想デプスマップメモリ207に記憶された仮想デプスマップとから、復号対象画像に対する視点合成画像を生成し、画像復号部209へ出力する(ステップS54)。ここでの処理は、符号化対象画像と復号対象画像など、符号化と復号が異なるだけで、図2に示すステップS4と同じである。
次に、視点合成画像を得たに後、画像復号部209は、視点合成画像を予測画像として用いながら、符号データから復号対象画像を復号して復号画像を出力する(ステップS55)。この復号の結果得られる復号画像が画像復号装置200の出力となる。なお、符号データ(ビットストリーム)を正しく復号できるならば、復号にはどのような方法を用いてもよい。一般的には、符号化時に用いられた方法に対応する方法が用いられる。
MPEG−2やH.264、JPEGなどの一般的な動画像符号化または画像符号化で符号化されている場合は、画像を予め定められた大きさのブロックに分割して、ブロックごとに、エントロピー復号、逆2値化、逆量子化などを施した後、IDCTなど逆周波数変換を施して予測残差信号を得た後、予測画像を加え、画素値範囲でクリッピングすることで復号を行う。
なお、復号処理をブロックごとに行う場合、視点合成画像の生成処理と復号対象画像の復号処理をブロック毎に交互に繰り返すことで、復号対象画像を復号してもよい。その場合の処理動作を図8を参照して説明する。図8は、視点合成画像の生成処理と復号対象画像の復号処理をブロック毎に交互に繰り返すことで、復号対象画像を復号する動作を示すフローチャートである。図8において、図7に示す処理動作と同一の部分には同一の符号を付し、その説明を簡単に行う。図8に示す処理動作では復号処理を行う単位となるブロックのインデックスをblkとし、復号対象画像中のブロック数をnumBlksで表している。
まず、符号データ入力部201は、復号対象画像の符号データを入力し、符号データメモリ202に記憶する(ステップS51)。これと並行して、参照カメラ画像入力部203は参照画像を入力し、参照カメラ画像メモリ204に記憶する。また、参照カメラデプスマップ入力部205は参照カメラデプスマップを入力し、デプスマップ変換部206へ出力する(ステップS52)。
次に、デプスマップ変換部206は、参照カメラデプスマップから仮想デプスマップを生成し、仮想デプスマップメモリ207に記憶する(ステップS53)。そして、視点合成画像生成部208は、変数blkに0を代入する(ステップS56)。
次に、視点合成画像生成部208は、参照カメラ画像と仮想デプスマップとから、ブロックblkに対する視点合成画像を生成し、画像復号部209へ出力する(ステップS54a)。続いて、画像復号部209は、視点合成画像を予測画像として用いながら、符号データからブロックblkに対する復号対象画像を復号して出力する(ステップS55a)。そして、視点合成画像生成部208は、変数blkをインクリメントし(blk←blk+1,ステップS57)、blk<numBlksを満たすか否かを判定する(ステップS58)。この判定の結果、blk<numBlksを満たしていればステップS54aに戻って処理を繰り返し、blk=numBlksを満たした時点で処理を終了する。
このように、参照フレームに対するデプスマップから、処理対象フレームに対するデプスマップを生成する際に、実空間での幾何制約ではなく、オクルージョン領域OCCで生成される視点合成画像の品質を考慮することで、指定された領域のみに対する視点合成画像の生成と、高品質な視点合成画像の生成の両立を実現し、多視点画像の効率的かつ軽量な画像符号化を実現することができる。これにより、参照フレームに対してデプスマップを用いて、処理対象フレーム(符号化対象フレームまたは復号対象フレーム)の視点合成画像を生成する際に、視点合成画像の品質を低下させることなく、ブロックごとに視点合成画像を生成することで、高い符号化効率とメモリ容量及び演算量の削減とを両立することが可能となる。
前述した説明においては、1フレーム中のすべての画素を符号化及び復号する処理を説明したが、一部の画素にのみ適用し、その他の画素では、H.264/AVCなどで用いられる画面内予測符号化や動き補償予測符号化などを用いて符号化または復号を行ってもよい。その場合には、画素ごとにどの方法を用いて予測したかを示す情報を符号化及び復号する必要がある。また、画素ごとではなくブロック毎に別の予測方式を用いて符号化または復号を行ってもよい。なお、一部の画素やブロックに対してのみ視点合成画像を用いた予測を行う場合は、その画素に対してのみ視点合成画像を生成する処理(ステップS4、S7、S54及びS54a)を行うようにすることで、視点合成処理にかかる演算量を削減することが可能となる。
また、前述した説明においては、1フレームを符号化及び復号する処理を説明したが、複数フレーム繰り返すことで動画像符号化にも適用することができる。また、動画像の一部のフレームや一部のブロックにのみ適用することもできる。さらに、前述した説明では画像符号化装置および画像復号装置の構成及び処理動作を説明したが、これら画像符号化装置および画像復号装置の各部の動作に対応した処理動作によって本発明の画像符号化方法および画像復号方法を実現することができる。
図9は、前述した画像符号化装置をコンピュータとソフトウェアプログラムとによって構成する場合のハードウェア構成を示すブロック図である。図9に示すシステムは、CPU50と、RAM等のメモリ51と、符号化対象画像入力部52と、参照カメラ画像入力部53と、参照カメラデプスマップ入力部54と、プログラム記憶装置55と、多重化符号データ出力部56とが、バスで接続された構成になっている。
CPU50は、プログラムを実行する。RAM等のメモリ51は、CPU50がアクセスするプログラムやデータを格納する。符号化対象画像入力部52(ディスク装置等による画像信号を記憶する記憶部でもよい)は、カメラ等からの符号化対象の画像信号を入力する。参照カメラ画像入力部53(ディスク装置等による画像信号を記憶する記憶部でもよい)は、カメラ等からの参照対象の画像信号を入力する。参照カメラデプスマップ入力部54(ディスク装置等によるデプスマップを記憶する記憶部でもよい)は、デプスカメラ等からの符号化対象画像を撮影したカメラとは異なる位置や向きのカメラに対するデプスマップを入力する。プログラム記憶装置55は、第1実施形態として説明した画像符号化処理をCPU50に実行させるソフトウェアプログラムである画像符号化プログラム551を格納する。多重化符号データ出力部56(ディスク装置等による多重化符号データを記憶する記憶部でもよい)は、CPU50がメモリ51にロードされた画像符号化プログラム551を実行することにより生成された符号データを、例えばネットワークを介して出力する。
図10は、前述した画像復号装置をコンピュータとソフトウェアプログラムとによって構成する場合のハードウェア構成を示すブロック図である。図10に示すシステムは、CPU60と、RAM等のメモリ1と、符号データ入力部62と、参照カメラ画像入力部63と、参照カメラデプスマップ入力部64と、プログラム記憶装置65と、復号対象画像出力部66とが、バスで接続された構成になっている。CPU60は、プログラムを実行する。RAM等のメモリ1は、CPU60がアクセスするプログラムやデータを格納する。符号データ入力部62(ディスク装置等による画像信号を記憶する記憶部でもよい)は、画像符号化装置が本手法により符号化した符号データを入力する。参照カメラ画像入力部63(ディスク装置等による画像信号を記憶する記憶部でもよい)は、カメラ等からの参照対象の画像信号を入力する。参照カメラデプスマップ入力部64(ディスク装置等によるデプス情報を記憶する記憶部でもよい)は、デプスカメラ等からの復号対象を撮影したカメラとは異なる位置や向きのカメラに対するデプスマップを入力する。プログラム記憶装置65は、第2実施形態として説明した画像復号処理をCPU60に実行させるソフトウェアプログラムである画像復号プログラム651を格納する。復号対象画像出力部66(ディスク装置等による画像信号を記憶する記憶部でもよい)は、CPU60がメモリ61にロードされた画像復号プログラム651を実行することにより、符号データを復号して得られた復号対象画像を、再生装置などに出力する。
また、図1に示す画像符号化装置、図6に示す画像復号装置における各処理部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより画像符号化処理と画像復号処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
以上、図面を参照して本発明の実施の形態を説明してきたが、上記実施の形態は本発明の例示に過ぎず、本発明が上記実施の形態に限定されるものではないことは明らかである。したがって、本発明の技術思想及び範囲を逸脱しない範囲で構成要素の追加、省略、置換、その他の変更を行っても良い。
参照フレームに対する被写体の3次元位置を表すデプスマップを用いて、符号化(復号)対象画像に対して視差補償予測を行う際に、高い符号化効率を少ない演算量で達成することが不可欠な用途に適用できる。
100・・・画像符号化装置
101・・・符号化対象画像入力部
102・・・符号化対象画像メモリ
103・・・参照カメラ画像入力部
104・・・参照カメラ画像メモリ
105・・・参照カメラデプスマップ入力部
106・・・デプスマップ変換部
107・・・仮想デプスマップメモリ
108・・・視点合成画像生成部
109・・・画像符号化部
200・・・画像復号装置
201・・・符号データ入力部
202・・・符号データメモリ
203・・・参照カメラ画像入力部
204・・・参照カメラ画像メモリ
205・・・参照カメラデプスマップ入力部
206・・・デプスマップ変換部
207・・・仮想デプスマップメモリ
208・・・視点合成画像生成部
209・・・画像復号部

Claims (18)

  1. 複数の視点の画像である多視点画像を符号化する際に、符号化対象画像の視点とは異なる視点に対する符号化済みの参照画像と、前記参照画像中の被写体のデプスマップである参照デプスマップとを用いて、視点間で画像を予測しながら符号化を行う画像符号化方法であって、
    前記参照デプスマップを、前記符号化対象画像中の被写体のデプスマップである仮想デプスマップに変換するデプスマップ変換ステップと、
    前記被写体の前後関係によって生じる前記参照デプスマップ内にデプス値が存在しない仮想デプスマップ上で生ずるオクルージョン領域に対して、前記参照画像において遮蔽されている被写体と同じ被写体上の領域に対して対応関係が得られるデプス値を割り当てることにより前記オクルージョン領域のデプス値を生成するオクルージョン領域デプス生成ステップと、
    前記オクルージョン領域に対するデプス値を生成した後の前記仮想デプスマップと前記参照画像とから、前記符号化対象画像に対する視差補償画像を生成することで、視点間の画像予測を行う視点間画像予測ステップと
    を有する画像符号化方法。
  2. 前記オクルージョン領域デプス生成ステップでは、前記参照デプスマップ上において前記オクルージョン領域を遮蔽する被写体の連続性を仮定することにより前記オクルージョン領域のデプス値を生成する請求項1に記載の画像符号化方法。
  3. 前記オクルージョン領域に対応する前記参照デプスマップ上の画素境界を決定するオクルージョン発生画素境界決定ステップをさらに有し、
    前記オクルージョン領域デプス生成ステップでは、前記画素境界に隣接する前記参照デプスマップの画素のうち、前記参照デプスマップ上で前記視点から近いことを示すデプス値を持つ画素を、視点から遠いことを示すデプス値を持つ画素の向きに伸張し、伸張した画素の位置において、前記視点から近いことを示すデプス値を持つ画素と同じデプス値から、前記視点から遠いことを示すデプス値を持つ画素と同じデプス値まで、前記被写体が連続的に存在すると仮定して、当該仮定された被写体のデプスを前記符号化対象画像上のデプスへと変換することで、前記オクルージョン領域のデプス値を生成する請求項1に記載の画像符号化方法。
  4. 前記オクルージョン領域を前記参照デプスマップ上で遮蔽する領域に対する前記仮想デプスマップ上の被写体領域を決定する被写体領域決定ステップと、
    前記被写体領域を前記オクルージョン領域の方向へ画素を伸張する被写体領域伸張ステップとをさらに有し、
    前記オクルージョン領域デプス生成ステップでは、前記伸張して生成された画素と、前記オクルージョン領域に隣接し前記被写体領域とは反対方向に存在する画素との間でデプス値を滑らかに補間することにより前記オクルージョン領域のデプス値を生成する請求項1に記載の画像符号化方法。
  5. 前記デプスマップ変換ステップでは、前記参照デプスマップの参照画素ごとに前記仮想デプスマップ上の対応画素を求め、前記参照画素に対するデプスと同じ3次元位置を示すデプスを、前記対応画素に割り当てることにより仮想デプスマップへの変換を行う請求項1から4のいずれか1項に記載の画像符号化方法。
  6. 多視点画像の復号対象画像を復号する際に、復号済みの参照画像と、前記参照画像中の被写体のデプスマップである参照デプスマップとを用いて、視点間で画像を予測しながら復号を行う画像復号方法であって、
    前記参照デプスマップを、前記復号対象画像中の被写体のデプスマップである仮想デプスマップに変換するデプスマップ変換ステップと、
    前記被写体の前後関係によって生じる前記参照デプスマップ内にデプス値が存在しない仮想デプスマップ上で生ずるオクルージョン領域に対して、前記参照画像において遮蔽されている被写体と同じ被写体上の領域に対して対応関係が得られるデプス値を割り当てることにより前記オクルージョン領域のデプス値を生成するオクルージョン領域デプス生成ステップと、
    前記オクルージョン領域に対するデプス値を生成した後の前記仮想デプスマップと前記参照画像とから、前記復号対象画像に対する視差補償画像を生成することで、視点間の画像予測を行う視点間画像予測ステップと
    を有する画像復号方法。
  7. 前記オクルージョン領域デプス生成ステップでは、前記参照デプスマップ上において前記オクルージョン領域を遮蔽する被写体の連続性を仮定することにより前記オクルージョン領域のデプス値を生成する請求項6に記載の画像復号方法。
  8. 前記オクルージョン領域に対応する前記参照デプスマップ上の画素境界を決定するオクルージョン発生画素境界決定ステップをさらに有し、
    前記オクルージョン領域デプス生成ステップでは、前記画素境界に隣接する前記参照デプスマップの画素のうち、前記参照デプスマップ上で前記視点から近いことを示すデプス値を持つ画素を、視点から遠いことを示すデプス値を持つ画素の向きに伸張し、伸張した画素の位置において、前記視点から近いことを示すデプス値を持つ画素と同じデプス値から、前記視点から遠いことを示すデプス値を持つ画素と同じデプス値まで、前記被写体が連続的に存在すると仮定して、当該仮定された被写体のデプスを前記復号対象画像上のデプスへと変換することで、前記オクルージョン領域のデプス値を生成する請求項6に記載の画像復号方法。
  9. 前記オクルージョン領域を前記参照デプスマップ上で遮蔽する領域に対する前記仮想デプスマップ上の被写体領域を決定する被写体領域決定ステップと、
    前記被写体領域を前記オクルージョン領域の方向へ画素を伸張する被写体領域伸張ステップとをさらに有し、
    前記オクルージョン領域デプス生成ステップでは、前記伸張して生成された画素と、前記オクルージョン領域に隣接し前記被写体領域とは反対方向に存在する画素との間でデプス値を滑らかに補間することにより前記オクルージョン領域のデプス値を生成する請求項6に記載の画像復号方法。
  10. 前記デプスマップ変換ステップでは、前記参照デプスマップの参照画素ごとに前記仮想デプスマップ上の対応画素を求め、前記参照画素に対するデプスと同じ3次元位置を示すデプスを、前記対応画素に割り当てることにより仮想デプスマップへの変換を行う請求項6から9のいずれか1項に記載の画像復号方法。
  11. 複数の視点の画像である多視点画像を符号化する際に、符号化対象画像の視点とは異なる視点に対する符号化済みの参照画像と、前記参照画像中の被写体のデプスマップである参照デプスマップとを用いて、視点間で画像を予測しながら符号化を行う画像符号化装置であって、
    前記参照デプスマップを、前記符号化対象画像中の被写体のデプスマップである仮想デプスマップに変換するデプスマップ変換部と、
    前記被写体の前後関係によって生じる前記参照デプスマップ内にデプス値が存在しない仮想デプスマップ上で生ずるオクルージョン領域に対して、前記参照画像において遮蔽されている被写体と同じ被写体上の領域に対して対応関係が得られるデプス値を割り当てることにより前記オクルージョン領域のデプス値を生成するオクルージョン領域デプス生成部と、
    前記オクルージョン領域に対するデプス値を生成した後の前記仮想デプスマップと前記参照画像とから、前記符号化対象画像に対する視差補償画像を生成することで、視点間の画像予測を行う視点間画像予測部と
    を備える画像符号化装置。
  12. 前記オクルージョン領域デプス生成部は、前記参照デプスマップ上において前記オクルージョン領域を遮蔽する被写体の連続性を仮定することにより前記オクルージョン領域のデプス値を生成する請求項11に記載の画像符号化装置。
  13. 多視点画像の復号対象画像を復号する際に、復号済みの参照画像と、前記参照画像中の被写体のデプスマップである参照デプスマップとを用いて、視点間で画像を予測しながら復号を行う画像復号装置であって、
    前記参照デプスマップを、前記復号対象画像中の被写体のデプスマップである仮想デプスマップに変換するデプスマップ変換部と、
    前記被写体の前後関係によって生じる前記参照デプスマップ内にデプス値が存在しない仮想デプスマップ上で生ずるオクルージョン領域に対して、前記参照画像において遮蔽されている被写体と同じ被写体上の領域に対して対応関係が得られるデプス値を割り当てることにより前記オクルージョン領域のデプス値を生成するオクルージョン領域デプス生成部と、
    前記オクルージョン領域に対するデプス値を生成した後の前記仮想デプスマップと前記参照画像とから、前記復号対象画像に対する視差補償画像を生成することで、視点間の画像予測を行う視点間画像予測部と
    を備える画像復号装置。
  14. 前記オクルージョン領域デプス生成部は、前記参照デプスマップ上において前記オクルージョン領域を遮蔽する被写体の連続性を仮定することにより前記オクルージョン領域のデプス値を生成する請求項13に記載の画像復号装置。
  15. コンピュータに、請求項1から5のいずれか1項に記載の画像符号化方法を実行させるための画像符号化プログラム。
  16. コンピュータに、請求項6から10のいずれか1項に記載の画像復号方法を実行させるための画像復号プログラム。
  17. 請求項15に記載の画像符号化プログラムを記録したコンピュータ読み取り可能な記録媒体。
  18. 請求項16に記載の画像復号プログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2014538499A 2012-09-25 2013-09-24 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体 Active JP5934375B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012211155 2012-09-25
JP2012211155 2012-09-25
PCT/JP2013/075753 WO2014050830A1 (ja) 2012-09-25 2013-09-24 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体

Publications (2)

Publication Number Publication Date
JP5934375B2 true JP5934375B2 (ja) 2016-06-15
JPWO2014050830A1 JPWO2014050830A1 (ja) 2016-08-22

Family

ID=50388227

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014538499A Active JP5934375B2 (ja) 2012-09-25 2013-09-24 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体

Country Status (5)

Country Link
US (1) US20150245062A1 (ja)
JP (1) JP5934375B2 (ja)
KR (1) KR20150046154A (ja)
CN (1) CN104662897A (ja)
WO (1) WO2014050830A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IN2013CH05313A (ja) * 2013-11-18 2015-05-29 Nokia Corp
JP6365153B2 (ja) * 2014-09-10 2018-08-01 株式会社ソシオネクスト 画像符号化方法および画像符号化装置
US10404969B2 (en) * 2015-01-20 2019-09-03 Qualcomm Incorporated Method and apparatus for multiple technology depth map acquisition and fusion
CN108475330B (zh) * 2015-11-09 2022-04-08 港大科桥有限公司 用于有伪像感知的视图合成的辅助数据
KR102527566B1 (ko) * 2015-11-11 2023-05-03 소니그룹주식회사 화상 처리 장치 및 화상 처리 방법
EP3171598A1 (en) * 2015-11-19 2017-05-24 Thomson Licensing Methods and devices for encoding and decoding a matrix of views obtained from light-field data, corresponding computer program and non-transitory program storage device
KR20170059423A (ko) * 2015-11-20 2017-05-30 한국전자통신연구원 기하 변환 영상을 이용하는 영상의 부호화/복호화 방법 및 장치
US10469821B2 (en) * 2016-06-17 2019-11-05 Altek Semiconductor Corp. Stereo image generating method and electronic apparatus utilizing the method
CN113873261B (zh) 2016-10-04 2022-12-27 有限公司B1影像技术研究所 图像数据编码/解码方法和装置
EP3422708A1 (en) * 2017-06-29 2019-01-02 Koninklijke Philips N.V. Apparatus and method for generating an image
WO2019201355A1 (en) * 2018-04-17 2019-10-24 Shanghaitech University Light field system occlusion removal
US11055879B1 (en) * 2020-04-03 2021-07-06 Varjo Technologies Oy Encoder and encoding method for mitigating discrepancies in reconstructed images
US11568526B2 (en) 2020-09-04 2023-01-31 Altek Semiconductor Corp. Dual sensor imaging system and imaging method thereof
TWI767468B (zh) * 2020-09-04 2022-06-11 聚晶半導體股份有限公司 雙感測器攝像系統及其攝像方法
US11496660B2 (en) * 2020-09-04 2022-11-08 Altek Semiconductor Corp. Dual sensor imaging system and depth map calculation method thereof
US11496694B2 (en) 2020-09-04 2022-11-08 Altek Semiconductor Corp. Dual sensor imaging system and imaging method thereof
US11689822B2 (en) 2020-09-04 2023-06-27 Altek Semiconductor Corp. Dual sensor imaging system and privacy protection imaging method thereof
US11418719B2 (en) 2020-09-04 2022-08-16 Altek Semiconductor Corp. Dual sensor imaging system and calibration method which includes a color sensor and an infrared ray sensor to perform image alignment and brightness matching

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000215311A (ja) * 1999-01-21 2000-08-04 Nippon Telegr & Teleph Corp <Ntt> 仮想視点画像生成方法およびその装置
JP2010021844A (ja) * 2008-07-11 2010-01-28 Nippon Telegr & Teleph Corp <Ntt> 多視点画像符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体
WO2012111756A1 (ja) * 2011-02-18 2012-08-23 ソニー株式会社 画像処理装置および画像処理方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100576934C (zh) * 2008-07-03 2009-12-30 浙江大学 基于深度和遮挡信息的虚拟视点合成方法
JP2011060216A (ja) * 2009-09-14 2011-03-24 Fujifilm Corp 画像処理装置および画像処理方法
CN101888566B (zh) * 2010-06-30 2012-02-15 清华大学 立体视频编码率失真性能估计方法
KR101676830B1 (ko) * 2010-08-16 2016-11-17 삼성전자주식회사 영상 처리 장치 및 방법
BR112013006006A2 (pt) * 2010-09-14 2017-07-18 Thomson Licensing método de compressão e aparelho para dados de oclusão
US8896664B2 (en) * 2010-09-19 2014-11-25 Lg Electronics Inc. Method and apparatus for processing a broadcast signal for 3D broadcast service
KR101210625B1 (ko) * 2010-12-28 2012-12-11 주식회사 케이티 빈공간 채움 방법 및 이를 수행하는 3차원 비디오 시스템
CN102413353B (zh) * 2011-12-28 2014-02-19 清华大学 立体视频编码过程的多视点视频和深度图的码率分配方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000215311A (ja) * 1999-01-21 2000-08-04 Nippon Telegr & Teleph Corp <Ntt> 仮想視点画像生成方法およびその装置
JP2010021844A (ja) * 2008-07-11 2010-01-28 Nippon Telegr & Teleph Corp <Ntt> 多視点画像符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体
WO2012111756A1 (ja) * 2011-02-18 2012-08-23 ソニー株式会社 画像処理装置および画像処理方法

Also Published As

Publication number Publication date
JPWO2014050830A1 (ja) 2016-08-22
WO2014050830A1 (ja) 2014-04-03
US20150245062A1 (en) 2015-08-27
KR20150046154A (ko) 2015-04-29
CN104662897A (zh) 2015-05-27

Similar Documents

Publication Publication Date Title
JP5934375B2 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体
JP5268645B2 (ja) カメラパラメータを利用して視差ベクトルを予測する方法、その方法を利用して多視点映像を符号化及び復号化する装置、及びそれを行うためのプログラムが記録された記録媒体
JP5883153B2 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体
JP5303754B2 (ja) 多視点映像符号化方法、多視点映像復号方法、多視点映像符号化装置、多視点映像復号装置、及びプログラム
JP5947977B2 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム及び画像復号プログラム
JP6027143B2 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、および画像復号プログラム
JP6307152B2 (ja) 画像符号化装置及び方法、画像復号装置及び方法、及び、それらのプログラム
JP6053200B2 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム及び画像復号プログラム
WO2014010584A1 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体
JP5926451B2 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、および画像復号プログラム
KR101750421B1 (ko) 동화상 부호화 방법, 동화상 복호 방법, 동화상 부호화 장치, 동화상 복호 장치, 동화상 부호화 프로그램, 및 동화상 복호 프로그램
US20170019683A1 (en) Video encoding apparatus and method and video decoding apparatus and method
Wong et al. Horizontal scaling and shearing-based disparity-compensated prediction for stereo video coding
JP6310340B2 (ja) 映像符号化装置、映像復号装置、映像符号化方法、映像復号方法、映像符号化プログラム及び映像復号プログラム

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160506

R150 Certificate of patent or registration of utility model

Ref document number: 5934375

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150