JP5883153B2 - 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体 - Google Patents
画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体 Download PDFInfo
- Publication number
- JP5883153B2 JP5883153B2 JP2014538497A JP2014538497A JP5883153B2 JP 5883153 B2 JP5883153 B2 JP 5883153B2 JP 2014538497 A JP2014538497 A JP 2014538497A JP 2014538497 A JP2014538497 A JP 2014538497A JP 5883153 B2 JP5883153 B2 JP 5883153B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- depth map
- viewpoint
- decoding
- encoding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 138
- 239000002131 composite material Substances 0.000 description 59
- 238000006243 chemical reaction Methods 0.000 description 37
- 230000008569 process Effects 0.000 description 33
- 230000033001 locomotion Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 13
- 230000009467 reduction Effects 0.000 description 13
- 238000004364 calculation method Methods 0.000 description 8
- 239000013598 vector Substances 0.000 description 8
- 230000015572 biosynthetic process Effects 0.000 description 5
- 238000003786 synthesis reaction Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000013139 quantization Methods 0.000 description 4
- 230000002194 synthesizing effect Effects 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 2
- ROGUAPYLUCHQGK-UHFFFAOYSA-N 1-piperazinecarboxamide, 4-(3-chloro-2-pyridinyl)-n-[4-(1,1-dimethylethyl)phenyl]- Chemical compound C1=CC(C(C)(C)C)=CC=C1NC(=O)N1CCN(C=2C(=CC=CN=2)Cl)CC1 ROGUAPYLUCHQGK-UHFFFAOYSA-N 0.000 description 1
- 235000016796 Euonymus japonicus Nutrition 0.000 description 1
- 240000006570 Euonymus japonicus Species 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/161—Encoding, multiplexing or demultiplexing different image signal components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/521—Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/59—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
本発明は、多視点画像を符号化及び復号する画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体に関する。
本願は、2012年9月25日に日本へ出願された特願2012−211154号に基づき優先権を主張し、その内容をここに援用する。
本願は、2012年9月25日に日本へ出願された特願2012−211154号に基づき優先権を主張し、その内容をここに援用する。
従来から、複数のカメラで同じ被写体と背景を撮影した複数の画像からなる多視点画像が知られている。この複数のカメラで撮影した動画像のことを多視点動画像(または多視点映像)という。以下の説明では1つのカメラで撮影された画像(動画像)を“2次元画像(動画像)”と称し、同じ被写体と背景とを位置や向き(以下、視点と称する)が異なる複数のカメラで撮影した2次元画像(2次元動画像)群を“多視点画像(多視点動画像)”と称する。
2次元動画像は、時間方向に関して強い相関があり、その相関を利用することによって符号化効率を高めることができる。一方、多視点画像や多視点動画像では、各カメラが同期されている場合、各カメラの映像の同じ時刻に対応するフレーム(画像)は、全く同じ状態の被写体と背景を別の位置から撮影したものであるので、カメラ間で強い相関がある。多視点画像や多視点動画像の符号化においては、この相関を利用することによって符号化効率を高めることができる。
ここで、2次元動画像の符号化技術に関する従来技術を説明する。国際符号化標準であるH.264、MPEG−2、MPEG−4をはじめとした従来の多くの2次元動画像符号化方式では、動き補償予測、直交変換、量子化、エントロピー符号化という技術を利用して、高効率な符号化を行う。例えば、H.264では、過去あるいは未来の複数枚のフレームとの時間相関を利用した符号化が可能である。
H.264で使われている動き補償予測技術の詳細については、例えば非特許文献1に記載されている。H.264で使われている動き補償予測技術の概要を説明する。H.264の動き補償予測は、符号化対象フレームを様々なサイズのブロックに分割し、各ブロックで異なる動きベクトルと異なる参照フレームを持つことを許可している。各ブロックで異なる動きベクトルを使用することで、被写体ごとに異なる動きを補償した精度の高い予測を実現している。一方、各ブロックで異なる参照フレームを使用することで、時間変化によって生じるオクルージョンを考慮した精度の高い予測を実現している。
次に、従来の多視点画像や多視点動画像の符号化方式について説明する。多視点画像の符号化方法と、多視点動画像の符号化方法との違いは、多視点動画像にはカメラ間の相関に加えて、時間方向の相関が同時に存在するということである。しかし、カメラ間の相関を利用する方法はどちらの場合でも、同じ方法を用いることができる。そのため、ここでは多視点動画像の符号化において用いられる方法について説明する。
多視点動画像の符号化については、カメラ間の相関を利用するために、動き補償予測を同じ時刻の異なるカメラで撮影された画像に適用した“視差補償予測”によって高効率に多視点動画像を符号化する方式が従来から存在する。ここで、視差とは、異なる位置に配置されたカメラの画像平面上で、被写体上の同じ部分が存在する位置の差である。図13は、カメラ間で生じる視差を示す概念図である。図13に示す概念図では、光軸が平行なカメラの画像平面を垂直に見下ろしたものとなっている。このように、異なるカメラの画像平面上で被写体上の同じ部分が投影される位置は、一般的に対応点と呼ばれる。
視差補償予測では、この対応関係に基づいて、符号化対象フレームの各画素値を参照フレームから予測して、その予測残差と、対応関係を示す視差情報とを符号化する。視差は対象とするカメラ対や位置ごとに変化するため、視差補償予測を行う領域ごとに視差情報を符号化することが必要である。実際に、H.264の多視点符号化方式では、視差補償予測を用いるブロックごとに視差情報を表すベクトルを符号化している。
視差情報によって与えられる対応関係は、カメラパラメータを用いることで、エピポーラ幾何拘束に基づき、2次元ベクトルではなく、被写体の3次元位置を示す1次元量で表すことができる。被写体の3次元位置を示す情報としては、様々な表現が存在するが、基準となるカメラから被写体までの距離や、カメラの画像平面と平行ではない軸上の座標値を用いることが多い。なお、距離ではなく距離の逆数を用いる場合もある。また、距離の逆数は視差に比例する情報となるため、基準となるカメラを2つ設定し、それらのカメラで撮影された画像間での視差量として被写体の3次元位置を表現する場合もある。どのような表現を用いたとしてもその物理的な意味に本質的な違いはないため、以下では、表現による区別をせずに、それら3次元位置を示す情報をデプスと表現する。
図14はエピポーラ幾何拘束の概念図である。エピポーラ幾何拘束によれば、あるカメラの画像上の点に対応する別のカメラの画像上の点はエピポーラ線という直線上に拘束される。このとき、その画素に対するデプスが得られた場合、対応点はエピポーラ線上に一意に定まる。例えば、図14に示すように、第1のカメラ画像においてmの位置に投影された被写体に対する第2のカメラ画像での対応点は、実空間における被写体の位置がM’の場合にはエピポーラ線上の位置m’に投影され、実空間における被写体の位置がM’’の場合にはエピポーラ線上の位置m’’に、投影される。
非特許文献2では、この性質を利用して、参照フレームに対するデプスマップ(距離画像)によって与えられる各被写体の3次元情報に従って、参照フレームから符号化対象フレームに対する予測画像を合成することで、精度の高い予測画像を生成し、効率的な多視点動画像の符号化を実現している。なお、このデプスに基づいて生成される予測画像は視点合成画像、視点補間画像、または視差補償画像と呼ばれる。
さらに、特許文献1では、最初に参照フレームに対するデプスマップを符号化対象フレームに対するデプスマップへと変換し、その変換されたデプスマップを用いて対応点を求めることで、必要な領域に対してのみ視点合成画像を生成することを可能にしている。これによって、符号化対象または復号対象となるフレームの領域ごとに、予測画像を生成する方法を切り替えながら画像または動画像を符号化または復号する場合において、視点合成画像を生成するための処理量や、視点合成画像を一時的に蓄積するためのメモリ量の削減を実現している。
ITU-T Recommendation H.264 (03/2009), "Advanced video coding for generic audiovisual services", March, 2009.
Shinya SHIMIZU, Masaki KITAHARA, Kazuto KAMIKURA and Yoshiyuki YASHIMA, "Multi-view Video Coding based on 3-D Warping with Depth Map", In Proceedings of Picture Coding Symposium 2006, SS3-6, April, 2006.
特許文献1に記載の方法によれば、符号化対象フレームに対してデプスが得られるため、符号化対象フレームの画素から参照フレーム上の対応する画素を求めることが可能となる。これにより、符号化対象フレームの指定された領域のみに対して視点合成画像を生成することで、符号化対象フレームの一部の領域にしか視点合成画像が必要ない場合には、常に1フレーム分の視点合成画像を生成する場合に比べて、処理量や要求されるメモリの量を削減することができる。
しかしながら、符号化対象フレームの全体に対して視点合成画像が必要になる場合は、参照フレームに対するデプスマップから符号化対象フレームに対するデプスマップを合成する必要が生じるため、参照フレームに対するデプスマップから直接、視点合成画像を生成する場合よりも、その処理量が増加してしまうという問題がある。
本発明は、このような事情に鑑みてなされたもので、処理対象フレームの視点合成画像を生成する際に、視点合成画像の品質を著しく低下させることなく、少ない演算量で視点合成画像を生成することが可能な画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体を提供することを目的とする。
本発明は、複数の視点の画像である多視点画像を符号化する際に、符号化対象画像の視点とは異なる視点に対する符号化済みの参照視点画像と、前記参照視点画像内の被写体のデプスマップである参照視点デプスマップとを用いて、視点間で画像を予測しながら符号化を行う画像符号化方法であって、前記参照視点デプスマップを縮小することにより、前記参照視点画像内の前記被写体の縮小デプスマップを生成する縮小デプスマップ生成ステップと、前記符号化対象画像よりも解像度が低く、前記符号化対象画像内の前記被写体のデプスマップである仮想デプスマップを前記縮小デプスマップから生成する仮想デプスマップ生成ステップと、前記仮想デプスマップと前記参照視点画像とから、前記符号化対象画像に対する視差補償画像を生成することにより、視点間の画像予測を行う視点間画像予測ステップとを有する。
好ましくは、本発明の画像符号化方法における前記縮小デプスマップ生成ステップでは、前記参照視点デプスマップを縦方向または横方向のいずれか一方に対してのみ縮小する。
好ましくは、本発明の画像符号化方法における前記縮小デプスマップ生成ステップでは、前記縮小デプスマップの画素ごとに、前記参照視点デプスマップで対応する複数の画素に対するデプスのうち、最も視点に近いことを示すデプスを選択することにより、前記縮小デプスマップを生成する。
本発明は、複数の視点の画像である多視点画像を符号化する際に、符号化対象画像の視点とは異なる視点に対する符号化済みの参照視点画像と、前記参照視点画像内の被写体のデプスマップである参照視点デプスマップとを用いて、視点間で画像を予測しながら符号化を行う画像符号化方法であって、前記参照視点デプスマップの画素から、一部のサンプル画素を選択するサンプル画素選択ステップと、前記サンプル画素に対応する前記参照視点デプスマップを変換することにより、前記符号化対象画像よりも解像度が低く、前記符号化対象画像内の前記被写体のデプスマップである仮想デプスマップを生成する仮想デプスマップ生成ステップと、前記仮想デプスマップと前記参照視点画像とから、前記符号化対象画像に対する視差補償画像を生成することにより、視点間の画像予測を行う視点間画像予測ステップとを有する。
好ましくは、本発明の画像符号化方法は、前記参照視点デプスマップと前記仮想デプスマップの解像度の比に従って、前記参照視点デプスマップを部分領域に分割する領域分割ステップをさらに有し、前記サンプル画素選択ステップでは、前記部分領域ごとに前記サンプル画素を選択する。
好ましくは、本発明の画像符号化方法における前記領域分割ステップでは、前記参照視点デプスマップと前記仮想デプスマップの解像度の比に従って、前記部分領域の形状を決定する。
好ましくは、本発明の画像符号化方法における前記サンプル画素選択ステップでは、前記部分領域ごとに最も視点に近いことを示すデプスを持つ画素、または、最も視点から遠いことを示すデプスを持つ画素のいずれか一方を前記サンプル画素として選択する。
好ましくは、本発明の画像符号化方法における前記サンプル画素選択ステップでは、前記部分領域ごとに最も視点に近いことを示すデプスを持つ画素と最も視点から遠いことを示すデプスを持つ画素とを前記サンプル画素として選択する。
本発明は、複数の視点の画像である多視点画像の符号データから、復号対象画像を復号する際に、前記復号対象画像の視点とは異なる視点に対する復号済みの参照視点画像と、前記参照視点画像内の被写体のデプスマップである参照視点デプスマップとを用いて、視点間で画像を予測しながら復号を行う画像復号方法であって、前記参照視点デプスマップを縮小することにより、前記参照視点画像内の前記被写体の縮小デプスマップを生成する縮小デプスマップ生成ステップと、前記復号対象画像よりも解像度が低く、前記復号対象画像内の前記被写体のデプスマップである仮想デプスマップを前記縮小デプスマップから生成する仮想デプスマップ生成ステップと、前記仮想デプスマップと前記参照視点画像とから、前記復号対象画像に対する視差補償画像を生成することにより、視点間の画像予測を行う視点間画像予測ステップとを有する。
好ましくは、本発明の画像復号方法における前記縮小デプスマップ生成ステップでは、前記参照視点デプスマップを縦方向または横方向のいずれか一方に対してのみ縮小する。
好ましくは、本発明の画像復号方法における前記縮小デプスマップ生成ステップでは、前記縮小デプスマップの画素ごとに、前記参照視点デプスマップで対応する複数の画素に対するデプスのうち、最も視点に近いことを示すデプスを選択することにより、前記縮小デプスマップを生成する。
本発明は、複数の視点の画像である多視点画像の符号データから、復号対象画像を復号する際に、前記復号対象画像の視点とは異なる視点に対する復号済みの参照視点画像と、前記参照視点画像内の被写体のデプスマップである参照視点デプスマップとを用いて、視点間で画像を予測しながら復号を行う画像復号方法であって、前記参照視点デプスマップの画素から、一部のサンプル画素を選択するサンプル画素選択ステップと、前記サンプル画素に対応する前記参照視点デプスマップを変換することにより、前記復号対象画像よりも解像度が低く、前記復号対象画像内の前記被写体のデプスマップである仮想デプスマップを生成する仮想デプスマップ生成ステップと、前記仮想デプスマップと前記参照視点画像とから、前記復号対象画像に対する視差補償画像を生成することにより、視点間の画像予測を行う視点間画像予測ステップとを有する。
好ましくは、本発明の画像復号方法は、前記参照視点デプスマップと前記仮想デプスマップの解像度の比に従って、前記参照視点デプスマップを部分領域に分割する領域分割ステップをさらに有し、前記サンプル画素選択ステップでは、前記部分領域ごとにサンプル画素を選択する。
好ましくは、本発明の画像復号方法における前記領域分割ステップでは、前記参照視点デプスマップと前記仮想デプスマップの解像度の比に従って、前記部分領域の形状を決定する。
好ましくは、本発明の画像復号方法における前記サンプル画素選択ステップでは、前記部分領域ごとに最も視点に近いことを示すデプスを持つ画素、または、最も視点から遠いことを示すデプスを持つ画素のいずれか一方を前記サンプル画素として選択する。
好ましくは、本発明の画像復号方法における前記サンプル画素選択ステップは、前記部分領域ごとに最も視点に近いことを示すデプスを持つ画素と最も視点から遠いことを示すデプスを持つ画素とを前記サンプル画素として選択する。
本発明は、複数の視点の画像である多視点画像を符号化する際に、符号化対象画像の視点とは異なる視点に対する符号化済みの参照視点画像と、前記参照視点画像内の被写体のデプスマップである参照視点デプスマップとを用いて、視点間で画像を予測しながら符号化を行う画像符号化装置であって、前記参照視点デプスマップを縮小することにより、前記参照視点画像内の前記被写体の縮小デプスマップを生成する縮小デプスマップ生成部と、前記縮小デプスマップを変換することにより、前記符号化対象画像よりも解像度が低く、前記符号化対象画像内の前記被写体のデプスマップである仮想デプスマップを生成する仮想デプスマップ生成部と、前記仮想デプスマップと前記参照視点画像とから、前記符号化対象画像に対する視差補償画像を生成することにより、視点間の画像予測を行う視点間画像予測部とを備える。
本発明は、複数の視点の画像である多視点画像を符号化する際に、符号化対象画像の視点とは異なる視点に対する符号化済みの参照視点画像と、前記参照視点画像内の被写体のデプスマップである参照視点デプスマップとを用いて、視点間で画像を予測しながら符号化を行う画像符号化装置であって、前記参照視点デプスマップの画素から、一部のサンプル画素を選択するサンプル画素選択部と、前記サンプル画素に対応する前記参照視点デプスマップを変換することにより、前記符号化対象画像よりも解像度が低く、前記符号化対象画像内の前記被写体のデプスマップである仮想デプスマップを生成する仮想デプスマップ生成部と、前記仮想デプスマップと前記参照視点画像とから、前記符号化対象画像に対する視差補償画像を生成することにより、視点間の画像予測を行う視点間画像予測部とを備える。
本発明は、複数の視点の画像である多視点画像の符号データから、復号対象画像を復号する際に、前記復号対象画像の視点とは異なる視点に対する復号済みの参照視点画像と、前記参照視点画像内の被写体のデプスマップである参照視点デプスマップとを用いて、視点間で画像を予測しながら復号を行う画像復号装置であって、前記参照視点デプスマップを縮小することにより、前記参照視点画像内の前記被写体の縮小デプスマップを生成する縮小デプスマップ生成部と、前記縮小デプスマップを変換することにより、前記復号対象画像よりも解像度が低く、前記復号対象画像内の前記被写体のデプスマップである仮想デプスマップを生成する仮想デプスマップ生成部と、前記仮想デプスマップと前記参照視点画像とから、前記復号対象画像に対する視差補償画像を生成することにより、視点間の画像予測を行う視点間画像予測部とを備える。
本発明は、複数の視点の画像である多視点画像の符号データから、復号対象画像を復号する際に、前記復号対象画像の視点とは異なる視点に対する復号済みの参照視点画像と、前記参照視点画像内の被写体のデプスマップである参照視点デプスマップとを用いて、視点間で画像を予測しながら復号を行う画像復号装置であって、前記参照視点デプスマップの画素から、一部のサンプル画素を選択するサンプル画素選択部と、前記サンプル画素に対応する前記参照視点デプスマップを変換することにより、前記復号対象画像よりも解像度が低く、前記復号対象画像内の前記被写体のデプスマップである仮想デプスマップを生成する仮想デプスマップ生成部と、前記仮想デプスマップと前記参照視点画像とから、前記復号対象画像に対する視差補償画像を生成することにより、視点間の画像予測を行う視点間画像予測部とを備える。
本発明は、コンピュータに、前記画像符号化方法を実行させるための画像符号化プログラムである。
本発明は、コンピュータに、前記画像復号方法を実行させるための画像復号プログラムである。
本発明は、前記画像符号化プログラムを記録したコンピュータ読み取り可能な記録媒体である。
本発明は、前記画像復号プログラムを記録したコンピュータ読み取り可能な記録媒体である。
本発明によれば、処理対象フレームの視点合成画像を生成する際に、視点合成画像の品質を著しく低下させることなく、少ない演算量で視点合成画像を生成することができるという効果が得られる。
以下、図面を参照して、本発明の実施形態による画像符号化装置及び画像復号装置を説明する。以下の説明においては、第1のカメラ(カメラAという)、第2のカメラ(カメラBという)の2つのカメラで撮影された多視点画像を符号化する場合を想定し、カメラAの画像を参照画像としてカメラBの画像を符号化または復号するものとして説明する。なお、デプス情報から視差を得るために必要となる情報は別途与えられているものとする。具体的には、この情報は、カメラAとカメラBの位置関係を表す外部パラメータや、カメラによる画像平面への投影情報を表す内部パラメータであるが、これら以外の形態であってもデプス情報から視差が得られるものであれば、別の情報が与えられていてもよい。これらのカメラパラメータに関する詳しい説明は、例えば、参考文献1「Olivier Faugeras, “Three-Dimensional Computer Vision”, pp. 33-66, MIT Press; BCTC/UFF-006.37 F259 1993, ISBN:0-262-06158-9.」に記載されている。この文献には、複数のカメラの位置関係を示すパラメータや、カメラによる画像平面への投影情報を表すパラメータに関する説明が記載されている。
以下の説明では、画像や映像フレーム、デプスマップに対して、記号[]で挟まれた位置を特定可能な情報(座標値もしくは座標値に対応付け可能なインデックス)を付加することで、その位置の画素によってサンプリングされた画像信号や、それに対するデプスを示すものとする。また、デプスはカメラから離れる(視差が小さい)ほど小さな値を持つ情報であるとする。デプスの大小とカメラからの距離の関係が逆に定義されている場合は、デプスに対する値の大きさの記述を適宜読み替える必要がある。
図1は本実施形態における画像符号化装置の構成を示すブロック図である。画像符号化装置100は、図1に示すように、符号化対象画像入力部101、符号化対象画像メモリ102、参照カメラ画像入力部103、参照カメラ画像メモリ104、参照カメラデプスマップ入力部105、デプスマップ変換部106、仮想デプスマップメモリ107、視点合成画像生成部108及び画像符号化部109を備えている。
符号化対象画像入力部101は、符号化対象となる画像を入力する。以下では、この符号化対象となる画像を符号化対象画像と称する。ここではカメラBの画像を入力するものとする。また、符号化対象画像を撮影したカメラ(ここではカメラB)を符号化対象カメラと称する。符号化対象画像メモリ102は、入力した符号化対象画像を記憶する。参照カメラ画像入力部103は、視点合成画像(視差補償画像)を生成する際に参照画像となる参照カメラ画像を入力する。ここではカメラAの画像を入力するものとする。参照カメラ画像メモリ104は、入力された参照カメラ画像を記憶する。
参照カメラデプスマップ入力部105は、参照カメラ画像に対するデプスマップを入力する。以下では、この参照カメラ画像に対するデプスマップを参照カメラデプスマップと称する。なお、デプスマップとは対応する画像の各画素に写っている被写体の3次元位置を表すものである。別途与えられるカメラパラメータ等の情報によって3次元位置が得られるものであれば、どのような情報でもよい。例えば、カメラから被写体までの距離や、画像平面とは平行ではない軸に対する座標値、別のカメラ(例えばカメラB)に対する視差量を用いることができる。また、ここではデプスマップが画像の形態で渡されるものとしているが、同様の情報が得られるのであれば、画像の形態でなくても構わない。以下では、参照カメラデプスマップに対応するカメラを参照カメラと称する。
デプスマップ変換部106は、参照カメラデプスマップを用いて、符号化対象画像に撮影された被写体のデプスマップであり、符号化対象画像よりも低い解像度のデプスマップを生成する。すなわち、生成されるデプスマップは符号化対象カメラと同じ位置や向きで、解像度の低いカメラで撮影された画像に対するデプスマップと考えることも可能である。以下では、ここで生成されたデプスマップを仮想デプスマップと称する。仮想デプスマップメモリ107は、生成された仮想デプスマップを記憶する。
視点合成画像生成部108は、仮想デプスマップから得られる符号化対象画像の画素と参照カメラ画像の画素との対応関係を用いて、符号化対象画像に対する視点合成画像を生成する。画像符号化部109は、視点合成画像を用いて、符号化対象画像に対して予測符号化を行い符号データであるビットストリームを出力する。
次に、図2を参照して、図1に示す画像符号化装置100の動作を説明する。図2は、図1に示す画像符号化装置100の動作を示すフローチャートである。まず、符号化対象画像入力部101は、符号化対象画像を入力し、入力された符号化対象画像を符号化対象画像メモリ102に記憶する(ステップS1)。次に、参照カメラ画像入力部103は参照カメラ画像を入力し、入力された参照カメラ画像を参照カメラ画像メモリ104に記憶する。これと並行して、参照カメラデプスマップ入力部105は参照カメラデプスマップを入力し、入力された参照カメラデプスマップをデプスマップ変換部106へ出力する(ステップS2)。
なお、ステップS2で入力される参照カメラ画像、参照カメラデプスマップは、既に符号化済みのものを復号したものなど、復号側で得られるものと同じものとする。これは復号装置で得られるものと全く同じ情報を用いることで、ドリフト等の符号化ノイズの発生を抑えるためである。ただし、そのような符号化ノイズの発生を許容する場合には、符号化前のものなど、符号化側でしか得られないものが入力されてもよい。参照カメラデプスマップに関しては、既に符号化済みのものを復号したもの以外に、複数のカメラに対して復号された多視点画像に対してステレオマッチング等を適用することで推定したデプスマップや、復号された視差ベクトルや動きベクトルなどを用いて推定されるデプスマップなども、復号側で同じものが得られるものとして用いることができる。
次に、デプスマップ変換部106は、参照カメラデプスマップ入力部105から出力する参照カメラデプスマップに基づき仮想デプスマップを生成し、生成された仮想デプスマップを仮想デプスマップメモリ107に記憶する(ステップS3)。なお、仮想デプスマップの解像度は、復号側と同じであれば、どのような解像度を設定しても構わない。例えば、符号化対象画像に対して予め定められた縮小率の解像度を設定しても構わない。ここでの処理の詳細については後述する。
次に、視点合成画像生成部108は、参照カメラ画像メモリ104に記憶されている参照カメラ画像と、仮想デプスマップメモリ107に記憶されている仮想デプスマップとから、符号化対象画像に対する視点合成画像を生成し、生成された視点合成画像を画像符号化部109へ出力する(ステップS4)。ここでの処理は、符号化対象画像より低い解像度の符号化対象カメラに対するデプスマップと、符号化対象カメラとは異なるカメラで撮影された画像とを用いて、符号化対象カメラの画像を合成する方法であれば、どのような方法を用いても構わない。
例えば、まず、仮想デプスマップの1つの画素を選択し、符号化対象画像上で対応する領域を求め、デプス値から参照カメラ画像上での対応領域を求める。次に、その対応領域における画像の画素値を求める。そして、得られた画素値を符号化対象画像上で同定された領域の視点合成画像の画素値として割り当てる。この処理を仮想デプスマップの全ての画素に対して行うことで、1フレーム分の視点合成画像が得られる。なお、参照カメラ画像上の対応点が、フレーム外になった場合は、画素値なしとしても構わないし、あらかじめ定められた画素値を割り当てても構わないし、最も近いフレーム内の画素の画素値やエピポーラ直線上で最も近いフレーム内の画素の画素値を割り当てても構わない。ただし、どのように画素値を決定するかは復号側と同じにする必要がある。さらに、1フレーム分の視点合成画像が得られた後に、ローパスフィルタ等のフィルタをかけても構わない。
次に、視点合成画像を得た後に、画像符号化部109は、視点合成画像を予測画像として、符号化対象画像を予測符号化して符号化結果を出力する(ステップS5)。符号化の結果得られるビットストリームが画像符号化装置100の出力となる。なお、復号側で正しく復号可能であるならば、符号化にはどのような方法を用いてもよい。
MPEG−2やH.264、JPEGなどの一般的な動画像符号化または画像符号化では、画像を予め定められた大きさのブロックに分割して、ブロックごとに、符号化対象画像と予測画像との差分信号を生成し、差分画像に対してDCT(Discrete Cosine Transform)などの周波数変換を施し、その結果得られた値に対して、量子化、2値化、エントロピー符号化の処理を順に適用することで符号化を行う。
なお、予測符号化処理をブロックごとに行う場合、視点合成画像の生成処理(ステップS4)と符号化対象画像の符号化処理(ステップS5)をブロック毎に交互に繰り返すことで、符号化対象画像を符号化してもよい。その場合の処理動作を図3を参照して説明する。図3は、視点合成画像の生成処理と符号化対象画像の符号化処理をブロック毎に交互に繰り返すことで、符号化対象画像を符号化する動作を示すフローチャートである。図3において、図2に示す処理動作と同一の部分には同一の符号を付し、その説明を簡単に行う。図3に示す処理動作では予測符号化処理を行う単位となるブロックのインデックスをblkとし、符号化対象画像中のブロック数をnumBlksで表している。
まず、符号化対象画像入力部101は、符号化対象画像を入力し、入力された符号化対象画像を符号化対象画像メモリ102に記憶する(ステップS1)。次に、参照カメラ画像入力部103は参照カメラ画像を入力し、入力された参照カメラ画像を参照カメラ画像メモリ104に記憶する。これと並行して、参照カメラデプスマップ入力部105は参照カメラデプスマップを入力し、入力された参照カメラデプスマップをデプスマップ変換部106へ出力する(ステップS2)。
次に、デプスマップ変換部106は、参照カメラデプスマップ入力部105から出力する参照カメラデプスマップに基づき仮想デプスマップを生成し、生成された仮想デプスマップを仮想デプスマップメモリ107に記憶する(ステップS3)。そして、視点合成画像生成部108は、変数blkに0を代入する(ステップS6)。
次に、視点合成画像生成部108は、参照カメラ画像メモリ104に記憶されている参照カメラ画像と、仮想デプスマップメモリ107に記憶されている仮想デプスマップとから、ブロックblkに対する視点合成画像を生成し、生成された視点合成画像を画像符号化部109へ出力する(ステップS4a)。続いて、視点合成画像を得た後に、画像符号化部109は、視点合成画像を予測画像として、ブロックblkに対する符号化対象画像を予測符号化して符号化結果を出力する(ステップS5a)。そして、視点合成画像生成部108は、変数blkをインクリメントし(blk←blk+1,ステップS7)、blk<numBlksを満たすか否かを判定する(ステップS8)。この判定の結果、blk<numBlksを満たしていればステップS4aに戻って処理を繰り返し、blk=numBlksを満たした時点で処理を終了する。
次に、図4〜図6を参照して、図1に示すデプスマップ変換部106の処理動作を説明する。図4〜図6は、図2、図3に示す参照カメラデプスマップを変換する処理(ステップS3)の処理動作を示すフローチャートである。ここでは、参照デプスマップから仮想デプスマップを生成する方法として、3つの異なる方法について説明する。どの方法を用いても構わないが、復号側と同じ方法を用いる必要がある。なお、フレームなど一定の大きさごとに使用する方法を変更する場合は、使用した方法を示す情報を符号化して復号側に通知しても構わない。
始めに、図4を参照して、第1の方法による処理動作を説明する。まず、デプスマップ変換部106は、参照カメラデプスマップから、符号化対象画像に対するデプスマップを合成する(ステップS21)。すなわち、ここで得られるデプスマップの解像度は符号化対象画像と同じである。ここでの処理には、復号側で実行可能な方法であれば、どのような方法を用いても構わないが、例えば、参考文献2「Y. Mori, N. Fukushima, T. Fujii, and M. Tanimoto, “View Generation with 3D Warping Using Depth Information for FTV”, In Proceedings of 3DTV-CON2008, pp.229-232, May 2008.」に記載の方法を用いても構わない。
別の方法としては、参照カメラデプスマップから各画素の3次元位置が得られるため、被写体空間の3次元モデルを復元し、復元されたモデルを符号化対象カメラから観測した際のデプスを求めることで、この領域(符号化対象画像)に対する仮想デプスマップを生成するようにしてもよい。更に別の方法としては、参照カメラデプスマップの画素ごとに、その画素のデプス値を用いて、仮想デプスマップ上の対応点を求め、その対応点に変換したデプス値を割り当てることで仮想デプスマップを生成するようにしてもよい。ここで、変換したデプス値とは、参照カメラデプスマップに対するデプス値を、仮想デプスマップに対するデプス値へと変換したものである。デプス値を表現する座標系として、参照カメラデプスマップと仮想デプスマップとで、共通の座標系を用いる場合は、変換せずに参照カメラデプスマップのデプス値を使用することになる。
なお、対応点は必ずしも仮想デプスマップの整数画素位置として得られるわけではないため、参照カメラデプスマップ上で隣接する画素にそれぞれ対応した仮想デプスマップ上の位置の間での連続性を仮定することで、仮想デプスマップの各画素に対するデプス値を補間して対応点を生成する必要がある。ただし、参照カメラデプスマップ上で隣接する画素に対して、そのデプス値の変化が予め定められた範囲内の場合においてのみ連続性を仮定する。これは、デプス値が大きく異なる画素には、異なる被写体が写っていると考えられ、実空間における被写体の連続性を仮定できないためである。また、得られた対応点から1つまたは複数の整数画素位置を求め、その整数画素位置にある画素に対して変換したデプス値を割り当てても構わない。この場合、デプス値の補間を行う必要がなくなり、演算量を削減することができる。
また、被写体の前後関係によって、参照カメラ画像の一部の領域に写っている被写体が、参照カメラ画像の別の領域に写っている被写体によって遮蔽され、符号化対象画像には写らない被写体が存在する参照カメラ画像上の領域が存在するため、この方法を用いる場合は、前後関係を考慮しながら、対応点にデプス値を割り当てる必要がある。ただし、符号化対象カメラと参照カメラの光軸が同一平面上に存在する場合、符号化対象カメラと参照カメラとの位置関係に従って、参照カメラデプスマップの画素を処理する順序を決定し、その決定された順序に従って処理を行うことで、前後関係を考慮せずに、得られた対応点に対して常に上書き処理を行うことで、仮想デプスマップを生成することができる。具体的には、符号化対象カメラが参照カメラよりも右に存在している場合、参照カメラデプスマップの画素を各行で左から右にスキャンする順で処理し、符号化対象カメラが参照カメラよりも左に存在している場合、参照カメラデプスマップの画素を各行で右から左にスキャンする順で処理することで、前後関係を考慮する必要がなくなる。なお、前後関係を考慮する必要がなくなることによって、演算量を削減することができる。
さらに、あるカメラで撮影された画像に対するデプスマップから別のカメラで撮影された画像に対するデプスマップを合成する場合、その両方に共通して写っている領域に対してしか有効なデプスが得られない。有効なデプスが得られなかった領域については、特許文献1に記載の方法などを用いて、推定したデプス値を割り当てても構わないし、有効な値がないままとしても構わない。
次に、符号化対象画像に対するデプスマップの合成が終了したら、デプスマップ変換部106は、合成して得られたデプスマップを縮小することで、目標とする解像度の仮想デプスマップを生成する(ステップS22)。復号側で同じ方法が使用可能であれば、デプスマップを縮小する方法として、どのような方法を用いても構わない。例えば、仮想デプスマップの画素ごとに、合成して得られたデプスマップで対応する複数の画素を設定し、それらの画素に対するデプス値の平均値や、中間値、最頻値などを求めて、仮想デプスマップのデプス値とする方法がある。なお、単純に平均値を求めるではなく、画素間の距離に応じて重みを計算し、その重みを用いて平均値や中間値などを求めても構わない。なお、ステップS21において、有効な値がないままとしてあった領域については、その画素の値は平均値等の計算において考慮しない。
別の方法としては、仮想デプスマップの画素ごとに、合成して得られたデプスマップで対応する複数の画素を設定し、それらの画素に対するデプス値のうち、最もカメラに近いことを示すデプスを選択する方法がある。これにより、主観的により重要な手前に存在する被写体に対しての予測効率が向上するため、少ない符号量で主観的に優れた符号化を実現することが可能となる。
なお、ステップS21において、一部の領域に対して有効なデプスが得られないままとした場合、最後に、生成された仮想デプスマップにおいて、有効なデプスが得られなかった領域に対して、特許文献1に記載の方法などを用いて、推定したデプス値を割り当てても構わない。
次に、図5を参照して、第2の方法による処理動作を説明する。まず、デプスマップ変換部106は、参照カメラデプスマップを縮小する(ステップS31)。復号側で同じ処理を実行可能であれば、どのような方法を用いて縮小を行っても構わない。例えば、前述のステップS22と同様の方法を用いて縮小を行っても構わない。なお、縮小後の解像度は、復号側が同じ解像度へと縮小可能であれば、どのような解像度へと縮小しても構わない。例えば、予め定められた縮小率の解像度へと変換しても構わないし、仮想デプスマップと同じでも構わない。ただし、縮小後のデプスマップの解像度は、仮想デプスマップの解像度と同じか、それよりも高いものとする。
また、縦横のどちらか一方についてのみ縮小を行っても構わない。縦横のどちらに縮小を行うかを決定する方法は、どのような方法を用いても構わない。例えば、予め定めておいても構わないし、符号化対象カメラと参照カメラの位置関係に従って決定しても構わない。符号化対象カメラと参照カメラの位置関係に従って決定する方法としては、視差の発生する方向と出来るだけ異なる方向を、縮小を行う方向とする方法がある。すなわち、符号化対象カメラと参照カメラとが左右平行に並んでいる場合、縦方向についてのみ縮小を行う。このように決定することで、次のステップにおいて、高い精度の視差を用いた処理が可能となり、高品質な仮想デプスマップを生成することが可能となる。
次に、デプスマップ変換部106は、参照カメラデプスマップの縮小が終了したら、縮小したデプスマップから仮想デプスマップを合成する(ステップS32)。ここでの処理は、デプスマップの解像度が異なる点を除いて、ステップS21と同じである。なお、縮小して得られたデプスマップの解像度が、仮想デプスマップの解像度と異なる際に、縮小して得られたデプスマップの画素ごとに、仮想デプスマップ上の対応画素を求めると、縮小して得られたデプスマップの複数の画素が、仮想デプスマップの1画素と対応関係を持つことになる。このとき、小数画素精度での誤差が最も小さい画素のデプス値を割り当てることで、より高品質な仮想デプスマップを生成可能となる。また、その複数の画素群のうち、最もカメラに近いことを示すデプス値を選択することで、主観的により重要な手前に存在する被写体に対しての予測効率を向上させても構わない。
このように、仮想デプスマップを合成する際に用いるデプスマップの画素数を削減することで、合成の際に必要となる対応点や3次元モデルの計算に必要な演算量を削減することが可能となる。
次に、図6を参照して、第3の方法による処理動作を説明する。第3の方法では、まず、デプスマップ変換部106は、参照カメラデプスマップの画素の中から、複数のサンプル画素を設定する(ステップS41)。サンプル画素の選択方法は、復号側が同じ選択を実現可能であれば、どのような方法を用いても構わない。例えば、参照カメラデプスマップの解像度と仮想デプスマップの解像度の比に従って、参照カメラデプスマップを複数の領域に分割し、領域ごとに、一定の規則に従ってサンプル画素を選択しても構わない。一定の規則とは、例えば、領域内の特定の位置に存在する画素や、カメラから最も遠いことを示すデプスを持つ画素や、カメラから最も近いことを示すデプスを持つ画素などを選択することである。なお、領域ごとに複数の画素を選択しても構わない。すなわち、領域内の四隅に存在する4つの画素や、カメラから最も遠いことを示すデプスを持つ画素とカメラから最も近いことを示すデプスを持つ画素の2つの画素、カメラから近いことを示すデプスを持つ画素を順に3つなど、複数の画素をサンプル画素としても構わない。
なお、領域分割の方法としては、参照カメラデプスマップの解像度と仮想デプスマップの解像度の比に加えて、符号化対象カメラと参照カメラの位置関係を用いても構わない。例えば、視差の発生する方向と出来るだけ異なる方向にのみ、解像度の比に応じて複数画素の幅を設定し、もう一方(視差の発生する方向)には1画素分の幅を設定する方法がある。また、仮想デプスマップの解像度以上のサンプル画素を選択することで、次のステップにおいて、有効なデプスの得られない画素の数を減らし、高品質な仮想デプスマップを生成することが可能となる。
次に、デプスマップ変換部106は、サンプル画素の設定が終了したら、参照カメラデプスマップのサンプル画素のみを用いて、仮想デプスマップを合成する(ステップS42)。ここでの処理は、一部の画素を用いて合成を行う点を除いて、ステップS32と同じである。
このように、仮想デプスマップを合成する際に用いる参照カメラデプスマップの画素を制限することで、合成の際に必要となる対応点や3次元モデルの計算に必要な演算量を削減することが可能となる。また、第2の方法と異なり、参照カメラデプスマップを縮小するのに必要となる演算や一時メモリを削減することが可能である。
また、以上説明した3つの方法とは別の方法として、参照カメラデプスマップから仮想デプスマップを直接生成しても構わない。その場合の処理は、第2の方法において縮小率を1倍とした場合や、第3の方法において参照カメラデプスマップの全ての画素をサンプル画素として設定した場合に等しい。
ここで、図7を参照して、カメラ配置が一次元平行の場合に、デプスマップ変換部106の具体的な動作の一例を説明する。なお、カメラ配置が一次元平行とは、カメラの理論投影面が同一平面上に存在し、光軸が互いに平行な状態である。また、ここではカメラは水平方向に隣り合って設置されており、参照カメラが符号化対象カメラの左側に存在しているとする。このとき、画像平面上の水平ライン上の画素に対するエピポーラ直線は、同じ高さに存在する水平なライン状となる。このため、視差は常に水平方向にしか存在していないことになる。さらに投影面が同一平面上に存在するため、デプスを光軸方向の座標軸に対する座標値として表現する場合、カメラ間でデプスの定義軸が一致することになる。
図7は、参照カメラデプスマップから仮想デプスマップを生成する動作を示すフローチャートである。図7においては参照カメラデプスマップをRDepth、仮想デプスマップをVDepthと表記している。カメラ配置が一次元平行であるため、ラインごとに、参照カメラデプスマップを変換して、仮想デプスマップを生成する。すなわち、仮想デプスマップのラインを示すインデックスをh、仮想デプスマップのライン数をHeightとすると、デプスマップ変換部106は、hを0で初期化した後(ステップS51)、hに1ずつ加算しながら(ステップS65)、hがHeightになるまで(ステップS66)、以下の処理(ステップS52〜ステップS64)を繰り返す。
ラインごとに行う処理では、まず、デプスマップ変換部106は、参照カメラデプスマップから1ライン分の仮想デプスマップを合成する(ステップS52〜ステップS62)。その後、そのライン上で参照カメラデプスマップからデプスが生成できなかった領域が存在するか否かを判定し(ステップS63)、そのような領域が存在する場合はデプスを生成する(ステップS64)。どのような方法を用いても構わないが、例えば、デプスが生成されなかった領域内の全ての画素に対して、そのライン上に生成されたデプスのうち、最も右側に存在するデプス(VDepth[last])を割り当てても構わない。
参照カメラデプスマップから1ライン分の仮想デプスマップを合成する処理では、まず、デプスマップ変換部106は、仮想デプスマップのラインhに対応するサンプル画素集合Sを決定する(ステップS52)。このとき、カメラ配置が一次元平行であることから、参照カメラデプスマップと仮想デプスマップのライン数の比がN:1である場合、サンプル画素集合は参照カメラデプスマップのラインN×hからライン{N×(h+1)−1}の中から選択することになる。
サンプル画素集合の決定にはどのような方法を用いても構わない。例えば、画素列(縦方向の画素の集合)ごとに最もカメラに近いことを示すデプス値を持つ画素をサンプル画素として選択しても構わない。また1列ごとではなく、複数列ごとに1つの画素をサンプル画素として選択しても構わない。このときの列の幅は、参照カメラデプスマップと仮想デプスマップの列数の比に基づいて決定しても構わない。サンプル画素集合が決定したら、直前に処理したサンプル画素をワーピングした仮想デプスマップ上の画素位置lastを(h,−1)で初期化する(ステップS53)。
次に、デプスマップ変換部106は、サンプル画素集合が決定したら、サンプル画素集合に含まれる画素ごとに、参照カメラデプスマップのデプスをワーピングする処理を繰り返す。すなわち、サンプル画素集合から処理したサンプル画素を取り除きながら(ステップS61)、サンプル画素集合が空集合になるまで(ステップS62)、以下の処理(ステップS54〜ステップS60)を繰り返す。
サンプル画素集合が空集合になるまで繰り返される処理では、デプスマップ変換部106が、サンプル画素集合の中から、参照カメラデプスマップ上で最も左に位置する画素pを処理するサンプル画素として選択する(ステップS54)。次に、デプスマップ変換部106は、サンプル画素pに対する参照カメラデプスマップの値から、サンプル画素pが仮想デプスマップ上で対応する点cpを求める(ステップS55)。対応点cpが得られたら、デプスマップ変換部106は、その対応点が仮想デプスマップのフレーム内に存在するか否かをチェックする(ステップS56)。対応点がフレーム外となる場合、デプスマップ変換部106は、何もせずにサンプル画素pに対する処理を終了する。
一方、対応点cpが仮想デプスマップのフレーム内の場合、デプスマップ変換部106は、対応点cpに対する仮想カメラデプスマップの画素に参照カメラデプスマップの画素pに対するデプスを割り当てる(ステップS57)。次に、デプスマップ変換部106は、直前のサンプル画素のデプスを割り当てた位置lastと今回のサンプル画素のデプスを割り当てた位置cpとの間に、別の画素が存在するか否かを判定する(ステップS58)。そのような画素が存在する場合、デプスマップ変換部106は、画素lastと画素cpの間に存在する画素にデプスを生成する(ステップS59)。どのような処理を用いてデプスを生成しても構わない。例えば、画素lastと画素cpのデプスを線形補間しても構わない。
次に、画素lastと画素cpの間のデプスの生成が終了したら、または、画素lastと画素cpの間に他の画素が存在しなかった場合、デプスマップ変換部106は、lastをcpに更新して(ステップS60)、サンプル画素pに対する処理を終了する。
図7に示す処理動作は、参照カメラが符号化対象カメラの左側に設置されている場合の処理であるが、参照カメラと符号化対象カメラの位置関係が逆の場合は、処理する画素の順序や画素位置の判定条件を逆にすればよい。具体的には、ステップS53では、lastを(h,Width)で初期化し、ステップS54では、参照カメラデプスマップ上で最も右に位置するサンプル画素集合の中の画素pを処理するサンプル画素として選択し、ステップS63では、lastより左側に画素が存在するか否かを判定し、ステップS64では、lastより左側のデプスを生成する。なお、Widthは仮想デプスマップの横方向の画素数である。
また、図7に示す処理動作は、カメラ配置が一次元平行の場合の処理であるが、カメラ配置が一次元コンバージェンスの場合も、デプスの定義によっては同じ処理フローを適用することが可能である。具体的には、デプスを表現する座標軸が参照カメラデプスマップと仮想デプスマップとで同一の場合に、同じ処理フローを適用することが可能である。また、デプスの定義軸が異なる場合は、参照カメラデプスマップの値を直接、仮想デプスマップに割り当てるのではなく、参照カメラデプスマップのデプスによってあらわされる3次元位置を、デプスの定義軸に従って変換した後に、変換により得られた3次元位置を仮想デプスマップに割り当てるだけで、基本的には同じフローを適用することができる。
次に、画像復号装置について説明する。図8は、本実施形態における画像復号装置の構成を示すブロック図である。画像復号装置200は、図8に示すように、符号データ入力部201、符号データメモリ202、参照カメラ画像入力部203、参照カメラ画像メモリ204、参照カメラデプスマップ入力部205、デプスマップ変換部206、仮想デプスマップメモリ207、視点合成画像生成部208、および画像復号部209を備えている。
符号データ入力部201は、復号対象となる画像の符号データを入力する。以下では、この復号対象となる画像を復号対象画像と呼ぶ。ここでは、復号対象画像はカメラBの画像を指す。また、以下では、復号対象画像を撮影したカメラ(ここではカメラB)を復号対象カメラと呼ぶ。符号データメモリ202は、入力した復号対象画像である符号データを記憶する。参照カメラ画像入力部203は、視点合成画像(視差補償画像)を生成する際に参照画像となる参照カメラ画像を入力する。ここではカメラAの画像が入力される。参照カメラ画像メモリ204は、入力した参照カメラ画像を記憶する。
参照カメラデプスマップ入力部205は、参照カメラ画像に対するデプスマップを入力する。以下では、この参照カメラ画像に対するデプスマップを参照カメラデプスマップと呼ぶ。なお、デプスマップとは対応する画像の各画素に写っている被写体の3次元位置を表すものである。別途与えられるカメラパラメータ等の情報によって3次元位置が得られるものであれば、どのような情報でもよい。例えば、カメラから被写体までの距離や、画像平面とは平行ではない軸に対する座標値、別のカメラ(例えばカメラB)に対する視差量を用いることができる。また、ここではデプスマップが画像の形態で渡されるものとしているが、同様の情報が得られるのであれば、画像の形態でなくても構わない。以下では、参照カメラデプスマップに対応するカメラを参照カメラと呼ぶ。
デプスマップ変換部206は、参照カメラデプスマップを用いて、復号対象画像に撮影された被写体のデプスマップであり、復号対象画像よりも低い解像度のデプスマップを生成する。すなわち、生成されるデプスマップは復号対象カメラと同じ位置や向きで、解像度の低いカメラで撮影された画像に対するデプスマップと考えることも可能である。以下では、ここで生成されたデプスマップを仮想デプスマップと呼ぶ。仮想デプスマップメモリ207は、生成した仮想デプスマップを記憶する。視点合成画像生成部208は、仮想デプスマップから得られる復号対象画像の画素と参照カメラ画像の画素との対応関係を用いて、復号対象画像に対する視点合成画像を生成する。画像復号部209は、視点合成画像を用いて、符号データから復号対象画像を復号して復号画像を出力する。
次に、図9を参照して、図8に示す画像復号装置200の動作を説明する。図9は、図8に示す画像復号装置200の動作を示すフローチャートである。まず、符号データ入力部201は、復号対象画像の符号データを入力し、入力された符号データを符号データメモリ202に記憶する(ステップS71)。これと並行して、参照カメラ画像入力部203は参照カメラ画像を入力し、入力された参照カメラ画像を参照カメラ画像メモリ204に記憶する。また、参照カメラデプスマップ入力部205は参照カメラデプスマップを入力し、入力された参照カメラデプスマップをデプスマップ変換部206へ出力する(ステップS72)。
なお、ステップS72で入力される参照カメラ画像、参照カメラデプスマップは、符号化側で使用されたものと同じものとする。これは符号化装置で使用したものと全く同じ情報を用いることで、ドリフト等の符号化ノイズの発生を抑えるためである。ただし、そのような符号化ノイズの発生を許容する場合には、符号化時に使用されたものと異なるものが入力されてもよい。参照カメラデプスマップに関しては、別途復号したもの以外に、複数のカメラに対して復号された多視点画像に対してステレオマッチング等を適用することで推定したデプスマップや、復号された視差ベクトルや動きベクトルなどを用いて推定されるデプスマップなどを用いることもある。
次に、デプスマップ変換部206は、参照カメラデプスマップから仮想デプスマップを生成し、生成された仮想デプスマップを仮想デプスマップメモリ207に記憶する(ステップS73)。ここでの処理は、符号化対象画像と復号対象画像など、符号化と復号が異なる点を除いて、図2に示すステップS3と同じである。
次に、仮想デプスマップが得られたならば、視点合成画像生成部208は、参照カメラ画像と仮想デプスマップとから、復号対象画像に対する視点合成画像を生成し、生成された視点合成画像を画像復号部209へ出力する(ステップS74)。ここでの処理は、符号化対象画像と復号対象画像など、符号化と復号が異なる点を除いて、図2に示すステップS4と同じである。
次に、視点合成画像が得られたならば、画像復号部209は、視点合成画像を予測画像として用いながら、符号データから復号対象画像を復号して復号結果を出力する(ステップS75)。復号の結果得られる復号画像が画像復号装置200の出力となる。なお、符号データ(ビットストリーム)を正しく復号できるならば、復号にはどのような方法を用いてもよい。一般的には、符号化時に用いられた方法に対応する方法が用いられる。
MPEG−2やH.264、JPEGなどの一般的な動画像符号化または画像符号化で符号化されている場合は、画像を予め定められた大きさのブロックに分割して、ブロックごとに、エントロピー復号、逆2値化、逆量子化などを施した後、IDCT(Inverse Discrete Cosine Transform)など逆周波数変換を施して予測残差信号を得た後、予測残差信号に対して予測画像を加え、得られた結果を画素値範囲でクリッピングすることで復号を行う。
なお、復号処理をブロックごとに行う場合、視点合成画像の生成処理(ステップS74)と復号対象画像の復号処理(ステップS75)をブロック毎に交互に繰り返すことで、復号対象画像を復号してもよい。その場合の処理動作を図10を参照して説明する。図10は、視点合成画像の生成処理と復号対象画像の復号処理をブロック毎に交互に繰り返すことで、復号対象画像を復号する動作を示すフローチャートである。図10において、図9に示す処理動作と同一の部分には同一の符号を付し、その説明を簡単に行う。図10に示す処理動作では復号処理を行う単位となるブロックのインデックスをblkとし、復号対象画像中のブロック数をnumBlksで表している。
まず、符号データ入力部201は、復号対象画像の符号データを入力し、入力された符号データを符号データメモリ202に記憶する(ステップS71)。これと並行して、参照カメラ画像入力部203は参照カメラ画像を入力し、入力された参照カメラ画像を参照カメラ画像メモリ204に記憶する。また、参照カメラデプスマップ入力部205は参照カメラデプスマップを入力し、入力された参照カメラデプスマップをデプスマップ変換部206へ出力する(ステップS72)。
次に、デプスマップ変換部206は、参照カメラデプスマップから仮想デプスマップを生成し、生成された仮想デプスマップを仮想デプスマップメモリ207に記憶する(ステップS73)。そして、視点合成画像生成部208は、変数blkに0を代入する(ステップS76)。
次に、視点合成画像生成部208は、参照カメラ画像と仮想デプスマップとから、ブロックblkに対する視点合成画像を生成し、生成された視点合成画像を画像復号部209へ出力する(ステップS74a)。続いて、画像復号部209は、視点合成画像を予測画像として用いながら、符号データからブロックblkに対する復号対象画像を復号して復号結果を出力する(ステップS75a)。そして、視点合成画像生成部208は、変数blkをインクリメントし(blk←blk+1,ステップS77)、blk<numBlksを満たすか否かを判定する(ステップS78)。この判定の結果、blk<numBlksを満たしていればステップS74aに戻って処理を繰り返し、blk=numBlksを満たした時点で処理を終了する。
このように、参照フレームに対するデプスマップから、処理対象フレームに対する解像度の小さなデプスマップを生成することで、指定された領域のみに対する視点合成画像の生成を少ない演算量および消費メモリで実現し、多視点画像の効率的かつ軽量な画像符号化を実現することができる。これにより、参照フレームに対するデプスマップを用いて、処理対象フレーム(符号化対象フレームまたは復号対象フレーム)の視点合成画像を生成する際に、視点合成画像の品質を著しく低下させることなく、少ない演算量で、ブロックごとに視点合成画像を生成することが可能になる。
上述した説明においては、1フレーム中のすべての画素を符号化および復号する処理を説明したが、一部の画素にのみ本発明の実施形態の処理を適用し、その他の画素では、H.264/AVCなどで用いられる画面内予測符号化や動き補償予測符号化などを用いて符号化または復号を行ってもよい。その場合には、画素ごとにどの方法を用いて予測したかを示す情報を符号化および復号する必要がある。また、画素ごとではなくブロック毎に別の予測方式を用いて符号化または復号を行ってもよい。なお、一部の画素やブロックに対してのみ視点合成画像を用いた予測を行う場合は、その画素に対してのみ視点合成画像を生成する処理(ステップS4、S4a、S74およびS74a)を行うようにすることで、視点合成画像の生成処理にかかる演算量を削減することが可能となる。
また、上述した説明においては、1フレームを符号化および復号する処理を説明したが、複数フレームについて処理を繰り返すことで本発明の実施形態を動画像符号化にも適用することができる。また、動画像の一部のフレームや一部のブロックにのみ本発明の実施形態を適用することもできる。さらに、上述した説明では画像符号化装置および画像復号装置の構成及び処理動作を説明したが、これら画像符号化装置および画像復号装置の各部の動作に対応した処理動作によって本発明の画像符号化方法および画像復号方法を実現することができる。
図11は、前述した画像符号化装置をコンピュータとソフトウェアプログラムとによって構成する場合のハードウェア構成を示すブロック図である。図11に示すシステムは、プログラムを実行するCPU(Central Processing Unit)50と、CPU50がアクセスするプログラムやデータが格納されるRAM(Random Access Memory)等のメモリ51と、カメラ等からの符号化対象の画像信号を入力する符号化対象画像入力部52(ディスク装置等による画像信号を記憶する記憶部でもよい)と、カメラ等からの参照対象の画像信号を入力する参照カメラ画像入力部53(ディスク装置等による画像信号を記憶する記憶部でもよい)と、デプスカメラ等からの符号化対象画像を撮影したカメラとは異なる位置や向きのカメラに対するデプスマップを入力する参照カメラデプスマップ入力部54(ディスク装置等によるデプスマップを記憶する記憶部でもよい)と、上述した画像符号化処理をCPU50に実行させるソフトウェアプログラムである画像符号化プログラム551が格納されたプログラム記憶装置55と、CPU50がメモリ51にロードされた画像符号化プログラム551を実行することにより生成された符号データを、例えばネットワークを介して出力する符号データ出力部56(ディスク装置等による符号データを記憶する記憶部でもよい)とが、バスで接続された構成になっている。
図12は、前述した画像復号装置をコンピュータとソフトウェアプログラムとによって構成する場合のハードウェア構成を示すブロック図である。図12に示すシステムは、プログラムを実行するCPU60と、CPU60がアクセスするプログラムやデータが格納されるRAM等のメモリ61と、画像符号化装置が本手法により符号化した符号データを入力する符号データ入力部62(ディスク装置等による符号データを記憶する記憶部でもよい)と、カメラ等からの参照対象の画像信号を入力する参照カメラ画像入力部63(ディスク装置等による画像信号を記憶する記憶部でもよい)と、デプスカメラ等からの復号対象を撮影したカメラとは異なる位置や向きのカメラに対するデプスマップを入力する参照カメラデプスマップ入力部64(ディスク装置等によるデプス情報を記憶する記憶部でもよい)と、上述した画像復号処理をCPU60に実行させるソフトウェアプログラムである画像復号プログラム651が格納されたプログラム記憶装置65と、CPU60がメモリ61にロードされた画像復号プログラム651を実行することにより、符号データを復号して得られた復号対象画像を、再生装置などに出力する復号対象画像出力部66(ディスク装置等による画像信号を記憶する記憶部でもよい)とが、バスで接続された構成になっている。
また、図1に示す画像符号化装置及び図8に示す画像復号装置における各処理部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより画像符号化処理と画像復号処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OS(Operating System)や周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWW(World Wide Web)システムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM(Read Only Memory)、CD(Compact Disc)−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、上記プログラムは、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
以上、図面を参照して本発明の実施形態を説明してきたが、上記実施形態は本発明の例示に過ぎず、本発明が上記実施形態に限定されるものではないことは明らかである。したがって、本発明の技術思想及び範囲を逸脱しない範囲で構成要素の追加、省略、置換、その他の変更を行っても良い。
本発明は、参照フレームに対する被写体の3次元位置を表すデプスマップを用いて、符号化(復号)対象画像に対して視差補償予測を行う際に、高い符号化効率を少ない演算量で達成することが不可欠な用途に適用できる。
100・・・画像符号化装置、101・・・符号化対象画像入力部、102・・・符号化対象画像メモリ、103・・・参照カメラ画像入力部、104・・・参照カメラ画像メモリ、105・・・参照カメラデプスマップ入力部、106・・・デプスマップ変換部、107・・・仮想デプスマップメモリ、108・・・視点合成画像生成部、109・・・画像符号化部、200・・・画像復号装置、201・・・符号データ入力部、202・・・符号データメモリ、203・・・参照カメラ画像入力部、204・・・参照カメラ画像メモリ、205・・・参照カメラデプスマップ入力部、206・・・デプスマップ変換部、207・・・仮想デプスマップメモリ、208・・・視点合成画像生成部、209・・・画像復号部
Claims (24)
- 複数の視点の画像である多視点画像を符号化する際に、符号化対象画像の視点とは異なる視点に対する符号化済みの参照視点画像と、前記参照視点画像内の被写体のデプスマップである参照視点デプスマップとを用いて、視点間で画像を予測しながら符号化を行う画像符号化方法であって、
前記参照視点デプスマップを縮小することにより、前記参照視点画像内の前記被写体の縮小デプスマップを生成する縮小デプスマップ生成ステップと、
前記符号化対象画像よりも解像度が低く、前記符号化対象画像内の前記被写体のデプスマップである仮想デプスマップを前記縮小デプスマップから生成する仮想デプスマップ生成ステップと、
前記仮想デプスマップと前記参照視点画像とから、前記符号化対象画像に対する視差補償画像を生成することにより、視点間の画像予測を行う視点間画像予測ステップと
を有する画像符号化方法。 - 前記縮小デプスマップ生成ステップでは、前記参照視点デプスマップを縦方向または横方向のいずれか一方に対してのみ縮小する請求項1に記載の画像符号化方法。
- 前記縮小デプスマップ生成ステップでは、前記縮小デプスマップの画素ごとに、前記参照視点デプスマップで対応する複数の画素に対するデプスのうち、最も視点に近いことを示すデプスを選択することにより、前記縮小デプスマップを生成する請求項1または請求項2に記載の画像符号化方法。
- 複数の視点の画像である多視点画像を符号化する際に、符号化対象画像の視点とは異なる視点に対する符号化済みの参照視点画像と、前記参照視点画像内の被写体のデプスマップである参照視点デプスマップとを用いて、視点間で画像を予測しながら符号化を行う画像符号化方法であって、
前記参照視点デプスマップの画素から、一部のサンプル画素を選択するサンプル画素選択ステップと、
前記サンプル画素に対応する前記参照視点デプスマップを変換することにより、前記符号化対象画像よりも解像度が低く、前記符号化対象画像内の前記被写体のデプスマップである仮想デプスマップを生成する仮想デプスマップ生成ステップと、
前記仮想デプスマップと前記参照視点画像とから、前記符号化対象画像に対する視差補償画像を生成することにより、視点間の画像予測を行う視点間画像予測ステップと
を有する画像符号化方法。 - 前記参照視点デプスマップと前記仮想デプスマップの解像度の比に従って、前記参照視点デプスマップを部分領域に分割する領域分割ステップをさらに有し、
前記サンプル画素選択ステップでは、前記部分領域ごとに前記サンプル画素を選択する請求項4に記載の画像符号化方法。 - 前記領域分割ステップでは、前記参照視点デプスマップと前記仮想デプスマップの解像度の比に従って、前記部分領域の形状を決定する請求項5に記載の画像符号化方法。
- 前記サンプル画素選択ステップでは、前記部分領域ごとに最も視点に近いことを示すデプスを持つ画素、または、最も視点から遠いことを示すデプスを持つ画素のいずれか一方を前記サンプル画素として選択する請求項5または請求項6に記載の画像符号化方法。
- 前記サンプル画素選択ステップでは、前記部分領域ごとに最も視点に近いことを示すデプスを持つ画素と最も視点から遠いことを示すデプスを持つ画素とを前記サンプル画素として選択する請求項5または請求項6に記載の画像符号化方法。
- 複数の視点の画像である多視点画像の符号データから、復号対象画像を復号する際に、前記復号対象画像の視点とは異なる視点に対する復号済みの参照視点画像と、前記参照視点画像内の被写体のデプスマップである参照視点デプスマップとを用いて、視点間で画像を予測しながら復号を行う画像復号方法であって、
前記参照視点デプスマップを縮小することにより、前記参照視点画像内の前記被写体の縮小デプスマップを生成する縮小デプスマップ生成ステップと、
前記復号対象画像よりも解像度が低く、前記復号対象画像内の前記被写体のデプスマップである仮想デプスマップを前記縮小デプスマップから生成する仮想デプスマップ生成ステップと、
前記仮想デプスマップと前記参照視点画像とから、前記復号対象画像に対する視差補償画像を生成することにより、視点間の画像予測を行う視点間画像予測ステップと
を有する画像復号方法。 - 前記縮小デプスマップ生成ステップでは、前記参照視点デプスマップを縦方向または横方向のいずれか一方に対してのみ縮小する請求項9に記載の画像復号方法。
- 前記縮小デプスマップ生成ステップでは、前記縮小デプスマップの画素ごとに、前記参照視点デプスマップで対応する複数の画素に対するデプスのうち、最も視点に近いことを示すデプスを選択することにより、前記縮小デプスマップを生成する請求項9または請求項10に記載の画像復号方法。
- 複数の視点の画像である多視点画像の符号データから、復号対象画像を復号する際に、前記復号対象画像の視点とは異なる視点に対する復号済みの参照視点画像と、前記参照視点画像内の被写体のデプスマップである参照視点デプスマップとを用いて、視点間で画像を予測しながら復号を行う画像復号方法であって、
前記参照視点デプスマップの画素から、一部のサンプル画素を選択するサンプル画素選択ステップと、
前記サンプル画素に対応する前記参照視点デプスマップを変換することにより、前記復号対象画像よりも解像度が低く、前記復号対象画像内の前記被写体のデプスマップである仮想デプスマップを生成する仮想デプスマップ生成ステップと、
前記仮想デプスマップと前記参照視点画像とから、前記復号対象画像に対する視差補償画像を生成することにより、視点間の画像予測を行う視点間画像予測ステップと
を有する画像復号方法。 - 前記参照視点デプスマップと前記仮想デプスマップの解像度の比に従って、前記参照視点デプスマップを部分領域に分割する領域分割ステップをさらに有し、
前記サンプル画素選択ステップでは、前記部分領域ごとにサンプル画素を選択する請求項12に記載の画像復号方法。 - 前記領域分割ステップでは、前記参照視点デプスマップと前記仮想デプスマップの解像度の比に従って、前記部分領域の形状を決定する請求項13に記載の画像復号方法。
- 前記サンプル画素選択ステップでは、前記部分領域ごとに最も視点に近いことを示すデプスを持つ画素、または、最も視点から遠いことを示すデプスを持つ画素のいずれか一方を前記サンプル画素として選択する請求項13または請求項14に記載の画像復号方法。
- 前記サンプル画素選択ステップでは、前記部分領域ごとに最も視点に近いことを示すデプスを持つ画素と最も視点から遠いことを示すデプスを持つ画素とを前記サンプル画素として選択する請求項13または請求項14に記載の画像復号方法。
- 複数の視点の画像である多視点画像を符号化する際に、符号化対象画像の視点とは異なる視点に対する符号化済みの参照視点画像と、前記参照視点画像内の被写体のデプスマップである参照視点デプスマップとを用いて、視点間で画像を予測しながら符号化を行う画像符号化装置であって、
前記参照視点デプスマップを縮小することにより、前記参照視点画像内の前記被写体の縮小デプスマップを生成する縮小デプスマップ生成部と、
前記縮小デプスマップを変換することにより、前記符号化対象画像よりも解像度が低く、前記符号化対象画像内の前記被写体のデプスマップである仮想デプスマップを生成する仮想デプスマップ生成部と、
前記仮想デプスマップと前記参照視点画像とから、前記符号化対象画像に対する視差補償画像を生成することにより、視点間の画像予測を行う視点間画像予測部と
を備える画像符号化装置。 - 複数の視点の画像である多視点画像を符号化する際に、符号化対象画像の視点とは異なる視点に対する符号化済みの参照視点画像と、前記参照視点画像内の被写体のデプスマップである参照視点デプスマップとを用いて、視点間で画像を予測しながら符号化を行う画像符号化装置であって、
前記参照視点デプスマップの画素から、一部のサンプル画素を選択するサンプル画素選択部と、
前記サンプル画素に対応する前記参照視点デプスマップを変換することにより、前記符号化対象画像よりも解像度が低く、前記符号化対象画像内の前記被写体のデプスマップである仮想デプスマップを生成する仮想デプスマップ生成部と、
前記仮想デプスマップと前記参照視点画像とから、前記符号化対象画像に対する視差補償画像を生成することにより、視点間の画像予測を行う視点間画像予測部と
を備える画像符号化装置。 - 複数の視点の画像である多視点画像の符号データから、復号対象画像を復号する際に、前記復号対象画像の視点とは異なる視点に対する復号済みの参照視点画像と、前記参照視点画像内の被写体のデプスマップである参照視点デプスマップとを用いて、視点間で画像を予測しながら復号を行う画像復号装置であって、
前記参照視点デプスマップを縮小することにより、前記参照視点画像内の前記被写体の縮小デプスマップを生成する縮小デプスマップ生成部と、
前記縮小デプスマップを変換することにより、前記復号対象画像よりも解像度が低く、前記復号対象画像内の前記被写体のデプスマップである仮想デプスマップを生成する仮想デプスマップ生成部と、
前記仮想デプスマップと前記参照視点画像とから、前記復号対象画像に対する視差補償画像を生成することにより、視点間の画像予測を行う視点間画像予測部と
を備える画像復号装置。 - 複数の視点の画像である多視点画像の符号データから、復号対象画像を復号する際に、前記復号対象画像の視点とは異なる視点に対する復号済みの参照視点画像と、前記参照視点画像内の被写体のデプスマップである参照視点デプスマップとを用いて、視点間で画像を予測しながら復号を行う画像復号装置であって、
前記参照視点デプスマップの画素から、一部のサンプル画素を選択するサンプル画素選択部と、
前記サンプル画素に対応する前記参照視点デプスマップを変換することにより、前記復号対象画像よりも解像度が低く、前記復号対象画像内の前記被写体のデプスマップである仮想デプスマップを生成する仮想デプスマップ生成部と、
前記仮想デプスマップと前記参照視点画像とから、前記復号対象画像に対する視差補償画像を生成することにより、視点間の画像予測を行う視点間画像予測部と
を備える画像復号装置。 - コンピュータに、請求項1から8のいずれか1項に記載の画像符号化方法を実行させるための画像符号化プログラム。
- コンピュータに、請求項9から16のいずれか1項に記載の画像復号方法を実行させるための画像復号プログラム。
- 請求項21に記載の画像符号化プログラムを記録したコンピュータ読み取り可能な記録媒体。
- 請求項22に記載の画像復号プログラムを記録したコンピュータ読み取り可能な記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014538497A JP5883153B2 (ja) | 2012-09-25 | 2013-09-24 | 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体 |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012211154 | 2012-09-25 | ||
JP2012211154 | 2012-09-25 | ||
JP2014538497A JP5883153B2 (ja) | 2012-09-25 | 2013-09-24 | 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体 |
PCT/JP2013/075735 WO2014050827A1 (ja) | 2012-09-25 | 2013-09-24 | 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP5883153B2 true JP5883153B2 (ja) | 2016-03-09 |
JPWO2014050827A1 JPWO2014050827A1 (ja) | 2016-08-22 |
Family
ID=50388224
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014538497A Active JP5883153B2 (ja) | 2012-09-25 | 2013-09-24 | 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20150249839A1 (ja) |
JP (1) | JP5883153B2 (ja) |
KR (1) | KR101648094B1 (ja) |
CN (1) | CN104871534A (ja) |
WO (1) | WO2014050827A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3171598A1 (en) * | 2015-11-19 | 2017-05-24 | Thomson Licensing | Methods and devices for encoding and decoding a matrix of views obtained from light-field data, corresponding computer program and non-transitory program storage device |
KR101876007B1 (ko) * | 2015-12-28 | 2018-07-06 | 전자부품연구원 | 분산 및 병렬 프로그래밍 기반의 실시간 초다시점 3d 콘텐츠 합성 시스템 및 방법 |
US11488359B2 (en) | 2019-08-28 | 2022-11-01 | Snap Inc. | Providing 3D data for messages in a messaging system |
US11457196B2 (en) | 2019-08-28 | 2022-09-27 | Snap Inc. | Effects for 3D data in a messaging system |
US11410401B2 (en) | 2019-08-28 | 2022-08-09 | Snap Inc. | Beautification techniques for 3D data in a messaging system |
US11189104B2 (en) * | 2019-08-28 | 2021-11-30 | Snap Inc. | Generating 3D data in a messaging system |
CN110519607B (zh) * | 2019-09-27 | 2022-05-20 | 腾讯科技(深圳)有限公司 | 视频解码方法及装置,视频编码方法及装置 |
US11410387B1 (en) * | 2020-01-17 | 2022-08-09 | Facebook Technologies, Llc. | Systems, methods, and media for generating visualization of physical environment in artificial reality |
US10950034B1 (en) | 2020-01-27 | 2021-03-16 | Facebook Technologies, Llc | Systems, methods, and media for generating visualization of physical environment in artificial reality |
CN113271464B (zh) * | 2021-05-11 | 2022-11-18 | 北京奇艺世纪科技有限公司 | 视频编码方法、解码方法及相关装置 |
CN115546515A (zh) * | 2022-08-31 | 2022-12-30 | 北京鉴智科技有限公司 | 一种深度信息获取方法和装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09289638A (ja) * | 1996-04-23 | 1997-11-04 | Nec Corp | 3次元画像符号化復号方式 |
JP2000215311A (ja) * | 1999-01-21 | 2000-08-04 | Nippon Telegr & Teleph Corp <Ntt> | 仮想視点画像生成方法およびその装置 |
JP2010021844A (ja) * | 2008-07-11 | 2010-01-28 | Nippon Telegr & Teleph Corp <Ntt> | 多視点画像符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体 |
JP4698831B2 (ja) * | 1997-12-05 | 2011-06-08 | ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド | 画像変換および符号化技術 |
JP4999853B2 (ja) * | 2006-09-20 | 2012-08-15 | 日本電信電話株式会社 | 画像符号化方法及び復号方法、それらの装置、及びそれらのプログラム並びにプログラムを記録した記憶媒体 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
MY159176A (en) * | 2005-10-19 | 2016-12-30 | Thomson Licensing | Multi-view video coding using scalable video coding |
US20080278582A1 (en) * | 2007-05-07 | 2008-11-13 | Sentinel Ave Llc | Video Fusion Display Systems |
KR100918862B1 (ko) * | 2007-10-19 | 2009-09-28 | 광주과학기술원 | 참조영상을 이용한 깊이영상 생성방법 및 그 장치, 생성된깊이영상을 부호화/복호화하는 방법 및 이를 위한인코더/디코더, 그리고 상기 방법에 따라 생성되는 영상을기록하는 기록매체 |
US10198792B2 (en) * | 2009-10-14 | 2019-02-05 | Dolby Laboratories Licensing Corporation | Method and devices for depth map processing |
KR20120068540A (ko) * | 2010-12-17 | 2012-06-27 | 한국전자통신연구원 | 병렬 처리를 이용한 다시점 영상 컨텐츠 생성 장치 및 방법 |
WO2012090181A1 (en) * | 2010-12-29 | 2012-07-05 | Nokia Corporation | Depth map coding |
-
2013
- 2013-09-24 KR KR1020157002048A patent/KR101648094B1/ko active IP Right Grant
- 2013-09-24 WO PCT/JP2013/075735 patent/WO2014050827A1/ja active Application Filing
- 2013-09-24 CN CN201380044060.7A patent/CN104871534A/zh active Pending
- 2013-09-24 JP JP2014538497A patent/JP5883153B2/ja active Active
- 2013-09-24 US US14/430,433 patent/US20150249839A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09289638A (ja) * | 1996-04-23 | 1997-11-04 | Nec Corp | 3次元画像符号化復号方式 |
JP4698831B2 (ja) * | 1997-12-05 | 2011-06-08 | ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド | 画像変換および符号化技術 |
JP2000215311A (ja) * | 1999-01-21 | 2000-08-04 | Nippon Telegr & Teleph Corp <Ntt> | 仮想視点画像生成方法およびその装置 |
JP4999853B2 (ja) * | 2006-09-20 | 2012-08-15 | 日本電信電話株式会社 | 画像符号化方法及び復号方法、それらの装置、及びそれらのプログラム並びにプログラムを記録した記憶媒体 |
JP2010021844A (ja) * | 2008-07-11 | 2010-01-28 | Nippon Telegr & Teleph Corp <Ntt> | 多視点画像符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
WO2014050827A1 (ja) | 2014-04-03 |
CN104871534A (zh) | 2015-08-26 |
KR20150034205A (ko) | 2015-04-02 |
US20150249839A1 (en) | 2015-09-03 |
JPWO2014050827A1 (ja) | 2016-08-22 |
KR101648094B1 (ko) | 2016-08-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5883153B2 (ja) | 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体 | |
JP5934375B2 (ja) | 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体 | |
JP5833757B2 (ja) | 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体 | |
JP6027143B2 (ja) | 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、および画像復号プログラム | |
JP6053200B2 (ja) | 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム及び画像復号プログラム | |
JP5947977B2 (ja) | 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム及び画像復号プログラム | |
JP6307152B2 (ja) | 画像符号化装置及び方法、画像復号装置及び方法、及び、それらのプログラム | |
WO2011105297A1 (ja) | 動きベクトル推定方法、多視点映像符号化方法、多視点映像復号方法、動きベクトル推定装置、多視点映像符号化装置、多視点映像復号装置、動きベクトル推定プログラム、多視点映像符号化プログラム、及び多視点映像復号プログラム | |
JP6232076B2 (ja) | 映像符号化方法、映像復号方法、映像符号化装置、映像復号装置、映像符号化プログラム及び映像復号プログラム | |
JP5926451B2 (ja) | 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、および画像復号プログラム | |
WO2015056712A1 (ja) | 動画像符号化方法、動画像復号方法、動画像符号化装置、動画像復号装置、動画像符号化プログラム、及び動画像復号プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160202 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160204 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5883153 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |