JPWO2015056712A1 - 動画像符号化方法、動画像復号方法、動画像符号化装置、動画像復号装置、動画像符号化プログラム、及び動画像復号プログラム - Google Patents

動画像符号化方法、動画像復号方法、動画像符号化装置、動画像復号装置、動画像符号化プログラム、及び動画像復号プログラム Download PDF

Info

Publication number
JPWO2015056712A1
JPWO2015056712A1 JP2015542635A JP2015542635A JPWO2015056712A1 JP WO2015056712 A1 JPWO2015056712 A1 JP WO2015056712A1 JP 2015542635 A JP2015542635 A JP 2015542635A JP 2015542635 A JP2015542635 A JP 2015542635A JP WO2015056712 A1 JPWO2015056712 A1 JP WO2015056712A1
Authority
JP
Japan
Prior art keywords
region
image
motion information
prediction
disparity vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015542635A
Other languages
English (en)
Inventor
信哉 志水
信哉 志水
志織 杉本
志織 杉本
明 小島
明 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2015056712A1 publication Critical patent/JPWO2015056712A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0085Motion estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

複数の異なる視点の動画像からなる多視点動画像を予測しながら符号化/復号する動画像符号化/復号装置は、符号化/復号対象領域に対して、デプスマップ上での対応領域を設定する対応領域設定部と、符号化/復号対象領域を分割した領域である予測領域を設定する領域分割部と、予測領域ごとに、対応領域内の当該予測領域に対応する領域におけるデプス情報を用いて、参照視点に対する視差ベクトルを生成する視差ベクトル生成部と、参照視点に対する視差ベクトルに基づいて、参照視点動き情報から予測領域における動き情報を生成する動き情報生成部と、予測領域における動き情報を用いて、予測領域に対する予測画像を生成する予測画像生成部とを備える。

Description

本発明は、多視点動画像を符号化及び復号する動画像符号化方法、動画像復号方法、動画像符号化装置、動画像復号装置、動画像符号化プログラム、及び動画像復号プログラムに関する。
本願は、2013年10月17日に日本へ出願された特願2013−216526号に基づき優先権を主張し、その内容をここに援用する。
従来から、複数のカメラで同じ被写体と背景を撮影した複数の画像からなる多視点画像(Multiview images:マルチビューイメージ)が知られている。この複数のカメラで撮影した動画像のことを多視点動画像(または多視点映像)という。以下の説明では1つのカメラで撮影された画像(動画像)を“2次元画像(2次元動画像)”と称し、同じ被写体と背景とを位置や向き(以下、視点と称する)が異なる複数のカメラで撮影した2次元画像(2次元動画像)群を“多視点画像(多視点動画像)”と称する。
2次元動画像は、時間方向に関して強い相関があり、その相関を利用することによって符号化効率を高めることができる。一方、多視点画像や多視点動画像では、各カメラが同期されている場合、各カメラの映像の同じ時刻に対応するフレーム(画像)は、全く同じ状態の被写体と背景を別の位置から撮影したものであるので、カメラ間(同じ時刻の異なる2次元画像間)で強い相関がある。多視点画像や多視点動画像の符号化においては、この相関を利用することによって符号化効率を高めることができる。
ここで、2次元動画像の符号化技術に関する従来技術を説明する。国際符号化標準であるH.264、MPEG−2、MPEG−4をはじめとした従来の多くの2次元動画像符号化方式では、動き補償予測、直交変換、量子化、エントロピー符号化という技術を利用して、高効率な符号化を行う。例えば、H.264では、符号化対象フレームと過去あるいは未来の複数枚のフレームとの時間相関を利用した符号化が可能である。
H.264で使われている動き補償予測技術の詳細については、例えば非特許文献1に記載されている。H.264で使われている動き補償予測技術の概要を説明する。H.264の動き補償予測は、符号化対象フレームを様々なサイズのブロックに分割し、各ブロックで異なる動きベクトルと異なる参照フレームを持つことを許可している。各ブロックで異なる動きベクトルを使用することで、被写体ごとに異なる動きを補償した精度の高い予測を実現している。一方、各ブロックで異なる参照フレームを使用することで、時間変化によって生じるオクルージョンを考慮した精度の高い予測を実現している。
次に、従来の多視点画像や多視点動画像の符号化方式について説明する。多視点画像の符号化方法と、多視点動画像の符号化方法との違いは、多視点動画像にはカメラ間の相関に加えて、時間方向の相関が同時に存在するということである。しかし、どちらの場合でも、同じ方法でカメラ間の相関を利用することができる。そのため、ここでは多視点動画像の符号化において用いられる方法について説明する。
多視点動画像の符号化については、カメラ間の相関を利用するために、動き補償予測を同じ時刻の異なるカメラで撮影された画像に適用した“視差補償予測”によって高効率に多視点動画像を符号化する方式が従来から存在する。ここで、視差とは、異なる位置に配置されたカメラの画像平面上で、被写体上の同じ部分が存在する位置の差である。図8は、カメラ(第1のカメラと第2のカメラ)間で生じる視差を示す概念図である。図8に示す概念図では、光軸が平行なカメラの画像平面を垂直に見下ろしたものとなっている。このように、異なるカメラの画像平面上で被写体上の同じ部分が投影される位置は、一般的に対応点と呼ばれる。
視差補償予測では、この対応関係に基づいて、符号化対象フレームの各画素値を参照フレームから予測して、その予測残差と、対応関係を示す視差情報とを符号化する。視差は対象とするカメラ対や位置ごとに変化するため、視差補償予測を行う領域ごとに視差情報を符号化することが必要である。実際に、H.264の多視点動画像符号化方式では、視差補償予測を用いるブロックごとに視差情報を表すベクトルを符号化している。
視差情報によって与えられる対応関係は、カメラパラメータを用いることで、エピポーラ幾何拘束に基づき、2次元ベクトルではなく、被写体の3次元位置を示す1次元量で表すことができる。被写体の3次元位置を示す情報としては、様々な表現が存在するが、基準となるカメラから被写体までの距離や、カメラの画像平面と平行ではない軸上の座標値を用いることが多い。なお、距離ではなく距離の逆数を用いる場合もある。また、距離の逆数は視差に比例する情報となるため、基準となるカメラを2つ設定し、それらのカメラで撮影された画像間での視差量として3次元位置を表現する場合もある。どのような表現を用いたとしても本質的な違いはないため、以下では、表現による区別をせずに、それら3次元位置を示す情報をデプスと表現する。
図9はエピポーラ幾何拘束の概念図である。エピポーラ幾何拘束によれば、あるカメラの画像上の点に対応する別のカメラの画像上の点はエピポーラ線という直線上に拘束される。このとき、その画素に対するデプスが得られた場合、対応点はエピポーラ線上に一意に定まる。例えば、図9に示すように、第1のカメラ画像においてmの位置に投影された被写体に対する第2のカメラ画像での対応点は、実空間における被写体の位置がM’の場合にはエピポーラ線上の位置m’に投影され、実空間における被写体の位置がM’’の場合にはエピポーラ線上の位置m’’に投影される。
非特許文献2では、この性質を利用して、参照フレームに対するデプスマップ(距離画像)によって与えられる各被写体の3次元情報に従って、参照フレームから符号化対象フレームに対する合成画像を生成し、生成された合成画像を領域ごとの予測画像の候補とすることで、精度の高い予測を実現し、効率的な多視点動画像の符号化を実現している。なお、このデプスに基づいて生成される合成画像は視点合成画像、視点補間画像、または視差補償画像と呼ばれる。
ITU-T Recommendation H.264 (03/2009), "Advanced video coding for generic audiovisual services", March, 2009. S. Shimizu, H. Kimata, and Y. Ohtani, "Adaptive appearance compensated view synthesis prediction for Multiview Video Coding", 2009 16th IEEE International Conference on Image Processing (ICIP), pp. 2949-2952, 7-10 Nov. 2009.
非特許文献2に記載の方法によれば、デプスマップから得られる被写体の3次元情報を用いて高精度な視差補償を行った視点合成画像によって、高効率な予測を実現することが可能である。また、領域ごとに既存の予測と視点合成画像による予測を選択することで、デプスマップの品質やオクルージョンの影響を受けて、部分的には精度が低い視点合成画像が生成される場合においても、領域ごとに視点合成画像を予測画像とするか否かを選択することで、符号量が増加してしまうのを防ぐことが可能である。
しかしながら、非特許文献2に記載の方法では、デプスマップによって表現される3次元情報の精度が低い場合、一般的な視差ベクトルを用いた視差補償予測と比べて、低い精度でしか視差を補償することができなくなるため、高効率な予測を実現することができなくなってしまうという問題がある。
本発明は、このような事情に鑑みてなされたもので、デプスマップによって表現される視差量の精度が低い場合でも、精度の高い予測を実現し、高効率な符号化を実現することができる動画像符号化方法、動画像復号方法、動画像符号化装置、動画像復号装置、動画像符号化プログラム、及び動画像復号プログラムを提供することを目的とする。
本発明の一態様は、複数の異なる視点の動画像からなる多視点動画像の1フレームを符号化する際に、符号化対象画像とは異なる参照視点に対する参照視点画像の動き情報である参照視点動き情報と、前記多視点動画像中の被写体に対するデプスマップとを用いて、異なる視点間で予測しながら、前記符号化対象画像を分割した領域である符号化対象領域ごとに、符号化を行う動画像符号化装置であって、前記符号化対象領域に対して、前記デプスマップ上での対応領域を設定する対応領域設定部と、前記符号化対象領域を分割した領域である予測領域を設定する領域分割部と、前記予測領域ごとに、前記対応領域内の当該予測領域に対応する領域におけるデプス情報を用いて、前記参照視点に対する視差ベクトルを生成する視差ベクトル生成部と、前記参照視点に対する前記視差ベクトルに基づいて、前記参照視点動き情報から前記予測領域における動き情報を生成する動き情報生成部と、前記予測領域における前記動き情報を用いて、前記予測領域に対する予測画像を生成する予測画像生成部とを備える動画像符号化装置である。
本発明の動画像符号化装置において、前記視差ベクトル生成部は、さらに、前記符号化対象領域に対して、前記デプスマップに対する視差ベクトルを生成し、前記対応領域設定部は、前記デプスマップに対する前記視差ベクトルによって示される領域を前記対応領域として設定してもよい。
本発明の動画像符号化装置において、前記視差ベクトル生成部は、前記符号化対象領域に隣接する領域を符号化する際に使用した視差ベクトルを用いて、前記デプスマップに対する前記視差ベクトルを設定してもよい。
本発明の動画像符号化装置において、前記領域分割部は、前記対応領域内のデプス情報に基づいて、前記符号化対象領域に対する領域分割を設定してもよい。
本発明の動画像符号化装置において、前記視差ベクトル生成部は、前記予測領域ごとに、前記対応領域内の当該予測領域に対応する前記領域における前記デプス情報から代表デプスを設定し、当該代表デプスに基づいて前記参照視点に対する前記視差ベクトルを設定してもよい。
本発明の動画像符号化装置において、前記動き情報生成部は、前記予測領域に対して予め定められた画素の位置と前記参照視点に対する前記視差ベクトルとを用いて、前記参照視点における対応位置を求め、前記参照視点動き情報のうち、当該対応位置を含む領域に対して与えられた動き情報を前記予測領域における前記動き情報としてもよい。
本発明の動画像符号化装置において、前記符号化対象画像に対して、符号化対象視点における前記符号化対象画像とは異なる既に符号化済みの1フレームを参照画像として設定する参照画像設定部をさらに備え、前記動き情報生成部は、前記参照視点動き情報から得られた動き情報を、前記符号化対象画像と前記参照画像との時間間隔に合わせてスケーリングすることで前記予測領域における前記動き情報を生成してもよい。
本発明の動画像符号化装置において、前記予測画像生成部は、前記予測領域における前記動き情報を用いて生成した第1の予測画像と、前記参照視点に対する前記視差ベクトルと前記参照視点画像とを用いて生成した第2の予測画像とを用いて、前記予測領域に対する前記予測画像を生成してもよい。
本発明の一態様は、複数の異なる視点の動画像からなる多視点動画像の符号データから、復号対象画像を復号する際に、前記復号対象画像とは異なる参照視点に対する参照視点画像の動き情報である参照視点動き情報と、前記多視点動画像中の被写体に対するデプスマップとを用いて、異なる視点間で予測しながら、前記復号対象画像を分割した領域である復号対象領域ごとに、復号を行う動画像復号装置であって、前記復号対象領域に対して、前記デプスマップ上での対応領域を設定する対応領域設定部と、前記復号対象領域を分割した領域である予測領域を設定する領域分割部と、前記予測領域ごとに、前記対応領域内の当該予測領域に対応する領域におけるデプス情報を用いて、前記参照視点に対する視差ベクトルを生成する視差ベクトル生成部と、前記参照視点に対する前記視差ベクトルに基づいて、前記参照視点動き情報から前記予測領域における動き情報を生成する動き情報生成部と、前記予測領域における前記動き情報を用いて、前記予測領域に対する予測画像を生成する予測画像生成部とを備える動画像復号装置である。
本発明の動画像復号装置において、前記視差ベクトル生成部は、さらに、前記復号対象領域に対して、前記デプスマップに対する視差ベクトルを生成し、前記対応領域設定部は、前記デプスマップに対する前記視差ベクトルによって示される領域を前記対応領域として設定してもよい。
本発明の動画像復号装置において、前記視差ベクトル生成部は、前記復号対象領域に隣接する領域を復号する際に使用した視差ベクトルを用いて、前記デプスマップに対する前記視差ベクトルを設定してもよい。
本発明の動画像復号装置において、前記領域分割部は、前記対応領域内のデプス情報に基づいて、前記復号対象領域に対する領域分割を設定してもよい。
本発明の動画像復号装置において、前記視差ベクトル生成部は、前記予測領域ごとに、前記対応領域内の当該予測領域に対応する前記領域における前記デプス情報から代表デプスを設定し、当該代表デプスに基づいて前記参照視点に対する前記視差ベクトルを設定してもよい。
本発明の動画像復号装置において、前記動き情報生成部は、前記予測領域に対して予め定められた画素の位置と前記参照視点に対する前記視差ベクトルとを用いて、前記参照視点における対応位置を求め、前記参照視点動き情報のうち、当該対応位置を含む領域に対して与えられた動き情報を前記予測領域における前記動き情報としてもよい。
本発明の動画像復号装置において、前記復号対象画像に対して、復号対象視点における前記復号対象画像とは異なる既に復号済みの1フレームを参照画像として設定する参照画像設定部をさらに備え、前記動き情報生成部は、前記参照視点動き情報から得られた動き情報を、前記復号対象画像と前記参照画像との時間間隔に合わせてスケーリングすることで前記予測領域における前記動き情報を生成してもよい。
本発明の動画像復号装置において、前記予測画像生成部は、前記予測領域における前記動き情報を用いて生成した第1の予測画像と、前記参照視点に対する前記視差ベクトルと前記参照視点画像とを用いて生成した第2の予測画像とを用いて、前記予測領域に対する前記予測画像を生成してもよい。
本発明の一態様は、複数の異なる視点の動画像からなる多視点動画像の1フレームを符号化する際に、符号化対象画像とは異なる参照視点に対する参照視点画像の動き情報である参照視点動き情報と、前記多視点動画像中の被写体に対するデプスマップとを用いて、異なる視点間で予測しながら、前記符号化対象画像を分割した領域である符号化対象領域ごとに、符号化を行う動画像符号化方法であって、前記符号化対象領域に対して、前記デプスマップ上での対応領域を設定する対応領域設定ステップと、前記符号化対象領域を分割した領域である予測領域を設定する領域分割ステップと、前記予測領域ごとに、前記対応領域内の当該予測領域に対応する領域におけるデプス情報を用いて、前記参照視点に対する視差ベクトルを生成する視差ベクトル生成ステップと、前記参照視点に対する前記視差ベクトルに基づいて、前記参照視点動き情報から前記予測領域における動き情報を生成する動き情報生成ステップと、前記予測領域における前記動き情報を用いて、前記予測領域に対する予測画像を生成する予測画像生成ステップとを有する動画像符号化方法である。
本発明の一態様は、複数の異なる視点の動画像からなる多視点動画像の符号データから、復号対象画像を復号する際に、前記復号対象画像とは異なる参照視点に対する参照視点画像の動き情報である参照視点動き情報と、前記多視点動画像中の被写体に対するデプスマップとを用いて、異なる視点間で予測しながら、前記復号対象画像を分割した領域である復号対象領域ごとに、復号を行う動画像復号方法であって、前記復号対象領域に対して、前記デプスマップ上での対応領域を設定する対応領域設定ステップと、前記復号対象領域を分割した領域である予測領域を設定する領域分割ステップと、前記予測領域ごとに、前記対応領域内の当該予測領域に対応する領域におけるデプス情報を用いて、前記参照視点に対する視差ベクトルを生成する視差ベクトル生成ステップと、前記参照視点に対する前記視差ベクトルに基づいて、前記参照視点動き情報から前記予測領域における動き情報を生成する動き情報生成ステップと、前記予測領域における前記動き情報を用いて、前記予測領域に対する予測画像を生成する予測画像生成ステップとを有する動画像復号方法である。
本発明の一態様は、コンピュータに、前記動画像符号化方法を実行させるための動画像符号化プログラムである。
本発明の一態様は、コンピュータに、前記動画像復号方法を実行させるための動画像復号プログラムである。
本発明によれば、デプスマップによって表現される視差の精度が低い場合においても、小数画素精度の予測を実現することが可能となり、少ない符号量で多視点動画像を符号化することができるという効果が得られる。
本発明の一実施形態における動画像符号化装置の構成を示すブロック図である。 図1に示す動画像符号化装置100の動作を示すフローチャートである。 図1に示す動き情報生成部105における動き情報を生成する動作(ステップS104)の詳細処理動作を示すフローチャートである。 本発明の一実施形態における動画像復号装置の構成を示すブロック図である。 図4に示す動画像復号装置200の動作を示すフローチャートである。 図1に示す動画像符号化装置100をコンピュータとソフトウェアプログラムとによって構成する場合のハードウェア構成を示すブロック図である。 図4に示す動画像復号装置200をコンピュータとソフトウェアプログラムとによって構成する場合のハードウェア構成を示すブロック図である。 カメラ間で生じる視差を示す概念図である。 エピポーラ幾何拘束の概念図である。
以下、図面を参照して、本発明の実施形態による動画像符号化装置及び動画像復号装置を説明する。以下の説明においては、第1のカメラ(カメラAという)、第2のカメラ(カメラBという)の2つのカメラで撮影された多視点動画像を符号化する場合を想定し、カメラAを参照視点としてカメラBの動画像の1フレームを符号化または復号するものとして説明する。なお、デプス情報から視差を得るために必要となる情報は別途与えられているものとする。具体的には、この情報は、カメラAとカメラBの位置関係を表す外部パラメータや、カメラによる画像平面への投影情報を表す内部パラメータであるが、これら以外の形態であってもデプス情報から視差が得られるものであれば、別の情報が与えられていてもよい。これらのカメラパラメータに関する詳しい説明は、例えば、参考文献「Olivier Faugeras, "Three-Dimensional Computer Vision", pp. 33-66, MIT Press; BCTC/UFF-006.37 F259 1993, ISBN:0-262-06158-9.」に記載されている。この参考文献には、複数のカメラの位置関係を示すパラメータや、カメラによる画像平面への投影情報を表すパラメータに関する説明が記載されている。
以下の説明では、画像や映像フレーム、デプスマップに対して、記号[]で挟まれた位置を特定可能な情報(座標値もしくは座標値に対応付け可能なインデックスなど)を付加することで、その位置の画素によってサンプリングされた画像信号や、それに対するデプスを示すものとする。また、座標値やブロックに対応付け可能なインデックス値とベクトルの加算によって、その座標やブロックをベクトルの分だけずらした位置の座標値やブロックを表すものとする。
図1は本実施形態における動画像符号化装置の構成を示すブロック図である。動画像符号化装置100は、図1に示すように、符号化対象画像入力部101、符号化対象画像メモリ102、参照視点動き情報入力部103、デプスマップ入力部104、動き情報生成部105、視点合成画像生成部106、画像符号化部107、画像復号部108及び参照画像メモリ109を備えている。
符号化対象画像入力部101は、符号化対象となる画像を入力する。以下では、この符号化対象となる画像を符号化対象画像と称する。ここではカメラBの動画像を1フレームずつ入力するものとする。また、符号化対象画像を撮影した視点(ここではカメラB)を符号化対象視点と称する。符号化対象画像メモリ102は、入力した符号化対象画像を記憶する。参照視点動き情報入力部103は、参照視点の動画像に対する動き情報(動きベクトルなど)を入力する。以下では、ここで入力された動き情報を参照視点動き情報と呼ぶ。ここではカメラAの動き情報を入力するものとする。
デプスマップ入力部104は、視点合成画像を生成する際に参照するデプスマップを入力する。ここでは、符号化対象画像に対するデプスマップを入力するものとするが、参照視点など別の視点に対するデプスマップでもよい。なお、デプスマップとは対応する画像の各画素に写っている被写体の3次元位置を表すものである。デプスマップは、別途与えられるカメラパラメータ等の情報によって3次元位置が得られるものであれば、どのような情報でもよい。例えば、カメラから被写体までの距離や、画像平面とは平行ではない軸に対する座標値、別のカメラ(例えばカメラA)に対する視差量を用いることができる。また、ここでは視差量が得られればよいので、デプスマップではなく、視差量を直接表現した視差マップを用いてもよい。なお、ここではデプスマップが画像の形態で渡されるものとしているが、同様の情報が得られるのであれば、画像の形態でなくてもよい。
動き情報生成部105は、参照視点動き情報とデプスマップとを用いて、符号化対象画像に対する動き情報を生成する。視点合成画像生成部106は、生成された動き情報に基づいて、参照画像から符号化対象画像に対する視点合成画像を生成する。画像符号化部107は、視点合成画像を用いながら、符号化対象画像を予測符号化する。画像復号部108は、符号化対象画像のビットストリームを復号する。参照画像メモリ109は、符号化対象画像のビットストリームを復号した際に得られる画像を蓄積する。
次に、図2を参照して、図1に示す動画像符号化装置100の動作を説明する。図2は、図1に示す動画像符号化装置100の動作を示すフローチャートである。まず、符号化対象画像入力部101は、符号化対象画像Orgを入力し、入力された符号化対象画像Orgを符号化対象画像メモリ102に記憶する(ステップS101)。次に、参照視点動き情報入力部103は参照視点動き情報を入力し、入力された参照視点動き情報を動き情報生成部105へ出力し、デプスマップ入力部104はデプスマップを入力し、入力されたデプスマップを動き情報生成部105へ出力する(ステップS102)。
なお、ステップS102で入力される参照視点動き情報とデプスマップは、既に符号化済みのものを復号したものなど、復号側で得られるものと同じものとする。これは復号装置で得られるものと全く同じ情報を用いることで、ドリフト等の符号化ノイズの発生を抑えるためである。ただし、そのような符号化ノイズの発生を許容する場合には、符号化前のものなど、符号化側でしか得られないものが入力されてもよい。デプスマップに関しては、既に符号化済みのものを復号したもの以外に、複数のカメラに対して復号された多視点動画像に対してステレオマッチング等を適用することで推定したデプスマップや、復号された視差ベクトルや動きベクトルなどを用いて推定されるデプスマップなども、復号側で同じものが得られるものとして用いることができる。
参照視点動き情報は、参照視点に対する画像を符号化する際に使用された動き情報を用いてもよいし、参照視点に対して別途符号化されたものでもよい。また、参照視点に対する動画像を復号し、そこから推定して得られた動き情報を用いることも可能である。
符号化対象画像、参照視点動き情報、デプスマップの入力が終了したら、符号化対象画像を予め定められた大きさの領域に分割し、分割した領域ごとに、符号化対象画像の映像信号を符号化する(ステップS103〜S109)。すなわち、符号化対象領域インデックスをblk、1フレーム中の総符号化対象領域数をnumBlksで表すとすると、blkを0で初期化し(ステップS103)、その後、blkに1を加算しながら(ステップS108)、blkがnumBlksになるまで(ステップS109)、以下の処理(ステップS104〜S107)を繰り返す。一般的な符号化では16画素×16画素のマクロブロックと呼ばれる処理単位ブロックへ分割するが、復号側と同じであればその他の大きさのブロックに分割してもよい。
符号化対象領域ごとに繰り返される処理では、まず、動き情報生成部105は、符号化対象領域blkにおける動き情報を生成する(ステップS104)。ここでの処理は後で詳しく説明する。符号化対象領域blkに対する動き情報が得られたら、視点合成画像生成部106は、その動き情報に従って、参照画像メモリ109に蓄積された画像から、符号化対象領域blkに対する視点合成画像Synを生成する(ステップS105)。具体的には、視点合成画像生成部106は、符号化対象領域blkに含まれる画素pごとに、次の数式で表されるように、動き情報によって表される参照画像上の対応点の画素値を求めることで視点合成画像Synを生成する。
Syn[p]=DecRef(p)[p+mv(p)]
mv(p)とRef(p)は画素pに対する動き情報の示す動きベクトルとその時間間隔を表し、Decは符号化対象画像に対して時間間隔Tの参照画像メモリ109に蓄積されている画像(参照画像)を表す。なお、対応点p+mv(p)が整数画素位置ではない場合は、最も近い整数画素位置の画素値を対応点の画素値としてもよいし、対応点の周辺の整数画素群に対してフィルタ処理を施すことで対応点における画素値を生成してもよい。ただし、復号側での処理と同じ方法で対応点の画素値を生成するものとする。
画素pに対する動き情報が2つ以上存在する場合、その平均値によって視点合成画像を生成してもよい。すなわち、画素pに対する動き情報の数をN(p)で表し、動き情報のインデックスをnとすると、視点合成画像は下記の数式で表される。
Figure 2015056712
なお、この数式では除算における整数への丸めを考慮していないが、四捨五入を行うようにオフセットを加えてもよい。具体的には、N(p)/2を加えてからN(p)で除算を行う。また、動き情報が3つ以上存在する場合は、平均値ではなく中央値で予測を行ってもよい。ただし、復号側での処理と同じ処理を行う必要がある。ここでは、画素ごとに視点合成画像を生成するものとしたが、小領域ごとに同じ動き情報を持つ場合には、その小領域ごとに処理を行うこともできる。
次に、視点合成画像が得られたら、画像符号化部107は、視点合成画像を予測画像としながら、符号化対象領域blkにおける符号化対象画像の映像信号(画素値)を符号化する(ステップS106)。符号化の結果得られるビットストリームが動画像符号化装置100の出力となる。なお、符号化する方法には、どのような方法を用いてもよい。MPEG−2やH.264/AVCなどの一般的な符号化では、ブロックblkの映像信号と予測画像との差分信号に対して、DCT(Discrete Cosine Transform)などの周波数変換、量子化、2値化、エントロピー符号化を順に施すことで符号化を行う。
次に、画像復号部108は、ビットストリームと視点合成画像とを用いて、ブロックblkに対する映像信号を復号し、復号結果であるところの復号画像Dec[blk]を参照画像メモリ109に蓄積する(ステップS107)。ここでは、符号化時に用いた手法に対応する手法を用いる。例えば、MPEG−2やH.264/AVCなどの一般的な符号化であれば、符号データに対して、エントロピー復号、逆2値化、逆量子化、IDCT(Inverse Discrete Cosine Transform)などの周波数逆変換を順に施し、得られた2次元信号に対して予測画像を加え、最後に画素値の値域でクリッピングを行うことで映像信号を復号する。なお、符号化側での処理がロスレスになる直前のデータと予測画像を受け取り、簡略化した処理によって復号を行ってもよい。すなわち、前述の例であれば符号化時に量子化処理を加えた後の値と予測画像を受け取り、その量子化後の値に逆量子化、周波数逆変換を順に施して得られた2次元信号に対して予測画像を加え、画素値の値域でクリッピングを行うことで映像信号を復号してもよい。
次に、図3を参照して、図1に示す動き情報生成部105が、符号化対象領域blkにおける動き情報を生成する処理(図2に示すステップS104)について詳細に説明する。動き情報を生成する処理において、まず、動き情報生成部105は、符号化対象領域blkに対するデプスマップ上の領域(符号化対象領域に対するデプスマップ上での対応領域)を設定する(ステップS1401)。ここでは、符号化対象画像に対するデプスマップが入力されているため、符号化対象領域blkと同じ位置のデプスマップを設定することとなる。なお、符号化対象画像とデプスマップの解像度が異なる場合は、解像度比に応じてスケーリングした領域を設定する。
符号化対象視点と異なる視点の1つをデプス視点とするとき、デプス視点に対するデプスマップを用いる場合は、符号化対象領域blkにおける符号化対象視点とデプス視点の視差DV(デプスマップに対する視差ベクトル)を求め、blk+DVにおけるデプスマップを設定する。なお、符号化対象画像とデプスマップの解像度が異なる場合は、解像度比に応じて位置および大きさのスケーリングを行う。
符号化対象領域blkにおける符号化対象視点とデプス視点の視差DVは、復号側と同じ方法であればどのような方法を用いて求めてもよい。例えば、符号化対象領域blkの周辺領域を符号化する際に使用された視差ベクトルや、符号化対象画像全体や符号化対象領域を含む部分画像に対して設定されたグローバル視差ベクトル、符号化対象領域に対して別途設定し符号化される視差ベクトルなどを用いることが可能である。また、符号化対象領域blkとは異なる領域や過去に符号化された画像で使用した視差ベクトルを蓄積しておき、蓄積された視差ベクトルを用いてもよい。更に符号化対象視点に対して過去に符号化されたデプスマップの符号化対象領域と同位置のデプス値を変換して得られる視差ベクトルを用いてもよい。
次に、動き情報生成部105は、符号化対象領域blkの分割方法を決定する(ステップS1402)。分割方法として、予め定められた方法で分割してもよいし、設定されたデプスマップを解析して分割方法を決定してもよい。ただし、復号側と同じ方法で分割方法を設定する。
予め定められた方法としては、固定のブロックサイズで分割を設定する方法がある。例えば、4画素×4画素のブロックや8画素×8画素のブロックに分割する方法などがある。また、符号化対象領域blkの大きさに応じて分割サイズを決定する方法もある。例えば、符号化対象領域のサイズが2N×2Mの場合は、(N/2)×(M/2)のブロックやMAX(N/2,4)×MAX(M/2,4)のブロックに分割する方法がある。なお、MAX(a,b)はaとbの最大値を表すものとする。また、符号化対象領域のサイズが16画素×16画素より大きい場合には、8画素×8画素のブロックに分割し、符号化対象領域のサイズが16画素×16画素以下の場合には4画素×4画素のブロックサイズにするなどの方法もある。
デプスマップを解析して分割方法を決める方法としては、例えば、デプス値をもとにクラスタリングした結果を用いる方法や、生成した分割毎のデプス値の分散値が閾値以下になるように四分木表現で再帰的に分割する方法がある。生成した分割毎のデプス値の分散値の代わりに、符号化対象領域に対するデプスマップ上での対応領域の4頂点におけるデプス値を比較することで分割方法を決定してもよい。
次に、符号化対象領域blkの分割方法が決定したら、その分割方法に従って生成されるサブ領域(予測領域)ごとに、動き情報を生成する(ステップS1403〜S1409)。すなわち、サブ領域インデックスをsblk、符号化対象領域blk内のサブ領域数をnumSBlksblkで表すとすると、sblkを0で初期化し(ステップS1403)、その後、sblkに1を加算しながら(ステップS1408)、sblkがnumSBlksblkになるまで(ステップS1409)、以下の処理(ステップS1404〜S1407)を繰り返す。
サブ領域ごとに繰り返される処理において、まず、動き情報生成部105は、サブ領域sblkに対して、設定されたデプスマップ(対応領域内の予測領域に対応する領域におけるデプス情報)から代表デプス値を決定する(ステップS1404)。どのような方法を用いて代表デプス値を決定してもよいが、復号側と同じ方法を用いる必要がある。例えば、サブ領域sblkに対するデプスマップの平均値や中央値、最大値、最小値などを用いる方法がある。また、サブ領域sblkに対するデプスマップの全ての画素ではなく、一部の画素に対するデプス値の平均値や中央値、最大値、最小値などを用いてもよい。一部の画素としては、4頂点や4頂点と中央などを用いてもよい。更に、サブ領域sblkに対して左上や中央など予め定められた位置に対するデプス値を用いる方法もある。
代表デプス値が得られたら、動き情報生成部105は、符号化対象視点と参照視点の位置関係に関する情報を用いて、代表デプス値から視差ベクトルdvsblk(参照視点に対する視差ベクトル)を求める(ステップS1405)。具体的には、カメラパラメータを用いた逆投影及び再投影によって視差ベクトルdvsblkを求める方法や、ホモグラフィ行列を用いた変換によって視差ベクトルdvsblkを求める方法、予め作成されたデプス値に対する視差ベクトルのルックアップテーブルを参照して視差ベクトルdvsblkを求める方法などがある。
視差ベクトルが得られたら、動き情報生成部105は、参照視点において対応する位置を求める(ステップS1406)。具体的には、サブ領域sblkを代表する点Psblk(予測領域に対して予め定められた画素の位置)に、視差ベクトルdvsblkを加えることで対応位置を求める。サブ領域を代表する点としては、サブ領域に対して左上や中央など、予め定められた位置を用いることができる。なお、どの位置を代表する点とするかは、復号側と同じである必要がある。
次に、動き情報生成部105は、参照視点における対応点Psblk+dvsblkを含む領域に対して蓄積されている参照視点動き情報をサブ領域sblkに対する動き情報(予測領域における動き情報)として設定する(ステップS1407)。なお、対応点Psblk+dvsblkを含む領域に対して動き情報が蓄積されていない場合は、動き情報なしの情報を設定しても、ゼロベクトルなどデフォルトの動き情報を設定しても、対応点Psblk+dvsblkに最も近い動き情報を蓄積している領域を同定して、その領域において蓄積されている動き情報を設定してもよい。ただし、復号側と同じ規則で動き情報を設定する。
前述の説明では、参照視点動き情報をそのまま動き情報として設定したが、時間間隔を予め設定し、動き情報をその予め定められた時間間隔と参照視点動き情報における時間間隔に従ってスケーリングし、参照視点動き情報における時間間隔をその予め定められた時間間隔に置き換えて得られる動き情報を設定してもよい。このようにすることで、異なる領域に対して生成される動き情報が全て同じ時間間隔を持つことになり、視点合成画像を生成する際の参照画像を統一し(符号化対象視点における符号化対象画像とは異なる既に符号化済みの1フレームを参照画像として設定し)、アクセスするメモリ空間を限定することが可能となる。なお、アクセスするメモリ空間が限定されることによって、キャッシュヒットをさせて、処理速度を向上することが可能となる。
本実施形態では、サブ領域ごとに参照視点動き情報から生成される動き情報のみを用いて視点合成画像(第1の予測画像)を生成したが、動き情報に加えて、サブ領域ごとに得られる視差ベクトルdvsblkを用いてもよい。例えば、参照視点に対する復号画像をDecIVとすると、次の数式で視点合成画像を生成(第1の予測画像と第2の予測画像の整数に丸められた平均値を求めることで、予測領域に対する予測画像を生成)してもよい。
Syn[p]=(DecRef(p)[p+mv(p)]+DecIV[p+dv(p)]+1)/2
なお、dv(p)は画素pを含むサブ領域に対する視差ベクトルを表す。
また、サブ領域または画素ごとに、動き情報と視差ベクトルのいずれか一方を選択しながら、視点合成画像を生成してもよい。さらに、動き情報と視差ベクトルのいずれか一方または両方を選択するようにしてもよい。なお、復号側と同じ方法であれば、選択にはどのような方法を用いてもよい。例えば、ステップS1406で求めた対応点についてステップS1407で設定した参照視点動き情報が存在しない場合や、参照視点に対する動画像を符号化する際に、その対応点を含む領域では動き補償予測以外の予測を用いた場合には視差ベクトルを用いて視点合成画像を生成し、それ以外の場合には動き情報を用いて視点合成画像を生成する方法がある。
別の方法としては、参照視点に対する動画像の対応点を含む領域において符号化されていた動き補償予測残差の量が予め定められた閾値よりも大きい場合には視差ベクトルを用いて視点合成画像を生成し、この動き補償予測残差の量が閾値以下の場合には動き情報を用いて視点合成画像を生成する方法もある。
更に別の方法としては、参照視点において時間間隔Tの復号画像DecIVを用いて、動き情報および視差ベクトルのうちのいずれを選択するのかを決定する方法もある。例えば、参照視点における符号化済みの動画像を用いて、領域sblk+dvsblkにおいて、sblkに対して生成した動き情報を用いて動き補償予測を行った際の予測残差を生成して用いてもよい。具体的には、生成された予測残差の量が予め定められた閾値よりも大きい場合には視差ベクトルを用いて視点合成画像を生成し、その量が閾値以下の場合には動き情報を用いて視点合成画像を生成する。なお、このとき用いる予測残差ResIVMCは次の数式で表される。
ResIVMC=DecIV[sblk+dvsblk]―DecIVRef(sblk)[sblk+dvsblk+mv(sblk)]
DecIVを用いた別の方法として、ResIVMCに加えて、次の予測残差ResPastIVを生成して用いる方法もある。具体的には、|ResIVMC|と|ResPastIV|とを比較して、|ResIVMC|の方が小さい場合には動き情報を用いて視点合成画像を生成し、|ResPastIV|の方が小さい場合には視差ベクトルを用いて視点合成画像を生成する。両者が等しい場合には、いずれかを用いてもよいし、両方を用いてもよい。
ResPastIV=DecRef(sblk)[sblk+mv(sblk)]―DecIVRef(sblk)[sblk+dvsblk+mv(sblk)]
また、閾値を設定し、|ResIVMC|と|ResPastIV|をそれぞれ、設定した閾値と比較し、閾値よりも小さいものに対応する情報だけを用いて視点合成画像を生成するものとしてもよい。この時、両方が閾値よりも大きくなってしまった場合は、前述のルールに従ってより小さい値を持つ残差に対応する情報だけを用いてもよいし、両方を用いてもよい。
また、参照視点における時間間隔Tの復号画像DecIVを用いる場合、次の数式に従って視点合成画像またはその候補を生成してもよい。
Syn[p]=DecRef(p)[p+mv(p)]+w0×(DecIV[p+dv(p)]−DecIVRef(p)[p+dv(p)+mv(p)])
Syn[p]=DecIV[p+dv(p)]+w1×(DecRef(p)[p+mv(p)]−DecIVRef(p)[p+dv(p)+mv(p)])
ここで、w0及びw1は別途定められた重み係数であり、復号側と同じ値であればどのように決定してもよい。例えば、予め定めた値を使用してもよい。上記数式に従って生成された画像を視点合成画像の候補として用いる場合は、前述した参照視点動き情報から生成される動き情報のみを用いて生成した視点合成画像の代わりや、サブ領域ごとに得られる視差ベクトルのみを用いて生成した視点合成画像の代わりに、上記数式に従って生成された画像を用いてもよいし、上記数式に従って生成された画像を別の候補として選択肢に加えてもよい。
次に、本実施形態における動画像復号装置について説明する。図4は本実施形態における動画像復号装置の構成を示すブロック図である。動画像復号装置200は、図4に示すように、ビットストリーム入力部201、ビットストリームメモリ202、参照視点動き情報入力部203、デプスマップ入力部204、動き情報生成部205、視点合成画像生成部206、画像復号部207及び参照画像メモリ208を備えている。
ビットストリーム入力部201は、復号対象となる動画像のビットストリームを入力する。以下では、この復号対象となる動画像の1フレームを復号対象画像と呼ぶ。ここでは、復号対象画像はカメラBの動画像の1フレームを指す。また、以下では、復号対象画像を撮影した視点(ここではカメラB)を復号対象視点と呼ぶ。ビットストリームメモリ202は、入力した復号対象画像に対するビットストリームを記憶する。参照視点動き情報入力部203は、参照視点の動画像に対する動き情報(動きベクトルなど)を入力する。以下では、ここで入力された動き情報を参照視点動き情報と呼ぶ。ここではカメラAの動き情報が入力されるものとする。
デプスマップ入力部204は、視点合成画像を生成する際に参照するデプスマップを入力する。ここでは、復号対象画像に対するデプスマップを入力するものとするが、参照視点など別の視点に対するデプスマップでもよい。なお、デプスマップとは対応する画像の各画素に写っている被写体の3次元位置を表すものである。デプスマップは、別途与えられるカメラパラメータ等の情報によって3次元位置が得られるものであれば、どのような情報でもよい。例えば、カメラから被写体までの距離や、画像平面とは平行ではない軸に対する座標値、別のカメラ(例えばカメラA)に対する視差量を用いることができる。また、ここでは視差量が得られればよいので、デプスマップではなく、視差量を直接表現した視差マップを用いてもよい。なお、ここではデプスマップが画像の形態で渡されるものとしているが、同様の情報が得られるのであれば、画像の形態でなくてもよい。
動き情報生成部205は、参照視点動き情報とデプスマップとを用いて、復号対象画像に対する動き情報を生成する。視点合成画像生成部206は、生成された動き情報に基づいて、参照画像から復号対象画像に対する視点合成画像を生成する。画像復号部207は、視点合成画像を用いながら、ビットストリームから復号対象画像を復号して出力する。参照画像メモリ208は、得られた復号対象画像を以降の復号のために蓄積する。
次に、図5を参照して、図4に示す動画像復号装置200の動作を説明する。図5は、図4に示す動画像復号装置200の動作を示すフローチャートである。まず、ビットストリーム入力部201は、復号対象画像を符号化したビットストリームを入力し、入力されたビットストリームをビットストリームメモリ202に記憶する(ステップS201)。次に、参照視点動き情報入力部203は参照視点動き情報を入力し、入力された参照視点動き情報を動き情報生成部205へ出力し、デプスマップ入力部204はデプスマップを入力し、入力されたデプスマップを動き情報生成部205へ出力する(ステップS202)。
なお、ステップS202で入力される参照視点動き情報とデプスマップは、符号化側で使用されたものと同じものとする。これは動画像符号化装置で得られるものと全く同じ情報を用いることで、ドリフト等の符号化ノイズの発生を抑えるためである。ただし、そのような符号化ノイズの発生を許容する場合には、符号化時に使用されたものと異なるものが入力されてもよい。デプスマップに関しては、別途復号したもの以外に、複数のカメラに対して復号された多視点画像に対してステレオマッチング等を適用することで推定したデプスマップや、復号された視差ベクトルや動きベクトルなどを用いて推定されるデプスマップなどを用いることもある。
参照視点動き情報は、参照視点に対する画像を復号する際に使用された動き情報を用いてもよいし、参照視点に対して別途符号化されたものでもよい。また、参照視点に対する動画像を復号し、そこから推定して得られた動き情報を用いることも可能である。
ビットストリーム、参照視点動き情報、デプスマップの入力が終了したら、復号対象画像を予め定められた大きさの領域に分割し、分割した領域ごとに、復号対象画像の映像信号をビットストリームから復号する(ステップS203〜S208)。すなわち、復号対象領域インデックスをblk、1フレーム中の総復号対象領域数をnumBlksで表すとすると、blkを0で初期化し(ステップS203)、その後、blkに1を加算しながら(ステップS207)、blkがnumBlksになるまで(ステップS208)、以下の処理(ステップS204〜S206)を繰り返す。一般的な復号では16画素×16画素のマクロブロックと呼ばれる処理単位ブロックへ分割するが、符号化側と同じであればその他の大きさのブロックに分割してもよい。
復号対象領域ごとに繰り返される処理において、まず、動き情報生成部205は、復号対象領域blkにおける動き情報を生成する(ステップS204)。ここでの処理は、前述したステップS104と同じである。復号対象領域blkに対する動き情報が得られたら、視点合成画像生成部206は、その動き情報に従って、参照画像メモリ208に蓄積された画像から、復号対象領域blkに対する視点合成画像Synを生成する(ステップS205)。ここでの処理は、前述したステップS105と同じである。
次に、視点合成画像が得られたら、画像復号部207は、視点合成画像を予測画像として用いてビットストリームから復号対象画像を復号する(ステップS206)。得られた復号対象画像は参照画像メモリ208に蓄積されると共に、動画像復号装置200の出力となる。
復号対象画像の復号には符号化時に用いられた方法に対応する方法を用いる。例えば、MPEG−2やH.264/AVCなどの一般的な符号化が用いられている場合は、符号データに対して、エントロピー復号、逆2値化、逆量子化、IDCT(Inverse Discrete Cosine Transform)などの周波数逆変換を順に施し、得られた2次元信号に対して予測画像を加え、最後に画素値の値域でクリッピングを行うことで映像信号を復号する。
前述した説明では、符号化対象画像または復号対象画像を分割した領域ごとに、動き情報の生成及び視点合成画像の生成を行ったが、動き情報または動き情報と視点合成画像の両方を符号化対象画像または復号対象画像の全体に対して生成してもよい。動き情報を画像全体に対して生成する場合は、生成された動き情報をバッファリングするメモリが必要となる。また、動き情報と視点合成画像の両方を画像全体に対して生成する場合は、生成された視点合成画像を蓄積するためのメモリが必要となる。
また、前述した説明では、画像全体を符号化/復号する処理として本手法の処理を説明したが、画像の一部分のみに処理を適用することも可能である。この場合、処理を適用するか否かを判断して、適用の要否を示すフラグを符号化または復号してもよいし、なんらか別の手段で適用の要否を指定してもよい。例えば、領域ごとの予測画像を生成する手法を示すモードの1つとして適用の要否を表現する方法を用いてもよい。
このように、デプスマップから求めた視差を用いて視点合成画像を生成する際に、画素値を視点間で直接予測するのではなく、動きベクトルを視点間で予測した後に、画素値は時間方向に予測することで、デプスマップによって表現される視差の精度が低い場合においても、小数画素精度の予測を実現することが可能となり、少ない符号量で多視点動画像を符号化することができる。
図6は、前述した動画像符号化装置100をコンピュータとソフトウェアプログラムとによって構成する場合のハードウェア構成を示すブロック図である。図6に示すシステムは、プログラムを実行するCPU(Central Processing Unit)50と、CPU50がアクセスするプログラムやデータが格納されるRAM(Random Access Memory)等のメモリ51と、カメラ等からの符号化対象の画像信号を入力する符号化対象画像入力部52(ディスク装置等による画像信号を記憶する記憶部でもよい)と、メモリ等から参照視点の動き情報を入力する参照視点動き情報入力部53(ディスク装置等による動き情報を記憶する記憶部でもよい)と、デプスカメラ等からの符号化対象画像を撮影した視点に対するデプスマップを入力するデプスマップ入力部54(ディスク装置等によるデプスマップを記憶する記憶部でもよい)と、動画像符号化処理をCPU50に実行させるソフトウェアプログラムである画像符号化プログラム551が格納されたプログラム記憶装置55と、CPU50がメモリ51にロードされた画像符号化プログラム551を実行することにより生成されたビットストリームを、例えばネットワークを介して出力するビットストリーム出力部56(ディスク装置等によるビットストリームを記憶する記憶部でもよい)とが、バスで接続された構成になっている。
図7は、前述した動画像復号装置200をコンピュータとソフトウェアプログラムとによって構成する場合のハードウェア構成を示すブロック図である。図7に示すシステムは、プログラムを実行するCPU60と、CPU60がアクセスするプログラムやデータが格納されるRAM等のメモリ51と、動画像符号化装置が本手法により符号化したビットストリームを入力するビットストリーム入力部62(ディスク装置等によるビットストリームを記憶する記憶部でもよい)と、メモリ等からの参照視点の動き情報を入力する参照視点動き情報入力部63(ディスク装置等による動き情報を記憶する記憶部でもよい)と、デプスカメラ等からの復号対象を撮影した視点に対するデプスマップを入力するデプスマップ入力部64(ディスク装置等によるデプス情報を記憶する記憶部でもよい)と、画像復号処理をCPU60に実行させるソフトウェアプログラムである画像復号プログラム651が格納されたプログラム記憶装置65と、CPU60がメモリ61にロードされた画像復号プログラム651を実行することにより、ビットストリームを復号して得られた復号対象画像を、再生装置などに出力する復号対象画像出力部66(ディスク装置等による画像信号を記憶する記憶部でもよい)とが、バスで接続された構成になっている。
前述した実施形態における動画像符号化装置100及び動画像復号装置200をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって、動画像符号化装置100及び動画像復号装置200を実現してもよい。なお、ここでいう「コンピュータシステム」とは、OS(Operating System)や周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM(Read Only Memory)、CD(Compact Disc)−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。また、動画像符号化装置100及び動画像復号装置200は、PLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されるものであってもよい。
以上、図面を参照して本発明の実施形態を説明してきたが、上記実施形態は本発明の例示に過ぎず、本発明が上記実施形態に限定されるものではないことは明らかである。したがって、本発明の技術思想及び範囲を逸脱しない範囲で構成要素の追加、省略、置換、その他の変更を行ってもよい。
本発明は、例えば、符号化(復号)対象画像を撮影した視点とは異なる視点から撮影された画像とそれら画像中の被写体に対するデプスマップを用いて、符号化(復号)対象画像に対して視点合成予測を行う際に、そのデプスマップが高い精度の視差情報を表現していなくても、高い符号化効率を達成する用途に適用できる。
100・・・動画像符号化装置
101・・・符号化対象画像入力部
102・・・符号化対象画像メモリ
103・・・参照視点動き情報入力部
104・・・デプスマップ入力部
105・・・動き情報生成部
106・・・視点合成画像生成部
107・・・画像符号化部
108・・・画像復号部
109・・・参照画像メモリ
200・・・動画像復号装置
201・・・ビットストリーム入力部
202・・・ビットストリームメモリ
203・・・参照視点動き情報入力部
204・・・デプスマップ入力部
205・・・動き情報生成部
206・・・視点合成画像生成部
207・・・画像復号部
208・・・参照画像メモリ

Claims (20)

  1. 複数の異なる視点の動画像からなる多視点動画像の1フレームを符号化する際に、符号化対象画像とは異なる参照視点に対する参照視点画像の動き情報である参照視点動き情報と、前記多視点動画像中の被写体に対するデプスマップとを用いて、異なる視点間で予測しながら、前記符号化対象画像を分割した領域である符号化対象領域ごとに、符号化を行う動画像符号化装置であって、
    前記符号化対象領域に対して、前記デプスマップ上での対応領域を設定する対応領域設定部と、
    前記符号化対象領域を分割した領域である予測領域を設定する領域分割部と、
    前記予測領域ごとに、前記対応領域内の当該予測領域に対応する領域におけるデプス情報を用いて、前記参照視点に対する視差ベクトルを生成する視差ベクトル生成部と、
    前記参照視点に対する前記視差ベクトルに基づいて、前記参照視点動き情報から前記予測領域における動き情報を生成する動き情報生成部と、
    前記予測領域における前記動き情報を用いて、前記予測領域に対する予測画像を生成する予測画像生成部と
    を備える動画像符号化装置。
  2. 前記視差ベクトル生成部は、さらに、前記符号化対象領域に対して、前記デプスマップに対する視差ベクトルを生成し、
    前記対応領域設定部は、前記デプスマップに対する前記視差ベクトルによって示される領域を前記対応領域として設定する請求項1に記載の動画像符号化装置。
  3. 前記視差ベクトル生成部は、前記符号化対象領域に隣接する領域を符号化する際に使用した視差ベクトルを用いて、前記デプスマップに対する前記視差ベクトルを設定する請求項2に記載の動画像符号化装置。
  4. 前記領域分割部は、前記対応領域内のデプス情報に基づいて、前記符号化対象領域に対する領域分割を設定する請求項1から3のいずれか1項に記載の動画像符号化装置。
  5. 前記視差ベクトル生成部は、前記予測領域ごとに、前記対応領域内の当該予測領域に対応する前記領域における前記デプス情報から代表デプスを設定し、当該代表デプスに基づいて前記参照視点に対する前記視差ベクトルを設定する請求項1から4のいずれか1項に記載の動画像符号化装置。
  6. 前記動き情報生成部は、前記予測領域に対して予め定められた画素の位置と前記参照視点に対する前記視差ベクトルとを用いて、前記参照視点における対応位置を求め、前記参照視点動き情報のうち、当該対応位置を含む領域に対して与えられた動き情報を前記予測領域における前記動き情報とする請求項1から請求項5のいずれか1項に記載の動画像符号化装置。
  7. 前記符号化対象画像に対して、符号化対象視点における前記符号化対象画像とは異なる既に符号化済みの1フレームを参照画像として設定する参照画像設定部をさらに備え、
    前記動き情報生成部は、前記参照視点動き情報から得られた動き情報を、前記符号化対象画像と前記参照画像との時間間隔に合わせてスケーリングすることで前記予測領域における前記動き情報を生成する請求項1から請求項6のいずれか1項に記載の動画像符号化装置。
  8. 前記予測画像生成部は、前記予測領域における前記動き情報を用いて生成した第1の予測画像と、前記参照視点に対する前記視差ベクトルと前記参照視点画像とを用いて生成した第2の予測画像とを用いて、前記予測領域に対する前記予測画像を生成する請求項1から請求項7のいずれか1項に記載の動画像符号化装置。
  9. 複数の異なる視点の動画像からなる多視点動画像の符号データから、復号対象画像を復号する際に、前記復号対象画像とは異なる参照視点に対する参照視点画像の動き情報である参照視点動き情報と、前記多視点動画像中の被写体に対するデプスマップとを用いて、異なる視点間で予測しながら、前記復号対象画像を分割した領域である復号対象領域ごとに、復号を行う動画像復号装置であって、
    前記復号対象領域に対して、前記デプスマップ上での対応領域を設定する対応領域設定部と、
    前記復号対象領域を分割した領域である予測領域を設定する領域分割部と、
    前記予測領域ごとに、前記対応領域内の当該予測領域に対応する領域におけるデプス情報を用いて、前記参照視点に対する視差ベクトルを生成する視差ベクトル生成部と、
    前記参照視点に対する前記視差ベクトルに基づいて、前記参照視点動き情報から前記予測領域における動き情報を生成する動き情報生成部と、
    前記予測領域における前記動き情報を用いて、前記予測領域に対する予測画像を生成する予測画像生成部と
    を備える動画像復号装置。
  10. 前記視差ベクトル生成部は、さらに、前記復号対象領域に対して、前記デプスマップに対する視差ベクトルを生成し、
    前記対応領域設定部は、前記デプスマップに対する前記視差ベクトルによって示される領域を前記対応領域として設定する請求項9に記載の動画像復号装置。
  11. 前記視差ベクトル生成部は、前記復号対象領域に隣接する領域を復号する際に使用した視差ベクトルを用いて、前記デプスマップに対する前記視差ベクトルを設定する請求項10に記載の動画像復号装置。
  12. 前記領域分割部は、前記対応領域内のデプス情報に基づいて、前記復号対象領域に対する領域分割を設定する請求項9から請求項11のいずれか1項に記載の動画像復号装置。
  13. 前記視差ベクトル生成部は、前記予測領域ごとに、前記対応領域内の当該予測領域に対応する前記領域における前記デプス情報から代表デプスを設定し、当該代表デプスに基づいて前記参照視点に対する前記視差ベクトルを設定する請求項9から請求項12のいずれか1項に記載の動画像復号装置。
  14. 前記動き情報生成部は、前記予測領域に対して予め定められた画素の位置と前記参照視点に対する前記視差ベクトルとを用いて、前記参照視点における対応位置を求め、前記参照視点動き情報のうち、当該対応位置を含む領域に対して与えられた動き情報を前記予測領域における前記動き情報とする請求項9から請求項13のいずれか1項に記載の動画像復号装置。
  15. 前記復号対象画像に対して、復号対象視点における前記復号対象画像とは異なる既に復号済みの1フレームを参照画像として設定する参照画像設定部をさらに備え、
    前記動き情報生成部は、前記参照視点動き情報から得られた動き情報を、前記復号対象画像と前記参照画像との時間間隔に合わせてスケーリングすることで前記予測領域における前記動き情報を生成する請求項9から請求項14のいずれか1項に記載の動画像復号装置。
  16. 前記予測画像生成部は、前記予測領域における前記動き情報を用いて生成した第1の予測画像と、前記参照視点に対する前記視差ベクトルと前記参照視点画像とを用いて生成した第2の予測画像とを用いて、前記予測領域に対する前記予測画像を生成する請求項9から請求項15のいずれか1項に記載の動画像復号装置。
  17. 複数の異なる視点の動画像からなる多視点動画像の1フレームを符号化する際に、符号化対象画像とは異なる参照視点に対する参照視点画像の動き情報である参照視点動き情報と、前記多視点動画像中の被写体に対するデプスマップとを用いて、異なる視点間で予測しながら、前記符号化対象画像を分割した領域である符号化対象領域ごとに、符号化を行う動画像符号化方法であって、
    前記符号化対象領域に対して、前記デプスマップ上での対応領域を設定する対応領域設定ステップと、
    前記符号化対象領域を分割した領域である予測領域を設定する領域分割ステップと、
    前記予測領域ごとに、前記対応領域内の当該予測領域に対応する領域におけるデプス情報を用いて、前記参照視点に対する視差ベクトルを生成する視差ベクトル生成ステップと、
    前記参照視点に対する前記視差ベクトルに基づいて、前記参照視点動き情報から前記予測領域における動き情報を生成する動き情報生成ステップと、
    前記予測領域における前記動き情報を用いて、前記予測領域に対する予測画像を生成する予測画像生成ステップと
    を有する動画像符号化方法。
  18. 複数の異なる視点の動画像からなる多視点動画像の符号データから、復号対象画像を復号する際に、前記復号対象画像とは異なる参照視点に対する参照視点画像の動き情報である参照視点動き情報と、前記多視点動画像中の被写体に対するデプスマップとを用いて、異なる視点間で予測しながら、前記復号対象画像を分割した領域である復号対象領域ごとに、復号を行う動画像復号方法であって、
    前記復号対象領域に対して、前記デプスマップ上での対応領域を設定する対応領域設定ステップと、
    前記復号対象領域を分割した領域である予測領域を設定する領域分割ステップと、
    前記予測領域ごとに、前記対応領域内の当該予測領域に対応する領域におけるデプス情報を用いて、前記参照視点に対する視差ベクトルを生成する視差ベクトル生成ステップと、
    前記参照視点に対する前記視差ベクトルに基づいて、前記参照視点動き情報から前記予測領域における動き情報を生成する動き情報生成ステップと、
    前記予測領域における前記動き情報を用いて、前記予測領域に対する予測画像を生成する予測画像生成ステップと
    を有する動画像復号方法。
  19. コンピュータに、請求項17に記載の動画像符号化方法を実行させるための動画像符号化プログラム。
  20. コンピュータに、請求項18に記載の動画像復号方法を実行させるための動画像復号プログラム。
JP2015542635A 2013-10-17 2014-10-15 動画像符号化方法、動画像復号方法、動画像符号化装置、動画像復号装置、動画像符号化プログラム、及び動画像復号プログラム Pending JPWO2015056712A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013216526 2013-10-17
JP2013216526 2013-10-17
PCT/JP2014/077436 WO2015056712A1 (ja) 2013-10-17 2014-10-15 動画像符号化方法、動画像復号方法、動画像符号化装置、動画像復号装置、動画像符号化プログラム、及び動画像復号プログラム

Publications (1)

Publication Number Publication Date
JPWO2015056712A1 true JPWO2015056712A1 (ja) 2017-03-09

Family

ID=52828154

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015542635A Pending JPWO2015056712A1 (ja) 2013-10-17 2014-10-15 動画像符号化方法、動画像復号方法、動画像符号化装置、動画像復号装置、動画像符号化プログラム、及び動画像復号プログラム

Country Status (5)

Country Link
US (1) US10911779B2 (ja)
JP (1) JPWO2015056712A1 (ja)
KR (1) KR101750421B1 (ja)
CN (1) CN105612748B (ja)
WO (1) WO2015056712A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6758977B2 (ja) * 2016-07-22 2020-09-23 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
EP3509308A1 (en) * 2018-01-05 2019-07-10 Koninklijke Philips N.V. Apparatus and method for generating an image data bitstream
JP7412343B2 (ja) * 2018-09-21 2024-01-12 日本放送協会 画像符号化装置、画像復号装置、及びプログラム
JP7005480B2 (ja) * 2018-12-27 2022-01-21 Kddi株式会社 画像復号装置、画像符号化装置、プログラム及び画像処理システム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008053758A1 (fr) * 2006-10-30 2008-05-08 Nippon Telegraph And Telephone Corporation Procédé de codage d'image dynamique, procédé de décodage, leur dispositif, leur programme et support de stockage contenant le programme
WO2013001813A1 (ja) * 2011-06-29 2013-01-03 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置および画像復号装置
JP2013074303A (ja) * 2011-09-26 2013-04-22 Nippon Telegr & Teleph Corp <Ntt> 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム及び画像復号プログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5619256A (en) * 1995-05-26 1997-04-08 Lucent Technologies Inc. Digital 3D/stereoscopic video compression technique utilizing disparity and motion compensated predictions
US5612735A (en) * 1995-05-26 1997-03-18 Luncent Technologies Inc. Digital 3D/stereoscopic video compression technique utilizing two disparity estimates
WO2010093351A1 (en) * 2009-02-13 2010-08-19 Thomson Licensing Depth map coding to reduce rendered distortion
KR101628383B1 (ko) * 2010-02-26 2016-06-21 연세대학교 산학협력단 영상 처리 장치 및 방법
JPWO2012121052A1 (ja) * 2011-03-08 2014-07-17 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
US9076267B2 (en) * 2011-07-19 2015-07-07 Panasonic Intellectual Property Corporation Of America Image coding device, integrated circuit thereof, and image coding method
IN2014CN02708A (ja) * 2011-09-28 2015-08-07 Pelican Imaging Corp
AU2012323631B2 (en) * 2011-10-11 2015-09-17 Mediatek Inc. Method and apparatus of motion and disparity vector derivation for 3D video coding and HEVC
CN102510500B (zh) 2011-10-14 2013-12-18 北京航空航天大学 一种基于深度信息的多视点立体视频错误隐藏方法
US9253486B2 (en) * 2012-09-28 2016-02-02 Mitsubishi Electric Research Laboratories, Inc. Method and system for motion field backward warping using neighboring blocks in videos

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008053758A1 (fr) * 2006-10-30 2008-05-08 Nippon Telegraph And Telephone Corporation Procédé de codage d'image dynamique, procédé de décodage, leur dispositif, leur programme et support de stockage contenant le programme
WO2013001813A1 (ja) * 2011-06-29 2013-01-03 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置および画像復号装置
JP2013074303A (ja) * 2011-09-26 2013-04-22 Nippon Telegr & Teleph Corp <Ntt> 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム及び画像復号プログラム

Also Published As

Publication number Publication date
KR101750421B1 (ko) 2017-06-23
CN105612748B (zh) 2019-04-02
KR20160045864A (ko) 2016-04-27
US10911779B2 (en) 2021-02-02
US20170055000A2 (en) 2017-02-23
US20160255370A1 (en) 2016-09-01
WO2015056712A1 (ja) 2015-04-23
CN105612748A (zh) 2016-05-25

Similar Documents

Publication Publication Date Title
JP6232076B2 (ja) 映像符号化方法、映像復号方法、映像符号化装置、映像復号装置、映像符号化プログラム及び映像復号プログラム
JP5947977B2 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム及び画像復号プログラム
WO2014050830A1 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体
JP6027143B2 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、および画像復号プログラム
JP6307152B2 (ja) 画像符号化装置及び方法、画像復号装置及び方法、及び、それらのプログラム
US20150249839A1 (en) Picture encoding method, picture decoding method, picture encoding apparatus, picture decoding apparatus, picture encoding program, picture decoding program, and recording media
JPWO2014010584A1 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体
JP5281623B2 (ja) 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置およびそれらのプログラム
JPWO2014103967A1 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム及び画像復号プログラム
JP2009212664A (ja) 距離情報符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体
JP6232075B2 (ja) 映像符号化装置及び方法、映像復号装置及び方法、及び、それらのプログラム
JP5926451B2 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、および画像復号プログラム
WO2015056712A1 (ja) 動画像符号化方法、動画像復号方法、動画像符号化装置、動画像復号装置、動画像符号化プログラム、及び動画像復号プログラム
JP5706291B2 (ja) 映像符号化方法,映像復号方法,映像符号化装置,映像復号装置およびそれらのプログラム
WO2015098827A1 (ja) 映像符号化方法、映像復号方法、映像符号化装置、映像復号装置、映像符号化プログラム及び映像復号プログラム
WO2015141549A1 (ja) 動画像符号化装置及び方法、及び、動画像復号装置及び方法
JP2013126006A (ja) 映像符号化方法、映像復号方法、映像符号化装置、映像復号装置、映像符号化プログラム及び映像復号プログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170407

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171003