JPWO2014103967A1 - 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム及び画像復号プログラム - Google Patents

画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム及び画像復号プログラム Download PDF

Info

Publication number
JPWO2014103967A1
JPWO2014103967A1 JP2014554427A JP2014554427A JPWO2014103967A1 JP WO2014103967 A1 JPWO2014103967 A1 JP WO2014103967A1 JP 2014554427 A JP2014554427 A JP 2014554427A JP 2014554427 A JP2014554427 A JP 2014554427A JP WO2014103967 A1 JPWO2014103967 A1 JP WO2014103967A1
Authority
JP
Japan
Prior art keywords
image
depth
region
decoding
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014554427A
Other languages
English (en)
Other versions
JP6053200B2 (ja
Inventor
信哉 志水
信哉 志水
志織 杉本
志織 杉本
木全 英明
英明 木全
明 小島
明 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Application granted granted Critical
Publication of JP6053200B2 publication Critical patent/JP6053200B2/ja
Publication of JPWO2014103967A1 publication Critical patent/JPWO2014103967A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/543Motion estimation other than block-based using regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format

Abstract

視点合成画像上で合成位置ズレを示す擬似的な動きを補償する際に、視点合成画像に対する小数画素精度の擬似動き補償予測を実現する。複数の異なる視点の画像からなる多視点画像を符号化・復号する際に、処理対象画像とは異なる視点に対する参照画像と、処理対象画像に対するデプスマップとを用いて、視点間で画像を予測しながら符号化・復号を行う方法であって、処理対象画像を分割した処理対象領域に対して、デプスマップ上の領域を示す擬似動きベクトルを設定し、擬似動きベクトルによって示されるデプスマップ上の領域をデプス領域として設定し、デプスマップの整数画素位置のデプス情報を用いて、処理対象領域内の整数画素位置の画素に対応するデプス領域内の整数または小数位置の画素に対して、処理対象領域デプスとなるデプス情報を生成し、処理対象領域デプスと参照画像とを用いて、処理対象領域に対する視点間予測画像を生成する。

Description

本発明は、多視点画像を符号化及び復号する画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体に関する。
本願は、2012年12月27日に日本へ出願された日本特願2012−284694号に対して優先権を主張し、その内容をここに援用する。
従来から、複数のカメラで同じ被写体と背景を撮影した複数の画像からなる多視点画像(Multiview images:マルチビューイメージ)が知られている。この複数のカメラで撮影した動画像のことを多視点動画像(または多視点映像)という。以下の説明では1つのカメラで撮影された画像(動画像)を“2次元画像(動画像)”と称し、同じ被写体と背景とを位置や向き(以下、視点と称する)が異なる複数のカメラで撮影した2次元画像(2次元動画像)群を“多視点画像(多視点動画像)”と称する。
2次元動画像は、時間方向に関して強い相関があり、その相関を利用することによって符号化効率を高めることができる。一方、多視点画像や多視点動画像では、各カメラが同期されている場合、各カメラの映像の同じ時刻に対応するフレーム(画像)は、全く同じ状態の被写体と背景を別の位置から撮影したものであるので、カメラ間で強い相関がある。多視点画像や多視点動画像の符号化においては、この相関を利用することによって符号化効率を高めることができる。
ここで、2次元動画像の符号化技術に関する従来技術を説明する。国際符号化標準であるH.264、MPEG−2、MPEG−4をはじめとした従来の多くの2次元動画像符号化方式では、動き補償予測、直交変換、量子化、エントロピー符号化という技術を利用して、高効率な符号化を行う。例えば、H.264では、過去あるいは未来の複数枚のフレームとの時間相関を利用した符号化が可能である。
H.264で使われている動き補償予測技術の詳細については、例えば非特許文献1に記載されている。H.264で使われている動き補償予測技術の概要を説明する。H.264の動き補償予測は、符号化対象フレームを様々なサイズのブロックに分割し、各ブロックで異なる動きベクトルと異なる参照フレームを持つことを許可している。各ブロックで異なる動きベクトルを使用することで、被写体ごとに異なる動きを補償した精度の高い予測を実現している。一方、各ブロックで異なる参照フレームを使用することで、時間変化によって生じるオクルージョンを考慮した精度の高い予測を実現している。
次に、従来の多視点画像や多視点動画像の符号化方式について説明する。多視点画像の符号化方法と、多視点動画像の符号化方法との違いは、多視点動画像にはカメラ間の相関に加えて、時間方向の相関が同時に存在するということである。しかし、どちらの場合でも、同じ方法でカメラ間の相関を利用することができる。そのため、ここでは多視点動画像の符号化において用いられる方法について説明する。
多視点動画像の符号化については、カメラ間の相関を利用するために、動き補償予測を同じ時刻の異なるカメラで撮影された画像に適用した“視差補償予測”によって高効率に多視点動画像を符号化する方式が従来から存在する。ここで、視差とは、異なる位置に配置されたカメラの画像平面上で、被写体上の同じ部分が存在する位置の差である。図10は、カメラ間で生じる視差を示す概念図である。図10に示す概念図では、光軸が平行なカメラの画像平面を垂直に見下ろしたものとなっている。このように、異なるカメラの画像平面上で被写体上の同じ部分が投影される位置は、一般的に対応点と呼ばれる。
視差補償予測では、この対応関係に基づいて、符号化対象フレームの各画素値を参照フレームから予測して、その予測残差と、対応関係を示す視差情報とを符号化する。視差は対象とするカメラの対や位置ごとに変化するため、視差補償予測を行う領域ごとに視差情報を符号化することが必要である。実際に、H.264の多視点動画像符号化方式では、視差補償予測を用いるブロックごとに視差情報を表すベクトルを符号化している。
視差情報によって与えられる対応関係は、カメラパラメータを用いることで、エピポーラ幾何拘束に基づき、2次元ベクトルではなく、被写体の3次元位置を示す1次元量で表すことができる。被写体の3次元位置を示す情報としては、様々な表現が存在するが、基準となるカメラから被写体までの距離や、カメラの画像平面と平行ではない軸上の座標値を用いることが多い。なお、距離ではなく距離の逆数を用いる場合もある。また、距離の逆数は視差に比例する情報となるため、基準となるカメラを2つ設定し、それらのカメラで撮影された画像間での視差量として3次元位置を表現する場合もある。どのような表現を用いたとしても本質的な違いはないため、以下では、表現による区別をせずに、それら3次元位置を示す情報をデプスと表現する。
図11はエピポーラ幾何拘束の概念図である。エピポーラ幾何拘束によれば、あるカメラの画像上の点に対応する別のカメラの画像上の点はエピポーラ線という直線上に拘束される。このとき、その画素に対するデプスが得られた場合、対応点はエピポーラ線上に一意に定まる。例えば、図11に示すように、第1のカメラ画像においてmの位置に投影された被写体に対する第2のカメラ画像での対応点は、実空間における被写体の位置がM’の場合にはエピポーラ線上の位置m’に投影され、実空間における被写体の位置がM’’の場合にはエピポーラ線上の位置m’’に、投影される。
非特許文献2では、この性質を利用して、参照フレームに対するデプスマップ(距離画像)によって与えられる各被写体の3次元情報に従って、参照フレームから符号化対象フレームに対する予測画像を合成することで、精度の高い予測画像を生成し、効率的な多視点動画像の符号化を実現している。なお、このデプスに基づいて生成される予測画像は視点合成画像、視点補間画像、または視差補償画像と呼ばれる。
しかしながら、エピポーラ幾何は単純なカメラモデルに従っているため、現実のカメラの投影モデルと比べると多少の誤差が存在する。また、その単純なカメラモデルに従うとしても、実際の画像に対してカメラパラメータを正確に求めることは困難であるため、誤差を避けることはできない。更に、カメラモデルが正確に求まる場合においても、実写画像に対して、デプスを正確に得ることも歪みなしで符号化・伝送することも困難であるため、正確な視点合成画像や視差補償画像を生成することはできない。
非特許文献3では、生成した視点合成画像をDPB(Decoded Picture Buffer)に挿入してその他の参照フレームと同様に扱うことを可能としている。これにより、上記のような誤差の影響で符号化対象画像と視点合成画像とか微妙にずれてしまっていても、視点合成画像上でのそのズレを示すベクトルを設定・符号化することで、そのズレを補償した高精度な画像予測を実現している。
ITU-T Recommendation H.264 (03/2009), "Advanced video coding for generic audiovisual services", March, 2009. Shinya SHIMIZU, Masaki KITAHARA, Kazuto KAMIKURA and Yoshiyuki YASHIMA, "Multi-view Video Coding based on 3-D Warping with Depth Map", In Proceedings of Picture Coding Symposium 2006, SS3-6, April, 2006. Emin Martinian, Alexander Behrens, Jun Xin, Anthony Vetro, and Huifang Sun, "EXTENSIONS OF H.264/AVC FOR MULTIVIEW VIDEO COMPRESSION", MERL Technical Report, TR2006-048, June, 2006.
非特許文献3に記載の方法によれば、一般的な動き補償予測処理を用いながら、DPBの管理部分のみを変更するだけで、視点合成画像における位置ズレを擬似的な動きとして扱い、その擬似的な動きの補償を行うことが可能となる。これにより、様々な要因によって視点合成画像に生じてしまう符号化対象画像との位置ずれを補償し、実画像に対する視点合成画像を用いた予測効率を向上させることができる。
しかしながら、通常の参照画像と同様に視点合成画像を取り扱うため、符号化対象画像の一部分でしか視点合成画像が参照されない場合においても、一画像分の視点合成画像を生成する必要が生じ、処理量が増加してしまうという問題がある。
符号化対象画像に対するデプスを用いることで、必要な領域に対してのみ視点合成画像を生成することも可能であるが、小数画素位置を示す擬似的な動きベクトルが与えられた場合、1つの小数画素に対する画素値を補間するためには、複数の整数画素に対する視点合成画像の画素値が必要となる。すなわち、予測対象の画素よりも多くの画素に対して視点合成画像を生成する必要が生じることになり、処理量が増加するという問題を解決することはできないという問題がある。
本発明は、このような事情に鑑みてなされたもので、視点合成画像上で擬似的な動きを補償する際に、画像信号の予測効率が著しく低下することを抑えつつ、少ない演算量で視点合成画像に対する小数画素精度の擬似動き補償予測を実現することが可能な画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体を提供することを目的とする。
本発明は、複数の異なる視点の画像からなる多視点画像を符号化する際に、符号化対象画像とは異なる視点に対する符号化済みの参照画像と、前記符号化対象画像に対するデプスマップとを用いて、異なる視点間で画像を予測しながら符号化を行う画像符号化装置であって、前記符号化対象画像を分割した符号化対象領域に対して、前記デプスマップ上の領域を示す擬似動きベクトルを設定する擬似動きベクトル設定部と、前記擬似動きベクトルによって示される前記デプスマップ上の前記領域をデプス領域として設定するデプス領域設定部と、前記デプスマップの整数画素位置のデプス情報を用いて、前記符号化対象領域内の整数画素位置の画素に対応する前記デプス領域内の整数または小数位置の画素に対して、参照領域デプスとなるデプス情報を生成する参照領域デプス生成部と、前記参照領域デプスと前記参照画像とを用いて、前記符号化対象領域に対する視点間予測画像を生成する視点間予測部とを備える。
本発明は、複数の異なる視点の画像からなる多視点画像を符号化する際に、符号化対象画像とは異なる視点に対する符号化済みの参照画像と、前記符号化対象画像に対するデプスマップとを用いて、視点間で画像を予測しながら符号化を行う画像符号化装置であって、前記デプスマップに小数画素位置の画素に対するデプス情報を生成し小数画素精度デプスマップとする小数画素精度デプス情報生成部と、前記小数画素精度デプスマップと前記参照画像とを用いて、前記符号化対象画像の整数及び小数画素位置の画素に対する視点合成画像を生成する視点合成画像生成部と、前記符号化対象画像を分割した符号化対象領域に対して、前記視点合成画像上の領域を示す小数画素精度の擬似動きベクトルを設定する擬似動きベクトル設定部と、前記擬似動きベクトルによって示される前記視点合成画像上の前記領域に対する画像情報を視点間予測画像とする視点間予測部と、を備える。
本発明は、複数の異なる視点の画像からなる多視点画像を符号化する際に、符号化対象画像とは異なる視点に対する符号化済みの参照画像と、前記符号化対象画像に対するデプスマップとを用いて、異なる視点間で画像を予測しながら符号化を行う画像符号化装置であって、前記符号化対象画像を分割した符号化対象領域に対して、前記符号化対象画像上の領域を示す擬似動きベクトルを設定する擬似動きベクトル設定部と、前記符号化対象領域内の画素に対応する前記デプスマップ上の画素に対するデプス情報を、参照領域デプスとして設定する参照領域デプス設定部と、前記擬似動きベクトルによって示される前記領域に対して、当該領域のデプスが前記参照領域デプスであるとして、前記符号化対象領域に対する視点間予測画像を、前記参照画像を用いて生成する視点間予測部とを備える。
本発明は、複数の異なる視点の画像からなる多視点画像の符号データから、復号対象画像を復号する際に、前記復号対象画像とは異なる視点に対する復号済みの参照画像と、前記復号対象画像に対するデプスマップとを用いて、異なる視点間で画像を予測しながら復号を行う画像復号装置であって、前記復号対象画像を分割した復号対象領域に対して、前記デプスマップ上の領域を示す擬似動きベクトルを設定する擬似動きベクトル設定部と、前記擬似動きベクトルによって示される前記デプスマップ上の前記領域をデプス領域として設定するデプス領域設定部と、前記デプスマップの整数画素位置のデプス情報を用いて、前記復号対象領域内の整数画素位置の画素に対応する前記デプス領域内の整数または小数位置の画素に対して、復号対象領域デプスとなるデプス情報を生成する復号対象領域デプス生成部と、前記復号対象領域デプスと前記参照画像とを用いて、前記復号対象領域に対する視点間予測画像を生成する視点間予測部とを備える。
好ましくは、本発明の画像復号装置において、前記視点間予測部は、前記復号対象領域デプスから得られる視差ベクトルを用いて、前記視点間予測画像を生成する。
好ましくは、本発明の画像復号装置において、前記視点間予測部は、前記復号対象領域デプスから得られる視差ベクトルと前記擬似動きベクトルを用いて、前記視点間予測画像を生成する。
好ましくは、本発明の画像復号装置において、前記視点間予測部は、前記復号対象領域を分割した予測領域ごとに、前記復号対象領域デプス上で当該予測領域に対応する領域内のデプス情報を用いて、前記参照画像に対する視差ベクトルを設定し、当該視差ベクトルと前記参照画像とを用いて視差補償画像を生成することにより前記復号対象領域に対する前記視点間予測画像を生成する。
好ましくは、本発明の画像復号装置は、前記視差ベクトルを蓄積する視差ベクトル蓄積部と、前記蓄積された視差ベクトルを用いて、前記復号対象領域に隣接する領域における予測視差情報を生成する視差予測部とを更に有する。
好ましくは、本発明の画像復号装置は、前記視差ベクトルを補正するベクトルである補正視差ベクトルを設定する補正視差ベクトル部をさらに有し、前記視点間予測部は、前記視差ベクトルを前記補正視差ベクトルで補正したベクトルと、前記参照画像とを用いて視差補償画像を生成することにより前記視点間予測画像を生成する。
好ましくは、本発明の画像復号装置は、前記補正視差ベクトルを蓄積する補正視差ベクトル蓄積部と、前記蓄積された補正視差ベクトルを用いて、前記復号対象領域に隣接する領域における予測視差情報を生成する視差予測部とを更に有する。
好ましくは、本発明の画像復号装置において、前記復号対象領域デプス生成部は、前記デプス領域内の小数画素位置の画素に対するデプス情報を、周辺の整数画素位置の画素に対するデプス情報とする。
本発明は、複数の異なる視点の画像からなる多視点画像の符号データから、復号対象画像を復号する際に、前記復号対象画像とは異なる視点に対する復号済みの参照画像と、前記復号対象画像に対するデプスマップとを用いて、異なる視点間で画像を予測しながら復号を行う画像復号装置であって、前記復号対象画像を分割した復号対象領域に対して、前記復号対象画像上の領域を示す擬似動きベクトルを設定する擬似動きベクトル設定部と、前記復号対象領域内の画素に対応する前記デプスマップ上の画素に対するデプス情報を、復号対象領域デプスとして設定する復号対象領域デプス設定部と、前記擬似動きベクトルによって示される前記領域に対して、当該領域のデプスが前記復号対象領域デプスであるとして、前記復号対象領域に対する視点間予測画像を、前記参照画像を用いて生成する視点間予測部とを備える。
好ましくは、本発明の画像復号装置において、前記視点間予測部は、前記復号対象領域を分割した予測領域ごとに、前記復号対象領域デプス上で当該予測領域に対応する領域内のデプス情報を用いて、前記参照画像に対する視差ベクトルを設定し、前記擬似動きベクトルと当該視差ベクトルと前記参照画像とを用いて視差補償画像を生成することにより前記復号対象領域に対する前記視点間予測画像を生成する。
好ましくは、本発明の画像復号装置は、前記視差ベクトルと前記擬似動きベクトルとを用いて表される前記復号対象領域における前記参照画像に対する参照ベクトルを蓄積する参照ベクトル蓄積部と、前記蓄積された参照ベクトルを用いて、前記復号対象領域に隣接する領域における予測視差情報を生成する視差予測部とを更に有する。
本発明は、複数の異なる視点の画像からなる多視点画像を符号化する際に、符号化対象画像とは異なる視点に対する符号化済みの参照画像と、前記符号化対象画像に対するデプスマップとを用いて、異なる視点間で画像を予測しながら符号化を行う画像符号化方法であって、前記符号化対象画像を分割した符号化対象領域に対して、前記デプスマップ上の領域を示す擬似動きベクトルを設定する擬似動きベクトル設定ステップと、前記擬似動きベクトルによって示される前記デプスマップ上の前記領域をデプス領域として設定するデプス領域設定ステップと、前記デプスマップの整数画素位置のデプス情報を用いて、前記符号化対象領域内の整数画素位置の画素に対応する前記デプス領域内の整数または小数位置の画素に対して、参照領域デプスとなるデプス情報を生成する参照領域デプス生成ステップと、前記参照領域デプスと前記参照画像とを用いて、前記符号化対象領域に対する視点間予測画像を生成する視点間予測ステップとを有する。
本発明は、複数の異なる視点の画像からなる多視点画像を符号化する際に、符号化対象画像とは異なる視点に対する符号化済みの参照画像と、前記符号化対象画像に対するデプスマップとを用いて、異なる視点間で画像を予測しながら符号化を行う画像符号化方法であって、前記符号化対象画像を分割した符号化対象領域に対して、前記符号化対象画像上の領域を示す擬似動きベクトルを設定する擬似動きベクトル設定ステップと、前記符号化対象領域内の画素に対応する前記デプスマップ上の画素に対するデプス情報を、参照領域デプスとして設定する参照領域デプス設定ステップと、前記擬似動きベクトルによって示される前記領域に対して、当該領域のデプスが前記参照領域デプスであるとして、前記符号化対象領域に対する視点間予測画像を、前記参照画像を用いて生成する視点間予測ステップとを有する。
本発明は、複数の異なる視点の画像からなる多視点画像の符号データから、復号対象画像を復号する際に、前記復号対象画像とは異なる視点に対する復号済みの参照画像と、前記復号対象画像に対するデプスマップとを用いて、異なる視点間で画像を予測しながら復号を行う画像復号方法であって、前記復号対象画像を分割した復号対象領域に対して、前記デプスマップ上の領域を示す擬似動きベクトルを設定する擬似動きベクトル設定ステップと、前記擬似動きベクトルによって示される前記デプスマップ上の前記領域をデプス領域として設定するデプス領域設定ステップと、前記デプスマップの整数画素位置のデプス情報を用いて、前記復号対象領域内の整数画素位置の画素に対応する前記デプス領域内の整数または小数位置の画素に対して、復号対象領域デプスとなるデプス情報を生成する復号対象領域デプス生成ステップと、前記復号対象領域デプスと前記参照画像とを用いて、前記復号対象領域に対する視点間予測画像を生成する視点間予測ステップとを有する。
本発明は、複数の異なる視点の画像からなる多視点画像の符号データから、復号対象画像を復号する際に、前記復号対象画像とは異なる視点に対する復号済みの参照画像と、前記復号対象画像に対するデプスマップとを用いて、異なる視点間で画像を予測しながら復号を行う画像復号方法であって、前記復号対象画像を分割した復号対象領域に対して、前記復号対象画像上の領域を示す擬似動きベクトルを設定する擬似動きベクトル設定ステップと、前記復号対象領域内の画素に対応する前記デプスマップ上の画素に対するデプス情報を、復号対象領域デプスとして設定する復号対象領域デプス設定ステップと、前記擬似動きベクトルによって示される前記領域に対して、当該領域のデプスが前記復号対象領域デプスであるとして、前記復号対象領域に対する視点間予測画像を、前記参照画像を用いて生成する視点間予測ステップとを有する。
本発明は、コンピュータに、前記画像符号化方法を実行させるための画像符号化プログラムである。
本発明は、コンピュータに、前記画像復号方法を実行させるための画像復号プログラムである。
本発明によれば、視点合成画像に対する小数画素精度の動き補償予測を行う際に、指定された小数画素位置にあわせて、視点合成画像を生成する際の画素位置やデプスを変更することで、予測対象画素数以上の画素について視点合成画像を生成する処理を省き、少ない演算量で視点合成画像を生成することができるという効果が得られる。
本発明の実施形態における画像符号化装置の構成を示すブロック図である。 図1に示す画像符号化装置100の動作を示すフローチャートである。 図1に示す画像符号化装置100の変形例を示すブロック図である。 図2に示すカメラ間予測画像を生成する処理の処理動作を示すフローチャートである。 本発明の実施形態における画像復号装置の構成を示すブロック図である。 図5に示す画像復号装置200の動作を示すフローチャートである。 図5に示す画像復号装置200の変形例を示すブロック図である。 画像符号化装置100をコンピュータとソフトウェアプログラムとによって構成する場合のハードウェア構成を示すブロック図である。 画像復号装置200をコンピュータとソフトウェアプログラムとによって構成する場合のハードウェア構成を示すブロック図である。 カメラ間で生じる視差を示す概念図である。 エピポーラ幾何拘束の概念図である。
以下、図面を参照して、本発明の実施形態による画像符号化装置及び画像復号装置を説明する。以下の説明においては、第1のカメラ(カメラAという)、第2のカメラ(カメラBという)の2つのカメラで撮影された多視点画像を符号化する場合を想定し、カメラAの画像を参照画像としてカメラBの画像を符号化または復号するものとして説明する。なお、デプス情報から視差を得るために必要となる情報は別途与えられているものとする。具体的には、この情報は、カメラAとカメラBの位置関係を表す外部パラメータや、カメラによる画像平面への投影情報を表す内部パラメータであるが、これら以外の形態であってもデプス情報から視差が得られるものであれば、別の情報が与えられていてもよい。これらのカメラパラメータに関する詳しい説明は、例えば、文献「Oliver Faugeras, "Three-Dimension Computer Vision", pp. 33-66, MIT Press; BCTC/UFF-006.37 F259 1993, ISBN:0-262-06158-9.」に記載されている。この文献には、複数のカメラの位置関係を示すパラメータや、カメラによる画像平面への投影情報を表すパラメータに関する説明が記載されている。
以下の説明では、画像や映像フレーム、デプスマップに対して、記号[]で挟まれた位置を特定可能な情報(座標値もしくは座標値に対応付け可能なインデックス)を付加することで、その位置の画素によってサンプリングされた画像信号や、それに対するデプスを示すものとする。また、座標値やブロックに対応付け可能なインデックス値とベクトルの加算によって、その座標やブロックをベクトルの分だけずらした位置の座標値やブロックを表すものとする。さらに、ある領域aに対する視差または擬似動きベクトルがvecであるとき、領域aに対応する領域はa+vecで表現されるものとする。
図1は本実施形態における画像符号化装置の構成を示すブロック図である。画像符号化装置100は、図1に示すように、符号化対象画像入力部101、符号化対象画像メモリ102、参照画像入力部103、参照画像メモリ104、デプスマップ入力部105、デプスマップメモリ106、擬似動きベクトル設定部107、参照領域デプス生成部108、カメラ間予測画像生成部109及び画像符号化部110を備えている。
符号化対象画像入力部101は、符号化対象となる画像を入力する。以下では、この符号化対象となる画像を符号化対象画像と称する。ここではカメラBの画像を入力するものとする。また、符号化対象画像を撮影したカメラ(ここではカメラB)を符号化対象カメラと称する。符号化対象画像メモリ102は、入力した符号化対象画像を記憶する。参照画像入力部103は、カメラ間予測画像(視点合成画像、視差補償画像)を生成する際に参照する画像を入力する。以下では、ここで入力された画像を参照画像と呼ぶ。ここではカメラAの画像を入力するものとする。参照画像メモリ104は、入力された参照画像を記憶する。以下では、参照画像を撮影したカメラ(ここではカメラA)を参照カメラと称する。
デプスマップ入力部105は、カメラ間予測画像を生成する際に参照するデプスマップを入力する。ここでは符号化対象画像に対するデプスマップを入力する。なお、デプスマップとは対応する画像の各画素に写っている被写体の3次元位置を表すものである。別途与えられるカメラパラメータ等の情報によって3次元位置が得られるものであれば、デプスマップはどのような情報でもよい。例えば、カメラから被写体までの距離や、画像平面とは平行ではない軸に対する座標値、別のカメラ(例えばカメラA)に対する視差量を用いることができる。また、ここでは視差量が得られれば構わないので、デプスマップではなく、視差量を直接表現した視差マップを用いても構わない。なお、ここではデプスマップとして画像の形態で渡されるものとしているが、同様の情報が得られるのであれば、画像の形態でなくても構わない。デプスマップメモリ106は、入力されたデプスマップを記憶する。
擬似動きベクトル設定部107は、符号化対象画像を分割したブロックごとに、デプスマップ上での擬似動きベクトルを設定する。参照領域デプス生成部108は、デプスマップと擬似動きベクトルとを用いて、符号化対象画像を分割したブロックごとに、カメラ間予測画像を生成する際に用いるデプス情報であるところの参照領域デプスを生成する。カメラ間予測画像生成部109は、参照領域デプスを用いて、符号化対象画像の画素と参照画像の画素との対応関係を求め、符号化対象画像に対するカメラ間予測画像を生成する。画像符号化部110は、カメラ間予測画像を用いて、符号化対象画像の予測符号化を行い、ビットストリームを出力する。
次に、図2を参照して、図1に示す画像符号化装置100の動作を説明する。図2は、図1に示す画像符号化装置100の動作を示すフローチャートである。まず、符号化対象画像入力部101は、符号化対象画像を入力し、符号化対象画像メモリ102に記憶する(ステップS11)。次に、参照画像入力部103は参照画像を入力し、参照画像メモリ104に記憶する。これと並行して、デプスマップ入力部105はデプスマップを入力し、デプスマップメモリ106に記憶する(ステップS12)。
なお、ステップS12で入力される参照画像とデプスマップは、既に符号化済みのものを復号したものなど、復号側で得られるものと同じものとする。これは復号装置で得られるものと全く同じ情報を用いることで、ドリフト等の符号化ノイズの発生を抑えるためである。ただし、そのような符号化ノイズの発生を許容する場合には、符号化前のものなど、符号化側でしか得られないものが入力されてもよい。デプスマップに関しては、既に符号化済みのものを復号したもの以外に、複数のカメラに対して復号された多視点画像に対してステレオマッチング等を適用することで推定したデプスマップや、復号された視差ベクトルや動きベクトルなどを用いて推定されるデプスマップなども、復号側で同じものが得られるものとして用いることができる。
次に、画像符号化装置100は、符号化対象画像を分割したブロックごとに、カメラ間予測画像を作りながら、符号化対象画像を符号化する。すなわち、符号化対象画像を分割したブロックのインデックスを示す変数blkを0に初期化した後(ステップS13)、blkに1ずつ加算しながら(ステップS17)、blkがnumBlksになるまで(ステップS18)、以下の処理(ステップS14〜ステップS16)を繰り返す。なお、numBlksは符号化対象画像中の符号化処理を行う単位ブロックの個数を表す。
符号化対象画像のブロックごとに行われる処理では、まず、擬似動きベクトル設定部107において、デプスマップ上でのブロックblkの擬似的な動きを表す擬似動きベクトルmvを設定する(ステップS14)。擬似的な動きとは、エピポーラ幾何に従ってデプス情報を用いて対応点を求めた際に生じる位置ずれ(誤差)を指す。ここでは、どのような方法を用いて擬似動きベクトルを設定しても構わないが、復号側で同じ擬似動きベクトルが得られる必要がある。
例えば、位置ずれ等を推定することで任意のベクトルを擬似動きベクトルとして設定し、設定した擬似動きベクトルを符号化することで復号側へ通知しても構わない。この場合、図3に示すように、画像符号化装置100は擬似動きベクトル符号化部111と多重化部112とを更に備えればよい。図3は、図1に示す画像符号化装置100の変形例を示すブロック図である。擬似動きベクトル符号化部111は、擬似動きベクトル設定部107の設定した擬似動きベクトルを符号化する。多重化部112は、擬似動きベクトルのビットストリームと、符号化対象画像のビットストリームとを多重化して出力する。
なお、ブロックごとに擬似動きベクトルを設定して符号化するのではなく、フレームやスライスなどのブロックよりも大きな単位ごとにグローバルな擬似動きベクトルを設定し、そのフレームやスライス内のブロックでは、設定されたグローバル擬似動きベクトルをそのブロックに対する擬似動きベクトルとして用いても構わない。この場合、ブロックごとに行われる処理の前に、グローバル擬似動きベクトルを設定し、ブロックごとに擬似動きベクトルを設定するステップ(ステップS14)をスキップする。
どのようなベクトルが擬似動きベクトルとして設定されても構わないが、高い符号化効率を達成するためには、設定した擬似動きベクトルを用いて後の処理で生成されるカメラ間予測画像と符号化対象画像との誤差が小さくなるように設定する必要がある。また、設定した擬似動きベクトルを符号化する場合は、カメラ間予測画像と符号化対象画像との誤差と、擬似動きベクトルの符号量から算出されるレート歪みコストが最小になるようなベクトルを擬似動きベクトルとして設定しても構わない。
図2に戻り、次に、参照領域デプス生成部108及びカメラ間予測画像生成部109において、ブロックblkに対するカメラ間予測画像を生成する(ステップS15)。ここでの処理は後で詳しく説明する。
カメラ間予測画像を得たら、次に、画像符号化部110は、カメラ間予測画像を予測画像として、符号化対象画像を予測符号化して出力する(ステップS16)。符号化の結果得られるビットストリームが画像符号化装置100の出力となる。なお、復号側で正しく復号可能であるならば、符号化にはどのような方法を用いてもよい。
MPEG−2やH.264、JPEGなどの一般的な動画像符号化または画像符号化では、ブロックごとに、符号化対象画像と予測画像との差分信号を生成し、差分画像に対してDCT(離散コサイン変換)などの周波数変換を施し、その結果得られた値に対して、量子化、2値化、エントロピー符号化の処理を順に適用することで符号化を行う。
なお、本実施形態では、全てのブロックにおいてカメラ間予測画像を予測画像として用いたが、ブロックごとに異なる方法で生成された画像を予測画像として用いても構わない。その場合、どの方法で生成された画像を予測画像として用いたかを、復号側で判別できる必要がある。例えば、H.264のように、予測画像を生成する方法(モードやベクトル情報など)を示した情報を符号化し、ビットストリームに含めることで、復号側で判断できるようにしても構わない。
次に、図4を参照して、図1に示す参照領域デプス生成部108及びカメラ間予測画像生成部109の処理動作を説明する。図4は、図2に示すブロックblkに対するカメラ間予測画像を生成する処理(ステップS15)の処理動作を示すフローチャートである。ここでの処理は、ブロックを更に分割したサブブロックごとに行われる。すなわち、サブブロックのインデックスを示す変数sblkを0に初期化した後(ステップS1501)、sblkに1ずつ加算しながら(ステップS1505)、sblkがnumSBlksになるまで(ステップS1506)、以下の処理(ステップS1502〜S1504)を繰り返す。ここで、numSBlksはブロックblk内のサブブロックの個数を表す。
なお、サブブロックの大きさや形状にはどのようなものを用いても構わないが、復号側で同じサブブロック分割が得られる必要がある。例えば、各サブブロックが、縦×横で、2画素×2画素、4画素×4画素、8画素×8画素などとなるように、予め定められた分割を用いても構わない。なお、予め定められた分割としては、1画素×1画素(すなわち画素ごと)や、ブロックblkと同じサイズ(すなわち分割を行わない)を用いても構わない。
復号側と同じサブブロック分割を用いる別の方法として、サブブロック分割の方法を符号化することで復号側へ通知しても構わない。この場合、サブブロック分割の方法に対するビットストリームは、符号化対象画像のビットストリームと多重化され、画像符号化装置100の出力するビットストリームの一部となる。なお、サブブロック分割の方法を選択する場合は、1つのサブブロックに含まれる画素が参照画像に対してできるだけ同じ視差を持ち、できるだけ少ない数のサブブロックに分割するような方法を選ぶことで、後述するカメラ間予測画像の生成処理によって、高品質な予測画像を少ない処理量で生成することが可能となる。また、この場合、復号側ではビットストリームからサブブロック分割を示す情報を復号し、復号された情報に基づいた方法にしたがってサブブロック分割を行う。
更に別の方法として、ステップS14で設定された擬似動きベクトルmvによって示されるデプスマップ上のブロックblk+mvに対するデプスからサブブロック分割を決定しても構わない。例えば、デプスマップのブロックblk+mvのデプスをクラスタリングすることでサブブロック分割を求めることができる。また、クラスタリングを行うのではなく、予め定められた分割の種類の中から、最も正しくデプスが分類される分割を選択するようにしても構わない。予め定められた分割以外を用いる場合は、ステップS1501に先だって、サブブロック分割を決定する処理を行い、そのサブブロック分割に従ってnumSBlksを設定する必要がある。
サブブロックごとに行われる処理では、まず、デプスマップと擬似動きベクトルmvとを用いて、サブブロックsblkに対して1つのデプス値を設定する(ステップS1502)。具体的には、サブブロックsblk内の画素群に対応するデプスマップ上の画素群を求め、それらの画素群に対するデプス値を用いて1つのデプス値を決定して設定する。なお、サブブロック内の画素pに対するデプスマップ上の画素はp+mvで与えられる。
サブブロック内の画素群に対するデプス値から、1つのデプス値を決定する方法にはどのような方法を用いても構わない。ただし、復号側と同じ方法を用いることが必要である。例えば、サブブロック内の画素群に対するデプス値の平均値・最大値・最小値・中央値のいずれかを用いても構わない。また、サブブロックの4頂点の画素に対するデプス値の平均値・最大値・最小値・中央値のいずれかを用いても構わない。更に、サブブロックの特定の場所(左上や中央など)におけるデプス値を用いても構わない。サブブロック内の一部の画素に対するデプス値しか使用しない場合は、その他の画素に対するデプスマップ上の画素やデプス値を求めなくても構わない。
なお、擬似動きベクトルmvが小数画素を示す場合、デプスマップ上の対応画素p+mvは小数画素位置となるため、デプスマップのデータには対応するデプス値が存在しない。この場合、p+mvの周辺の整数画素に対するデプス値を用いた補間処理によって、デプス値を生成しても構わない。また、補間するのではなく、p+mvを整数画素位置へ丸めることで、周辺の整数画素位置の画素に対するデプス値をそのまま用いても構わない。
サブブロックsblkに対してデプス値が得られたら、次に、そのデプス値に対応する参照画像と符号化対象画像との視差ベクトルdvを求める(ステップS1503)。デプス値から視差ベクトルへの変換は与えられたデプス及びカメラパラメータの定義に従って行う。例えば、(1)式で画像上の画素と三次元点との関係が定義される場合、視差ベクトルdvは(2)式で表される。
Figure 2014103967
Figure 2014103967
なお、mは画素の2次元座標値を表す列ベクトル、gは対応する三次元点の座標値を表す列ベクトル、dはカメラから被写体までの距離を表すデプス値、Aはカメラの内部パラメータと呼ばれる3×3行列、Rはカメラの外部パラメータの1つで回転を表す3×3行列、tはカメラの外部パラメータの1つで並進を表す3次元列ベクトルを表す。また、[R|t]はRとtを並べた3×4行列を表す。また、カメラパラメータA,R,tの添え字はカメラを示し、rは参照カメラを表し、cは符号化対象カメラを表す。また、qは符号化対象画像上の座標値、dはステップS1502で求めたデプス値に対応する符号化対象カメラから被写体までの距離、sは数式を満たすスカラー量を表す。
なお、(2)式のように、視差ベクトルを求めるにあたって、符号化対象画像上の座標値qが必要になる場合がある。このとき、qとして、サブブロックsblkの座標値を用いても構わないし、擬似動きベクトルmvによってサブブロックsblkが対応するブロックの座標値を用いても構わない。なお、ブロックに対する座標値は、ブロックの左上や中央など、予め定められた位置の座標値を用いることができる。すなわち、サブブロックsblkの座標値をposとすると、qとしてposを用いても構わないし、pos+mvを用いても構わない。
また、カメラ配置が一次元平行の場合、サブブロックの位置によらず、視差の向きはカメラの配置に依存し、視差量はデプス値に依存するため、予め作成したルックアップテーブルを参照することで、デプス値から視差ベクトルを求めることができる。
次に、得られた視差ベクトルdvと参照画像とを用いて、サブブロックsblkに対する視差補償画像を生成する(ステップS1504)。ここでの処理は、与えられたベクトルと参照画像とを用いるだけで、従来の視差補償予測や擬似動き補償予測と同様の方法を用いることができる。ここで、サブブロックsblkの参照画像に対する視差ベクトルをdvとしても構わないし、dv+mvとしても構わない。
ステップS1503において符号化対象画像上の座標値としてサブブロックの位置を用い、ステップS1504においてサブブロックの参照画像に対する視差ベクトルとしてdvを用いる場合は、擬似動きベクトルmvによって示されたデプスをサブブロックが持つとしてカメラ間予測を行うことに相当する。すなわち、符号化対象画像とデプスマップとの間に、ズレが生じている場合に、そのズレを補償したカメラ間予測を実現することが可能となる。
また、ステップS1503において符号化対象画像上の座標値として擬似動きベクトルmvによってサブブロックが対応する位置を用い、ステップS1504においてサブブロックの参照画像に対する視差ベクトルとしてdv+mvを用いる場合は、擬似動きベクトルmvによって示された領域がデプスによって対応する参照画像上の領域と、サブブロックとが対応するとしてカメラ間予測を行うことに相当する。すなわち、符号化対象画像とデプスマップとの間に位置ズレがないとして生成した場合のカメラ間予測画像において、投影モデル誤差など様々な要因によって、擬似動きベクトルmv分だけ生じたズレを補償して予測を行うことが可能となる。
なお、符号化対象画像とデプスマップとの間に位置ズレがないとして、符号化対象画像の全ての画素に対してカメラ間予測画像を生成した後に、投影モデル誤差など様々な要因によって生じたズレを補償する従来手法と比べて、本実施形態では、最終的な予測画像を1画素分生成するのにあたり、生成しなければならないカメラ間予測画像の画素数を減らすことが可能となる。具体的には、小数画素分だけズレが生じている場合、従来手法では、ズレを補償した位置の小数画素に対して予測画像を生成するために、その周辺の複数の整数画素に対してカメラ間予測画像を生成する必要が生じる。一方、本実施形態によって、ズレを補償した位置の小数画素に対するカメラ間予測画像を直接生成することが可能となる。
さらに、ステップS1503において符号化対象画像上の座標値として擬似動きベクトルmvによってサブブロックが対応する位置を用い、ステップS1504においてサブブロックの参照画像に対する視差ベクトルとしてdvを用いる場合は、サブブロックにおける視差ベクトルが、擬似動きベクトルmvによって示された領域における視差ベクトルと等しいとしてカメラ間予測を行うことに相当する。すなわち、単一オブジェクト内でデプスマップに生じた誤差を補償してカメラ間予測を行うことが可能となる。
また、ステップS1503において符号化対象画像上の座標値としてサブブロックの位置を用い、ステップS1504においてサブブロックの参照画像に対する視差ベクトルとしてdv+mvを用いる場合は、サブブロックにおける視差ベクトルが、擬似動きベクトルmvによって示された領域における視差ベクトルと等しく、擬似動きベクトルmvによって示された領域の対応する参照画像上の領域と、サブブロックとが対応するとしてカメラ間予測を行うことに相当する。すなわち、単一オブジェクト内でデプスマップに生じた誤差と、投影モデル誤差など様々な要因によって生じるズレを補償して予測を行うことが可能となる。
ステップS1503とステップS1504とで実現される処理は、サブブロックsblkに対して1つのデプス値が与えられた際に、カメラ間予測画像を生成する処理の1実施形態である。本発明では、サブブロックに対して与えられた1つのデプス値からカメラ間予測画像を生成できれば、別の方法を用いても構わない。例えば、サブブロックが1つのデプス平面に属すると仮定することで、参照画像上の対応領域(サブブロックと同じ形状や大きさである必要はない)を同定し、その対応領域に対する参照画像をワーピングすることでカメラ間予測画像を生成しても構わない。また、サブブロックを擬似動きベクトルの分だけずらしたブロックの参照画像上の対応領域に対する画像を、サブブロックに対してワーピングすることでカメラ間予測画像を生成しても構わない。
また、カメラの投影モデルのモデル化、多視点画像の平行化(レクティフィケーション)、カメラパラメータの推定などで生じる誤差や、デプス値の誤差を、更に詳細に補正するために、上記視差ベクトルに加えて、参照画像上での補正ベクトルcvを用いても構わない。その場合、ステップS1504では、視差ベクトルdvの代わりにdv+cvを用いる。なお、どのようなベクトルを補正ベクトルとしても構わないが、効率的な補正ベクトルの設定には、符号化対象領域におけるカメラ間予測画像と符号化対象画像の誤差や、符号化対象領域におけるレート歪みコストの最小化を用いることができる。
補正ベクトルは復号側で同じものが得られれば、任意のベクトルを用いても構わない。例えば、任意のベクトルを設定し、そのベクトルを符号化することで復号側へ通知しても構わない。ベクトルを符号化して伝送する場合は、サブブロックsblkごとに符号化して伝送しても構わないが、ブロックblkごとに一つの補正ベクトルを設定することで、その符号化で必要となる符号量を抑えることができる。
なお、補正ベクトルが符号化されている場合は、復号側ではビットストリームから適切なタイミング(サブブロック毎やブロック毎)でベクトルを復号し、復号したベクトルを補正ベクトルとして使用する。
ブロックやサブブロックごとに、使用したカメラ間予測画像に関する情報を蓄積する場合、デプスを用いた視点合成画像を参照したことを示す情報を蓄積しても構わないし、実際にカメラ間予測画像を生成する際に使用した情報を蓄積しても構わない。なお、蓄積された情報は、別のブロックや別のフレームを符号化または復号する際に参照される。例えば、あるブロックに対するベクトル情報(視差補償予測に用いるベクトルなど)を符号化または復号する際に、そのブロック周辺の既に符号化済みのブロックについて蓄積されているベクトル情報から、予測ベクトル情報を生成して、予測ベクトル情報との差分のみ符号化または復号しても構わない。
デプスを用いた視点合成画像を参照したことを示す情報としては、対応する予測モード情報を蓄積しても構わないし、予測モードとしてはフレーム間予測モードに対応する情報を蓄積し、その際の参照フレームとして視点合成画像に対応する参照フレーム情報を蓄積しても構わない。また、ベクトル情報として、擬似動きベクトルmvを蓄積しても構わないし、擬似動きベクトルmvと補正ベクトルcvとを蓄積しても構わない。
実際にカメラ間予測画像を生成する際に使用した情報としては、予測モードとしてはフレーム間予測モードに対応する情報を蓄積し、その際の参照フレームとして参照画像を蓄積しても構わない。また、ベクトル情報としては、サブブロックごとに、視差ベクトルdvまたは補正された視差ベクトルdv+cvを蓄積しても構わない。なお、ワーピング等を用いた場合など、サブブロック内で2つ以上の視差ベクトルが使用されている場合がある。その場合は、全ての視差ベクトルを蓄積しても構わないし、予め定められた方法で、サブブロックごとに1つの視差ベクトルを選択して蓄積しても構わない。1つの視差ベクトルを選択する方法としては、例えば、視差量が最大の視差ベクトルとする方法や、サブブロックの特定の位置(左上など)における視差ベクトルとする方法などがある。
次に、画像復号装置について説明する。図5は、本実施形態における画像復号装置の構成を示すブロック図である。画像復号装置200は、図5に示すように、ビットストリーム入力部201、ビットストリームメモリ202、参照画像入力部203、参照画像メモリ204、デプスマップ入力部205、デプスマップメモリ206、擬似動きベクトル設定部207、参照領域デプス生成部208、カメラ間予測画像生成部209、及び画像復号部210を備えている。
ビットストリーム入力部201は、復号対象となる画像に対するビットストリームを入力する。以下では、この復号対象となる画像を復号対象画像と呼ぶ。ここではカメラBの画像を指す。また、以下では、復号対象画像を撮影したカメラ(ここではカメラB)を復号対象カメラと呼ぶ。ビットストリームメモリ202は、入力した復号対象画像に対するビットストリームを記憶する。参照画像入力部203は、カメラ間予測画像(視点合成画像、視差補償画像)を生成する際に参照する画像を入力する。以下では、ここで入力された画像を参照画像と呼ぶ。ここではカメラAの画像が入力されるものとする。参照画像メモリ204は、入力した参照画像を記憶する。以下では、参照画像を撮影したカメラ(ここではカメラA)を参照カメラと称する。
デプスマップ入力部205は、カメラ間予測画像を生成する際に参照するデプスマップを入力する。ここでは、復号対象画像に対するデプスマップを入力するものとする。なお、デプスマップとは対応する画像の各画素に写っている被写体の3次元位置を表すものである。別途与えられるカメラパラメータ等の情報によって3次元位置が得られるものであれば、デプスマップはどのような情報でもよい。例えば、カメラから被写体までの距離や、画像平面とは平行ではない軸に対する座標値、別のカメラ(例えばカメラA)に対する視差量を用いることができる。また、ここでは視差量が得られれば構わないので、デプスマップではなく、視差量を直接表現した視差マップを用いても構わない。なお、ここではデプスマップとして画像の形態で渡されるものとしているが、同様の情報が得られるのであれば、画像の形態でなくても構わない。デプスマップメモリ206は、入力されたデプスマップを記憶する。
擬似動きベクトル設定部207は、復号対象画像を分割したブロックごとに、デプスマップ上での擬似動きベクトルを設定する。参照領域デプス生成部208は、デプスマップと擬似動きベクトルとを用いて、復号対象画像を分割したブロックごとに、カメラ間予測画像を生成する際に用いるデプス情報であるところの参照領域デプスを生成する。カメラ間予測画像生成部209は、参照領域デプスを用いて、復号対象画像の画素と参照画像の画素との対応関係を求め、復号対象画像に対するカメラ間予測画像を生成する。画像復号部210は、カメラ間予測画像を用いて、ビットストリームから復号対象画像を復号して復号画像を出力する。
次に、図6を参照して、図5に示す画像復号装置200の動作を説明する。図6は、図5に示す画像復号装置200の動作を示すフローチャートである。まず、ビットストリーム入力部201は、復号対象画像を符号化したビットストリームを入力し、ビットストリームメモリ202に記憶する(ステップS21)。これと並行して、参照画像入力部203は参照画像を入力し、参照画像メモリ204に記憶する。また、デプスマップ入力部205はデプスマップを入力し、デプスマップメモリ206に記憶する(ステップS22)。
なお、ステップS22で入力される参照画像とデプスマップは、符号化側で使用されたものと同じものとする。これは符号化装置で使用したものと全く同じ情報を用いることで、ドリフト等の符号化ノイズの発生を抑えるためである。ただし、そのような符号化ノイズの発生を許容する場合には、符号化時に使用されたものと異なるものが入力されてもよい。デプスマップに関しては、別途復号したもの以外に、複数のカメラに対して復号された多視点画像に対してステレオマッチング等を適用することで推定したデプスマップや、復号された視差ベクトルや擬似動きベクトルなどを用いて推定されるデプスマップなどを用いることもある。
次に、画像復号装置200は、復号対象画像を分割したブロックごとに、カメラ間予測画像を作りながら、ビットストリームから復号対象画像を復号する。すなわち、復号対象画像を分割したブロックのインデックスを示す変数blkを0に初期化した後(ステップS23)、blkに1ずつ加算しながら(ステップS27)、blkがnumBlksになるまで(ステップS28)、以下の処理(ステップS24〜ステップS26)を繰り返す。なお、numBlksは復号対象画像中の復号処理を行う単位ブロックの個数を表す。
復号対象画像のブロックごとに行われる処理では、まず、擬似動きベクトル設定部207において、デプスマップ上でのブロックblkの擬似的な動きを表す擬似動きベクトルmvを設定する(ステップS24)。擬似的な動きとは、エピポーラ幾何に従ってデプス情報を用いて対応点を求めた際に生じる位置ずれ(誤差)を指す。ここでは、どのような方法を用いて擬似動きベクトルを設定しても構わないが、符号化側で用いられた擬似動きベクトルと同じものが得られる必要がある。
例えば、符号化時に使用した擬似動きベクトルがビットストリームに多重化されている場合、そのベクトルを復号して、擬似動きベクトルmvとして設定しても構わない。この場合、図7に示すように、画像復号装置200は、擬似動きベクトル設定部207の代わりに、ビットストリーム分離部211と擬似動きベクトル復号部212を備えればよい。図7は、図5に示す画像復号装置200の変形例を示すブロック図である。ビットストリーム分離部211は、入力されたビットストリームから擬似動きベクトルに対するビットストリームと、復号対象画像に対するビットストリームを分離して出力する。擬似動きベクトル復号部212は擬似動きベクトルに対するビットストリームから、符号化時に使用された擬似動きベクトルを復号して、復号した擬似動きベクトルを参照領域デプス生成部208に通知する。
なお、ブロックごとに擬似動きベクトルを設定するのではなく、フレームやスライスなどのブロックよりも大きな単位ごとにグローバルな擬似動きベクトルを設定し、そのフレームやスライス内のブロックでは、設定されたグローバル擬似動きベクトルをそのブロックに対する擬似動きベクトルとして用いても構わない。この場合、ブロックごとに行われる処理の前に、グローバル擬似動きベクトルを設定し、ブロックごとに擬似動きベクトルを設定するステップ(ステップS24)をスキップする。
次に参照領域デプス生成部208及びカメラ間予測画像生成部209において、ブロックblkに対するカメラ間予測画像を生成する(ステップS25)。ここでの処理は前述の図2に示すステップS15と同じであるので、詳細な説明を省略する。
カメラ間予測画像を得たら、次に、画像復号部210は、カメラ間予測画像を予測画像として用いながら、ビットストリームから復号対象画像を復号して出力する(ステップS26)。この結果得られる復号画像が画像復号装置200の出力となる。なお、ビットストリームを正しく復号できるならば、復号にはどのような方法を用いてもよい。一般的には、符号化時に用いられた方法に対応する方法が用いられる。
MPEG−2やH.264、JPEGなどの一般的な動画像符号化または画像符号化で符号化されている場合は、ブロックごとに、エントロピー復号、逆2値化、逆量子化などを施した後、IDCT(逆離散コサイン変換)などの逆周波数変換を施して予測残差信号を得た後、予測画像を加え、画素値範囲でクリッピングすることで復号を行う。
なお、本実施形態では、全てのブロックにおいてカメラ間予測画像を予測画像として用いたが、ブロックごとに異なる方法で生成された画像を予測画像として用いても構わない。その場合、どの方法で生成された画像を予測画像として用いたかを、判別して適切な予測画像を使用する必要がある。例えば、H.264のように、予測画像を生成する方法(モードやベクトル情報など)を示した情報が符号化されて、ビットストリームに含まれている場合、その情報を復号することで適切な予測画像を選択して復号を行っても構わない。なお、カメラ間予測画像を予測画像として用いないブロックに対しては、カメラ間予測画像の生成にかかわる処理(ステップS24及びS25)を省略することが可能である。
また、前述した説明においては、1フレームを符号化及び復号する処理を説明したが、複数フレーム繰り返すことで動画像符号化にも本実施形態を適用することができる。また、動画像の一部のフレームや一部のブロックにのみ本実施形態を適用することもできる。さらに、前述した説明では画像符号化装置及び画像復号装置の構成及び処理動作を説明したが、これら画像符号化装置及び画像復号装置の各部の動作に対応した処理動作によって本発明の画像符号化方法及び画像復号方法を実現することができる。
図8は、前述した画像符号化装置100をコンピュータとソフトウェアプログラムとによって構成する場合のハードウェア構成を示すブロック図である。図8に示すシステムは、プログラムを実行するCPU(Central Processing Unit)50と、CPU50がアクセスするプログラムやデータが格納されるRAM(Random Access Memory)等のメモリ51と、カメラ等からの符号化対象の画像信号を入力する符号化対象画像入力部52(ディスク装置等による画像信号を記憶する記憶部でもよい)と、カメラ等からの参照対象の画像信号を入力する参照画像入力部53(ディスク装置等による画像信号を記憶する記憶部でもよい)と、デプスカメラ等からの符号化対象画像を撮影したカメラに対するデプスマップを入力するデプスマップ入力部54(ディスク装置等によるデプスマップを記憶する記憶部でもよい)と、本発明の実施形態として説明した画像符号化処理をCPU50に実行させるソフトウェアプログラムである画像符号化プログラム551が格納されたプログラム記憶装置55と、CPU50がメモリ51にロードされた画像符号化プログラム551を実行することにより生成されたビットストリームを、例えばネットワークを介して出力するビットストリーム出力部56(ディスク装置等によるビットストリームを記憶する記憶部でもよい)とが、バスで接続された構成になっている。
図9は、前述した画像復号装置200をコンピュータとソフトウェアプログラムとによって構成する場合のハードウェア構成を示すブロック図である。図9に示すシステムは、プログラムを実行するCPU60と、CPU60がアクセスするプログラムやデータが格納されるRAM等のメモリ61と、画像符号化装置が本手法により符号化したビットストリームを入力するビットストリーム入力部62(ディスク装置等による画像信号を記憶する記憶部でもよい)と、カメラ等からの参照対象の画像信号を入力する参照画像入力部63(ディスク装置等による画像信号を記憶する記憶部でもよい)と、デプスカメラ等からの復号対象を撮影したカメラに対するデプスマップを入力するデプスマップ入力部64(ディスク装置等によるデプス情報を記憶する記憶部でもよい)と、本発明の実施形態として説明した画像復号処理をCPU60に実行させるソフトウェアプログラムである画像復号プログラム651が格納されたプログラム記憶装置65と、CPU60がメモリ61にロードされた画像復号プログラム651を実行することにより、ビットストリームを復号して得られた復号対象画像を、再生装置などに出力する復号対象画像出力部66(ディスク装置等による画像信号を記憶する記憶部でもよい)とが、バスで接続された構成になっている。
また、図1及び図3に示す画像符号化装置ならびに図5及び図7に示す画像復号装置における各処理部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより画像符号化処理と画像復号処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OS(Operating System)や周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWW(World Wide Web)システムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM(Read Only Memory)、CD(Compact Disc)−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、上記プログラムは、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
以上、図面を参照して本発明の実施形態を説明してきたが、上記実施形態は本発明の例示に過ぎず、本発明が上記実施形態に限定されるものではないことは明らかである。したがって、本発明の技術思想及び範囲を逸脱しない範囲で構成要素の追加、省略、置換、その他の変更を行っても良い。
本発明は、符号化(復号)対象画像に対するデプスマップを用いて、符号化(復号)対象画像に対するカメラ間予測を行う際に、デプスマップ等にノイズが含まれる場合においても、高い符号化効率を少ない演算量で達成することが不可欠な用途に適用できる。
101・・・符号化対象画像入力部、102・・・符号化対象画像メモリ、103・・・参照画像入力部、104・・・参照画像メモリ、105・・・デプスマップ入力部、106・・・デプスマップメモリ、107・・・擬似動きベクトル設定部、108・・・参照領域デプス生成部、109・・・カメラ間予測画像生成部、110・・・画像符号化部、111・・・擬似動きベクトル符号化部、112・・・多重化部、201・・・ビットストリーム入力部、202・・・ビットストリームメモリ、203・・・参照画像入力部、204・・・参照画像メモリ、205・・・デプスマップ入力部、206・・・デプスマップメモリ、207・・・擬似動きベクトル設定部、208・・・参照領域デプス生成部、209・・・カメラ間予測画像生成部、210・・・画像復号部、211・・・ビットストリーム分離部、212・・・擬似動きベクトル復号部
本発明は、多視点画像を符号化及び復号する画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム及び画像復号プログラに関する。
本願は、2012年12月27日に日本へ出願された日本特願2012−284694号に対して優先権を主張し、その内容をここに援用する。
本発明は、このような事情に鑑みてなされたもので、視点合成画像上で擬似的な動きを補償する際に、画像信号の予測効率が著しく低下することを抑えつつ、少ない演算量で視点合成画像に対する小数画素精度の擬似動き補償予測を実現することが可能な画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム及び画像復号プログラを提供することを目的とする。

Claims (20)

  1. 複数の異なる視点の画像からなる多視点画像を符号化する際に、符号化対象画像とは異なる視点に対する符号化済みの参照画像と、前記符号化対象画像に対するデプスマップとを用いて、異なる視点間で画像を予測しながら符号化を行う画像符号化装置であって、
    前記符号化対象画像を分割した符号化対象領域に対して、前記デプスマップ上の領域を示す擬似動きベクトルを設定する擬似動きベクトル設定部と、
    前記擬似動きベクトルによって示される前記デプスマップ上の前記領域をデプス領域として設定するデプス領域設定部と、
    前記デプスマップの整数画素位置のデプス情報を用いて、前記符号化対象領域内の整数画素位置の画素に対応する前記デプス領域内の整数または小数位置の画素に対して、参照領域デプスとなるデプス情報を生成する参照領域デプス生成部と、
    前記参照領域デプスと前記参照画像とを用いて、前記符号化対象領域に対する視点間予測画像を生成する視点間予測部と
    を備える画像符号化装置。
  2. 複数の異なる視点の画像からなる多視点画像を符号化する際に、符号化対象画像とは異なる視点に対する符号化済みの参照画像と、前記符号化対象画像に対するデプスマップとを用いて、視点間で画像を予測しながら符号化を行う画像符号化装置であって、
    前記デプスマップに小数画素位置の画素に対するデプス情報を生成し小数画素精度デプスマップとする小数画素精度デプス情報生成部と、
    前記小数画素精度デプスマップと前記参照画像とを用いて、前記符号化対象画像の整数及び小数画素位置の画素に対する視点合成画像を生成する視点合成画像生成部と、
    前記符号化対象画像を分割した符号化対象領域に対して、前記視点合成画像上の領域を示す小数画素精度の擬似動きベクトルを設定する擬似動きベクトル設定部と、
    前記擬似動きベクトルによって示される前記視点合成画像上の前記領域に対する画像情報を視点間予測画像とする視点間予測部と、
    を備える画像符号化装置。
  3. 複数の異なる視点の画像からなる多視点画像を符号化する際に、符号化対象画像とは異なる視点に対する符号化済みの参照画像と、前記符号化対象画像に対するデプスマップとを用いて、異なる視点間で画像を予測しながら符号化を行う画像符号化装置であって、
    前記符号化対象画像を分割した符号化対象領域に対して、前記符号化対象画像上の領域を示す擬似動きベクトルを設定する擬似動きベクトル設定部と、
    前記符号化対象領域内の画素に対応する前記デプスマップ上の画素に対するデプス情報を、参照領域デプスとして設定する参照領域デプス設定部と、
    前記擬似動きベクトルによって示される前記領域に対して、当該領域のデプスが前記参照領域デプスであるとして、前記符号化対象領域に対する視点間予測画像を、前記参照画像を用いて生成する視点間予測部と
    を備える画像符号化装置。
  4. 複数の異なる視点の画像からなる多視点画像の符号データから、復号対象画像を復号する際に、前記復号対象画像とは異なる視点に対する復号済みの参照画像と、前記復号対象画像に対するデプスマップとを用いて、異なる視点間で画像を予測しながら復号を行う画像復号装置であって、
    前記復号対象画像を分割した復号対象領域に対して、前記デプスマップ上の領域を示す擬似動きベクトルを設定する擬似動きベクトル設定部と、
    前記擬似動きベクトルによって示される前記デプスマップ上の前記領域をデプス領域として設定するデプス領域設定部と、
    前記デプスマップの整数画素位置のデプス情報を用いて、前記復号対象領域内の整数画素位置の画素に対応する前記デプス領域内の整数または小数位置の画素に対して、復号対象領域デプスとなるデプス情報を生成する復号対象領域デプス生成部と、
    前記復号対象領域デプスと前記参照画像とを用いて、前記復号対象領域に対する視点間予測画像を生成する視点間予測部と
    を備える画像復号装置。
  5. 前記視点間予測部は、前記復号対象領域デプスから得られる視差ベクトルを用いて、前記視点間予測画像を生成する請求項4に記載の画像復号装置。
  6. 前記視点間予測部は、前記復号対象領域デプスから得られる視差ベクトルと前記擬似動きベクトルを用いて、前記視点間予測画像を生成する請求項4に記載の画像復号装置。
  7. 前記視点間予測部は、前記復号対象領域を分割した予測領域ごとに、前記復号対象領域デプス上で当該予測領域に対応する領域内のデプス情報を用いて、前記参照画像に対する視差ベクトルを設定し、当該視差ベクトルと前記参照画像とを用いて視差補償画像を生成することにより前記復号対象領域に対する前記視点間予測画像を生成する請求項4から6のいずれか1項に記載の画像復号装置。
  8. 前記視差ベクトルを蓄積する視差ベクトル蓄積部と、
    前記蓄積された視差ベクトルを用いて、前記復号対象領域に隣接する領域における予測視差情報を生成する視差予測部とを更に有する請求項7に記載の画像復号装置。
  9. 前記視差ベクトルを補正するベクトルである補正視差ベクトルを設定する補正視差ベクトル部をさらに有し、
    前記視点間予測部は、前記視差ベクトルを前記補正視差ベクトルで補正したベクトルと、前記参照画像とを用いて視差補償画像を生成することにより前記視点間予測画像を生成する請求項7に記載の画像復号装置。
  10. 前記補正視差ベクトルを蓄積する補正視差ベクトル蓄積部と、
    前記蓄積された補正視差ベクトルを用いて、前記復号対象領域に隣接する領域における予測視差情報を生成する視差予測部とを更に有する請求項9に記載の画像復号装置。
  11. 前記復号対象領域デプス生成部は、前記デプス領域内の小数画素位置の画素に対するデプス情報を、周辺の整数画素位置の画素に対するデプス情報とする請求項4から10のいずれか1項に記載の画像復号装置。
  12. 複数の異なる視点の画像からなる多視点画像の符号データから、復号対象画像を復号する際に、前記復号対象画像とは異なる視点に対する復号済みの参照画像と、前記復号対象画像に対するデプスマップとを用いて、異なる視点間で画像を予測しながら復号を行う画像復号装置であって、
    前記復号対象画像を分割した復号対象領域に対して、前記復号対象画像上の領域を示す擬似動きベクトルを設定する擬似動きベクトル設定部と、
    前記復号対象領域内の画素に対応する前記デプスマップ上の画素に対するデプス情報を、復号対象領域デプスとして設定する復号対象領域デプス設定部と、
    前記擬似動きベクトルによって示される前記領域に対して、当該領域のデプスが前記復号対象領域デプスであるとして、前記復号対象領域に対する視点間予測画像を、前記参照画像を用いて生成する視点間予測部と
    を備える画像復号装置。
  13. 前記視点間予測部は、前記復号対象領域を分割した予測領域ごとに、前記復号対象領域デプス上で当該予測領域に対応する領域内のデプス情報を用いて、前記参照画像に対する視差ベクトルを設定し、前記擬似動きベクトルと当該視差ベクトルと前記参照画像とを用いて視差補償画像を生成することにより前記復号対象領域に対する前記視点間予測画像を生成する請求項12に記載の画像復号装置。
  14. 前記視差ベクトルと前記擬似動きベクトルとを用いて表される前記復号対象領域における前記参照画像に対する参照ベクトルを蓄積する参照ベクトル蓄積部と、
    前記蓄積された参照ベクトルを用いて、前記復号対象領域に隣接する領域における予測視差情報を生成する視差予測部とを更に有する請求項13に記載の画像復号装置。
  15. 複数の異なる視点の画像からなる多視点画像を符号化する際に、符号化対象画像とは異なる視点に対する符号化済みの参照画像と、前記符号化対象画像に対するデプスマップとを用いて、異なる視点間で画像を予測しながら符号化を行う画像符号化方法であって、
    前記符号化対象画像を分割した符号化対象領域に対して、前記デプスマップ上の領域を示す擬似動きベクトルを設定する擬似動きベクトル設定ステップと、
    前記擬似動きベクトルによって示される前記デプスマップ上の前記領域をデプス領域として設定するデプス領域設定ステップと、
    前記デプスマップの整数画素位置のデプス情報を用いて、前記符号化対象領域内の整数画素位置の画素に対応する前記デプス領域内の整数または小数位置の画素に対して、参照領域デプスとなるデプス情報を生成する参照領域デプス生成ステップと、
    前記参照領域デプスと前記参照画像とを用いて、前記符号化対象領域に対する視点間予測画像を生成する視点間予測ステップと
    を有する画像符号化方法。
  16. 複数の異なる視点の画像からなる多視点画像を符号化する際に、符号化対象画像とは異なる視点に対する符号化済みの参照画像と、前記符号化対象画像に対するデプスマップとを用いて、異なる視点間で画像を予測しながら符号化を行う画像符号化方法であって、
    前記符号化対象画像を分割した符号化対象領域に対して、前記符号化対象画像上の領域を示す擬似動きベクトルを設定する擬似動きベクトル設定ステップと、
    前記符号化対象領域内の画素に対応する前記デプスマップ上の画素に対するデプス情報を、参照領域デプスとして設定する参照領域デプス設定ステップと、
    前記擬似動きベクトルによって示される前記領域に対して、当該領域のデプスが前記参照領域デプスであるとして、前記符号化対象領域に対する視点間予測画像を、前記参照画像を用いて生成する視点間予測ステップと
    を有する画像符号化方法。
  17. 複数の異なる視点の画像からなる多視点画像の符号データから、復号対象画像を復号する際に、前記復号対象画像とは異なる視点に対する復号済みの参照画像と、前記復号対象画像に対するデプスマップとを用いて、異なる視点間で画像を予測しながら復号を行う画像復号方法であって、
    前記復号対象画像を分割した復号対象領域に対して、前記デプスマップ上の領域を示す擬似動きベクトルを設定する擬似動きベクトル設定ステップと、
    前記擬似動きベクトルによって示される前記デプスマップ上の前記領域をデプス領域として設定するデプス領域設定ステップと、
    前記デプスマップの整数画素位置のデプス情報を用いて、前記復号対象領域内の整数画素位置の画素に対応する前記デプス領域内の整数または小数位置の画素に対して、復号対象領域デプスとなるデプス情報を生成する復号対象領域デプス生成ステップと、
    前記復号対象領域デプスと前記参照画像とを用いて、前記復号対象領域に対する視点間予測画像を生成する視点間予測ステップと
    を有する画像復号方法。
  18. 複数の異なる視点の画像からなる多視点画像の符号データから、復号対象画像を復号する際に、前記復号対象画像とは異なる視点に対する復号済みの参照画像と、前記復号対象画像に対するデプスマップとを用いて、異なる視点間で画像を予測しながら復号を行う画像復号方法であって、
    前記復号対象画像を分割した復号対象領域に対して、前記復号対象画像上の領域を示す擬似動きベクトルを設定する擬似動きベクトル設定ステップと、
    前記復号対象領域内の画素に対応する前記デプスマップ上の画素に対するデプス情報を、復号対象領域デプスとして設定する復号対象領域デプス設定ステップと、
    前記擬似動きベクトルによって示される前記領域に対して、当該領域のデプスが前記復号対象領域デプスであるとして、前記復号対象領域に対する視点間予測画像を、前記参照画像を用いて生成する視点間予測ステップと
    を有する画像復号方法。
  19. コンピュータに、請求項15または16に記載の画像符号化方法を実行させるための画像符号化プログラム。
  20. コンピュータに、請求項17または18に記載の画像復号方法を実行させるための画像復号プログラム。
JP2014554427A 2012-12-27 2013-12-20 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム及び画像復号プログラム Active JP6053200B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012284694 2012-12-27
JP2012284694 2012-12-27
PCT/JP2013/084377 WO2014103967A1 (ja) 2012-12-27 2013-12-20 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体

Publications (2)

Publication Number Publication Date
JP6053200B2 JP6053200B2 (ja) 2016-12-27
JPWO2014103967A1 true JPWO2014103967A1 (ja) 2017-01-12

Family

ID=51021050

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014554427A Active JP6053200B2 (ja) 2012-12-27 2013-12-20 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム及び画像復号プログラム

Country Status (5)

Country Link
US (1) US20150350678A1 (ja)
JP (1) JP6053200B2 (ja)
KR (1) KR20150079905A (ja)
CN (1) CN104854862A (ja)
WO (1) WO2014103967A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014103966A1 (ja) * 2012-12-27 2014-07-03 日本電信電話株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、および画像復号プログラム
US9800895B2 (en) * 2013-06-27 2017-10-24 Qualcomm Incorporated Depth oriented inter-view motion vector prediction
KR101764531B1 (ko) 2016-02-29 2017-08-04 한경대학교 산학협력단 네트워크 기반 다중 카메라 영상 처리 및 데이터 전송 방법 및 그 시스템
CN106931910B (zh) * 2017-03-24 2019-03-05 南京理工大学 一种基于多模态复合编码和极线约束的高效三维图像获取方法
US20200242832A1 (en) * 2017-08-09 2020-07-30 Sharp Kabushiki Kaisha Image processing device, display device, image transmission device, image processing method, control program, and recording medium
KR102601027B1 (ko) * 2017-12-06 2023-11-10 한국전자통신연구원 다중시점영상의 디스플레이 장치 및 방법
US11611773B2 (en) * 2018-04-06 2023-03-21 Qatar Foundation For Education, Science And Community Development System of video steganalysis and a method for the detection of covert communications
JP7151141B2 (ja) * 2018-04-12 2022-10-12 富士フイルムビジネスイノベーション株式会社 符号化装置、復号装置及びプログラム
EP3672250A1 (en) * 2018-12-21 2020-06-24 InterDigital VC Holdings, Inc. Method and apparatus to encode and decode images of points of a sphere

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008035665A1 (fr) * 2006-09-20 2008-03-27 Nippon Telegraph And Telephone Corporation procédé DE CODAGE D'IMAGE, PROCÉDÉ DE DÉCODAGE, DISPOSITIF associÉ, DISPOSITIF DE DÉCODAGE D'IMAGE, programme associÉ, et support de stockage contenant le programme
WO2010095471A1 (ja) * 2009-02-23 2010-08-26 日本電信電話株式会社 多視点画像符号化方法、多視点画像復号方法、多視点画像符号化装置、多視点画像復号装置、多視点画像符号化プログラムおよび多視点画像復号プログラム
WO2011105297A1 (ja) * 2010-02-23 2011-09-01 日本電信電話株式会社 動きベクトル推定方法、多視点映像符号化方法、多視点映像復号方法、動きベクトル推定装置、多視点映像符号化装置、多視点映像復号装置、動きベクトル推定プログラム、多視点映像符号化プログラム、及び多視点映像復号プログラム
WO2012086829A1 (ja) * 2010-12-21 2012-06-28 日本電気株式会社 動き推定装置、動き推定方法、動き推定プログラム、および動画像符号化装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009091383A2 (en) * 2008-01-11 2009-07-23 Thomson Licensing Video and depth coding
CN100563339C (zh) * 2008-07-07 2009-11-25 浙江大学 一种利用深度信息的多通道视频流编码方法
KR101158491B1 (ko) * 2008-12-08 2012-06-20 한국전자통신연구원 다시점 영상 부호화, 복호화 방법 및 그 장치.
KR20100117888A (ko) * 2009-04-27 2010-11-04 주식회사 훈솔루션 시점확인이 가능한 이메일 시스템 및 그 방법
CN101729891B (zh) * 2009-11-05 2012-06-20 宁波大学 一种多视点深度视频的编码方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008035665A1 (fr) * 2006-09-20 2008-03-27 Nippon Telegraph And Telephone Corporation procédé DE CODAGE D'IMAGE, PROCÉDÉ DE DÉCODAGE, DISPOSITIF associÉ, DISPOSITIF DE DÉCODAGE D'IMAGE, programme associÉ, et support de stockage contenant le programme
WO2010095471A1 (ja) * 2009-02-23 2010-08-26 日本電信電話株式会社 多視点画像符号化方法、多視点画像復号方法、多視点画像符号化装置、多視点画像復号装置、多視点画像符号化プログラムおよび多視点画像復号プログラム
WO2011105297A1 (ja) * 2010-02-23 2011-09-01 日本電信電話株式会社 動きベクトル推定方法、多視点映像符号化方法、多視点映像復号方法、動きベクトル推定装置、多視点映像符号化装置、多視点映像復号装置、動きベクトル推定プログラム、多視点映像符号化プログラム、及び多視点映像復号プログラム
WO2012086829A1 (ja) * 2010-12-21 2012-06-28 日本電気株式会社 動き推定装置、動き推定方法、動き推定プログラム、および動画像符号化装置

Also Published As

Publication number Publication date
KR20150079905A (ko) 2015-07-08
US20150350678A1 (en) 2015-12-03
JP6053200B2 (ja) 2016-12-27
CN104854862A (zh) 2015-08-19
WO2014103967A1 (ja) 2014-07-03

Similar Documents

Publication Publication Date Title
JP6053200B2 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム及び画像復号プログラム
JP6027143B2 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、および画像復号プログラム
JP5934375B2 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体
JP5833757B2 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体
JP5947977B2 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム及び画像復号プログラム
KR101648094B1 (ko) 화상 부호화 방법, 화상 복호 방법, 화상 부호화 장치, 화상 복호 장치, 화상 부호화 프로그램, 화상 복호 프로그램 및 기록매체
JP6232076B2 (ja) 映像符号化方法、映像復号方法、映像符号化装置、映像復号装置、映像符号化プログラム及び映像復号プログラム
JP6307152B2 (ja) 画像符号化装置及び方法、画像復号装置及び方法、及び、それらのプログラム
JP6232075B2 (ja) 映像符号化装置及び方法、映像復号装置及び方法、及び、それらのプログラム
US20160037172A1 (en) Image encoding method, image decoding method, image encoding apparatus, image decoding apparatus, image encoding program, and image decoding program
JP4944046B2 (ja) 映像符号化方法,復号方法,符号化装置,復号装置,それらのプログラムおよびコンピュータ読み取り可能な記録媒体
WO2015056712A1 (ja) 動画像符号化方法、動画像復号方法、動画像符号化装置、動画像復号装置、動画像符号化プログラム、及び動画像復号プログラム
WO2015141549A1 (ja) 動画像符号化装置及び方法、及び、動画像復号装置及び方法

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161128

R150 Certificate of patent or registration of utility model

Ref document number: 6053200

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150