JP2009100070A - 多視点画像符号化方法、多視点画像符号化装置及び多視点画像符号化プログラム - Google Patents

多視点画像符号化方法、多視点画像符号化装置及び多視点画像符号化プログラム Download PDF

Info

Publication number
JP2009100070A
JP2009100070A JP2007267436A JP2007267436A JP2009100070A JP 2009100070 A JP2009100070 A JP 2009100070A JP 2007267436 A JP2007267436 A JP 2007267436A JP 2007267436 A JP2007267436 A JP 2007267436A JP 2009100070 A JP2009100070 A JP 2009100070A
Authority
JP
Japan
Prior art keywords
viewpoint
encoding
view
image
encoded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007267436A
Other languages
English (en)
Inventor
Hiroya Nakamura
博哉 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2007267436A priority Critical patent/JP2009100070A/ja
Publication of JP2009100070A publication Critical patent/JP2009100070A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】多視点画像の符号化において、視点間予測を行わずに多視点画像を符号化する場合、視点間の依存関係を示す視点依存情報の符号化を行わないことで、冗長な符号量を削減する。
【解決手段】シーケンス情報符号化部201は、MVC拡張部分以外のシーケンス情報、即ちAVC/H.264方式でのSPSを符号化する。視点数情報符号化部202、符号化順序情報符号化部203、視点間予測情報符号化部204、及び視点依存情報符号化部205は、シンタックス構造に従ってシーケンス全体に関連する情報(SPS)のMVC拡張部分を符号化する。視点間予測情報符号化部204は、視点間予測を用いて符号化するかどうかを示す視点間予測情報を符号化する。視点間予測を用いて符号化する場合のみ、視点依存情報符号化部205で視点依存情報を符号化する。
【選択図】図2

Description

本発明は多視点画像符号化方法、多視点画像符号化装置及び多視点画像符号化プログラムに係り、特に異なる視点から撮影された多視点画像を符号化して多視点画像符号化データを生成する多視点画像符号化方法、多視点画像符号化装置及び多視点画像符号化プログラムに関する。
<動画像符号化方式>
現在、時間軸上に連続する動画像をディジタル信号の情報として取り扱い、その際、効率の高い情報の放送、伝送又は蓄積等を目的とし、時間方向の冗長性を利用して動き補償予測を用い、空間方向の冗長性を利用して離散コサイン変換等の直交変換を用いて符号化圧縮するMPEG(Moving Picture Experts Group)などの符号化方式に準拠した装置、システムが、普及している。
1995年に制定されたMPEG−2ビデオ(ISO/IEC 13818−2)符号化方式は、汎用の動画像圧縮符号化方式として定義されており、プログレッシブ走査画像に加えてインターレース走査画像にも対応し、SDTV(標準解像度画像)のみならずHDTV(高精細画像)まで対応しており、光ディスクであるDVD(Digital Versatile Disk)や、D−VHS(登録商標)規格のディジタルVTRによる磁気テープなどの蓄積メディアや、ディジタル放送等のアプリケーションとして広く用いられている。
また、ネットワーク伝送や携帯端末等のアプリケーションにおいて、より高い符号化効率を目標とする、MPEG−4ビジュアル(ISO/IEC 14496−2)符号化方式の標準化が行われ、1998年に国際標準として制定された。
更に、国際標準化機構(ISO)と国際電気標準会議(IEC)のジョイント技術委員会(ISO/IEC)と、国際電気通信連合電気通信標準化部門(ITU−T)が共同でJVT(Joint Video Team)を組織し、共同作業によって2003年に、MPEG−4 AVC/H.264と呼ばれる符号化方式(ISO/IECでは14496−10、ITU‐TではH.264の規格番号がつけられている。以下、これをAVC/H.264符号化方式と呼ぶ)が国際標準として制定された。このAVC/H.264符号化方式では、従来のMPEG−2ビデオやMPEG−4ビジュアル等の符号化方式に比べ、より高い符号化効率を実現している。
MPEG−2ビデオやMPEG−4ビジュアル等の符号化方式のPピクチャ(順方向予測符号化画像)では、表示順序で直前のIピクチャまたはPピクチャのみから動き補償予測を行っていた。これに対して、AVC/H.264符号化方式では、Pピクチャ及びBピクチャは複数のピクチャを参照ピクチャとして用いることができ、この中からブロック毎に最適なものを選択して動き補償を行うことができる。また、表示順序で先行するピクチャに加えて、既に符号化済みの表示順序で後続のピクチャも参照することができる。また、MPEG−2ビデオやMPEG−4ビジュアル等の符号化方式のBピクチャは、表示順序で前方1枚の参照ピクチャ、後方1枚の参照ピクチャ、もしくはその2枚の参照ピクチャを同時に参照し、2つのピクチャの平均値を予測ピクチャとし、対象ピクチャと予測ピクチャの差分データを符号化していた。
一方、AVC/H.264符号化方式では、Bピクチャは表示順序で前方1枚、後方1枚という制約にとらわれず、前方や後方に関係なく任意の参照ピクチャを予測のために参照可能となった。さらに、Bピクチャを参照ピクチャとして参照することも可能となっている。PピクチャやBピクチャの時間方向のインター予測(動き補償予測)において、複数の参照ピクチャの候補から実際にどの参照ピクチャを参照しているかを指定するために参照ピクチャリストが定義されている。参照ピクチャは参照ピクチャリストに登録され、その特定はインデックスにより指定する。このインデックスは参照インデックスと呼ばれる。また、参照ピクチャリストは参照ピクチャリスト0と参照ピクチャリスト1が定義されており、Pスライスは参照ピクチャリスト0に登録されている参照ピクチャのみを参照してインター予測を行うことが可能であり、Bスライスは参照ピクチャリスト0、参照ピクチャリスト1の両方のリストに登録されている参照ピクチャを参照してインター予測を行うことが可能である。
更に、MPEG−2ビデオではピクチャ、MPEG−4ではビデオ・オブジェクト・プレーン(VOP)を1つの単位として、ピクチャ(VOP)毎の符号化モードが決められていたが、AVC/H.264符号化方式では、スライスを符号化の単位としており、1つのピクチャ内にIスライス、Pスライス、Bスライス等異なるスライスを混在させる構成にすることも可能となっている。
更に、AVC/H.264符号化方式ではビデオの画素信号(符号化モード、動きベクトル、DCT係数等)の符号化/復号処理を行うVCL(Video Coding Layer;ビデオ符号化層)と、NAL(Network Abstraction Layer;ネットワーク抽象層)が定義されている。
AVC/H.264符号化方式で符号化された符号化ビット列はNALの一区切りであるNALユニットを単位として構成される。NALユニットはVCLで符号化されたデータ(符号化モード、動きベクトル、DCT係数等)を含むVCL NALユニットと、VCLで生成されたデータを含まないnon−VCL NALユニットがある。non−VCL NALユニットにはシーケンス全体の符号化に関わるパラメータ情報が含まれているSPS(シーケンス・パラメータ・セット)や、ピクチャの符号化に関わるパラメータ情報が含まれているPPS(ピクチャ・パラメータ・セット)、VCLで符号化されたデータの復号に必須ではないSEI(補足付加情報)等がある。
それぞれのNALユニットのヘッダ部(先頭部)には常に”0”の値を持つフラグ(forbidden_zero_bit)、SPS、またはPPS、または参照ピクチャとなるスライスが含まれているかどうかを見分ける識別子(nal_ref_idc)、NALユニットの種類を見分ける識別子(nal_unit_type)が含まれる。nal_unit_typeは、VCL NALユニットの場合、”1”から”5”のいずれかの値を持つように規定されており、non−VCL NALユニットの場合、例えばSEIが”6”、SPSが”7”、PPSが”8”の値を持つように規定されている。復号側ではNALユニットの種類はNALユニットのヘッダ部に含まれるNALユニットの種類を見分ける識別子であるnal_unit_typeで識別することができる。
また、AVC/H.264符号化方式における符号化の基本の単位はピクチャを分割したスライスであり、VCL NALユニットはスライス単位となっている。そこで、いくつかのNALユニットを纏めたアクセス・ユニットと呼ばれる単位が定義されており、1アクセス・ユニットに1つの符号化されたピクチャが含まれている。
<多視点画像符号化方式>
一方、2眼式立体テレビジョンにおいては、2台のカメラにより異なる2方向から撮影された左眼用画像、右眼用画像を生成し、これを同一画面上に表示して立体画像を見せるようにしている。この場合、左眼用画像、及び右眼用画像はそれぞれ独立した画像として別個に伝送、あるいは記録されている。しかし、これでは単一の2次元画像の約2倍の情報量が必要となってしまう。
そこで、左右いずれか一方の画像を主画像とし、他方の画像(副画像)情報を一般的な圧縮符号化方法によって情報圧縮して情報量を抑える手法が提案されている(例えば、特許文献1参照)。この特許文献1に記載された立体テレビジョン画像伝送方式では、小領域毎に他方の画像での相関の高い相対位置を求め、その位置偏移量(視差ベクトル)と差信号(予測残差信号)とを伝送するようにしている。差信号も伝送、記録するのは、主画像と視差情報であるずれ量や位置偏移量を用いれば副画像に近い画像が復元できるが、物体の影になる部分など主画像がもたない副画像の情報は復元できないからである。
また、1996年に単視点画像の符号化国際標準であるMPEG−2ビデオ(ISO/IEC 13818−2)符号化方式に、マルチビュープロファイルと呼ばれるステレオ画像の符号化方式が追加された(ISO/IEC 13818−2/AMD3)。MPEG−2ビデオ・マルチビュープロファイルは左眼用画像を基本レイヤー、右眼用画像を拡張レイヤーで符号化する2レイヤーの符号化方式となっており、時間方向の冗長性を利用した動き補償予測や、空間方向の冗長性を利用した離散コサイン変換に加えて、視点間の冗長性を利用した視差補償予測を用いて符号化圧縮する。
また、3台以上のカメラで撮影された多視点画像に対して動き補償予測、視差補償予測を用いて情報量を抑える手法が提案されている(例えば、特許文献2参照)。この特許文献2に記載された画像高能率符号化方式は複数の視点の参照ピクチャとのパターンマッチングを行い、誤差が最小となる動き補償/視差補償予測画像を選択することにより、符号化効率を向上させている。
また、JVTではAVC/H.264符号化方式を多視点画像に拡張した多視点画像符号化(MVC:Multiview Video Coding(以下、MVC方式と呼ぶ))の標準化作業が進んでおり、現時点では規格の草案であるJD4.0(Joint Draft 4.0)を最新版として発行している(例えば、非特許文献1参照)。上記のMPEG−2ビデオ・マルチビュープロファイルと同様に、このMVC方式でも視点間の予測を取り入れることで、符号化効率を向上させている。
ここで、MVC方式で多視点画像の各視点の画像を符号化、及び符号化された符号化ビット列を復号する際の視点間、及び視点画像を構成する符号化対象画像間の参照依存関係について8視点の場合を例にとって説明する。図27は8視点からなる多視点画像を符号化する際の画像間の参照依存関係の一例を示す図であり、横軸は撮影(表示)順序での時間を示している。P(v,t)(視点v=0,1,2,・・・;時間t=0,1,2,・・・)は時間tにおける視点vの画像である。また、矢印の終点で指し示す画像が符号化/復号する画像で、その符号化/復号する画像を符号化/復号する際に時間方向のインター予測や視点間予測で参照する参照ピクチャは矢印の始点で指し示す画像である。更に、符号化/復号する画像を符号化/復号する際に時間方向のインター予測で参照する参照ピクチャは横方向の矢印の始点で指し示す画像であり、視点間予測で参照する参照ピクチャは縦方向の矢印の始点で指し示す画像である。
視点0の画像P(0,t)は、すべて他の視点の画像を参照せず、時間方向のインター予測(動き補償予測)を用いて通常のAVC/H.264と同様に符号化/復号する。また、視点0以外の視点(視点1〜7)では他の視点の復号画像から予測する視点間予測(視差補償予測)を用いている。例えば、視点2の画像P(2,0)は他の視点である視点0の画像P(0,0)の復号画像を参照ピクチャとし、視点間予測を用いて、符号化/復号する。また、視点1の画像P(1,0)は他の視点である視点0の画像P(0,0)と視点2の画像P(2,0)の各復号画像を参照ピクチャとし、視点間予測を用いて、符号化/復号する。
視点間の予測を取り入れるに際しては、AVC/H.264方式で既に定義されている参照ピクチャリストに、時間方向のインター予測(動き補償予測)に用いる参照ピクチャに加えて視点間予測に用いる参照ピクチャも登録できるように拡張することで対応している。
更に、MVC方式は、符号化される多視点画像の視点数や、視点間方向の符号化/復号順序、視点間予測によってもたらされる各視点間の参照依存関係をシーケンス全体として符号化する仕組みを持っており、シーケンス情報のパラメータセットであるSPS(シーケンス・パラメータ・セット)を拡張することにより符号化を行う。SPSのMVC拡張部分のシンタックス構造を図28を用いて説明する。図28に示すシンタックス構造はJD4.0で定義されているもので、「seq_parameter_set_mvc_extension」はSPSに含まれるMVCのための拡張である。
図28において、「num_views_minus1」は符号化する多視点画像の視点数を符号化するためのパラメータであり、視点数から「1」を引いた値である。「view_id[i]」はiによって指し示す視点方向での符号化順序での視点の視点IDを示す。すなわち、視点方向での符号化/復号順序がi番目の視点の視点IDを示す。続くシンタックス要素は視点間の依存関係を示す視点依存情報である。「num_anchor_refs_l0[i]」はview_id[i]に等しい視点IDを持つ視点、すなわち視点方向の符号化/復号順序でi番目の視点のアンカーピクチャのための参照ピクチャリスト0用に利用できる視点予測で参照できる視点の数である。
ここで、アンカーピクチャは復号時に異なる表示時刻の画像を参照ピクチャとして参照せずに復号することのできる画像である。アンカーピクチャの復号時に参照ピクチャとして用いることができるのは同時刻の他の視点のアンカーピクチャだけである。従って、アンカーピクチャは時間方向のインター予測を用いることはできない。例えば、図27に示す参照依存関係で符号化する場合は、P(0,0)、P(1,0)、P(2,0)、P(0,4)、P(1,4)、P(2,4)などがアンカーピクチャである。
また、図28の「anchor_ref_l0[i][j]」はview_id[i]に等しい視点IDを持つ視点、すなわち視点方向の符号化/復号順序でi番目の視点のアンカーピクチャ用に、初期化された参照ピクチャリスト0のj番目の視点間予測の参照として用いられる視点の視点IDの値を示す。「num_anchor_refs_l1[i]」はview_id[i]に等しい視点IDを持つ視点、すなわち視点方向の符号化/復号順序でi番目の視点のアンカーピクチャのための参照ピクチャリスト1用に利用できる視点間予測で参照できる視点の数である。「anchor_ref_l1[i][j]」はview_id[i]に等しい視点IDを持つ視点、すなわち視点方向の符号化/復号順序でi番目の視点のアンカーピクチャ用に、初期化された参照ピクチャリスト1のj番目の視点間予測の参照として用いられる視点の視点IDの値を示す。
また、「num_non_anchor_refs_l0[i]」はview_id[i]に等しい視点IDを持つ視点、すなわち視点方向の符号化/復号順序でi番目の視点のノンアンカーピクチャのための参照ピクチャリスト0用に利用できる視点間予測で参照できる視点の数である。ここで、ノンアンカーピクチャはアンカーピクチャを除く画像である。ノンアンカーピクチャの復号時に異なる表示時刻の画像を参照ピクチャとして参照することもできる。従って、時間方向のインター予測を用いることも可能である。例えば、図27では、P(0,1)、P(1,1)、P(2,1)、P(0,2)、P(1,2)、P(2,2)などがノンアンカーピクチャである。
また、図28の「non_anchor_ref_l0[i][j]」は、view_id[i]に等しい視点IDを持つ視点、すなわち視点方向の符号化/復号順序でi番目の視点のノンアンカーピクチャ用に、初期化された参照ピクチャリスト0のj番目の視点間予測の参照として用いられる視点の視点IDの値を示す。また、「num_non_anchor_refs_l1[i]」はview_id[i]に等しい視点IDを持つ視点、すなわち視点方向の符号化/復号順序でi番目の視点のノンアンカーピクチャのための参照ピクチャリスト1用に利用できる視点間予測で参照できる視点の数である。更に、「non_anchor_ref_l1[i][j]」はview_id[i]に等しい視点IDを持つ視点、すなわち視点方向の符号化/復号順序でi番目の視点のノンアンカーピクチャ用に、初期化された参照ピクチャリスト0のj番目の視点間予測の参照として用いられる視点の視点IDの値を示す。また、各シンタックス要素は指数ゴロム符号化(expothetical Golomb coding)と呼ばれる手法で符号無しで符号化される。
ここで用いる指数ゴロム符号化はユニバーサル符号化の一種で、変換テーブルを用いずに可変長符号化する方式である。指数ゴロム符号はprefixと呼ばれる“0”が連続したビット列の後に1ビットの“1”が続き、suffixと呼ばれる“0”又は“1”が連続したprefixのビット数と同じビット数のビット列が続く。prefixのビット数をnとし、suffixの値をsとすると、符号無し指数ゴロム符号で符号化されたビット列の値νは次式で導き出される。
ν=2n−1+s (1)
符号なし指数ゴロム符号で符号化されたビット列とコード番号の関係を図29に示す。例えば、これから復号するビット列が“0001010”の場合、最初に“0”が3つ連続するので、prefixのビット数nは「3」となる。次に続く“1”を省き、prefixのビット数3ビットに相当するsuffixのビット列は“010”であるので、このsuffixの値sは10進数で「2」である。従って、(1)式により、このビット列のコード番号νは9(=2−1+2)となる。
また、MVC方式で定義されている図28に示すシンタックス構造に従って、8視点からなる多視点画像を図27に示す参照依存関係で符号化する際のSPSのMVC拡張部分の各シンタックス要素とその値の一例を図30に示す。まず、図27に示す多視点画像の視点数は8視点であるので、「num_views_minus1」は「7」が符号無し指数ゴロム符号で符号化される。その際のビット列は“0001000”となり、7ビットである。次に、同一時刻での視点の符号化順序は視点0、視点2、視点1、視点4、視点3、視点6、視点5、視点7の順で符号化されるので、まず、「view_id[0]」の値は視点0の視点IDである「0」が符号無し指数ゴロム符号で符号化され、その際のビット列は“1”となり、1ビットである。同様に、「view_id[1]」の値は視点2の視点IDである「2」が符号化されてビット列は“011”となり、「view_id[2]」の値は視点1の視点IDである「1」が符号化されてビット列は“010”となる。以下の「view_id[3]」から「view_id[7]」も同様に符号化される。
続いて、視点依存情報のシンタックス要素が符号化される。まず、視点0は他の視点を参照しないので、「num_anchor_refs_l0[0]」、「num_anchor_refs_l1[0]」の値は「0」が符号化される。視点0に続いて符号化される視点2のアンカーピクチャの符号化の際には視点0を参照するので、視点間予測で参照する視点の数が1つであるので、「num_anchor_refs_l0[1]」の値は「1」が符号化され、「anchor_ref_l0[1][0]」は参照する視点0の視点IDの値である「0」が符号化される。続く以下のシンタックス要素も同様に符号化される。
符号化側でシーケンス全体として前記パラメータ、すなわち、視点数、及び各視点の視点依存情報を符号化することにより、復号側ではシーケンス全体として、各視点の参照依存関係を判別することができる。各視点の参照依存情報は視点間予測ピクチャのための参照ピクチャリストの初期化等の復号処理に用いる。
特開昭61-144191号公報 特開平6−98312号公報 Joint Draft 4.0 on Multiview Video Coding, Joint Video Team of ISO/IEC MPEG & ITU-T VCEG,JVT-X209, July 2007
MVC方式では、多くの視点数を有する多視点画像を符号化する場合は時間方向の冗長性を利用した時間方向のインター予測(動き補償予測)や、空間方向の冗長性を利用した直交変換に加えて、視点間の冗長性を利用した視点間予測(視差補償予測)を用いて符号化圧縮することで、より符号化効率を向上させることができる。
一方、多視点画像信号が符号化された符号化ビット列から必ずしも全ての視点の画像を復号する必要はなく、必要な視点だけを復号するなど、視点のアクセスが容易であることが重要なアプリケーションも存在する。しかしながら、視点間予測を用いて符号化圧縮した符号化ビット列から所望の視点の画像を取得する際には、当該視点以外に視点間予測の参照ピクチャとなる視点の画像を復号してから当該画像を復号しなければならない。そこで、視点のアクセスを優先するアプリケーション用途として、視点間予測を用いずに符号化する場合もある。
従来のMVC方式では視点間予測を用いて符号化することが前提となっており、視点間予測を用いずに符号化する際にも視点依存情報として各視点の視点間予測に用いる視点の数を0として符号化しており、冗長であった。
本発明は以上の点に鑑みてなされたもので、視点間予測を行わずに符号化する場合において冗長な符号量を削減する多視点画像符号化方法、多視点画像符号化装置及び多視点画像符号化プログラムを提供することを目的とする。
上記目的を達成するため、第1の発明は、設定された複数の視点でそれぞれ得られる各視点の画像信号を含む多視点画像信号であり、一の視点の画像信号は、一の視点から実際に撮影して得られた画像信号、又は一の視点から仮想的に撮影したものとして生成した画像信号である多視点画像信号を符号化した符号化データを生成する多視点画像符号化方法であって、
各視点の画像信号の符号化において他の視点の復号画像信号を参照して符号化する画像があるか否かを示す視点間予測情報を符号化する第1のステップと、他の視点の復号画像信号を参照して符号化する画像がある場合には、視点間の依存関係を示す視点依存情報を符号化し、他の視点の復号画像信号を参照して符号化する画像がない場合には視点依存情報を符号化しない第2のステップと、符号化対象の各視点の画像信号を、他の視点の復号画像信号を参照して符号化する画像がある場合には視点依存情報の値に従い符号化し、他の視点の復号画像信号を参照して符号化する画像がない場合には他の視点の復号画像信号を参照せずに符号化する第3のステップと、を含むことを特徴とする。
また、上記の目的を達成するため、第2の発明は、設定された複数の視点でそれぞれ得られる各視点の画像信号を含む多視点画像信号であり、一の視点の画像信号は、一の視点から実際に撮影して得られた画像信号、又は一の視点から仮想的に撮影したものとして生成した画像信号である多視点画像信号を符号化した符号化データを生成する多視点画像符号化装置であって、
各視点の画像信号の符号化において他の視点の復号画像信号を参照して符号化する画像があるか否かを示す視点間予測情報を符号化する第1の符号化手段と、他の視点の復号画像信号を参照して符号化する画像がある場合には、視点間の依存関係を示す視点依存情報を符号化し、他の視点の復号画像信号を参照して符号化する画像がない場合には視点依存情報を符号化しない第2の符号化手段と、符号化対象の各視点の画像信号を他の視点の復号画像信号を参照して符号化する画像がある場合には視点依存情報の値に従い符号化し、他の視点の復号画像信号を参照して符号化する画像がない場合には他の視点の復号画像信号を参照せずに符号化する第3の符号化手段と、を有することを特徴とする。
更に、上記の目的を達成するため、第3の発明は、第1の発明の各ステップをコンピュータにより実行させる多視点画像符号化プログラムであることを特徴とする。
これらの発明では、多視点画像の符号化の際に、視点間の予測を用いて符号化されるかどうかを示す視点予測情報を符号化し、視点間の予測を用いて符号化される場合にのみ各視点の視点依存情報を符号化し、視点間の予測を用いずに符号化されている場合には視点依存情報を符号化しないことを特徴とする。
本発明によれば、多視点画像の復号側において、視点間の予測を用いて符号化されるかどうかを示す視点間予測情報を復号した値に基づいて、視点依存情報を復号することなく、視点間の予測が使われていないことを判断させることができ、視点間の予測が使われていない場合は視点毎に独立して復号させることができるので処理量を削減でき、また、各視点毎の視点依存情報が符号化されていないので、生成する符号化ビット列の符号量も削減できる。
以下、図面と共に本発明の実施の形態を説明する。
(多視点画像符号化装置及び多視点画像符号化方法)
まず、本発明になる多視点画像符号化装置の一実施の形態について説明する。図1は本発明になる多視点画像符号化装置の一実施の形態のブロック図を示す。同図に示すように、本実施の形態の多視点画像符号化装置は、符号化管理部101、シーケンス情報符号化部102、ピクチャ情報符号化部103、画像信号符号化部104、多重化105を備え、入力される多視点画像信号を符号化して符号化データ(符号化ビット列)を出力する。ここで、上記の多視点画像信号は、設定された複数の視点でそれぞれ得られる各視点の画像信号を含む多視点画像信号であり、一の視点の画像信号は、その一の視点から実際に撮影して得られた画像信号、又はその一の視点から仮想的に撮影したものとして生成した画像信号である。
本実施の形態の多視点画像符号化装置の説明においては、AVC/H.264符号化方式を多視点画像に拡張したMVC方式による多視点画像符号化装置として説明する。
MVC方式は視点間の予測を取り入れて符号化することで、符号化効率を向上させている。一方、多視点画像信号が符号化された符号化ビット列から必ずしも全ての視点の画像を復号する必要はなく、必要な視点だけを復号するなど、視点のアクセスが容易であることが重要なアプリケーションも存在する。しかしながら、視点間予測を用いて符号化圧縮した符号化ビット列から所望の視点の画像を取得する際には、当該視点以外に視点間予測の参照ピクチャとなる視点の画像を復号してから当該画像を復号しなければならない。そこで、視点のアクセスを優先するアプリケーション用途として、視点間予測を用いずに符号化することも多い。
ここで、MVC方式で多視点画像の各視点の画像を視点間予測を用いずに符号化、及び符号化された符号化ビット列を復号する際の画像間の参照依存関係について8視点の場合を例にとって説明する。図10は8視点からなる多視点画像を視点間予測を用いずに符号化する際の画像間の参照依存関係の一例を示す図であり、図27と同様に、横軸は撮影(表示)順序での時間を示している。P(v,t)(視点v=0,1,2,・・・;時間t=0,1,2,・・・)は時間tにおける視点vの画像である。また、矢印の終点で指し示す画像が符号化/復号する画像で、その符号化/復号する画像を符号化/復号する際に時間方向のインター予測で参照する参照ピクチャは矢印の始点で指し示す画像である。
MVC方式で定義されている図28に示すシンタックス構造に従って、8視点の多視点画像を図10に示す参照依存関係のように視点間予測を用いずに符号化する際のSPSのMVC拡張部分の各シンタックス要素とその値の一例を図11に示す。
まず、図10に示す多視点画像の視点数は8視点であるので、図11に示すように、「num_views_minus1」は「7」が符号無し指数ゴロム符号で符号化される。その際のビット列は“000100”となり、7ビットである。次に、同一時刻での視点の符号化/復号順序は視点0、視点1、視点2、視点3、視点4、視点5、視点6、視点7の順で符号化されるものとし、まず、「view_id[0]」の値は視点0の視点IDである「0」が符号無し指数ゴロム符号で符号化され、その際のビット列は“1”となり、1ビットである。続いて、「view_id[1]」の値は視点1の視点IDである「1」が符号化されてビット列は“010”となり、「view_id[2]」の値は視点2の視点IDである「2」が符号化されてビット列は“011”となる。以下の「view_id[3]」から「view_id[7]」も同様に符号化される。
続いて、視点依存情報のシンタックス要素が符号化される。ここで符号化される多視点画像は視点間予測を用いずに符号化されるので、どの視点においてもアンカーピクチャ/ノンアンカーピクチャ、参照ピクチャリスト0/参照ピクチャリスト1を問わず他の視点を参照しないので、すべての視点において「num_anchor_refs_l0[i]」、「num_anchor_refs_l1[i]」、「num_non_anchor_refs_l0[i]」、「num_non_anchor_refs_l1[i]」の値は「0」が符号化される。従って、MVC方式で定義されている図28に示すシンタックス構造に従って、8視点の多視点画像を視点間予測を用いずに符号化する場合、視点依存情報に関するシンタックス要素を符号化した結果は図11に示すように“1”が32個連続したビット列となる。
すなわち、前述したように、MVC方式は視点間予測を用いずに符号化する際の特別な仕組みが無く、視点間予測を用いずに符号化する際にも視点依存情報として各視点の視点間予測に用いる視点の数を視点毎に符号化する必要があり、そのために図11に示すように視点数に4を乗じた数(ここでは、32)の“1”が連続したビット列となり、冗長となる。そこで、本発明では、MVC方式に視点間予測を用いずに符号化する際の冗長性を削減する仕組みを導入する。
次に、本発明になる図1の多視点画像符号化装置で符号化することにより生成される符号化ビット列のシンタックス構造について説明する。図12は本発明になるSPSにおけるMVC拡張部分のシンタックス構造を示す図である。従来例の図28のシンタックス構造と比較すると、1ビットのシンタックス要素「inter_view_pred_flag」が追加されており、「inter_view_pred_flag」の値に応じて、視点依存情報であるシンタックス要素「num_anchor_refs_l0[i]」、「anchor_ref_l0[i][j]」、「num_anchor_refs_l1[i]」、「anchor_ref_l1[i][j]」、「num_non_anchor_refs_l0[i]」、「non_anchor_ref_l0[i][j]」、「num_non_anchor_refs_l1[i]」、「non_anchor_ref_l1[i][j]」を符号化するか否かを決定する構造になっている点が異なる。
上記のシンタックス要素「inter_view_pred_flag」は、多視点画像を符号化する際に、各視点の画像信号の符号化において他の視点の復号画像信号を参照して符号化する画像があるか否かを示す情報であり、視点間予測を用いるか否かを示す1ビットの2値のフラグである。このシンタックス要素「inter_view_pred_flag」の値が「1」の場合、視点間予測を用いて符号化されていることを示す。
この場合、従来と同様に、視点依存情報であるシンタックス要素が符号化される。すなわち、「num_anchor_refs_l0[i]」、「num_anchor_refs_l1[i]」、「num_non_anchor_refs_l0[i]」、「num_non_anchor_refs_l1[i]」がそれぞれ符号化され、それぞれの値が「1」以上の場合は「anchor_ref_l0[i][j]」、「anchor_ref_l1[i][j]」、「non_anchor_ref_l0[i][j]」、「non_anchor_ref_l1[i][j]」も符号化される。
一方、上記のシンタックス要素「inter_view_pred_flag」の値が「0」の場合、視点間予測を用いずに符号化されていることを示す。その場合、視点依存情報であるシンタックス要素は符号化されない。すなわち、すべての視点の「num_anchor_refs_l0[i]」、「num_anchor_refs_l1[i]」、「num_non_anchor_refs_l0[i]」、「num_non_anchor_refs_l1[i]」の値を「0」とみなす。
図13は、本実施の形態の図12に示すシンタックス構造に従って、8視点の多視点画像を図10に示す参照依存関係のように視点間予測を用いずに符号化する際のSPSのMVC拡張部分の各シンタックス要素とその値の一例を示す。多視点画像を視点間予測を用いずに符号化する場合に関しては、MVC方式で定義されている図28に示すシンタックス構造に従えば、視点依存情報として各視点の視点間予測に用いる視点の数を視点毎に符号化する必要があり、そのために図11に示すように視点数に「4」を乗じた数の“1”が連続したビット列となり、冗長となる。
これに対し、本実施の形態の図12に示すシンタックス構造に従って視点間予測を用いずに符号化した場合は、視点依存情報は図13に示すように1ビットのシンタックス要素「inter_view_pred_flag」のフラグのみで代用することができる。従って、本実施の形態のシンタックス構造によれば、生成される符号化ビット列の符号量が大きく削減され、視点依存情報を符号化/復号することなく済ませることができ、洗練されたものとなる。
次に、図1の実施の形態の多視点画像符号化装置の動作について説明する。図1において、まず、符号化管理部101は、外部から設定された符号化パラメータをもとに、必要に応じて新たにパラメータを計算し、シーケンス全体に関連するパラメータ情報(SPS)、ピクチャに関連するパラメータ情報(PPS)、ピクチャのスライスに関連するヘッダ情報(スライスヘッダ)等を含む符号化に関する管理を行う。さらに、符号化管理部101は撮影/表示時間順に入力された視点画像M(0)、M(1)、M(2)、・・・を構成する各符号化対象画像の参照依存関係、符号化/復号順序を管理する。
参照依存関係については、視点単位で他の視点の復号画像を参照するか否かを管理するとともに、ピクチャまたはスライス単位で、符号化対象画像を符号化する際に他の視点の復号画像を参照画像として用いる視点間予測(視差補償予測)を行うか否か、符号化対象画像を符号化後に復号して得られる復号画像が他の視点の符号化対象画像を符号化する際に参照画像として用いられるか否か、複数ある参照画像の候補の中からどの参照画像を参照するかについて管理する。また、符号化/復号順序については、前記参照依存関係において、復号側で、復号する符号化ビット列の画像が参照する参照画像が復号された後に復号を開始できるように符号化/復号順序を管理する。
次に、シーケンス情報符号化部102は、符号化管理部101で管理されるシーケンス全体に関連するパラメータ情報(SPS)を符号化する。ここでは、図12に示すシンタックス構造に従ってSPSのMVC拡張部分も符号化する。
図2はシーケンス情報符号化部102の一実施の形態のブロック図を示す。図2に示すように、シーケンス情報符号化部102は、シーケンス情報符号化部201、視点数情報符号化部202、符号化順序情報符号化部203、視点間予測情報符号化部204、及び視点依存情報符号化部205から構成される。シーケンス情報符号化部201は、MVC拡張部分以外のシーケンス情報、即ちAVC/H.264方式でのSPS(シーケンス・パラメータ・セット)を符号化する。
一方、視点数情報符号化部202、符号化順序情報符号化部203、視点間予測情報符号化部204、及び視点依存情報符号化部205は、図12に示すシンタックス構造に従ってシーケンス全体に関連する情報(SPS)のMVC拡張部分を符号化する。まず、視点数情報符号化部202は、視点数の情報としてシンタックス要素「num_views_minus1」を符号化する。次に、符号化順序情報符号化部203は、視点方向の符号化/復号順序の情報としてシンタックス要素「view_id[i]」を視点方向の符号化/復号順序で符号化する。
次に、視点間予測情報符号化部204は、視点間予測を用いて符号化するかどうかを示す視点間予測情報として1ビットのシンタックス要素「inter_view_pred_flag」を符号化する。さらに、視点間予測を用いて符号化する場合は、視点依存情報符号化部205で視点依存情報として前述したシンタックス要素「num_anchor_refs_l0[i]」、「anchor_ref_l0[i][j]」、「num_anchor_refs_l1[i]」、「anchor_ref_l1[i][j]」、「num_non_anchor_refs_l0[i]」、「non_anchor_ref_l0[i][j]」、「num_non_anchor_refs_l1[i]」、「non_anchor_ref_l1[i]
[j]」を符号化する。
再び図1に戻って説明する。ピクチャ情報符号化部103は、符号化管理部101で管理されるピクチャに関連する情報(PPS)を符号化する。また、画像信号符号化部104は、符号化管理部101で管理されるスライスに関連する情報(スライスヘッダ)及び供給される符号化対象の画像信号をスライス単位で符号化する。画像信号を符号化する際には視点間予測を用いることもあるが、その際には前記視点依存情報に基づいて視点間予測の参照画像を選択する。
多重化部105は、シーケンス情報符号化部102で符号化して得られたシーケンス情報の符号化ビット列と、ピクチャ情報符号化部103で符号化して得られたピクチャ情報の符号化ビット列と、画像信号符号化部104で符号化して得られたスライス情報及び画像信号の符号化ビット列とをそれぞれ多重化し、多視点画像の符号化ビット列とする。
次に、図1に示した本実施の形態の多視点画像符号化装置による多視点画像符号化処理手順について、図3のフローチャートを参照して説明する。各ステップの処理動作については図1、及び図2のブロック図を用いて説明したものと同じであるので、ここでは図1、及び図2と対応付けることで、処理手順のみを説明する。
まず、シーケンス全体の符号化に関わるパラメータ情報を符号化し、シーケンス全体の符号化に関わるパラメータ情報の符号化ビット列を生成する(ステップS101)。このステップS101の処理は、図1の多視点画像符号化装置ではシーケンス情報符号化部102での符号化動作に相当する。
この、ステップS101のシーケンス情報の符号化処理手順の一例について図4のフローチャートと共に更に詳細に説明する。まず、シーケンス情報符号化部102は、MVC拡張部分以外のシーケンス情報を符号化する(ステップS111)。このステップS111の処理は、図2のシーケンス情報符号化部102では、MVC拡張部分以外のシーケンス情報符号化部201での符号化動作に相当する。
続いて、視点数の情報を符号化する(ステップS112)。このステップS112の処理は、図2のシーケンス情報符号化部102では、視点数情報符号化部202での符号化動作に相当する。続いて、視点方向の符号化/復号順序で各視点の視点IDの情報を符号化する(ステップS113)。このステップS113の処理は、図2のシーケンス情報符号化部102では、符号化順序情報符号化部203での符号化動作に相当する。
この、ステップS113の視点方向の符号化/復号順序での視点IDの符号化処理手順の一例について図5のフローチャートと共に更に詳細に説明する。まず、変数iを0とする(ステップS121)。続いて、変数iの値が(視点数−1)以下かどうかを判断する(ステップS122)。変数iの値が(視点数−1)以下でない場合、符号化処理を終了する。変数iの値が(視点数−1)以下の場合、ステップS123に進み、変数iの値が(視点数−1)以下でなくなるまで、ステップS123とステップS124の処理を繰り返す。ステップS123では、視点方向の符号化/復号順序でi番目の視点のシンタックス要素 「view_id[i]」を符号化する。続いて、ステップS124では、変数iに「1」を加えて再びステップS122に進む。
再び、図4のフローチャートに戻って説明する。上記のステップS113の処理に続いて、ステップS114では、視点間予測を用いて符号化するかどうかを示す情報を符号化する。このステップS114の処理は、図2のシーケンス情報符号化部102では、視点間予測情報符号化部204での符号化動作に相当する。続いて、視点間予測を用いて符号化するかどうかを判断し(ステップS115)、視点間予測を用いて符号化する場合は、ステップS116により視点依存情報を符号化し、視点間予測を用いずに符号化する場合は、視点依存情報を符号化せずにシーケンス情報の符号化処理を終了する。このステップS116の処理は、図2のシーケンス情報符号化部102では、視点依存情報符号化部205での符号化動作に相当する。
この、ステップS116の視点依存情報の符号化処理手順の一例について図6のフローチャートと共に更に詳細に説明する。ステップS116の視点依存情報の符号化処理では、アンカーピクチャの視点依存情報を符号化した後(ステップS131)、ノンアンカーピクチャの視点依存情報を符号化する(ステップS132)。このステップS132の処理が完了したら図6の視点依存情報の符号化処理は終了である。
上記のステップS131のアンカーピクチャの視点依存情報の符号化処理手順の一例について図7のフローチャートと共に更に詳細に説明する。まず、変数iを0とし(ステップS141)、続いて、変数iの値が(視点数−1)以下かどうかを判断する(ステップS142)。変数iの値が(視点数−1)以下でない場合、アンカーピクチャの視点依存情報の符号化処理を終了する。変数iの値が(視点数−1)以下の場合、ステップS143に進み、変数iの値が(視点数−1)以下でなくなるまで、ステップS143からステップS153までの処理を繰り返す。
ステップS143では、視点方向の符号化/復号順序でi番目の視点のシンタックス要素「num_anchor_refs_l0[i]」を符号化する。続いて、ステップS144では、変数jを「0」とする。続いて、ステップS145では変数jの値が「num_anchor_refs_l0[i]」より小さいかどうかを判断し、変数jの値が「num_anchor_refs_l0[i]」の値以上の場合、ステップS148に進む。一方、変数jの値が「num_anchor_refs_l0[i]」の値より小さい場合、変数jの値が「num_anchor_refs_l0[i]」の値以上になるまで、ステップS145からステップS147までの処理を繰り返す。ステップS146では視点方向の符号化/復号順序でi番目の視点の参照画像リスト0のインデックスがjのシンタックス要素「anchor_ref_l0[i][j]」を符号化してステップS147に進む。ステップS147では変数jに「1」を加えて再びステップS145に進む。
上記のステップS148では、視点方向の符号化/復号順序でi番目の視点のシンタックス要素「num_anchor_refs_l1[i]」を符号化する。続くステップS149では、変数jを「0」とする。続くステップS150では変数jの値が「num_anchor_refs_l1[i]」より小さいかどうかを判断する。変数jの値が「num_anchor_refs_l1[i]」以上の場合、ステップS153に進み、変数iに「1」を加えて再びステップS142に進む。一方、変数jの値が「num_anchor_refs_l1[i]」より小さい場合、jの値がnum_anchor_refs_l1[i]以上になるまで、ステップS150からステップS152までの処理を繰り返す。ステップS151では、視点方向の符号化/復号順序でi番目の視点の参照画像リスト1のインデックスがjのシンタックス要素「anchor_ref_l1[i][j]」を符号化してステップS152に進む。ステップS152では、変数jに「1」を加えて再びステップS150に進む。
次に、図6のステップS132のノンアンカーピクチャの視点依存情報の符号化処理手順の一例について図8のフローチャートと共に更に詳細に説明する。まず、変数iを「0」とした後(ステップS154)、変数iの値が(視点数−1)以下かどうかを判断する(ステップS155)。変数iの値が(視点数−1)以下でない場合、ノンアンカーピクチャの視点依存情報の符号化処理を終了する。変数iの値が(視点数−1)以下の場合、ステップS156に進み、変数iの値が(視点数−1)以下でなくなるまで、ステップS155からステップS166までの処理を繰り返す。
ステップS156では、視点方向の符号化/復号順序でi番目の視点のシンタックス要素「num_non_anchor_refs_l0[i]」を符号化する。続くステップS157で変数jの値を「0」とした後、ステップS158で変数jの値が視点方向の符号化/復号順序でi番目の視点のシンタックス要素「num_non_anchor_refs_l0[i]」より小さいかどうかを判断する。変数jの値が上記のシンタックス要素「num_non_anchor_refs_l0[i]」以上の場合、ステップS161に進み、変数jの値が上記のシンタックス要素「num_non_anchor_refs_l0[i]」より小さい場合、ステップS159に進み、変数jの値が「num_non_anchor_refs_l0[i]」以上になるまで、ステップS158からステップS160までの処理を繰り返す。
ステップS159では視点方向の符号化/復号順序でi番目の視点の参照画像リスト0のインデックスがjのシンタックス要素「anchor_ref_l0[i][j]」を符号化して、ステップS160に進む。ステップS160では変数jに「1」を加えて再びステップS158に進む。
ステップS161では、視点方向の符号化/復号順序でi番目の視点のシンタックス要素「num_non_anchor_refs_l1[i]」を符号化する。続くステップS162で変数jを0とし、続くステップS163では変数jの値が上記の視点方向の符号化/復号順序でi番目の視点のシンタックス要素「num_non_anchor_refs_l1[i]」より小さいかどうかを判断する。変数jの値がシンタックス要素「num_non_anchor_refs_l1[i]」以上の場合、ステップS166に進み変数iに「1」を加えてステップS155に戻る。
一方、変数jの値がシンタックス要素「num_non_anchor_refs_l1[i]」より小さい場合、ステップS164に進み、変数jの値がシンタックス要素「num_non_anchor_refs_l1[i]」の値以上になるまで、ステップS163からステップS165までの処理を繰り返す。ステップS164では視点方向の符号化/復号順序でi番目の視点の参照画像リスト1のインデックスがjのシンタックス要素「non_anchor_ref_l1[i][j]」を符号化して、ステップS165に進む。ステップS165では変数jに「1」を加えて再びステップS163に進む。
再び、図4のフローチャートに戻って説明する。ステップS116の処理が完了したら図4のシーケンス情報の符号化処理は終了である。
再び、図3のフローチャートに戻って説明する。上記の図4乃至図8のフローチャートと共に説明したステップS101の処理が完了すると、ステップS102に進む。ステップS102では、シーケンス全体の符号化に関わるパラメータ情報の符号化ビット列を多重化し、多重化された符号化ビット列を得る。このステップS102の処理は、図1の多視点画像符号化装置では多重化部105での多重化動作に相当する。
次のステップS103では、ピクチャの符号化に関わるパラメータ情報等を符号化し、ピクチャの符号化に係わるパラメータ情報の符号化ビット列を生成する。このステップS103の処理は、図1の多視点画像符号化装置ではピクチャ情報符号化部103での符号化動作に相当する。
続いて、ステップS104では、シーケンス全体の符号化に関わるパラメータ情報の符号化ビット列を多重化し、多重化された符号化ビット列を得る。このステップS104の処理は、図1の多視点画像符号化装置では多重化部105での多重化動作に相当する。
続いて、ステップS105では、スライス情報及び、画像信号を符号化する。このステップS105の処理は、図1の多視点画像符号化装置では画像信号符号化部104での処理動作に相当する。
続いて、ステップS106では、ステップS102、ステップS104で多重化されたビット列に続いて、復号画像出力順番号o、符号化モード、及び、動きベクトルまたは視差ベクトル、符号化残差信号等の符号化ビット列を必要に応じて一つの符号化ビット列、または複数の符号化ビット列に適宜多重化する。このステップS106の処理は、図1の多視点画像符号化装置では多重化部105での多重化動作に相当する。
次に、ネットワークを介して伝送する場合の多重化部105での多重化及び送信処理手順について、図9のフローチャートを用いて説明する。図9において、多重化部105は、シーケンス情報の符号化ビット列と、ピクチャ情報の符号化ビット列と、スライス情報及び画像信号の符号化ビット列とをそれぞれ多重化したデータを、必要に応じてMPEG−2システム方式、MP4ファイルフォーマット、RTP等の規格に基づいてパケット化する(ステップS171)。続いて、多重化部105は、必要に応じてMPEG−2システム方式、MP4ファイルフォーマット、RTP等の規格に基づいてパケット・ヘッダを上記のパケットに付加した後(ステップS172)、ネットワークを介して送信する(ステップS173)。
再び図3に戻って説明する。ステップS107では、符号化の対象となる多視点画像の全ての画像について符号化処理が完了したか否かを判断する。完了している場合、本多視点画像符号化処理手順が終了となる。完了していない場合、ステップS105に進み、符号化の対象となる多視点画像の全ての画像について符号化処理が完了するまでステップS105からステップS106までの処理を繰り返す。
(復号装置及び復号方法)
次に、本発明になる多視点画像符号化方法、多視点画像符号化装置及び多視点画像符号化プログラムにより生成された符号化データを復号する多視点画像復号方法及び多視点復号装置について図面を参照して説明する。
図14は多視点画像復号装置の一例のブロック図を示す。図14に示すように、この多視点画像復号装置は、分離部301、復号管理部302、シーケンス情報復号部303、ピクチャ情報復号部304、画像信号復号部305を備え、多視点画像信号を符号化した符号化ビット列が入力され、これを復号して多視点画像信号を出力する。
次に、図14に示す多視点画像復号装置の動作について、AVC/H.264符号化方式と関連付けて説明する。まず、分離部301は、図1に示した多視点画像符号化装置により符号化され、ネットワークを介して送信された符号化ビット列を受信する。なお、本方式での符号化ビット列の供給形態はネットワーク伝送での受信のみならず、DVD等の蓄積メディアに記録された符号化ビット列を読み込んだり、BS/地上波等の放送で放映された符号化ビット列を受信することもできる。
また、分離部301は、供給される符号化ビット列からパケット・ヘッダを除去し、NALユニット単位に分離する。更に、分離部301は、分離したNALユニットのヘッダ部に含まれるNALユニットの種類を見分ける識別子(nal_unit_type)を評価し、当該NALユニットがシーケンス全体の符号化に関わるパラメータ情報が符号化されている符号化ビット列の場合は、シーケンス情報復号部303に供給し、ピクチャの符号化に関わるパラメータ情報等が符号化されている符号化ビット列の場合は、ピクチャ情報復号部304に供給し、当該NALユニットがVCL NALユニット、すなわち符号化モード、及び動き/視差ベクトル、符号化残差信号等が符号化されている符号化ビット列の場合は、画像信号復号部305に供給する。
シーケンス情報復号部303は、分離部301で分離されたシーケンス全体の符号化に関わるパラメータ情報(SPS)が符号化された符号化ビット列を復号する。ここでは、図12に示すシンタックス構造に従ってSPSのMVC拡張部分も復号する。
図15はシーケンス情報復号部303の一例の構成を示すブロック図である。図15に示すように、シーケンス情報復号部303は、スイッチ406、シーケンス情報復号部401、視点数情報復号部402、復号順序情報復号部403、視点間予測情報復号部404、及び視点依存情報復号部405から構成される。スイッチ406は、図12に示すシンタックス構造に応じて切り替わり、符号化ビット列を復号部401〜404に順次供給する。また、スイッチ406は、視点間予測情報復号部404により復号された視点間予測情報の値が「1」のときは符号化ビット列を視点依存情報復号部405に供給し、視点間予測情報の値が「0」のときは、符号化ビット列を視点依存情報復号部405には供給しない。
シーケンス情報復号部401は、MVC拡張部分以外のシーケンス情報、すなわちAVC/H.264方式でのSPS(シーケンス・パラメータ・セット)を復号する。視点数情報復号部402、復号順序情報復号部403、視点間予測情報復号部404、及び視点依存情報復号部405は、図12に示すシンタックス構造に従ってシーケンス全体に関連する情報(SPS)のMVC拡張部分を復号する。まず、視点数情報復号部402が視点数の情報としてシンタックス要素「num_views_minus1」を復号する。次に、復号順序情報復号部403がシンタックス要素「view_id[i]」を順次復号する。「view_id_[i]」は符号化/復号順序で視点IDが符号化されているので、どのような復号順序で各視点が符号化されているのかを知ることができる。
次に、視点間予測情報復号部404が視点間予測を用いて符号化されているかどうかを示す情報、即ち視点間予測を用いて復号するかどうかを示す情報としてシンタックス要素「inter_view_pred_flag」を復号する。シンタックス要素「inter_view_pred_flag」の値により、次の視点依存情報復号部405で視点依存情報を復号するかどうかが決まる。シンタックス要素「inter_view_pred_flag」の値が「0」の場合、視点間予測を用いずに復号し、視点依存情報が符号化されていない。この場合、スイッチ406は視点依存情報復号部405に切り替わることはない。また、この場合、以降の復号処理においては、復号装置は全ての視点について他の視点を参照せずに復号できる視点であると判断して復号する。具体的にはすべての視点の「num_anchor_refs_l0[i]」、「num_anchor_refs_l1[i]」、「num_non_anchor_refs_l0[i]」、「num_non_anchor_refs_l1[i]」の値を「0」とする。
一方、シンタックス要素「inter_view_pred_flag」の値が「1」の場合、視点間予測を用いて復号するので、視点依存情報復号部405で視点依存情報としてシンタックス要素「num_anchor_refs_l0[i]」、「anchor_ref_l0[i][j]」、「num_anchor_refs_l1[i]」、「anchor_ref_l1[i][j]」、「num_non_anchor_refs_l0[i]」、「non_anchor_ref_l0[i][j]」、「num_non_anchor_refs_l1[i]」、「non_anchor_ref_l1[i][j]」を復号する。
再び、図14に戻って説明する。シーケンス情報復号部303で復号されたシーケンス全体の管理情報は復号管理部302に供給され、復号の管理に用いられる。ピクチャ情報復号部304は、分離部301で分離されたピクチャの符号化に関わるパラメータ情報(PPS)が符号化された符号化ビット列を復号し、復号したパラメータ情報(PPS)をピクチャ管理情報として復号管理部302に供給し、復号の管理に用いる。
画像信号復号部305は、復号管理部302から供給される視点数情報、復号順序情報、視点間予測情報、視点依存情報などの復号されたシーケンス情報に基づいて、分離部301から供給される復号対象の符号化ビット列(符号化データ)を復号して画像信号を得る。画像信号を復号する際には視点間予測を用いて復号することもあるが、その際には前記視点依存情報も用いて視点間予測の参照画像を決定する。
次に、図14に示した多視点画像復号装置による多視点画像復号処理手順について、図16のフローチャートを参照して説明する。各ステップの処理動作については図14及び図15のブロック図を用いて説明したものと同じであるので、ここでは図14及び図15と対応付けることで、処理手順のみを説明する。
まず、符号化された符号化ビット列をNALユニット単位に分離する(ステップS201)。このステップS201において、ネットワークを介して符号化ビット列を伝送する場合の受信及び分離処理手順について、図22のフローチャートを用いて詳細に説明する。ステップS201の分離処理において、まず、ネットワークを介して符号化ビット列を受信し(ステップS271)、続いて、その受信した符号化ビット列に用いられたMPEG−2システム方式、MP4ファイルフォーマット、RTP等の規格に基づいて付加されたパケット・ヘッダを復号して除去する(ステップS272)。そして、NALユニット単位で符号化ビット列を分離する(ステップS273)。
再び、図16に戻って説明する。図16のステップS201で分離されたNALユニットのヘッダ部に含まれるNALユニットの種類を見分ける識別子(nal_unit_type)を評価し、当該NALユニットがシーケンス全体の符号化に関わるパラメータ情報(SPS)、すなわちシーケンス情報であるか否か判定し(ステップS202)、シーケンス情報の場合、ステップS205に進み、シーケンス情報ではなくピクチャ情報(PPS)と判定された場合(ステップS203)、ステップS206に進む。
また、当該NALユニットがシーケンス情報でも、ピクチャ情報でもない場合は、ステップS204に進む。ステップS204では当該NALユニットがVCL NALユニットであるか、すなわち符号化モード、動きベクトルまたは視差ベクトル、符号化残差信号等が符号化されている符号化ビット列であるかを判定し、VCL NALユニットである場合、ステップS207に進む。これらのステップS201、S202、S203、S204の処理は、図14の多視点画像復号装置では分離部301での処理動作に相当する。
次に、ステップS205では、シーケンス全体の符号化に関わるパラメータ情報が符号化された符号化ビット列を復号し、シーケンス全体の符号化に関わるパラメータ情報を得る。このステップS205の処理は、図14の多視点画像符号化装置ではシーケンス情報復号部303での復号動作に相当する。
この、ステップS205のシーケンス情報の復号処理手順の一例について図17のフローチャートと共に更に詳細に説明する。シーケンス情報の復号処理では、まず、MVC拡張部分以外のシーケンス情報を復号する(ステップS211)。このステップS211の処理は、図15のシーケンス情報復号部303内のMVC拡張部分以外のシーケンス情報復号部401での復号動作に相当する。
ステップS211に続いて、視点数の情報を復号する(ステップS212)。このステップS212の処理は、図15のシーケンス情報復号部303では視点数情報復号部402での復号動作に相当する。ステップS212に続いて、視点方向の復号順序で符号化された各視点の視点IDの情報を復号する(ステップS213)。このステップS213の復号処理は、図15のシーケンス情報復号部303内の復号順序情報復号部403での復号動作に相当する。
ここで、ステップS213の視点方向の復号順序で符号化された各視点の視点IDの復号処理手順の一例について、図18のフローチャートと共に更に詳細に説明する。ステップS213の復号処理では、まず、変数iを0とし(ステップS221)、続いて、変数iの値が(視点数−1)以下かどうかを判断する(ステップS222)。変数iの値が(視点数−1)以下でない場合、ステップS213の復号処理を終了する。変数iの値が(視点数−1)以下の場合、変数iの値が(視点数−1)以下でなくなるまで、ステップS223とステップS224の処理を繰り返す。
ステップS223では、視点方向の符号化/復号順序でi番目の視点のシンタックス要素「view_id[i]」を復号する。続いて、ステップS224では、変数iに「1」を加えて、再びステップS222に進む。
再び、図17のフローチャートに戻って説明する。図18と共に説明した上記のステップS213の復号処理に続いて、視点間予測を用いて符号化されているかどうかを示す視点間予測情報「inter_view_pred_flag」を復号する(ステップS214)。このステップS214の処理は、図15のシーケンス情報復号部303内の視点間予測情報復号部404での復号動作に相当する。続いて、「inter_view_pred_flag」の値に基づいて、視点間予測を用いて符号化されているかどうかを判断し(ステップS215)、視点間予測を用いて符号化されている場合(「inter_view_pred_flag」の値が「1」)は、ステップS216により視点依存情報を復号し、視点間予測を用いずに符号化されている場合(「inter_view_pred_flag」の値が「0」)は、シーケンス情報の復号処理を終了する。このステップS215とS216の処理は、図15のシーケンス情報復号部303内の視点依存情報復号部405での復号動作とスイッチ406の切換動作とに相当する。すなわち、図15において、スイッチ406は、復号した「inter_view_pred_flag」の値が「1」のときのみ、入力される符号化ビット列を視点依存情報復号部405に供給し、復号した「inter_view_pred_flag」の値が「0」のときは入力される符号化ビット列を視点依存情報復号部405には供給しない。
次に、図17のステップS216の視点依存情報の復号処理手順の一例について図19のフローチャートと共に説明する。このステップS216では、まず、アンカーピクチャの視点依存情報を復号し(ステップS231)、続いてノンアンカーピクチャの視点依存情報を復号する(ステップS232)ことで復号処理を終了する。
次に、図19のステップS231のアンカーピクチャの視点依存情報の復号処理手順の一例について図20のフローチャートと共に更に詳細に説明する。ステップS231のアンカーピクチャの視点依存情報の復号処理では、まず、変数iを0とし(ステップS241)、続いて、変数iの値が(視点数−1)以下かどうかを判断する(ステップS242)。変数iの値が(視点数−1)以下でない場合、アンカーピクチャの視点依存情報の復号処理を終了する。変数iの値が(視点数−1)以下の場合、ステップS243に進み、変数iの値が(視点数−1)以下でなくなるまで、ステップS242からステップS253までの処理を繰り返す。
ステップS243では、視点方向の符号化/復号順序でi番目の視点のシンタックス要素「num_anchor_refs_l0[i]」を復号する。続いて、変数jを「0」とした後(ステップS244)、変数jの値が「num_anchor_refs_l0[i]」より小さいかどうかを判断する(ステップS245)。変数jの値が「num_anchor_refs_l0[i]」以上の場合、ステップS248に進む。変数jの値が「num_anchor_refs_l0[i]」より小さい場合、ステップS246に進み、変数jの値が「num_anchor_refs_l0[i]」の値以上になるまで、ステップS245からステップS247までの処理を繰り返す。ステップS246では視点方向の符号化/復号順序でi番目の視点の参照画像リスト0のインデックスがjのシンタックス要素 「anchor_ref_l0[i][j]」を復号してステップS247に進む。ステップS247では、変数jの値に「1」を加えて再びステップS245に進む。
一方、ステップS248では、視点方向の符号化/復号順序でi番目の視点のシンタックス要素「num_anchor_refs_l1[i]」を復号する。続いて、変数jを0とした後(ステップS249)、変数jの値が復号した上記シンタックス要素「num_anchor_refs_l1[i]」の値より小さいかどうかを判断する(ステップS250)。変数jの値がシンタックス要素「num_anchor_refs_l1[i]」の値以上の場合、変数iの値に「1」を加算して(ステップS253)、ステップS242に戻る。
一方、変数jの値がシンタックス要素「num_anchor_refs_l1[i]」の値より小さい場合、変数jの値がシンタックス要素「num_anchor_refs_l1[i]」の値以上になるまで、ステップS250からステップS252までの処理を繰り返す。すなわち、ステップS250に続くステップS251では、視点方向の符号化/復号順序でi番目の視点の参照画像リスト1のインデックスjのシンタックス要素「anchor_ref_l1[i][j]」を復号してステップS252に進む。ステップS252では、変数jの値に「1」を加えて再びステップS250に進む。
次に、図19のステップS232のノンアンカーピクチャの視点依存情報の復号処理手順の一例について図21のフローチャートと共に更に詳細に説明する。ステップS232のノンアンカーピクチャの視点依存情報の復号処理では、まず、変数iを「0」とし(ステップS254)、続いて、変数iの値が(視点数−1)以下かどうかを判断する(ステップS255)。変数iの値が(視点数−1)以下でない場合、ノンアンカーピクチャの視点依存情報の復号処理を終了する。変数iの値が(視点数−1)以下の場合、ステップS256に進み、iの値が(視点数−1)以下でなくなるまで、ステップS255からステップS266までの処理を繰り返す。
ステップS256では、視点方向の符号化/復号順序でi番目の視点のシンタックス要素「num_non_anchor_refs_l0[i]」を復号する。続いて、変数jを「0」とし(ステップS257)、続いて、変数jの値が、復号した上記のシンタックス要素「num_non_anchor_refs_l0[i]」の値より小さいかどうかを判断する。変数jの値がシンタックス要素「num_non_anchor_refs_l0[i]」の値以上の場合、ステップS261に進む。変数jの値がシンタックス要素「num_non_anchor_refs_l0[i]」の値より小さい場合、変数jの値がシンタックス要素「num_non_anchor_refs_l0[i]」の値より小さくなくなるまで、ステップS258からステップS260までの処理を繰り返す。ステップS258に続くステップS259では視点方向の符号化/復号順序でi番目の視点の参照画像リスト0のインデックスがjのシンタックス要素「anchor_ref_l0[i][j]」を復号してステップS260に進む。続いて、ステップS260では変数jの値に「1」を加えて再びステップS258に進む。
一方、ステップS261では、視点方向の符号化/復号順序でi番目の視点のシンタックス要素「num_non_anchor_refs_l1[i]」を復号する。続いて、変数jを0とした後(ステップS262)、変数jの値が復号した上記シンタックス要素「num_non_anchor_refs_l1[i]」の値より小さいかどうかを判断する(ステップS263)。変数jの値がシンタックス要素「num_non_anchor_refs_l1[i]」の値以上の場合、変数iの値に「1」を加算して(ステップS266)、ステップS255に戻る。
一方、変数jの値がシンタックス要素「num_non_anchor_refs_l1[i]」の値より小さい場合、変数jの値がシンタックス要素「num_non_anchor_refs_l1[i]」の値以上になるまで、ステップS263からステップS265までの処理を繰り返す。すなわち、ステップS263に続くステップS264では、視点方向の符号化/復号順序でi番目の視点の参照画像リスト1のインデックスがjのシンタックス要素「non_anchor_ref_l1[i][j]」を復号してステップS265に進む。ステップS265では、変数jの値に「1」を加えて再びステップS263に進む。
再び、図17に戻って説明する。ステップS216の処理が完了したら図17のシーケンス情報の符号化処理は終了である。
再び、図16のフローチャートに戻って説明する。図17乃至図21と共に説明した上記のステップS205の処理が完了すると、ステップS208に進む。一方、ステップS206では、ピクチャの符号化に関わるパラメータ情報を復号する。このステップS206の処理は、図14の多視点画像復号装置のピクチャ情報復号部304での復号動作に相当する。ステップS206の処理が完了したらステップS208に進む。一方、ステップS207では、スライス情報及び画像信号を復号する。このステップS207の処理は、図14の多視点画像復号装置では画像信号復号部305での復号動作に相当する。ステップS207の処理が完了したらステップS208に進む。
ステップS208では、復号の対象となる符号化ビット列のすべての復号処理が完了したか否かを判断する。完了している場合、本多視点画像復号処理手順が終了となる。完了していない場合、最初のステップS201に戻り、復号の対象となる符号化ビット列のすべての復号処理が完了するまでステップS201からステップS208までの処理を繰り返す。
なお、以上の説明においては、視点間予測を用いて符号化するかどうかの情報を符号化し、この情報に基づいて視点依存情報が符号化されるかどうかを判断したが、視点間予測を用いて符号化するかどうかの情報をアンカーピクチャ用とノンアンカーピクチャ用で別々に用意して符号化/復号することもでき、本発明に含まれる。
図23は、視点間予測を用いて符号化するかどうかの情報をアンカーピクチャ用とノンアンカーピクチャ用で別々に用意した場合のSPSにおけるMVC拡張部分のシンタックス構造の一例を示す。図12のシンタックス構造と比較すると、図23ではアンカーピクチャ用のシンタックス要素「anchor_inter_view_pred_flag」と、ノンアンカーピクチャ用のシンタックス要素「non_anchor_inter_view_pred_flag」とが用意されており、「anchor_inter_view_pred_flag」の値に応じて、アンカーピクチャ用の視点依存情報であるシンタックス要素「num_anchor_refs_l0[i]」、「anchor_ref_l0[i][j]」、「num_anchor_refs_l1[i]」、「anchor_ref_l1[i][j]」を符号化/復号するか否かを決定し、「non_anchor_inter_view_pred_flag」の値に応じて、ノンアンカーピクチャ用の視点依存情報であるシンタックス要素「num_non_anchor_refs_l0[i]」、「non_anchor_ref_l0[i][j]」、「num_non_anchor_refs_l1[i]」、「non_anchor_ref_l1[i][j]」を符号化/復号するか否かを決定する構造になっている点が異なる。
また、視点間予測を用いて符号化するかどうかの情報を参照ピクチャリスト0用と参照ピクチャリスト1用で別々に用意して符号化/復号することもでき、本発明に含まれる。図24は、視点間予測を用いて符号化するかどうかの情報を参照ピクチャリスト0用と参照ピクチャリスト1用で別々に用意した場合のSPSにおけるMVC拡張部分のシンタックス構造の一例を示す。図12のシンタックス構造と比較すると、図24のシンタックス構造では参照ピクチャリスト0用のシンタックス要素「inter_view_pred_l0_flag」と、参照ピクチャリスト1用の「inter_view_pred_l1_flag」とが用意されており、「inter_view_pred_l0_flag」の値に応じて、参照ピクチャリスト0用の視点依存情報であるシンタックス要素「num_anchor_refs_l0[i]」、「anchor_ref_l0[i][j]」、「num_non_anchor_refs_l0[i]」、「non_anchor_ref_l0[i][j]」を符号化/復号されるか否かを決定し、「inter_view_pred_l1_flag」の値に応じて、ノンアンカーピクチャ用の視点依存情報であるシンタックス要素「num_anchor_refs_l1[i]」、「anchor_ref_l1[i][j]」、「num_non_anchor_refs_l1[i]」、「non_anchor_ref_l1[i][j]」を符号化/復号するか否かを決定する構造になっている点が異なる。
また、視点間予測を用いて符号化するかどうかの情報をアンカーピクチャの参照ピクチャリスト0用と参照ピクチャ1用、ノンアンカーピクチャの参照ピクチャリスト0用と参照ピクチャ1用で別々に用意して符号化/復号することもでき、本発明に含まれる。図25は、視点間予測を用いて符号化するかどうかの情報をアンカーピクチャの参照ピクチャリスト0用と参照ピクチャ1用、ノンアンカーピクチャの参照ピクチャリスト0用と参照ピクチャ1用で別々に用意した場合のSPSにおけるMVC拡張部分のシンタックス構造の一例を示す。
図12のシンタックス構造と比較すると、図25のシンタックス構造ではアンカーピクチャの参照ピクチャリスト0用と参照ピクチャ1用のシンタックス要素「anchor_inter_view_pred_l0_flag」及び「anchor_inter_view_pred_l1_flag」と、ノンアンカーピクチャの参照ピクチャリスト0用と参照ピクチャ1用のシンタックス要素「non_anchor_inter_view_pred_l0_flag」及び「non_anchor_inter_view_pred_l1_flag」とが用意されており、「anchor_inter_view_pred_l0_flag」の値に応じて、アンカーピクチャの参照ピクチャリスト0用の視点依存情報であるシンタックス要素「num_anchor_refs_l0[i]」、「anchor_ref_l0[i][j]」を符号化/復号するか否かを決定し、「anchor_inter_view_pred_l1_flag」の値に応じて、アンカーピクチャの参照ピクチャリスト1用の視点依存情報であるシンタックス要素「num_anchor_refs_l1[i]」、「anchor_ref_l1[i][j]」を符号化/復号するか否かを決定し、「non_anchor_inter_view_pred_l0_flag」の値に応じて、ノンアンカーピクチャの参照ピクチャリスト0用の視点依存情報であるシンタックス要素「num_non_anchor_refs_l0[i]」、「non_anchor_ref_l0[i][j]」を符号化/復号するか否かを決定し、「non_anchor_inter_view_pred_l0_flag」の値に応じて、ノンアンカーピクチャの参照ピクチャリスト1用の視点依存情報であるシンタックス要素「num_non_anchor_refs_l1[i]」、「non_anchor_ref_l1[i][j]」を符号化/復号するか否かを決定する構造になっている点が異なる。
なお、図12に示すシンタックス構造に従った符号化/復号方式の説明においては、視点間予測を用いて符号化/復号するかどうかの情報を符号化し、この情報に基づいて視点依存情報が符号化/復号されるかどうかを判断したが、さらに、この情報に基づいて視点方向の符号化/復号順序情報も符号化されるかどうかを切り替えることもでき、本発明に含まれる。
図26は、視点間予測を用いて符号化するかどうかの情報に応じて視点依存情報に加えて符号化/復号順序情報を符号化するかどうかも切り替える場合のSPSにおけるMVC拡張部分のシンタックス構造の一例を示す。図12と比較すると、図26のシンタックス構造では、シンタックス要素「inter_view_pred_flag」の値に応じて、符号化/復号順序情報であるシンタックス要素「view_id[i]」が符号化/復号されるか否かも決定する構造になっている点が異なる。「inter_view_pred_flag」の値が「0」となり、「view_id[i]」が符号化されない場合は、視点方向の符号化/復号順序情報であるシンタックス要素「view_id[i]」の値を「0」から昇順と規定してもよいし、未定と規定してもよい。
なお、以上の説明においては、視点間予測を用いて符号化するかどうかの情報を符号化し、この情報に基づいて視点依存情報が符号化されるかどうかを判断したが、視点間予測を用いて符号化するかどうかの情報が判断できる暗示的な情報が存在する場合には、視点間予測を用いて符号化するかどうかの情報を明示的に符号化する必要はなく、暗示的な情報に基づいて視点依存情報が符号化されるかどうかを判断することもでき、本発明に含まれる。例えば、視点間予測を用いずに多視点画像を符号化するプロファイル、及び視点間予測を用いて多視点画像を符号化するプロファイルを規定する。さらに、視点間予測を用いずに多視点画像を符号化するプロファイルの場合は視点依存情報を符号化しないと規定する。そして、そのプロファイルを判別するための情報を符号化し、復号側でそのプロファイルを判別するための情報を復号することで、プロファイルを判別することができ、暗示的な情報であるプロファイルの値から視点間予測を用いて符号化されているか否かが判別できる。
なお、以上の説明においては、符号化、復号に用いる多視点画像は異なる視点から実際に撮影された多視点画像を符号化、復号することもできるが、実際には撮影していない仮想的な視点の位置を周辺の視点から補間する等、変換または生成された視点画像を符号化、復号することもでき、本発明に含まれる。
例えば、A,B,C,Dの4つの視点の画像信号を備えた多視点画像信号は、(1)4つの視点の画像信号がすべて各視点で実際に撮影して得られた画像信号である場合、(2)4つの視点の画像信号がすべて各視点で仮想的に撮影したものとして生成した画像信号である場合、(3)A,B視点の画像信号が各視点で実際に撮影して得られた画像信号、C,D視点の画像信号が各視点で仮想的に撮影したものとして生成した画像信号といったように、実際に撮影して得られた画像信号と仮想的に撮影したものとして生成した画像信号とが混在している場合の3つの場合が想定される。
また、コンピュータグラフィックス等の多視点画像を符号化、復号することもでき、本発明に含まれる。更に、以上の多視点画像符号化、および復号に関する処理は、ハードウェアを用いた伝送、蓄積、受信装置として実現することができるのは勿論のこと、ROM(リード・オンリ・メモリ)やフラッシュメモリ等に記憶されているファームウェアや、コンピュータ等のソフトウェアによっても実現することができる。そのファームウェアプログラム、ソフトウェアプログラムをコンピュータ等で読み取り可能な記録媒体に記録して提供することも、有線あるいは無線のネットワークを通してサーバから提供することも、地上波あるいは衛星ディジタル放送のデータ放送として提供することも可能である。
本発明の多視点画像符号化装置の一実施の形態のブロック図である。 図1中の多視点画像符号化装置を構成するシーケンス情報符号化部102の一例のブロック図である。 本発明の多視点画像符号化処理説明用フローチャートである。 図3中のステップS101のシーケンス情報の符号化処理説明用フローチャートである。 図4中のステップS113の符号化/復号順序による視点IDの符号化処理説明用フローチャートである。 図4中のステップS116の視点依存情報の符号化処理説明用フローチャートである。 図6中のステップS131のアンカーピクチャの視点依存情報の符号化処理説明用フローチャートである。 図6中のステップS132のノンアンカーピクチャの視点依存情報の符号化処理説明用フローチャートである。 ネットワークを介して伝送する場合のパケット化及び送信処理説明用フローチャートである。 8視点からなる多視点画像を視点間予測を用いずに符号化する際の画像間の参照依存関係の一例を示す図である。 図28に示すシンタックス構造に基づいて、図10に示す予測の参照依存関係で符号化する際のSPSのMVC拡張部分の各シンタックス要素とその値の一例である。 本発明のSPSのMVC拡張部分のシンタックス構造の一例である。 図12に示すシンタックス構造に基づいて、図10に示す予測の参照依存関係で符号化する際のSPSのMVC拡張部分の各シンタックス要素とその値の一例である。 多視点画像復号装置の一例のブロック図である。 図13中の多視点画像復号装置を構成するシーケンス情報復号部303の一例のブロック図である。 多視点画像復号処理説明用フローチャートである。 図16中のステップS205のシーケンス情報の復号処理説明用フローチャートである。 図17中のステップS213の符号化/復号順序で符号化された視点IDの復号処理説明用フローチャートである。 図17中のステップS216の視点依存情報の復号処理説明用フローチャートである。 図19中のステップS231のアンカーピクチャの視点依存情報の復号処理説明用フローチャートである。 図19中のステップS232のノンアンカーピクチャの視点依存情報の復号処理説明用フローチャートである。 ネットワークを介して受信する場合の受信処理説明用フローチャートである。 本発明のSPSのMVC拡張部分のシンタックス構造の一例である。 本発明のSPSのMVC拡張部分のシンタックス構造の一例である。 本発明のSPSのMVC拡張部分のシンタックス構造の一例である。 本発明のSPSのMVC拡張部分のシンタックス構造の一例である。 8視点からなる多視点画像を視点間予測を用いて符号化する際の予測の参照依存関係の一例を示す図である。 従来例のSPSのMVC拡張部分のシンタックス構造の一例である。 符号なし指数ゴロム符号で符号化されたビット列とコード番号の関係の一例である。 図28のシンタックス構造に基づいて、図27に示す予測の参照依存関係で符号化する際のSPSのMVC拡張部分の各シンタックス要素とその値の一例である。
符号の説明
101 符号化管理部
102 シーケンス情報符号化部
103 ピクチャ情報符号化部
104 画像信号符号化部
105 多重化部
201 MVC拡張部分以外のシーケンス情報符号化部
202 視点数情報符号化部
203 符号化順序情報符号化部
204 視点間予測情報符号化部
205 視点依存情報符号化部
301 分離部
302 復号管理部
303 シーケンス情報復号部
304 ピクチャ情報復号部
305 画像信号復号部
401 MVC拡張部分以外のシーケンス情報復号部
402 視点数情報復号部
403 復号順序情報復号部
404 視点間予測情報復号部
405 視点依存情報復号部

Claims (3)

  1. 設定された複数の視点でそれぞれ得られる各視点の画像信号を含む多視点画像信号であり、一の視点の画像信号は、前記一の視点から実際に撮影して得られた画像信号、又は前記一の視点から仮想的に撮影したものとして生成した画像信号である多視点画像信号を符号化した符号化データを生成する多視点画像符号化方法であって、
    前記各視点の画像信号の符号化において他の視点の復号画像信号を参照して符号化する画像があるか否かを示す視点間予測情報を符号化する第1のステップと、
    他の視点の復号画像信号を参照して符号化する画像がある場合には、視点間の依存関係を示す視点依存情報を符号化し、前記他の視点の復号画像信号を参照して符号化する画像がない場合には前記視点依存情報を符号化しない第2のステップと、
    符号化対象の前記各視点の画像信号を他の視点の復号画像信号を参照して符号化する画像がある場合には前記視点依存情報の値に従い符号化し、他の視点の復号画像信号を参照して符号化する画像がない場合には他の視点の復号画像信号を参照せずに符号化する第3のステップと、
    を含むことを特徴とする多視点画像符号化方法。
  2. 設定された複数の視点でそれぞれ得られる各視点の画像信号を含む多視点画像信号であり、一の視点の画像信号は、前記一の視点から実際に撮影して得られた画像信号、又は前記一の視点から仮想的に撮影したものとして生成した画像信号である多視点画像信号を符号化した符号化データを生成する多視点画像符号化装置であって、
    前記各視点の画像信号の符号化において他の視点の復号画像信号を参照して符号化する画像があるか否かを示す視点間予測情報を符号化する第1の符号化手段と、
    他の視点の復号画像信号を参照して符号化する画像がある場合には、視点間の依存関係を示す視点依存情報を符号化し、前記他の視点の復号画像信号を参照して符号化する画像がない場合には前記視点依存情報を符号化しない第2の符号化手段と、
    符号化対象の前記各視点の画像信号を他の視点の復号画像信号を参照して符号化する画像がある場合には前記視点依存情報の値に従い符号化し、他の視点の復号画像信号を参照して符号化する画像がない場合には他の視点の復号画像信号を参照せずに符号化する第3の符号化手段と、
    を有することを特徴とする多視点画像符号化装置。
  3. 設定された複数の視点でそれぞれ得られる各視点の画像信号を含む多視点画像信号であり、一の視点の画像信号は、前記一の視点から実際に撮影して得られた画像信号、又は前記一の視点から仮想的に撮影したものとして生成した画像信号である多視点画像信号を符号化した符号化データを、コンピュータにより生成させる多視点画像符号化プログラムであって、
    前記コンピュータに、
    前記各視点の画像信号の符号化において他の視点の復号画像信号を参照して符号化する画像があるか否かを示す視点間予測情報を符号化する第1のステップと、
    他の視点の復号画像信号を参照して符号化する画像がある場合には、視点間の依存関係を示す視点依存情報を符号化し、前記他の視点の復号画像信号を参照して符号化する画像がない場合には前記視点依存情報を符号化しない第2のステップと、
    符号化対象の前記各視点の画像信号を他の視点の復号画像信号を参照して符号化する画像がある場合には前記視点依存情報の値に従い符号化し、他の視点の復号画像信号を参照して符号化する画像がない場合には他の視点の復号画像信号を参照せずに符号化する第3のステップと
    を実行させることを特徴とする多視点画像符号化プログラム。
JP2007267436A 2007-10-15 2007-10-15 多視点画像符号化方法、多視点画像符号化装置及び多視点画像符号化プログラム Pending JP2009100070A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007267436A JP2009100070A (ja) 2007-10-15 2007-10-15 多視点画像符号化方法、多視点画像符号化装置及び多視点画像符号化プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007267436A JP2009100070A (ja) 2007-10-15 2007-10-15 多視点画像符号化方法、多視点画像符号化装置及び多視点画像符号化プログラム

Publications (1)

Publication Number Publication Date
JP2009100070A true JP2009100070A (ja) 2009-05-07

Family

ID=40702692

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007267436A Pending JP2009100070A (ja) 2007-10-15 2007-10-15 多視点画像符号化方法、多視点画像符号化装置及び多視点画像符号化プログラム

Country Status (1)

Country Link
JP (1) JP2009100070A (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010514353A (ja) * 2006-12-21 2010-04-30 トムソン ライセンシング 多視点映像符号化及び復号化用の、ハイレベルシンタックスを使用した改善されたシグナリングのための方法及び装置
WO2011021529A1 (ja) 2009-08-18 2011-02-24 ソニー株式会社 再生装置および再生方法、データ構造、記録媒体、記録装置および記録方法、並びにプログラム
US20110234769A1 (en) * 2010-03-23 2011-09-29 Electronics And Telecommunications Research Institute Apparatus and method for displaying images in image system
US20110242291A1 (en) * 2010-03-31 2011-10-06 Sony Corporation Information processing apparatus, information processing method, reproduction apparatus, reproduction method, and program
JP2012100341A (ja) * 2009-08-18 2012-05-24 Sony Corp 再生装置および再生方法
JP2014522176A (ja) * 2011-07-28 2014-08-28 クゥアルコム・インコーポレイテッド マルチビュービデオコード化
US9258559B2 (en) 2011-12-20 2016-02-09 Qualcomm Incorporated Reference picture list construction for multi-view and three-dimensional video coding
JPWO2014013880A1 (ja) * 2012-07-18 2016-06-30 ソニー株式会社 画像処理装置および方法
US9674525B2 (en) 2011-07-28 2017-06-06 Qualcomm Incorporated Multiview video coding
CN110716772A (zh) * 2018-07-12 2020-01-21 阿里巴巴集团控股有限公司 电子白板实现方法、装置、设备以及存储介质

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013034228A (ja) * 2006-12-21 2013-02-14 Thomson Licensing 多視点映像符号化及び復号化用の、ハイレベルシンタックスを使用した改善されたシグナリングのための方法及び装置
JP2010514353A (ja) * 2006-12-21 2010-04-30 トムソン ライセンシング 多視点映像符号化及び復号化用の、ハイレベルシンタックスを使用した改善されたシグナリングのための方法及び装置
WO2011021529A1 (ja) 2009-08-18 2011-02-24 ソニー株式会社 再生装置および再生方法、データ構造、記録媒体、記録装置および記録方法、並びにプログラム
JP2011066872A (ja) * 2009-08-18 2011-03-31 Sony Corp 再生装置および再生方法、データ構造、記録媒体、記録装置および記録方法、並びにプログラム
US8488950B2 (en) 2009-08-18 2013-07-16 Sony Corporation Reproducing apparatus and reproducing method, data structure, recording medium, recording apparatus and recording method, and program
JP2012100341A (ja) * 2009-08-18 2012-05-24 Sony Corp 再生装置および再生方法
JP2012100340A (ja) * 2009-08-18 2012-05-24 Sony Corp 再生装置および再生方法、並びに、記録装置および記録方法
JP2012130038A (ja) * 2009-08-18 2012-07-05 Sony Corp 再生装置および再生方法、並びに、記録装置および記録方法
JP2012130039A (ja) * 2009-08-18 2012-07-05 Sony Corp 再生装置および再生方法、並びに、記録装置および記録方法
JP2012130037A (ja) * 2009-08-18 2012-07-05 Sony Corp 記録媒体
CN102611905A (zh) * 2009-08-18 2012-07-25 索尼公司 再现设备和再现方法、记录设备和记录方法以及程序
US20110234769A1 (en) * 2010-03-23 2011-09-29 Electronics And Telecommunications Research Institute Apparatus and method for displaying images in image system
EP2375757A1 (en) 2010-03-31 2011-10-12 Sony Corporation Information processing apparatus, information processing method, reproduction apparatus, reproduction method, and program
US20110242291A1 (en) * 2010-03-31 2011-10-06 Sony Corporation Information processing apparatus, information processing method, reproduction apparatus, reproduction method, and program
JP2014522176A (ja) * 2011-07-28 2014-08-28 クゥアルコム・インコーポレイテッド マルチビュービデオコード化
KR101617971B1 (ko) 2011-07-28 2016-05-03 퀄컴 인코포레이티드 멀티뷰 비디오 코딩
US9635355B2 (en) 2011-07-28 2017-04-25 Qualcomm Incorporated Multiview video coding
US9674525B2 (en) 2011-07-28 2017-06-06 Qualcomm Incorporated Multiview video coding
US9258559B2 (en) 2011-12-20 2016-02-09 Qualcomm Incorporated Reference picture list construction for multi-view and three-dimensional video coding
US9344737B2 (en) 2011-12-20 2016-05-17 Qualcomm Incorporated Reference picture list construction for multi-view and three-dimensional video coding
JPWO2014013880A1 (ja) * 2012-07-18 2016-06-30 ソニー株式会社 画像処理装置および方法
CN110716772A (zh) * 2018-07-12 2020-01-21 阿里巴巴集团控股有限公司 电子白板实现方法、装置、设备以及存储介质
CN110716772B (zh) * 2018-07-12 2023-04-07 斑马智行网络(香港)有限公司 电子白板实现方法、装置、设备以及存储介质

Similar Documents

Publication Publication Date Title
JP4793366B2 (ja) 多視点画像符号化装置、多視点画像符号化方法、多視点画像符号化プログラム、多視点画像復号装置、多視点画像復号方法、及び多視点画像復号プログラム
JP2009100070A (ja) 多視点画像符号化方法、多視点画像符号化装置及び多視点画像符号化プログラム
JP5268645B2 (ja) カメラパラメータを利用して視差ベクトルを予測する方法、その方法を利用して多視点映像を符号化及び復号化する装置、及びそれを行うためのプログラムが記録された記録媒体
US9143796B2 (en) Multi-view video coding/decoding method and apparatus
JP6673854B2 (ja) 動き併合モードで視点合成予測候補の重複性除去装置および方法
JP5059766B2 (ja) 視差ベクトルの予測方法、その方法を利用して多視点動画を符号化及び復号化する方法及び装置
US20140002594A1 (en) Hybrid skip mode for depth map coding and decoding
US11711536B2 (en) Method and device for inducing motion information between temporal points of sub prediction unit
US9615078B2 (en) Multi-view video encoding/decoding apparatus and method
WO2014168082A1 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体
US20160057453A1 (en) Method and Apparatus of Camera Parameter Signaling in 3D Video Coding
JP2023162431A (ja) ラップアラウンド動き補償に基づく画像符号化/復号化方法及び装置、並びにビットストリームを保存した記録媒体
WO2013146636A1 (ja) 画像符号化装置、画像復号装置、画像符号化方法、画像復号方法およびプログラム
JP2011077722A (ja) 画像復号装置、画像復号方法およびそのプログラム
JP2009100071A (ja) 多視点画像復号方法、多視点画像復号装置及び多視点画像復号プログラム
JP2009159466A (ja) 多視点画像復号方法、多視点画像復号装置及び多視点画像復号プログラム
WO2012177063A2 (ko) 스킵 모드 부호화 복호화 방법 및 장치
Gao et al. Lossless fragile watermarking algorithm in compressed domain for multiview video coding
JP2009159465A (ja) 多視点画像符号化方法、多視点画像符号化装置及び多視点画像符号化プログラム
JP2009004942A (ja) 多視点画像送信方法、多視点画像送信装置及び多視点画像送信用プログラム
JP2023518990A (ja) ラップアラウンド動き補償に基づく画像符号化/復号化方法及び装置、並びにビットストリームを保存した記録媒体
JP2012028960A (ja) 画像復号装置、画像復号方法および画像復号プログラム
CN115668927A (zh) 基于输出层集合确定是否参考参数集的图像编码/解码方法和设备及发送比特流的方法
KR102133936B1 (ko) 3d 비디오 부호화/복호화 장치 및 부호화/복호화 방법
JP2013211777A (ja) 画像符号化装置、画像復号装置、画像符号化方法、画像復号方法およびプログラム