JP2015509345A - Video encoding method and apparatus - Google Patents

Video encoding method and apparatus Download PDF

Info

Publication number
JP2015509345A
JP2015509345A JP2014555275A JP2014555275A JP2015509345A JP 2015509345 A JP2015509345 A JP 2015509345A JP 2014555275 A JP2014555275 A JP 2014555275A JP 2014555275 A JP2014555275 A JP 2014555275A JP 2015509345 A JP2015509345 A JP 2015509345A
Authority
JP
Japan
Prior art keywords
slice
decoding
parameter set
group parameter
syntax element
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014555275A
Other languages
Japanese (ja)
Other versions
JP5947405B2 (en
JP2015509345A5 (en
Inventor
ミスカ・マティアス ハンヌクセラ
ミスカ・マティアス ハンヌクセラ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nokia Oyj
Original Assignee
Nokia Oyj
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nokia Oyj filed Critical Nokia Oyj
Publication of JP2015509345A publication Critical patent/JP2015509345A/en
Publication of JP2015509345A5 publication Critical patent/JP2015509345A5/ja
Application granted granted Critical
Publication of JP5947405B2 publication Critical patent/JP5947405B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/58Motion compensation with long-term prediction, i.e. the reference frame for a current frame not being the temporally closest one
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/19Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding using optimisation based on Lagrange multipliers

Abstract

3次元ビデオ符号化・復号用のスライスヘッダ予測方法およびその装置が提供される。例示的実施形態によっては、ヘッダ予測方法によって次の特徴を生み出すことができる。テクスチャおよび深度コンポーネントに関する任意の復号順序がサポートされる。また、同一アクセスユニット内において復号順で先に現われる任意のスライスヘッダからシンタックス要素を柔軟に予測することが可能である。予測はビューコンポーネントに基づいてオンにもオフにも切替えられる。スライスヘッダのシンタックス要素は幾つかのセットに分類される。各セットに対して、予測元だけでなく予測の使用も個別に制御することができる。こうした方法の例示的実施形態を用いて、スライスヘッダの全シンタックス要素が予測されてもよい。【選択図】図8A slice header prediction method and apparatus for 3D video encoding / decoding are provided. In some exemplary embodiments, a header prediction method can produce the following features: Any decoding order for texture and depth components is supported. It is also possible to flexibly predict syntax elements from any slice header that appears first in decoding order within the same access unit. Prediction is switched on and off based on the view component. The syntax elements of the slice header are classified into several sets. For each set, not only the prediction source but also the use of prediction can be controlled individually. Using an exemplary embodiment of such a method, all syntax elements of the slice header may be predicted. [Selection] Figure 8

Description

本出願は概して、ビデオを符号化するおよび復号する装置,方法およびコンピュータプログラムに関する。   The present application relates generally to an apparatus, method and computer program for encoding and decoding video.

背景background

本節では、特許請求の範囲で記載される本発明の背景や関連について説明する。本節の説明は、追求されうる概念を含むこともあり、必ずしも既に着想または追求されてきたものだけを含むわけではない。   This section describes the background and context of the invention described in the claims. The discussion in this section may include concepts that may be pursued, and not necessarily only those that have already been conceived or pursued.

したがって、本願中で特段の指示がない限り、本節で記述される内容は、本願の明細書および特許請求の範囲に対する先行技術ではなく、本節で記述されていることのみをもって先行技術と認定してはならない。   Therefore, unless otherwise specified in the present application, the contents described in this section are not prior art to the specification and claims of this application, and are regarded as prior art only by what is described in this section. Must not.

現在、3次元(3D)ビデオコンテンツを提供する様々な技術が研究・開発されている。特に、一組のステレオビデオだけを特定のビューポイントから見たり、別の一組のステレオビデオを別のビューポイントから見たりすることができる様々なマルチビューアプリケーションに関して集中的に研究されている。こうしたマルチビューアプリケーションに対する最も実現可能なアプローチの一つは、限られた入力ビュー数だけ、例えばモノラルまたはステレオビデオと付加データだけがデコーダ側に提供され、必要なビューが全てディスプレイに表示されるように、デコーダによってローカルにレンダリング(すなわち、合成)されるというものであると理解される。   Currently, various technologies for providing three-dimensional (3D) video content are being researched and developed. In particular, intensive research has been conducted on various multi-view applications where only one set of stereo video can be viewed from a particular viewpoint, or another set of stereo video can be viewed from another viewpoint. One of the most feasible approaches to such a multi-view application is that only a limited number of input views, eg mono or stereo video and additional data are provided to the decoder side so that all necessary views are displayed on the display. It is understood that the data is rendered (ie, synthesized) locally by the decoder.

幾つかのビューレンダリング技術が利用可能であって、例えば深度イメージベース・レンダリング(depth image-based rendering;DIBR)は競合代替技術であると見られている。DIBRの一般的な実装は、入力として立体ビデオと立体基線を伴った対応する深度情報を受取り、2つの入力ビュー間で多数の仮想ビューを合成する。このため、DIBRアルゴリズムは2つの入力ビュー間だけでなく、その外側のビューを外挿することもできる。同様に、DIBRアルゴリズムは単一のテクスチャビューと対応する深度ビューからビューを合成することもできる。   Several view rendering techniques are available, for example, depth image-based rendering (DIBR) is seen as a competitive alternative. A typical implementation of DIBR takes as input stereoscopic video and corresponding depth information with a stereoscopic baseline, and synthesizes a number of virtual views between the two input views. For this reason, the DIBR algorithm can extrapolate not only between two input views, but also outside views. Similarly, the DIBR algorithm can synthesize a view from a single texture view and a corresponding depth view.

ビデオ符号化規格によっては、スライスレイヤおよびその下位レイヤにヘッダを導入したり、スライスレイヤの上位レイヤにパラメータセットの概念を導入したりする。パラメータセットの例は、全ピクチャやピクチャ群(GOP),ピクチャサイズやディスプレイウィンドウ,採用されたオプション符号化モード,マクロブロック割当マップ等のシーケンスレベルデータを含んでもよい。パラメータセットの各例は、固有識別子を含んでもよい。各スライスヘッダはパラメータセット識別子に対する参照を含んでもよく、参照されたパラメータセットのパラメータ値はそのスライスを復号するときに使われてもよい。パラメータセットは、低頻度で変わるピクチャやGOP,およびシーケンスやGOP,ピクチャの境界からのシーケンスレベルデータの伝送と復号の順序を分断する。パラメータセットは、参照前に復号される限り、信頼性のある伝送プロトコルを用いて帯域外で伝送されることもある。パラメータセットは、帯域内で伝送される場合、従来のビデオ符号化方式よりもエラー耐性を高めるために複数回繰り返されることもある。パラメータセットは、セッションセットアップ時間に伝送されてもよい。しかし、主にブロードキャストシステム等の一部のシステムでは、パラメータセットの帯域外伝送が実現不可能なこともあり、パラメータセットNALユニットにおいて帯域内で運ばれる。   Depending on the video coding standard, a header is introduced into the slice layer and its lower layer, or a parameter set concept is introduced into an upper layer of the slice layer. Examples of parameter sets may include sequence level data such as all pictures, groups of pictures (GOP), picture sizes and display windows, adopted option coding modes, macroblock allocation maps, and the like. Each example of the parameter set may include a unique identifier. Each slice header may include a reference to a parameter set identifier, and the parameter value of the referenced parameter set may be used when decoding that slice. The parameter set divides the order of transmission and decoding of low-frequency pictures and GOPs, and sequence-level data from sequences, GOPs, and picture boundaries. The parameter set may be transmitted out of band using a reliable transmission protocol as long as it is decoded before reference. When transmitted in-band, the parameter set may be repeated multiple times in order to increase error resilience over conventional video coding schemes. The parameter set may be transmitted at session setup time. However, in some systems such as a broadcast system, parameter set out-of-band transmission may not be feasible, and the parameter set is carried within the band by the NAL unit.

摘要Abstract

本発明の例示的実施形態によれば、3次元ビデオ符号化・復号用のスライスヘッダ予測方法およびその装置が提供される。例示的実施形態によっては、ヘッダ予測方法によって次の特徴を生み出すことができる。テクスチャおよび深度コンポーネントに関する任意の復号順序がサポートされる。また、同一アクセスユニット内において復号順で先に現われる任意のスライスヘッダからシンタックス要素を柔軟に予測することができる。予測はビューコンポーネントに基づいてオンにもオフにも切替えられる。スライスヘッダのシンタックス要素は幾つかのセットに分類される。各セットに対して、予測元だけでなく予測の使用も個別に制御することができる。こうした方法の例示的実施形態を用いて、スライスヘッダの全シンタックス要素が予測されてもよい。   According to an exemplary embodiment of the present invention, a slice header prediction method and apparatus for 3D video encoding / decoding are provided. In some exemplary embodiments, a header prediction method can produce the following features: Any decoding order for texture and depth components is supported. In addition, syntax elements can be flexibly predicted from an arbitrary slice header that appears first in decoding order within the same access unit. Prediction is switched on and off based on the view component. The syntax elements of the slice header are classified into several sets. For each set, not only the prediction source but also the use of prediction can be controlled individually. Using an exemplary embodiment of such a method, all syntax elements of the slice header may be predicted.

例示的実施形態によっては、スライスヘッダの予測ツールは次のように要約される。スライスヘッダのシンタックス要素はスライス群(GOS, Group of Slice)パラメータセットにグループ化される。GOSパラメータセットはアクセスユニットに対して最大限に有効であってもよい。アクセスユニットに対して特定されるGOSパラメータセットが作成されてもよい。ベースビューのテクスチャビューにおけるスライスヘッダは、暗黙のうちにGOSパラメータセットを作成する。GOSパラメータセットはビットストリームにインラインで含められてもよい。   In some exemplary embodiments, the slice header prediction tool is summarized as follows. The syntax elements of the slice header are grouped into slice group (GOS, Group of Slice) parameter sets. The GOS parameter set may be maximally valid for the access unit. A GOS parameter set specified for the access unit may be created. The slice header in the texture view of the base view implicitly creates a GOS parameter set. The GOS parameter set may be included inline in the bitstream.

例示的実施形態によっては、GOSパラメータセットは3タイプのシンタックス要素または構造を含む。GOSパラメータセットは、識別されたGOSパラメータセットからコピー可能なシンタックス要素を含んでもよい。こうしたシンタックス構造にはリファレンスピクチャ・リストの変更や予測重みテーブル,復号リファレンスピクチャ・マーキングを含む。GOSパラメータセットはまた、ビューコンポーネント全体で不変なシンタックス構造を含んでもよい。GOSパラメータセットは、アクセスユニット全体で不変なシンタックス要素を含んでもよい。   In some exemplary embodiments, the GOS parameter set includes three types of syntax elements or structures. The GOS parameter set may include syntax elements that can be copied from the identified GOS parameter set. Such syntax structure includes reference picture list change, prediction weight table, and decoded reference picture marking. The GOS parameter set may also include a syntax structure that is invariant across view components. The GOS parameter set may include syntax elements that are invariant across access units.

GOSパラメータセットは、複数の他のGOSパラメータセットからシンタックス構造を継承してもよい。例えば、リファレンスピクチャ・リスト変更は特定のGOSパラメータセットから継承されるが、復号リファレンスピクチャ・マーキングは別のGOSパラメータセットから継承されてもよい。   A GOS parameter set may inherit the syntax structure from multiple other GOS parameter sets. For example, the reference picture list change is inherited from a specific GOS parameter set, but the decoded reference picture marking may be inherited from another GOS parameter set.

GOSパラメータセットは反復されてもよい。GOSパラメータセットが各スライスで反復される場合、完全なスライスヘッダを持つのと同程度のエラー耐性が得られてもよい。   The GOS parameter set may be repeated. If the GOS parameter set is repeated at each slice, the same degree of error tolerance as having a complete slice header may be obtained.

本発明の種々の例示的態様は特許請求の範囲に提示されている。   Various exemplary embodiments of the invention are presented in the claims.

本発明の第1の態様によれば、次の方法が提供される。この方法は、非圧縮ピクチャを、スライスを含む符号化ピクチャに符号化することを含み、前記符号化することは、
・ 前記スライスに対するシンタックス要素を第1のセットおよび第2のセットに分類することと;
・ 前記第1のセットおよび前記第2のセットに対するシンタックス要素値を決定することと;
・ 第1のスライス群パラメータセットまたはスライスヘッダにおいて前記第1のセットを選択的に符号化することであって、前記符号化することは次のこと:
* 別のスライス群パラメータセットから前記関連する第1のセットの包含の標示情報を提供することと;
* 前記第1のセットのシンタックス要素値を符号化することと;
* 前記両方を省略すること
の何れか1つを含む、前記符号化することと;
・ 第2のスライス群パラメータセットまたはスライスヘッダにおいて前記第2のセットを選択的に符号化することであって、前記符号化することは次のこと:
* 別のスライス群パラメータセットから前記関連する第2のセットの包含の標示情報を提供することと;
* 前記第2のセットのシンタックス要素値を符号化することと;
* 前記両方を省略すること
の何れか1つを含む、前記符号化すること
を含む。
According to the first aspect of the present invention, the following method is provided. The method includes encoding an uncompressed picture into an encoded picture that includes a slice, the encoding comprising:
Categorizing the syntax elements for the slice into a first set and a second set;
Determining syntax element values for the first set and the second set;
• selectively encoding the first set in a first slice group parameter set or slice header, wherein the encoding is:
Providing indication information of inclusion of the associated first set from another slice group parameter set;
* Encoding the first set of syntax element values;
* The encoding comprising any one of omitting both;
• selectively encoding the second set in a second slice group parameter set or slice header, wherein the encoding is:
* Providing indication information of inclusion of said related second set from another slice group parameter set;
* Encoding the second set of syntax element values;
* Includes the encoding, including any one of omitting both.

本発明の第2の態様によれば、少なくとも1つのプロセッサと、コンピュータプログラムコードを含む少なくとも1つのメモリとを備える装置が提供される。前記少なくとも1つのメモリおよび前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサを用いて、前記装置に:
・ 符号化ピクチャが含むスライスに対するシンタックス要素を第1のセットおよび第2のセットに分類することと;
・ 前記第1のセットおよび前記第2のセットに対するシンタックス要素値を決定することと;
・ 第1のスライス群パラメータセットまたはスライスヘッダにおいて前記第1のセットを選択的に符号化することであって、次のこと:
* 別のスライス群パラメータセットから前記関連する第1のセットの包含の標示情報を提供することと;
* 前記第1のセットのシンタックス要素値を符号化することと;
* 前記両方を省略すること
の何れか1つを含む、前記符号化することと;
・ 第2のスライス群パラメータセットまたはスライスヘッダにおいて前記第2のセットを選択的に符号化することであって、次のこと:
* 別のスライス群パラメータセットから前記関連する第2のセットの包含の標示情報を提供することと;
* 前記第2のセットのシンタックス要素値を符号化することと;
* 前記両方を省略すること
の何れか1つを含む、前記符号化すること
を遂行させるように構成される。
According to a second aspect of the present invention, there is provided an apparatus comprising at least one processor and at least one memory containing computer program code. The at least one memory and the computer program code are stored in the device using the at least one processor:
Classifying the syntax elements for the slices that the encoded picture contains into a first set and a second set;
Determining syntax element values for the first set and the second set;
• selectively encoding the first set in a first slice group parameter set or slice header, the following:
Providing indication information of inclusion of the associated first set from another slice group parameter set;
* Encoding the first set of syntax element values;
* The encoding comprising any one of omitting both;
Selectively encoding the second set in a second slice group parameter set or slice header, the following:
* Providing indication information of inclusion of said related second set from another slice group parameter set;
* Encoding the second set of syntax element values;
* Configured to perform the encoding, including any one of omitting both.

本発明の第3の態様によれば、1つ以上の命令の1つ以上のシーケンスを含むコンピュータプログラム製品が提供される。前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、装置に少なくとも次のこと:
・ 符号化ピクチャが含むスライスに対するシンタックス要素を第1のセットおよび第2のセットに分類することと;
・ 前記第1のセットおよび前記第2のセットに対するシンタックス要素値を決定することと;
・ 第1のスライス群パラメータセットまたはスライスヘッダにおいて前記第1のセットを選択的に符号化することであって、次のこと:
* 別のスライス群パラメータセットから前記関連する第1のセットの包含の標示情報を提供することと;
* 前記第1のセットのシンタックス要素値を符号化することと;
* 前記両方を省略すること
の何れか1つを含む、前記符号化することと;
・ 第2のスライス群パラメータセットまたはスライスヘッダにおいて前記第2のセットを選択的に符号化することであって、次のこと:
* 別のスライス群パラメータセットから前記関連する第2のセットの包含の標示情報を提供することと;
* 前記第2のセットのシンタックス要素値を符号化することと;
* 前記両方を省略すること
の何れか1つを含む、前記符号化すること
を遂行させる。
According to a third aspect of the invention, a computer program product is provided that includes one or more sequences of one or more instructions. When the one or more sequences of the one or more instructions are executed by one or more processors, the device at least:
Classifying the syntax elements for the slices that the encoded picture contains into a first set and a second set;
Determining syntax element values for the first set and the second set;
• selectively encoding the first set in a first slice group parameter set or slice header, the following:
Providing indication information of inclusion of the associated first set from another slice group parameter set;
* Encoding the first set of syntax element values;
* The encoding comprising any one of omitting both;
Selectively encoding the second set in a second slice group parameter set or slice header, the following:
* Providing indication information of inclusion of said related second set from another slice group parameter set;
* Encoding the second set of syntax element values;
* Performing the encoding, including any one of omitting both.

本発明の第4の態様によれば、次の装置が提供される。この装置は、
・ 符号化ピクチャが含むスライスに対するシンタックス要素を第1のセットおよび第2のセットに分類する手段と;
・ 前記第1のセットおよび前記第2のセットに対するシンタックス要素値を決定する手段と;
・ 第1のスライス群パラメータセットまたはスライスヘッダにおいて前記第1のセットを選択的に符号化する手段であって、次のこと:
* 別のスライス群パラメータセットから前記関連する第1のセットの包含の標示情報を提供することと;
* 前記第1のセットのシンタックス要素値を符号化することと;
* 前記両方を省略すること
の何れか1つを含む、前記符号化する手段と;
・ 第2のスライス群パラメータセットまたはスライスヘッダにおいて前記第2のセットを選択的に符号化する手段であって、次のこと:
* 別のスライス群パラメータセットから前記関連する第2のセットの包含の標示情報を提供することと;
* 前記第2のセットのシンタックス要素値を符号化することと;
* 前記両方を省略すること
の何れか1つを含む、前記符号化する手段
を備える。
According to the fourth aspect of the present invention, the following apparatus is provided. This device
Means for classifying syntax elements for slices included in the coded picture into a first set and a second set;
Means for determining syntax element values for the first set and the second set;
Means for selectively encoding said first set in a first slice group parameter set or slice header, comprising:
Providing indication information of inclusion of the associated first set from another slice group parameter set;
* Encoding the first set of syntax element values;
* The means for encoding comprising any one of omitting both;
Means for selectively encoding said second set in a second slice group parameter set or slice header, comprising:
* Providing indication information of inclusion of said related second set from another slice group parameter set;
* Encoding the second set of syntax element values;
* The means for encoding comprises any one of omitting both.

本発明の第5の態様によれば、次の方法が提供される。この方法は、符号化ピクチャの符号化スライスを復号することを含む方法であって、前記復号することは:
・ 前記符号化スライスをスライスヘッダまたはスライス群パラメータセットの何れかに復号するために使用される、第1のシンタックス要素セットにおける第1の位置および第2のシンタックス要素セットにおける第2の位置を識別することと;
・ 前記符号化スライスの復号用に使用されるように、前記第1のシンタックス要素セットおよび前記第2のシンタックス要素セットを復号することを含み、該第1および第2のセットを復号することは:
* 第3のスライス群パラメータセットから前記関連する第1のセットの包含を示す第1の標示情報を復号し、前記第3のスライス群パラメータセットを示す前記第1の標示情報への応答として、前記第3のスライス群パラメータセットから前記関連する第1のシンタックス要素セットを復号することと;
* 第4のスライス群パラメータセットから前記関連する第2のセットの包含を示す第2の標示情報を復号し、前記第4のスライス群パラメータセットを示す前記第2の標示情報への応答として、前記第4のスライス群パラメータセットから前記関連する第2のシンタックス要素セットを復号することと;
* 前記復号された第1のシンタックス要素セットおよび第2のシンタックス要素セットを用いて、前記符号化スライスを復号すること
を含む。
According to the fifth aspect of the present invention, the following method is provided. The method includes decoding a coded slice of a coded picture, the decoding comprising:
A first position in a first syntax element set and a second position in a second syntax element set used to decode the encoded slice into either a slice header or a slice group parameter set Identifying;
Decoding the first syntax element set and the second syntax element set to be used for decoding the encoded slice, and decoding the first and second sets The thing is:
* Decoding first indication information indicating inclusion of the associated first set from a third slice group parameter set, and in response to the first indication information indicating the third slice group parameter set, Decoding the associated first syntax element set from the third slice group parameter set;
* Decoding second indication information indicating inclusion of the related second set from a fourth slice group parameter set, and in response to the second indication information indicating the fourth slice group parameter set, Decoding the associated second syntax element set from the fourth slice group parameter set;
* Decoding the encoded slice using the decoded first syntax element set and second syntax element set.

本発明の第6の態様によれば、少なくとも1つのプロセッサと、コンピュータプログラムコードを含む少なくとも1つのメモリとを備える装置が提供される。前記少なくとも1つのメモリおよび前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサを用いて、前記装置に符号化ピクチャの符号化スライスを復号させ、ここで、前記復号することは、
・ 前記符号化スライスをスライスヘッダまたはスライス群パラメータセットの何れかに復号するために使用される、第1のシンタックス要素セットにおける第1の位置および第2のシンタックス要素セットにおける第2の位置を識別することと;
・ 前記符号化スライスの復号用に使用されるように、前記第1のシンタックス要素セットおよび前記第2のシンタックス要素セットを復号することを含み、該第1および第2のセットを復号することは:
* 第3のスライス群パラメータセットから前記関連する第1のセットの包含を示す第1の標示情報を復号し、前記第3のスライス群パラメータセットを示す前記第1の標示情報への応答として、前記第3のスライス群パラメータセットから前記関連する第1のシンタックス要素セットを復号することと;
* 第4のスライス群パラメータセットから前記関連する第2のセットの包含を示す第2の標示情報を復号し、前記第4のスライス群パラメータセットを示す前記第2の標示情報への応答として、前記第4のスライス群パラメータセットから前記関連する第2のシンタックス要素セットを復号することと;
* 前記復号された第1のシンタックス要素セットおよび第2のシンタックス要素セットを用いて、前記符号化スライスを復号すること
を含む。
According to a sixth aspect of the invention, there is provided an apparatus comprising at least one processor and at least one memory containing computer program code. The at least one memory and the computer program code use the at least one processor to cause the apparatus to decode an encoded slice of an encoded picture, where the decoding comprises:
A first position in a first syntax element set and a second position in a second syntax element set used to decode the encoded slice into either a slice header or a slice group parameter set Identifying;
Decoding the first syntax element set and the second syntax element set to be used for decoding the encoded slice, and decoding the first and second sets The thing is:
* Decoding first indication information indicating inclusion of the associated first set from a third slice group parameter set, and in response to the first indication information indicating the third slice group parameter set, Decoding the associated first syntax element set from the third slice group parameter set;
* Decoding second indication information indicating inclusion of the related second set from a fourth slice group parameter set, and in response to the second indication information indicating the fourth slice group parameter set, Decoding the associated second syntax element set from the fourth slice group parameter set;
* Decoding the encoded slice using the decoded first syntax element set and second syntax element set.

本発明の第7の態様によれば、1つ以上の命令の1つ以上のシーケンスを含むコンピュータプログラム製品が提供される。前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、装置に少なくとも次のこと:
符号化ピクチャの符号化スライスを復号させ、ここで、前記復号することは、
・ 前記符号化スライスをスライスヘッダまたはスライス群パラメータセットの何れかに復号するために使用される、第1のシンタックス要素セットにおける第1の位置および第2のシンタックス要素セットにおける第2の位置を識別することと;
・ 前記符号化スライスの復号用に使用されるように、前記第1のシンタックス要素セットおよび前記第2のシンタックス要素セットを復号することを含み、該第1および第2のセットを復号することは:
* 第3のスライス群パラメータセットから前記関連する第1のセットの包含を示す第1の標示情報を復号し、前記第3のスライス群パラメータセットを示す前記第1の標示情報への応答として、前記第3のスライス群パラメータセットから前記関連する第1のシンタックス要素セットを復号することと;
* 第4のスライス群パラメータセットから前記関連する第2のセットの包含を示す第2の標示情報を復号し、前記第4のスライス群パラメータセットを示す前記第2の標示情報への応答として、前記第4のスライス群パラメータセットから前記関連する第2のシンタックス要素セットを復号することと;
* 前記復号された第1のシンタックス要素セットおよび第2のシンタックス要素セットを用いて、前記符号化スライスを復号すること
を含む。
According to a seventh aspect of the present invention there is provided a computer program product comprising one or more sequences of one or more instructions. When the one or more sequences of the one or more instructions are executed by one or more processors, the device at least:
Decoding an encoded slice of an encoded picture, wherein the decoding comprises:
A first position in a first syntax element set and a second position in a second syntax element set used to decode the encoded slice into either a slice header or a slice group parameter set Identifying;
Decoding the first syntax element set and the second syntax element set to be used for decoding the encoded slice, and decoding the first and second sets The thing is:
* Decoding first indication information indicating inclusion of the associated first set from a third slice group parameter set, and in response to the first indication information indicating the third slice group parameter set, Decoding the associated first syntax element set from the third slice group parameter set;
* Decoding second indication information indicating inclusion of the related second set from a fourth slice group parameter set, and in response to the second indication information indicating the fourth slice group parameter set, Decoding the associated second syntax element set from the fourth slice group parameter set;
* Decoding the encoded slice using the decoded first syntax element set and second syntax element set.

本発明の第8の態様によれば、次の方法が提供される。この方法は、符号化ピクチャの符号化スライスを復号することを含む方法であって、前記復号することは:
・ 前記符号化スライスをスライスヘッダまたはスライス群パラメータセットの何れかに復号するために使用される、第1のシンタックス要素セットにおける第1の位置および第2のシンタックス要素セットにおける第2の位置を識別することと;
・ 前記符号化スライスの復号用に使用されるように、前記第1のシンタックス要素セットおよび前記第2のシンタックス要素セットを復号することを含み、該第1および第2のセットを復号することは:
* 第3のスライス群パラメータセットから前記関連する第1のセットの包含を示す第1の標示情報を復号し、前記第3のスライス群パラメータセットを示す前記第1の標示情報への応答として、前記第3のスライス群パラメータセットから前記関連する第1のシンタックス要素セットを復号すること、または、前記第1の標示情報が前記第3のスライス群パラメータセットを示さない場合、前記第1のセットのシンタックス要素を復号することと;
* 第4のスライス群パラメータセットから前記関連する第2のセットの包含を示す第2の標示情報を復号し、前記第4のスライス群パラメータセットを示す前記第2の標示情報への応答として、前記第4のスライス群パラメータセットから前記関連する第2のシンタックス要素セットを復号すること、または、前記第2の標示情報が前記第4のスライス群パラメータセットを示さない場合、前記第2のセットのシンタックス要素を復号することと;
* 前記復号された第1のシンタックス要素セットおよび第2のシンタックス要素セットを用いて、前記符号化スライスを復号すること
を含む。
According to the eighth aspect of the present invention, the following method is provided. The method includes decoding a coded slice of a coded picture, the decoding comprising:
A first position in a first syntax element set and a second position in a second syntax element set used to decode the encoded slice into either a slice header or a slice group parameter set Identifying;
Decoding the first syntax element set and the second syntax element set to be used for decoding the encoded slice, and decoding the first and second sets The thing is:
* Decoding first indication information indicating inclusion of the associated first set from a third slice group parameter set, and in response to the first indication information indicating the third slice group parameter set, Decoding the associated first syntax element set from the third slice group parameter set, or if the first indication information does not indicate the third slice group parameter set, the first slice group parameter set Decoding the syntax elements of the set;
* Decoding second indication information indicating inclusion of the related second set from a fourth slice group parameter set, and in response to the second indication information indicating the fourth slice group parameter set, Decoding the associated second syntax element set from the fourth slice group parameter set, or if the second indication information does not indicate the fourth slice group parameter set, the second slice group parameter set Decoding the syntax elements of the set;
* Decoding the encoded slice using the decoded first syntax element set and second syntax element set.

本発明の第9の態様によれば、少なくとも1つのプロセッサと、コンピュータプログラムコードを含む少なくとも1つのメモリとを備える装置が提供される。前記少なくとも1つのメモリおよび前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサを用いて、前記装置に符号化ピクチャの符号化スライスを復号させ、ここで、前記復号することは、
・ 前記符号化スライスをスライスヘッダまたはスライス群パラメータセットの何れかに復号するために使用される、第1のシンタックス要素セットにおける第1の位置および第2のシンタックス要素セットにおける第2の位置を識別することと;
・ 前記符号化スライスの復号用に使用されるように、前記第1のシンタックス要素セットおよび前記第2のシンタックス要素セットを復号することを含み、該第1および第2のセットを復号することは:
* 第3のスライス群パラメータセットから前記関連する第1のセットの包含を示す第1の標示情報を復号し、前記第3のスライス群パラメータセットを示す前記第1の標示情報への応答として、前記第3のスライス群パラメータセットから前記関連する第1のシンタックス要素セットを復号すること、または、前記第1の標示情報が前記第3のスライス群パラメータセットを示さない場合、前記第1のセットのシンタックス要素を復号することと;
* 第4のスライス群パラメータセットから前記関連する第2のセットの包含を示す第2の標示情報を復号し、前記第4のスライス群パラメータセットを示す前記第2の標示情報への応答として、前記第4のスライス群パラメータセットから前記関連する第2のシンタックス要素セットを復号すること、または、前記第2の標示情報が前記第4のスライス群パラメータセットを示さない場合、前記第2のセットのシンタックス要素を復号することと;
* 前記復号された第1のシンタックス要素セットおよび第2のシンタックス要素セットを用いて、前記符号化スライスを復号すること
を含む。
According to a ninth aspect of the present invention there is provided an apparatus comprising at least one processor and at least one memory containing computer program code. The at least one memory and the computer program code use the at least one processor to cause the apparatus to decode an encoded slice of an encoded picture, where the decoding comprises:
A first position in a first syntax element set and a second position in a second syntax element set used to decode the encoded slice into either a slice header or a slice group parameter set Identifying;
Decoding the first syntax element set and the second syntax element set to be used for decoding the encoded slice, and decoding the first and second sets The thing is:
* Decoding first indication information indicating inclusion of the associated first set from a third slice group parameter set, and in response to the first indication information indicating the third slice group parameter set, Decoding the associated first syntax element set from the third slice group parameter set, or if the first indication information does not indicate the third slice group parameter set, the first slice group parameter set Decoding the syntax elements of the set;
* Decoding second indication information indicating inclusion of the related second set from a fourth slice group parameter set, and in response to the second indication information indicating the fourth slice group parameter set, Decoding the associated second syntax element set from the fourth slice group parameter set, or if the second indication information does not indicate the fourth slice group parameter set, the second slice group parameter set Decoding the syntax elements of the set;
* Decoding the encoded slice using the decoded first syntax element set and second syntax element set.

本発明の第10の態様によれば、1つ以上の命令の1つ以上のシーケンスを含むコンピュータプログラム製品が提供される。前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、装置に少なくとも次のこと:
符号化ピクチャの符号化スライスを復号させ、ここで、前記復号することは、
・ 前記符号化スライスをスライスヘッダまたはスライス群パラメータセットの何れかに復号するために使用される、第1のシンタックス要素セットにおける第1の位置および第2のシンタックス要素セットにおける第2の位置を識別することと;
・ 前記符号化スライスの復号用に使用されるように、前記第1のシンタックス要素セットおよび前記第2のシンタックス要素セットを復号することを含み、該第1および第2のセットを復号することは:
* 第3のスライス群パラメータセットから前記関連する第1のセットの包含を示す第1の標示情報を復号し、前記第3のスライス群パラメータセットを示す前記第1の標示情報への応答として、前記第3のスライス群パラメータセットから前記関連する第1のシンタックス要素セットを復号すること、または、前記第1の標示情報が前記第3のスライス群パラメータセットを示さない場合、前記第1のセットのシンタックス要素を復号することと;
* 第4のスライス群パラメータセットから前記関連する第2のセットの包含を示す第2の標示情報を復号し、前記第4のスライス群パラメータセットを示す前記第2の標示情報への応答として、前記第4のスライス群パラメータセットから前記関連する第2のシンタックス要素セットを復号すること、または、前記第2の標示情報が前記第4のスライス群パラメータセットを示さない場合、前記第2のセットのシンタックス要素を復号することと;
* 前記復号された第1のシンタックス要素セットおよび第2のシンタックス要素セットを用いて、前記符号化スライスを復号すること
を含む。
According to a tenth aspect of the present invention, there is provided a computer program product comprising one or more sequences of one or more instructions. When the one or more sequences of the one or more instructions are executed by one or more processors, the device at least:
Decoding an encoded slice of an encoded picture, wherein the decoding comprises:
A first position in a first syntax element set and a second position in a second syntax element set used to decode the encoded slice into either a slice header or a slice group parameter set Identifying;
Decoding the first syntax element set and the second syntax element set to be used for decoding the encoded slice, and decoding the first and second sets The thing is:
* Decoding first indication information indicating inclusion of the associated first set from a third slice group parameter set, and in response to the first indication information indicating the third slice group parameter set, Decoding the associated first syntax element set from the third slice group parameter set, or if the first indication information does not indicate the third slice group parameter set, the first slice group parameter set Decoding the syntax elements of the set;
* Decoding second indication information indicating inclusion of the related second set from a fourth slice group parameter set, and in response to the second indication information indicating the fourth slice group parameter set, Decoding the associated second syntax element set from the fourth slice group parameter set, or if the second indication information does not indicate the fourth slice group parameter set, the second slice group parameter set Decoding the syntax elements of the set;
* Decoding the encoded slice using the decoded first syntax element set and second syntax element set.

本発明の第11の態様によれば、次の装置が提供される。この装置は、符号化ピクチャの符号化スライスを復号する手段を備える方法であって、前記復号する手段は、
・ 前記符号化スライスをスライスヘッダまたはスライス群パラメータセットの何れかに復号するために使用される、第1のシンタックス要素セットにおける第1の位置および第2のシンタックス要素セットにおける第2の位置を識別する手段と;
・ 前記符号化スライスの復号用に使用されるように、前記第1のシンタックス要素セットおよび前記第2のシンタックス要素セットを復号する手段を備え、該第1および第2のセットを復号する手段は:
* 第3のスライス群パラメータセットから前記関連する第1のセットの包含を示す第1の標示情報を復号し、前記第3のスライス群パラメータセットを示す前記第1の標示情報への応答として、前記第3のスライス群パラメータセットから前記関連する第1のシンタックス要素セットを復号すること、または、前記第1の標示情報が前記第3のスライス群パラメータセットを示さない場合、前記第1のセットのシンタックス要素を復号する手段と;
* 第4のスライス群パラメータセットから前記関連する第2のセットの包含を示す第2の標示情報を復号し、前記第4のスライス群パラメータセットを示す前記第2の標示情報への応答として、前記第4のスライス群パラメータセットから前記関連する第2のシンタックス要素セットを復号すること、または、前記第2の標示情報が前記第4のスライス群パラメータセットを示さない場合、前記第2のセットのシンタックス要素を復号する手段と;
* 前記復号された第1のシンタックス要素セットおよび第2のシンタックス要素セットを用いて、前記符号化スライスを復号する手段
を備える。
According to an eleventh aspect of the present invention, the following apparatus is provided. The apparatus is a method comprising means for decoding a coded slice of a coded picture, the means for decoding comprising:
A first position in a first syntax element set and a second position in a second syntax element set used to decode the encoded slice into either a slice header or a slice group parameter set Means for identifying;
Means for decoding the first syntax element set and the second syntax element set to be used for decoding the coded slice, and decoding the first and second sets Means:
* Decoding first indication information indicating inclusion of the associated first set from a third slice group parameter set, and in response to the first indication information indicating the third slice group parameter set, Decoding the associated first syntax element set from the third slice group parameter set, or if the first indication information does not indicate the third slice group parameter set, the first slice group parameter set Means for decoding the syntax elements of the set;
* Decoding second indication information indicating inclusion of the related second set from a fourth slice group parameter set, and in response to the second indication information indicating the fourth slice group parameter set, Decoding the associated second syntax element set from the fourth slice group parameter set, or if the second indication information does not indicate the fourth slice group parameter set, the second slice group parameter set Means for decoding the syntax elements of the set;
* Means for decoding the coded slice using the decoded first and second syntax element sets.

本発明の例示的実施形態をよりはっきりと理解するために、次の添付図面を参照しつつ以下の説明を参照されたい。
例示的実施形態に従うビデオ符号化システムのブロック図を示す。 例示的実施形態に従うビデオ符号化装置を示す。 例示的実施形態に従う複数の装置,ネットワークおよびネットワーク要素を含むビデオ符号化構成を示す。 例示的実施形態に従うビデオ符号化および復号化のブロック図を示す。 例示的実施形態に従うビデオ符号化および復号化のブロック図を示す。 DIBRベースの3DVシステムの簡易モデルを示す。 立体カメラセットアップの簡易2次元モデルを示す。 アクセスユニットの定義および符号化順序の実施例を示す。 テクスチャビューおよび深度ビューを符号化することができるエンコーダに関する実施形態の高水準スローチャートを示す。 テクスチャビューおよび深度ビューを復号することができるデコーダに関する実施形態の高水準スローチャートを示す。 例示的実施形態に従うアクセスユニットの構造を簡易的に示す。 1つのコンポーネントピクチャ区切りNALユニットおよび2つの符号化スライスNALユニットを含むコンポーネントピクチャの実施例を示す。 スライスパラメータ構造のCPD間予測の実施例を示す。
For a clearer understanding of exemplary embodiments of the invention, reference should be made to the following description, taken in conjunction with the accompanying drawings, in which:
1 shows a block diagram of a video encoding system according to an exemplary embodiment. FIG. 1 illustrates a video encoding apparatus according to an exemplary embodiment. 2 illustrates a video encoding configuration including a plurality of devices, networks and network elements according to an exemplary embodiment. FIG. 4 shows a block diagram of video encoding and decoding according to an exemplary embodiment. FIG. 4 shows a block diagram of video encoding and decoding according to an exemplary embodiment. A simplified model of a DIBR-based 3DV system is shown. A simple 2D model of a stereoscopic camera setup is shown. An example of access unit definition and coding order is shown. FIG. 5 illustrates a high level slow chart of an embodiment for an encoder that can encode texture views and depth views. FIG. FIG. 6 illustrates a high level slow chart of an embodiment for a decoder capable of decoding texture and depth views. Fig. 6 schematically shows the structure of an access unit according to an exemplary embodiment. An example of a component picture including one component picture delimited NAL unit and two coded slice NAL units is shown. An example of inter-CPD prediction of a slice parameter structure is shown.

実施形態の詳細な説明Detailed Description of Embodiments

つぎに、本発明の複数の実施形態を、ビデオ符号化構成を背景にして説明する。ただし、本発明はこうした特定の構成に限定されるものではないことに留意されたい。   Next, a plurality of embodiments of the present invention will be described in the context of a video coding configuration. However, it should be noted that the present invention is not limited to such a specific configuration.

実際に、リファレンスピクチャの取扱いの改良が要求される環境下において、様々な実施形態を幅広く適用することができる。例えば、本発明はストリーミングシステム等のビデオ符号化システムやDVDプレーヤー,デジタルテレビ受像機,パーソナルビデオレコーダーやシステム,パーソナルコンピュータや携帯コンピュータ,通信デバイスで実行されるコンピュータプログラムに対して適用可能でもよい。さらに、ビデオデータを取扱うトランスコーダやクラウドコンピューティング構成等のネットワーク要素に対して適用可能でもよい。   Actually, various embodiments can be widely applied in an environment where an improvement in handling of a reference picture is required. For example, the present invention may be applicable to a video encoding system such as a streaming system, a DVD player, a digital television receiver, a personal video recorder or system, a personal computer, a portable computer, or a computer program executed on a communication device. Furthermore, the present invention may be applicable to network elements such as a transcoder that handles video data and a cloud computing configuration.

H.264/AVC規格は、ITU-T(国際電気通信連合の電気通信標準化部門)のビデオ符号化専門家グループ(VCEG)およびISO(国際標準化機構)/IEC(国際電気標準会議)の動画専門家グループ(MPEG)による統合ビデオチーム(JVT)によって開発された。H.264/AVC規格は親である両標準化機構によって公開されており、ITU-T勧告H.264およびISO/IEC国際規格14496-10と呼ばれる。ISO/IEC14496-10はMPEG-4パート10アドバンスドビデオ符号化(Advanced Video Coding;AVC)として知られている。H.264/AVC規格には複数のバージンがあり、それぞれが規格に新たな拡張や仕様を統合している。こうした拡張には、スケーラブルビデオ符号化(Scalable Video Coding;SVC)とマルチビュービデオ符号化(Multiview Video Coding;MVC)が含まれる。   The H.264 / AVC standard is a video coding expert group (VCEG) from the ITU-T (International Telecommunication Union Telecommunication Standardization Sector) and video specialists from the ISO (International Organization for Standardization) / IEC (International Electrotechnical Commission) Developed by the Integrated Video Team (JVT) by the House Group (MPEG). The H.264 / AVC standard is published by both parental standards organizations and is called ITU-T recommendation H.264 and ISO / IEC international standard 14496-10. ISO / IEC14496-10 is known as MPEG-4 Part 10 Advanced Video Coding (AVC). There are several virgins in the H.264 / AVC standard, each of which integrates new extensions and specifications. Such extensions include Scalable Video Coding (SVC) and Multiview Video Coding (MVC).

また現在では、VCEGとMPEGの共同研究開発チーム(JCT-VC)によって高効率ビデオ符号化(High Efficiency Video Coding;HEVC)の標準化プロジェクトが進められている。   Currently, a joint project between VCEG and MPEG (JCT-VC) is working on a standardization project for High Efficiency Video Coding (HEVC).

本節では、H.264/AVCおよびHEVCの重要な定義やビットストリーム,符号化構造,概念の一部がビデオのエンコーダやデコーダ,符号化方法,復号方法,ビットストリーム構造の例として説明される。本発明の実施形態はこうした例に実装されてもよい。H.264/AVCの重要な定義やビットストリーム,符号化構造,概念の中には、現在作業中のHEVCのドラフトにあるものと同一のものもある。したがって、以下ではこれらも一緒に説明される。本発明の態様はH.264/AVCやHEVCに限定されるものではない。本明細書は、本発明の一部または全部が実現される上での可能な原理を説明するためのものである。   In this section, important definitions of H.264 / AVC and HEVC, bitstreams, coding structures, and some of the concepts are described as examples of video encoders and decoders, coding methods, decoding methods, and bitstream structures. Embodiments of the invention may be implemented in such examples. Some important definitions, bitstreams, coding structures, and concepts in H.264 / AVC are identical to those in the current draft of the HEVC. Therefore, these are also described below. The aspect of the present invention is not limited to H.264 / AVC or HEVC. This specification is intended to illustrate possible principles for implementing some or all of the invention.

数ある従来のビデオ符号化規格と同様にH.264/AVCとHEVCでも、エラーの無いビットストリームの復号処理だけでなくビットストリームの構文と意味についても規定されている。符号化処理は規定されていないが、エンコーダは必ずビットストリームの確認を行わなくてはならない。ビットストリームとデコーダの適合性は、仮想リファレンスデコーダ(Hypothetical Reference Decoder;HRD)を用いて検証することができる。標準規格は伝送エラーや伝送損失対策を助ける符号化ツールを含む。しかし、こうしたツールを符号化で使用するのは任意選択であって、誤ったビットストリームに対する復号処理は何も規定されていない。   As with many conventional video coding standards, H.264 / AVC and HEVC also define not only error-free bitstream decoding processing but also bitstream syntax and meaning. Although the encoding process is not defined, the encoder must always check the bit stream. The compatibility of the bit stream and the decoder can be verified using a hypothetical reference decoder (HRD). The standard includes coding tools that help counter transmission errors and transmission losses. However, the use of such a tool for encoding is optional, and no decoding process is specified for the wrong bitstream.

H.264/AVCまたはHEVCのエンコーダへの入力およびH.264/AVCまたはHEVCのデコーダからの出力のための基本単位はそれぞれピクチャである。H.264/AVCでは、ピクチャはフレームまたはフィールドの何れかでもよい。現在作成中のHEVCドラフトでは、ピクチャはフレームである。フレームは輝度(luma)サンプルと対応する色差(chroma)サンプルの行列を含む。フィールドはフレームの代替サンプル行の組であり、ソース信号がインターレースである場合、エンコーダ入力として用いられてもよい。色差ピクチャは、輝度ピクチャと比較されるときにサブサンプリングされてもよい。例えば、4:2:0サンプリングパターンでは、色差ピクチャの空間解像度は両座標軸で輝度ピクチャの半分である。   The basic unit for input to an H.264 / AVC or HEVC encoder and output from an H.264 / AVC or HEVC decoder is a picture, respectively. In H.264 / AVC, a picture may be either a frame or a field. In the HEVC draft currently being created, the picture is a frame. The frame includes a matrix of luminance (luma) samples and corresponding color difference (chroma) samples. A field is a set of alternate sample rows of a frame and may be used as an encoder input if the source signal is interlaced. The color difference picture may be subsampled when compared to the luminance picture. For example, in the 4: 2: 0 sampling pattern, the spatial resolution of the color difference picture is half that of the luminance picture on both coordinate axes.

H.264/AVCでは、16×16ブロックの輝度サンプルと対応する色差サンプルのブロックがマクロブロックである。例えば、4:2:0サンプリングパターンでは、マクロブロックは各色差成分で8×8ブロックの色差サンプルを含む。H.264/AVCでは、ピクチャは1つ以上のスライスグループに分割され、スライスグループは1つ以上のスライスを含む。H.264/AVCでは、スライスは整数のマクロブロックから成り、特定のスライスグループ内でラスタースキャンの順で連続している。   In H.264 / AVC, 16 × 16 block luminance samples and corresponding color difference sample blocks are macroblocks. For example, in the 4: 2: 0 sampling pattern, the macroblock includes 8 × 8 block color difference samples for each color difference component. In H.264 / AVC, a picture is divided into one or more slice groups, and the slice group includes one or more slices. In H.264 / AVC, a slice is composed of an integer number of macro blocks, and is consecutive in the order of raster scan within a specific slice group.

HEVCドラフト規格では、ビデオピクチャは、ピクチャ領域を覆う複数の符号化単位(CU)に分割される。CUは1つ以上の予測単位(PU)と1つ以上の変換単位(TU)から成る。PUはCU内のサンプルに対する予測処理を規定し、TUはCUのサンプルに対する予測誤差の符号化処理を規定する。通常CUは、正方形のサンプルブロックから成り、既定されている可能なCUサイズのセットから選択可能なサイズを持つ。最大許容サイズのCUは通常、LCU(最大符号化単位)と呼ばれ、ビデオピクチャは重なり合わないLCUに分割される。LCUは、例えばLCUと分割の結果得られるCUを再帰的に分割することによって更に小さいCUの組合せに分割されることもある。分割の結果得られる各CUは通常、少なくとも1つのPUとそれに関連する少なくとも1つのTUを有する。PUとTUはそれぞれ、予測処理と予測誤差符号化処理の粒度を上げるために、更に小さい複数のPUとTUに分割されることもある。PU分割は、CUを同じサイズの4つの正方形PUに分割することで行われてもよい。あるいは、対称的または非対称的方法でCUを縦または横で2つの長方形PUに分割することで行われてもよい。ピクチャをCUに分割し、CUをPUとTUに分割することは通常、デコーダにこうしたユニットから目的の構造を再生させるビットストリーム信号で伝えられる。   In the HEVC draft standard, a video picture is divided into a plurality of coding units (CU) covering a picture area. A CU consists of one or more prediction units (PU) and one or more conversion units (TU). PU specifies the prediction process for the samples in the CU, and TU specifies the encoding process of the prediction error for the samples in the CU. A CU usually consists of square sample blocks and has a size that can be selected from a set of predefined possible CU sizes. The CU with the maximum allowable size is usually called LCU (maximum coding unit), and the video picture is divided into non-overlapping LCUs. The LCU may be divided into smaller CU combinations, for example, by recursively dividing the LCU and the CU obtained as a result of the division. Each CU resulting from the split typically has at least one PU and at least one TU associated with it. Each PU and TU may be further divided into a plurality of smaller PUs and TUs in order to increase the granularity of the prediction process and the prediction error encoding process. The PU division may be performed by dividing the CU into four square PUs having the same size. Alternatively, it may be performed by dividing the CU vertically or horizontally into two rectangular PUs in a symmetric or asymmetric manner. Dividing a picture into CUs and CUs into PUs and TUs is usually conveyed by a bitstream signal that causes the decoder to reconstruct the desired structure from these units.

HEVCドラフト規格では、ピクチャはタイルに分割される。タイルは長方形で、整数のLCUを含む。現在作業中のHEVCドラフトでは、タイル分割(パーティショニング)は規則的なグリッドを形成し、タイルの高さと幅は最大のLCUによって互いに異なる。HEVCドラフトでは、スライスは整数のCUから成る。CUは、タイル内、またはタイルが使われない場合はピクチャ内でLCUのラスタースキャン順にスキャンされる。LCU内では、CUは特定のスキャン順序を持つ。   In the HEVC draft standard, a picture is divided into tiles. The tile is rectangular and contains an integer number of LCUs. In the currently working HEVC draft, tile partitioning forms a regular grid, and the height and width of the tiles differ from one another by the largest LCU. In the HEVC draft, a slice consists of an integer number of CUs. The CUs are scanned within the tile or in the LCU raster scan order within the picture if no tiles are used. Within the LCU, the CU has a specific scan order.

HEVCのワーキングドラフト(WD)5では、ピクチャのパーティショニングに関する主要規定と概念が次のように定義されている。パーティショニングとは、1つのセットの各要素が正確にサブセットの1つであるように、そのセットを複数のサブセットに分割することとして定義される。   HEVC Working Draft (WD) 5 defines the main rules and concepts for picture partitioning as follows: Partitioning is defined as dividing a set into multiple subsets so that each element of a set is exactly one of the subsets.

HEVC WD5の基本符号化単位はツリーブロックである。ピクチャのツリーブロックは、N×Nブロックの輝度サンプルと対応する2ブロックの色差サンプルという3つのサンプル配列持つ。あるいは、モノクロピクチャや3つの別々の色平面を用いて符号化されるピクチャに関するN×Nブロックのサンプルである。ツリーブロックは、別々の符号化および復号処理用に分割されてもよい。ツリーブロック分割(パーティショニング)は、ピクチャのツリーブロック分割によって得られる1ブロックの輝度サンプルと対応する2ブロックの色差サンプルという3つのサンプル配列持つ。あるいは、モノクロピクチャや3つの別々の色平面を用いて符号化されるピクチャのツリーブロック分割によって得られるに関する1ブロックの輝度サンプルである。各ツリーブロックには、イントラまたはインター予測符号化用のブロックサイズと変換符号化用ブロックサイズを識別するパーティション信号が割当てられる。パーティショニングは再帰的4分木パーティショニングである。4分木の根はツリーブロックに関連付けられる。4分木は、符号化ノードとも呼ばれる葉ノードに到達するまで分割される。符号化ノードは、予測ツリーと変換ツリーの2つのツリーの根ノードである。予測ツリーは予測ブロックの位置とサイズを特定する。予測ツリーと関連する予測データは予測単位と呼ばれる。変換ツリーは変換ブロックの位置とサイズを特定する。変換ツリーと関連する変換データは変換単位と呼ばれる。輝度および色差の分割情報は予測ツリーでは同一であるが、変換ツリーでは同一でも異なっていてもどちらでもよい。符号化ノードと関連する予測単位・変換単位は合わせて符号化単位を形成する。   The basic coding unit of HEVC WD5 is a tree block. A tree block of a picture has three sample arrays, that is, luminance samples of N × N blocks and corresponding two blocks of color difference samples. Alternatively, it is a sample of N × N blocks for a monochrome picture or a picture encoded using three separate color planes. Tree blocks may be partitioned for separate encoding and decoding processes. Tree block partitioning (partitioning) has three sample arrays: one block of luminance samples obtained by tree block partition of a picture and two blocks of color difference samples corresponding thereto. Alternatively, a block of luminance samples that are obtained by tree block partitioning of a monochrome picture or a picture encoded using three separate color planes. Each tree block is assigned a partition signal that identifies a block size for intra or inter prediction encoding and a block size for transform encoding. Partitioning is recursive quadtree partitioning. The root of the quadtree is associated with the tree block. The quadtree is split until it reaches a leaf node, also called a coding node. The encoding node is a root node of two trees, a prediction tree and a transformation tree. The prediction tree specifies the position and size of the prediction block. Prediction data associated with a prediction tree is called a prediction unit. The transformation tree specifies the location and size of the transformation block. The conversion data associated with the conversion tree is called a conversion unit. The luminance and color difference division information is the same in the prediction tree, but may be the same or different in the conversion tree. The prediction unit and the conversion unit associated with the encoding node together form an encoding unit.

HEVC WD5では、ピクチャはスライスとタイルに分割される。スライスはツリーブロックのシーケンスでもよいが、(いわゆる高精細スライスと呼ばれる場合は)ツリーブロック内の変換単位と予測単位が一致する場所に境界があってもよい。スライス内のツリーブロックは、ラスタースキャン順序で符号化され復号される。最初の符号化ピクチャに対して、各ピクチャをスライスに分割することがパーティショニングである。   In HEVC WD5, a picture is divided into slices and tiles. A slice may be a sequence of tree blocks, but (when called a so-called high-definition slice) there may be a boundary where the transform unit and the prediction unit in the tree block match. Tree blocks within a slice are encoded and decoded in raster scan order. Partitioning each picture into slices for the first coded picture is partitioning.

HEVC WD5では、タイルは、1つの列または行に存在する整数のツリーブロックとして定義され、このツリーブロックはタイル内でラスタースキャン順に連続している。最初の符号化ピクチャに対して、各ピクチャをタイルに分割することもパーティショニングである。タイルはピクチャ内でラスタースキャン順に連続している。スライスはそこでラスタースキャン順に連続するツリーブロックを含むが、こうしたツリーブロックがピクチャ内でラスタースキャン順に連続している必要はない。また、スライスとタイルは同一のツリーブロック列を含む必要はない。タイルは複数のスライスに含まれるツリーブロックを含んでもよい。同様に、1つのスライスが複数のスライスに含まれるツリーブロックを含んでもよい。   In HEVC WD5, a tile is defined as an integer tree block that exists in one column or row, and this tree block is contiguous in the raster scan order within the tile. Partitioning each picture into tiles for the first coded picture is also partitioning. The tiles are consecutive in the raster scan order in the picture. A slice then contains tree blocks that are contiguous in raster scan order, but such tree blocks need not be contiguous in raster scan order within a picture. Also, slices and tiles need not contain the same tree block sequence. A tile may include tree blocks included in multiple slices. Similarly, one slice may include a tree block included in a plurality of slices.

H.264/AVCおよびHEVCでは、ピクチャ内でスライス境界を跨ぐ予測が無効でもよい。したがって、スライスは、符号化ピクチャを独立して復号される部分に分割する方法として考えられることもあり、それ故しばしば、伝送の基本単位と見做される。多くの場合、エンコーダは、ピクチャ内予測のどの種類がスライス境界を跨ぐ際に止められているかをビットストリームで示してもよい。この情報は、デコーダの動作によって、どの予測ソースが利用可能であるかを決定する際などで考慮される。例えば、隣接するマクロブロックやCUが別のスライスに存在する場合、その隣接するマクロブロックやCUからのサンプルはイントラ予測には利用不可であると見做されてもよい。   In H.264 / AVC and HEVC, prediction across slice boundaries in a picture may be invalid. Thus, a slice may be considered as a way to divide an encoded picture into parts that are independently decoded and is therefore often considered the basic unit of transmission. In many cases, the encoder may indicate in the bitstream which types of intra-picture prediction are stopped when crossing a slice boundary. This information is taken into account when determining which prediction sources are available by the operation of the decoder. For example, when an adjacent macroblock or CU exists in another slice, it may be considered that samples from the adjacent macroblock or CU cannot be used for intra prediction.

シンタックス要素はビットストリームで表わされるデータの要素として定義される。シンタックス構造は、特定の順序のビットストリームで表わされる0以上のデータの要素として定義される。   A syntax element is defined as an element of data represented by a bit stream. A syntax structure is defined as zero or more elements of data represented by a particular order of bitstreams.

H.264/AVCまたはHEVCのエンコーダからの出力およびH.264/AVCまたはHEVCのデコーダへの入力のための基本単位はそれぞれ、ネットワーク抽象化層(Network Abstraction Layer;NAL)ユニットである。パケット指向ネットワークでの伝送や構造化ファイルへの格納に対して、NALユニットはパケットや同様の構造にカプセル化されてもよい。H.264/AVCおよびHEVCでは、フレーム構造を提供しない伝送や格納の環境に対してバイトストリーム・フォーマットが特定されている。バイトストリーム・フォーマットは、各NALユニットの先頭に開始コードを付与することによってNALユニット同士を分離する。NALユニット境界の誤検出を防止するために、エンコーダはバイト指向開始コードエミュレーション防止アルゴリズムを実行する。これは、開始コードが別の形で生じた場合にNALユニットペイロードにエミュレーション防止バイトを追加する。パケット指向システムとストリーム指向システムとの間の直接的なゲートウェイ動作を可能とするために、バイトストリーム・フォーマットが使用されているか否かに関係なく常に開始コードエミュレーション防止が行われてもよい。   The basic units for output from an H.264 / AVC or HEVC encoder and input to an H.264 / AVC or HEVC decoder are network abstraction layer (NAL) units, respectively. For transmission over packet-oriented networks and storage in structured files, NAL units may be encapsulated in packets or similar structures. In H.264 / AVC and HEVC, a byte stream format is specified for a transmission or storage environment that does not provide a frame structure. The byte stream format separates NAL units from each other by adding a start code to the head of each NAL unit. To prevent false detection of NAL unit boundaries, the encoder performs a byte oriented start code emulation prevention algorithm. This adds an emulation prevention byte to the NAL unit payload if the start code occurs in another way. In order to allow direct gateway operation between packet-oriented and stream-oriented systems, start code emulation prevention may always be performed regardless of whether the byte stream format is used.

NALユニットはヘッダとペイロードから成る。H.264/AVCおよびHEVCでは、NALユニットヘッダはNALユニットの種類と、NALユニットに含まれる符号化スライスがリファレンスピクチャであるか非リファレンスピクチャであるかを示す。H.264/AVCは2ビットのシンタックス要素nal_ref_idcを含み、これが0のときはNALユニットに含まれる符号化スライスが非リファレンスピクチャの一部であることを示し、0を超えるときはNALユニットに含まれる符号化スライスがリファレンスピクチャの一部であることを示す。HEVCドラフトは1ビットのシンタックス要素nal_ref_idcを含み、nal_ref_flagとも呼ばれる。これが0のときはNALユニットに含まれる符号化スライスが非リファレンスピクチャの一部であることを示し、1のときはNALユニットに含まれる符号化スライスがリファレンスピクチャの一部であることを示す。SVCおよびMVCのNALユニットヘッダは、拡張性とマルチビュー階層の関連する様々な標示を追加で含んでもよい。HEVCでは、NALユニットヘッダはシンタックス要素temporal_idを含み、NALユニットに対する時間識別子を特定する。選択された値以上のtemporal_idを持つ全てのVCL-NALユニットを除外し、それ以外の全てのVCL-NALユニットを含めることによって生成されたビットストリームが適合するものである。その結果、TIDと等しいtemporal_idを持つピクチャは、TIDを超えるtemporal_idを持つどのピクチャもインター予測リファレンスとして使用しない。HEVCドラフトでは、リファレンスピクチャ・リストの初期化は、「リファレンスに使用済」とマークされ、temporal_idが現在のピクチャ(現ピクチャ)のtemporal_id以下であるリファレンスピクチャのみに限定される。   A NAL unit consists of a header and a payload. In H.264 / AVC and HEVC, the NAL unit header indicates the type of NAL unit and whether the encoded slice included in the NAL unit is a reference picture or a non-reference picture. H.264 / AVC includes a 2-bit syntax element nal_ref_idc. When this is 0, it indicates that the encoded slice included in the NAL unit is part of a non-reference picture, and when it exceeds 0, it is included in the NAL unit. This indicates that the included encoded slice is a part of the reference picture. The HEVC draft includes a 1-bit syntax element nal_ref_idc and is also called nal_ref_flag. When this is 0, it indicates that the encoded slice included in the NAL unit is a part of the non-reference picture, and when it is 1, it indicates that the encoded slice included in the NAL unit is a part of the reference picture. SVC and MVC NAL unit headers may additionally contain various indications related to extensibility and multi-view hierarchy. In HEVC, the NAL unit header includes a syntax element temporal_id and specifies a time identifier for the NAL unit. The bitstream generated by excluding all VCL-NAL units with a temporal_id greater than the selected value and including all other VCL-NAL units is compatible. As a result, a picture having temporal_id equal to TID does not use any picture having temporal_id exceeding TID as an inter prediction reference. In the HEVC draft, initialization of the reference picture list is limited to only reference pictures that are marked “used for reference” and whose temporal_id is less than or equal to temporal_id of the current picture (current picture).

NALユニットはビデオ符号化層(Video Coding Layer;VCL)NALユニットと非VCL-NALユニットに分類される。VCL-NALユニットは通常、符号化スライスNALユニットである。H.264/AVCでは、符号化スライスNALユニットは1つ以上の符号化マクロブロックを表わすシンタックス要素を含み、それぞれが非圧縮ピクチャのサンプルブロックに対応する。HEVCでは、符号化スライスNALユニットは1つ以上のCUを表わすシンタックス要素を含む。H.264/AVCおよびHEVCでは、符号化スライスNALユニットは瞬時復号リフレッシュ(Instantaneous Decoding Refresh;IDR)ピクチャの符号化スライスまたは非IDRピクチャの符号化スライスであると示されることもある。HEVCでは、符号化スライスNALユニットはクリーン復号リフレッシュ(Clean Decoding Refresh;CDR)ピクチャ(クリーン・ランダムアクセス(Clean Random Access)ピクチャとも呼ばれる)の符号化スライスであると示されることもある。   NAL units are classified into Video Coding Layer (VCL) NAL units and non-VCL-NAL units. A VCL-NAL unit is usually a coded slice NAL unit. In H.264 / AVC, a coded slice NAL unit includes syntax elements representing one or more coded macroblocks, each corresponding to a sample block of an uncompressed picture. In HEVC, a coded slice NAL unit includes a syntax element that represents one or more CUs. In H.264 / AVC and HEVC, a coded slice NAL unit may be indicated to be a coded slice of an Instantaneous Decoding Refresh (IDR) picture or a coded slice of a non-IDR picture. In HEVC, a coded slice NAL unit may be indicated as a coded slice of a Clean Decoding Refresh (CDR) picture (also called a Clean Random Access picture).

非VCL-NALユニットは、例えば次のタイプの1つでもよい:シーケンスパラメータセット;ピクチャパラメータセット;補助強化情報(supplemental enhancement information;SEI)NALユニット;アクセスユニット区切り;シーケンスNALユニット終端;ストリームNALユニット終端;または補充データNALユニット。パラメータセットは復号ピクチャの再構成に必要であってもよいが、他の非VCL-NALユニットの多くは、復号サンプル値の再構成には必要ない。   The non-VCL-NAL unit may be, for example, one of the following types: sequence parameter set; picture parameter set; supplemental enhancement information (SEI) NAL unit; access unit delimiter; sequence NAL unit termination; stream NAL unit Termination; or supplementary data NAL unit. The parameter set may be necessary for the reconstruction of the decoded picture, but many of the other non-VCL-NAL units are not necessary for the reconstruction of the decoded sample values.

符号化ビデオシーケンスで不変のパラメータがシーケンスパラメータセットに含まれてもよい。復号処理に重要であるパラメータに加え、シーケンスパラメータセットがビデオユーザビリティ情報(video usability information;VUI)を含んでもよい。これは、バッファリングやピクチャ出力タイミング,レンダリング,リソース予約に重要なパラメータを含む。H.264/AVCでは、シーケンスパラメータセットを含む3つのNALユニットが規定されている。シーケンスパラメータセットNALユニットは、H.264/AVCのVCL-NALユニット用データ全てをシーケンスに含む。シーケンスパラメータセット拡張NALユニットは補助符号化ピクチャ用データを含む。サブセット・シーケンスパラメータセットNALユニットはMVCとSVCのVCL-NALユニット用である。ピクチャパラメータセットは、複数の符号化ピクチャで不変であるようなパラメータを含む。   Parameters that are unchanged in the encoded video sequence may be included in the sequence parameter set. In addition to the parameters that are important for the decoding process, the sequence parameter set may include video usability information (VUI). This includes important parameters for buffering, picture output timing, rendering, and resource reservation. In H.264 / AVC, three NAL units including a sequence parameter set are defined. The sequence parameter set NAL unit includes all the data for the H.264 / AVC VCL-NAL unit in the sequence. The sequence parameter set extended NAL unit includes data for auxiliary coded pictures. The subset sequence parameter set NAL unit is for the MCL and SVC VCL-NAL units. The picture parameter set includes parameters that are unchanged in a plurality of encoded pictures.

HEVCドラフトでは、適応パラメータセット(Adaptation Parameter Set;APS)と呼ばれる第3のタイプのパラメータセットがあり、複数の符号化ピクチャで不変であるようなパラメータを含む。HEVCドラフトでは、APSシンタックス構造は、コンテキスト適応型二値算術符号化(context-based adaptive binary arithmetic coding;CABAC)や適応サンプルオフセット,適応ループフィルタリング,デブロッキング・フィルタリングに関連するパラメータまたはシンタックス要素を含む。HEVCドラフトでは、APSは他のNALユニットから参照または予測されずに符号化されるNALユニットである。シンタックス要素aps_idと呼ばれる識別子はAPS-NALユニットに含まれる。これはスライスヘッダにも含まれ、特定のAPSを表わすために用いられる。   In the HEVC draft, there is a third type of parameter set called an adaptation parameter set (APS), which includes parameters that are invariant in a plurality of coded pictures. In the HEVC draft, the APS syntax structure is a parameter or syntax element related to context-based adaptive binary arithmetic coding (CABAC), adaptive sample offset, adaptive loop filtering, or deblocking filtering. including. In the HEVC draft, the APS is a NAL unit that is encoded without reference or prediction from other NAL units. An identifier called the syntax element aps_id is included in the APS-NAL unit. This is also included in the slice header and is used to represent a specific APS.

H.264/AVCおよびHEVCのシンタックスは様々なパラメータインスタンスを許容し、各インスタンスは固有の識別子で識別される。H.264/AVCでは、各スライスヘッダは、そのスライスを含むピクチャの復号に対してアクティブなピクチャパラメータセットの識別子を含む。各ピクチャパラメータセットは、アクティブなシーケンスパラメータセットの識別子を含む。その結果、ピクチャとシーケンスパラメータセットの伝送がスライスの伝送と正確に同期されている必要がない。実際に、アクティブシーケンスとピクチャパラメータセットはそれらが参照される前までに受取られていれば十分であり、スライスデータ用のプロトコルよりも高い信頼性のある伝送機構を使って「帯域外」でパラメータセットを伝送することが可能になる。例えば、パラメータセットはリアルタイム転送プロトコル(Real-time Transport Protocol;RTP)セッション用のセッション記述でのパラメータとして含まれてもよい。パラメータセットは、帯域内で伝送される場合、エラー耐性を高めるために繰り返されることもある。   The syntax of H.264 / AVC and HEVC allows various parameter instances, and each instance is identified by a unique identifier. In H.264 / AVC, each slice header includes an identifier of a picture parameter set active for decoding a picture including the slice. Each picture parameter set includes an identifier of the active sequence parameter set. As a result, the transmission of pictures and sequence parameter sets need not be precisely synchronized with the transmission of slices. In fact, it is sufficient that the active sequence and picture parameter sets are received before they are referenced, and parameters are set “out of band” using a more reliable transmission mechanism than the protocol for slice data. The set can be transmitted. For example, the parameter set may be included as a parameter in a session description for a Real-time Transport Protocol (RTP) session. The parameter set may be repeated to increase error tolerance when transmitted in-band.

SEI-NALユニットは1つ以上のSEIメッセージを含んでもよい。これらは出力ピクチャの復号には必要ないが、ピクチャ出力タイミングやエラー検出,エラー隠蔽,リソース予約等の関連処理を補助する。複数のSEIメッセージがH.264/AVCおよびHEVCで規定され、ユーザデータのSEIメッセージによって組織や企業が独自に使用するSEIメッセージも規定される。H.264/AVCおよびHEVCは、規定されたSEIメッセージのシンタックスと意味を含むが、受信側でメッセージを取扱う処理については何も定義されない。その結果、エンコーダはSEIメッセージを作成する際、H.264/AVC規格やHEVC規格に従い、デコーダもそれぞれH.264/AVC規格やHEVC規格に準拠する必要がある。しかし、SEIメッセージを出力規定に準じて処理する必要はない。H.264/AVCおよびHEVCでSEIメッセージのシンタックスと意味を含める理由の1つは、異なるシステム仕様でも補助情報を同じ様に解釈し相互運用を可能にすることである。システム仕様は符号化側と復号側の両方で特定のSEIメッセージを使用可能にするように要求するものであり、受信側で特定のSEIメッセージを取扱う処理も規定されてもよい。   A SEI-NAL unit may contain one or more SEI messages. These are not necessary for decoding the output picture, but assist related processing such as picture output timing, error detection, error concealment, and resource reservation. A plurality of SEI messages are defined by H.264 / AVC and HEVC, and SEI messages uniquely used by organizations and companies are also defined by SEI messages of user data. H.264 / AVC and HEVC include the prescribed SEI message syntax and meaning, but nothing is defined about the message handling on the receiving side. As a result, the encoder needs to comply with the H.264 / AVC standard or HEVC standard, and the decoder must comply with the H.264 / AVC standard or HEVC standard, respectively, when creating the SEI message. However, it is not necessary to process SEI messages according to the output regulations. One reason for including the syntax and meaning of SEI messages in H.264 / AVC and HEVC is to allow the same information to be interpreted and interoperated in different system specifications in the same way. The system specification requires that a specific SEI message be enabled on both the encoding side and the decoding side, and a process for handling a specific SEI message may be defined on the receiving side.

符号化ピクチャはピクチャの符号化された表現である。H.264/AVCでの符号化ピクチャは、ピクチャの復号に必要なVCL-NALユニットを含む。H.264/AVCでは、符号化ピクチャはプライマリ符号化ピクチャまたは冗長符号化ピクチャである。プライマリ符号化ピクチャは有効なビットストリームの復号処理で使用される。一方、冗長符号化ピクチャは、プライマリ符号化ピクチャが正しく復号されない場合にだけ復号される冗長表現である。HEVCドラフトでは、冗長符号化ピクチャは規定されていない。   An encoded picture is an encoded representation of a picture. An encoded picture in H.264 / AVC includes a VCL-NAL unit necessary for decoding the picture. In H.264 / AVC, a coded picture is a primary coded picture or a redundant coded picture. The primary encoded picture is used in the effective bitstream decoding process. On the other hand, the redundant coded picture is a redundant representation that is decoded only when the primary coded picture is not correctly decoded. In the HEVC draft, redundant coded pictures are not defined.

H.264/AVCおよびHEVCでは、アクセスユニットがプライマリ符号化ピクチャとそれに関連付けられるNALユニットを含む。H.264/AVCでは、アクセスユニット内でのNALユニットの出現順序が次の通りに制限されている。追加アクセスユニット区切りのNALユニットは、アクセスユニットの起点を示すことができる。この後に0以上のSEI-NALユニットが続く。プライマリ符号化ピクチャの符号化スライスが次に現われる。H.264/AVCでは、プライマリ符号化ピクチャの符号化スライスの後に0以上の冗長符号化ピクチャの符号化スライスが続いてもよい。冗長符号化ピクチャは、ピクチャまたはピクチャの一部の符号化された表現である。冗長符号化ピクチャは、伝送損失や物理記憶媒体でのデータ破損等によってデコーダがプライマリ符号化ピクチャを受取れない場合に復号されてもよい。   In H.264 / AVC and HEVC, an access unit includes a primary encoded picture and a NAL unit associated therewith. In H.264 / AVC, the order of appearance of NAL units within an access unit is limited as follows. The NAL unit separated by the additional access unit can indicate the starting point of the access unit. This is followed by zero or more SEI-NAL units. The encoded slice of the primary encoded picture appears next. In H.264 / AVC, an encoded slice of zero or more redundant encoded pictures may follow an encoded slice of a primary encoded picture. A redundant coded picture is a coded representation of a picture or part of a picture. The redundant coded picture may be decoded when the decoder cannot receive the primary coded picture due to transmission loss, data corruption in the physical storage medium, or the like.

H.264/AVCでは、アクセスユニットは補助符号化ピクチャを含んでもよい。これは、プライマリ符号化ピクチャを補助/補完し、表示処理等で使用することができるピクチャである。補助符号化ピクチャは、例えば復号ピクチャのサンプルの透過レベルを特定するアルファチャンネルやアルファ面として使用されてもよい。アルファチャンネルまたはアルファ面は、レイヤ成分やレンダリングシステムで使用されてもよい。出力ピクチャは、互いに表面で少なくとも一部が透過しているピクチャを重ね合わせることで作成される。補助符号化ピクチャは、モノクロ冗長符号化ピクチャとして同一のシンタックスと意味の制限がある。H.264/AVCでは、補助符号化ピクチャはプライマリ符号化ピクチャと同数のマクロブロックを含む。   In H.264 / AVC, the access unit may include auxiliary coded pictures. This is a picture that supplements / complements the primary encoded picture and can be used in display processing or the like. The auxiliary encoded picture may be used as, for example, an alpha channel or an alpha plane that specifies a transmission level of a decoded picture sample. The alpha channel or alpha plane may be used in layer components and rendering systems. The output picture is created by superimposing pictures that are at least partially transparent on the surface. The auxiliary coded picture has the same syntax and meaning limitation as the monochrome redundant coded picture. In H.264 / AVC, the auxiliary encoded picture includes the same number of macroblocks as the primary encoded picture.

符号化ビデオシーケンスは、連続するアクセスユニットのシーケンスとして定義される。このシーケンスは復号処理の順序であって、IDRアクセスユニットを含んでそこから、次のIDRアクセスユニットを含まずその直前かビットストリームの最後のうち先に出現するところまでの順序である。   An encoded video sequence is defined as a sequence of consecutive access units. This sequence is the order of decoding processing, including the IDR access unit, from there to the next IDR access unit, immediately before it or until the last occurrence of the bitstream.

ピクチャーグループ(GOP)とその特性は次の通りに定義されてもよい。GOPは、その前のピクチャが復号されたどうかに関係なく復号される。オープンGOPとは、復号処理がその最初のイントラピクチャから開始する場合に、出力順で最初のイントラピクチャより先のピクチャが正しく復号されないようなピクチャーグループである。換言すれば、オープンGOPのピクチャは、その前のGOPに属するピクチャを(インター予測で)参照してもよい。H.264/AVCデコーダは、H.264/AVCビットストリームでのリカバリポイントのSEIメッセージによって、オープンGOPの始めのイントラピクチャを認識することができる。そして、HEVCデコーダはオープンGOPの始めのイントラピクチャを認識することができる。これは、符号化スライスに対して特別なNALユニットタイプであるCDR-NALユニットタイプが使用されるからである。クローズドGOPとは、復号処理がその最初のイントラピクチャから開始する場合に、全ピクチャが正しく復号される様なピクチャーグループである。換言すれば、クローズドGOPではその前のGOPに属するピクチャを参照するピクチャは存在しない。H.264/AVCおよびHEVCでは、クローズドGOPはIDRアクセスユニットから始まる。その結果、クローズドGOPの構造はオープンGOPの構造よりも高いエラー回復能力を持つ。しかし、圧縮効率を減らす可能性があるという代償を伴う。オープンGOPの符号化構造は、リファレンスピクチャの選択における高い柔軟性によって、より効率的な圧縮を可能にする。   A picture group (GOP) and its characteristics may be defined as follows. The GOP is decoded regardless of whether the previous picture was decoded. An open GOP is a picture group in which when a decoding process starts from the first intra picture, pictures ahead of the first intra picture in the output order are not correctly decoded. In other words, an open GOP picture may refer to a picture belonging to the previous GOP (by inter prediction). The H.264 / AVC decoder can recognize an intra picture at the beginning of an open GOP by a recovery point SEI message in the H.264 / AVC bitstream. The HEVC decoder can recognize the first intra picture of the open GOP. This is because the CDR-NAL unit type, which is a special NAL unit type for the coded slice, is used. A closed GOP is a picture group in which all pictures are correctly decoded when the decoding process starts from the first intra picture. In other words, in a closed GOP, there is no picture that refers to a picture belonging to the previous GOP. In H.264 / AVC and HEVC, a closed GOP starts with an IDR access unit. As a result, the closed GOP structure has a higher error recovery capability than the open GOP structure. However, it comes at the price of potentially reducing compression efficiency. The open GOP coding structure allows for more efficient compression with high flexibility in reference picture selection.

H.264/AVCおよびHEVCのビットストリームシンタックスは、特定のピクチャが別のピクチャのイントラ予測のためのリファレンスピクチャであるかを示す。任意の符号化タイプ(I,P,B)のピクチャは、H.264/AVCおよびHEVCのリファレンスピクチャまたは非リファレンスピクチャであり得る。NALユニットヘッダはNALユニットの種類と、NALユニットに含まれる符号化スライスがリファレンスピクチャであるか非リファレンスピクチャであるかを示す。   The H.264 / AVC and HEVC bitstream syntax indicates whether a particular picture is a reference picture for intra prediction of another picture. Pictures of any coding type (I, P, B) can be H.264 / AVC and HEVC reference pictures or non-reference pictures. The NAL unit header indicates the type of NAL unit and whether the encoded slice included in the NAL unit is a reference picture or a non-reference picture.

H.264/AVCおよびHEVCを含む多くのハイブリッドビデオコーデックは、ビデオ情報を2段階で符号化する。第1段階では、特定のピクチャ領域または「ブロック」のピクセル値またはサンプル値が予測される。こうしたピクセル値またはサンプル値は、例えば動き補償機構によって予測可能である。この機構には、符号化されるブロックに近くて対応する、先に符号化されたビデオフレームの1つにある領域の検索と標示が含まれる。加えて、ピクセル値またはサンプル値は、空間領域の関係性の検索と標示を含む空間機構によって予測されてもよい。   Many hybrid video codecs, including H.264 / AVC and HEVC, encode video information in two stages. In the first stage, pixel or sample values for a particular picture region or “block” are predicted. Such pixel or sample values can be predicted, for example, by a motion compensation mechanism. This mechanism includes the search and labeling of regions in one of the previously encoded video frames that correspond closely to the block to be encoded. In addition, pixel or sample values may be predicted by a spatial mechanism that includes spatial domain relationship retrieval and marking.

先に符号化された画像からの画像情報を用いた予測アプローチは、インター予測法とも呼ばれ、また、時間予測および動き補償とも呼ばれる。同一画像内の画像情報を用いた予測アプローチは、イントラ予測法とも呼ばれる。   A prediction approach using image information from a previously encoded image is also referred to as an inter prediction method, and is also referred to as temporal prediction and motion compensation. A prediction approach using image information in the same image is also called an intra prediction method.

第2段階は、ピクセルまたはサンプルの予測ブロックとそのピクセルまたはサンプルの元のブロックとの間の誤差の符号化の何れかである。これは、特定の変換を用いてピクセル値またはサンプル値の差を変換することによって達成されてもよい。この変換は、離散コサイン変換(Discrete Cosine Transform;DCT)やその変形でもよい。差の変換後、変換された差は量子化されエントロピー符号化される。   The second stage is any encoding of the error between the predicted block of pixels or samples and the original block of pixels or samples. This may be achieved by converting the difference between pixel values or sample values using a specific transformation. This transformation may be a discrete cosine transform (DCT) or a modification thereof. After transforming the difference, the transformed difference is quantized and entropy coded.

量子化処理の忠実性を変えることによって、エンコーダはピクセルまたはサンプル表現の正確性(すなわち、ピクチャの視覚的品質)と結果として得られる符号化ビデオ表現のサイズ(すなわち、ファイルサイズや伝送ビットレート)との間のバランスを制御することができる。   By changing the fidelity of the quantization process, the encoder can correct the accuracy of the pixel or sample representation (ie the visual quality of the picture) and the size of the resulting encoded video representation (ie the file size and transmission bit rate). The balance between can be controlled.

デコーダは、予測されたピクセルまたはサンプルのブロック表現を形成して予測誤差を復号するために、エンコーダが用いたのと同様の予測機構を適用することによって出力ビデオを再構成する(ここで、予測表現の形成は、エンコーダが作成し、画像の圧縮表現に格納された動き情報や空間情報を使用し、予測誤差の復号は、空間領域で量子化された予測誤差信号を回復する、予測誤差符号化の逆操作を使用して行われる)。   The decoder reconstructs the output video by applying a prediction mechanism similar to that used by the encoder to form a block representation of the predicted pixels or samples and decode the prediction error (where prediction Representation formation uses motion information and spatial information created by the encoder and stored in the compressed representation of the image, and prediction error decoding recovers the prediction error signal quantized in the spatial domain. Is done using the reverse operation).

ピクセルまたはサンプルの予測および誤差復号処理の後、デコーダは、出力ビデオフレームを形成するために、予測信号と予測誤差信号(ピクセル値またはサンプル値)を合成する。   After pixel or sample prediction and error decoding processing, the decoder combines the prediction signal and the prediction error signal (pixel value or sample value) to form an output video frame.

デコーダ(およびエンコーダ)は、出力ビデオをディスプレイに送る、および/またはビデオシーケンスにおける後続ピクチャ用の予測リファレンスとして格納する前に、出力ビデオの品質を向上するために追加のフィルタリング処理を適用してもよい。   The decoder (and encoder) may also apply additional filtering processing to improve the quality of the output video before sending it to the display and / or storing it as a predictive reference for subsequent pictures in the video sequence. Good.

H.264/AVCおよびHEVCを含む多くのビデオコーデックでは、動き情報は、動き補償された画像ブロックのそれぞれに関連する動きベクトルによって示される。こうした動きベクトルはそれぞれ、(エンコーダで)符号化されるピクチャまたは(デコーダで)復号されるピクチャの画像ブロックと、先に符号化または復号された画像(またはピクチャ)の1つにおける予測元ブロックとの間の移動量を表わす。H.264/AVCおよびHEVCは、その他多くのビデオ圧縮規格と同様にピクチャを長方形のメッシュに分割する。これらの長方形のそれぞれに対し、リファレンスピクチャの1つにある同じブロックがインター予測用に示される。予測ブロックの位置は、符号化されるブロックに対する予測ブロックの相対位置を示す動きベクトルとして符号化される。   In many video codecs, including H.264 / AVC and HEVC, motion information is indicated by a motion vector associated with each of the motion compensated image blocks. Each of these motion vectors is an image block of a picture to be encoded (by an encoder) or a picture to be decoded (by a decoder) and a predictor block in one of the previously encoded or decoded pictures (or pictures). Represents the amount of movement between. H.264 / AVC and HEVC, like many other video compression standards, divide a picture into rectangular meshes. For each of these rectangles, the same block in one of the reference pictures is shown for inter prediction. The position of the prediction block is encoded as a motion vector indicating the relative position of the prediction block with respect to the block to be encoded.

インター予測処理は、次のファクタの1つ以上によって特徴付けられてもよい。   The inter prediction process may be characterized by one or more of the following factors.

動きベクトル表現の正確さAccuracy of motion vector representation

例えば、動きベクトルは4分の1ピクセルの精度であって、分数ピクセルの位置でのサンプル値は、有限インパルス応答(finite impulse response;FIR)フィルタを用いて得られてもよい。   For example, the motion vector may be 1/4 pixel accurate, and the sample value at the fractional pixel location may be obtained using a finite impulse response (FIR) filter.

インター予測用のブロック分割(パーティショニング)Block partitioning (partitioning) for inter prediction

H.264/AVCおよびHEVCを含む多くの符号化規格では、エンコーダでの動き補償予測用に適用される動きベクトルのためにブロックのサイズと形状を選択することができ、エンコーダで行われた動き補償予測をデコーダが再構成できるように、選択されたサイズと形状をビットストリームで示すことができる。   Many coding standards, including H.264 / AVC and HEVC, can select the block size and shape for the motion vector applied for motion compensated prediction at the encoder, and the motion performed at the encoder The selected size and shape can be shown in the bitstream so that the compensated prediction can be reconstructed by the decoder.

インター予測用リファレンスピクチャの数Number of reference pictures for inter prediction

インター予測の元データは、先に復号されたピクチャである。H.264/AVCおよびHEVCを含む多くの符号化規格では、インター予測用に複数のリファレンスピクチャを格納し、ブロックバイアスに応じて使用されるリファレンスピクチャを選択することができる。例えば、リファレンスピクチャは、H.264/AVCでのマクロブロックまたはマクロブロックパターンのバイアスや、HEVCのPUまたはCUのバイアスに関して選択されてもよい。H.264/AVCおよびHEVC等の多くの符号化規格は、デコーダが1つ以上のリファレンスピクチャ・リストを作成できるシンタックス構造をビットストリームに含む。リファレンスピクチャ・リストを示すリファレンスピクチャ・インデクスは、複数のリファレンスピクチャの中のどれが特定のブロックに対するインター予測用として使用されるかを示すのに使われてもよい。リファレンスピクチャ・インデクスは、エンコーダによって何らかのインター符号化法でビットストリームに符号化されてもよく、あるいは、他のインター符号化法によって、隣接ブロック等を使って(エンコーダおよびデコーダによって)引出されてもよい。   The original data of inter prediction is a previously decoded picture. In many coding standards including H.264 / AVC and HEVC, a plurality of reference pictures can be stored for inter prediction, and a reference picture to be used can be selected according to a block bias. For example, the reference picture may be selected with respect to the bias of the macroblock or macroblock pattern in H.264 / AVC, or the bias of the PU or CU of HEVC. Many encoding standards such as H.264 / AVC and HEVC include in the bitstream a syntax structure that allows the decoder to create one or more reference picture lists. A reference picture index indicating a reference picture list may be used to indicate which of a plurality of reference pictures is used for inter prediction for a specific block. The reference picture index may be encoded into the bitstream by some inter-coding method by the encoder, or may be extracted (by the encoder and decoder) using adjacent blocks, etc., by another inter-coding method. Good.

動きベクトル予測
動きベクトルをビットストリームに効率よく表現するために、動きベクトルは、ブロック毎の予測動きベクトルに関して差動符号化されてもよい。多くのビデオコーデックでは、予測動きベクトルは所定の方法、例えば隣接ブロックの符号化/復号動きベクトルの中央値を計算することによって生成される。動きベクトル予測を行う別の方法は、時間軸上のリファレンスピクチャにおける隣接ブロックおよび/または共存ブロックから予測候補のリストを作成し、選択された候補を動きベクトルの予測として信号で伝えるものである。動きベクトルの値の予測に加え、先に符号化/復号されたピクチャのリファレンスインデクスが予測されてもよい。リファレンスインデクスは通常、時間軸上のリファレンスピクチャにおける隣接ブロックおよび/または共存ブロックから予測される。動きベクトルの差動符号化は通常、スライス境界を跨ぐときは無効にされる。
In order to efficiently represent the motion vector prediction motion vector in the bitstream, the motion vector may be differentially encoded with respect to the prediction motion vector for each block. In many video codecs, the motion vector predictor is generated in a predetermined manner, for example by calculating the median of the coding / decoding motion vectors of neighboring blocks. Another method for performing motion vector prediction is to create a list of prediction candidates from adjacent blocks and / or coexistence blocks in a reference picture on the time axis, and signal the selected candidates as motion vector predictions. In addition to prediction of motion vector values, a reference index of a previously encoded / decoded picture may be predicted. The reference index is usually predicted from adjacent blocks and / or coexistence blocks in a reference picture on the time axis. Differential encoding of motion vectors is usually disabled when crossing slice boundaries.

多仮説動き補償予測
H.264/AVCおよびHEVCでは、Pスライスで単一の予測ブロックを使用することができる(このため、Pスライスは単予測スライスと呼ばれる)。また、Bスライスとも呼ばれる双予測スライスに対しては、2つの動き補償予測ブロックの線形結合を使用することができる。Bスライスの個別ブロックは双予測や単予測,イントラ予測されたものでもよく、Pスライスの個別ブロックは単予測またはイントラ予測されたものでもよい。双予測ピクチャ用のリファレンスピクチャは、出力順で後続ピクチャと先行ピクチャに限定しなくてもよく、任意のリファレンスピクチャが使用されてもよい。H.264/AVCおよびHEVC等の多くの符号化規格では、リファレンスピクチャ・リスト0と呼ばれる特定のリファレンスピクチャ・リストがPスライス用に構成され、2つのリファレンスピクチャ・リストであるリスト0およびリスト1がBスライス用に構成される。Bスライスに関して、前方予測はリファレンスピクチャ・リスト0のリファレンスピクチャからの予測のことであり、後方予測はリファレンスピクチャ・リスト1のリファレンスピクチャからの予測のことである。ここで、予測用リファレンスピクチャは互いに、または現ピクチャに関連する復号処理や出力順序を持っていてもよい。
Multi-hypothesis motion compensated prediction
In H.264 / AVC and HEVC, a single prediction block can be used in a P slice (for this reason, the P slice is called a single prediction slice). Also, for bi-predictive slices, also called B slices, a linear combination of two motion compensated prediction blocks can be used. The individual block of the B slice may be bi-predicted, uni-predicted or intra-predicted, and the individual block of the P slice may be uni-predicted or intra-predicted. The reference picture for the bi-predictive picture is not limited to the subsequent picture and the preceding picture in the output order, and an arbitrary reference picture may be used. In many coding standards such as H.264 / AVC and HEVC, a specific reference picture list, called reference picture list 0, is configured for P slices, and two reference picture lists, list 0 and list 1 Is configured for B slices. For B slices, forward prediction refers to prediction from reference pictures in reference picture list 0, and backward prediction refers to prediction from reference pictures in reference picture list 1. Here, the prediction reference pictures may have a decoding process and an output order related to each other or to the current picture.

加重予測
多くの符号化規格は、インター(P)ピクチャの予測ブロックに対して予測重み1、Bピクチャの各予測ブロックに対して予測重み0.5を(結果として平均するのに)用いる。H.264/AVCでは、PとBの両スライスで加重予測を行える。陰加重予測では、重みはピクチャ順序カウント(picture order count)に比例し、陽加重予測では、予測の重みは明示的に示される。
Weighted prediction Many coding standards use a prediction weight of 1 for prediction blocks of inter (P) pictures and a prediction weight of 0.5 for each prediction block of B pictures (as a result of averaging). In H.264 / AVC, weighted prediction can be performed in both P and B slices. In implicit weighted prediction, the weight is proportional to the picture order count, and in positive weighted prediction, the prediction weight is explicitly indicated.

多くのビデオコーデックでは、動き補償後の予測残差は最初に(DCTのような)変換カーネルで変換され、次に符号化される。これは、通常残差間にも相関があり、こうした変換が多くの場合でこのような相関を小さくするのに役立ち、より高い効率での符号化を可能にするからである。   In many video codecs, motion compensated prediction residuals are first transformed with a transformation kernel (such as DCT) and then encoded. This is because there is usually also a correlation between the residuals, and such transformations often help to reduce such correlations and allow for more efficient coding.

HEVCドラフトでは、各PUは、それぞれのPU内のピクセルに適用される予測の種類を定義する、それぞれのPUに関連した予測情報(例えば、インター予測されたPUに対しては動きベクトルの情報、イントラ予測されたPUに対してはイントラ予測の方向情報等)を持つ。同様に、各TUは、それぞれのTU内のサンプルに対する予測誤差復号処理を記述する情報(DCT係数情報等も含む)に関連付けられる。各CUに対して予測誤差符号化が適用されるか否かがCUレベルで伝達されてもよい。CUに関連する予測誤差の残差がない場合、そのCUに対するTUが存在しないと見做される。   In the HEVC draft, each PU defines prediction types that are applied to pixels in each PU, and prediction information associated with each PU (eg, motion vector information for inter-predicted PUs, Intra-predicted PUs have intra-prediction direction information). Similarly, each TU is associated with information (including DCT coefficient information and the like) describing prediction error decoding processing for samples in each TU. Whether or not prediction error coding is applied to each CU may be transmitted at the CU level. If there is no residual prediction error associated with a CU, it is assumed that there is no TU for that CU.

符号化フォーマットやコーデックによっては、いわゆる短期リファレンスピクチャと長期リファレンスピクチャとが区別される。こうした区別は、時間ダイレクトモードや陰加重予測における動きベクトルのスケーリングとして一部の復号処理に影響を与えることもある。時間ダイレクトモードに使われるリファレンスピクチャが両方とも短期リファレンスピクチャである場合、予測で使われる動きベクトルは、現ピクチャと各リファレンスピクチャとの間のピクチャ順序カウント(POC)の差に応じてスケールされてもよい。しかし、時間ダイレクトモード用の少なくとも1つのリファレンスピクチャが長期リファレンスピクチャである場合、デフォルトの動きベクトルスケーリングが使用されてもよく、例えば動きを半分にスケールしてもよい。同様に、陰加重予測で短期リファレンスピクチャが使われる場合、予測の重みは、現ピクチャのPOCとリファレンスピクチャのPOCのPOC差に応じてスケールされてもよい。しかし、陰加重予測で長期リファレンスピクチャが使われる場合、デフォルトの予測重みが使用されてもよく、双予測ブロックに対する陰加重予測では0.5等でもよい。   Depending on the encoding format and codec, a so-called short-term reference picture is distinguished from a long-term reference picture. Such distinction may affect some decoding processes as scaling of motion vectors in temporal direct mode or implicit weighted prediction. If both reference pictures used for temporal direct mode are short-term reference pictures, the motion vectors used in the prediction are scaled according to the difference in picture order count (POC) between the current picture and each reference picture. Also good. However, if at least one reference picture for temporal direct mode is a long-term reference picture, default motion vector scaling may be used, for example, scaling the motion in half. Similarly, when a short-term reference picture is used in shadow weighted prediction, the prediction weight may be scaled according to the POC difference between the POC of the current picture and the POC of the reference picture. However, when a long-term reference picture is used in implicit weighted prediction, a default prediction weight may be used, and 0.5 or the like may be used in implicit weighted prediction for a bi-prediction block.

H.264/AVC等のビデオ符号化フォーマットでは、シンタックス要素frame_numを含み、複数のリファレンスピクチャに関連する様々な復号処理に使用される。H.264/AVCでは、IDRピクチャのframe_num値は0である。非IDRピクチャのframe_num値は0復号順で先のリファレンスピクチャのframe_numに1を加えた値に等しい(モジュロ(modulo)演算の場合、frame_num値は、その最大値の次が0に戻る)。   A video encoding format such as H.264 / AVC includes a syntax element frame_num and is used for various decoding processes related to a plurality of reference pictures. In H.264 / AVC, the frame_num value of the IDR picture is 0. The frame_num value of the non-IDR picture is equal to the value obtained by adding 1 to the frame_num of the previous reference picture in the order of 0 decoding (in the case of a modulo operation, the frame_num value returns to 0 after the maximum value).

H.264/AVCおよびHEVCはピクチャ順序カウント(POC)の概念を含む。POC値は各ピクチャに与えられ、出力におけるピクチャの順番が増えても減ることはない。したがって、POCはピクチャの出力順序を示す。POCは復号処理で使用されてもよく、例えば双予測スライスの時間ダイレクトモードでの動きベクトルの陰スケーリングや加重予測で陰に生成される重み,リファレンスピクチャ・リストの初期化等に使用される。また、POCは出力順序適合性の検証に使用されてもよい。H.264/AVCでは、POCは先のIDRピクチャや、全てのピクチャを「リファレンスに未使用」とマークするメモリ管理制御操作を含むピクチャに関連して特定される。   H.264 / AVC and HEVC include the concept of picture order count (POC). The POC value is given to each picture and does not decrease as the order of pictures in the output increases. Therefore, POC indicates the output order of pictures. The POC may be used in decoding processing, for example, implicit scaling of motion vectors in the temporal direct mode of bi-predictive slices, weights generated implicitly in weighted prediction, initialization of a reference picture list, and the like. POC may also be used to verify output order conformance. In H.264 / AVC, a POC is specified in relation to a previous IDR picture or a picture that includes a memory management control operation that marks all pictures as “unused for reference”.

H.264/AVCは、デコーダでのメモリ消費を制御するために、復号リファレンスピクチャのマーキング処理を特定する。インター予測に用いるリファレンスピクチャの数の最大値はMで表わし、シーケンスパラメータセットで決定される。リファレンスピクチャは、復号されるときに「リファレンスに使用済」とマークされる。リファレンスピクチャの復号で「リファレンスに使用済」とマークされるピクチャの数がMを超える場合、少なくとも1つのピクチャは「リファレンスに未使用」とマークされる。復号リファレンスピクチャのマーキング動作には適応メモリ制御とスライディングウィンドウの2種類がある。復号リファレンスピクチャのマーキング動作モードはピクチャに基づいて選択される。適応メモリ制御は、どのピクチャが「リファレンスに未使用」とマークされているかを明示的に信号で伝えられ、短期リファレンスピクチャに長期インデクスを割当ててもよい。適応メモリ制御は、ビットストリームにメモリ管理制御操作(memory management control operation;MMCO)パラメータの存在を要求してもよい。MMCOパラメータは、復号リファレンスピクチャ・マーキングのシンタックス要素に含まれてもよい。スライディングウィンドウ動作モードが使われ、M枚のピクチャが「リファレンスに使用済」とマークされている場合、「リファレンスに使用済」とマークされている短期リファレンスピクチャの中で最初に復号された短期リファレンスピクチャは「リファレンスに未使用」とマークされる。換言すれば、スライディングウィンドウ動作モードは、短期リファレンスピクチャに関して先入れ先出し(first-in-first-out)バッファ動作となる。   H.264 / AVC specifies decoding reference picture marking processing in order to control memory consumption at the decoder. The maximum number of reference pictures used for inter prediction is represented by M and is determined by a sequence parameter set. A reference picture is marked “used for reference” when it is decoded. If the number of pictures that are marked “used for reference” in decoding a reference picture exceeds M, at least one picture is marked “unused for reference”. There are two types of marking operations for decoding reference pictures: adaptive memory control and sliding window. The marking operation mode of the decoded reference picture is selected based on the picture. Adaptive memory control may be explicitly signaled which pictures are marked “unused for reference” and may assign a long-term index to the short-term reference picture. Adaptive memory control may require the presence of a memory management control operation (MMCO) parameter in the bitstream. The MMCO parameter may be included in the syntax element of the decoded reference picture marking. If sliding window mode of operation is used and M pictures are marked as "used for reference", the first decoded short-term reference in the short-term reference picture marked as "used for reference" The picture is marked “unused for reference”. In other words, the sliding window mode of operation is a first-in-first-out buffer operation for short-term reference pictures.

H.264/AVCのメモリ管理制御操作によっては、現ピクチャ以外の全てのリファレンスピクチャを「リファレンスに未使用」とマークする。瞬時復号リフレッシュ(IDR)ピクチャはイントラ符号化スライスのみを含み、リファレンスピクチャに対する同一「リセット」を行う。   Depending on the memory management control operation of H.264 / AVC, all reference pictures other than the current picture are marked as “unused for reference”. Instantaneous decoding refresh (IDR) pictures contain only intra-coded slices and perform the same “reset” on the reference picture.

HEVCドラフトでは、リファレンスピクチャ・マーキングのシンタックス構造と関連する復号処理は、リファレンスピクチャセット(reference picture set;RPS)のシンタックス構造に置換されている。その代わり、復号処理は同じ目的で使われる。特定のピクチャに有効またはアクティブなリファレンスピクチャセットは、そのピクチャに対するリファレンスとして使われる全てのリファレンスピクチャと、復号順で後続の任意のピクチャに対して「リファレンスに使用済」とマークされたままである全てのリファレンスピクチャを含む。リファレンスピクチャセットには6つのサブセットがあり、それぞれRefPicSetStCurr0,RefPicSetStCurr1,RefPicSetStFoll0,RefPicSetStFoll1,RefPicSetLtCurr,およびRefPicSetLtFollと呼ばれる。この6つのサブセットの表記法は次の通りである。「Curr」は現ピクチャのリファレンスピクチャ・リストに含まれるリファレンスピクチャを表わす。このため、現ピクチャに対するインター予測リファレンスとして使用されてもよい。「Foll」は現ピクチャのリファレンスピクチャ・リストに含まれないリファレンスピクチャを表わす。ただし、復号順で後続のピクチャではリファレンスピクチャとして使用されてもよい。「St」は短期リファレンスピクチャを表わし、通常、POC値の特定数の最下位ビットで識別される。「Lt」は長期リファレンスピクチャを表わし、特定の方法で識別される。通常、現ピクチャに対するPOC値の差は、前述した特定数の最下位ビットによって表わされるものよりも大きい。「0」は現ピクチャのPOC値よりも小さいPOC値を持つリファレンスピクチャを表わす。「1」は現ピクチャのPOC値よりも大きいPOC値を持つリファレンスピクチャを表わす。RefPicSetStCurr0,RefPicSetStCurr1,RefPicSetStFoll0およびRefPicSetStFoll1はまとめてリファレンスピクチャセットの短期サブセットと呼ばれ、RefPicSetLtCurrおよびRefPicSetLtFollはまとめてリファレンスピクチャセットの長期サブセットと呼ばれる。リファレンスピクチャセットは、ピクチャパラメータセットで特定され、リファレンスピクチャセットへのインデクスを介してスライスヘッダ用に取込まれてもよい。リファレンスピクチャセットはスライスヘッダで特定されてもよい。リファレンスピクチャセットの長期サブセットは通常スライスヘッダでのみ特定されるが、同じリファレンスピクチャセットの短期サブセットはピクチャパラメータセットで特定されてもよく、スライスヘッダで特定されてもよい。現在のスライス(現スライス)が使うリファレンスピクチャセットに含まれるピクチャは「リファレンスに使用済」とマークされ、現スライスが使うリファレンスピクチャセットに含まれないピクチャは「リファレンスに未使用」とマークされる。現ピクチャがIDRピクチャである場合、RefPicSetStCurr0,RefPicSetStCurr1,RefPicSetStFoll0,RefPicSetStFoll1,RefPicSetLtCurr,およびRefPicSetLtFollは全て空に設定される。   In the HEVC draft, the decoding process related to the syntax structure of the reference picture marking is replaced with the syntax structure of the reference picture set (RPS). Instead, the decryption process is used for the same purpose. A reference picture set that is valid or active for a particular picture is all the reference pictures that are used as references for that picture, and all that remain marked "used for reference" for any subsequent picture in decoding order Of reference pictures. The reference picture set has six subsets, which are called RefPicSetStCurr0, RefPicSetStCurr1, RefPicSetStFoll0, RefPicSetStFoll1, RefPicSetLtCurr, and RefPicSetLtFoll, respectively. The notation for these six subsets is as follows: “Curr” represents a reference picture included in the reference picture list of the current picture. For this reason, it may be used as an inter prediction reference for the current picture. “Foll” represents a reference picture not included in the reference picture list of the current picture. However, it may be used as a reference picture in subsequent pictures in decoding order. “St” represents a short-term reference picture and is usually identified by a specific number of least significant bits of the POC value. “Lt” represents a long-term reference picture and is identified in a specific way. Normally, the difference in POC value for the current picture is greater than that represented by the specific number of least significant bits described above. “0” represents a reference picture having a POC value smaller than the POC value of the current picture. “1” represents a reference picture having a POC value larger than the POC value of the current picture. RefPicSetStCurr0, RefPicSetStCurr1, RefPicSetStFoll0, and RefPicSetStFoll1 are collectively referred to as the short-term subset of the reference picture set, and RefPicSetLtCurr and RefPicSetLtFoll are collectively referred to as the long-term subset of the reference picture set. The reference picture set may be specified in the picture parameter set and captured for the slice header via an index to the reference picture set. The reference picture set may be specified by a slice header. The long-term subset of the reference picture set is usually specified only by the slice header, but the short-term subset of the same reference picture set may be specified by the picture parameter set or may be specified by the slice header. Pictures included in the reference picture set used by the current slice (current slice) are marked as “used for reference”, and pictures not included in the reference picture set used by the current slice are marked as “unused for reference” . If the current picture is an IDR picture, RefPicSetStCurr0, RefPicSetStCurr1, RefPicSetStFoll0, RefPicSetStFoll1, RefPicSetLtCurr, and RefPicSetLtFoll are all set to empty.

復号ピクチャバッファ(Decoded Picture Buffer;DPB)はエンコーダおよび/またはデコーダで使用されてもよい。復号ピクチャをバッファする理由は2つある。一つはインター予測で参照するためで、もう一つは復号ピクチャを出力順に並べ直すためである。H.264/AVCおよびHEVCはリファレンスピクチャのマーキングと出力の並べ換えの両方で相当な柔軟性を与えるため、リファレンスピクチャのバッファリングと出力ピクチャのバッファリングで別々のバッファを使うことはメモリリソースを浪費する可能性がある。このためDPBは、リファレンスピクチャと出力並び替えのための統合された復号ピクチャバッファリング処理を備えてもよい。復号ピクチャは、リファレンスとして使用されず出力される必要がなくなると、DPBから削除されてもよい。   A decoded picture buffer (DPB) may be used in an encoder and / or a decoder. There are two reasons for buffering decoded pictures. One is for reference in inter prediction, and the other is for rearranging decoded pictures in the order of output. Because H.264 / AVC and HEVC provide considerable flexibility in both reference picture marking and output reordering, using separate buffers for reference picture buffering and output picture buffering wastes memory resources. there's a possibility that. For this reason, the DPB may include a reference picture and an integrated decoded picture buffering process for output rearrangement. The decoded picture may be deleted from the DPB when it is no longer used as a reference and need not be output.

H.264/AVCおよびHEVC等の多くの符号化モードでは、インター予測用リファレンスピクチャはリファレンスピクチャ・リストへのインデクスで示される。インデクスはCABACや可変長符号化で符号化される。通常、インデクスが小さいほど、対応するシンタックス要素も短くてよい。双予測(B)スライスにはそれぞれ2つのリファレンスピクチャ・リスト(リファレンスピクチャ・リスト0およびリファレンスピクチャ・リスト1)が作成され、インター予測(P)スライスにはそれぞれ1つのリファレンスピクチャ・リスト(リファレンスピクチャ・リスト0)が形成される。   In many coding modes such as H.264 / AVC and HEVC, the inter prediction reference picture is indicated by an index to the reference picture list. The index is encoded by CABAC or variable length encoding. In general, the smaller the index, the shorter the corresponding syntax element. Two reference picture lists (reference picture list 0 and reference picture list 1) are created for each bi-prediction (B) slice, and one reference picture list (reference picture) for each inter-prediction (P) slice. • List 0) is formed.

HEVCドラフトコーデック等の典型的な高効率ビデオコーデックでは追加的な動き情報符号化/復号機構を用い、通常、マージング処理/機構またはマージモード処理/機構と呼ばれる。これにより、ブロック/PUの全ての動き情報が予測され、変更/修正をせずに使用される。PUに対する前述の動き情報は次のものを含む:1)PUがリファレンスピクチャ・リスト0のみを用いて単予測されるか、PUがリファレンスピクチャ・リスト1のみを用いて単予測されるか、またはPUがリファレンスピクチャ・リスト0およびリファレンスピクチャ・リスト1の両方を用いて単予測されるかに関する情報;2)リファレンスピクチャ・リスト0に対応する動きベクトル値;3)リファレンスピクチャ・リスト0におけるリファレンスピクチャ・インデクス;4)リファレンスピクチャ・リスト1に対応する動きベクトル値;5)リファレンスピクチャ・リスト1におけるリファレンスピクチャ・インデクス。同様に、動き情報の予測は、時間軸上のリファレンスピクチャにおける隣接ブロックおよび/または共存ブロックの動き情報を用いて行われる。通常、利用可能な隣接/共存ブロックに関連する動き予測候補を含めることによってマージリストと呼ばれるリストが構成され、リスト中で選択された動き予測候補のインデクスが信号で伝えられる。こうして、選択された候補の動き情報は現PUの動き情報にコピーされる。CU全体でマージ機構が用いられ、CU用予測信号が再構成信号として使用される場合、すなわち、予測残差が処理されない場合、CUに対するこの種の符号化/復号は通常、スキップモードやマージベース・スキップモードと呼ばれる。各PUに対しては、スキップモードに加えてマージ機構も使用され、この場合、予測の質を向上させるために予測残差が利用されてもよい。この種の予測モードは通常、インターマージモードと呼ばれる。   Typical high efficiency video codecs, such as HEVC draft codecs, use additional motion information encoding / decoding mechanisms and are commonly referred to as merging processes / mechanisms or merge mode processes / mechanisms. As a result, all motion information of the block / PU is predicted and used without being changed / modified. The aforementioned motion information for PU includes: 1) PU is uni-predicted using only reference picture list 0, PU is uni-predicted using only reference picture list 1, or Information on whether the PU is uni-predicted using both reference picture list 0 and reference picture list 1; 2) motion vector value corresponding to reference picture list 0; 3) reference picture in reference picture list 0 Index; 4) Motion vector value corresponding to reference picture list 1; 5) Reference picture index in reference picture list 1. Similarly, prediction of motion information is performed using motion information of adjacent blocks and / or coexistence blocks in a reference picture on the time axis. Usually, a list called a merge list is formed by including motion prediction candidates related to available adjacent / coexistence blocks, and an index of motion prediction candidates selected in the list is signaled. Thus, the selected candidate motion information is copied to the current PU motion information. This type of encoding / decoding for CUs is usually done in skip mode or merge base when the merge mechanism is used throughout the CU and the prediction signal for the CU is used as a reconstructed signal, ie when the prediction residual is not processed.・ This is called skip mode. For each PU, a merge mechanism is also used in addition to the skip mode, in which case the prediction residual may be utilized to improve the prediction quality. This type of prediction mode is usually referred to as an intermerged mode.

リファレンスピクチャ・リスト0およびリファレンスピクチャ・リスト1等のリファレンスピクチャ・リストは2つのステップで作成されてもよい。第1ステップでは、初期リファレンスピクチャ・リストが作成される。初期リファレンスピクチャ・リストは、例えばframe_numやPOC,temporal_id,GOP構造等の予測階層に関する情報,またはこれらの組合せに基づいて作成されてもよい。第2ステップでは、リファレンスピクチャ・リスト記憶(reference picture list reordering;RPLR)命令によって初期リファレンスピクチャ・リストが記憶されてもよい。RPLR命令はリファレンスピクチャ・リスト変更シンタックス構造とも呼ばれ、スライスヘッダに含まれる。RPLR命令は、各リファレンスピクチャ・リストの先頭に並べられるピクチャを示す。第2ステップはリファレンスピクチャ・リスト変更処理とも呼ばれ、RPLR命令がリファレンスピクチャ・リスト変更シンタックス構造に含まれてもよい。リファレンスピクチャセットが用いられる場合、リファレンスピクチャ・リスト0はRefPicSetStCurr0,RefPicSetStCurr1,RefPicSetLtCurrをこの順序で含むように初期化されてもよい。リファレンスピクチャ・リスト1はRefPicSetStCurr1,RefPicSetStCurr0をこの順序で含むように初期化されてもよい。初期リファレンスピクチャ・リストはリファレンスピクチャ・リスト変更シンタックス構造を通じて変更されてもよい。初期リファレンスピクチャ・リストのピクチャはリストに対するエントリインデクスを通じて識別されてもよい。   Reference picture lists such as reference picture list 0 and reference picture list 1 may be created in two steps. In the first step, an initial reference picture list is created. The initial reference picture list may be created based on prediction layer information such as frame_num, POC, temporal_id, GOP structure, or a combination thereof. In the second step, an initial reference picture list may be stored by a reference picture list reordering (RPLR) instruction. The RPLR instruction is also called a reference picture list change syntax structure and is included in the slice header. The RPLR instruction indicates a picture arranged at the head of each reference picture list. The second step is also called a reference picture list change process, and an RPLR instruction may be included in the reference picture list change syntax structure. If a reference picture set is used, reference picture list 0 may be initialized to include RefPicSetStCurr0, RefPicSetStCurr1, RefPicSetLtCurr in this order. Reference picture list 1 may be initialized to include RefPicSetStCurr1, RefPicSetStCurr0 in this order. The initial reference picture list may be changed through a reference picture list change syntax structure. Pictures in the initial reference picture list may be identified through an entry index for the list.

マージリストは、リファレンスピクチャ・リスト0および/またはリファレンスピクチャ・リスト1に基づいて作成されてもよく、例えばスライスヘッダシンタックスに含まれるリファレンスピクチャ・リスト結合シンタックス構造を用いて作成されてもよい。リファレンスピクチャ・リスト接合シンタックス構造はエンコーダでビットストリーム中に作成され、デコーダでそのビットストリームから復号されてもよい。このシンタックス構造はマージリストの内容を示す。このシンタックス構造は、リファレンスピクチャ・リスト0およびリファレンスピクチャ・リスト1が結合され、単方向予測される予測ユニット用のもう1つのリファレンスピクチャ・リストの組合せであることを示してもよい。このシンタックス構造はフラグを含み、フラグが特定の値に等しいときは、リファレンスピクチャ・リスト0およびリファレンスピクチャ・リスト1が同一であり、リファレンスピクチャ・リストの組合せとしてリファレンスピクチャ・リスト0が使用されることを示してもよい。このシンタックス構造は、エントリのリストであって、各エントリがリファレンスピクチャ・リスト(リスト0またはリスト1)を特定するエントリのリストと、特定されたリストに対するリファレンスインデクスを含んでもよい。エントリは、マージリストに含められるリファレンスピクチャを特定する。   The merge list may be created based on reference picture list 0 and / or reference picture list 1, and may be created using, for example, a reference picture list combination syntax structure included in the slice header syntax. . The reference picture list joint syntax structure may be created in the bitstream at the encoder and decoded from the bitstream at the decoder. This syntax structure indicates the contents of the merge list. This syntax structure may indicate that reference picture list 0 and reference picture list 1 are combined and is another reference picture list combination for a prediction unit that is unidirectionally predicted. This syntax structure includes a flag. When the flag is equal to a specific value, reference picture list 0 and reference picture list 1 are the same, and reference picture list 0 is used as a combination of reference picture lists. May be shown. This syntax structure may include a list of entries, each entry specifying a reference picture list (list 0 or list 1), and a reference index for the specified list. The entry specifies a reference picture to be included in the merge list.

復号リファレンスピクチャ・マーキング用シンタックス構造がビデオ符号化システムに存在してもよい。例えば、ピクチャの復号が完了したとき、復号リファレンスピクチャのマーキングシンタックス構造が存在する場合には、それが「リファレンスに未使用」または「長期リファレンスに使用済」としてピクチャを適応的にマークするのに用いられてもよい。復号リファレンスピクチャのマーキングシンタックス構造が存在せず、「リファレンスに使用済」とマークされたピクチャの数がそれ以上増えることがない場合、スライディングウィンドウのリファレンスピクチャ・マーキングが用いられてもよい。これは基本的には、(復号順で)最初に復号されたリファレンスピクチャをリファレンスに未使用としてマークする。   A syntax structure for decoding reference picture marking may be present in the video coding system. For example, when the decoding of a picture is complete, if there is a marking syntax structure for the decoded reference picture, it will adaptively mark the picture as "unused for reference" or "used for long-term reference" May be used. If there is no decoded reference picture marking syntax structure and the number of pictures marked “used for reference” will not increase any more, the reference picture marking in the sliding window may be used. This basically marks the reference as the unused reference picture that was decoded first (in decoding order).

リファレンスピクチャ・リストのシンタックス構造はリファレンスピクチャ・リスト0記述,リファレンスピクチャ・リスト1記述,アイドル・リファレンスピクチャ・リスト記述の3つの部分を含んでもよい。リファレンスピクチャ・リスト0記述はPおよびBスライス用で、リファレンスピクチャ・リスト1記述はBスライス用である。アイドル・リファレンスピクチャ・リスト記述は、リファレンスピクチャ・リスト0または1の何れにも含まれないが、「リファレンスに使用済」とマークされたままのリファレンスピクチャを含むスライス用である。換言すれば、リファレンスピクチャのマーキングおよびリファレンスピクチャ・リストの作成の両方のための情報を提供する(複数ではない)1つのシンタックス構造等であってもよい。   The syntax structure of the reference picture list may include three parts: a reference picture list 0 description, a reference picture list 1 description, and an idle reference picture list description. The reference picture list 0 description is for P and B slices, and the reference picture list 1 description is for B slices. The idle reference picture list description is for slices that contain a reference picture that is not included in either reference picture list 0 or 1, but remains marked “used for reference”. In other words, it may be one syntax structure or the like that provides information for both reference picture marking and reference picture list creation.

スライスの復号が開始されると、リファレンスピクチャ・リストのシンタックス構造が解析されてもよい。PおよびBスライスに対して、シンタックス構造はリスト0用のリファレンスピクチャ・リスト記述を含み、復号される。リファレンスピクチャ・リスト記述のシンタックス構造は、ピクチャ順序カウント(POC)値がリファレンスピクチャ・リストで出現する順序で識別されたピクチャをリストしてもよい。Bスライスに対して、リファレンスピクチャ・リストのシンタックス構造はリスト1用のリファレンスピクチャ・リスト記述を含み、復号される。   When decoding of the slice is started, the syntax structure of the reference picture list may be analyzed. For P and B slices, the syntax structure includes a reference picture list description for list 0 and is decoded. The syntax structure of the reference picture list description may list pictures identified in the order in which picture order count (POC) values appear in the reference picture list. For B slices, the reference picture list syntax structure includes the reference picture list description for list 1 and is decoded.

リファレンスピクチャ・リストの初期化処理および/またはリファレンスピクチャ・リストの変更処理は省略されてもよく、リファレンスピクチャ・リストが直接シンタックス構造に記述されてもよい。   The initialization process of the reference picture list and / or the change process of the reference picture list may be omitted, and the reference picture list may be described directly in the syntax structure.

あるいは、または加えて、リファレンスピクチャ・リストのシンタックス構造はアイドル・リファレンスピクチャ・リスト用のリファレンスピクチャ・リスト記述を含んでもよく、それが存在する場合は復号される。   Alternatively or additionally, the reference picture list syntax structure may include a reference picture list description for the idle reference picture list, which is decoded if present.

何れかのリファレンスピクチャ・リストにあるピクチャは「リファレンスに使用済」とマークされてもよい。どのリファレンスピクチャ・リストにもないピクチャは「リファレンスに未使用」とマークされてもよい。   Pictures in any reference picture list may be marked as “used for reference”. Pictures that are not in any reference picture list may be marked “unused for reference”.

換言すれば、リファレンスピクチャ・リストの作成およびリファレンスピクチャのマーキング処理とシンタックス構造は、単一の統合処理およびシンタックス構造で扱われてもよい。   In other words, reference picture list creation and reference picture marking processing and syntax structure may be handled by a single integration processing and syntax structure.

アイドル・リファレンスピクチャ・リストのリファレンスピクチャがリファレンスピクチャ・リスト記述のシンタックス構造によって決定された特定の順序を持っていたとしても、通常、エンコーダがアイドル・リファレンスピクチャをリストすべき順序に関する特定の要求は存在しないことに留意されたい。ある意味では、アイドル・リファレンスピクチャ・リストは大抵、順序のないリストまたはセットであると見做せる。   Even if the reference pictures in the idle reference picture list have a specific order determined by the syntax structure of the reference picture list description, usually the specific requirements regarding the order in which the encoder should list the idle reference pictures Note that does not exist. In a sense, an idle reference picture list can often be considered an unordered list or set.

リファレンスピクチャ・リスト0およびリスト1は、現スライス用リファレンスに未使用であると示されるリファレンスピクチャを含んでもよい。例えば、num_ref_idx_l0_active_minus1を超えるリファレンスインデクスは、現スライス用リファレンスに使用されなくてもよい。リファレンスピクチャ・リスト0およびリスト1におけるリファレンスされていないリファレンスピクチャが「リファレンスに使用済」とマークされるようなことが特定されてもよい。あるいは、特定のリファレンスピクチャがリファレンスされていないリファレンスピクチャとしてリスト0およびリスト1にだけ含まれ、アイドル・リファレンスピクチャ・リストには含まれない場合、あるいは、リファレンスされたリファレンスピクチャとしてリスト0およびリスト1に含まれる場合、そのリファレンスピクチャは「リファレンスに未使用」とマークされることが特定されてもよい。あるいは、前述の2つの場合の間での望ましいマーキング規則やその他の決定論的マーキング規則はエンコーダで制御され、連続パラメータセットのSPSシンタックス等でビットストリームに示されてもよい。リスト0またはリスト1に非リファレンスピクチャとしてリファレンスピクチャを含めることは、例えば符号化時により少ないビット数が消費される場合、アイドル・リファレンスピクチャ・リストに含めることよりも優先されてもよい。   Reference picture list 0 and list 1 may include reference pictures that are indicated as unused in the current slice reference. For example, a reference index exceeding num_ref_idx_l0_active_minus1 may not be used for the current slice reference. It may be specified that unreferenced reference pictures in reference picture list 0 and list 1 are marked as “used for reference”. Or, if a specific reference picture is only included in list 0 and list 1 as an unreferenced reference picture and not included in the idle reference picture list, or list 0 and list 1 as referenced reference pictures The reference picture may be specified to be marked “unused for reference”. Alternatively, the desired marking rules between the above two cases and other deterministic marking rules may be controlled by the encoder and shown in the bitstream, such as with SPS syntax in a continuous parameter set. The inclusion of a reference picture as a non-reference picture in list 0 or list 1 may be prioritized over inclusion in an idle reference picture list, for example if fewer bits are consumed during encoding.

スケーラブルビデオ符号化では、ビデオ信号はベースレイヤおよび1つ以上の拡張レイヤに符号化される。拡張レイヤは時間分解能(すなわち、フレームレート)や空間分解能を上げたり、別のレイヤやその一部によって表わされるビデオコンテンツの品質を単に上げたりしてもよい。各レイヤは、それぞれの全ての従属レイヤと合わせて、特定の空間分解能,時間分解能および品質レベルでのビデオ信号の一表現となる。本願では、全ての従属レイヤを伴うスケーラブルレイヤを「スケーラブルレイヤ表現」と呼ぶ。特定の忠実度で元の信号表現を生成するために、スケーラブルレイヤ表現に対応するスケーラブルビットストリームの一部が抽出され復号される。   In scalable video coding, a video signal is encoded into a base layer and one or more enhancement layers. An enhancement layer may increase temporal resolution (ie, frame rate), spatial resolution, or simply increase the quality of video content represented by another layer or part thereof. Each layer, together with all its respective subordinate layers, represents a representation of the video signal at a particular spatial resolution, temporal resolution and quality level. In this application, a scalable layer with all dependent layers is referred to as a “scalable layer representation”. In order to generate the original signal representation with specific fidelity, a portion of the scalable bitstream corresponding to the scalable layer representation is extracted and decoded.

場合によっては、特定の位置または任意の位置の後で拡張レイヤのデータが切り捨てられてもよい。ここで切り捨て位置はそれぞれ、視覚的品質を高めて表現する追加データを含んでもよい。こうしたスケーラビリティは細粒度スケーラビリティ(fine-grained/granularity scalability;FGS)と呼ばれる。FGSはSVC規格のドラフトバージョンの一部に含まれていたが、最終版SVC規格からは除外された。よって以降では、FGSはSVC規格のドラフトバージョンの一部を背景として説明される。切り捨てされない拡張レイヤによって提供されるスケーラビリティは、粗粒度スケーラビリティ(coarse-grained/granularity scalability;CGS)と呼ばれる。これは、従来の品質(SNR)スケーラビリティと空間スケーラビリティを合わせて含む。SVC規格はいわゆる中粒度スケーラビリティ(medium-grained/granularity scalability;MGS)をサポートする。MGSでは、高品質ピクチャがSNRスケーラブルレイヤピクチャと同様に符号化されるが、FGSレイヤピクチャと同じ高水準シンタックス要素を用いて、シンタックス要素quality_idが0を超えることによって示される。   In some cases, enhancement layer data may be truncated after a specific or arbitrary position. Here, each truncation position may include additional data that expresses with higher visual quality. Such scalability is called fine-grained / granularity scalability (FGS). FGS was included as part of the draft version of the SVC standard, but was excluded from the final version of the SVC standard. Therefore, in the following, FGS will be explained using a part of the draft version of the SVC standard. The scalability provided by the untruncated enhancement layer is called coarse-grained / granularity scalability (CGS). This includes traditional quality (SNR) scalability and spatial scalability together. The SVC standard supports so-called medium-grained / granularity scalability (MGS). In MGS, a high-quality picture is encoded in the same way as an SNR scalable layer picture, but is indicated by the syntax element quality_id exceeding 0 using the same high-level syntax element as the FGS layer picture.

SVCはレイヤ間予測機構を用い、現在再構成済みのレイヤ以外のレイヤまたは次の下位レイヤから特定の情報を予測することができる。レイヤ間予測が出来た情報は、イントラテクスチャと動き,残差のデータを含む。レイヤ間動き予測は、ブロック符号化モードやヘッダ情報等の予測を含み、下位レイヤからの動きが上位レイヤの予測に用いられてもよい。イントラ符号化の場合、下位レイヤの周囲マクロブロックや共存マクロブロックからの予測が可能である。こうした予測技術は先に符号化済みのアクセスユニットからの情報を使わないため、イントラ予測技術と呼ばれる。また、下位レイヤからの残差データも現レイヤの予測に用いられる。   SVC uses an inter-layer prediction mechanism and can predict specific information from layers other than the currently reconfigured layer or from the next lower layer. The information that can be predicted between layers includes intra texture, motion, and residual data. Inter-layer motion prediction includes prediction of block coding mode, header information, and the like, and motion from a lower layer may be used for prediction of an upper layer. In the case of intra coding, prediction from surrounding macroblocks and coexisting macroblocks in the lower layer is possible. Such a prediction technique is called an intra prediction technique because it does not use information from previously encoded access units. Further, residual data from the lower layer is also used for prediction of the current layer.

SVCは単一ループ復号と呼ばれる概念を特定する。これは制約テクスチャ内予測モードを用いることで可能となる。レイヤ間テクスチャ内予測はマクロブロック(MB)であって、そのMB内にベースレイヤの対応するブロックが位置するMBに対して適用可能である。同時に、ベースレイヤにおけるこうしたイントラMBは、制約イントラ予測を使用する(例えば、シンタックス要素"constrained_intra_pred_flag"が1に等しい)。単一ループ復号では、デコーダは再生に望ましいスケーラブルレイヤ(「希望レイヤ」または「ターゲットレイヤ」と呼ばれる)に対してだけ動き補償および完全ピクチャ再構成を遂行する。こうして、復号における複雑さを大幅に減らせる。希望レイヤ以外の全てのレイヤは完全に復号される必要がない。これは、レイヤ間予測(レイヤ間テクスチャ内予測,レイヤ間動き予測またはレイヤ間残差予測)に使用されないMBデータの全てまたは一部は希望レイヤの再構成に不要であるからである。   SVC specifies a concept called single loop decoding. This can be achieved by using the intra-constrained texture prediction mode. Inter-layer intra-texture prediction is a macroblock (MB), and can be applied to an MB in which the corresponding block of the base layer is located. At the same time, such intra MBs in the base layer use constrained intra prediction (eg, the syntax element “constrained_intra_pred_flag” is equal to 1). In single loop decoding, the decoder performs motion compensation and full picture reconstruction only for the scalable layer desired for playback (referred to as the “desired layer” or “target layer”). Thus, the decoding complexity can be greatly reduced. All layers other than the desired layer need not be completely decoded. This is because all or part of MB data that is not used for inter-layer prediction (inter-layer texture intra prediction, inter-layer motion prediction, or inter-layer residual prediction) is not necessary for the reconstruction of the desired layer.

単一復号ループは殆どのピクチャの復号に必要であるが、第2の復号ループはベース表現を再構成するために選択的に適用される。このベース表現は、予測リファレンスとして必要であるが、出力または表示される必要はないので、いわゆるキーピクチャ("store_ref_base_pic_flag"が1に等しい)に対してのみ再構成される。   While a single decoding loop is necessary for decoding most pictures, the second decoding loop is selectively applied to reconstruct the base representation. This base representation is necessary as a prediction reference, but need not be output or displayed, so it is reconstructed only for so-called key pictures ("store_ref_base_pic_flag" equals 1).

SVCドラフトにおけるスケーラビリティ構造は"temporal_id","dependency_id","quality_id"の3つのシンタックス要素で特徴付けられる。シンタックス要素"temporal_id"は、時間スケーラビリティ階層または間接的にはフレームレートを示すのに用いられる。"temporal_id"の最大値が小さいピクチャを含むスケーラブルレイヤ表現のフレームレートは、"temporal_id"の最大値が大きいピクチャを含むスケーラブルレイヤ表現のフレームレートよりも低い。所与の時間レイヤは通常、下位時間レイヤ(すなわち、"temporal_id"がより小さい値の時間レイヤ)に依存するが、どの上位時間レイヤにも依存しない。シンタックス要素"dependency_id"は、CGSレイヤ間符号化依存階層を示すのに用いられる(前述の通り、SNRと空間スケーラビリティの両方を含む)。どの時間レベル位置でも、"dependency_id"値が小さいピクチャは、"dependency_id"値が大きいピクチャの符号化におけるレイヤ間予測に用いられてもよい。シンタックス要素"quality_id"は、FGSまたはMGSレイヤの品質レベル階層を示すのに用いられる。どの時間レベル位置でも、同一の"dependency_id"値であれば、"quality_id"値がQLに等しいピクチャは"quality_id"値がQL-1に等しいピクチャをレイヤ間予測に使用する。0を超える"quality_id"を持つ符号化スライスは、切り捨て可能なFGSスライスまたは切り捨て不可能なMGSスライスの何れかとして符号化されてもよい。   The scalability structure in the SVC draft is characterized by three syntax elements: "temporal_id", "dependency_id", and "quality_id". The syntax element “temporal_id” is used to indicate a temporal scalability hierarchy or indirectly a frame rate. The frame rate of the scalable layer representation including a picture having a small maximum value of “temporal_id” is lower than the frame rate of the scalable layer representation including a picture having a large maximum value of “temporal_id”. A given time layer typically depends on a lower time layer (ie, a time layer with a smaller value of “temporal_id”), but not on any upper time layer. The syntax element “dependency_id” is used to indicate a CGS inter-layer coding dependency hierarchy (including both SNR and spatial scalability as described above). A picture with a small “dependency_id” value at any temporal level position may be used for inter-layer prediction in coding of a picture with a large “dependency_id” value. The syntax element “quality_id” is used to indicate the quality level hierarchy of the FGS or MGS layer. If the same “dependency_id” value is used at any time level position, a picture whose “quality_id” value is equal to QL uses a picture whose “quality_id” value is equal to QL-1 for inter-layer prediction. An encoded slice with a “quality_id” greater than 0 may be encoded as either a truncable FGS slice or a non-truncable MGS slice.

単純化するために、同一の"dependency_id"値を持つアクセスユニットにおける全てのデータユニット(SVCの場合、ネットワーク抽象化層ユニット/NALユニット等)は、依存ユニットまたは依存表現と呼ばれる。1依存ユニット内では、同一の"quality_id"値を持つ全てのデータユニットは、品質ユニットまたはレイヤ表現と呼ばれる。   For simplicity, all data units (such as network abstraction layer units / NAL units in the case of SVC) in access units with the same “dependency_id” value are called dependency units or dependency expressions. Within one dependent unit, all data units with the same “quality_id” value are called quality units or layer representations.

復号ベースピクチャとも呼ばれるベース表現は、"quality_id"値が0に等しい依存ユニットにおけるビデオ符号化レイヤ(VCL)NALユニットの復号結果から得られる復号ピクチャで、"store_ref_base_pic_flag"が1に設定される。復号ピクチャとも呼ばれる拡張表現は通常の復号処理結果から得られ、最大依存表現に対して存在する全てのレイヤ表現が復号される。   A base representation, also called a decoded base picture, is a decoded picture obtained from the decoding result of a video coding layer (VCL) NAL unit in a dependent unit whose “quality_id” value is equal to 0, and “store_ref_base_pic_flag” is set to 1. An extended representation, also called a decoded picture, is obtained from a normal decoding process result, and all layer representations existing for the maximum dependent representation are decoded.

前述の通り、CGSは空間スケーラビリティとSNRスケーラビリティの両方を含む。空間スケーラビリティは最初に、解像度の異なるビデオ表現をサポートするように設計される。各時間インスタンスに対して、VCL-NALユニットは同一アクセスユニットで符号化され、これらのVCL-NALユニットが別々の解像度に対応している。復号中、低解像度VCL-NALユニットは動きフィールドおよび残差を提供する。これらは、高解像度ピクチャの最終復号および再構成によって引き継がれてもよい。従来のビデオ圧縮規格と比較した場合、SVCの空間スケーラビリティは、ベースレイヤが拡張レイヤをクロップおよびズームしたバージョンとなれるように一般化されている。   As mentioned above, CGS includes both spatial scalability and SNR scalability. Spatial scalability is initially designed to support video representations with different resolutions. For each time instance, VCL-NAL units are encoded with the same access unit, and these VCL-NAL units correspond to different resolutions. During decoding, the low resolution VCL-NAL unit provides motion fields and residuals. These may be inherited by final decoding and reconstruction of high resolution pictures. Compared to conventional video compression standards, the spatial scalability of SVC is generalized so that the base layer can be a cropped and zoomed version of the enhancement layer.

MGS品質レイヤはFGS品質レイヤと同様に"quality_id"で示される。各依存ユニット(同一の"dependency_id"を持つ)に対して、"quality_id"が0に等しいレイヤが存在し、"quality_id"が0を超える他のレイヤも存在し得る。"quality_id"が0を超えるこうしたレイヤは、スライスが切り捨て可能スライスとして符号化されたかどうかに応じてMGSレイヤまたはFGSレイヤの何れかである。   The MGS quality layer is indicated by “quality_id” similarly to the FGS quality layer. For each dependency unit (having the same “dependency_id”), there is a layer whose “quality_id” is equal to 0, and there may be other layers whose “quality_id” is greater than 0. Such layers with a "quality_id" greater than 0 are either MGS layers or FGS layers depending on whether the slice was encoded as a truncable slice.

FGS拡張レイヤの基本形では、レイヤ間予測のみが使用される。したがって、FGS拡張レイヤは、復号シーケンスで誤差を伝播させず自由に切り捨てられる。しかし、FGSの基本形は圧縮効率が低くなる。この問題は、インター予測リファレンスに低品質ピクチャのみが使用されることで生じる。したがって、インター予測リファレンスとしてFGS拡張ピクチャの使用が提案されている。しかしこうした提案でも、FGSデータの一部が破棄される際、ドリフトと呼ばれる符号化・復号間の不整合が生じる可能性がある。   In the basic form of the FGS enhancement layer, only inter-layer prediction is used. Therefore, the FGS enhancement layer is freely truncated without propagating errors in the decoding sequence. However, the basic form of FGS has low compression efficiency. This problem arises because only low quality pictures are used for inter prediction references. Therefore, the use of FGS extended pictures as inter prediction references has been proposed. However, even with these proposals, when a part of FGS data is discarded, there is a possibility that a mismatch between encoding and decoding called drift occurs.

SVCドラフト規格の特徴はFGS-NALユニットが自由に破棄されたり、切り捨てられたりするが、SVCV規格の特徴は、MGS-NALユニットがビットストリームの適合性を損なわず自由に破棄される(しかし、切り捨てられることはできない)。前述の通り、符号化時にこうしたFGSまたはMGSデータがインター予測リファレンスに対して使用される場合、データの破棄または切り捨てはデコーダ側とエンコーダ側との間で復号ピクチャの不整合を生じさせる。この不整合がドリフトと呼ばれる。   The feature of the SVC draft standard is that the FGS-NAL unit is freely discarded or truncated, but the feature of the SVCV standard is that the MGS-NAL unit is freely discarded without compromising the bitstream compatibility (but Cannot be truncated). As described above, when such FGS or MGS data is used for inter prediction reference at the time of encoding, the discarding or truncation of the data causes a decoded picture mismatch between the decoder side and the encoder side. This mismatch is called drift.

FGSまたはMGSデータの破棄または切り捨てによるドリフトを制御するために、SVCは次の解決方法を適用してきた。特定の依存ユニットにおいて、("quality_id"が0に等しいCGSピクチャのみの復号とそれに依存する全ての下位レイヤデータによる)ベース表現は復号ピクチャバッファに格納される。同一の"dependency_id"値を持つ次の依存ユニットを符号化する際、FGS-NALまたはMGS-NALユニットを含む全てのNALユニットはインター予測リファレンス用にベース表現を使用する。その結果、先のアクセスユニットにおけるFGS/MGS-NALユニットの破棄または切り捨てによるドリフトは全て、このアクセスユニットで止められる。同一の"dependency_id"値を持つ他の依存ユニットに対して、全てのNALユニットは、高い符号化効率のために、インター予測リファレンス用にこの復号ピクチャを使用する。   To control drift due to discarding or truncating FGS or MGS data, SVC has applied the following solutions: In a particular dependent unit, the base representation (by decoding only CGS pictures with “quality_id” equal to 0 and all lower layer data dependent on them) is stored in the decoded picture buffer. When encoding the next dependency unit with the same “dependency_id” value, all NAL units, including FGS-NAL or MGS-NAL units, use the base representation for the inter prediction reference. As a result, all drift due to discard or truncation of the FGS / MGS-NAL unit in the previous access unit is stopped at this access unit. For other dependent units with the same “dependency_id” value, all NAL units use this decoded picture for inter prediction reference for high coding efficiency.

NALユニットはそれぞれのNALユニットヘッダにシンタックス要素"use_ref_base_pic_flag"を含む。この要素の値が1に等しい場合、NALユニットの復号ではインター予測処理時にリファレンスピクチャのベース表現を使用する。シンタックス要素"store_ref_base_pic_flag"は、後のピクチャに対してインター予測用に現ピクチャのベース表現を格納する(値が1の場合)か否(値が0の場合)かを特定する。   Each NAL unit includes a syntax element “use_ref_base_pic_flag” in each NAL unit header. When the value of this element is equal to 1, NAL unit decoding uses the base representation of the reference picture during inter prediction processing. The syntax element “store_ref_base_pic_flag” specifies whether to store the base representation of the current picture for inter prediction with respect to the subsequent picture (when the value is 1) or not (when the value is 0).

"quality_id"が0を超えるNALユニットはリファレンスピクチャ・リスト作成および加重予測に関するシンタックス要素を含まない。すなわち、シンタックス要素"num_ref_active_lx_minus1"(xは0または1)やリファレンスピクチャ・リスト並び替えシンタックステーブル,加重予測シンタックステーブルは存在しない。その結果、MGSまたはFGSレイヤは、必要に応じて同一の依存ユニットにおける"quality_id"が0に等しいNALユニットからこうしたシンタックス要素を引き継がなくてはならない。 NAL units with "quality_id" greater than 0 do not include syntax elements for reference picture list creation and weighted prediction. That is, the syntax element “num_ref_active_lx_minus1” (x is 0 or 1), the reference picture list rearrangement syntax table, and the weighted prediction syntax table do not exist. As a result, the MGS or FGS layer must inherit these syntax elements from NAL units whose “quality_id” in the same dependent unit is equal to 0 as needed.

SVCでは、リファレンスピクチャ・リストはベース表現のみ("use_ref_base_pic_flag"が1の場合)または「ベース表現」とマークされていない復号ピクチャのみ("use_ref_base_pic_flag"が0の場合)の何れかから構成され、同時に両方から構成されることはない。   In SVC, the reference picture list consists of either only the base representation (when "use_ref_base_pic_flag" is 1) or only the decoded picture not marked as "base representation" (when "use_ref_base_pic_flag" is 0), and at the same time It is not composed of both.

前に示した通り、MVCはH.264/AVCの拡張である。H.264/AVCの定義や概念,シンタックス構造,意味,復号処理の多くはそのまま、または特定の一般化や制約を伴ってMVCにも適用される。MVCの定義や概念,シンタックス構造,意味,復号処理の一部は以下で説明される。   As indicated earlier, MVC is an extension of H.264 / AVC. Many of the definitions and concepts of H.264 / AVC, syntax structure, meaning, and decoding process are applied to MVC as they are or with specific generalizations and restrictions. The definition and concept of MVC, syntax structure, meaning, and part of the decoding process are explained below.

MVCのアクセスユニットは、復号順に連続するNALユニットのセットと定義され、1つ以上のビューコンポーネントから成る単一のプライマリ符号化ピクチャを含む。アクセスユニットは、プライマリ符号化ピクチャの他に1つ以上の冗長符号化ピクチャや補助符号化ピクチャ,符号化ピクチャのスライスまたはスライスデータ分割を含む他のNALユニットを含んでもよい。アクセスユニットの復号の結果、復号誤差やビットストリーム誤差,復号に影響を及ぼす可能性のある他の誤差が生じなければ、1つ以上の復号ビューコンポーネントから成る1つの復号ピクチャが得られる。換言すれば、MVCのアクセスユニットは、1つの出力時間インスタンスに対して複数のビューのビューコンポーネントを含む。   An MVC access unit is defined as a set of NAL units that are contiguous in decoding order and includes a single primary encoded picture consisting of one or more view components. The access unit may include other NAL units including one or more redundant encoded pictures, auxiliary encoded pictures, slices of encoded pictures or slice data division in addition to primary encoded pictures. If the decoding of the access unit does not result in decoding errors, bitstream errors, or other errors that may affect decoding, a decoded picture consisting of one or more decoded view components is obtained. In other words, the MVC access unit includes view components of multiple views for one output time instance.

MVCのビューコンポーネントは単一アクセスユニットにおけるビューの符号化表現とも呼ばれる。   The view component of MVC is also called a coded representation of a view in a single access unit.

MVCではビュー間予測が使用されてもよく、同一アクセスユニットにおける別々のビューコンポーネントの復号サンプルからビューコンポーネントの予測を参照する。MVCでは、ビュー間予測はインター予測と同様にして実現される。例えば、ビュー間リファレンスピクチャはインター予測用リファレンスピクチャとして同一の(1つまたは複数の)リファレンスピクチャ・リストに配置され、動きベクトルだけでなくリファレンスインデクスも、ビュー間およびリファレンスピクチャ間で同様に符号化または推定される。   In MVC, inter-view prediction may be used, which refers to view component prediction from decoded samples of different view components in the same access unit. In MVC, inter-view prediction is realized in the same manner as inter prediction. For example, inter-view reference pictures are placed in the same (one or more) reference picture list as inter prediction reference pictures, and not only motion vectors but also reference indices are encoded in the same way between views and reference pictures. Or estimated.

アンカーピクチャは符号化ピクチャであって、その中の全スライスが同一アクセスユニット内のスライスのみを参照することができる。すなわち、ビュー間予測が使用可能であるが、インター予測は使用されず、出力順で後になる全ての符号化ピクチャは、復号順で符号化ピクチャの前のどのピクチャからもインター予測を使用しない。ビュー間予測は、非ベースビューの一部であるIDRビューコンポーネント用に使用されてもよい。MVCのベースビューは、符号化ビデオシーケンスでビュー順序インデクスの最大値を持つビューである。ベースビューは他のビューとは独立して復号され、ビュー間予測を使用しない。ベースビューは、H.264/AVCのベースプロファイル(Baseline Profile)やハイプロファイル(High Profile)等の単一ビュープロファイルのみをサポートするH.264/AVCデコーダによって復号可能である。   An anchor picture is an encoded picture, and all slices in the anchor picture can refer only to slices in the same access unit. That is, inter-view prediction can be used, but inter prediction is not used, and all coded pictures that follow in output order do not use inter prediction from any picture before the coded picture in decoding order. Inter-view prediction may be used for IDR view components that are part of a non-base view. The base view of MVC is a view having the maximum value of the view order index in the encoded video sequence. Base views are decoded independently of other views and do not use inter-view prediction. The base view can be decoded by an H.264 / AVC decoder that supports only a single view profile such as an H.264 / AVC baseline profile or a high profile.

MVC規格では、MVC復号処理のサブ処理の多くは、H.264/AVC規格のサブ処理の仕様にある「ピクチャ」,「フレーム」,「フィールド」という語句をそれぞれ「ビューコンポーネント」,「フレーム・ビューコンポーネント」,「フィールド・ビューコンポーネント」と置き換えることによって、H.264/AVC規格の各サブ処理を利用することができる。これと同様に以下では、「ピクチャ」,「フレーム」,「フィールド」という語句がそれぞれ「ビューコンポーネント」,「フレーム・ビューコンポーネント」,「フィールド・ビューコンポーネント」を意味するものとして頻繁に用いられる。   In the MVC standard, many of the sub-processes of the MVC decoding process include the terms “picture”, “frame”, and “field” in the specifications of the sub-process of the H.264 / AVC standard as “view component”, “frame By substituting “view component” and “field view component”, each sub-process of the H.264 / AVC standard can be used. Similarly, in the following, the terms “picture”, “frame”, and “field” are frequently used to mean “view component”, “frame / view component”, and “field / view component”, respectively.

スケーラブル・マルチビュー符号化では、同一ビットストリームが複数のビューの符号化ビューコンポーネントを含んでもよく、符号化ビューコンポーネントの少なくとも一部は品質および/または空間スケーラビリティを用いて符号化されてもよい。   In scalable multi-view coding, the same bitstream may include multiple views of encoded view components, and at least some of the encoded view components may be encoded using quality and / or spatial scalability.

テクスチャビューは通常のビデオコンテンツを示すビューを指す。これは、例えば普通のカメラで撮影されたもので、通常ディスプレイへのレンダリングに適している。テクスチャビューは通常、1つの輝度(luma)成分と2つの色差(chroma)の3つのコンポーネントを持つピクチャを含む。以下では、テクスチャピクチャは通常、輝度テクスチャピクチャと色差テクスチャピクチャという語句等で示されない限り、そのコンポーネントのピクチャまたはカラーコンポーネントの全てを含む。   Texture view refers to a view showing normal video content. This is taken with an ordinary camera, for example, and is suitable for rendering on a normal display. A texture view typically includes a picture with three components, one luma component and two chromas. In the following, a texture picture usually includes all of its component pictures or color components, unless indicated by the phrase luminance texture picture and chrominance texture picture.

深度拡張ビデオは、1つ以上の深度ビューを持つ深度ビデオに関連する1つ以上のビューを持つテクスチャビデオを指す。深度拡張ビデオに関する様々なアプローチが用いられてもよく、ビデオ+深度(video plus depth;V+D)やマルチビュービデオ+深度(multiview video plus depth;MVD),レイヤ深度ビデオ(layered depth video;LDV)の使用を含む。ビデオ+深度(V+D)表現では、単一のテクスチャビューと関連する深度ビューがそれぞれ、テクスチャピクチャと深度ピクチャのシーケンスとして表現される。MVDは複数のテクスチャビューとそれぞれの深度ビューを含む。LDV表現では、中央ビューのテクスチャと深度が従来通りに表現されるが、他のビューのテクスチャと深度は部分的に表現され、中間ビューの正確なビュー合成に関しては遮蔽されていない領域のみをカバーする。   Depth-enhanced video refers to a texture video with one or more views associated with a depth video with one or more depth views. Various approaches to depth-enhanced video may be used, including video plus depth (V + D), multiview video plus depth (MVD), layered depth video (LDV) ) Use. In video + depth (V + D) representation, a single texture view and associated depth view are each represented as a sequence of texture pictures and depth pictures. MVD includes multiple texture views and respective depth views. In the LDV representation, the texture and depth of the central view are represented as usual, but the texture and depth of the other views are partially represented, covering only unobstructed areas for accurate view synthesis of the intermediate view. To do.

深度拡張ビデオは、テクスチャと深度が互いに独立して符号化される方式で符号化されてもよい。例えば、テクスチャビューはMVCビットストリームとして符号化され、深度ビューは別のMVCビットストリームとして符号化されてもよい。あるいは、深度拡張ビデオは、テクスチャと深度が統合して符号化される方式で符号化されてもよい。テクスチャおよび深度ビューの統合符号化が深度拡張ビデオ表現に適用される場合、テクスチャピクチャの復号サンプルの一部またはテクスチャピクチャの復号用データ要素の一部は、深度ピクチャの復号サンプルの一部または深度ピクチャの復号処理で得られたデータ要素の一部から予測または導出される。あるいは、または加えて、深度ピクチャの復号サンプルの一部または深度ピクチャの復号用データ要素の一部は、テクスチャピクチャの復号サンプルの一部またはテクスチャピクチャの復号処理で得られたデータ要素の一部から予測または導出される。   The depth extension video may be encoded in a manner in which texture and depth are encoded independently of each other. For example, the texture view may be encoded as an MVC bitstream and the depth view may be encoded as another MVC bitstream. Alternatively, the depth extension video may be encoded using a method in which texture and depth are encoded in an integrated manner. When joint coding of texture and depth view is applied to the depth-enhanced video representation, some of the decoded samples of the texture picture or some of the data elements for decoding the texture picture are either part of the decoded samples of the depth picture or depth Predicted or derived from some of the data elements obtained in the picture decoding process. Alternatively, or in addition, a part of the decoded sample of the depth picture or a part of the data element for decoding the depth picture may be a part of the decoded sample of the texture picture or a part of the data element obtained by the decoding process of the texture picture. Predicted or derived from

マルチビュー3次元ビデオ(3DV)アプリケーションに対するソリューションは、限定された入力ビュー数だけ、例えばモノラルまたはステレオビューと付加データだけを持ち、必要なビューの全てをデコーダでローカルにレンダリング(すなわち、合成)するというものであると理解される。幾つかの利用可能なビューレンダリング技術から、深度イメージベース・レンダリング(depth image-based rendering;DIBR)は競合代替技術であると見られている。   Solutions for multi-view 3D video (3DV) applications have only a limited number of input views, eg mono or stereo views and additional data, and render (ie, synthesize) all required views locally at the decoder It is understood that. From several available view rendering technologies, depth image-based rendering (DIBR) is seen as a competitive alternative.

DIBRベースの3DVシステムの簡易モデルを図5に示す。3Dビデオコーデックの入力は、立体ビデオと立体ベースラインb0と共に対応する深度情報を含む。3Dビデオコーデックは、ベースライン(bi < b0)と共に、2つの入力ビュー間の複数の仮想ビューを合成する。DIBRアルゴリズムは2つの入力ビュー間だけでなく、その外側のビューを外挿することもできる。同様に、DIBRアルゴリズムは単一のテクスチャビューと対応する深度ビューからビューを合成することもできる。しかし、DIBRベースのマルチビューレンダリングを可能にするために、テクスチャデータが対応する深度データと共にデコーダ側で利用可能であるべきである。   Fig. 5 shows a simplified model of a DIBR-based 3DV system. The input of the 3D video codec includes the corresponding depth information along with the stereoscopic video and the stereoscopic baseline b0. The 3D video codec synthesizes multiple virtual views between two input views, along with a baseline (bi <b0). The DIBR algorithm can extrapolate not only between two input views, but also the outer views. Similarly, the DIBR algorithm can synthesize a view from a single texture view and a corresponding depth view. However, texture data should be available at the decoder side with corresponding depth data to enable DIBR based multi-view rendering.

こうした3DVシステムでは、各ビデオフレームに対して深度情報が(深度マップと呼ばれる)深度ピクチャの形式で、エンコーダ側で作成される。深度マップは、ピクセル毎の深度情報を伴う画像である。深度マップの各サンプルは、カメラが配置された面からそれぞれのテクスチャサンプルまでの距離を表わす。換言すれば、z軸がカメラの撮影方向に沿う(したがって、カメラが配置された面に対して直交する)場合、深度マップのサンプルはz軸の値を表わす。   In such a 3DV system, depth information for each video frame is created on the encoder side in the form of a depth picture (called a depth map). A depth map is an image with depth information for each pixel. Each sample in the depth map represents the distance from the surface where the camera is placed to the respective texture sample. In other words, if the z-axis is along the shooting direction of the camera (and thus orthogonal to the plane on which the camera is located), the depth map sample represents the value of the z-axis.

深度情報は様々な手段で取得することができる。例えば、3Dシーンの深度は、撮影するカメラによって記録される視差から計算されてもよい。深度推定アルゴリズムは、立体ビューを入力として受取り、そのビューに関する2つのオフセット画像間のローカルな視差を計算する。各画像は重複ブロックでピクセル毎に処理され、各ピクセルブロックに対してオフセット画像において一致するブロックが水平方向でローカルに探索される。ピクセル方向の視差が計算されると、対応する深度の値zが式(1)によって計算される。   Depth information can be acquired by various means. For example, the depth of the 3D scene may be calculated from the parallax recorded by the shooting camera. The depth estimation algorithm takes a stereoscopic view as input and calculates the local parallax between the two offset images for that view. Each image is processed pixel by pixel in overlapping blocks, and a matching block in the offset image for each pixel block is searched locally in the horizontal direction. When the parallax in the pixel direction is calculated, the corresponding depth value z is calculated by equation (1).


z = (f・b)/(d + Δd) ... 式(1)

z = (f · b) / (d + Δd) ... Formula (1)

ここで、fはカメラの焦点距離、bはカメラ間のベースライン距離であり、図6に示されている。さらに、dは2つのカメラの間で観測される視差を表わし、カメラオフセットΔdは2つのカメラの光学中心に関して生じ得る水平方向の位置のずれを示す。ただし、アルゴリズムはブロックの一致に基づくため、深度を通じた視差推定の質はコンテンツに依存し、殆どの場合正確ではない。例えば、質感がなく非常に滑らかな領域や高いノイズレベルを含む画像部分に対しては、直接深度推定を行うことは不可能である。   Here, f is the focal length of the camera, b is the baseline distance between the cameras, and is shown in FIG. Furthermore, d represents the parallax observed between the two cameras, and the camera offset Δd represents the horizontal position shift that can occur with respect to the optical center of the two cameras. However, since the algorithm is based on block matching, the quality of disparity estimation over depth depends on the content and is not accurate in most cases. For example, it is impossible to perform depth estimation directly on an image portion having no texture and including a very smooth region or a high noise level.

ISO/IEC国際規格23002-3で規定されるparallax mapのような格差/視差マップは、深度マップと同様に処理されてもよい。深度と視差には直接的な対応関係があり、数学的方程式を介して一方から他方を算出することができる。   A disparity / disparity map such as a parallax map defined in ISO / IEC international standard 23002-3 may be processed in the same manner as a depth map. There is a direct correspondence between depth and parallax, and the other can be calculated from one through a mathematical equation.

アクセスユニット内のテクスチャおよび深度ビューコンポーネントに関する符号化および復号順序は通常、符号化ビューコンポーネントのデータが他の符号化ビューコンポーネントによってインターリーブされないようになっており、アクセスユニット用データもビットストリームまたは復号順で他のアクセスユニットによってインターリーブされない。例えば、図7に示すように、別々のアクセスユニット(t, t+1, t+2)に2組のテクスチャ・深度ビュー(T0t, T1t, T0t+1, T1t+1, T0t+2, T1t+2, D0t, D1t, D0t+1, D1t+1, D0t+2, D1t+2)が存在してもよい。ここで、テクスチャ・深度ビューコンポーネント(T0t,T1t, D0t,D1t)から成るアクセスユニットtは、ビットストリームおよび復号順でテクスチャ・深度ビューコンポーネント(T0t+1,T1t+1, D0t+1,D1t+1)から成るアクセスユニットt+1よりも先である。 The encoding and decoding order for texture and depth view components within an access unit is typically such that the data for the encoded view component is not interleaved by other encoded view components, and the data for the access unit is also bitstream or decoding order. Are not interleaved by other access units. For example, as shown in FIG. 7, two sets of texture / depth views (T0 t , T1 t , T0 t + 1 , T1 t + 1 , T0) are assigned to different access units (t, t + 1, t + 2). t + 2 , T1 t + 2 , D0 t , D1 t , D0 t + 1 , D1 t + 1 , D0 t + 2 , D1 t + 2 ). Here, the access unit t consisting of the texture / depth view components (T0 t , T1 t , D0 t , D1 t ) has the texture / depth view components (T0 t + 1 , T1 t + 1 , D0 t + 1 , D1 t + 1 ) is ahead of the access unit t + 1.

アクセスユニット内のビューコンポーネントの符号化および復号順序は、符号化フォーマットに従ってもよく、エンコーダによって決定されてもよい。テクスチャビューコンポーネントは、同一ビューの関連する深度ビューコンポーネントよりも先に符号化されてもよい。それ故、こうした深度ビューコンポーネントが同一ビューの関連するテクスチャビューコンポーネントから予測されてもよい。こうしたテクスチャビューコンポーネントは、例えばMVCエンコーダで符号化され、MVCデコーダで復号されてもよい。拡張テクスチャビューコンポーネントは本願では、同一ビューの関連する深度ビューコンポーネントの後に符号化されるテクスチャビューコンポーネントを表わす。したがって、関連する深度ビューコンポーネントから予測されてもよい。同一アクセスユニットのテクスチャ・深度ビューコンポーネントは通常、ビューに依存する順序で符号化される。テクスチャ・深度ビューコンポーネントは、前述の制約に従う限りで互いに任意の順序で並べ替えることができる。   The encoding and decoding order of the view components in the access unit may follow the encoding format and may be determined by the encoder. The texture view component may be encoded before the associated depth view component of the same view. Therefore, such depth view components may be predicted from related texture view components of the same view. Such a texture view component may be encoded by, for example, an MVC encoder and decoded by an MVC decoder. An extended texture view component represents herein a texture view component that is encoded after an associated depth view component of the same view. Thus, it may be predicted from the associated depth view component. Texture and depth view components of the same access unit are typically encoded in a view dependent order. Texture and depth view components can be reordered in any order with respect to one another as long as the above constraints are followed.

テクスチャビューと深度ビューは、テクスチャビューの一部がH.264/AVCおよび/またはMVC等の1つ以上のビデオ規格に準拠した単一ビットストリームに符号化されてもよい。換言すれば、デコーダはこうしたビットストリームのテクスチャビューの一部を復号することができ、残りのテクスチャビューと深度ビューを除外することができてもよい。   The texture view and depth view may be encoded into a single bitstream in which part of the texture view conforms to one or more video standards such as H.264 / AVC and / or MVC. In other words, the decoder may be able to decode some of the texture views of such bitstreams and exclude the remaining texture and depth views.

こうした背景では、1つ以上のテクスチャ・深度ビューを単一のH.264/AVCおよび/またはMVC準拠ビットストリームに符号化するエンコーダは、3DV-ATMエンコーダとも呼ばれる。こうしたエンコーダによって生成されたビットストリームは、3DV-ATMビットストリームと呼ぶことができる。3DV-ATMビットストリームは、H.264/AVCおよび/またはMVCデコーダが復号することができない一部のテクスチャビューと深度ビューを含んでもよい。3DV-ATMビットストリームからのビュー全てを復号可能なデコーダは3DV-ATMデコーダと呼ぶこともできる。   In this context, an encoder that encodes one or more texture and depth views into a single H.264 / AVC and / or MVC compliant bitstream is also referred to as a 3DV-ATM encoder. The bitstream generated by such an encoder can be referred to as a 3DV-ATM bitstream. The 3DV-ATM bitstream may include some texture and depth views that cannot be decoded by the H.264 / AVC and / or MVC decoder. A decoder that can decode all views from a 3DV-ATM bitstream can also be called a 3DV-ATM decoder.

3DV-ATMビットストリームはAVC/MVC準拠テクスチャビューを選択された数だけ含むことができる。AVC/MVC準拠テクスチャビューに対する深度ビューは、テクスチャビューから予測されてもよい。残りのテクスチャビューは拡張テクスチャ符号化を利用し、深度ビューが深度符号化を利用してもよい。   A 3DV-ATM bitstream can contain a selected number of AVC / MVC compliant texture views. A depth view for an AVC / MVC compliant texture view may be predicted from the texture view. The remaining texture views may use enhanced texture coding and the depth view may use depth coding.

テクスチャビューおよび深度ビューを符号化できるエンコーダ200の実施形態の高レベルフローチャートを図8に示し、テクスチャビューおよび深度ビューを復号できるデコーダ210を図9に示す。これらの図で、実線は一般的なデータフローを表わし、破線は制御情報信号を表わす。エンコーダ200は、テクスチャエンコーダ202で符号化されるテクスチャコンポーネント201と深度エンコーダ204で符号化される深度マップコンポーネント203を受取ってもよい。エンコーダ200がAVC/MVCに従ってテクスチャコンポーネントを符号化中は、第1のスイッチ205がオフに切替えられてもよい。エンコーダ200が拡張テクスチャコンポーネントを符号化中は、深度エンコーダ204が生成する情報がテクスチャエンコーダ202に提供されるように、第1のスイッチ205がオンに切替えられてもよい。この実施例のエンコーダは、次のように制御される第2のスイッチ206も備える。第2のスイッチ206は、エンコーダがAVC/MVCビューの深度情報を符号化中はオンに切替えられ、エンコーダが拡張テクスチャビューの深度情報を符号化中はオフに切替えられる。エンコーダ200は符号化ビデオ情報を含むビットストリーム207を出力してもよい。   A high level flowchart of an embodiment of an encoder 200 capable of encoding texture and depth views is shown in FIG. 8, and a decoder 210 capable of decoding texture and depth views is shown in FIG. In these figures, a solid line represents a general data flow, and a broken line represents a control information signal. The encoder 200 may receive a texture component 201 encoded with the texture encoder 202 and a depth map component 203 encoded with the depth encoder 204. While the encoder 200 is encoding the texture component according to AVC / MVC, the first switch 205 may be turned off. While the encoder 200 is encoding the enhanced texture component, the first switch 205 may be turned on so that the information generated by the depth encoder 204 is provided to the texture encoder 202. The encoder of this embodiment also includes a second switch 206 that is controlled as follows. The second switch 206 is turned on while the encoder is encoding the depth information of the AVC / MVC view, and is turned off while the encoder is encoding the depth information of the extended texture view. The encoder 200 may output a bitstream 207 that includes encoded video information.

デコーダ210は、少なくとも一部が逆順である以外は同様に動作してもよい。デコーダ210は符号化ビデオ情報を含むビットストリーム207を受信してもよい。デコーダ210は、テクスチャ情報を復号するテクスチャデコーダ211と深度情報を復号する深度デコーダ212を備える。第3のスイッチ213は深度デコーダ212からテクスチャデコーダ211への情報配信を制御するために提供されてもよく、第4のスイッチ214はテクスチャデコーダ211から深度デコーダ212への情報配信を制御するために提供されてもよい。デコーダ210がAVC/MVCテクスチャビューを復号する際は、第3のスイッチ213がオフに切替えられてもよく、デコーダ210が拡張テクスチャビューを復号する際は、第3のスイッチ213がオンに切替えられてもよい。デコーダ210がAVC/MVCテクスチャビューの深度を復号する際は、第4のスイッチ214がオンに切替えられてもよく、デコーダ210が拡張テクスチャビューの深度を復号する際は、第4のスイッチ214がオフに切替えられてもよい。デコーダ210は再構成テクスチャコンポーネント215および再構成深度マップコンポーネント216を出力してもよい。   The decoder 210 may operate similarly except that at least a portion is in reverse order. The decoder 210 may receive a bitstream 207 that includes encoded video information. The decoder 210 includes a texture decoder 211 that decodes texture information and a depth decoder 212 that decodes depth information. A third switch 213 may be provided to control information distribution from the depth decoder 212 to the texture decoder 211, and a fourth switch 214 may control information distribution from the texture decoder 211 to the depth decoder 212. May be provided. When the decoder 210 decodes the AVC / MVC texture view, the third switch 213 may be switched off, and when the decoder 210 decodes the extended texture view, the third switch 213 is switched on. May be. When the decoder 210 decodes the depth of the AVC / MVC texture view, the fourth switch 214 may be turned on, and when the decoder 210 decodes the depth of the extended texture view, the fourth switch 214 It may be switched off. The decoder 210 may output a reconstructed texture component 215 and a reconstructed depth map component 216.

多くのビデオエンコーダは、レート歪み最適符号化モード、例えば希望マクロブロックモードと関連する動きベクトルを探索するために、ラグランジュ費用関数(Lagrangian cost function)を利用する。この種の費用関数は、非可逆符号化法による正確なまたは推定された画像歪みと、画像領域のピクセル/サンプル値を表現するのに必要である正確なまたは推定された情報量を一緒に固定するために、加重ファクタまたはλを用いる。ラグランジュ費用関数は次式で表わすことができる:

C = D + λR
Many video encoders utilize a Lagrangian cost function to search for motion vectors associated with a rate-distortion optimal coding mode, eg, the desired macroblock mode. This type of cost function fixes together the exact or estimated image distortion due to lossy coding and the exact or estimated amount of information needed to represent the pixel / sample values of the image area. To do this, a weighting factor or λ is used. The Lagrangian cost function can be expressed as:

C = D + λR

ここで、Cは最小化すべきラグランジュ費用、Dはこのモードと現在考慮される動きベクトルによる画像歪み(例えば、元の画像ブロックと符号化画像ブロックとの間のピクセル/サンプル値の平均二乗誤差)、λはラグランジュ係数、Rはデコーダで画像ブロックを再構成するために要求されるデータ(候補の動きベクトルを表わすためのデータ量を含む)を表わすのに必要なビット数である。   Where C is the Lagrangian cost to be minimized and D is the image distortion due to this mode and the currently considered motion vector (eg the mean square error of the pixel / sample values between the original image block and the encoded image block) , Λ is a Lagrangian coefficient, and R is the number of bits required to represent the data (including the amount of data for representing candidate motion vectors) required to reconstruct the image block at the decoder.

図1は例示的実施形態に従うビデオ符号化システムのブロック図を示す。このブロック図は、本発明の実施形態に従うコーデックを組込む例示的装置または例示的電子デバイス50の概略を示すブロック図として示されている。図2は、例示的実施形態に従う装置のレイアウトを示す。図1および2の各要素は以下で説明される。   FIG. 1 shows a block diagram of a video encoding system according to an exemplary embodiment. This block diagram is shown as a block diagram outlining an exemplary apparatus or exemplary electronic device 50 that incorporates a codec in accordance with an embodiment of the present invention. FIG. 2 shows a layout of the device according to an exemplary embodiment. Each element of FIGS. 1 and 2 is described below.

電子デバイス50は、移動端末や無線通信システムにおけるユーザ機器等であってもよい。ただし、本発明の実施形態は、符号化および復号、またはビデオ画像の符号化や復号を要する任意の電子デバイスや装置に実装可能であることを理解されたい。   The electronic device 50 may be a user equipment or the like in a mobile terminal or a wireless communication system. However, it should be understood that embodiments of the present invention can be implemented in any electronic device or apparatus that requires encoding and decoding, or encoding and decoding of a video image.

装置50は、デバイスを組込んで保護するハウジング30を備えてもよい。装置50はまた、液晶表示の形態でディスプレイ32を備えてもよい。本発明の他の実施形態では、ディスプレイは画像やビデオを表示するのに適した任意適当なディスプレイ技術によるものでもよい。装置50はまた、キーパッド34を備えてもよい。本発明の他の実施形態では、任意適当なデータインタフェースやユーザインタフェースの機構が用いられてもよい。例えば、ユーザインタフェースはタッチセンサ式ディスプレイの一部に仮想キーボードやデータ入力システムとして実装されてもよい。装置はマイクロフォン36や、デジタルまたはアナログ信号の任意適当な音声入力を備えてもよい。装置50はまた、音声出力デバイスを備えてもよく、本発明の実施形態では次の何れか1つでもよい:イヤホン38,スピーカ,アナログ音声またはデジタル音声出力接続。装置50はまた、バッテリ40を備えてもよい(または、本発明の他の実施形態では、太陽電池や燃料電池,時計仕掛けの発電機等の任意適当な携帯エネルギー装置によって電源供給されてもよい)。装置はまた、他のデバイスと短可視距離通信する赤外線ポート42を備えてもよい。他の実施形態では、装置50はさらに、ブルートゥース無線通信やUSB/FireWire有線接続等の任意適当な短距離通信ソリューションを備えてもよい。   The apparatus 50 may include a housing 30 that incorporates and protects the device. The device 50 may also comprise a display 32 in the form of a liquid crystal display. In other embodiments of the invention, the display may be by any suitable display technology suitable for displaying images and videos. The device 50 may also include a keypad 34. In other embodiments of the present invention, any suitable data interface or user interface mechanism may be used. For example, the user interface may be implemented as a virtual keyboard or a data input system on a part of the touch-sensitive display. The device may include a microphone 36 and any suitable audio input of a digital or analog signal. The device 50 may also comprise an audio output device, and in the embodiments of the present invention may be any one of the following: earphone 38, speaker, analog audio or digital audio output connection. The device 50 may also include a battery 40 (or in other embodiments of the invention may be powered by any suitable portable energy device such as a solar cell, fuel cell, clockwork generator, etc. ). The apparatus may also include an infrared port 42 for short visible range communication with other devices. In other embodiments, the device 50 may further comprise any suitable short-range communication solution such as Bluetooth wireless communication or USB / FireWire wired connection.

装置50は、装置50を制御するコントローラ56またはプロセッサを備えてもよい。コントローラ56はメモリ58に接続されてもよい。本発明の実施形態では、メモリは、画像形態におけるデータと音声データの両方を格納してもよく、および/または、コントローラ56に実装される命令を格納してもよい。また、コントローラ56はコーデック回路54に接続されてもよい。コーデック回路は、音声および/またはビデオデータの符号化・復号の遂行や、コントローラ56が遂行する符号化・復号を補助するのに適している。   The device 50 may include a controller 56 or processor that controls the device 50. Controller 56 may be connected to memory 58. In embodiments of the present invention, the memory may store both data in the form of images and audio data and / or may store instructions implemented in the controller 56. The controller 56 may be connected to the codec circuit 54. The codec circuit is suitable for performing the encoding / decoding of audio and / or video data and assisting the encoding / decoding performed by the controller 56.

装置50はまた、カードリーダー48とスマートカード46を備えてもよい。例えば、ユーザ情報を提供し、ネットワークでユーザ認証および認可を行うための認証情報を提供するのに適したUICCおよびUICCリーダーを備えてもよい。   The device 50 may also comprise a card reader 48 and a smart card 46. For example, a UICC and UICC reader suitable for providing user information and providing authentication information for user authentication and authorization in the network may be provided.

装置50は、コントローラに接続され、無線通信信号を生成するのに適した無線インタフェース回路52を備えてもよい。無線通信は例えば、携帯通信ネットワークや無線通信システム,無線ローカルエリアネットワークでの通信である。また、装置50は無線インタフェース回路52に接続されたアンテナ44を備えてもよい。アンテナは、無線インタフェース回路52で生成された無線信号を他の(1または複数の)装置へ送信し、無線信号を他の(1または複数の)装置から受信する。   The device 50 may comprise a radio interface circuit 52 connected to the controller and suitable for generating a radio communication signal. Wireless communication is, for example, communication in a mobile communication network, a wireless communication system, or a wireless local area network. The device 50 may also include an antenna 44 connected to the wireless interface circuit 52. The antenna transmits the radio signal generated by the radio interface circuit 52 to the other device (s) and receives the radio signal from the other device (s).

本発明の実施形態によっては、装置50は個別のフレームを記録または検出可能なカメラを備え、このフレームは処理用のコーデック54またはコントローラに渡される。本発明の実施形態によっては、装置は、別のデバイスから処理用ビデオ画像データを、送信および/または格納する前に受信してもよい。本発明の実施形態によっては、装置50は、符号化用/復号用画像を無線または有線の何れかで受信してもよい。   In some embodiments of the present invention, the device 50 comprises a camera capable of recording or detecting individual frames that are passed to the processing codec 54 or controller. In some embodiments of the present invention, an apparatus may receive processing video image data from another device prior to transmission and / or storage. In some embodiments of the present invention, device 50 may receive the encoding / decoding image either wirelessly or wired.

図3は、例示的実施形態に従う複数の装置,ネットワークおよびネットワーク要素を含むビデオ符号化構成を示す。図3では、本発明の実施形態において利用可能なシステムの実施例が示されている。システム10は、1つ以上のネットワークを通じて通信可能な複数の通信デバイスを含む。システム10は任意の無線または有線ネットワークの組合せを含んでよく、無線携帯電話ネットワーク(GSM(登録商標)やUMTS,CDMAネットワーク等)やIEEE 802.xの何れかの規格で規定される無線ローカルエリアネットワーク(WLAN),ブルートゥース・パーソナルエリアネットワーク,イーサネット(登録商標)・ローカルエリアネットワーク,トークンリング・ローカルエリアネットワーク,広域ネットワーク,インターネットを含んでもよい。ただし、これらに限定されない。   FIG. 3 shows a video encoding configuration including multiple devices, networks and network elements according to an exemplary embodiment. FIG. 3 shows an example of a system that can be used in an embodiment of the present invention. The system 10 includes a plurality of communication devices that can communicate over one or more networks. The system 10 may include any combination of wireless or wired networks, such as a wireless cellular network (GSM (registered trademark), UMTS, CDMA network, etc.) or a wireless local area defined by any of the IEEE 802.x standards. A network (WLAN), a Bluetooth personal area network, an Ethernet (registered trademark) local area network, a token ring local area network, a wide area network, and the Internet may be included. However, it is not limited to these.

システム10は無線・有線両方の通信デバイスを含んでもよく、本発明の実施形態を実装するのに適した装置50を含んでもよい。例えば、図3に示すシステムは、携帯電話ネットワーク11とインターネット28を表わす表現を示している。インターネット28への接続は長距離無線接続や短距離無線接続,様々な有線接続を含んでもよいが、これらに限定されない。有線接続には電話回線やケーブル線,電力線,その他同様の通信線が含まれるが、これらに限定されない。   The system 10 may include both wireless and wired communication devices and may include an apparatus 50 suitable for implementing embodiments of the present invention. For example, the system shown in FIG. 3 shows expressions representing the cellular phone network 11 and the Internet 28. Connections to the Internet 28 may include, but are not limited to, long-range wireless connections, short-range wireless connections, and various wired connections. Wired connections include, but are not limited to, telephone lines, cable lines, power lines, and other similar communication lines.

システム10に示される例示的通信デバイスは電子デバイスや装置50,携帯情報端末(PDA)16,PDAと携帯電話14の組合せ,統合通信デバイス(integrated messaging device;IMD)18,デスクトップコンピュータ20,ノート型コンピュータ22を含んでもよい。ただし、これらに限定されない。装置50は固定型でもよく、移動する人が持ち運べる携帯型でもよい。また、装置50は移動手段に配置されてもよい。こうした移動手段には自動車やトラック,タクシー,バス,列車,船/ボート,飛行機,自転車,バイク,その他類似の移動手段が含まれるが、これらに限定されない。   Exemplary communication devices shown in system 10 are electronic devices and devices 50, personal digital assistants (PDAs) 16, a combination of PDA and mobile phone 14, integrated messaging device (IMD) 18, desktop computer 20, notebook type A computer 22 may be included. However, it is not limited to these. The device 50 may be a fixed type or a portable type that can be carried by a moving person. Further, the device 50 may be disposed on the moving means. Such transportation means include, but are not limited to, cars, trucks, taxis, buses, trains, ships / boats, airplanes, bicycles, motorcycles, and other similar transportation means.

さらに装置によっては、電話・メッセージを送受信したり、基地局24との無線接続25を通じてサービスプロバイダと通信したりしてもよい。基地局24は、携帯電話ネットワーク11とインターネット28間の通信を可能にするネットワークサーバ26に接続されてもよい。システムは、付加的な通信デバイスと様々な種類の通信デバイスを含んでもよい。   Further, some devices may send and receive telephone calls and messages, or communicate with a service provider through a wireless connection 25 with the base station 24. The base station 24 may be connected to a network server 26 that enables communication between the mobile phone network 11 and the Internet 28. The system may include additional communication devices and various types of communication devices.

通信デバイスは様々な伝送技術を用いて通信してもよく、こうした技術には符号分割多元接続(CDMA)や携帯通信用グローバルシステム(GSM(登録商標)),ユニバーサル携帯電話システム(UMTS),時分割多元接続(TDMA),周波数分割多元接続(FDMA),TCP-IP(transmission control protocol-internet protocol),ショートメッセージサービス(SMS),マルチメディアメッセージサービス(MMS),電子メール,IMS(instant messaging service),ブルートゥース,IEEE 802.11,その他類似の無線通信技術を含む。ただし、これらに限定されない。本発明の様々な実施形態への実装に含まれる通信デバイスは、様々な媒体を介して通信することができる。こうした媒体として、無線,赤外線,レーザー,ケーブル接続,その他適切な接続が含まれるが、これらに限定されない。   Communication devices may communicate using various transmission technologies, including code division multiple access (CDMA), global systems for mobile communications (GSM (registered trademark)), universal mobile phone systems (UMTS), Division multiple access (TDMA), frequency division multiple access (FDMA), TCP-IP (transmission control protocol-internet protocol), short message service (SMS), multimedia message service (MMS), e-mail, IMS (instant messaging service) ), Bluetooth, IEEE 802.11, and other similar wireless communication technologies. However, it is not limited to these. Communication devices included in implementations of the various embodiments of the invention can communicate via various media. Such media include, but are not limited to, wireless, infrared, laser, cable connections, and other suitable connections.

図4aおよび4bは、例示的実施形態に従うビデオ符号化・復号のブロック図を示す。   Figures 4a and 4b show block diagrams of video encoding and decoding according to an exemplary embodiment.

図4aは、ピクセル予測器302と予測誤差エンコーダ303,予測誤差デコーダ304を備えるようなエンコーダを示す。図4aはまた、インター予測器306とイントラ予測器308,モードセレクタ310,フィルタ316,リファレンスフレームメモリ318を備えるようなピクセル予測器302の実施形態を示す。この実施形態では、モードセレクタ310はブロックプロセッサ381とコスト評価器382を備える。エンコーダはまた、ビットストリームのエントロピー符号化を行うエントロピーエンコーダ330を備えてもよい。   FIG. 4 a shows an encoder comprising a pixel predictor 302, a prediction error encoder 303 and a prediction error decoder 304. FIG. 4 a also illustrates an embodiment of a pixel predictor 302 that includes an inter predictor 306 and an intra predictor 308, a mode selector 310, a filter 316, and a reference frame memory 318. In this embodiment, the mode selector 310 includes a block processor 381 and a cost evaluator 382. The encoder may also include an entropy encoder 330 that performs entropy encoding of the bitstream.

図4bはインター予測器306の実施形態を示す。インター予測器306は、1または複数のリファレンスフレームを選択するリファレンスフレームセレクタ360と動きベクトル定義器361,予測リスト作成器363,動きベクトルセレクタ364を備える。こうした構成要素またはその一部は、予測プロセッサ362の一部であってもよく、他の手段で実装されてもよい。   FIG. 4 b shows an embodiment of the inter predictor 306. The inter predictor 306 includes a reference frame selector 360 that selects one or a plurality of reference frames, a motion vector definer 361, a prediction list generator 363, and a motion vector selector 364. These components or parts thereof may be part of the prediction processor 362 and may be implemented by other means.

ピクセル予測器302は、インター予測器306とイントラ予測器308の両方で符号化される画像300を受信する(インター予測器306はこの画像と動き補償リファレンスフレーム318との間の差を決定し、イントラ予測器308は現フレームまたはピクチャで処理済みの部分のみに基づいて画像ブロックの予測を決定する)。インター予測器とイントラ予測器の両方からの出力はモードセレクタ310に送られる。インター予測器306とイントラ予測器308の両方とも、複数のイントラ予測モードを持っていてよい。したがって、インター予測とイントラ予測は各モードで遂行され、   Pixel predictor 302 receives an image 300 that is encoded by both inter predictor 306 and intra predictor 308 (inter predictor 306 determines the difference between this image and motion compensated reference frame 318; The intra predictor 308 determines the prediction of the image block based only on the processed portion of the current frame or picture). The output from both the inter predictor and the intra predictor is sent to the mode selector 310. Both inter predictor 306 and intra predictor 308 may have multiple intra prediction modes. Therefore, inter prediction and intra prediction are performed in each mode,

予測信号がモードセレクタ310に提供されてもよい。モードセレクタ310も画像300のコピーを受信する。   A prediction signal may be provided to the mode selector 310. Mode selector 310 also receives a copy of image 300.

モードセレクタ310は現ブロックの符号化に使用する符号化モードの種類を決定する。モードセレクタ310は、インター予測モードの使用を決定すると、インター予測器306の出力をモードセレクタ310の出力に送る。モードセレクタ310は、イントラ予測モードの使用を決定すると、イントラ予測モードの1つに関する出力をモードセレクタ310の出力に送る。   The mode selector 310 determines the type of encoding mode used for encoding the current block. When the mode selector 310 decides to use the inter prediction mode, the mode selector 310 sends the output of the inter predictor 306 to the output of the mode selector 310. When the mode selector 310 decides to use the intra prediction mode, it sends an output for one of the intra prediction modes to the output of the mode selector 310.

モードセレクタ310は、符号化モードとそのパラメータ値を選択するために、コスト評価器ブロック382では例えばラグランジュ費用関数を用いてもよい。ここでパラメータ値とは、通常ブロックに基づく動きベクトルやリファレンスインデクス,イントラ予測の向き等である。この種の費用関数は、非可逆符号化法による(正確なまたは推定された)画像歪みと、画像領域のピクセル/サンプル値を表現するのに必要である(正確なまたは推定された)情報量を一緒に固定するために、加重ファクタλを用い、次式のように表わされる:C = D + λ × R。ここで、Cは最小化すべきラグランジュ費用、Dはこのモードとそのパラメータによる画像歪み(平均二乗誤差等)、Rはデコーダで画像ブロックを再構成するために要求されるデータ(候補の動きベクトルを表わすためのデータ量を含んでもよい)を表わすのに必要なビット数である。   The mode selector 310 may use, for example, a Lagrangian cost function in the cost evaluator block 382 to select an encoding mode and its parameter values. Here, the parameter value is a motion vector based on a normal block, a reference index, an intra prediction direction, or the like. This type of cost function is the amount of information (exact or estimated) required to represent the image distortion (accurate or estimated) image loss and the pixel / sample values of the image area by the lossy coding method. Is fixed together, using a weighting factor λ, expressed as: C = D + λ × R. Where C is the Lagrangian cost to be minimized, D is the image distortion due to this mode and its parameters (mean square error, etc.), R is the data required to reconstruct the image block at the decoder (candidate motion vectors) The number of bits required to represent (which may include the amount of data to represent).

モードセレクタの出力は第1の加算器321に送られる。第1の加算器は、予測誤差エンコーダ303への入力である第1の予測誤差信号320を生成するために、画像300からピクセル予測器302の出力を引いてもよい。   The output of the mode selector is sent to the first adder 321. The first adder may subtract the output of the pixel predictor 302 from the image 300 to generate a first prediction error signal 320 that is an input to the prediction error encoder 303.

ピクセル予測器302はさらに、画像ブロック312の予測表現と予測誤差デコーダ304の出力338の合成を仮再構成器339から受取る。仮再構成器された画像314は、イントラ予測器308とフィルタ316に送られてもよい。仮表現を受取るフィルタ316は、その仮表現をフィルタリングし、リファレンスフレームメモリ318に保存される最終再構成画像340を出力する。リファレンスフレームメモリ318は、後の画像300がインター予測動作で比較されるためのリファレンス画像として使用されるように、インター予測器306に接続されてもよい。多くの実施形態では、リファレンスフレームメモリ318は複数の復号ピクチャを格納することができる。そうした復号ピクチャの1つ以上は、後の画像300がインター予測動作で比較されるためのリファレンスピクチャとして、インター予測器306で使用されてもよい。場合によっては、リファレンスフレームメモリ318は復号ピクチャバッファとも呼ばれる。   The pixel predictor 302 further receives from the temporary reconstructor 339 a combination of the predicted representation of the image block 312 and the output 338 of the prediction error decoder 304. The temporarily reconstructed image 314 may be sent to an intra predictor 308 and a filter 316. A filter 316 that receives the temporary expression filters the temporary expression and outputs a final reconstructed image 340 stored in the reference frame memory 318. The reference frame memory 318 may be connected to the inter predictor 306 so that the subsequent image 300 is used as a reference image to be compared in the inter prediction operation. In many embodiments, the reference frame memory 318 can store multiple decoded pictures. One or more of such decoded pictures may be used in the inter predictor 306 as a reference picture for subsequent images 300 to be compared in an inter prediction operation. In some cases, the reference frame memory 318 is also referred to as a decoded picture buffer.

ピクセル予測器302の動作は、本技術分野で周知のあらゆるピクセル予測アルゴリズムを遂行するように構成されてもよい。   The operation of the pixel predictor 302 may be configured to perform any pixel prediction algorithm known in the art.

ピクセル予測器302はまた、予測値をピクセル予測器302から出力する前にフィルタリングするフィルタ385を備えてもよい。   Pixel predictor 302 may also include a filter 385 that filters the predicted values before outputting them from pixel predictor 302.

予測誤差エンコーダ303および予測誤差デコーダ304の動作は以降で詳述される。次の実施例では、エンコーダは、画像を16×16ピクセルのマクロブロック単位で生成する。こうした画像はフル画像またはピクチャを形成するようになる。ただし、図4aは16×16のブロックサイズに限定されるものではなく、任意のサイズおよび形状のブロックが一般に使用可能であることに留意されたい。同様に、図4aはピクチャのマクロブロック分割に限定されるものではなく、その他任意のピクチャ分割によって符号化単位として使用可能なブロックに分割されてもよいことにも留意されたい。したがって、以下の実施例に関して、ピクセル予測器302は16×16ピクセルサイズの予測マクロブロック列を出力し、第1の加算器321は、画像300の第1のマクロブロックと予測マクロブロック(ピクセル予測器302の出力)との間の差を表わす16×16ピクセルの残差データマクロブロック列を出力する。   The operations of the prediction error encoder 303 and the prediction error decoder 304 will be described in detail later. In the next embodiment, the encoder generates an image in units of 16 × 16 pixel macroblocks. Such an image will form a full image or picture. However, it should be noted that FIG. 4a is not limited to a 16 × 16 block size, and blocks of any size and shape can generally be used. Similarly, it should be noted that FIG. 4a is not limited to macroblock division of a picture, and may be divided into blocks that can be used as coding units by any other picture division. Thus, for the following example, the pixel predictor 302 outputs a 16 × 16 pixel sized prediction macroblock sequence, and the first adder 321 includes the first macroblock and the prediction macroblock (pixel prediction) of the image 300. A 16 × 16 pixel residual data macroblock sequence representing the difference between the output and the output of the output of the unit 302.

予測誤差エンコーダ303は、変換ブロック342と量子化器344を備える。変換ブロック342は第1の予測誤差信号320を変換ドメインに変換する。この変換は例えば、DCT変換やその異型である。量子化器344は、量子化係数を得るために、DCT係数等の変換ドメイン信号を量子化する。   The prediction error encoder 303 includes a transform block 342 and a quantizer 344. Transform block 342 transforms first prediction error signal 320 into a transform domain. This conversion is, for example, a DCT conversion or its variant. The quantizer 344 quantizes a transform domain signal such as a DCT coefficient to obtain a quantization coefficient.

予測誤差デコーダ304は予測誤差エンコーダ303からの出力を受取り、復号予測誤差信号338を生成する。復号予測誤差信号は第2の加算器339で画像ブロック312の予測表現と合成され、仮再構成画像314を生成する。予測誤差デコーダは、近似的に変換信号を再構成するために、DCT係数等の量子化係数値を逆量子化(dequantize)する逆量子化器(dequantizer)346と、再構成された変換信号に対して逆変換を行う逆変換ブロック348を備えるように構成されてもよい。逆変換ブロック348の出力は、(1つまたは複数の)再構成ブロックを含む。予測誤差デコーダはまた、さらに復号された情報とフィルタパラメータに従って再構成マクロブロックをフィルタリング可能なマクロブロックフィルタを備えてもよい(図示せず)。   A prediction error decoder 304 receives the output from the prediction error encoder 303 and generates a decoded prediction error signal 338. The decoded prediction error signal is combined with the prediction representation of the image block 312 by the second adder 339 to generate a temporary reconstructed image 314. The prediction error decoder includes an inverse quantizer 346 that dequantizes a quantized coefficient value such as a DCT coefficient and a reconstructed converted signal in order to approximately reconstruct the converted signal. An inverse transform block 348 that performs an inverse transform on the image may be provided. The output of inverse transform block 348 includes the reconstruction block (s). The prediction error decoder may also comprise a macroblock filter (not shown) that can further filter the reconstructed macroblock according to the decoded information and filter parameters.

次に、インター予測器306の例示的実施形態の動作を詳述する。インター予測器306はインター予測用に現ブロックを受取る。ここで現ブロックに対して、1つ以上の符号化済み隣接ブロックが既に存在し、それに関する動きベクトルも定義済みであると仮定する。例えば、現ブロックの左側のブロックおよび/または上側のブロックがそうしたブロックであってもよい。現ブロックに対する空間動きベクトルの予測は、例えば同一スライスまたはフレームの符号化済み隣接ブロックおよび/または非隣接ブロックの動きベクトルを用いて行うことができる。または、空間動きベクトル予測の線形関数または非線型関数を用いたり、様々な空間動きベクトル予測器を線形動作または非線形動作で組み合わせたり、あるいは、時間リファレンス情報を使用しない任意適切な手段によって予測が行われてもよい。また、1つ以上の符号化ブロックの空間予測と時間予測の両方の情報を組み合わせて動きベクトル予測器を構成することも可能である。この種の動きベクトル予測器は、時空間(spatio-temporal)動きベクトル予測器とも呼ばれる。   Next, the operation of an exemplary embodiment of the inter predictor 306 will be described in detail. Inter predictor 306 receives the current block for inter prediction. Here, it is assumed that one or more encoded neighboring blocks already exist for the current block, and the motion vector related to it is also defined. For example, the left block and / or the upper block of the current block may be such a block. The prediction of the spatial motion vector for the current block can be performed using, for example, motion vectors of encoded adjacent blocks and / or non-adjacent blocks of the same slice or frame. Alternatively, the prediction can be performed using a linear or nonlinear function of spatial motion vector prediction, combining various spatial motion vector predictors in linear or nonlinear motion, or any suitable means that does not use temporal reference information. It may be broken. It is also possible to configure a motion vector predictor by combining both spatial prediction and temporal prediction information of one or more encoded blocks. This type of motion vector predictor is also called a spatio-temporal motion vector predictor.

符号化で使用されるリファレンスフレームはリファレンスフレームメモリに格納されてもよい。各リファレンスフレームは、1つ以上のリファレンスピクチャ・リストに含まれてもよい。リファレンスピクチャ・リスト内では、各エントリがリファレンスフレームを識別するリファレンスインデクスを持つ。リファレンスフレームは、リファレンスとしてもう使用されない場合、リファレンスフレームメモリから削除されてもよく、「リファレンスに未使用」とマークされたり、そのリファレンスフレームの格納位置が新規のリファレンスフレームによって占有されて非リファレンスフレームとなったりしてもよい。   A reference frame used for encoding may be stored in a reference frame memory. Each reference frame may be included in one or more reference picture lists. In the reference picture list, each entry has a reference index for identifying a reference frame. If the reference frame is no longer used as a reference, it may be removed from the reference frame memory and marked as “not used for reference”, or the storage location of the reference frame is occupied by a new reference frame and is not a reference frame. It may be.

リアルタイム転送プロトコル(RTP)は音声とビデオといったタイミングを合わせられたメディアのリアルタイム転送に広く使用されている。RTP転送では、メディアデータは複数のRTPパケットにカプセル化される。RTPペイロードフォーマットは、RTPによる特定フォーマットの符号化ビットストリームの伝送に規定されてもよい。例えば、SVC RTPペイロードフォーマットのドラフトは、インターネット技術タスクフォース(Internet Engineering Task Force;IETF)によってRFC 6190に規定されている。SVC RTPペイロードフォーマットでは、ペイロードコンテンツスケーラビリティ情報(payload content scalability information;PACSI)NALユニットと呼ばれるNALユニットのタイプが規定される。PACSI-NALユニットは、存在する場合、複数のNALユニットを含む集約パケットにおける最初のNALユニットで、他のタイプのパケットには存在しない。PACSI-NALユニットは、ペイロード中の残りのNALユニット全てに共通であるスケーラビリティ特性を示す。これによって、メディアアウェアネットワーク要素(media aware network element;MANE)は集約パケットを転送/処理/破棄するかどうかを決定し易くなる。送信側がPACSI-NALユニットを作成してもよい。受信側はPACSI-NALユニットを無視してもよく、集約パケットを効率的に処理するための手掛りとして使用してもよい。集約パケットの最初の集約ユニットがPACSI-NALユニットを含む場合、その同じパケットには追加集約ユニットが少なくとも1つ存在する。RTPヘッダフィールドは、集約パケットの残りのNALユニットに従って設定される。   Real-time transfer protocol (RTP) is widely used for real-time transfer of timed media such as voice and video. In RTP transfer, media data is encapsulated in a plurality of RTP packets. The RTP payload format may be defined for transmission of a coded bitstream of a specific format by RTP. For example, a draft of the SVC RTP payload format is specified in RFC 6190 by the Internet Engineering Task Force (IETF). In the SVC RTP payload format, a type of NAL unit called payload content scalability information (PACSI) NAL unit is defined. The PACSI-NAL unit, if present, is the first NAL unit in an aggregate packet that includes multiple NAL units and is not present in other types of packets. The PACSI-NAL unit exhibits scalability characteristics that are common to all remaining NAL units in the payload. This makes it easier for media aware network elements (MANEs) to decide whether to forward / process / discard aggregated packets. The sender may create a PACSI-NAL unit. The receiving side may ignore the PACSI-NAL unit and use it as a clue to efficiently process the aggregated packet. If the first aggregation unit of an aggregation packet includes a PACSI-NAL unit, there is at least one additional aggregation unit in the same packet. The RTP header field is set according to the remaining NAL units of the aggregate packet.

前述の通り、アクセスユニットは別のコンポーネントタイプ(例えば、主テクスチャコンポーネントや冗長テクスチャコンポーネント,補助コンポーネント,深度/視差コンポーネント)や別のビュー,別のスケーラブルレイヤのスライスを含んでもよい。スライスに共通のシンタックス要素、例えばスライスヘッダに含まれる従来のシンタックス要素は、同一アクセスユニット内の別々のスライスに対して同一の値を持ってもよい。それでも、こうしたシンタックス要素は従来技術によって各スライスで符号化される。次に、アクセスユニット内の複数のスライスで同じ値を持つ符号化シンタックス要素に使用されるビットレートやビットカウントを減らす様々な実施形態を示す。   As described above, an access unit may include other component types (eg, main texture component, redundant texture component, auxiliary component, depth / disparity component), another view, and another scalable layer slice. A syntax element common to slices, for example, a conventional syntax element included in a slice header, may have the same value for different slices in the same access unit. Nevertheless, such syntax elements are encoded at each slice according to the prior art. Next, various embodiments for reducing the bit rate and bit count used for coding syntax elements having the same value in multiple slices within an access unit are shown.

こうした多くの実施形態では、従来からスライスヘッダに含まれていたシンタックス要素の少なくとも1つのサブセットは、エンコーダによってGOS(スライス群)パラメータセットに含められる。エンコーダはGOSパラメータセットをNALユニットとして符号化してもよい。GOSパラメータセットのNALユニットは、符号化スライスNALユニット等と共にビットストリームに含まれてもよいが、前述した他のパラメータセットの場合と同様に帯域外で伝送されてもよい。   In many such embodiments, at least one subset of the syntax elements conventionally included in the slice header is included in the GOS (slice group) parameter set by the encoder. The encoder may encode the GOS parameter set as a NAL unit. The NAL unit of the GOS parameter set may be included in the bitstream together with the coded slice NAL unit or the like, but may be transmitted out of band as in the case of the other parameter sets described above.

多くの実施形態では、GOSパラメータセットのシンタックス構造は識別子を含み、例えばスライスヘッダや別のGOSパラメータセットから特定のGOSパラメータセットインスタンスを参照する際に使用されてもよい。実施形態によっては、GOSパラメータセットのシンタックス構造が識別子を含まず、エンコーダおよびデコーダの両方が、例えばGOSパラメータセットのシンタックス構造に関するビットストリームの順序と既定の番号付けスキームを用いて識別子を推定してもよい。   In many embodiments, the GOS parameter set syntax structure includes an identifier and may be used, for example, in referencing a particular GOS parameter set instance from a slice header or another GOS parameter set. In some embodiments, the GOS parameter set syntax structure does not include an identifier, and both the encoder and decoder estimate the identifier using, for example, a bitstream order and a default numbering scheme for the GOS parameter set syntax structure. May be.

また実施形態によっては、エンコーダおよびデコーダは、符号化済みまたは復号済みであるか、ビットストリームに既存の他のシンタックス構造からGOSパラメータセットの内容やインスタンスを推定する。例えば、ベースビューのテクスチャビューにおけるスライスヘッダからGOSパラメータセットが暗黙のうちに作成されてもよい。エンコーダおよびデコーダは、こうした推定GOSパラメータセットに対して識別値を推定してもよい。例えば、ベースビューのテクスチャビューにおけるスライスヘッダから作成されたGOSパラメータセットが0に等しい識別値を持つと推定されてもよい。   Also, in some embodiments, the encoder and decoder infer the contents and instances of the GOS parameter set from other syntax structures that have been encoded or decoded or already in the bitstream. For example, the GOS parameter set may be implicitly created from the slice header in the texture view of the base view. The encoder and decoder may estimate an identification value for such an estimated GOS parameter set. For example, it may be estimated that the GOS parameter set created from the slice header in the texture view of the base view has an identification value equal to 0.

実施形態によっては、GOSパラメータセットはそれに関連する特定のアクセスユニット内で有効である。例えば、GOSパラメータセットのシンタックス構造が特定のアクセスユニットに関するNALユニットシーケンスに含まれ、そのシーケンスは復号順またはビットストリームの順で、GOSパラメータセットはその出現位置からアクセスユニットの最後まで有効であってもよい。実施形態によっては、GOSパラメータセットは様々なアクセスユニットで有効である。   In some embodiments, the GOS parameter set is valid within the specific access unit associated with it. For example, the syntax structure of a GOS parameter set is included in the NAL unit sequence for a particular access unit, which sequence is in decoding order or bitstream order, and the GOS parameter set is valid from its appearance position to the end of the access unit. May be. In some embodiments, the GOS parameter set is valid for various access units.

エンコーダは、1つのアクセスユニットに対して様々なGOSパラメータセットを符号化してもよい。スライスヘッダで符号化されるシンタックス要素の値の少なくとも1つのサブセットが後続のスライスヘッダと同一であることが分かっている場合、または予測/推定される場合、エンコーダはGOSパラメータセットを符号化すると決定してもよい。   The encoder may encode different GOS parameter sets for one access unit. If at least one subset of the values of syntax elements encoded in the slice header is known to be identical to or predicted / estimated in subsequent slice headers, the encoder shall encode the GOS parameter set You may decide.

GOSパラメータセット識別子には、限られた番号付けスペースが使用される。例えば、固定長符号が使用されたり、特定の範囲内の符号なし整数値として判断されたりしてもよい。エンコーダは、最初のGOSパラメータセットに対して特定のGOSパラメータセット識別値を使用してもよい。次に、最初のGOSパラメータセットが、例えば何れのスライスヘッダやGOSパラメータセットによっても参照されない場合には、2番目のGOSパラメータセットに対しても同じGOSパラメータセット識別値を使用してもよい。エンコーダは、例えば伝送エラーに対する高い頑健性を得るために、ビットストリーム内でGOSパラメータセットのシンタックス構造を繰り返してもよい。   A limited numbering space is used for GOS parameter set identifiers. For example, a fixed length code may be used, or may be determined as an unsigned integer value within a specific range. The encoder may use a specific GOS parameter set identification value for the initial GOS parameter set. Next, if the first GOS parameter set is not referred to by any slice header or GOS parameter set, for example, the same GOS parameter set identification value may be used for the second GOS parameter set. The encoder may repeat the syntax structure of the GOS parameter set in the bitstream, for example to obtain high robustness against transmission errors.

多くの実施形態では、GOSパラメータセットに含まれうるシンタックス構造は、概念的に複数のシンタックス要素のセットにまとめられる。GOSパラメータセットのシンタックス要素セットは、例えば次の原則の1つ以上に基づいて形成されてもよい:
スケーラブルレイヤおよび/または他のスケーラブル特性を示すシンタックス要素;
ビューおよび/または他のマルチビュー特性を示すシンタックス要素;
深度/視差等特定のコンポーネントタイプに関連するシンタックス要素;
アクセスユニット識別や復号順序および/または出力順序および/またはアクセスユニットの全スライスに対して不変である他のシンタックス要素に関連するシンタックス要素;
ビューコンポーネントの全スライスで不変であるシンタックス要素;
リファレンスピクチャ・リスト変更に関連するシンタックス要素;
使用されるリファレンスピクチャのセットに関連するシンタックス要素;
復号リファレンスピクチャ・マーキングに関連するシンタックス要素;
加重予測用の予測重みテーブルに関連するシンタックス要素;
デブロッキング・フィルタリングを制御するシンタックス要素;
適応ループフィルタリングを制御するシンタックス要素;
サンプル適応オフセットを制御するシンタックス要素;
上記セットの任意の組合せ。
In many embodiments, the syntax structures that can be included in a GOS parameter set are conceptually organized into a set of syntax elements. A GOS parameter set syntax element set may be formed, for example, based on one or more of the following principles:
A syntax element indicating a scalable layer and / or other scalable characteristics;
A syntax element indicating a view and / or other multi-view characteristics;
Syntax elements associated with specific component types such as depth / disparity;
Syntax elements associated with access unit identification and decoding order and / or output order and / or other syntax elements that are invariant to all slices of the access unit;
A syntax element that is invariant across all slices of the view component;
Syntax elements related to reference picture list changes;
Syntax elements associated with the set of reference pictures used;
Syntax elements associated with decoding reference picture markings;
Syntax elements associated with the prediction weight table for weighted prediction;
A syntax element that controls deblocking filtering;
A syntax element that controls adaptive loop filtering;
A syntax element that controls the sample adaptive offset;
Any combination of the above set.

各シンタックス要素セットに対して、エンコーダはGOSパラメータセットを符号化する際に次のオプションの1つ以上を持っていてもよい:
シンタックス要素セットはGOSパラメータセットのシンタックス構造に符号化されてもよい。すなわち、シンタックス要素セットの符号化されたシンタックス要素の値は、GOSパラメータセットのシンタックス構造に含められてもよい;
シンタックス要素セットは、参照によってGOSパラメータセットに含められてもよい。この参照は、識別子として別のGOSパラメータセットに与えられてもよい。エンコーダは、シンタックス要素セット毎に別々のリファレンスGOSパラメータセットを使用してもよい;
For each syntax element set, the encoder may have one or more of the following options when encoding the GOS parameter set:
The syntax element set may be encoded into a GOS parameter set syntax structure. That is, the value of the encoded syntax element of the syntax element set may be included in the syntax structure of the GOS parameter set;
The syntax element set may be included in the GOS parameter set by reference. This reference may be given as an identifier to another GOS parameter set. The encoder may use a separate reference GOS parameter set for each syntax element set;

シンタックス要素セットは、GOSパラメータセットに存在しないことが示されてもよく、推定されてもよい。   It may be indicated that the syntax element set does not exist in the GOS parameter set, and may be estimated.

エンコーダがGOSパラメータセットを符号化する際に特定のシンタックス要素セットに対して選択可能なオプションは、シンタックス要素セットの種類に依存してもよい。例えば、スケーラブルレイヤに関連するシンタックス要素セットはGOSパラメータセットに常時存在してもよい。一方、ビューコンポーネントの全スライスで不変なシンタックス要素のセットは、参照によって包含されるように利用可能ではなく、オプションとしてGOSパラメータセットに存在していてもよい。加えて、リファレンスピクチャ・リスト変更に関連するシンタックス要素は、参照によって含められるか、直接そのままで含められてもよく、あるいはGOSパラメータセットのシンタックス構造に存在しなくてもよい。エンコーダは、GOSパラメータセットのシンタックス構造等のビットストリームにあって、符号化に使用されたオプションの種類を示す標示を符号化してもよい。符号化テーブルおよび/またはエントロピー符号化は、シンタックス要素の種類に依存してもよい。デコーダは、復号されるシンタックス要素の種類に基づいて、エンコーダで使用された符号化テーブルおよび/またはエントロピー符号化に位置する符号化テーブルおよび/またはエントロピー復号を使用してもよい。   Options that can be selected for a particular syntax element set when the encoder encodes the GOS parameter set may depend on the type of syntax element set. For example, the syntax element set associated with the scalable layer may always be present in the GOS parameter set. On the other hand, a set of syntax elements that is invariant across all slices of the view component is not available to be included by reference and may optionally be present in the GOS parameter set. In addition, syntax elements associated with reference picture list changes may be included by reference, included directly as is, or may not be present in the GOS parameter set syntax structure. The encoder may encode a sign that is in a bitstream, such as a GOS parameter set syntax structure, indicating the type of option used for encoding. The encoding table and / or entropy encoding may depend on the type of syntax element. The decoder may use a coding table and / or entropy decoding located in the coding table and / or entropy coding used in the encoder based on the type of syntax element being decoded.

エンコーダは、シンタックス要素セットとそのシンタックス要素セットの値に対して元々使用されたGOSパラメータセットとの間の関連を示す複数の手段を備えていてもよい。例えば、エンコーダはシンタックス要素のループを符号化してもよい。こうしたループの各エントリは、参照として使用されたGOSパラメータセットの識別値を示し、参照GOPパラメータセットからコピーされるシンタックス要素セットを識別するシンタックス要素として符号化される。別の実施例では、エンコーダは複数のシンタックス要素でそれぞれがGOSパラメータセットを示すシンタックス要素を符号化してもよい。特定のシンタックス要素セットを含むループにおける最後のGOSパラメータセットは、エンコーダが現在ビットストリームに符号化しているときのGOSパラメータセットにあるシンタックス要素セットに対するリファレンスである。デコーダは、ビットストリームから符号化GOSパラメータセットを解析し、エンコーダと同一のGOSパラメータセットを再生するようにする。   The encoder may comprise a plurality of means for indicating an association between the syntax element set and the GOS parameter set originally used for the value of the syntax element set. For example, the encoder may encode a loop of syntax elements. Each entry in such a loop indicates the identification value of the GOS parameter set used as a reference and is encoded as a syntax element that identifies the syntax element set that is copied from the reference GOP parameter set. In another embodiment, the encoder may encode a plurality of syntax elements, each of which indicates a GOS parameter set. The last GOS parameter set in the loop that contains a particular syntax element set is a reference to the syntax element set in the GOS parameter set when the encoder is currently encoding into the bitstream. The decoder analyzes the encoded GOS parameter set from the bitstream and reproduces the same GOS parameter set as the encoder.

例示的実施形態では、シンタックス構造とシンタックス要素の意味,復号処理は次の通りに規定されてもよい。ビットストリーム中のシンタックス要素は太字体で表わされる。各シンタックス要素はそれぞれの名前(下線文字を伴い全て小文字)で記述され、1または2のシンタックスカテゴリーが使用されたり、符号化表現方法として1または2の記述子が使用されたりすることもある。復号処理はシンタックス要素の値と先に復号済みのシンタックス要素の値に従って行われる。シンタックス要素の値は、シンタックステーブルまたはテキストで使用される際は通常の(太字でない)書式で表わされる。場合によっては、シンタックステーブルはシンタックス要素値から派生する他の変数の値を用いてもよい。こうした変数は、下線文字を伴わず小文字と大文字を用いてシンタックステーブルまたはテキストに表わされる。大文字で始まる変数は、現在のシンタックス構造とそれに従属する全てのシンタックス構造の復号用に生成される。大文字で始まる変数は、その変数の元のシンタックス構造を示さずに後のシンタックス構造用として復号処理に使用されてもよい。小文字で始まる変数は、その変数が生成されたコンテキスト内でも使用される。場合によっては、シンタックス要素値または変数値の数値と変換可能な「ニーモニック」名も使用される。「ニーモニック」名は数値とは無関係に使用されることもある。数値と名前の関連はテキストに規定されている。名前は下線文字で分けられた1つ以上の文字列で構成される。各文字列は大文字で始まり、途中で大文字を含んでもよい。   In the exemplary embodiment, the syntax structure, the meaning of syntax elements, and the decoding process may be defined as follows. Syntax elements in the bitstream are shown in bold font. Each syntax element is described by its name (all underscores with an underscore character), 1 or 2 syntax categories may be used, and 1 or 2 descriptors may be used as encoding representations. is there. The decoding process is performed according to the value of the syntax element and the value of the syntax element that has been decoded previously. The value of a syntax element is represented in the usual (non-bold) format when used in a syntax table or text. In some cases, the syntax table may use values of other variables derived from the syntax element values. These variables are represented in the syntax table or text using lowercase and uppercase letters without underscore characters. Variables starting with a capital letter are generated for decoding the current syntax structure and all subordinate syntax structures. A variable that begins with an uppercase letter may be used in the decoding process for a later syntax structure without showing the original syntax structure of the variable. Variables that start with a lowercase letter are also used in the context in which the variable was created. In some cases, a “mnemonic” name that can be converted to a numeric value of a syntax element value or variable value is also used. The “mnemonic” name may be used independently of the numerical value. The relationship between numbers and names is specified in the text. The name consists of one or more strings separated by underscore characters. Each string starts with a capital letter and may contain a capital letter in the middle.

例示的実施形態では、H.264/AVCやHEVCドラフト等で規定されているような算術演算子や論理演算子,関係演算子,二値演算子,代入演算子,範囲表記といった共通表記が用いられてもよい。また、H.264/AVCやHEVCドラフト等で規定されているような共通の数学的関数が用いられてもよい。演算の優先順位・実行順序に関する共通規則は、H.264/AVCやHEVCドラフト等で規定されているように使用されてもよい。   In the exemplary embodiment, common notations such as arithmetic operators, logical operators, relational operators, binary operators, assignment operators, and range notations as defined in H.264 / AVC, HEVC draft, etc. are used. May be. Further, a common mathematical function as defined in H.264 / AVC, HEVC draft, etc. may be used. Common rules regarding the priority and execution order of operations may be used as defined in H.264 / AVC, HEVC draft, and the like.

例示的実施形態では、各シンタックス要素の解析処理を規定するために、次の記述子が用いられる。
・ b(8):任意パターンのビット列を持つバイト(8ビット)。
・ se(v):左ビットを先頭とする符号付き整数型の指数ゴロム(Exp-Golomb)符号化シンタックス要素。
・ u(n):nビットの符号無し整数。シンタックステーブルでnが"v"であるときは、ビット数が他のシンタックス要素の値に依存して変化する。この記述子に対する解析処理は、最初に記述された最上位ビットを伴う符号無し整数の2進表現として解釈されたビットストリームから、次のnビットによって規定される。
・ ue(v):左ビットを先頭とする符号無し整数型のExp-Golomb符号化シンタックス要素。
In the exemplary embodiment, the following descriptors are used to define the parsing process for each syntax element.
B (8): Byte (8 bits) with a bit string of arbitrary pattern.
Se (v): Signed integer type Exp-Golomb coding syntax element starting from the left bit.
U (n): n-bit unsigned integer. When n is “v” in the syntax table, the number of bits changes depending on the values of other syntax elements. The parsing process for this descriptor is defined by the next n bits from the bitstream interpreted as a binary representation of the unsigned integer with the most significant bit described first.
Ue (v): Unsigned integer type Exp-Golomb coding syntax element starting from the left bit.

Exp-Golombビット列は、例えば次の表を用いて符号番号(codeNum)に変換されてもよい。
The Exp-Golomb bit string may be converted into a code number (codeNum) using, for example, the following table.

Exp-Golombビット列に対応する符号番号は、例えば次の表を用いてse(v)に変換されてもよい。
The code number corresponding to the Exp-Golomb bit string may be converted into se (v) using the following table, for example.

例示的実施形態では、シンタックス構造は次のように規定されてもよい。丸括弧内の一連の文は複文であり、機能的には単文として扱われる。"while"構文は、条件が真であるかどうかの判断を規定し、条件が真であれば、その条件が真でなくなるまで、単文(または複文)の評価を繰り返し指定する。"do…while"構文は、一旦文の評価を規定した後、条件が真であるかどうかの判断が続き、条件が真であれば、その条件が真でなくなるまで、文の評価を繰り返し指定する。"if…else"構文は、条件が真であるかどうかの判断を規定し、条件が真であれば最初の文の評価を指定し、そうでなければ、代替文の評価を指定する。この構文の"else"節と関連する代替文は、代替文の評価が不要であれば省略可能である。"for"構文は、初期値文の評価を指定し、条件判断が続き、条件が真であれば、その条件が真でなくなるまで、最初の文と後に続く文の評価を繰り返し指定する。   In an exemplary embodiment, the syntax structure may be defined as follows: A series of sentences in parentheses is a compound sentence and is functionally treated as a single sentence. The “while” syntax specifies whether or not a condition is true. If the condition is true, a single sentence (or compound sentence) is repeatedly specified until the condition is not true. The "do ... while" syntax once specifies the evaluation of a sentence, then continues to determine whether the condition is true, and if the condition is true, repeatedly specifies the evaluation of the sentence until the condition is not true To do. The "if ... else" syntax specifies whether the condition is true, specifies the evaluation of the first sentence if the condition is true, and specifies the evaluation of an alternative sentence otherwise. The alternative text associated with the "else" clause of this syntax can be omitted if alternative text evaluation is not required. The “for” syntax specifies the evaluation of the initial value sentence, the condition judgment continues, and if the condition is true, the evaluation of the first sentence and the subsequent sentence is repeatedly specified until the condition is not true.

次に、3DV-ATMの例示的実施形態を説明する。   Next, an exemplary embodiment of 3DV-ATM will be described.

GOSパラメータセットと拡張テクスチャビューの符号化スライス,符号化深度スライスに対して、3DV-NALユニットが定義される。3DV-NALユニット(例えば、NALユニットタイプ21を用いる)のNALユニットヘッダ長は2バイトである。第2バイトにはtemporal_idと3dv_nal_unit_type,gos_param_idが含まれる。3dv_nal_unit_typeはNALユニットがGOSパラメータセットを含むか3DVスライスを含むかを規定する。NALユニットがGOSパラメータセットを含む場合、gos_param_idはNALユニットに規定されるGOSパラメータセットの識別値を与える。NALユニットがスライスを含む場合、gos_param_idはそのスライスのスライスヘッダのシンタックス要素の値を含むGOSパラメータセットを参照する。MVC-NALユニットヘッダ拡張に先に含まれていたシンタックス要素は、GOSパラメータセットに存在する。   A 3DV-NAL unit is defined for the GOS parameter set and the coding slice and coding depth slice of the extended texture view. The NAL unit header length of a 3DV-NAL unit (for example, using NAL unit type 21) is 2 bytes. The second byte includes temporal_id, 3dv_nal_unit_type, and gos_param_id. 3dv_nal_unit_type specifies whether a NAL unit contains a GOS parameter set or a 3DV slice. When the NAL unit includes a GOS parameter set, gos_param_id gives an identification value of the GOS parameter set defined in the NAL unit. When the NAL unit includes a slice, gos_param_id refers to the GOS parameter set including the value of the syntax element of the slice header of the slice. The syntax elements previously included in the MVC-NAL unit header extension are present in the GOS parameter set.

以下では、nal_unitシンタックスはイタリック体で本節に付記される。3DV-NALユニット用にNALユニットタイプ21が予約済みであると仮定する。
Below, the nal_unit syntax is italicized and appended to this section. Assume that NAL unit type 21 is reserved for 3DV-NAL units.

nal_unit_header_3dv_extension( )のシンタックスは次の通りに規定されてもよい。
The syntax of nal_unit_header_3dv_extension () may be specified as follows.

nal_unit_header_3dv_extension( )の意味は次の通りに規定されてもよい。   The meaning of nal_unit_header_3dv_extension () may be specified as follows.

3dv_nal_unit_type(原文では太字であり、ビットストリームのシンタックス要素である)が0のときは、NALユニットがGOSパラメータセットを含むことを特定する。3dv_nal_unit_typeが1のときは、NALユニットが符号化スライス3DV拡張を含むことを特定する。   When 3dv_nal_unit_type (bold in the original text and a bitstream syntax element) is 0, it specifies that the NAL unit includes the GOS parameter set. When 3dv_nal_unit_type is 1, it specifies that the NAL unit includes a coded slice 3DV extension.

temporal_id(原文では太字であり、ビットストリームのシンタックス要素である)はNALユニットの時間識別子を特定する。nal_unit_typeが1または5で、nal_unit_typeが14であるNALユニットの直前にNALユニットがない場合、temporal_idは同一アクセスユニットの非ベースビューのtemporal_id値に等しいと推定される。temporal_idの値は、アクセスユニットにおけるプレフィックスの符号化スライスMVC拡張と3DV-NALユニットの全てに対して同一でもよい。nal_unit_typeが5またはnon_idr_flagが0のNALユニットをアクセスユニットが含む場合、temporal_idは0でもよい。temporal_idへの値の代入は、サブストリームの抽出処理によって制約されてもよい。   temporal_id (bold in the text and is a bitstream syntax element) identifies the temporal identifier of the NAL unit. If nal_unit_type is 1 or 5, and there is no NAL unit immediately before the NAL unit with nal_unit_type of 14, temporal_id is estimated to be equal to the temporal_id value of the non-base view of the same access unit. The value of temporal_id may be the same for all of the prefix encoded slice MVC extensions and 3DV-NAL units in the access unit. When the access unit includes a NAL unit whose nal_unit_type is 5 or non_idr_flag is 0, temporal_id may be 0. The assignment of a value to temporal_id may be restricted by substream extraction processing.

gos_param_id(原文では太字であり、ビットストリームのシンタックス要素である)はGOSパラメータセットの識別子を特定する。3dv_nal_unit_typeが0の場合、gos_param_idはNALユニットに含まれる符号化スライス3DV拡張用に使用されるGOSパラメータセットの識別子を特定する。3dv_nal_unit_typeが1の場合、gos_param_idはNALユニットで特定されるGOSパラメータセットの識別子を特定する。3dv_nal_unit_typeが1の場合、gos_param_idは0から15を含む範囲にあってもよい。3dv_nal_unit_typeが0の場合、gos_param_idは1から15を含む範囲にあってもよい。
gos_param_id (bold in the original text and a bitstream syntax element) identifies the identifier of the GOS parameter set. When 3dv_nal_unit_type is 0, gos_param_id specifies the identifier of the GOS parameter set used for encoding slice 3DV extension included in the NAL unit. When 3dv_nal_unit_type is 1, gos_param_id specifies the identifier of the GOS parameter set specified by the NAL unit. When 3dv_nal_unit_type is 1, gos_param_id may be in a range including 0-15. When 3dv_nal_unit_type is 0, gos_param_id may be in a range including 1 to 15.

3dv_nal_unit( )のシンタックス、すなわち、NALユニットタイプ21は次の通りに規定される。
The syntax of 3dv_nal_unit (), that is, the NAL unit type 21 is defined as follows.

gos_param_set( )のシンタックス、すなわち、GOSパラメータセットのシンタックス構造は次の通りに規定される。
The syntax of gos_param_set (), that is, the syntax structure of the GOS parameter set is specified as follows.

gos_param_set( )の意味は次の通りに規定される。   The meaning of gos_param_set () is specified as follows.

slice_param_for_au_flag(原文では太字であり、ビットストリームのシンタックス要素である)が0のときは、slice_param_for_au( )シンタックス構造に含まれるシンタックス要素の値が同一アクセスユニットにおけるGOSパラメータセットまたはスライスヘッダのシンタックス構造の何れかにあるものと同一であることを特定する。slice_param_for_au_flagが1のときは、このGOSパラメータセットにslice_param_for_au( )シンタックス構造が存在することを特定する。   When slice_param_for_au_flag (bold in the original text is a bitstream syntax element) is 0, the value of the syntax element included in the slice_param_for_au () syntax structure is the GOS parameter set or slice header syntax in the same access unit. Identifies that it is the same as one in the tax structure. When slice_param_for_au_flag is 1, it specifies that the slice_param_for_au () syntax structure exists in this GOS parameter set.

gos_parameter_inheritance_flagが0のときは、ref_pic_list_modification_flag[ i ],pred_weight_flag[ i ],dec_ref_pic_marking_flag[ i ]が次の通りに規定される:
・ ref_pic_list_modification_flag[ i ] ("ref_pic_list_modification_flag"は原文では太字であり、ビットストリームのシンタックス要素である)が1のときは、gos_param_idによって識別されるGOSパラメータセットにref_pic_list_3dv_modification( )シンタックス構造が有効に存在することを特定する。ref_pic_list_modification_flag[ i ]が0のときの意味は規定されていない。
・ pred_weight_flag[ i ] ("pred_weight_flag"は原文では太字であり、ビットストリームのシンタックス要素である)が1のときは、gos_param_idによって識別されるGOSパラメータセットにpred_weight_table( )シンタックス構造が有効に存在することを特定する。pred_weight_flag[ i ]が0のときの意味は規定されていない。
・ dec_ref_pic_marking_flag[ i ] ("dec_ref_pic_marking_flag"は原文では太字であり、ビットストリームのシンタックス要素である)が1のときは、gos_param_idによって識別されるGOSパラメータセットにdec_ref_pic_marking( )シンタックス構造が有効に存在することを特定する。dec_ref_pic_marking_flag[ i ]が0のときの意味は規定されていない。
When gos_parameter_inheritance_flag is 0, ref_pic_list_modification_flag [i], pred_weight_flag [i], and dec_ref_pic_marking_flag [i] are specified as follows:
-When ref_pic_list_modification_flag [i] ("ref_pic_list_modification_flag" is bold in the original text and is a bitstream syntax element) is 1, the ref_pic_list_3dv_modification () syntax structure is effectively present in the GOS parameter set identified by gos_param_id Identify what to do. The meaning when ref_pic_list_modification_flag [i] is 0 is not specified.
-When pred_weight_flag [i] ("pred_weight_flag" is bold in the original text and is a bitstream syntax element) is 1, the pred_weight_table () syntax structure is effectively present in the GOS parameter set identified by gos_param_id Identify what to do. The meaning when pred_weight_flag [i] is 0 is not specified.
-When dec_ref_pic_marking_flag [i] ("dec_ref_pic_marking_flag" is bold in the original text and is a bitstream syntax element) is 1, the dec_ref_pic_marking () syntax structure is effectively present in the GOS parameter set identified by gos_param_id Identify what to do. The meaning when dec_ref_pic_marking_flag [i] is 0 is not specified.

gos_parameter_inheritance_flagが1のときは、ref_gos_param_id[ i ],ref_pic_list_modification_flag[ i ],pred_weight_flag[ i ],dec_ref_pic_marking_flag[ i ]が次の通りに規定される:
・ ref_gos_param_id[ i ] ("ref_gos_param_id"は原文では太字であり、ビットストリームのシンタックス要素である)は、GOSパラメータセットであって、gos_param_idで識別されるGOSパラメータセットに対して有効なref_pic_list_modification_flag[ i ],pred_weight_flag[ i ],およびdec_ref_pic_marking_flag[ i ]によって識別されるシンタックス構造を取得するためのソースとして使用されるGOSパラメータセットを識別する。ref_gos_param_id[ i ]が0のときは、同一アクセスユニットのベースビューのテクスチャビューコンポーネントのスライスヘッダが、gos_param_idで識別されるGOSパラメータセットに対して有効なref_pic_list_modification_flag[ i ],pred_weight_flag[ i ],およびdec_ref_pic_marking_flag[ i ]によって識別されるシンタックス構造を取得するためのソースとして使用されることを識別する。
・ ref_pic_list_modification_flag[ i ] ("ref_pic_list_modification_flag"は原文では太字であり、ビットストリームのシンタックス要素である)が1のときは、ref_gos_param_id[ i ] によって識別されるGOSパラメータセットのref_pic_list_3dv_modification( )シンタックス構造が、gos_param_idによって識別されるGOSパラメータセットで有効に存在することを特定する。ref_pic_list_modification_flag[ i ]が0のときの意味は規定されていない。
・ pred_weight_flag[ i ] ("pred_weight_flag"は原文では太字であり、ビットストリームのシンタックス要素である)が1のときは、ref_gos_param_id[ i ] によって識別されるGOSパラメータセットのpred_weight_table( )シンタックス構造が、gos_param_idによって識別されるGOSパラメータセットで有効に存在することを特定する。pred_weight_flag[ i ]が0のときの意味は規定されていない。
・ dec_ref_pic_marking_flag[ i ] ("dec_ref_pic_marking_flag"は原文では太字であり、ビットストリームのシンタックス要素である)が1のときは、ref_gos_param_id[ i ] によって識別されるGOSパラメータセットのdec_ref_pic_marking( )シンタックス構造が、gos_param_idによって識別されるGOSパラメータセットで有効に存在することを特定する。dec_ref_pic_marking_flag[ i ]が0のときの意味は規定されていない。
When gos_parameter_inheritance_flag is 1, ref_gos_param_id [i], ref_pic_list_modification_flag [i], pred_weight_flag [i], dec_ref_pic_marking_flag [i] are specified as follows:
Ref_gos_param_id [i] ("ref_gos_param_id" is bold in the original text and is a bitstream syntax element) is a GOS parameter set and is valid for the GOS parameter set identified by gos_param_id [ref_pic_list_modification_flag [i ], Pred_weight_flag [i], and dec_ref_pic_marking_flag [i] identify the GOS parameter set used as a source for obtaining the syntax structure identified. When ref_gos_param_id [i] is 0, the slice header of the texture view component of the base view of the same access unit is valid for the GOS parameter set identified by gos_param_id, ref_pic_list_modification_flag [i], pred_weight_flag [i], and dec_ref_pic_marking_flag Identifies that it is used as a source for obtaining the syntax structure identified by [i].
-When ref_pic_list_modification_flag [i] ("ref_pic_list_modification_flag" is bold in the original text and is a bitstream syntax element) is 1, the ref_pic_list_3dv_modification () syntax structure of the GOS parameter set identified by ref_gos_param_id [i] is , Specifies that the GOS parameter set identified by gos_param_id is valid. The meaning when ref_pic_list_modification_flag [i] is 0 is not specified.
・ When pred_weight_flag [i] ("pred_weight_flag" is bold in the original text and is a bitstream syntax element) is 1, the pred_weight_table () syntax structure of the GOS parameter set identified by ref_gos_param_id [i] , Specifies that the GOS parameter set identified by gos_param_id is valid. The meaning when pred_weight_flag [i] is 0 is not specified.
-When dec_ref_pic_marking_flag [i] ("dec_ref_pic_marking_flag" is bold in the original text and is a bitstream syntax element) is 1, the dec_ref_pic_marking () syntax structure of the GOS parameter set identified by ref_gos_param_id [i] , Specifies that the GOS parameter set identified by gos_param_id is valid. The meaning when dec_ref_pic_marking_flag [i] is 0 is not specified.

slice_param_for_3dv_view_component( )のシンタックスは次の通りに規定される。シンタックス構造は、ビューコンポーネントの全スライスに対して値が不変であるシンタックス要素を含む。
The syntax of slice_param_for_3dv_view_component () is specified as follows. The syntax structure includes syntax elements whose values are invariant for all slices of the view component.

slice_param_for_3dv_view_component( )の意味は次の通りに規定される。   The meaning of slice_param_for_3dv_view_component () is specified as follows.

関連するNALユニットがgos_param_idによって識別されるGOSパラメータセットを参照する3DV-NALユニットである場合、non_idr_flag,priority_id,view_id,anchor_pic_flag,およびinter_view_flagの意味はMVCのときと同じである。   When the related NAL unit is a 3DV-NAL unit that refers to the GOS parameter set identified by gos_param_id, the meanings of non_idr_flag, priority_id, view_id, anchor_pic_flag, and inter_view_flag are the same as in MVC.

depth_flag(原文では太字であり、ビットストリームのシンタックス要素である)が0のときは、gos_param_idによって識別されるGOSパラメータセットを参照するNALユニットが、拡張テクスチャビューコンポーネントのスライスを含むことを特定する。depth_flagが1のときは、gos_param_idによって識別されるGOSパラメータセットを参照するNALユニットが、深度ビューコンポーネントのスライスを含むことを特定する。   When depth_flag (originally bold and bitstream syntax element) is 0, specifies that the NAL unit that references the GOS parameter set identified by gos_param_id contains a slice of the extended texture view component . When depth_flag is 1, it specifies that the NAL unit that refers to the GOS parameter set identified by gos_param_id includes a slice of the depth view component.

single_slice_flag(原文では太字であり、ビットストリームのシンタックス要素である)が0のときは、gos_param_idによって識別されるGOSパラメータセットを参照するビューコンポーネントが複数のスライスを持つことを特定する。single_slice_flagが1のときは、gos_param_idによって識別されるGOSパラメータセットを参照するビューコンポーネントが厳密に1つスライスのみを持つことを特定する。   When single_slice_flag (bold in the original text and a bitstream syntax element) is 0, it is specified that the view component that refers to the GOS parameter set identified by gos_param_id has a plurality of slices. When single_slice_flag is 1, it is specified that the view component that refers to the GOS parameter set identified by gos_param_id has exactly one slice.

initialisation_param_equal_flag(原文では太字であり、ビットストリームのシンタックス要素である)が0のときは、slice_param_for_3dvシンタックス構造が存在しないことを特定する。initialisation_param_equal_flagが1のときは、slice_param_for_3dvシンタックス構造が存在することを特定する。   When initialisation_param_equal_flag (bold in the original text, which is a bitstream syntax element) is 0, it specifies that the slice_param_for_3dv syntax structure does not exist. When initialisation_param_equal_flag is 1, it specifies that a slice_param_for_3dv syntax structure exists.

slice_param_for_3dv( )のシンタックスは次の通りに規定される。このシンタックス構造はslice_param_for_3dv_view_component( )シンタックス構造またはslice_header_in_3dv_extension( )シンタックス構造に含まれてもよい。
The syntax of slice_param_for_3dv () is specified as follows. This syntax structure may be included in the slice_param_for_3dv_view_component () syntax structure or the slice_header_in_3dv_extension () syntax structure.

slice_param_for_3dv( )の意味は次の通りに規定される。   The meaning of slice_param_for_3dv () is specified as follows.

slice_param_for_3dv( )がslice_param_for_3dv_view_component( )シンタックス構造に含まれる場合、シンタックス要素の値はビューコンポーネントの全スライスに適用される。slice_param_for_3dv( )がslice_header_in_3dv_extension( )シンタックス構造に含まれる場合、シンタックス要素の値は同一NALユニットに含まれるスライスに適用される。   When slice_param_for_3dv () is included in the slice_param_for_3dv_view_component () syntax structure, the value of the syntax element is applied to all slices of the view component. When slice_param_for_3dv () is included in the slice_header_in_3dv_extension () syntax structure, the value of the syntax element is applied to slices included in the same NAL unit.

slice_param_for_3dv( )のシンタックス要素に対しては、次の変更と共にH.264/AVCで規定される意味が適用される。slice_type(原文では太字であり、ビットストリームのシンタックス要素である)は、その値が3,4,8または9とは等しくならないという付加制約を持つ。colour_plane_idが存在する場合、H.264/AVCで規定される意味が適用される。depth_flagが0のときは、separate_colour_plane_flagは1であると推定され、colour_plane_idは0であると推定される。direct_spatial_mv_pred_flag(原文では太字であり、ビットストリームのシンタックス要素である)は、次の変更と共にH.264/AVCで規定されるのと同じ意味を持つ。RefPicList1[0]がインタービューのリファレンスコンポーネントまたはインタービューのみのリファレンスコンポーネントを指す場合、このリファレンスコンポーネントは現在のビューコンポーネントとして同一アクセスユニットに属し、direct_spatial_mv_pred_flagは1である。num_ref_idx_l0_active_minus1(原文では太字であり、ビットストリームのシンタックス要素である)およびnum_ref_idx_l1_active_minus1(原文では太字であり、ビットストリームのシンタックス要素である)はMVCで規定されるのと同じ意味を持つ。dmvp_flag(原文では太字であり、ビットストリームのシンタックス要素である)が0のときは、MVCで規定されるインタービューおよびイントラビューの予測処理が適用されることを特定する。dmvp_flagが1のときは、深度ベースのインタービューおよびイントラビュー予測処理が適用されることを特定する。depth_weighted_pred_flag(原文では太字であり、ビットストリームのシンタックス要素である)が0のときは、深度ビューコンポーネントのPまたはBスライスに対して深度範囲ベースの加重予測が使用されないことを特定する。depth_weighted_pred_flagが1のときは、深度ビューコンポーネントのPまたはBスライスに対して深度範囲ベースの加重予測が使用されることを特定する。   The meaning specified in H.264 / AVC is applied to the syntax element of slice_param_for_3dv () with the following changes. slice_type (bold in the text and is a bitstream syntax element) has the additional constraint that its value is not equal to 3, 4, 8, or 9. When colour_plane_id exists, the meaning specified in H.264 / AVC is applied. When depth_flag is 0, separate_colour_plane_flag is estimated to be 1, and colour_plane_id is estimated to be 0. direct_spatial_mv_pred_flag (bold in the original text and a bitstream syntax element) has the same meaning as specified in H.264 / AVC with the following changes: When RefPicList1 [0] indicates an inter-view reference component or an inter-view only reference component, this reference component belongs to the same access unit as the current view component, and direct_spatial_mv_pred_flag is 1. num_ref_idx_l0_active_minus1 (bold in the original text and a bitstream syntax element) and num_ref_idx_l1_active_minus1 (bold in the original text and a bitstream syntax element) have the same meaning as defined in MVC. When dmvp_flag (bold in the original text and is a bitstream syntax element) is 0, it specifies that the inter-view and intra-view prediction processing defined by MVC is applied. When dmvp_flag is 1, it specifies that depth-based inter-view and intra-view prediction processing is applied. When depth_weighted_pred_flag (bold in the original text and a bitstream syntax element) is 0, it specifies that depth range based weighted prediction is not used for P or B slices of the depth view component. When depth_weighted_pred_flag is 1, it specifies that depth range based weighted prediction is used for P or B slices of the depth view component.

slice_param_for_au( )のシンタックスは次の通りに規定される。シンタックス構造は、3DV-NALユニットを含むアクセスユニットの全スライスに対して値が不変であるシンタックス要素を含む。
The syntax of slice_param_for_au () is specified as follows. The syntax structure includes syntax elements whose values are unchanged for all slices of the access unit including the 3DV-NAL unit.

slice_param_for_au( )の意味は次の通りに規定される。次の付加制約と共にH.264/AVCで規定される意味が適用される。slice_param_for_auの各シンタックス要素の値は、同一アクセスユニットに含まれる全スライスヘッダとslice_header_for_auシンタックス構造で不変であってもよい。   The meaning of slice_param_for_au () is defined as follows. The meanings defined in H.264 / AVC apply with the following additional restrictions. The value of each syntax element of slice_param_for_au may be unchanged in all slice headers included in the same access unit and the slice_header_for_au syntax structure.

slice_header_in_3dv_extension( )のシンタックスは次の通りに規定される。single_slice_flagおよびinitialisation_param_equal_flagの値は、gos_param_idによって識別されるGOSパラメータセットから得られる。
The syntax of slice_header_in_3dv_extension () is specified as follows. The values of single_slice_flag and initialization_param_equal_flag are obtained from the GOS parameter set identified by gos_param_id.

slice_header_in_3dv_extension( )の意味は次の通りに規定される。H.264/AVCで規定される意味が適用される。slice_header_in_3dv_extension( )にシンタックス要素または構造が存在しない場合、その値はgos_param_idによって識別されるGOSパラメータセットから継承される。   The meaning of slice_header_in_3dv_extension () is specified as follows. The meaning specified in H.264 / AVC applies. If there is no syntax element or structure in slice_header_in_3dv_extension (), its value is inherited from the GOS parameter set identified by gos_param_id.

次に、HEVCの例示的実施形態と可能なスケーラブル拡張を説明する。前述のスケーラブル拡張は例えば、中粒度および/または粗粒度品質スケーラビリティや空間スケーラビリティ,拡張空間スケーラビリティ,マルチビュー符号化,深度拡張符号化,補助ピクチャ符号化,ビット深度スケーラブル符号化,またはこれらの組合せを含んでもよい。   Next, an exemplary embodiment of HEVC and possible scalable extensions are described. The scalable extensions described above include, for example, medium and / or coarse grain quality scalability, spatial scalability, extended spatial scalability, multi-view coding, depth extension coding, auxiliary picture coding, bit depth scalable coding, or combinations thereof. May be included.

スケーラブル拡張を有効にすることによって、アクセスユニットは比較的多数のコンポーネントピクチャで構成できる。これは、依存表現やレイヤ表現だけでなく符号化されたテクスチャ・深度ビューコンポーネント等である。一部のコンポーネントピクチャの符号化サイズは比較的小さいこともある。これは例えば、ベースビューやベースレイヤに対する差分を表現するものと見做されるためであったり、深度コンポーネントが比較的圧縮し易いためであったりすることが理由である。その結果、NALユニットヘッダおよびスライスヘッダのオーバーヘッドは、こうしたコンポーネントピクチャ用に使用されるバイト数の共有に比例して大きくなる。   By enabling scalable extension, an access unit can be composed of a relatively large number of component pictures. This is not only a dependency expression and a layer expression, but also an encoded texture / depth view component. The coding size of some component pictures may be relatively small. This is because, for example, it is considered that the difference with respect to the base view or the base layer is expressed, or the depth component is relatively easy to compress. As a result, the overhead of the NAL unit header and slice header increases in proportion to the sharing of the number of bytes used for such component pictures.

HEVCコーデックは伝送エラーに対して脆弱であり、あらゆるタイプのエラー隠蔽によって、一定時間におけるエラーの大きさと空間領域の両方が大きくなる結果となり得る。MPEG-DASH等の伝送システムの多くはエラーの無いシステムである。   The HEVC codec is vulnerable to transmission errors, and any type of error concealment can result in an increase in both error magnitude and spatial domain over time. Many transmission systems such as MPEG-DASH are error-free systems.

SVCおよびMVCのスケーラビリティ特性の一部はNALユニットヘッダで提供される。これは、NALユニットヘッダが比較的大きいサイズであるためであって、SVCおよびMVCの符号化スライスに対しては4バイトである。NALユニットヘッダまたはスライスヘッダがパラメータセットのリファレンスを与えられ、スケーラビリティ特性が提供されれば、NALユニットヘッダのサイズをより小さくすることが可能である。しかし、こうした設計には、マルチメディアゲートウェイや多地点会議制御装置(Multipoint Conference Control Unit;MCU)といった、ビットストリームからのサブビットストリーム抽出やスケーラブル適応を遂行するエンティティがパラメータセットにアクセスし、パラメータセットの活性化状態を維持することが要求される。   Some of the scalability characteristics of SVC and MVC are provided in the NAL unit header. This is due to the relatively large size of the NAL unit header, which is 4 bytes for SVC and MVC coded slices. It is possible to reduce the size of the NAL unit header if the NAL unit header or slice header is given a parameter set reference and provided with scalability characteristics. However, in such a design, an entity that performs sub-bitstream extraction or scalable adaptation from a bitstream, such as a multimedia gateway or a multipoint conference control unit (MCU), accesses the parameter set and It is required to maintain the activated state.

以下の例示的実施形態では、次の幾つかの技術領域をまとめて対応する解決方法が提供される。第1に、この例示的実施形態はHEVCのスケーラブル拡張のための繋がりを提供することができる。第2に、パラメータセットへのアクセスやその解析,パラメータセットの活性トラックの維持を必要としないサブビットストリームの抽出を可能にする。第3に、例示的実施形態は、NALユニットヘッダのサイズを、SVCおよびMVCの4バイトのヘッダよりも小さくすることができる。第4に、ピクチャが複数のスライスを含む場合、スライスヘッダのオーバーヘッドバイト数を減らすこともできる。第5に、例示的実施形態を更に追加して、スケーラブル拡張におけるスライスヘッダのバイト数の削減も行える。   In the following exemplary embodiment, the following several technical areas are provided together to provide a corresponding solution. First, this exemplary embodiment can provide a link for scalable extension of HEVC. Second, it enables sub-bitstream extraction that does not require access to and analysis of the parameter set and maintenance of the active track of the parameter set. Third, the exemplary embodiment can make the NAL unit header size smaller than the SVC and MVC 4-byte header. Fourth, when the picture includes a plurality of slices, the number of overhead bytes in the slice header can be reduced. Fifth, the exemplary embodiment can be further added to reduce the number of bytes in the slice header in the scalable extension.

コンポーネントピクチャは、コンポーネントピクチャ区切りNALユニットと後続の複数の符号化スライスNALユニットとして定義されてもよい。ただし、後続の符号化スライスNALユニットは、アクセスユニットの最後または次のコンポーネントピクチャ区切りNALユニットのうち復号順で早い方のユニットまでに続いている符号化スライスNALユニットであって、最後または次の区切りNALユニットは除く。実際にスケーラブル拡張のないHEVCでは、コンポーネントピクチャはアクセスユニットの符号化ピクチャを含むものと見做されてもよい。そして将来のスケーラブル拡張において、コンポーネントピクチャはビューコンポーネントや深度マップ,依存表現,レイヤ表現等を含むこともできる。   A component picture may be defined as a component picture delimiter NAL unit followed by a plurality of encoded slice NAL units. However, the subsequent encoded slice NAL unit is an encoded slice NAL unit that continues to the last unit in the decoding order among the last or next component picture delimiter NAL units of the access unit, and is the last or next Excluding separator NAL units. In HEVC without actually scalable extension, the component picture may be considered to include the coded picture of the access unit. In future scalable extensions, component pictures can also include view components, depth maps, dependency representations, layer representations, and the like.

複数のコンポーネントピクチャはコンポーネントピクチャ区切りNALユニットで互いに分けられ、コンポーネントピクチャの符号化スライスの復号に使用される共通のシンタックス要素の値を運んでもよい。   A plurality of component pictures may be separated from each other by component picture delimiter NAL units, and may carry values of common syntax elements used for decoding an encoded slice of the component picture.

この例示的実施形態では、各コンポーネントピクチャにはコンポーネントピクチャ依存識別子(cpd_id)が付与される。この識別子はコンポーネントピクチャ区切りNALユニットと符号化スライスの両方のために信号送信され、両方の間の関連を形成している。   In this exemplary embodiment, each component picture is given a component picture dependent identifier (cpd_id). This identifier is signaled for both the component picture break NAL unit and the coded slice, forming an association between both.

図10は、例示的実施形態に従うアクセスユニットの構造を簡易的に示す。   FIG. 10 schematically shows the structure of an access unit according to an exemplary embodiment.

アクセスユニットはアクセスユニット区切りNALユニットから始まってもよい。アクセスユニット区切りはあってもなくてもよい。0以上のSEI-NALユニットがアクセスユニット区切りNALユニット(存在する場合)の後に続いてもよい。コンポーネントピクチャ区切りNALユニットは各コンポーネントピクチャより先にある。コンポーネントピクチャは1つ以上の符号化スライスNALユニットを含む。1つのアクセスユニットに1つ以上のコンポーネントピクチャが含まれてもよい。   An access unit may begin with an access unit delimited NAL unit. Access unit delimiters may or may not be present. Zero or more SEI-NAL units may follow the access unit delimiter NAL unit (if present). A component picture delimiter NAL unit precedes each component picture. A component picture includes one or more coded slice NAL units. One access unit may include one or more component pictures.

スライスヘッダのシンタックス要素はシンタックス構造に分類される。各構造は1つのコンポーネントピクチャ内で同じ特性を有する。すなわち、コンポーネントピクチャの全符号化スライスで不変のままか、コンポーネントピクチャの符号化スライス毎に変化する。例えば、次のシンタックス要素の構造またはスライスパラメータ構造が規定されてもよい:
1. ピクチャ識別情報(idr_pic_idおよび関連するPOC)
2. リファレンスピクチャセット
3. 適応パラメータセットID
4. デブロッキングフィルタ制御
5. 適応ループフィルタ制御
6. リファレンスピクチャ・リスト作成
7. 加重予測用の予測重みテーブル。
The syntax element of the slice header is classified into a syntax structure. Each structure has the same characteristics within one component picture. That is, it remains unchanged for all the encoded slices of the component picture or changes for each encoded slice of the component picture. For example, the following syntax element structure or slice parameter structure may be defined:
1. Picture identification information (idr_pic_id and associated POC)
2. Reference picture set
3. Adaptive parameter set ID
4. Deblocking filter control
5. Adaptive loop filter control
6. Create reference picture list
7. Prediction weight table for weighted prediction.

コンポーネントピクチャ区切りNALユニットを符号化する際、そのコンポーネントピクチャ区切りNALユニットに前述のどちらが存在するかが示され、そのことがコンポーネントピクチャの全符号化スライスで共有されてもよい。コンポーネントピクチャ区切りNALユニットに存在しないシンタックス要素の構造がスライスヘッダに存在してもよい。   When coding a component picture break NAL unit, it is indicated which of the component picture break NAL units is present, and this may be shared by all coded slices of the component picture. The structure of syntax elements that do not exist in the component picture delimiter NAL unit may exist in the slice header.

図11は、1つのコンポーネントピクチャ区切りNALユニットおよび2つの符号化スライスNALユニットを含むコンポーネントピクチャの実施例を示す。コンポーネントピクチャNALユニットは、上記でリストされた幾つかのスライスパラメータシンタックス構造のうち、ピクチャ識別情報,リファレンスピクチャセット,適応パラメータセットIDの3つを含む。符号化スライスはコンポーネントピクチャNALユニットからこの3つのスライスパラメータ構造を継承する。この実施例では、符号化スライスのスライスヘッダもリファレンスピクチャ・リスト作成構造を含む。この構造は、この実施例においては符号化スライス毎に適合していて、コンポーネントピクチャNALユニットには含まれていない。この実施例では残りの3つの構造が示されていないが、デブロッキングフィルタと適応ループフィルタの動作はAPSによって有効に制御される。加えて、この実施例では加重予測が使用されないため、予測重みテーブルも存在しない。   FIG. 11 shows an example of a component picture including one component picture delimiter NAL unit and two encoded slice NAL units. The component picture NAL unit includes three of the slice parameter syntax structures listed above: picture identification information, reference picture set, and adaptive parameter set ID. The coded slice inherits these three slice parameter structures from the component picture NAL unit. In this embodiment, the slice header of the encoded slice also includes a reference picture list creation structure. This structure is adapted for each coding slice in this embodiment and is not included in the component picture NAL unit. Although the remaining three structures are not shown in this embodiment, the operations of the deblocking filter and the adaptive loop filter are effectively controlled by APS. In addition, since weighted prediction is not used in this embodiment, there is no prediction weight table.

コンポーネントピクチャ区切りが1つ以上失われてもスライスを独立して復号することが望まれる環境では、次の何れかの戦略を用いることができる。
・ エンコーダは、コンポーネントピクチャ区切りにあるスライスヘッダのシンタックス要素を符号化せず、従来通りにスライスヘッダにあるシンタックス要素を符号化することを選択してもよい。このため、現行のHEVC WDと同じエラー耐性を達成可能である。
・ コンポーネントピクチャ区切りNALユニットを繰り返す機構を採用することもできる。この機構はHEVCでも採用可能で、例えばSEIメッセージをビットストリームの任意の位置に配置することができるSEI機構を採用し、このSEIメッセージと一緒にコンポーネントピクチャ区切りを繰り返すこともできる。あるいは、または加えて、トランスポートレベルでの機構を使用することもできる。例えば、送信側がトランスポートパケット内でコンポーネントピクチャ区切りNALユニットが適切であると分かる場合、例えばSVC RTPペイロードフォーマットのPACSI-NALユニットのような機構で送信される場合、コンポーネントピクチャ区切りNALユニットを繰り返すことができる。
In an environment where it is desired to decode a slice independently even if one or more component picture breaks are lost, any of the following strategies can be used.
The encoder may choose not to encode the syntax element of the slice header in the component picture delimiter, but to encode the syntax element in the slice header as usual. For this reason, it is possible to achieve the same error resistance as the current HEVC WD.
・ It is also possible to adopt a mechanism that repeats component picture delimiter NAL units. This mechanism can also be adopted in HEVC. For example, an SEI mechanism that can arrange an SEI message at an arbitrary position of a bit stream is adopted, and component picture delimiters can be repeated together with this SEI message. Alternatively, or in addition, a mechanism at the transport level can be used. For example, if the sender knows that a component picture delimited NAL unit is appropriate in the transport packet, for example, when transmitting by a mechanism such as a PACSI-NAL unit in the SVC RTP payload format, repeat the component picture delimited NAL unit. Can do.

アクセスユニットに複数のコンポーネントピクチャが存在する場合でもスライスヘッダパラメータに使うビット数を減らすために、選択されたパラメータの予測がコンポーネントピクチャ区切りNALユニットを超えて実行されてもよい。例えば、深度強化マルチビュービデオの符号化では、同一view_idのテクスチャビューコンポーネントと深度ビューコンポーネントとの間でスライスパラメータ構造の一部が予測されるという利点がある。他のシンタックス要素に対しても、同一のコンポーネントタイプ(テクスチャまたは深度)における別々のビューコンポーネントからのシンタックス要素を継承する方がよい。   In order to reduce the number of bits used for slice header parameters even when there are multiple component pictures in the access unit, prediction of the selected parameters may be performed beyond the component picture delimiter NAL unit. For example, encoding of depth-enhanced multi-view video has an advantage that a part of a slice parameter structure is predicted between a texture view component and a depth view component of the same view_id. For other syntax elements, it is better to inherit syntax elements from different view components in the same component type (texture or depth).

実際に、非ベースコンポーネントピクチャに対するコンポーネントピクチャ区切りNALユニットは、別のコンポーネントピクチャ区切りNALユニットの内容またはそれへの参照によって、示されたシンタックス要素の構造を含むことができる。この参照はcpd_id値を単位として与えられる。cpd_idがCPDID1であるコンポーネントピクチャ区切りNALユニットのシンタックス要素は、シンタックス要素セットにクラスタ化される。各シンタックス要素セットは、同一アクセスユニットにあって、cpd_idがCPDID2で先にあるコンポーネントピクチャ区切りNALユニットから選択的にコピーされてもよい。CPDID1はCPDID2よりも大きいため、スライスヘッダパラメータはコンポーネントピクチャ内で効果的かつ柔軟に共有される。   In fact, a component picture break NAL unit for a non-base component picture can include the structure of the syntax element indicated by the content of another component picture break NAL unit or a reference to it. This reference is given in units of cpd_id values. The syntax elements of the component picture delimiter NAL unit whose cpd_id is CPDID1 are clustered into a syntax element set. Each syntax element set may be selectively copied from a component picture delimiter NAL unit that is in the same access unit and has cpd_id of CPDID2 first. Since CPDID1 is larger than CPDID2, the slice header parameters are shared effectively and flexibly within the component picture.

図12は、2組のテクスチャ・深度コンポーネントピクチャを持つマルチビュー・プラス・深度アクセスユニットの実施例を示す。これらのコンポーネントピクチャのビットストリーム順序は、次のように仮定する:ベースビューテクスチャピクチャ,ベースビュー深度ピクチャ,非ベースビューテクスチャピクチャ,および非ベースビュー深度ピクチャ。この実施例では、ピクチャ識別情報およびリファレンスピクチャセット構造が全コンポーネントピクチャで同一であり、参照によってcpd_idが0を超えるコンポーネントピクチャ区切りNALユニットに含まれる。テクスチャコンポーネントピクチャのリファレンスピクチャ・リストは同一で、深度コンポーネントピクチャに関するリファレンスピクチャ・リストも同一である。ただし、テクスチャコンポーネントピクチャのリファレンスピクチャ・リストは、深度コンポーネントピクチャのリストとは異なる。したがって、予測元はリファレンスピクチャ・リスト作成構造に対して変わる。この実施例では、残りに4つのスライスパラメータ構造はスライスヘッダに含まれるか存在しないものと仮定する。最後の2つのピクチャ区切りNALユニットのcpd_idは、何れもそれ以降のピクチャ区切りNALユニットの予測に使用されないため、同一の値(2)であってもよい。   FIG. 12 shows an example of a multi-view plus depth access unit with two sets of texture and depth component pictures. The bitstream order of these component pictures is assumed as follows: base view texture picture, base view depth picture, non-base view texture picture, and non-base view depth picture. In this embodiment, the picture identification information and the reference picture set structure are the same for all component pictures, and are included in the component picture delimiter NAL unit whose cpd_id exceeds 0 by reference. The reference picture list for the texture component picture is the same, and the reference picture list for the depth component picture is the same. However, the reference picture list of texture component pictures is different from the list of depth component pictures. Therefore, the prediction source changes with respect to the reference picture list creation structure. In this embodiment, it is assumed that the remaining four slice parameter structures are included or not present in the slice header. Since cpd_id of the last two picture delimiter NAL units is not used for prediction of subsequent picture delimiter NAL units, it may be the same value (2).

各コンポーネントピクチャにはコンポーネントピクチャ依存識別子(cpd_id)が付与され、NALユニットヘッダで信号送信される。cpd_idに基づいてサブビットストリームの抽出を実行できるように、cpd_idの値には制約がある。換言すれば、0を超える特定のcpd_idを持つコンポーネントピクチャ区切りNALユニットと符号化スライスNALユニットを除外して形成されたビットストリームが適合ビットストリームである。   Each component picture is given a component picture dependent identifier (cpd_id) and is signaled with a NAL unit header. There is a restriction on the value of cpd_id so that sub-bitstream extraction can be performed based on cpd_id. In other words, the bit stream formed by excluding the component picture delimiter NAL unit and the coded slice NAL unit having a specific cpd_id exceeding 0 is a conforming bit stream.

この例示的実施形態では、cpd_idはNALユニットヘッダに含まれる。したがって、その値域に制限がある(例えば、5ビットである)。一般的には、アクセスユニット内のコンポーネントピクチャの数はこの値域の最大値(例えば32)よりも大きくなり得る。その結果、cpd_id値はアクセスユニット内で再利用されなくてはならない可能性もある。例示的実施形態によっては、コンポーネントピクチャ区切りNALユニットは入れ子の予測構造を持つ。すなわち、cpd_idがCPDID1であるコンポーネントピクチャ区切りNALユニットは、次のコンポーネントから予測され、それ以外のコンポーネントピクチャ区切りNALユニットからは予測されない。以下では、アクセスユニット内のコンポーネントピクチャ区切りNALユニットが復号順(すなわち、ビットストリーム順)で0,1,2,…とインデクスが振られている。cpd_idがCPDID1である現在のコンポーネントピクチャ区切りNALユニットのインデクスはcurrIndexであり、currIndexは0よりも大きい。これは、次の擬似コードによって示される。   In this exemplary embodiment, cpd_id is included in the NAL unit header. Therefore, the range is limited (for example, 5 bits). In general, the number of component pictures in an access unit can be greater than the maximum value (eg 32) of this range. As a result, the cpd_id value may have to be reused within the access unit. In some exemplary embodiments, the component picture break NAL unit has a nested prediction structure. That is, the component picture delimited NAL unit whose cpd_id is CPDID1 is predicted from the next component, and is not predicted from other component picture delimited NAL units. In the following, the component picture delimited NAL units in the access unit are indexed as 0, 1, 2,... In decoding order (that is, bitstream order). The index of the current component picture delimited NAL unit whose cpd_id is CPDID1 is currIndex, and currIndex is greater than zero. This is illustrated by the following pseudo code.

currSmallestCpdId = CPDID1
for( i = currIndex - 1, j = 0; i > 0; i-- ) {
if( cpdId[ i ] < currSmallestCpdId ) {
refCpdIdx[ j ] = i
j++
currSmallestCpdId = cpd_id[ i ]
}
}
numRefCpdIdx = j
currSmallestCpdId = CPDID1
for (i = currIndex-1, j = 0; i>0; i--) {
if (cpdId [i] <currSmallestCpdId) {
refCpdIdx [j] = i
j ++
currSmallestCpdId = cpd_id [i]
}
}
numRefCpdIdx = j

この擬似コードは次の通りである:
・ 入力パラメータcpdId[ i ]は、アクセスユニット内のインデクスiを持つコンポーネントピクチャ区切りNALユニットのcpd_id値を与える;
・ 出力パラメータnumRefCpdIdxは、現コンポーネントピクチャ区切りNALユニットの予測に使用されるコンポーネントピクチャ区切りNALユニットの数を与える;
・ numRefCpdIdxが0を超える場合、refCpdIdx[ j ]は、現コンポーネントピクチャ区切りNALユニットの予測に使用されるコンポーネントピクチャ区切りNALユニットのインデクスを与える;ここで、jは0以上numRefCpdIdx - 1以下の範囲である。
The pseudo code is as follows:
The input parameter cpdId [i] gives the cpd_id value of the component picture delimited NAL unit with index i in the access unit;
The output parameter numRefCpdIdx gives the number of component picture delimited NAL units used to predict the current component picture delimited NAL unit;
• If numRefCpdIdx is greater than 0, refCpdIdx [j] gives the index of the component picture delimiter NAL unit used to predict the current component picture delimiter NAL unit; where j is between 0 and numRefCpdIdx-1 is there.

この結果、アクセスユニット内のサブビットストリーム抽出も、次のようにより細かい粒度で行える。cpd_idが全てCPDID1であるコンポーネントピクチャ区切りNALユニットとそれに続く符号化スライスNALユニットから成るコンポーネントピクチャが、ビットストリームから削除される場合、ビットストリームから削除されるべきコンポーネントピクチャは次のアルゴリズムによって決定することができる。前述のように、アクセスユニット内のコンポーネントピクチャが復号順(すなわち、ビットストリーム順)で0,1,2,…とインデクスが振られている。現在の(削除されるべき)コンポーネントピクチャのインデクスはcurrIndexであり、アクセスユニット内のコンポーネントピクチャの総数はnumIndexである。   As a result, sub-bitstream extraction within the access unit can be performed with finer granularity as follows. When a component picture consisting of a component picture delimiter NAL unit whose cpd_id is all CPDID1 followed by a coded slice NAL unit is deleted from the bitstream, the component picture to be deleted from the bitstream shall be determined by the following algorithm: Can do. As described above, the component pictures in the access unit are indexed as 0, 1, 2,... In decoding order (that is, bit stream order). The current (to be deleted) component picture index is currIndex and the total number of component pictures in the access unit is numIndex.

for( i = currIndex + 1, j = 0; i < numIndex; i++) {
if( cpdId[ i ] > CPDID1 ) {
toBeRemovedIdx[ j ] = i
j++
}
else
break
}
numToBeRemovedIdx = j
for (i = currIndex + 1, j = 0; i <numIndex; i ++) {
if (cpdId [i]> CPDID1) {
toBeRemovedIdx [j] = i
j ++
}
else
break
}
numToBeRemovedIdx = j

この擬似コードでは、"break"は(Cプログラミング言語のように)ループから出る。入力と出力は次の通りである:
・ 入力パラメータcpdId[ i ]は、アクセスユニット内のインデクスiを持つコンポーネントピクチャ区切りNALユニットのcpd_id値を与える;
・ 出力パラメータnumToBeRemovedIdxは、現コンポーネントピクチャと共に、アクセスユニットから削除されるべきコンポーネントピクチャの数を与える;
・ numToBeRemovedIdx0を超える場合、toBeRemovedIdx[j]は、現コンポーネントピクチャと共に、アクセスユニットから削除されるべきコンポーネントピクチャのインデクスを与える;ここで、jは0以上numToBeRemoved - 1以下の範囲である。
In this pseudocode, "break" exits the loop (as in the C programming language). The inputs and outputs are as follows:
The input parameter cpdId [i] gives the cpd_id value of the component picture delimited NAL unit with index i in the access unit;
The output parameter numToBeRemovedIdx gives the number of component pictures to be removed from the access unit along with the current component picture;
• If numToBeRemovedIdx0 is exceeded, toBeRemovedIdx [j] gives the index of the component picture to be removed from the access unit along with the current component picture; where j is in the range of 0 to numToBeRemoved−1.

この種の削除処理またはサブビットストリームの抽出処理では、どのコンポーネントピクチャ区切りNALユニットが実際に予測に使用されるかを調べない。一方、cpd_idの内容による制約によって制御されるように、どのコンポーネントピクチャ区切りNALユニットが予測に使用されるかという情報だけは使用される。しかし、このサブビットストリームの抽出処理は、NALユニットヘッダでアクセス可能なcpd_id値のみで動作してもよく、メディアゲートウェイやMCU等の直接的な方法で利用される。   This kind of deletion processing or sub-bitstream extraction processing does not check which component picture delimiter NAL unit is actually used for prediction. On the other hand, only information about which component picture delimiter NAL unit is used for prediction is used, as controlled by the constraint due to the content of cpd_id. However, this sub-bitstream extraction process may operate only with the cpd_id value accessible by the NAL unit header, and is used by a direct method such as a media gateway or MCU.

以下では、シンタックス構造の一部による例示的実施形態が説明される。   In the following, exemplary embodiments according to part of the syntax structure are described.

NALユニットのシンタックスは次を含んでもよい。
The NAL unit syntax may include:

cpd_idの意味は次のように付加される。cpd_id(原文では太字であり、ビットストリームのシンタックス要素である)はコンポーネントピクチャの識別子である。cpd_idの値は前述のように制約を受ける。   The meaning of cpd_id is added as follows. cpd_id (bold in the original text and a bitstream syntax element) is an identifier of a component picture. The value of cpd_id is restricted as described above.

NALユニットのテーブルは次を含んでもよい。   The NAL unit table may include:

例示的実施形態に従うコンポーネントピクチャ区切りNALユニットのシンタックス構造は次の通りである。
The syntax structure of the component picture delimiter NAL unit according to the exemplary embodiment is as follows.

structure_idc(原文では太字であり、ビットストリームのシンタックス要素である)はこのシンタックス構造で使用される構造の識別子である。structure_idcは、HEVCスケーラブル拡張で規定されるコンポーネントピクチャのスライスヘッダおよびコンポーネントピクチャ区切りNALユニットに存在する様々なシンタックス要素の有無と組合せを示すのに使用される。認識不可能なstructure_idc値を持つコンポーネントピクチャ区切りNALユニットは、復号処理で無視されてもよい。   The structure_idc (bold in the original text and a syntax element of the bit stream) is an identifier of the structure used in this syntax structure. The structure_idc is used to indicate the presence and combination of various syntax elements present in the slice header and component picture delimiter NAL unit defined in the HEVC scalable extension. A component picture delimited NAL unit having an unrecognizable structure_idc value may be ignored in the decoding process.

single_slice_type_flag(原文では太字であり、ビットストリームのシンタックス要素である)が0のときは、コンポーネントピクチャが別のスライスタイプのスライスを含む可能性があることを特定する。single_slice_type_flagが1のときは、コンポーネントピクチャが同一のスライスタイプのスライスを含む可能性があることを特定する。   When single_slice_type_flag (bold in the original text and a bitstream syntax element) is 0, it is specified that the component picture may include a slice of another slice type. When single_slice_type_flag is 1, it is specified that there is a possibility that component pictures include slices of the same slice type.

pred_flag(原文では太字であり、ビットストリームのシンタックス要素である)が0のときは、次に示されたスライスパラメータ構造が現在のNALユニットに含まれることを特定する。pred_flagが1のときは、次に示されたスライスパラメータ構造が、cpd_idがref_cpd_id[ idx ]であるコンポーネントピクチャ区切りNALユニットからの参照によって示されることを特定する。   When pred_flag (bold in the original text and a bitstream syntax element) is 0, it specifies that the following slice parameter structure is included in the current NAL unit. When pred_flag is 1, it specifies that the following slice parameter structure is indicated by a reference from a component picture delimiter NAL unit whose cpd_id is ref_cpd_id [idx].

ref_cpd_id[ idx ] (原文では太字であり、ビットストリームのシンタックス要素である)は、コンポーネントピクチャ区切りNALユニットが、示されたスライスパラメータ構造に対するリファレンスとして使用されることを特定する。   ref_cpd_id [idx] (bold in the text and is a bitstream syntax element) specifies that the component picture delimiter NAL unit is used as a reference to the indicated slice parameter structure.

slice_param_flag[ i ][ idx ] ("slice_param_flag"は原文では太字であり、ビットストリームのシンタックス要素である)は、i番目のスライスパラメータ構造が現在のコンポーネントピクチャ区切りNALユニットに含まれることを特定する。この値は、別のコンポーネントピクチャ区切りNALユニットへの参照によって代入されてもよい。   slice_param_flag [i] [idx] ("slice_param_flag" is bold in the text and is a bitstream syntax element) specifies that the i-th slice parameter structure is included in the current component picture delimiter NAL unit . This value may be assigned by reference to another component picture break NAL unit.

例示的実施形態に従って、スライスヘッダのシンタックスは次を含んでもよい。
According to an exemplary embodiment, the slice header syntax may include:

スライスヘッダの復号または解析中は、同一のcpd_idで先行するコンポーネントピクチャ区切りNALユニットに含まれるシンタックス要素が有効である。   During decoding or analysis of a slice header, syntax elements included in the preceding component picture delimiter NAL unit with the same cpd_id are valid.

次のスライスパラメータシンタックス構造が規定されてもよい。このシンタックス構造は、HEVCドラフト規格のスライスヘッダに在るパラメータを含む。   The following slice parameter syntax structure may be defined. This syntax structure includes parameters present in the slice header of the HEVC draft standard.

これらの構造におけるシンタックス要素の意味はHEVCドラフト規格で与えられる意味と比べて変わらない。   The meaning of the syntax elements in these structures is unchanged compared to the meaning given in the HEVC draft standard.

HEVCのスケーラブル拡張に対しては、1つ以上の新たなstructure_idc値が使用されるようになってもよい。また、スケーラブル拡張は1つ以上の新たなスライスパラメータ構造を使用できるようにしてもよい。SVCと同様のdependency_idとquality_id similarを持つコンポーネントピクチャ区切りNALユニットに対するスケーラブル拡張の実施を以下に示す。
For HEVC scalable extensions, one or more new structure_idc values may be used. A scalable extension may also allow the use of one or more new slice parameter structures. Implementation of scalable extension for component picture delimited NAL units with dependency_id and quality_id similar to SVC is shown below.

特定のコンポーネントピクチャ区切りNALユニットから別のものを参照によって予測または包含することは、予測用のリファレンスのコンポーネントピクチャ区切りNALユニットおよび/または予測されるコンポーネントピクチャ区切りNALユニットのstructure_idc値を条件として行われてもよい。例えば、特定のスライスパラメータ構造が深度コンポーネントピクチャに対して有効であってもよく、テクスチャコンポーネントピクチャにはなくてもよい。したがって、こうしたスライスパラメータ構造に対する予測は行われない。   Predicting or including another reference from a specific component picture delimited NAL unit by reference is subject to the structure_idc value of the reference component picture delimited NAL unit and / or the predicted component picture delimited NAL unit for prediction. May be. For example, a particular slice parameter structure may be valid for depth component pictures and may not be present for texture component pictures. Therefore, no prediction is made for such a slice parameter structure.

前述の例示的実施形態は、ビットストリームのシンタックスを用いて記述されていた。しかし、対応する構成および/またはコンピュータプログラムがビットストリームを生成するエンコーダおよび/またはビットストリームを復号するデコーダに存在し得ることも理解されるべきである。同様に、エンコーダを参照して例示的実施形態が記述されていたことに対して、結果として得られるビットストリームとデコーダに対応する要素が備わることも理解されるべきである。同様に、デコーダを参照して例示的実施形態が記述されていたことに対して、デコーダによって復号されるビットストリームを生成する構成および/またはコンピュータプログラムをエンコーダが備えることも理解されるべきである。   The exemplary embodiments described above have been described using bitstream syntax. However, it should also be understood that corresponding configurations and / or computer programs may be present in an encoder that generates a bitstream and / or a decoder that decodes a bitstream. Similarly, it should also be understood that while the exemplary embodiment has been described with reference to an encoder, the resulting bitstream and decoder are provided with corresponding elements. Similarly, it should also be understood that while the exemplary embodiments have been described with reference to a decoder, the encoder comprises a configuration and / or computer program for generating a bitstream that is decoded by the decoder. .

前述の実施例は電子デバイスのコーデックにおいて動作する本発明の実施形態を記述しているが、以下で記述されるように本発明が任意のビデオコーデックの一部として実装され得ることを理解されたい。したがって例えば、本発明の実施形態は、固定または有線の通信経路を通じてビデオ符号化を実装し得るビデオコーデックに実装されてもよい。   Although the foregoing examples describe embodiments of the present invention that operate in an electronic device codec, it should be understood that the present invention may be implemented as part of any video codec as described below. . Thus, for example, embodiments of the invention may be implemented in a video codec that may implement video coding over a fixed or wired communication path.

そしてユーザ装置は、前述の本発明の実施形態に記述されるこうしたビデオコーデックを備えてもよい。「ユーザ機器」との語句は、如何なるタイプの無線ユーザ機器を表してもよく、例えば携帯電話やポータブルデータ処理装置、ポータブルWebブラウザであってもよい。   The user equipment may then comprise such a video codec as described in the embodiments of the present invention described above. The phrase “user equipment” may represent any type of wireless user equipment, such as a mobile phone, a portable data processing device, or a portable web browser.

さらに、地上波公共移動通信ネットワーク(public land mobile network;PLMN)が、前述のビデオコーデックを含んでもよい。   Furthermore, a public land mobile network (PLMN) may include the video codec described above.

一般に、様々な実施形態が、ハードウェアまたは特定用途向け回路、ソフトウェア、ロジック、またはそれらの組み合わせで実装されてもよい。例えば、ある場合ではハードウェアで実装されてもよく、一方別の場合では、コントローラやマイクロプロセッサ等のコンピュータデバイスによって実行されるファームウェアやソフトウェアで実装されてもよい。本発明の種々の形態はブロック図,フローチャート,または他の図的記述を使用して記述ないし図示される。これらのブロック,装置,システム,技術,またはここで記述される方法は、非限定的な例として、ハードウェア,ソフトウェア,ファームウェア,特定用途向け回路やロジック,汎用ハードウェア,コントローラや他のコンピュータデバイス,またはそれらの組み合わせで実装されてもよいと理解されるべきである。   In general, the various embodiments may be implemented in hardware or application specific circuits, software, logic, or combinations thereof. For example, in some cases it may be implemented in hardware, while in other cases it may be implemented in firmware or software executed by a computer device such as a controller or microprocessor. Various aspects of the invention are described or illustrated using block diagrams, flowcharts, or other graphical descriptions. These blocks, devices, systems, technologies, or methods described herein are, by way of non-limiting example, hardware, software, firmware, application specific circuits and logic, general purpose hardware, controllers, and other computing devices. , Or a combination thereof, should be understood.

そして本発明の実施形態は、移動デバイスのデータプロセッサによって実行可能なコンピュータソフトウェア,ハードウェア,またはソフトウェアとハードウェアの組合せによって実装されてもよい。またこの点に関して、添付する図面に示される論理フローの任意のブロックが、プログラムのステップや相互接続された論理回路・ブロック・機能,またはプログラムのステップ,論理回路・ブロック・機能の組合せを表現してもよいことに留意されたい。ソフトウェアは、メモリチップ等の物理メディアやプロセッサ内に実装されるメモリブロック,ハードディスクやフレキシブルディスク等の磁気メディア,DVDやそのデータ異形態であるCD等の光学式メディアに格納されてもよい。   Embodiments of the invention may then be implemented by computer software, hardware, or a combination of software and hardware that can be executed by the data processor of the mobile device. Also, in this regard, any block of logic flow shown in the accompanying drawings represents a program step or an interconnected logic circuit / block / function, or a combination of a program step, logic circuit / block / function. Note that it may be. The software may be stored in a physical medium such as a memory chip, a memory block mounted in a processor, a magnetic medium such as a hard disk or a flexible disk, or an optical medium such as a DVD or a CD that is a data variant thereof.

本発明の様々な実施形態は、メモリに存在するコンピュータプログラムコードを用いて実装可能であり、関連する装置に本発明を遂行させられる。例えば、端末装置は、データの処理・送受信を行う回路および電子装置と、メモリにコンピュータプログラムコードと、プロセッサを備えてもよい。プロセッサは、コンピュータプログラムコードを実行すると、端末装置に本実施形態の構成を遂行させる。また更に、ネットワーク装置は、データの処理・送受信を行う回路および電子装置と、メモリにコンピュータプログラムコードと、プロセッサを備えてもよい。プロセッサは、コンピュータプログラムコードを実行すると、ネットワーク装置に本実施形態の構成を遂行させる。   Various embodiments of the present invention can be implemented using computer program code residing in memory, causing an associated apparatus to perform the invention. For example, the terminal device may include a circuit and an electronic device that process / transmit / receive data, a computer program code in a memory, and a processor. When the processor executes the computer program code, the processor causes the terminal device to perform the configuration of the present embodiment. Furthermore, the network device may include a circuit and an electronic device for processing / transmitting / receiving data, computer program code in a memory, and a processor. When the processor executes the computer program code, the processor causes the network device to perform the configuration of the present embodiment.

メモリは、ローカルな技術環境に適したあらゆるタイプのものであってよい。例えば、半導体ベースのメモリデバイス,磁気メモリデバイス・システム,光学式メモリデバイス・システム,固定式・移動式メモリ等の様々な適合するデータ格納技術を用いて実装されてもよい。データプロセッサは、ローカルな技術環境に適したあらゆるタイプのものであってよく、非限定的な例として、一つ以上の汎用コンピュータ,特定用途向けコンピュータ,マイクロプロセッサ,デジタル信号プロセッサ(DSP),マルチコアプロセッサ・アーキテクチャに基づくプロセッサを含んでもよい。   The memory may be of any type suitable for the local technical environment. For example, it may be implemented using a variety of compatible data storage technologies such as semiconductor-based memory devices, magnetic memory device systems, optical memory device systems, fixed and mobile memories, and the like. The data processor may be of any type suitable for a local technical environment, including, but not limited to, one or more general purpose computers, application specific computers, microprocessors, digital signal processors (DSPs), multicores. A processor based on the processor architecture may be included.

本発明の実施形態は、集積回路モジュールのような、様々な要素で実施されることもできる集積回路の設計は多くは自動化されたプロセスである。論理レベルの設計を、半導体基板上にエッチング・形成するための半導体回路設計に変換する複雑で強力なソフトウェアツールが利用可能である。   Embodiments of the present invention can be implemented with a variety of elements, such as integrated circuit modules, and the design of integrated circuits is often an automated process. Complex and powerful software tools are available that translate logic level designs into semiconductor circuit designs for etching and forming on semiconductor substrates.

カリフォルニア州マウンテンビューのSynopsys, Incや、カリフォルニア州サンノゼのCadence Designのような業者が提供するプログラムは、定評のある設計ルールと実績のある設計モジュールのライブラリに基づいて、半導体チップ上に導電経路や要素を配する。-半導体回路の設計が完了すると、それは、OpusやGDSII等の標準的な電子フォーマットの形で半導体製造設備または、いわゆる「ファブ(fab)」に送られる。   Programs offered by vendors such as Synopsys, Inc. in Mountain View, California and Cadence Design in San Jose, Calif., Are based on proven design rules and a library of proven design modules. Arrange the elements. Once the design of the semiconductor circuit is complete, it is sent to a semiconductor manufacturing facility or so-called “fab” in the form of a standard electronic format such as Opus or GDSII.

前述の説明は、本発明の非限定的な実施例を十分かつ詳細に記述している。しかし、こうした前述の説明を、添付する図面および特許請求の範囲と併せて考慮すれば、種々の変更および適応が可能であることは、本願に関連する技術分野の当業者には明らかであろう。さらに、本発明が教示するこうした事項の全ておよび類似する変形は、その全てが本発明の範囲内にある。   The foregoing description describes in full and detailed non-limiting embodiments of the present invention. However, it will be apparent to one skilled in the art to which this application pertains that various modifications and adaptations are possible in view of the foregoing description in conjunction with the accompanying drawings and claims. . Further, all of these matters and similar variations taught by the present invention are all within the scope of the present invention.

さらに、幾つかの実施例を以下に示す。   In addition, some examples are given below.

第1の実施例によれば、非圧縮ピクチャを、スライスを含む符号化ピクチャに符号化する方法であって、非圧縮ピクチャを、スライスを含む符号化ピクチャに符号化することを含む方法が提供される。この符号化することは、
・ 前記スライスに対するシンタックス要素を第1のセットおよび第2のセットに分類することと;
・ 前記第1のセットおよび前記第2のセットに対するシンタックス要素値を決定することと;
・ 第1のスライス群パラメータセットまたはスライスヘッダにおいて前記第1のセットを選択的に符号化することであって、前記符号化することは次のこと:
* 別のスライス群パラメータセットから前記関連する第1のセットの包含の標示情報を提供することと;
* 前記第1のセットのシンタックス要素値を符号化することと;
* 前記両方を省略すること
の何れか1つを含む、前記符号化することと;
・ 第2のスライス群パラメータセットまたはスライスヘッダにおいて前記第2のセットを選択的に符号化することであって、前記符号化することは次のこと:
* 別のスライス群パラメータセットから前記関連する第2のセットの包含の標示情報を提供することと;
* 前記第2のセットのシンタックス要素値を符号化することと;
* 前記両方を省略すること
の何れか1つを含む、前記符号化すること
を含む。
According to a first embodiment, there is provided a method for encoding an uncompressed picture into an encoded picture including a slice, the method comprising encoding the uncompressed picture into an encoded picture including a slice. Is done. This encoding is
Categorizing the syntax elements for the slice into a first set and a second set;
Determining syntax element values for the first set and the second set;
• selectively encoding the first set in a first slice group parameter set or slice header, wherein the encoding is:
Providing indication information of inclusion of the associated first set from another slice group parameter set;
* Encoding the first set of syntax element values;
* The encoding comprising any one of omitting both;
• selectively encoding the second set in a second slice group parameter set or slice header, wherein the encoding is:
* Providing indication information of inclusion of said related second set from another slice group parameter set;
* Encoding the second set of syntax element values;
* Includes the encoding, including any one of omitting both.

実施形態によっては、前記スライス群パラメータセットにシンタックス要素のサブセットを少なくとも1つ含むことを、前記方法が含む。   In some embodiments, the method includes including at least one subset of syntax elements in the slice group parameter set.

実施形態によっては、前記方法は、符号化済みまたは復号済みであるか、ビットストリームに既存の他のシンタックス構造から前記スライス群パラメータセットの内容またはインスタンスを推定することを含む。   In some embodiments, the method includes estimating the content or instance of the slice group parameter set from other syntax structures that are encoded or decoded or already in the bitstream.

実施形態によっては、前記方法は、ベースビューのテクスチャビューコンポーネントのスライスヘッダから前記スライス群パラメータセットを形成することを含む。   In some embodiments, the method includes forming the slice group parameter set from a slice header of a texture view component of a base view.

実施形態によっては、前記方法は、前記推定されたスライス群パラメータセットに対する識別値を作ることを含む。   In some embodiments, the method includes generating an identification value for the estimated slice group parameter set.

前記方法の実施形態によっては、スライス群パラメータセットは、それに関連する特定のアクセスユニット内で有効である。   In some embodiments of the method, the slice group parameter set is valid within a particular access unit associated with it.

前記方法の実施形態によっては、前記スライス群パラメータセットのシンタックス構造は、特定のアクセスユニットに関するネットワーク抽象化層ユニットシーケンスに含まれ、前記シーケンスは復号順またはビットストリームの順で、前記スライス群パラメータセットはその出現位置から前記アクセスユニットの最後まで有効である。   In some embodiments of the method, the syntax structure of the slice group parameter set is included in a network abstraction layer unit sequence for a specific access unit, the sequence being in decoding order or bitstream order, the slice group parameter set. The set is valid from its appearance position to the end of the access unit.

前記方法の実施形態によっては、前記スライス群パラメータセットは、複数のアクセスユニットに対して有効である。   In some embodiments of the method, the slice group parameter set is valid for multiple access units.

実施形態によっては、前記方法は、1つのアクセスユニットに対して複数のスライス群パラメータセットを符号化することを含む。   In some embodiments, the method includes encoding a plurality of slice group parameter sets for one access unit.

実施形態によっては、前記方法は、スライスヘッダにおけるシンタックス要素値の少なくとも1つのサブセットであって符号化されるサブセットが、後続のスライスヘッダにあるのと同一であるかを決定することと;そうである場合、ビットストリームにおいて前記スライス群パラメータセットを符号化することを含む。   In some embodiments, the method determines whether the encoded subset of at least one subset of syntax element values in a slice header is the same as in a subsequent slice header; The encoding of the slice group parameter set in the bitstream.

前記方法の実施形態によっては、前記スライス群パラメータセットのシンタックス構造が識別子を含む。   In some embodiments of the method, the syntax structure of the slice group parameter set includes an identifier.

実施形態によっては、前記方法は、スライス群パラメータセットの特定のインスタンスを参照するために前記識別子を用いることを含む。   In some embodiments, the method includes using the identifier to refer to a particular instance of a slice group parameter set.

実施形態によっては、前記方法は、スライスヘッダまたは別のスライス群パラメータセットから前記スライス群パラメータセットを参照するために、前記識別子を用いることを含む。   In some embodiments, the method includes using the identifier to reference the slice group parameter set from a slice header or another slice group parameter set.

前記方法の実施形態によっては、前記識別子に対して所定の番号付け空間が使用される。   In some method embodiments, a predetermined numbering space is used for the identifier.

実施形態によっては、前記方法は、第1のスライス群パラメータセットに対して特定のスライス群パラメータセット識別値を使用することと、前記第1のスライス群パラメータセットがスライスヘッダまたはスライス群パラメータセットの何れによっても参照されない場合、第2のスライス群パラメータセットに対して前記スライス群パラメータセット識別値を使用することを含む。   In some embodiments, the method uses a specific slice group parameter set identification value for the first slice group parameter set, and the first slice group parameter set is a slice header or a slice group parameter set. If not referenced by any, it includes using the slice group parameter set identification value for a second slice group parameter set.

実施形態によっては、前記方法は、ビットストリーム内で前記スライス群パラメータセットのシンタックス構造を繰り返すことを含む。   In some embodiments, the method includes repeating the syntax structure of the slice group parameter set in a bitstream.

実施形態によっては、前記方法は、前記スライス群パラメータセットのシンタックス構造のビットストリーム順序および所定の番号付け方式を用いて、前記スライス群パラメータセットのシンタックス構造を識別することを含む。   In some embodiments, the method includes identifying the syntax structure of the slice group parameter set using a bitstream order of the syntax structure of the slice group parameter set and a predetermined numbering scheme.

実施形態によっては、前記方法は、次の少なくとも1つから、前記スライス群パラメータセットに対するシンタックス要素セットを形成することを含む:
スケーラブルレイヤおよび/または他のスケーラブル特性を示すシンタックス要素;
ビューおよび/または他のマルチビュー特性を示すシンタックス要素;
マルチビュービデオの特定のコンポーネントタイプに関連するシンタックス要素;
アクセスユニット識別情報に関連するシンタックス要素;
復号順序に関連するシンタックス要素;
出力順序に関連するシンタックス要素;
アクセスユニットの全スライスに対して不変である他のシンタックス要素に関連するシンタックス要素;
ビューコンポーネントの全スライスで不変であるシンタックス要素;
リファレンスピクチャ・リスト変更に関連するシンタックス要素;
使用されるリファレンスピクチャのセットに関連するシンタックス要素;
復号リファレンスピクチャ・マーキングに関連するシンタックス要素;
加重予測用の予測重みテーブルに関連するシンタックス要素;
デブロッキング・フィルタリングを制御するシンタックス要素;
適応ループフィルタリングを制御するシンタックス要素;
サンプル適応オフセットを制御するシンタックス要素。
In some embodiments, the method includes forming a syntax element set for the slice group parameter set from at least one of the following:
A syntax element indicating a scalable layer and / or other scalable characteristics;
A syntax element indicating a view and / or other multi-view characteristics;
Syntax elements associated with specific component types of multiview video;
Syntax elements associated with access unit identification information;
Syntax elements associated with the decoding order;
Syntax elements related to output order;
Syntax elements associated with other syntax elements that are invariant to all slices of the access unit;
A syntax element that is invariant across all slices of the view component;
Syntax elements related to reference picture list changes;
Syntax elements associated with the set of reference pictures used;
Syntax elements associated with decoding reference picture markings;
Syntax elements associated with the prediction weight table for weighted prediction;
A syntax element that controls deblocking filtering;
A syntax element that controls adaptive loop filtering;
A syntax element that controls the sample adaptive offset.

実施形態によっては、前記要素は、前記スライス群パラメータセットを符号化するとき、次の1つ以上を含む:
前記シンタックス要素をスライス群パラメータセットのシンタックス構造に符号化すること;
前記シンタックス要素セットを参照によってスライス群パラメータセットに含めること;
前記シンタックス要素セットが前記スライス群パラメータセットにないことを標示すること。
In some embodiments, the elements include one or more of the following when encoding the slice group parameter set:
Encoding the syntax element into a syntax structure of a slice group parameter set;
Including the syntax element set in the slice group parameter set by reference;
Indicating that the syntax element set is not in the slice group parameter set.

実施形態によっては、前記方法は、スケーラブルレイヤに関連するシンタックス要素セットを前記スライス群パラメータセットに含めることと;ビューコンポーネントの全スライスで不変であるシンタックス要素を前記スライス群パラメータセットに含めることを含む。   In some embodiments, the method includes a syntax element set associated with a scalable layer in the slice group parameter set; and a syntax element that is invariant in all slices of a view component is included in the slice group parameter set. including.

実施形態によっては、前記方法は、リファレンスピクチャ・リストの変更に関連するシンタックス要素を参照または包含によって前記スライス群パラメータセットのシンタックス構造に含めること、または前記スライス群パラメータセットのシンタックス構造から不在にすることを含む。   In some embodiments, the method includes, by reference or inclusion, a syntax element associated with a change of a reference picture list in the syntax structure of the slice group parameter set, or from the syntax structure of the slice group parameter set. Including absence.

実施形態によっては、前記方法は、スライス群パラメータセットをネットワーク抽象化層ユニットとして符号化することを含む。   In some embodiments, the method includes encoding the slice group parameter set as a network abstraction layer unit.

実施形態によっては、前記方法は、ビットストリームにおけるスライス群パラメータセットのネットワーク抽象化層(NAL)ユニットを符号化スライスNALユニットと共に符号化することを含む。   In some embodiments, the method includes encoding a network abstraction layer (NAL) unit of a slice group parameter set in a bitstream with an encoded slice NAL unit.

第2の実施例によれば、少なくとも1つのプロセッサと、コンピュータプログラムコードを含む少なくとも1つのメモリとを備える装置が提供される。前記少なくとも1つのメモリおよび前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサを用いて、前記装置に:
・ 符号化ピクチャが含むスライスに対するシンタックス要素を第1のセットおよび第2のセットに分類することと;
・ 前記第1のセットおよび前記第2のセットに対するシンタックス要素値を決定することと;
・ 第1のスライス群パラメータセットまたはスライスヘッダにおいて前記第1のセットを選択的に符号化することであって、次のこと:
* 別のスライス群パラメータセットから前記関連する第1のセットの包含の標示情報を提供することと;
* 前記第1のセットのシンタックス要素値を符号化することと;
* 前記両方を省略すること
の何れか1つを含む、前記符号化することと;
・ 第2のスライス群パラメータセットまたはスライスヘッダにおいて前記第2のセットを選択的に符号化することであって、次のこと:
* 別のスライス群パラメータセットから前記関連する第2のセットの包含の標示情報を提供することと;
* 前記第2のセットのシンタックス要素値を符号化することと;
* 前記両方を省略すること
の何れか1つを含む、前記符号化すること
を遂行させるように構成される。
According to a second embodiment, an apparatus is provided comprising at least one processor and at least one memory containing computer program code. The at least one memory and the computer program code are stored in the device using the at least one processor:
Classifying the syntax elements for the slices that the encoded picture contains into a first set and a second set;
Determining syntax element values for the first set and the second set;
• selectively encoding the first set in a first slice group parameter set or slice header, the following:
Providing indication information of inclusion of the associated first set from another slice group parameter set;
* Encoding the first set of syntax element values;
* The encoding comprising any one of omitting both;
Selectively encoding the second set in a second slice group parameter set or slice header, the following:
* Providing indication information of inclusion of said related second set from another slice group parameter set;
* Encoding the second set of syntax element values;
* Configured to perform the encoding, including any one of omitting both.

前記装置の実施形態によっては、前記少なくとも1つのメモリおよび前記メモリに格納されるコードは、前記少なくとも1つのプロセッサによって実行されると、前記装置に更に、前記スライス群パラメータセットにシンタックス要素のサブセットを少なくとも1つ含めさせる。   In some embodiments of the apparatus, the at least one memory and the code stored in the memory are further executed by the at least one processor, the apparatus further includes a subset of syntax elements in the slice group parameter set. To include at least one.

前記装置の実施形態によっては、前記少なくとも1つのメモリおよび前記メモリに格納されるコードは、前記少なくとも1つのプロセッサによって実行されると、前記装置に更に、符号化済みまたは復号済みであるか、ビットストリームに既存の他のシンタックス構造から前記スライス群パラメータセットの内容またはインスタンスを推定させる。   In some embodiments of the apparatus, the at least one memory and the code stored in the memory are further encoded or decoded to the apparatus when executed by the at least one processor, or the bit Let the stream infer the contents or instances of the slice group parameter set from other existing syntax structures.

前記装置の実施形態によっては、前記少なくとも1つのメモリおよび前記メモリに格納されるコードは、前記少なくとも1つのプロセッサによって実行されると、前記装置に更に、ベースビューのテクスチャビューコンポーネントのスライスヘッダから前記スライス群パラメータセットを形成させる。   In some embodiments of the apparatus, the at least one memory and code stored in the memory are further executed by the at least one processor from the slice view of a texture view component of a base view to the apparatus. A slice group parameter set is formed.

前記装置の実施形態によっては、前記少なくとも1つのメモリおよび前記メモリに格納されるコードは、前記少なくとも1つのプロセッサによって実行されると、前記装置に更に、前記推定されたスライス群パラメータセットに対する識別値を作成させる。   In some embodiments of the apparatus, the at least one memory and the code stored in the memory are further executed by the at least one processor, the apparatus further comprising an identification value for the estimated slice group parameter set. To create.

前記装置の実施形態によっては、スライス群パラメータセットは、それに関連する特定のアクセスユニット内で有効である。   In some embodiments of the apparatus, the slice group parameter set is valid within the particular access unit associated with it.

前記装置の実施形態によっては、前記少なくとも1つのメモリおよび前記メモリに格納されるコードは、前記少なくとも1つのプロセッサによって実行されると、前記装置に更に、前記スライス群パラメータセットのシンタックス構造を、特定のアクセスユニットに関するネットワーク抽象化層ユニットシーケンスに含ませる。ここで、前記シーケンスは復号順またはビットストリームの順で、前記スライス群パラメータセットはその出現位置から前記アクセスユニットの最後まで有効である。   In some embodiments of the apparatus, when the at least one memory and code stored in the memory are executed by the at least one processor, the apparatus further includes a syntax structure of the slice group parameter set, Included in the network abstraction layer unit sequence for a particular access unit. Here, the sequence is in the order of decoding or bitstream, and the slice group parameter set is valid from its appearance position to the end of the access unit.

前記装置の実施形態によっては、前記スライス群パラメータセットは、複数のアクセスユニットに対して有効である。   In some embodiments of the apparatus, the slice group parameter set is valid for multiple access units.

前記装置の実施形態によっては、前記少なくとも1つのメモリおよび前記メモリに格納されるコードは、前記少なくとも1つのプロセッサによって実行されると、前記装置に更に、1つのアクセスユニットに対して複数のスライス群パラメータセットを符号化させる。   In some embodiments of the apparatus, the at least one memory and code stored in the memory are further executed by the at least one processor, the apparatus further comprising a plurality of slice groups for one access unit. Encode the parameter set.

前記装置の実施形態によっては、前記少なくとも1つのメモリおよび前記メモリに格納されるコードは、前記少なくとも1つのプロセッサによって実行されると、前記装置に更に、スライスヘッダにおけるシンタックス要素値の少なくとも1つのサブセットであって符号化されるサブセットが、後続のスライスヘッダにあるのと同一であるかを決定することと;そうである場合、ビットストリームにおいて前記スライス群パラメータセットを符号化することを遂行させる。   In some embodiments of the apparatus, the at least one memory and the code stored in the memory are further executed by the at least one processor, the apparatus further comprising at least one of syntax element values in a slice header. Determining whether the subset to be encoded is the same as in the subsequent slice header; and if so, encoding the slice group parameter set in the bitstream .

前記装置の実施形態によっては、前記少なくとも1つのメモリおよび前記メモリに格納されるコードは、前記少なくとも1つのプロセッサによって実行されると、前記装置に更に、前記スライス群パラメータセットのシンタックス構造に識別子を含ませる。   In some embodiments of the apparatus, the at least one memory and the code stored in the memory are further identifierd in the syntax structure of the slice group parameter set when executed by the at least one processor. Is included.

前記装置の実施形態によっては、前記少なくとも1つのメモリおよび前記メモリに格納されるコードは、前記少なくとも1つのプロセッサによって実行されると、前記装置に更に、スライス群パラメータセットの特定のインスタンスを参照するために前記識別子を使用させる。   In some embodiments of the device, the at least one memory and code stored in the memory further refer to the device for a particular instance of a slice group parameter set when executed by the at least one processor. The identifier is used for this purpose.

前記装置の実施形態によっては、前記少なくとも1つのメモリおよび前記メモリに格納されるコードは、前記少なくとも1つのプロセッサによって実行されると、前記装置に更に、スライスヘッダまたは別のスライス群パラメータセットから前記スライス群パラメータセットを参照するために、前記識別子を使用させる。   In some embodiments of the apparatus, the at least one memory and code stored in the memory are further executed by the at least one processor from the apparatus further from a slice header or another slice group parameter set. The identifier is used to refer to the slice group parameter set.

前記装置の実施形態によっては、前記少なくとも1つのメモリおよび前記メモリに格納されるコードは、前記少なくとも1つのプロセッサによって実行されると、前記装置に更に、前記識別子に対して所定の番号付け空間を使用させる。   In some embodiments of the apparatus, the at least one memory and the code stored in the memory, when executed by the at least one processor, further provide the apparatus with a predetermined numbering space for the identifier. Let it be used.

前記装置の実施形態によっては、前記少なくとも1つのメモリおよび前記メモリに格納されるコードは、前記少なくとも1つのプロセッサによって実行されると、前記装置に更に、第1のスライス群パラメータセットに対して特定のスライス群パラメータセット識別値を使用することと、前記第1のスライス群パラメータセットがスライスヘッダまたはスライス群パラメータセットの何れによっても参照されない場合、第2のスライス群パラメータセットに対して前記スライス群パラメータセット識別値を使用することを遂行させる。   In some embodiments of the apparatus, the at least one memory and code stored in the memory are further specified to the apparatus for a first slice group parameter set when executed by the at least one processor. The slice group parameter set identification value and if the first slice group parameter set is not referenced by either a slice header or a slice group parameter set, the slice group for the second slice group parameter set Using the parameter set identification value is accomplished.

前記装置の実施形態によっては、前記少なくとも1つのメモリおよび前記メモリに格納されるコードは、前記少なくとも1つのプロセッサによって実行されると、前記装置に更に、ビットストリーム内で前記スライス群パラメータセットのシンタックス構造を反復させる。   In some embodiments of the apparatus, the at least one memory and the code stored in the memory are further executed by the at least one processor when the apparatus further includes a synth of the slice group parameter set in a bitstream. Repeat the tax structure.

前記装置の実施形態によっては、前記少なくとも1つのメモリおよび前記メモリに格納されるコードは、前記少なくとも1つのプロセッサによって実行されると、前記装置に更に、前記スライス群パラメータセットのシンタックス構造のビットストリーム順序および所定の番号付け方式を用いて、前記スライス群パラメータセットのシンタックス構造を識別させる。   In some embodiments of the apparatus, the at least one memory and the code stored in the memory are further executed by the at least one processor, the apparatus further comprising a bit of a syntax structure of the slice group parameter set. The syntax structure of the slice group parameter set is identified using a stream order and a predetermined numbering scheme.

前記装置の実施形態によっては、前記少なくとも1つのメモリおよび前記メモリに格納されるコードは、前記少なくとも1つのプロセッサによって実行されると、前記装置に更に、次の少なくとも1つから、前記スライス群パラメータセットに対するシンタックス要素セットを形成させる:
スケーラブルレイヤおよび/または他のスケーラブル特性を示すシンタックス要素;
ビューおよび/または他のマルチビュー特性を示すシンタックス要素;
マルチビュービデオの特定のコンポーネントタイプに関連するシンタックス要素;
アクセスユニット識別情報に関連するシンタックス要素;
復号順序に関連するシンタックス要素;
出力順序に関連するシンタックス要素;
アクセスユニットの全スライスに対して不変である他のシンタックス要素に関連するシンタックス要素;
ビューコンポーネントの全スライスで不変であるシンタックス要素;
リファレンスピクチャ・リスト変更に関連するシンタックス要素;
使用されるリファレンスピクチャのセットに関連するシンタックス要素;
復号リファレンスピクチャ・マーキングに関連するシンタックス要素;
加重予測用の予測重みテーブルに関連するシンタックス要素;
デブロッキング・フィルタリングを制御するシンタックス要素;
適応ループフィルタリングを制御するシンタックス要素;
サンプル適応オフセットを制御するシンタックス要素。
In some embodiments of the apparatus, the at least one memory and code stored in the memory, when executed by the at least one processor, further include at least one of the following: Form a syntax element set for a set:
A syntax element indicating a scalable layer and / or other scalable characteristics;
A syntax element indicating a view and / or other multi-view characteristics;
Syntax elements associated with specific component types of multiview video;
Syntax elements associated with access unit identification information;
Syntax elements associated with the decoding order;
Syntax elements related to output order;
Syntax elements associated with other syntax elements that are invariant to all slices of the access unit;
A syntax element that is invariant across all slices of the view component;
Syntax elements related to reference picture list changes;
Syntax elements associated with the set of reference pictures used;
Syntax elements associated with decoding reference picture markings;
Syntax elements associated with the prediction weight table for weighted prediction;
A syntax element that controls deblocking filtering;
A syntax element that controls adaptive loop filtering;
A syntax element that controls the sample adaptive offset.

前記装置の実施形態によっては、前記少なくとも1つのメモリおよび前記メモリに格納されるコードは、前記少なくとも1つのプロセッサによって実行されると、前記装置に更に、前記スライス群パラメータセットを符号化するとき、次の1つ以上を遂行させる:
前記シンタックス要素をスライス群パラメータセットのシンタックス構造に符号化すること;
前記シンタックス要素セットを参照によってスライス群パラメータセットに含めること;
前記シンタックス要素セットが前記スライス群パラメータセットにないことを標示すること。
In some embodiments of the apparatus, when the at least one memory and the code stored in the memory are executed by the at least one processor, the apparatus further encodes the slice group parameter set when: Have one or more of the following:
Encoding the syntax element into a syntax structure of a slice group parameter set;
Including the syntax element set in the slice group parameter set by reference;
Indicating that the syntax element set is not in the slice group parameter set.

前記装置の実施形態によっては、前記少なくとも1つのメモリおよび前記メモリに格納されるコードは、前記少なくとも1つのプロセッサによって実行されると、前記装置に更に、スケーラブルレイヤに関連するシンタックス要素セットを前記スライス群パラメータセットに含めることと;ビューコンポーネントの全スライスで不変であるシンタックス要素を前記スライス群パラメータセットに含めることを遂行させる。   In some embodiments of the apparatus, the at least one memory and code stored in the memory, when executed by the at least one processor, further include a syntax element set associated with a scalable layer in the apparatus. Including in the slice group parameter set; including in the slice group parameter set syntax elements that are invariant in all slices of the view component.

前記装置の実施形態によっては、前記少なくとも1つのメモリおよび前記メモリに格納されるコードは、前記少なくとも1つのプロセッサによって実行されると、前記装置に更に、リファレンスピクチャ・リストの変更に関連するシンタックス要素を参照または包含によって前記スライス群パラメータセットのシンタックス構造に含めること、または前記スライス群パラメータセットのシンタックス構造から不在にすることを遂行させる。   In some embodiments of the apparatus, the at least one memory and the code stored in the memory are further executed by the at least one processor, the apparatus further includes syntax associated with a reference picture list change. An element is included in the syntax structure of the slice group parameter set by reference or inclusion, or is excluded from the syntax structure of the slice group parameter set.

前記装置の実施形態によっては、前記少なくとも1つのメモリおよび前記メモリに格納されるコードは、前記少なくとも1つのプロセッサによって実行されると、前記装置に更に、スライス群パラメータセットをネットワーク抽象化層ユニットとして符号化させる。   In some embodiments of the apparatus, the at least one memory and code stored in the memory are further executed by the at least one processor, the apparatus further comprising a slice group parameter set as a network abstraction layer unit. Encode.

前記装置の実施形態によっては、前記少なくとも1つのメモリおよび前記メモリに格納されるコードは、前記少なくとも1つのプロセッサによって実行されると、前記装置に更に、ビットストリームにおけるスライス群パラメータセットのネットワーク抽象化層(NAL)ユニットを符号化スライスNALユニットと共に符号化させる。   In some embodiments of the apparatus, the at least one memory and the code stored in the memory are further executed by the at least one processor, the apparatus further comprising a network abstraction of a slice group parameter set in a bitstream. A layer (NAL) unit is encoded with a coded slice NAL unit.

第3の実施例によれば、1つ以上の命令の1つ以上のシーケンスを含むコンピュータプログラム製品が提供される。前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、装置に少なくとも次のこと:
・ 符号化ピクチャが含むスライスに対するシンタックス要素を第1のセットおよび第2のセットに分類することと;
・ 前記第1のセットおよび前記第2のセットに対するシンタックス要素値を決定することと;
・ 第1のスライス群パラメータセットまたはスライスヘッダにおいて前記第1のセットを選択的に符号化することであって、次のこと:
* 別のスライス群パラメータセットから前記関連する第1のセットの包含の標示情報を提供することと;
* 前記第1のセットのシンタックス要素値を符号化することと;
* 前記両方を省略すること
の何れか1つを含む、前記符号化することと;
・ 第2のスライス群パラメータセットまたはスライスヘッダにおいて前記第2のセットを選択的に符号化することであって、次のこと:
* 別のスライス群パラメータセットから前記関連する第2のセットの包含の標示情報を提供することと;
* 前記第2のセットのシンタックス要素値を符号化することと;
* 前記両方を省略すること
の何れか1つを含む、前記符号化すること
を遂行させる。
According to a third embodiment, a computer program product is provided that includes one or more sequences of one or more instructions. When the one or more sequences of the one or more instructions are executed by one or more processors, the device at least:
Classifying the syntax elements for the slices that the encoded picture contains into a first set and a second set;
Determining syntax element values for the first set and the second set;
• selectively encoding the first set in a first slice group parameter set or slice header, the following:
Providing indication information of inclusion of the associated first set from another slice group parameter set;
* Encoding the first set of syntax element values;
* The encoding comprising any one of omitting both;
Selectively encoding the second set in a second slice group parameter set or slice header, the following:
* Providing indication information of inclusion of said related second set from another slice group parameter set;
* Encoding the second set of syntax element values;
* Performing the encoding, including any one of omitting both.

実施形態によっては、前記コンピュータプログラム製品は1つ以上の命令の1つ以上のシーケンスを含み、前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、前記装置に更に、前記スライス群パラメータセットにシンタックス要素のサブセットを少なくとも1つ含めさせる。   In some embodiments, the computer program product includes one or more sequences of one or more instructions, and when the one or more sequences of the one or more instructions are executed by one or more processors, the The apparatus further includes at least one subset of syntax elements in the slice group parameter set.

実施形態によっては、前記コンピュータプログラム製品は1つ以上の命令の1つ以上のシーケンスを含み、前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、前記装置に更に、符号化済みまたは復号済みであるか、ビットストリームに既存の他のシンタックス構造から前記スライス群パラメータセットの内容またはインスタンスを推定させる。   In some embodiments, the computer program product includes one or more sequences of one or more instructions, and when the one or more sequences of the one or more instructions are executed by one or more processors, the The apparatus further causes the bitstream to infer the content or instance of the slice group parameter set from other syntax structures already encoded or decoded.

実施形態によっては、前記コンピュータプログラム製品は1つ以上の命令の1つ以上のシーケンスを含み、前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、前記装置に更に、ベースビューのテクスチャビューコンポーネントのスライスヘッダから前記スライス群パラメータセットを形成させる。   In some embodiments, the computer program product includes one or more sequences of one or more instructions, and when the one or more sequences of the one or more instructions are executed by one or more processors, the The apparatus further causes the slice group parameter set to be formed from a slice header of the texture view component of the base view.

実施形態によっては、前記コンピュータプログラム製品は1つ以上の命令の1つ以上のシーケンスを含み、前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、前記装置に更に、前記推定されたスライス群パラメータセットに対する識別値を作成させる。   In some embodiments, the computer program product includes one or more sequences of one or more instructions, and when the one or more sequences of the one or more instructions are executed by one or more processors, the The apparatus is further caused to generate an identification value for the estimated slice group parameter set.

前記コンピュータプログラム製品の実施形態によっては、スライス群パラメータセットは、それに関連する特定のアクセスユニット内で有効である。   In some embodiments of the computer program product, the slice group parameter set is valid within a particular access unit associated with it.

実施形態によっては、前記コンピュータプログラム製品は1つ以上の命令の1つ以上のシーケンスを含み、前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、前記装置に更に、前記スライス群パラメータセットのシンタックス構造を、特定のアクセスユニットに関するネットワーク抽象化層ユニットシーケンスに含ませる。ここで、前記シーケンスは復号順またはビットストリームの順で、前記スライス群パラメータセットはその出現位置から前記アクセスユニットの最後まで有効である。   In some embodiments, the computer program product includes one or more sequences of one or more instructions, and when the one or more sequences of the one or more instructions are executed by one or more processors, the The apparatus further includes the syntax structure of the slice group parameter set in a network abstraction layer unit sequence for a specific access unit. Here, the sequence is in the order of decoding or bitstream, and the slice group parameter set is valid from its appearance position to the end of the access unit.

前記コンピュータプログラム製品の実施形態によっては、前記スライス群パラメータセットは、複数のアクセスユニットに対して有効である。   In some embodiments of the computer program product, the slice group parameter set is valid for a plurality of access units.

実施形態によっては、前記コンピュータプログラム製品は1つ以上の命令の1つ以上のシーケンスを含み、前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、前記装置に更に、1つのアクセスユニットに対して複数のスライス群パラメータセットを符号化させる。   In some embodiments, the computer program product includes one or more sequences of one or more instructions, and when the one or more sequences of the one or more instructions are executed by one or more processors, the The apparatus further encodes a plurality of slice group parameter sets for one access unit.

実施形態によっては、前記コンピュータプログラム製品は1つ以上の命令の1つ以上のシーケンスを含み、前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、前記装置に更に、スライスヘッダにおけるシンタックス要素値の少なくとも1つのサブセットであって符号化されるサブセットが、後続のスライスヘッダにあるのと同一であるかを決定することと;そうである場合、ビットストリームにおいて前記スライス群パラメータセットを符号化することを遂行させる。   In some embodiments, the computer program product includes one or more sequences of one or more instructions, and when the one or more sequences of the one or more instructions are executed by one or more processors, the The apparatus further determines whether at least one subset of the syntax element values in the slice header that are encoded is identical to that in the subsequent slice header; Encoding the slice group parameter set in a stream is performed.

実施形態によっては、前記コンピュータプログラム製品は1つ以上の命令の1つ以上のシーケンスを含み、前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、前記装置に更に、前記スライス群パラメータセットのシンタックス構造に識別子を含ませる。   In some embodiments, the computer program product includes one or more sequences of one or more instructions, and when the one or more sequences of the one or more instructions are executed by one or more processors, the The apparatus further includes an identifier in the syntax structure of the slice group parameter set.

実施形態によっては、前記コンピュータプログラム製品は1つ以上の命令の1つ以上のシーケンスを含み、前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、前記装置に更に、スライス群パラメータセットの特定のインスタンスを参照するために前記識別子を使用させる。   In some embodiments, the computer program product includes one or more sequences of one or more instructions, and when the one or more sequences of the one or more instructions are executed by one or more processors, the The apparatus further causes the identifier to be used to refer to a specific instance of the slice group parameter set.

実施形態によっては、前記コンピュータプログラム製品は1つ以上の命令の1つ以上のシーケンスを含み、前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、前記装置に更に、スライスヘッダまたは別のスライス群パラメータセットから前記スライス群パラメータセットを参照するために、前記識別子を使用させる。   In some embodiments, the computer program product includes one or more sequences of one or more instructions, and when the one or more sequences of the one or more instructions are executed by one or more processors, the The apparatus further causes the identifier to be used to reference the slice group parameter set from a slice header or another slice group parameter set.

実施形態によっては、前記コンピュータプログラム製品は1つ以上の命令の1つ以上のシーケンスを含み、前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、前記装置に更に、前記識別子に対して所定の番号付け空間を使用させる。   In some embodiments, the computer program product includes one or more sequences of one or more instructions, and when the one or more sequences of the one or more instructions are executed by one or more processors, the The apparatus further causes a predetermined numbering space to be used for the identifier.

実施形態によっては、前記コンピュータプログラム製品は1つ以上の命令の1つ以上のシーケンスを含み、前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、前記装置に更に、第1のスライス群パラメータセットに対して特定のスライス群パラメータセット識別値を使用することと、前記第1のスライス群パラメータセットがスライスヘッダまたはスライス群パラメータセットの何れによっても参照されない場合、第2のスライス群パラメータセットに対して前記スライス群パラメータセット識別値を使用することを遂行させる。   In some embodiments, the computer program product includes one or more sequences of one or more instructions, and when the one or more sequences of the one or more instructions are executed by one or more processors, the The apparatus further uses a specific slice group parameter set identification value for the first slice group parameter set, and the first slice group parameter set is not referenced by either the slice header or the slice group parameter set. The slice group parameter set identification value is used for the second slice group parameter set.

実施形態によっては、前記コンピュータプログラム製品は1つ以上の命令の1つ以上のシーケンスを含み、前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、前記装置に更に、ビットストリーム内で前記スライス群パラメータセットのシンタックス構造を反復させる。   In some embodiments, the computer program product includes one or more sequences of one or more instructions, and when the one or more sequences of the one or more instructions are executed by one or more processors, the The apparatus further repeats the syntax structure of the slice group parameter set in the bitstream.

実施形態によっては、前記コンピュータプログラム製品は1つ以上の命令の1つ以上のシーケンスを含み、前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、前記装置に更に、前記スライス群パラメータセットのシンタックス構造のビットストリーム順序および所定の番号付け方式を用いて、前記スライス群パラメータセットのシンタックス構造を識別させる。   In some embodiments, the computer program product includes one or more sequences of one or more instructions, and when the one or more sequences of the one or more instructions are executed by one or more processors, the The apparatus further identifies the syntax structure of the slice group parameter set using a bitstream order of the syntax structure of the slice group parameter set and a predetermined numbering scheme.

実施形態によっては、前記コンピュータプログラム製品は1つ以上の命令の1つ以上のシーケンスを含み、前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、前記装置に更に、次の少なくとも1つから、前記スライス群パラメータセットに対するシンタックス要素セットを形成させる:
スケーラブルレイヤおよび/または他のスケーラブル特性を示すシンタックス要素;
ビューおよび/または他のマルチビュー特性を示すシンタックス要素;
マルチビュービデオの特定のコンポーネントタイプに関連するシンタックス要素;
アクセスユニット識別情報に関連するシンタックス要素;
復号順序に関連するシンタックス要素;
出力順序に関連するシンタックス要素;
アクセスユニットの全スライスに対して不変である他のシンタックス要素に関連するシンタックス要素;
ビューコンポーネントの全スライスで不変であるシンタックス要素;
リファレンスピクチャ・リスト変更に関連するシンタックス要素;
使用されるリファレンスピクチャのセットに関連するシンタックス要素;
復号リファレンスピクチャ・マーキングに関連するシンタックス要素;
加重予測用の予測重みテーブルに関連するシンタックス要素;
デブロッキング・フィルタリングを制御するシンタックス要素;
適応ループフィルタリングを制御するシンタックス要素;
サンプル適応オフセットを制御するシンタックス要素。
In some embodiments, the computer program product includes one or more sequences of one or more instructions, and when the one or more sequences of the one or more instructions are executed by one or more processors, the The apparatus further causes a syntax element set for the slice group parameter set to be formed from at least one of the following:
A syntax element indicating a scalable layer and / or other scalable characteristics;
A syntax element indicating a view and / or other multi-view characteristics;
Syntax elements associated with specific component types of multiview video;
Syntax elements associated with access unit identification information;
Syntax elements associated with the decoding order;
Syntax elements related to output order;
Syntax elements associated with other syntax elements that are invariant to all slices of the access unit;
A syntax element that is invariant across all slices of the view component;
Syntax elements related to reference picture list changes;
Syntax elements associated with the set of reference pictures used;
Syntax elements associated with decoding reference picture markings;
Syntax elements associated with the prediction weight table for weighted prediction;
A syntax element that controls deblocking filtering;
A syntax element that controls adaptive loop filtering;
A syntax element that controls the sample adaptive offset.

実施形態によっては、前記コンピュータプログラム製品は1つ以上の命令の1つ以上のシーケンスを含み、前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、前記装置に更に、前記スライス群パラメータセットを符号化するとき、次の1つ以上を遂行させる:
前記シンタックス要素をスライス群パラメータセットのシンタックス構造に符号化すること;
前記シンタックス要素セットを参照によってスライス群パラメータセットに含めること;
前記シンタックス要素セットが前記スライス群パラメータセットにないことを標示すること。
In some embodiments, the computer program product includes one or more sequences of one or more instructions, and when the one or more sequences of the one or more instructions are executed by one or more processors, the The apparatus further causes the encoding of the slice group parameter set to perform one or more of the following:
Encoding the syntax element into a syntax structure of a slice group parameter set;
Including the syntax element set in the slice group parameter set by reference;
Indicating that the syntax element set is not in the slice group parameter set.

実施形態によっては、前記コンピュータプログラム製品は1つ以上の命令の1つ以上のシーケンスを含み、前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、前記装置に更に、スケーラブルレイヤに関連するシンタックス要素セットを前記スライス群パラメータセットに含めることと;ビューコンポーネントの全スライスで不変であるシンタックス要素を前記スライス群パラメータセットに含めることを遂行させる。   In some embodiments, the computer program product includes one or more sequences of one or more instructions, and when the one or more sequences of the one or more instructions are executed by one or more processors, the The apparatus further causes a set of syntax elements associated with the scalable layer to be included in the slice group parameter set; and a syntax element that is invariant in all slices of a view component is included in the slice group parameter set.

実施形態によっては、前記コンピュータプログラム製品は1つ以上の命令の1つ以上のシーケンスを含み、前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、前記装置に更に、リファレンスピクチャ・リストの変更に関連するシンタックス要素を参照または包含によって前記スライス群パラメータセットのシンタックス構造に含めること、または前記スライス群パラメータセットのシンタックス構造から不在にすることを遂行させる。   In some embodiments, the computer program product includes one or more sequences of one or more instructions, and when the one or more sequences of the one or more instructions are executed by one or more processors, the The apparatus may further include, by reference or inclusion, a syntax element related to the change of the reference picture list in the syntax structure of the slice group parameter set, or to be absent from the syntax structure of the slice group parameter set. Let it be carried out.

実施形態によっては、前記コンピュータプログラム製品は1つ以上の命令の1つ以上のシーケンスを含み、前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、前記装置に更に、スライス群パラメータセットをネットワーク抽象化層ユニットとして符号化させる。   In some embodiments, the computer program product includes one or more sequences of one or more instructions, and when the one or more sequences of the one or more instructions are executed by one or more processors, the The apparatus further encodes the slice group parameter set as a network abstraction layer unit.

実施形態によっては、前記コンピュータプログラム製品は1つ以上の命令の1つ以上のシーケンスを含み、前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、前記装置に更に、ビットストリームにおけるスライス群パラメータセットのネットワーク抽象化層(NAL)ユニットを符号化スライスNALユニットと共に符号化させる。   In some embodiments, the computer program product includes one or more sequences of one or more instructions, and when the one or more sequences of the one or more instructions are executed by one or more processors, the The apparatus further causes a network abstraction layer (NAL) unit of the slice group parameter set in the bitstream to be encoded along with the encoded slice NAL unit.

第4の実施例によれば、次の装置が提供され、この装置は、
・ 符号化ピクチャが含むスライスに対するシンタックス要素を第1のセットおよび第2のセットに分類する手段と;
・ 前記第1のセットおよび前記第2のセットに対するシンタックス要素値を決定する手段と;
・ 第1のスライス群パラメータセットまたはスライスヘッダにおいて前記第1のセットを選択的に符号化する手段であって、前記符号化する手段は次のこと:
* 別のスライス群パラメータセットから前記関連する第1のセットの包含の標示情報を提供することと;
* 前記第1のセットのシンタックス要素値を符号化することと;
* 前記両方を省略すること
の何れか1つを含む、前記符号化する手段と;
・ 第2のスライス群パラメータセットまたはスライスヘッダにおいて前記第2のセットを選択的に符号化する手段であって、前記符号化する手段は次のこと:
* 別のスライス群パラメータセットから前記関連する第2のセットの包含の標示情報を提供することと;
* 前記第2のセットのシンタックス要素値を符号化することと;
* 前記両方を省略すること
の何れか1つを含む、前記符号化する手段
を備える。
According to a fourth embodiment, the following device is provided, which is
Means for classifying syntax elements for slices included in the coded picture into a first set and a second set;
Means for determining syntax element values for the first set and the second set;
Means for selectively encoding the first set in a first slice group parameter set or slice header, wherein the means for encoding is:
Providing indication information of inclusion of the associated first set from another slice group parameter set;
* Encoding the first set of syntax element values;
* The means for encoding comprising any one of omitting both;
Means for selectively encoding said second set in a second slice group parameter set or slice header, said means for encoding being:
* Providing indication information of inclusion of said related second set from another slice group parameter set;
* Encoding the second set of syntax element values;
* The means for encoding comprises any one of omitting both.

第5の実施例によれば、次の方法が提供され、この方法は、符号化ピクチャの符号化スライスを復号することを含み、前記復号することは、
・ 前記符号化スライスをスライスヘッダまたはスライス群パラメータセットの何れかに復号するために使用される、第1のシンタックス要素セットにおける第1の位置および第2のシンタックス要素セットにおける第2の位置を識別することと;
・ 前記符号化スライスの復号用に使用されるように、前記第1のシンタックス要素セットおよび前記第2のシンタックス要素セットを復号することを含み、該第1および第2のセットを復号することは:
* 第3のスライス群パラメータセットから前記関連する第1のセットの包含を示す第1の標示情報を復号し、前記第3のスライス群パラメータセットを示す前記第1の標示情報への応答として、前記第3のスライス群パラメータセットから前記関連する第1のシンタックス要素セットを復号することと;
* 第4のスライス群パラメータセットから前記関連する第2のセットの包含を示す第2の標示情報を復号し、前記第4のスライス群パラメータセットを示す前記第2の標示情報への応答として、前記第4のスライス群パラメータセットから前記関連する第2のシンタックス要素セットを復号することと;
* 前記復号された第1のシンタックス要素セットおよび第2のシンタックス要素セットを用いて、前記符号化スライスを復号すること
を含む。
According to a fifth embodiment, the following method is provided, comprising decoding a coded slice of a coded picture, said decoding comprising:
A first position in a first syntax element set and a second position in a second syntax element set used to decode the encoded slice into either a slice header or a slice group parameter set Identifying;
Decoding the first syntax element set and the second syntax element set to be used for decoding the encoded slice, and decoding the first and second sets The thing is:
* Decoding first indication information indicating inclusion of the associated first set from a third slice group parameter set, and in response to the first indication information indicating the third slice group parameter set, Decoding the associated first syntax element set from the third slice group parameter set;
* Decoding second indication information indicating inclusion of the related second set from a fourth slice group parameter set, and in response to the second indication information indicating the fourth slice group parameter set, Decoding the associated second syntax element set from the fourth slice group parameter set;
* Decoding the encoded slice using the decoded first syntax element set and second syntax element set.

実施形態によっては、前記要素は、前記第1の標示情報が前記第3のスライス群パラメータセットを示さない場合、前記第1のセットのシンタックス要素を復号することを含む。   In some embodiments, the element includes decoding the first set of syntax elements when the first indication information does not indicate the third slice group parameter set.

実施形態によっては、前記要素は、前記第2の標示情報が前記第4のスライス群パラメータセットを示さない場合、前記第2のセットのシンタックス要素を復号することを含む。   In some embodiments, the element includes decoding the second set of syntax elements if the second indication information does not indicate the fourth slice group parameter set.

第6の実施例によれば、少なくとも1つのプロセッサと、コンピュータプログラムコードを含む少なくとも1つのメモリとを備える装置が提供される。前記少なくとも1つのメモリおよび前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサを用いて、前記装置に:
符号化ピクチャの符号化スライスを復号させるように構成され、前記復号することは、
・ 前記符号化スライスをスライスヘッダまたはスライス群パラメータセットの何れかに復号するために使用される、第1のシンタックス要素セットにおける第1の位置および第2のシンタックス要素セットにおける第2の位置を識別することと;
・ 前記符号化スライスの復号用に使用されるように、前記第1のシンタックス要素セットおよび前記第2のシンタックス要素セットを復号することによって遂行され、該第1および第2のセットを復号することは:
* 第3のスライス群パラメータセットから前記関連する第1のセットの包含を示す第1の標示情報を復号し、前記第3のスライス群パラメータセットを示す前記第1の標示情報への応答として、前記第3のスライス群パラメータセットから前記関連する第1のシンタックス要素セットを復号することと;
* 第4のスライス群パラメータセットから前記関連する第2のセットの包含を示す第2の標示情報を復号し、前記第4のスライス群パラメータセットを示す前記第2の標示情報への応答として、前記第4のスライス群パラメータセットから前記関連する第2のシンタックス要素セットを復号することと;
* 前記復号された第1のシンタックス要素セットおよび第2のシンタックス要素セットを用いて、前記符号化スライスを復号すること
を含む。
According to a sixth embodiment, an apparatus is provided comprising at least one processor and at least one memory containing computer program code. The at least one memory and the computer program code are stored in the device using the at least one processor:
Configured to decode an encoded slice of an encoded picture, said decoding comprising:
A first position in a first syntax element set and a second position in a second syntax element set used to decode the encoded slice into either a slice header or a slice group parameter set Identifying;
Decoding the first and second set of sets, performed by decoding the first set of syntax elements and the second set of syntax elements to be used for decoding the coded slice To do:
* Decoding first indication information indicating inclusion of the associated first set from a third slice group parameter set, and in response to the first indication information indicating the third slice group parameter set, Decoding the associated first syntax element set from the third slice group parameter set;
* Decoding second indication information indicating inclusion of the related second set from a fourth slice group parameter set, and in response to the second indication information indicating the fourth slice group parameter set, Decoding the associated second syntax element set from the fourth slice group parameter set;
* Decoding the encoded slice using the decoded first syntax element set and second syntax element set.

前記装置の実施形態によっては、前記少なくとも1つのメモリおよび前記メモリに格納されるコードは、前記少なくとも1つのプロセッサによって実行されると、前記装置に更に、前記第1の標示情報が前記第3のスライス群パラメータセットを示さない場合、前記第1のセットのシンタックス要素を復号させる。   In some embodiments of the apparatus, when the at least one memory and code stored in the memory are executed by the at least one processor, the apparatus further includes the first indication information as the third indication information. If no slice group parameter set is indicated, the first set of syntax elements is decoded.

前記装置の実施形態によっては、前記少なくとも1つのメモリおよび前記メモリに格納されるコードは、前記少なくとも1つのプロセッサによって実行されると、前記装置に更に、前記第2の標示情報が前記第4のスライス群パラメータセットを示さない場合、前記第2のセットのシンタックス要素を復号させる。   In some embodiments of the apparatus, when the at least one memory and code stored in the memory are executed by the at least one processor, the apparatus further includes the second indication information as the fourth indication information. If no slice group parameter set is indicated, the second set of syntax elements is decoded.

第7の実施例によれば、1つ以上の命令の1つ以上のシーケンスを含むコンピュータプログラム製品が提供される。前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、装置に少なくとも、
符号化ピクチャの符号化スライスを復号させ、ここで、前記復号することは、
・ 前記符号化スライスをスライスヘッダまたはスライス群パラメータセットの何れかに復号するために使用される、第1のシンタックス要素セットにおける第1の位置および第2のシンタックス要素セットにおける第2の位置を識別することと;
・ 前記符号化スライスの復号用に使用されるように、前記第1のシンタックス要素セットおよび前記第2のシンタックス要素セットを復号することによって遂行され、該第1および第2のセットを復号することは:
* 第3のスライス群パラメータセットから前記関連する第1のセットの包含を示す第1の標示情報を復号し、前記第3のスライス群パラメータセットを示す前記第1の標示情報への応答として、前記第3のスライス群パラメータセットから前記関連する第1のシンタックス要素セットを復号することと;
* 第4のスライス群パラメータセットから前記関連する第2のセットの包含を示す第2の標示情報を復号し、前記第4のスライス群パラメータセットを示す前記第2の標示情報への応答として、前記第4のスライス群パラメータセットから前記関連する第2のシンタックス要素セットを復号することと;
* 前記復号された第1のシンタックス要素セットおよび第2のシンタックス要素セットを用いて、前記符号化スライスを復号すること
を含む。
According to a seventh embodiment, a computer program product is provided that includes one or more sequences of one or more instructions. When the one or more sequences of the one or more instructions are executed by one or more processors, at least on the device,
Decoding an encoded slice of an encoded picture, wherein the decoding comprises:
A first position in a first syntax element set and a second position in a second syntax element set used to decode the encoded slice into either a slice header or a slice group parameter set Identifying;
Decoding the first and second set of sets, performed by decoding the first set of syntax elements and the second set of syntax elements to be used for decoding the coded slice To do:
* Decoding first indication information indicating inclusion of the associated first set from a third slice group parameter set, and in response to the first indication information indicating the third slice group parameter set, Decoding the associated first syntax element set from the third slice group parameter set;
* Decoding second indication information indicating inclusion of the related second set from a fourth slice group parameter set, and in response to the second indication information indicating the fourth slice group parameter set, Decoding the associated second syntax element set from the fourth slice group parameter set;
* Decoding the encoded slice using the decoded first syntax element set and second syntax element set.

実施形態によっては、前記コンピュータプログラム製品は1つ以上の命令の1つ以上のシーケンスを含み、前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、前記装置に、前記第1の標示情報が前記第3のスライス群パラメータセットを示さない場合、前記第1のセットのシンタックス要素を復号させる。   In some embodiments, the computer program product includes one or more sequences of one or more instructions, and when the one or more sequences of the one or more instructions are executed by one or more processors, the If the first indication information does not indicate the third slice group parameter set, the apparatus causes the first set of syntax elements to be decoded.

実施形態によっては、前記コンピュータプログラム製品は1つ以上の命令の1つ以上のシーケンスを含み、前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、前記装置に、前記第2の標示情報が前記第4のスライス群パラメータセットを示さない場合、前記第2のセットのシンタックス要素を復号させる。   In some embodiments, the computer program product includes one or more sequences of one or more instructions, and when the one or more sequences of the one or more instructions are executed by one or more processors, the If the second indication information does not indicate the fourth slice group parameter set, the apparatus causes the second set of syntax elements to be decoded.

第8の実施例によれば、次の方法が提供され、この方法は、
符号化ピクチャの符号化スライスを復号することを含み、前記復号することは、
・ 前記符号化スライスをスライスヘッダまたはスライス群パラメータセットの何れかに復号するために使用される、第1のシンタックス要素セットにおける第1の位置および第2のシンタックス要素セットにおける第2の位置を識別することと;
・ 前記符号化スライスの復号用に使用されるように、前記第1のシンタックス要素セットおよび前記第2のシンタックス要素セットを復号することによって遂行され、該第1および第2のセットを復号することは:
* 第3のスライス群パラメータセットから前記関連する第1のセットの包含を示す第1の標示情報を復号し、前記第3のスライス群パラメータセットを示す前記第1の標示情報への応答として、前記第3のスライス群パラメータセットから前記関連する第1のシンタックス要素セットを復号すること、または、前記第1の標示情報が前記第3のスライス群パラメータセットを示さない場合、前記第1のセットのシンタックス要素を復号することと;
* 第4のスライス群パラメータセットから前記関連する第2のセットの包含を示す第2の標示情報を復号し、前記第4のスライス群パラメータセットを示す前記第2の標示情報への応答として、前記第4のスライス群パラメータセットから前記関連する第2のシンタックス要素セットを復号すること、または、前記第2の標示情報が前記第4のスライス群パラメータセットを示さない場合、前記第2のセットのシンタックス要素を復号することと;
* 前記復号された第1のシンタックス要素セットおよび第2のシンタックス要素セットを用いて、前記符号化スライスを復号すること
を含む。
According to the eighth embodiment, the following method is provided, which comprises:
Decoding a coded slice of a coded picture, said decoding comprising:
A first position in a first syntax element set and a second position in a second syntax element set used to decode the encoded slice into either a slice header or a slice group parameter set Identifying;
Decoding the first and second set of sets, performed by decoding the first set of syntax elements and the second set of syntax elements to be used for decoding the coded slice To do:
* Decoding first indication information indicating inclusion of the associated first set from a third slice group parameter set, and in response to the first indication information indicating the third slice group parameter set, Decoding the associated first syntax element set from the third slice group parameter set, or if the first indication information does not indicate the third slice group parameter set, the first slice group parameter set Decoding the syntax elements of the set;
* Decoding second indication information indicating inclusion of the related second set from a fourth slice group parameter set, and in response to the second indication information indicating the fourth slice group parameter set, Decoding the associated second syntax element set from the fourth slice group parameter set, or if the second indication information does not indicate the fourth slice group parameter set, the second slice group parameter set Decoding the syntax elements of the set;
* Decoding the encoded slice using the decoded first syntax element set and second syntax element set.

実施形態によっては、前記スライス群パラメータセットからシンタックス要素のサブセットを少なくとも1つ復号することを、前記方法が含む。   In some embodiments, the method includes decoding at least one subset of syntax elements from the slice group parameter set.

実施形態によっては、前記方法は、符号化済みまたは復号済みであるか、ビットストリームに既存の他のシンタックス構造から前記スライス群パラメータセットの内容またはインスタンスを推定することを含む。   In some embodiments, the method includes estimating the content or instance of the slice group parameter set from other syntax structures that are encoded or decoded or already in the bitstream.

実施形態によっては、前記方法は、前記推定されたスライス群パラメータセットを示す識別値を復号することを含む。   In some embodiments, the method includes decoding an identification value indicative of the estimated slice group parameter set.

前記方法の実施形態によっては、スライス群パラメータセットは、それに関連する特定のアクセスユニット内で有効である。   In some embodiments of the method, the slice group parameter set is valid within a particular access unit associated with it.

前記方法の実施形態によっては、前記スライス群パラメータセットのシンタックス構造は、特定のアクセスユニットに関するネットワーク抽象化層ユニットシーケンスに含まれ、前記シーケンスは復号順またはビットストリームの順で、前記スライス群パラメータセットはその出現位置から前記アクセスユニットの最後まで有効である。   In some embodiments of the method, the syntax structure of the slice group parameter set is included in a network abstraction layer unit sequence for a specific access unit, the sequence being in decoding order or bitstream order, the slice group parameter set. The set is valid from its appearance position to the end of the access unit.

前記方法の実施形態によっては、前記スライス群パラメータセットは、複数のアクセスユニットに対して有効である。   In some embodiments of the method, the slice group parameter set is valid for multiple access units.

実施形態によっては、前記方法は、1つのアクセスユニットに対して複数のスライス群パラメータセットを復号することを含む。   In some embodiments, the method includes decoding a plurality of slice group parameter sets for one access unit.

前記方法の実施形態によっては、前記スライス群パラメータセットのシンタックス構造が識別子を含む。   In some embodiments of the method, the syntax structure of the slice group parameter set includes an identifier.

実施形態によっては、前記方法は、スライス群パラメータセットの特定のインスタンスを参照するために前記識別子を用いることを含む。   In some embodiments, the method includes using the identifier to refer to a particular instance of a slice group parameter set.

実施形態によっては、前記方法は、スライスヘッダまたは別のスライス群パラメータセットから前記スライス群パラメータセットを参照するために、前記識別子を用いることを含む。   In some embodiments, the method includes using the identifier to reference the slice group parameter set from a slice header or another slice group parameter set.

前記方法の実施形態によっては、前記識別子に対して所定の番号付け空間が使用される。   In some method embodiments, a predetermined numbering space is used for the identifier.

実施形態によっては、前記方法は、第1のスライス群パラメータセットに対して特定のスライス群パラメータセット識別値を使用することと、前記第1のスライス群パラメータセットがスライスヘッダまたはスライス群パラメータセットの何れによっても参照されない場合、第2のスライス群パラメータセットに対して前記スライス群パラメータセット識別値を使用することを含む。   In some embodiments, the method uses a specific slice group parameter set identification value for the first slice group parameter set, and the first slice group parameter set is a slice header or a slice group parameter set. If not referenced by any, it includes using the slice group parameter set identification value for a second slice group parameter set.

実施形態によっては、前記方法は、ビットストリームから反復してスライス群パラメータセットのシンタックス構造を復号することを含む。   In some embodiments, the method includes iterating from the bitstream to decode the syntax structure of the slice group parameter set.

実施形態によっては、前記方法は、前記スライス群パラメータセットのシンタックス構造のビットストリーム順序および所定の番号付け方式を用いて、前記スライス群パラメータセットのシンタックス構造を識別することを含む。   In some embodiments, the method includes identifying the syntax structure of the slice group parameter set using a bitstream order of the syntax structure of the slice group parameter set and a predetermined numbering scheme.

実施形態によっては、前記方法は、次の少なくとも1つを取得するために、前記スライス群パラメータセットに対するシンタックス要素セットを復号することを含む:
スケーラブルレイヤおよび/または他のスケーラブル特性を示すシンタックス要素;
ビューおよび/または他のマルチビュー特性を示すシンタックス要素;
マルチビュービデオの特定のコンポーネントタイプに関連するシンタックス要素;
アクセスユニット識別情報に関連するシンタックス要素;
復号順序に関連するシンタックス要素;
出力順序に関連するシンタックス要素;
アクセスユニットの全スライスに対して不変である他のシンタックス要素に関連するシンタックス要素;
ビューコンポーネントの全スライスで不変であるシンタックス要素;
リファレンスピクチャ・リスト変更に関連するシンタックス要素;
使用されるリファレンスピクチャのセットに関連するシンタックス要素;
復号リファレンスピクチャ・マーキングに関連するシンタックス要素;
加重予測用の予測重みテーブルに関連するシンタックス要素;
デブロッキング・フィルタリングを制御するシンタックス要素;
適応ループフィルタリングを制御するシンタックス要素;
サンプル適応オフセットを制御するシンタックス要素。
In some embodiments, the method includes decoding a syntax element set for the slice group parameter set to obtain at least one of the following:
A syntax element indicating a scalable layer and / or other scalable characteristics;
A syntax element indicating a view and / or other multi-view characteristics;
Syntax elements associated with specific component types of multiview video;
Syntax elements associated with access unit identification information;
Syntax elements associated with the decoding order;
Syntax elements related to output order;
Syntax elements associated with other syntax elements that are invariant to all slices of the access unit;
A syntax element that is invariant across all slices of the view component;
Syntax elements related to reference picture list changes;
Syntax elements associated with the set of reference pictures used;
Syntax elements associated with decoding reference picture markings;
Syntax elements associated with the prediction weight table for weighted prediction;
A syntax element that controls deblocking filtering;
A syntax element that controls adaptive loop filtering;
A syntax element that controls the sample adaptive offset.

実施形態によっては、前記要素は、前記スライス群パラメータセットを復号するとき、次の1つ以上を含む:
スライス群パラメータセットのシンタックス構造から前記シンタックス要素を復号すること;
前記シンタックス要素セットが前記スライス群パラメータセットへの参照によって包含されていたかを決定すること;
前記シンタックス要素セットが前記スライス群パラメータセットにないことが標示されているかを決定すること。
In some embodiments, the elements include one or more of the following when decoding the slice group parameter set:
Decoding the syntax element from the syntax structure of the slice group parameter set;
Determining whether the syntax element set was included by reference to the slice group parameter set;
Determining whether the syntax element set is marked not in the slice group parameter set.

実施形態によっては、前記方法は、前記スライス群パラメータセットからスケーラブルレイヤに関連するシンタックス要素セットを復号することと;前記スライス群パラメータセットからビューコンポーネントの全スライスで不変であるシンタックス要素を復号することを含む。   In some embodiments, the method decodes a syntax element set associated with a scalable layer from the slice group parameter set; and decodes a syntax element that is invariant for all slices of a view component from the slice group parameter set. Including doing.

実施形態によっては、前記方法は、リファレンスピクチャ・リストの変更に関連するシンタックス要素が、参照または包含によって前記スライス群パラメータセットのシンタックス構造に含まれているか、または前記スライス群パラメータセットのシンタックス構造に存在しないかを決定することを含む。   In some embodiments, the method includes that a syntax element associated with a change of a reference picture list is included in the syntax structure of the slice group parameter set by reference or inclusion, or a syntax of the slice group parameter set. Determining whether it is not present in the tax structure.

実施形態によっては、前記方法は、ネットワーク抽象化層ユニットからスライス群パラメータセットを復号することを含む。   In some embodiments, the method includes decoding a slice group parameter set from a network abstraction layer unit.

実施形態によっては、前記方法は、ビットストリームからスライス群パラメータセットのネットワーク抽象化層(NAL)ユニットを符号化スライスNALユニットと共に復号することを含む。   In some embodiments, the method includes decoding a network abstraction layer (NAL) unit of a slice group parameter set with a coded slice NAL unit from a bitstream.

第9の実施例によれば、少なくとも1つのプロセッサと、コンピュータプログラムコードを含む少なくとも1つのメモリとを備える装置が提供される。前記少なくとも1つのメモリおよび前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサを用いて、前記装置に:
符号化ピクチャの符号化スライスを復号させ、ここで、前記復号することは、
・ 前記符号化スライスをスライスヘッダまたはスライス群パラメータセットの何れかに復号するために使用される、第1のシンタックス要素セットにおける第1の位置および第2のシンタックス要素セットにおける第2の位置を識別することと;
・ 前記符号化スライスの復号用に使用されるように、前記第1のシンタックス要素セットおよび前記第2のシンタックス要素セットを復号することによって遂行され、該第1および第2のセットを復号することは:
* 第3のスライス群パラメータセットから前記関連する第1のセットの包含を示す第1の標示情報を復号し、前記第3のスライス群パラメータセットを示す前記第1の標示情報への応答として、前記第3のスライス群パラメータセットから前記関連する第1のシンタックス要素セットを復号すること、または、前記第1の標示情報が前記第3のスライス群パラメータセットを示さない場合、前記第1のセットのシンタックス要素を復号することと;
* 第4のスライス群パラメータセットから前記関連する第2のセットの包含を示す第2の標示情報を復号し、前記第4のスライス群パラメータセットを示す前記第2の標示情報への応答として、前記第4のスライス群パラメータセットから前記関連する第2のシンタックス要素セットを復号すること、または、前記第2の標示情報が前記第4のスライス群パラメータセットを示さない場合、前記第2のセットのシンタックス要素を復号することと;
* 前記復号された第1のシンタックス要素セットおよび第2のシンタックス要素セットを用いて、前記符号化スライスを復号すること
を含む。
According to a ninth embodiment, an apparatus is provided comprising at least one processor and at least one memory containing computer program code. The at least one memory and the computer program code are stored in the device using the at least one processor:
Decoding an encoded slice of an encoded picture, wherein the decoding comprises:
A first position in a first syntax element set and a second position in a second syntax element set used to decode the encoded slice into either a slice header or a slice group parameter set Identifying;
Decoding the first and second set of sets, performed by decoding the first set of syntax elements and the second set of syntax elements to be used for decoding the coded slice To do:
* Decoding first indication information indicating inclusion of the associated first set from a third slice group parameter set, and in response to the first indication information indicating the third slice group parameter set, Decoding the associated first syntax element set from the third slice group parameter set, or if the first indication information does not indicate the third slice group parameter set, the first slice group parameter set Decoding the syntax elements of the set;
* Decoding second indication information indicating inclusion of the related second set from a fourth slice group parameter set, and in response to the second indication information indicating the fourth slice group parameter set, Decoding the associated second syntax element set from the fourth slice group parameter set, or if the second indication information does not indicate the fourth slice group parameter set, the second slice group parameter set Decoding the syntax elements of the set;
* Decoding the encoded slice using the decoded first syntax element set and second syntax element set.

前記装置の実施形態によっては、前記少なくとも1つのメモリおよび前記メモリに格納されるコードは、前記少なくとも1つのプロセッサによって実行されると、前記装置に更に、前記スライス群パラメータセットからシンタックス要素のサブセットを少なくとも1つ復号させる。   In some embodiments of the apparatus, the at least one memory and the code stored in the memory are further executed by the at least one processor, wherein the apparatus further includes a subset of syntax elements from the slice group parameter set. Decrypt at least one of

前記装置の実施形態によっては、前記少なくとも1つのメモリおよび前記メモリに格納されるコードは、前記少なくとも1つのプロセッサによって実行されると、前記装置に更に、符号化済みまたは復号済みであるか、ビットストリームに既存の他のシンタックス構造から前記スライス群パラメータセットの内容またはインスタンスを推定させる。   In some embodiments of the apparatus, the at least one memory and the code stored in the memory are further encoded or decoded to the apparatus when executed by the at least one processor, or the bit Let the stream infer the contents or instances of the slice group parameter set from other existing syntax structures.

前記装置の実施形態によっては、前記少なくとも1つのメモリおよび前記メモリに格納されるコードは、前記少なくとも1つのプロセッサによって実行されると、前記装置に更に、前記推定されたスライス群パラメータセットを示す識別値を復号させる。   In some embodiments of the apparatus, the at least one memory and code stored in the memory are further identified to the apparatus to indicate the estimated slice group parameter set when executed by the at least one processor. Decrypt the value.

前記装置の実施形態によっては、スライス群パラメータセットは、それに関連する特定のアクセスユニット内で有効である。   In some embodiments of the apparatus, the slice group parameter set is valid within the particular access unit associated with it.

前記装置の実施形態によっては、前記スライス群パラメータセットのシンタックス構造は、特定のアクセスユニットに関するネットワーク抽象化層ユニットシーケンスに含まれ、前記シーケンスは復号順またはビットストリームの順で、前記スライス群パラメータセットはその出現位置から前記アクセスユニットの最後まで有効である。   In some embodiments of the apparatus, the syntax structure of the slice group parameter set is included in a network abstraction layer unit sequence for a particular access unit, the sequence being in decoding order or bitstream order, the slice group parameter set. The set is valid from its appearance position to the end of the access unit.

前記装置の実施形態によっては、前記スライス群パラメータセットは、複数のアクセスユニットに対して有効である。   In some embodiments of the apparatus, the slice group parameter set is valid for multiple access units.

前記装置の実施形態によっては、前記少なくとも1つのメモリおよび前記メモリに格納されるコードは、前記少なくとも1つのプロセッサによって実行されると、前記装置に更に、1つのアクセスユニットに対して複数のスライス群パラメータセットを復号させる。   In some embodiments of the apparatus, the at least one memory and code stored in the memory are further executed by the at least one processor, the apparatus further comprising a plurality of slice groups for one access unit. Decode the parameter set.

前記装置の実施形態によっては、前記スライス群パラメータセットのシンタックス構造が識別子を含む。   In some embodiments of the apparatus, the slice group parameter set syntax structure includes an identifier.

前記装置の実施形態によっては、前記少なくとも1つのメモリおよび前記メモリに格納されるコードは、前記少なくとも1つのプロセッサによって実行されると、前記装置に更に、スライス群パラメータセットの特定のインスタンスを参照するために前記識別子を使用させる。   In some embodiments of the device, the at least one memory and code stored in the memory further refer to the device for a particular instance of a slice group parameter set when executed by the at least one processor. The identifier is used for this purpose.

前記装置の実施形態によっては、前記少なくとも1つのメモリおよび前記メモリに格納されるコードは、前記少なくとも1つのプロセッサによって実行されると、前記装置に更に、スライスヘッダまたは別のスライス群パラメータセットから前記スライス群パラメータセットを参照するために、前記識別子を使用させる。   In some embodiments of the apparatus, the at least one memory and code stored in the memory are further executed by the at least one processor from the apparatus further from a slice header or another slice group parameter set. The identifier is used to refer to the slice group parameter set.

前記装置の実施形態によっては、前記識別子に対して所定の番号付け空間が使用される。   In some embodiments of the device, a predetermined numbering space is used for the identifier.

前記装置の実施形態によっては、前記少なくとも1つのメモリおよび前記メモリに格納されるコードは、前記少なくとも1つのプロセッサによって実行されると、前記装置に更に、第1のスライス群パラメータセットに対して特定のスライス群パラメータセット識別値を使用することと、前記第1のスライス群パラメータセットがスライスヘッダまたはスライス群パラメータセットの何れによっても参照されない場合、第2のスライス群パラメータセットに対して前記スライス群パラメータセット識別値を使用することを遂行させる。   In some embodiments of the apparatus, the at least one memory and code stored in the memory are further specified to the apparatus for a first slice group parameter set when executed by the at least one processor. The slice group parameter set identification value and if the first slice group parameter set is not referenced by either a slice header or a slice group parameter set, the slice group for the second slice group parameter set Using the parameter set identification value is accomplished.

前記装置の実施形態によっては、前記少なくとも1つのメモリおよび前記メモリに格納されるコードは、前記少なくとも1つのプロセッサによって実行されると、前記装置に更に、ビットストリームから反復してスライス群パラメータセットのシンタックス構造を復号させる。   In some embodiments of the apparatus, the at least one memory and the code stored in the memory are further repeated from the bitstream upon execution of the slice group parameter set by the apparatus when executed by the at least one processor. Decrypt the syntax structure.

前記装置の実施形態によっては、前記少なくとも1つのメモリおよび前記メモリに格納されるコードは、前記少なくとも1つのプロセッサによって実行されると、前記装置に更に、前記スライス群パラメータセットのシンタックス構造のビットストリーム順序および所定の番号付け方式を用いて、前記スライス群パラメータセットのシンタックス構造を識別させる。   In some embodiments of the apparatus, the at least one memory and the code stored in the memory are further executed by the at least one processor, the apparatus further comprising a bit of a syntax structure of the slice group parameter set. The syntax structure of the slice group parameter set is identified using a stream order and a predetermined numbering scheme.

前記装置の実施形態によっては、前記少なくとも1つのメモリおよび前記メモリに格納されるコードは、前記少なくとも1つのプロセッサによって実行されると、前記装置に更に、次の少なくとも1つを取得するために、前記スライス群パラメータセットに対するシンタックス要素セットを復号させる:
スケーラブルレイヤおよび/または他のスケーラブル特性を示すシンタックス要素;
ビューおよび/または他のマルチビュー特性を示すシンタックス要素;
マルチビュービデオの特定のコンポーネントタイプに関連するシンタックス要素;
アクセスユニット識別情報に関連するシンタックス要素;
復号順序に関連するシンタックス要素;
出力順序に関連するシンタックス要素;
アクセスユニットの全スライスに対して不変である他のシンタックス要素に関連するシンタックス要素;
ビューコンポーネントの全スライスで不変であるシンタックス要素;
リファレンスピクチャ・リスト変更に関連するシンタックス要素;
使用されるリファレンスピクチャのセットに関連するシンタックス要素;
復号リファレンスピクチャ・マーキングに関連するシンタックス要素;
加重予測用の予測重みテーブルに関連するシンタックス要素;
デブロッキング・フィルタリングを制御するシンタックス要素;
適応ループフィルタリングを制御するシンタックス要素;
サンプル適応オフセットを制御するシンタックス要素。
In some embodiments of the device, the at least one memory and the code stored in the memory, when executed by the at least one processor, further obtain at least one of the following for the device: Decode the syntax element set for the slice group parameter set:
A syntax element indicating a scalable layer and / or other scalable characteristics;
A syntax element indicating a view and / or other multi-view characteristics;
Syntax elements associated with specific component types of multiview video;
Syntax elements associated with access unit identification information;
Syntax elements associated with the decoding order;
Syntax elements related to output order;
Syntax elements associated with other syntax elements that are invariant to all slices of the access unit;
A syntax element that is invariant across all slices of the view component;
Syntax elements related to reference picture list changes;
Syntax elements associated with the set of reference pictures used;
Syntax elements associated with decoding reference picture markings;
Syntax elements associated with the prediction weight table for weighted prediction;
A syntax element that controls deblocking filtering;
A syntax element that controls adaptive loop filtering;
A syntax element that controls the sample adaptive offset.

前記装置の実施形態によっては、前記少なくとも1つのメモリおよび前記メモリに格納されるコードは、前記少なくとも1つのプロセッサによって実行されると、前記装置に更に、前記スライス群パラメータセットを復号するとき、次の1つ以上を遂行させる:
スライス群パラメータセットのシンタックス構造から前記シンタックス要素を復号すること;
前記シンタックス要素セットが前記スライス群パラメータセットへの参照によって包含されていたかを決定すること;
前記シンタックス要素セットが前記スライス群パラメータセットにないことが標示されているかを決定すること。
In some embodiments of the apparatus, when the at least one memory and code stored in the memory are executed by the at least one processor, the apparatus further includes: Have one or more of:
Decoding the syntax element from the syntax structure of the slice group parameter set;
Determining whether the syntax element set was included by reference to the slice group parameter set;
Determining whether the syntax element set is marked not in the slice group parameter set.

前記装置の実施形態によっては、前記少なくとも1つのメモリおよび前記メモリに格納されるコードは、前記少なくとも1つのプロセッサによって実行されると、前記装置に更に、前記スライス群パラメータセットからスケーラブルレイヤに関連するシンタックス要素セットを復号することと;前記スライス群パラメータセットからビューコンポーネントの全スライスで不変であるシンタックス要素を復号することを遂行させる。   In some embodiments of the apparatus, the at least one memory and code stored in the memory are further associated with a scalable layer from the slice group parameter set when executed by the at least one processor. Decoding a syntax element set; and decoding a syntax element that is invariant in all slices of the view component from the slice group parameter set.

前記装置の実施形態によっては、前記少なくとも1つのメモリおよび前記メモリに格納されるコードは、前記少なくとも1つのプロセッサによって実行されると、前記装置に更に、リファレンスピクチャ・リストの変更に関連するシンタックス要素が、参照または包含によって前記スライス群パラメータセットのシンタックス構造に含まれているか、または前記スライス群パラメータセットのシンタックス構造に存在しないかを決定させる。   In some embodiments of the apparatus, the at least one memory and the code stored in the memory are further executed by the at least one processor, the apparatus further includes syntax associated with a reference picture list change. It is determined whether an element is included in the syntax structure of the slice group parameter set by reference or inclusion or does not exist in the syntax structure of the slice group parameter set.

前記装置の実施形態によっては、前記少なくとも1つのメモリおよび前記メモリに格納されるコードは、前記少なくとも1つのプロセッサによって実行されると、前記装置に更に、ネットワーク抽象化層ユニットからスライス群パラメータセットを復号させる。   In some embodiments of the apparatus, the at least one memory and the code stored in the memory are further executed by the at least one processor when the apparatus further includes a slice group parameter set from a network abstraction layer unit. Decrypt.

前記装置の実施形態によっては、前記少なくとも1つのメモリおよび前記メモリに格納されるコードは、前記少なくとも1つのプロセッサによって実行されると、前記装置に更に、ビットストリームからスライス群パラメータセットのネットワーク抽象化層(NAL)ユニットを符号化スライスNALユニットと共に復号させる。   In some embodiments of the apparatus, the at least one memory and the code stored in the memory are further executed by the at least one processor when the apparatus further includes a network abstraction of slice group parameter sets from the bitstream. A layer (NAL) unit is decoded together with a coded slice NAL unit.

第10の実施例によれば、1つ以上の命令の1つ以上のシーケンスを含むコンピュータプログラム製品が提供される。前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、装置に少なくとも、
符号化ピクチャの符号化スライスを復号させ、ここで、前記復号することは、
・ 前記符号化スライスをスライスヘッダまたはスライス群パラメータセットの何れかに復号するために使用される、第1のシンタックス要素セットにおける第1の位置および第2のシンタックス要素セットにおける第2の位置を識別することと;
・ 前記符号化スライスの復号用に使用されるように、前記第1のシンタックス要素セットおよび前記第2のシンタックス要素セットを復号することによって遂行され、該第1および第2のセットを復号することは:
* 第3のスライス群パラメータセットから前記関連する第1のセットの包含を示す第1の標示情報を復号し、前記第3のスライス群パラメータセットを示す前記第1の標示情報への応答として、前記第3のスライス群パラメータセットから前記関連する第1のシンタックス要素セットを復号すること、または、前記第1の標示情報が前記第3のスライス群パラメータセットを示さない場合、前記第1のセットのシンタックス要素を復号することと;
* 第4のスライス群パラメータセットから前記関連する第2のセットの包含を示す第2の標示情報を復号し、前記第4のスライス群パラメータセットを示す前記第2の標示情報への応答として、前記第4のスライス群パラメータセットから前記関連する第2のシンタックス要素セットを復号すること、または、前記第2の標示情報が前記第4のスライス群パラメータセットを示さない場合、前記第2のセットのシンタックス要素を復号することと;
* 前記復号された第1のシンタックス要素セットおよび第2のシンタックス要素セットを用いて、前記符号化スライスを復号すること
を含む。
According to a tenth embodiment, a computer program product is provided that includes one or more sequences of one or more instructions. When the one or more sequences of the one or more instructions are executed by one or more processors, at least on the device,
Decoding an encoded slice of an encoded picture, wherein the decoding comprises:
A first position in a first syntax element set and a second position in a second syntax element set used to decode the encoded slice into either a slice header or a slice group parameter set Identifying;
Decoding the first and second set of sets, performed by decoding the first set of syntax elements and the second set of syntax elements to be used for decoding the coded slice To do:
* Decoding first indication information indicating inclusion of the associated first set from a third slice group parameter set, and in response to the first indication information indicating the third slice group parameter set, Decoding the associated first syntax element set from the third slice group parameter set, or if the first indication information does not indicate the third slice group parameter set, the first slice group parameter set Decoding the syntax elements of the set;
* Decoding second indication information indicating inclusion of the related second set from a fourth slice group parameter set, and in response to the second indication information indicating the fourth slice group parameter set, Decoding the associated second syntax element set from the fourth slice group parameter set, or if the second indication information does not indicate the fourth slice group parameter set, the second slice group parameter set Decoding the syntax elements of the set;
* Decoding the encoded slice using the decoded first syntax element set and second syntax element set.

実施形態によっては、前記コンピュータプログラム製品は1つ以上の命令の1つ以上のシーケンスを含み、前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、前記装置に、前記スライス群パラメータセットからシンタックス要素のサブセットを少なくとも1つ復号させる。   In some embodiments, the computer program product includes one or more sequences of one or more instructions, and when the one or more sequences of the one or more instructions are executed by one or more processors, the Let the apparatus decode at least one subset of syntax elements from the slice group parameter set.

実施形態によっては、前記コンピュータプログラム製品は1つ以上の命令の1つ以上のシーケンスを含み、前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、前記装置に、符号化済みまたは復号済みであるか、ビットストリームに既存の他のシンタックス構造から前記スライス群パラメータセットの内容またはインスタンスを推定させる。   In some embodiments, the computer program product includes one or more sequences of one or more instructions, and when the one or more sequences of the one or more instructions are executed by one or more processors, the Let the device estimate the content or instance of the slice group parameter set from other syntax structures that have been encoded or decoded, or existing in the bitstream.

実施形態によっては、前記コンピュータプログラム製品は1つ以上の命令の1つ以上のシーケンスを含み、前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、前記装置に、前記推定されたスライス群パラメータセットを示す識別値を復号させる。   In some embodiments, the computer program product includes one or more sequences of one or more instructions, and when the one or more sequences of the one or more instructions are executed by one or more processors, the The apparatus causes the identification value indicating the estimated slice group parameter set to be decoded.

前記コンピュータプログラム製品の実施形態によっては、スライス群パラメータセットは、それに関連する特定のアクセスユニット内で有効である。   In some embodiments of the computer program product, the slice group parameter set is valid within a particular access unit associated with it.

前記コンピュータプログラム製品の実施形態によっては、前記スライス群パラメータセットのシンタックス構造は、特定のアクセスユニットに関するネットワーク抽象化層ユニットシーケンスに含まれ、前記シーケンスは復号順またはビットストリームの順で、前記スライス群パラメータセットはその出現位置から前記アクセスユニットの最後まで有効である。   In some embodiments of the computer program product, the syntax structure of the slice group parameter set is included in a network abstraction layer unit sequence for a particular access unit, the sequence being in decoding order or bitstream order, the slice The group parameter set is valid from its appearance position to the end of the access unit.

前記コンピュータプログラム製品の実施形態によっては、前記スライス群パラメータセットは、複数のアクセスユニットに対して有効である。   In some embodiments of the computer program product, the slice group parameter set is valid for a plurality of access units.

実施形態によっては、前記コンピュータプログラム製品は1つ以上の命令の1つ以上のシーケンスを含み、前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、前記装置に、1つのアクセスユニットに対して複数のスライス群パラメータセットを復号させる。   In some embodiments, the computer program product includes one or more sequences of one or more instructions, and when the one or more sequences of the one or more instructions are executed by one or more processors, the The apparatus causes a plurality of slice group parameter sets to be decoded for one access unit.

前記コンピュータプログラム製品の実施形態によっては、前記スライス群パラメータセットのシンタックス構造が識別子を含む。   In some embodiments of the computer program product, the slice group parameter set syntax structure includes an identifier.

実施形態によっては、前記コンピュータプログラム製品は1つ以上の命令の1つ以上のシーケンスを含み、前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、前記装置に、スライス群パラメータセットの特定のインスタンスを参照するために前記識別子を使用させる。   In some embodiments, the computer program product includes one or more sequences of one or more instructions, and when the one or more sequences of the one or more instructions are executed by one or more processors, the Let the device use the identifier to refer to a particular instance of a slice group parameter set.

実施形態によっては、前記コンピュータプログラム製品は1つ以上の命令の1つ以上のシーケンスを含み、前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、前記装置に、スライスヘッダまたは別のスライス群パラメータセットから前記スライス群パラメータセットを参照するために、前記識別子を使用させる。   In some embodiments, the computer program product includes one or more sequences of one or more instructions, and when the one or more sequences of the one or more instructions are executed by one or more processors, the Let the device use the identifier to reference the slice group parameter set from a slice header or another slice group parameter set.

前記コンピュータプログラム製品の実施形態によっては、前記識別子に対して所定の番号付け空間が使用される。   In some embodiments of the computer program product, a predetermined numbering space is used for the identifier.

実施形態によっては、前記コンピュータプログラム製品は1つ以上の命令の1つ以上のシーケンスを含み、前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、前記装置に、第1のスライス群パラメータセットに対して特定のスライス群パラメータセット識別値を使用することと、前記第1のスライス群パラメータセットがスライスヘッダまたはスライス群パラメータセットの何れによっても参照されない場合、第2のスライス群パラメータセットに対して前記スライス群パラメータセット識別値を使用することを遂行させる。   In some embodiments, the computer program product includes one or more sequences of one or more instructions, and when the one or more sequences of the one or more instructions are executed by one or more processors, the The device uses a specific slice group parameter set identification value for the first slice group parameter set, and the first slice group parameter set is not referenced by either the slice header or the slice group parameter set , Using the slice group parameter set identification value for the second slice group parameter set.

実施形態によっては、前記コンピュータプログラム製品は1つ以上の命令の1つ以上のシーケンスを含み、前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、ビットストリームから反復してスライス群パラメータセットのシンタックス構造を復号させる。   In some embodiments, the computer program product includes one or more sequences of one or more instructions, the one or more sequences of the one or more instructions being executed by one or more processors, the bit The syntax structure of the slice group parameter set is decoded repeatedly from the stream.

実施形態によっては、前記コンピュータプログラム製品は1つ以上の命令の1つ以上のシーケンスを含み、前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、前記装置に、前記スライス群パラメータセットのシンタックス構造のビットストリーム順序および所定の番号付け方式を用いて、前記スライス群パラメータセットのシンタックス構造を識別させる。   In some embodiments, the computer program product includes one or more sequences of one or more instructions, and when the one or more sequences of the one or more instructions are executed by one or more processors, the The apparatus is configured to identify the syntax structure of the slice group parameter set using a bitstream order of the syntax structure of the slice group parameter set and a predetermined numbering scheme.

実施形態によっては、前記コンピュータプログラム製品は1つ以上の命令の1つ以上のシーケンスを含み、前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、前記装置に、次の少なくとも1つを取得するために、前記スライス群パラメータセットに対するシンタックス要素セットを復号させる:
スケーラブルレイヤおよび/または他のスケーラブル特性を示すシンタックス要素;
ビューおよび/または他のマルチビュー特性を示すシンタックス要素;
マルチビュービデオの特定のコンポーネントタイプに関連するシンタックス要素;
アクセスユニット識別情報に関連するシンタックス要素;
復号順序に関連するシンタックス要素;
出力順序に関連するシンタックス要素;
アクセスユニットの全スライスに対して不変である他のシンタックス要素に関連するシンタックス要素;
ビューコンポーネントの全スライスで不変であるシンタックス要素;
リファレンスピクチャ・リスト変更に関連するシンタックス要素;
使用されるリファレンスピクチャのセットに関連するシンタックス要素;
復号リファレンスピクチャ・マーキングに関連するシンタックス要素;
加重予測用の予測重みテーブルに関連するシンタックス要素;
デブロッキング・フィルタリングを制御するシンタックス要素;
適応ループフィルタリングを制御するシンタックス要素;
サンプル適応オフセットを制御するシンタックス要素。
In some embodiments, the computer program product includes one or more sequences of one or more instructions, and when the one or more sequences of the one or more instructions are executed by one or more processors, the Let the device decode a syntax element set for the slice group parameter set to obtain at least one of the following:
A syntax element indicating a scalable layer and / or other scalable characteristics;
A syntax element indicating a view and / or other multi-view characteristics;
Syntax elements associated with specific component types of multiview video;
Syntax elements associated with access unit identification information;
Syntax elements associated with the decoding order;
Syntax elements related to output order;
Syntax elements associated with other syntax elements that are invariant to all slices of the access unit;
A syntax element that is invariant across all slices of the view component;
Syntax elements related to reference picture list changes;
Syntax elements associated with the set of reference pictures used;
Syntax elements associated with decoding reference picture markings;
Syntax elements associated with the prediction weight table for weighted prediction;
A syntax element that controls deblocking filtering;
A syntax element that controls adaptive loop filtering;
A syntax element that controls the sample adaptive offset.

実施形態によっては、前記コンピュータプログラム製品は1つ以上の命令の1つ以上のシーケンスを含み、前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、前記装置に、前記スライス群パラメータセットを復号するとき、次の1つ以上を遂行させる:
スライス群パラメータセットのシンタックス構造から前記シンタックス要素を復号すること;
前記シンタックス要素セットが前記スライス群パラメータセットへの参照によって包含されていたかを決定すること;
前記シンタックス要素セットが前記スライス群パラメータセットにないことが標示されているかを決定すること。
In some embodiments, the computer program product includes one or more sequences of one or more instructions, and when the one or more sequences of the one or more instructions are executed by one or more processors, the Let the device perform one or more of the following when decoding the slice group parameter set:
Decoding the syntax element from the syntax structure of the slice group parameter set;
Determining whether the syntax element set was included by reference to the slice group parameter set;
Determining whether the syntax element set is marked not in the slice group parameter set.

実施形態によっては、前記コンピュータプログラム製品は1つ以上の命令の1つ以上のシーケンスを含み、前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、前記装置に、前記スライス群パラメータセットからスケーラブルレイヤに関連するシンタックス要素セットを復号することと;前記スライス群パラメータセットからビューコンポーネントの全スライスで不変であるシンタックス要素を復号することを遂行させる。   In some embodiments, the computer program product includes one or more sequences of one or more instructions, and when the one or more sequences of the one or more instructions are executed by one or more processors, the The apparatus performs decoding a syntax element set associated with a scalable layer from the slice group parameter set; and decoding syntax elements that are invariant in all slices of a view component from the slice group parameter set.

実施形態によっては、前記コンピュータプログラム製品は1つ以上の命令の1つ以上のシーケンスを含み、前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、前記装置に、リファレンスピクチャ・リストの変更に関連するシンタックス要素が、参照または包含によって前記スライス群パラメータセットのシンタックス構造に含まれているか、または前記スライス群パラメータセットのシンタックス構造に存在しないかを決定させる。   In some embodiments, the computer program product includes one or more sequences of one or more instructions, and when the one or more sequences of the one or more instructions are executed by one or more processors, the Whether the apparatus includes a syntax element related to the change of the reference picture list by reference or inclusion in the syntax structure of the slice group parameter set or does not exist in the syntax structure of the slice group parameter set Let me decide.

実施形態によっては、前記コンピュータプログラム製品は1つ以上の命令の1つ以上のシーケンスを含み、前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、前記装置に、ネットワーク抽象化層ユニットからスライス群パラメータセットを復号させる。   In some embodiments, the computer program product includes one or more sequences of one or more instructions, and when the one or more sequences of the one or more instructions are executed by one or more processors, the Let the device decode the slice group parameter set from the network abstraction layer unit.

実施形態によっては、前記コンピュータプログラム製品は1つ以上の命令の1つ以上のシーケンスを含み、前記1つ以上の命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、前記装置に、ビットストリームからスライス群パラメータセットのネットワーク抽象化層(NAL)ユニットを符号化スライスNALユニットと共に復号させる。   In some embodiments, the computer program product includes one or more sequences of one or more instructions, and when the one or more sequences of the one or more instructions are executed by one or more processors, the The apparatus causes a network abstraction layer (NAL) unit of a slice group parameter set to be decoded together with a coded slice NAL unit from the bitstream.

第11の実施例によれば、次の方法が提供され、この方法は、符号化ピクチャの符号化スライスを復号する手段を備え、前記復号する手段は、
・ 前記符号化スライスをスライス群パラメータセットのスライスヘッダの1つに復号するために使用される、第1のシンタックス要素セットにおける第1の位置および第2のシンタックス要素セットにおける第2の位置を識別する手段と;
・ 前記符号化スライスの復号用に使用されるように、前記第1のシンタックス要素セットおよび前記第2のシンタックス要素セットを復号する手段を備え、該第1および第2のセットを復号する手段は:
* 第3のスライス群パラメータセットから前記関連する第1のセットの包含を示す第1の標示情報を復号し、前記第3のスライス群パラメータセットを示す前記第1の標示情報への応答として、前記第3のスライス群パラメータセットから前記関連する第1のシンタックス要素セットを復号すること、または、前記第1の標示情報が前記第3のスライス群パラメータセットを示さない場合、前記第1のセットのシンタックス要素を復号する手段と;
* 第4のスライス群パラメータセットから前記関連する第2のセットの包含を示す第2の標示情報を復号し、前記第4のスライス群パラメータセットを示す前記第2の標示情報への応答として、前記第4のスライス群パラメータセットから前記関連する第2のシンタックス要素セットを復号すること、または、前記第2の標示情報が前記第4のスライス群パラメータセットを示さない場合、前記第2のセットのシンタックス要素を復号する手段と;
* 前記復号された第1のシンタックス要素セットおよび第2のシンタックス要素セットを用いて、前記符号化スライスを復号する手段
を備える。
According to an eleventh embodiment, the following method is provided, the method comprising means for decoding a coded slice of a coded picture, said means for decoding comprising:
A first position in the first syntax element set and a second position in the second syntax element set used to decode the encoded slice into one of the slice headers of the slice group parameter set Means for identifying;
Means for decoding the first syntax element set and the second syntax element set to be used for decoding the coded slice, and decoding the first and second sets Means:
* Decoding first indication information indicating inclusion of the associated first set from a third slice group parameter set, and in response to the first indication information indicating the third slice group parameter set, Decoding the associated first syntax element set from the third slice group parameter set, or if the first indication information does not indicate the third slice group parameter set, the first slice group parameter set Means for decoding the syntax elements of the set;
* Decoding second indication information indicating inclusion of the related second set from a fourth slice group parameter set, and in response to the second indication information indicating the fourth slice group parameter set, Decoding the associated second syntax element set from the fourth slice group parameter set, or if the second indication information does not indicate the fourth slice group parameter set, the second slice group parameter set Means for decoding the syntax elements of the set;
* Means for decoding the coded slice using the decoded first and second syntax element sets.

Claims (20)

非圧縮ピクチャを、スライスを含む符号化ピクチャに符号化することを含む方法であって、前記符号化することは:
前記スライスに対するシンタックス要素を第1のセットおよび第2のセットに分類することと;
前記第1のセットおよび前記第2のセットに対するシンタックス要素値を決定することと;
第1のスライス群パラメータセットまたはスライスヘッダにおいて前記第1のセットを選択的に符号化することであって、前記符号化は次のこと:
別のスライス群パラメータセットから前記関連する第1のセットの包含の標示情報を提供することと;
前記第1のセットのシンタックス要素値を符号化することと;
前記両方を省略すること
の何れか1つを含む、前記符号化することと;
第2のスライス群パラメータセットまたはスライスヘッダにおいて前記第2のセットを選択的に符号化することであって、前記符号化は次のこと:
別のスライス群パラメータセットから前記関連する第2のセットの包含の標示情報を提供することと;
前記第2のセットのシンタックス要素値を符号化することと;
前記両方を省略すること
の何れか1つを含む、前記符号化すること
を含む、方法。
A method comprising encoding an uncompressed picture into an encoded picture that includes a slice, said encoding comprising:
Classifying the syntax elements for the slice into a first set and a second set;
Determining syntax element values for the first set and the second set;
Selectively encoding the first set in a first slice group parameter set or slice header, wherein the encoding is:
Providing indication information of inclusion of the associated first set from another slice group parameter set;
Encoding the first set of syntax element values;
The encoding, including any one of omitting both;
Selectively encoding the second set in a second slice group parameter set or slice header, wherein the encoding is:
Providing indication information of inclusion of the associated second set from another slice group parameter set;
Encoding the second set of syntax element values;
The method comprising the encoding, comprising any one of omitting both.
符号化済みまたは復号済みであるか、ビットストリームに既存の他のシンタックス構造から前記スライス群パラメータセットの内容またはインスタンスを推定することを含む、請求項1に記載の方法。   The method of claim 1, comprising estimating the content or instance of the slice group parameter set from other syntax structures that have been encoded or decoded or already in the bitstream. ベースビューのテクスチャビューコンポーネントのスライスヘッダから前記スライス群パラメータセットを形成することを含む、請求項1または2に記載の方法。   The method according to claim 1 or 2, comprising forming the slice group parameter set from a slice header of a texture view component of a base view. 前記スライス群パラメータセットのシンタックス構造は、特定のアクセスユニットに関するネットワーク抽象化層ユニットシーケンスに含まれ、前記シーケンスは復号順またはビットストリームの順で、前記スライス群パラメータセットはその出現位置から前記アクセスユニットの最後まで有効である、請求項1から3の何れかに記載の方法。   The syntax structure of the slice group parameter set is included in a network abstraction layer unit sequence for a specific access unit, the sequence in decoding order or bitstream order, and the slice group parameter set from the appearance position to the access 4. A method according to any of claims 1 to 3, which is valid until the end of the unit. スライスヘッダにおけるシンタックス要素値の少なくとも1つのサブセットであって符号化されるサブセットが、後続のスライスヘッダにあるのと同一であるかを決定することと;そうである場合、ビットストリームにおいて前記スライス群パラメータセットを符号化することを含む、請求項1から4の何れかに記載の方法。   Determining whether the encoded subset of at least one subset of syntax element values in the slice header is the same as in a subsequent slice header; and if so, said slice in the bitstream 5. A method according to any preceding claim, comprising encoding a group parameter set. 前記第1のスライス群パラメータセットに対して特定のスライス群パラメータセット識別値を使用することと、前記第1のスライス群パラメータセットがスライスヘッダまたはスライス群パラメータセットの何れによっても参照されない場合、第2のスライス群パラメータセットに対して前記スライス群パラメータセット識別値を使用することを含む、請求項1から5の何れかに記載の方法。   Using a specific slice group parameter set identification value for the first slice group parameter set, and if the first slice group parameter set is not referenced by either a slice header or a slice group parameter set, 6. A method according to any of claims 1 to 5, comprising using the slice group parameter set identification value for two slice group parameter sets. 前記スライス群パラメータセットのシンタックス構造のビットストリーム順序および所定の番号付け方式を用いて、前記スライス群パラメータセットのシンタックス構造を識別することを含む、請求項1から6の何れかに記載の方法。   7. The syntax structure of the slice group parameter set, comprising identifying the syntax structure of the slice group parameter set using a bitstream order of the syntax structure of the slice group parameter set and a predetermined numbering scheme. Method. 次の少なくとも1つから、前記スライス群パラメータセットに対するシンタックス要素セットを形成することを含む、請求項1から7の何れかに記載の方法:
スケーラブルレイヤおよび/または他のスケーラブル特性を示すシンタックス要素;
ビューおよび/または他のマルチビュー特性を示すシンタックス要素;
マルチビュービデオの特定のコンポーネントタイプに関連するシンタックス要素;
アクセスユニット識別情報に関連するシンタックス要素;
復号順序に関連するシンタックス要素;
出力順序に関連するシンタックス要素;
アクセスユニットの全スライスに対して不変である他のシンタックス要素に関連するシンタックス要素;
ビューコンポーネントの全スライスで不変であるシンタックス要素;
リファレンスピクチャ・リスト変更に関連するシンタックス要素;
使用されるリファレンスピクチャのセットに関連するシンタックス要素;
復号リファレンスピクチャ・マーキングに関連するシンタックス要素;
加重予測用の予測重みテーブルに関連するシンタックス要素;
デブロッキング・フィルタリングを制御するシンタックス要素;
適応ループフィルタリングを制御するシンタックス要素;
サンプル適応オフセットを制御するシンタックス要素。
The method according to any of claims 1 to 7, comprising forming a syntax element set for the slice group parameter set from at least one of the following:
A syntax element indicating a scalable layer and / or other scalable characteristics;
A syntax element indicating a view and / or other multi-view characteristics;
Syntax elements associated with specific component types of multiview video;
Syntax elements associated with access unit identification information;
Syntax elements associated with the decoding order;
Syntax elements related to output order;
Syntax elements associated with other syntax elements that are invariant to all slices of the access unit;
A syntax element that is invariant across all slices of the view component;
Syntax elements related to reference picture list changes;
Syntax elements associated with the set of reference pictures used;
Syntax elements associated with decoding reference picture markings;
Syntax elements associated with the prediction weight table for weighted prediction;
A syntax element that controls deblocking filtering;
A syntax element that controls adaptive loop filtering;
A syntax element that controls the sample adaptive offset.
少なくとも1つのプロセッサと、コンピュータプログラムコードを含む少なくとも1つのメモリとを備える装置であって、前記少なくとも1つのメモリおよび前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサと共に、前記装置に:
符号化ピクチャが含むスライスに対するシンタックス要素を第1のセットおよび第2のセットに分類することと;
前記第1のセットおよび前記第2のセットに対するシンタックス要素値を決定することと;
第1のスライス群パラメータセットまたはスライスヘッダにおいて前記第1のセットを選択的に符号化することであって、前記符号化は次のこと:
別のスライス群パラメータセットから前記関連する第1のセットの包含の標示情報を提供することと;
前記第1のセットのシンタックス要素値を符号化することと;
前記両方を省略すること
の何れか1つを含む、前記符号化することと;
第2のスライス群パラメータセットまたはスライスヘッダにおいて前記第2のセットを選択的に符号化することであって、前記符号化は次のこと:
別のスライス群パラメータセットから前記関連する第2のセットの包含の標示情報を提供することと;
前記第2のセットのシンタックス要素値を符号化することと;
前記両方を省略すること
の何れか1つを含む、前記符号化すること
を遂行させるように構成される、装置。
An apparatus comprising at least one processor and at least one memory containing computer program code, the at least one memory and the computer program code together with the at least one processor in the apparatus:
Classifying syntax elements for slices included in the encoded picture into a first set and a second set;
Determining syntax element values for the first set and the second set;
Selectively encoding the first set in a first slice group parameter set or slice header, wherein the encoding is:
Providing indication information of inclusion of the associated first set from another slice group parameter set;
Encoding the first set of syntax element values;
The encoding, including any one of omitting both;
Selectively encoding the second set in a second slice group parameter set or slice header, wherein the encoding is:
Providing indication information of inclusion of the associated second set from another slice group parameter set;
Encoding the second set of syntax element values;
An apparatus configured to perform the encoding, including any one of omitting both.
1つ以上の命令の1つ以上のシーケンスを含むコンピュータプログラム製品であって、1つ以上のプロセッサによって実行されると、装置に少なくとも次のこと:
符号化ピクチャが含むスライスに対するシンタックス要素を第1のセットおよび第2のセットに分類することと;
前記第1のセットおよび前記第2のセットに対するシンタックス要素値を決定することと;
第1のスライス群パラメータセットまたはスライスヘッダにおいて前記第1のセットを選択的に符号化することであって、前記符号化は次のこと:
別のスライス群パラメータセットから前記関連する第1のセットの包含の標示情報を提供することと;
前記第1のセットのシンタックス要素値を符号化することと;
前記両方を省略すること
の何れか1つを含む、前記符号化することと;
第2のスライス群パラメータセットまたはスライスヘッダにおいて前記第2のセットを選択的に符号化することであって、前記符号化は次のこと:
別のスライス群パラメータセットから前記関連する第2のセットの包含の標示情報を提供することと;
前記第2のセットのシンタックス要素値を符号化することと;
前記両方を省略すること
の何れか1つを含む、前記符号化すること
を遂行させる、コンピュータプログラム製品。
A computer program product comprising one or more sequences of one or more instructions, when executed by one or more processors, the device at least:
Classifying syntax elements for slices included in the encoded picture into a first set and a second set;
Determining syntax element values for the first set and the second set;
Selectively encoding the first set in a first slice group parameter set or slice header, wherein the encoding is:
Providing indication information of inclusion of the associated first set from another slice group parameter set;
Encoding the first set of syntax element values;
The encoding, including any one of omitting both;
Selectively encoding the second set in a second slice group parameter set or slice header, wherein the encoding is:
Providing indication information of inclusion of the associated second set from another slice group parameter set;
Encoding the second set of syntax element values;
A computer program product for performing the encoding, including any one of omitting both.
符号化ピクチャが含むスライスに対するシンタックス要素を第1のセットおよび第2のセットに分類する手段と;
前記第1のセットおよび前記第2のセットに対するシンタックス要素値を決定する手段と;
第1のスライス群パラメータセットまたはスライスヘッダにおいて前記第1のセットを選択的に符号化する手段であって、次のこと:
別のスライス群パラメータセットから前記関連する第1のセットの包含の標示情報を提供することと;
前記第1のセットのシンタックス要素値を符号化することと;
前記両方を省略すること
の何れか1つを含む、前記符号化する手段と;
第2のスライス群パラメータセットまたはスライスヘッダにおいて前記第2のセットを選択的に符号化する手段であって、次のこと:
別のスライス群パラメータセットから前記関連する第2のセットの包含の標示情報を提供することと;
前記第2のセットのシンタックス要素値を符号化することと;
前記両方を省略すること
の何れか1つを含む、前記符号化する手段
を備える、装置。
Means for classifying syntax elements for slices included in the coded picture into a first set and a second set;
Means for determining syntax element values for the first set and the second set;
Means for selectively encoding the first set in a first slice group parameter set or slice header, comprising:
Providing indication information of inclusion of the associated first set from another slice group parameter set;
Encoding the first set of syntax element values;
Means for encoding, including any one of omitting both;
Means for selectively encoding the second set in a second slice group parameter set or slice header, comprising:
Providing indication information of inclusion of the associated second set from another slice group parameter set;
Encoding the second set of syntax element values;
An apparatus comprising the means for encoding, including any one of omitting both.
符号化ピクチャの符号化スライスを復号することと;
前記符号化スライスをスライスヘッダまたはスライス群パラメータセットの何れかに復号するために使用される、第1のシンタックス要素セットにおける第1の位置および第2のシンタックス要素セットにおける第2の位置を識別することと;
前記符号化スライスの復号用に使用されるように、前記第1のシンタックス要素セットおよび前記第2のシンタックス要素セットを復号することによって遂行され、該第1および第2のセットを復号することは:
第3のスライス群パラメータセットから前記関連する第1のセットの包含を示す第1の標示情報を復号し、前記第3のスライス群パラメータセットを示す前記第1の標示情報への応答として、前記第3のスライス群パラメータセットから前記関連する第1のシンタックス要素セットを復号することと;
第4のスライス群パラメータセットから前記関連する第2のセットの包含を示す第2の標示情報を復号し、前記第4のスライス群パラメータセットを示す前記第2の標示情報への応答として、前記第4のスライス群パラメータセットから前記関連する第2のシンタックス要素セットを復号することと;
前記復号された第1のシンタックス要素セットおよび第2のシンタックス要素セットを用いて、前記符号化スライスを復号すること
を含む、方法。
Decoding a coded slice of a coded picture;
A first position in a first syntax element set and a second position in a second syntax element set used to decode the encoded slice into either a slice header or a slice group parameter set. To identify;
Decoding the first and second sets as performed for decoding the coded slice is performed by decoding the first syntax element set and the second syntax element set The thing is:
Decoding first indication information indicating inclusion of the associated first set from a third slice group parameter set, and as a response to the first indication information indicating the third slice group parameter set, Decoding the associated first syntax element set from a third slice group parameter set;
Decoding second indication information indicating inclusion of the related second set from a fourth slice group parameter set, and in response to the second indication information indicating the fourth slice group parameter set, Decoding the associated second syntax element set from a fourth slice group parameter set;
Decoding the encoded slice using the decoded first syntax element set and second syntax element set.
少なくとも1つのプロセッサと、コンピュータプログラムコードを含む少なくとも1つのメモリとを備える装置であって、前記少なくとも1つのメモリおよび前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサと共に、前記装置に、
符号化ピクチャの符号化スライスを復号させるように構成され、ここで、前記復号することは、
前記符号化スライスをスライスヘッダまたはスライス群パラメータセットの何れかに復号するために使用される、第1のシンタックス要素セットにおける第1の位置および第2のシンタックス要素セットにおける第2の位置を識別することと;
前記符号化スライスの復号用に使用されるように、前記第1のシンタックス要素セットおよび前記第2のシンタックス要素セットを復号することによって遂行され、該第1および第2のセットを復号することは:
第3のスライス群パラメータセットから前記関連する第1のセットの包含を示す第1の標示情報を復号し、前記第3のスライス群パラメータセットを示す前記第1の標示情報への応答として、前記第3のスライス群パラメータセットから前記関連する第1のシンタックス要素セットを復号することと;
第4のスライス群パラメータセットから前記関連する第2のセットの包含を示す第2の標示情報を復号し、前記第4のスライス群パラメータセットを示す前記第2の標示情報への応答として、前記第4のスライス群パラメータセットから前記関連する第2のシンタックス要素セットを復号することと;
前記復号された第1のシンタックス要素セットおよび第2のシンタックス要素セットを用いて、前記符号化スライスを復号すること
を含む、装置。
An apparatus comprising at least one processor and at least one memory containing computer program code, the at least one memory and the computer program code together with the at least one processor in the apparatus
Configured to decode an encoded slice of an encoded picture, wherein the decoding comprises:
A first position in a first syntax element set and a second position in a second syntax element set used to decode the encoded slice into either a slice header or a slice group parameter set. To identify;
Decoding the first and second sets as performed for decoding the coded slice is performed by decoding the first syntax element set and the second syntax element set The thing is:
Decoding first indication information indicating inclusion of the associated first set from a third slice group parameter set, and as a response to the first indication information indicating the third slice group parameter set, Decoding the associated first syntax element set from a third slice group parameter set;
Decoding second indication information indicating inclusion of the related second set from a fourth slice group parameter set, and in response to the second indication information indicating the fourth slice group parameter set, Decoding the associated second syntax element set from a fourth slice group parameter set;
An apparatus comprising: decoding the encoded slice using the decoded first syntax element set and second syntax element set.
1つ以上の命令の1つ以上のシーケンスを含むコンピュータプログラム製品であって、1つ以上のプロセッサによって実行されると、装置に少なくとも、
符号化ピクチャの符号化スライスを復号させ、ここで、前記復号することは、
前記符号化スライスをスライスヘッダまたはスライス群パラメータセットの何れかに復号するために使用される、第1のシンタックス要素セットにおける第1の位置および第2のシンタックス要素セットにおける第2の位置を識別することと;
前記符号化スライスの復号用に使用されるように、前記第1のシンタックス要素セットおよび前記第2のシンタックス要素セットを復号することによって遂行され、該第1および第2のセットを復号することは:
第3のスライス群パラメータセットから前記関連する第1のセットの包含を示す第1の標示情報を復号し、前記第3のスライス群パラメータセットを示す前記第1の標示情報への応答として、前記第3のスライス群パラメータセットから前記関連する第1のシンタックス要素セットを復号することと;
第4のスライス群パラメータセットから前記関連する第2のセットの包含を示す第2の標示情報を復号し、前記第4のスライス群パラメータセットを示す前記第2の標示情報への応答として、前記第4のスライス群パラメータセットから前記関連する第2のシンタックス要素セットを復号することと;
前記復号された第1のシンタックス要素セットおよび第2のシンタックス要素セットを用いて、前記符号化スライスを復号すること
を含む、コンピュータプログラム製品。
A computer program product comprising one or more sequences of one or more instructions, when executed by one or more processors, at least on a device,
Decoding an encoded slice of an encoded picture, wherein the decoding comprises:
A first position in a first syntax element set and a second position in a second syntax element set used to decode the encoded slice into either a slice header or a slice group parameter set. To identify;
Decoding the first and second sets as performed for decoding the coded slice is performed by decoding the first syntax element set and the second syntax element set The thing is:
Decoding first indication information indicating inclusion of the associated first set from a third slice group parameter set, and as a response to the first indication information indicating the third slice group parameter set, Decoding the associated first syntax element set from a third slice group parameter set;
Decoding second indication information indicating inclusion of the related second set from a fourth slice group parameter set, and in response to the second indication information indicating the fourth slice group parameter set, Decoding the associated second syntax element set from a fourth slice group parameter set;
A computer program product comprising decoding the encoded slice using the decoded first syntax element set and second syntax element set.
符号化ピクチャの符号化スライスを復号することを含む方法であって、前記復号することは:
前記符号化スライスをスライスヘッダまたはスライス群パラメータセットの何れかに復号するために使用される、第1のシンタックス要素セットにおける第1の位置および第2のシンタックス要素セットにおける第2の位置を識別することと;
前記符号化スライスの復号用に使用されるように、前記第1のシンタックス要素セットおよび前記第2のシンタックス要素セットを復号することを含み、該第1および第2のセットを復号することは:
第3のスライス群パラメータセットから前記関連する第1のセットの包含を示す第1の標示情報を復号し、前記第3のスライス群パラメータセットを示す前記第1の標示情報への応答として、前記第3のスライス群パラメータセットから前記関連する第1のシンタックス要素セットを復号すること、または、前記第1の標示情報が前記第3のスライス群パラメータセットを示さない場合、前記第1のセットのシンタックス要素を復号することと;
第4のスライス群パラメータセットから前記関連する第2のセットの包含を示す第2の標示情報を復号し、前記第4のスライス群パラメータセットを示す前記第2の標示情報への応答として、前記第4のスライス群パラメータセットから前記関連する第2のシンタックス要素セットを復号すること、または、前記第2の標示情報が前記第4のスライス群パラメータセットを示さない場合、前記第2のセットのシンタックス要素を復号することと;
前記復号された第1のシンタックス要素セットおよび第2のシンタックス要素セットを用いて、前記符号化スライスを復号すること
を含む、方法。
A method comprising decoding a coded slice of a coded picture, said decoding comprising:
A first position in a first syntax element set and a second position in a second syntax element set used to decode the encoded slice into either a slice header or a slice group parameter set. To identify;
Decoding the first syntax element set and the second syntax element set as used for decoding the encoded slice, and decoding the first and second sets. Is:
Decoding first indication information indicating inclusion of the associated first set from a third slice group parameter set, and as a response to the first indication information indicating the third slice group parameter set, Decoding the associated first syntax element set from a third slice group parameter set, or if the first indication information does not indicate the third slice group parameter set, the first set Decoding the syntax elements of
Decoding second indication information indicating inclusion of the related second set from a fourth slice group parameter set, and in response to the second indication information indicating the fourth slice group parameter set, Decoding the associated second syntax element set from a fourth slice group parameter set, or if the second indication information does not indicate the fourth slice group parameter set, the second set Decoding the syntax elements of
Decoding the encoded slice using the decoded first syntax element set and second syntax element set.
符号化済みまたは復号済みであるか、ビットストリームに既存の他のシンタックス構造から前記スライス群パラメータセットの内容またはインスタンスを推定することを含む、請求項15に記載の方法。   16. The method of claim 15, comprising estimating the content or instance of the slice group parameter set from other syntax structures that are encoded or decoded or that are already in the bitstream. 前記スライス群パラメータセットのシンタックス構造は、特定のアクセスユニットに関するネットワーク抽象化層ユニットシーケンスに含まれ、前記シーケンスは復号順またはビットストリームの順で、前記スライス群パラメータセットはその出現位置から前記アクセスユニットの最後まで有効である、請求項15から16の何れかに記載の方法。   The syntax structure of the slice group parameter set is included in a network abstraction layer unit sequence for a specific access unit, the sequence in decoding order or bitstream order, and the slice group parameter set from the appearance position to the access 17. A method according to any of claims 15 to 16, which is valid until the end of the unit. 少なくとも1つのプロセッサと、コンピュータプログラムコードを含む少なくとも1つのメモリとを備える装置であって、前記少なくとも1つのメモリおよび前記コンピュータプログラムコードは、前記少なくとも1つのプロセッサと共に、前記装置に:
符号化ピクチャの符号化スライスを復号させ、ここで、前記復号することは、
前記符号化スライスをスライスヘッダまたはスライス群パラメータセットの何れかに復号するために使用される、第1のシンタックス要素セットにおける第1の位置および第2のシンタックス要素セットにおける第2の位置を識別することと;
前記符号化スライスの復号用に使用されるように、前記第1のシンタックス要素セットおよび前記第2のシンタックス要素セットを復号することを含み、該第1および第2のセットを復号することは:
第3のスライス群パラメータセットから前記関連する第1のセットの包含を示す第1の標示情報を復号し、前記第3のスライス群パラメータセットを示す前記第1の標示情報への応答として、前記第3のスライス群パラメータセットから前記関連する第1のシンタックス要素セットを復号すること、または、前記第1の標示情報が前記第3のスライス群パラメータセットを示さない場合、前記第1のセットのシンタックス要素を復号することと;
第4のスライス群パラメータセットから前記関連する第2のセットの包含を示す第2の標示情報を復号し、前記第4のスライス群パラメータセットを示す前記第2の標示情報への応答として、前記第4のスライス群パラメータセットから前記関連する第2のシンタックス要素セットを復号すること、または、前記第2の標示情報が前記第4のスライス群パラメータセットを示さない場合、前記第2のセットのシンタックス要素を復号することと;
前記復号された第1のシンタックス要素セットおよび第2のシンタックス要素セットを用いて、前記符号化スライスを復号すること
を含む、装置。
An apparatus comprising at least one processor and at least one memory containing computer program code, the at least one memory and the computer program code together with the at least one processor in the apparatus:
Decoding an encoded slice of an encoded picture, wherein the decoding comprises:
A first position in a first syntax element set and a second position in a second syntax element set used to decode the encoded slice into either a slice header or a slice group parameter set. To identify;
Decoding the first syntax element set and the second syntax element set as used for decoding the encoded slice, and decoding the first and second sets. Is:
Decoding first indication information indicating inclusion of the associated first set from a third slice group parameter set, and as a response to the first indication information indicating the third slice group parameter set, Decoding the associated first syntax element set from a third slice group parameter set, or if the first indication information does not indicate the third slice group parameter set, the first set Decoding the syntax elements of
Decoding second indication information indicating inclusion of the related second set from a fourth slice group parameter set, and in response to the second indication information indicating the fourth slice group parameter set, Decoding the associated second syntax element set from a fourth slice group parameter set, or if the second indication information does not indicate the fourth slice group parameter set, the second set Decoding the syntax elements of
An apparatus comprising: decoding the encoded slice using the decoded first syntax element set and second syntax element set.
1つ以上の命令の1つ以上のシーケンスを含むコンピュータプログラム製品であって、1つ以上のプロセッサによって実行されると、装置に少なくとも、
符号化ピクチャの符号化スライスを復号させ、ここで、前記復号することは、
前記符号化スライスをスライスヘッダまたはスライス群パラメータセットの何れかに復号するために使用される、第1のシンタックス要素セットにおける第1の位置および第2のシンタックス要素セットにおける第2の位置を識別することと;
前記符号化スライスの復号用に使用されるように、前記第1のシンタックス要素セットおよび前記第2のシンタックス要素セットを復号することを含み、該第1および第2のセットを復号することは:
第3のスライス群パラメータセットから前記関連する第1のセットの包含を示す第1の標示情報を復号し、前記第3のスライス群パラメータセットを示す前記第1の標示情報への応答として、前記第3のスライス群パラメータセットから前記関連する第1のシンタックス要素セットを復号すること、または、前記第1の標示情報が前記第3のスライス群パラメータセットを示さない場合、前記第1のセットのシンタックス要素を復号することと;
第4のスライス群パラメータセットから前記関連する第2のセットの包含を示す第2の標示情報を復号し、前記第4のスライス群パラメータセットを示す前記第2の標示情報への応答として、前記第4のスライス群パラメータセットから前記関連する第2のシンタックス要素セットを復号すること、または、前記第2の標示情報が前記第4のスライス群パラメータセットを示さない場合、前記第2のセットのシンタックス要素を復号することと;
前記復号された第1のシンタックス要素セットおよび第2のシンタックス要素セットを用いて、前記符号化スライスを復号すること
を含む、コンピュータプログラム製品。
A computer program product comprising one or more sequences of one or more instructions, when executed by one or more processors, at least on a device,
Decoding an encoded slice of an encoded picture, wherein the decoding comprises:
A first position in a first syntax element set and a second position in a second syntax element set used to decode the encoded slice into either a slice header or a slice group parameter set. To identify;
Decoding the first syntax element set and the second syntax element set as used for decoding the encoded slice, and decoding the first and second sets. Is:
Decoding first indication information indicating inclusion of the associated first set from a third slice group parameter set, and as a response to the first indication information indicating the third slice group parameter set, Decoding the associated first syntax element set from a third slice group parameter set, or if the first indication information does not indicate the third slice group parameter set, the first set Decoding the syntax elements of
Decoding second indication information indicating inclusion of the related second set from a fourth slice group parameter set, and in response to the second indication information indicating the fourth slice group parameter set, Decoding the associated second syntax element set from a fourth slice group parameter set, or if the second indication information does not indicate the fourth slice group parameter set, the second set Decoding the syntax elements of
A computer program product comprising decoding the encoded slice using the decoded first syntax element set and second syntax element set.
符号化ピクチャの符号化スライスを復号する手段を備える方法であって、前記復号する手段は、
前記符号化スライスをスライスヘッダまたはスライス群パラメータセットの何れかに復号するために使用される、第1のシンタックス要素セットにおける第1の位置および第2のシンタックス要素セットにおける第2の位置を識別する手段と;
前記符号化スライスの復号用に使用されるように、前記第1のシンタックス要素セットおよび前記第2のシンタックス要素セットを復号する手段を備え、該第1および第2のセットを復号する手段は:
第3のスライス群パラメータセットから前記関連する第1のセットの包含を示す第1の標示情報を復号し、前記第3のスライス群パラメータセットを示す前記第1の標示情報への応答として、前記第3のスライス群パラメータセットから前記関連する第1のシンタックス要素セットを復号すること、または、前記第1の標示情報が前記第3のスライス群パラメータセットを示さない場合、前記第1のセットのシンタックス要素を復号する手段と;
第4のスライス群パラメータセットから前記関連する第2のセットの包含を示す第2の標示情報を復号し、前記第4のスライス群パラメータセットを示す前記第2の標示情報への応答として、前記第4のスライス群パラメータセットから前記関連する第2のシンタックス要素セットを復号すること、または、前記第2の標示情報が前記第4のスライス群パラメータセットを示さない場合、前記第2のセットのシンタックス要素を復号する手段と;
前記復号された第1のシンタックス要素セットおよび第2のシンタックス要素セットを用いて、前記符号化スライスを復号する手段
を備える、方法。
A method comprising means for decoding a coded slice of a coded picture, said means for decoding comprising:
A first position in a first syntax element set and a second position in a second syntax element set used to decode the encoded slice into either a slice header or a slice group parameter set. Means to identify;
Means for decoding the first syntax element set and the second syntax element set as used for decoding the encoded slice, and means for decoding the first and second sets Is:
Decoding first indication information indicating inclusion of the associated first set from a third slice group parameter set, and as a response to the first indication information indicating the third slice group parameter set, Decoding the associated first syntax element set from a third slice group parameter set, or if the first indication information does not indicate the third slice group parameter set, the first set Means for decoding syntax elements of
Decoding second indication information indicating inclusion of the related second set from a fourth slice group parameter set, and in response to the second indication information indicating the fourth slice group parameter set, Decoding the associated second syntax element set from a fourth slice group parameter set, or if the second indication information does not indicate the fourth slice group parameter set, the second set Means for decoding syntax elements of
A method comprising means for decoding the encoded slice using the decoded first syntax element set and second syntax element set.
JP2014555275A 2012-02-01 2013-01-31 Video encoding method and apparatus Active JP5947405B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261593519P 2012-02-01 2012-02-01
US61/593,519 2012-02-01
PCT/FI2013/050103 WO2013113997A1 (en) 2012-02-01 2013-01-31 Method and apparatus for video coding

Publications (3)

Publication Number Publication Date
JP2015509345A true JP2015509345A (en) 2015-03-26
JP2015509345A5 JP2015509345A5 (en) 2015-06-11
JP5947405B2 JP5947405B2 (en) 2016-07-06

Family

ID=48869870

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014555275A Active JP5947405B2 (en) 2012-02-01 2013-01-31 Video encoding method and apparatus

Country Status (9)

Country Link
US (2) US9479775B2 (en)
EP (1) EP2810443B1 (en)
JP (1) JP5947405B2 (en)
KR (1) KR101669524B1 (en)
CN (1) CN104205819B (en)
BR (1) BR112014018856B1 (en)
CA (1) CA2863131C (en)
SG (1) SG11201404509QA (en)
WO (1) WO2013113997A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020184673A1 (en) * 2019-03-12 2020-09-17 ソニー株式会社 Image decoding device, image decoding method, image encoding device, and image encoding method
WO2020184672A1 (en) * 2019-03-12 2020-09-17 ソニー株式会社 Image decoding device, image decoding method, image encoding device, and image encoding method
WO2023276949A1 (en) * 2021-06-30 2023-01-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Encoding method, bit stream processing method, encoding device, and bit stream processing device

Families Citing this family (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11496760B2 (en) 2011-07-22 2022-11-08 Qualcomm Incorporated Slice header prediction for depth maps in three-dimensional video codecs
US9521418B2 (en) 2011-07-22 2016-12-13 Qualcomm Incorporated Slice header three-dimensional video extension for slice header prediction
US9288505B2 (en) 2011-08-11 2016-03-15 Qualcomm Incorporated Three-dimensional video with asymmetric spatial resolution
US9485503B2 (en) 2011-11-18 2016-11-01 Qualcomm Incorporated Inside view motion prediction among texture and depth view components
JP2013198059A (en) * 2012-03-22 2013-09-30 Sharp Corp Image encoder, image decoder, image encoding method, image decoding method and program
WO2013162454A1 (en) * 2012-04-24 2013-10-31 Telefonaktiebolaget L M Ericsson (Publ) Identifying a parameter set for decoding a multi-layer video representation
US9813705B2 (en) 2012-04-26 2017-11-07 Qualcomm Incorporated Parameter set coding
US9332269B2 (en) * 2012-06-27 2016-05-03 Broadcom Corporation Slice overhead coding
RU2602345C2 (en) 2012-06-29 2016-11-20 Телефонактиеболагет Л М Эрикссон (Пабл) Video sequences encoding and decoding containing sets of reference images
US9686542B2 (en) 2012-09-05 2017-06-20 Qualcomm Incorporated Network abstraction layer header design
US9491461B2 (en) 2012-09-27 2016-11-08 Qualcomm Incorporated Scalable extensions to HEVC and temporal motion vector prediction
US9380307B2 (en) 2012-11-19 2016-06-28 Qualcomm Incorporated Method and system for intra base layer (BL) transform in video coding
US9648319B2 (en) 2012-12-12 2017-05-09 Qualcomm Incorporated Device and method for scalable coding of video information based on high efficiency video coding
US10021388B2 (en) 2012-12-26 2018-07-10 Electronics And Telecommunications Research Institute Video encoding and decoding method and apparatus using the same
US9584808B2 (en) * 2013-02-22 2017-02-28 Qualcomm Incorporated Device and method for scalable coding of video information
US9578339B2 (en) 2013-03-05 2017-02-21 Qualcomm Incorporated Parallel processing for video coding
US9516306B2 (en) 2013-03-27 2016-12-06 Qualcomm Incorporated Depth coding modes signaling of depth data for 3D-HEVC
US20140301436A1 (en) * 2013-04-05 2014-10-09 Qualcomm Incorporated Cross-layer alignment in multi-layer video coding
KR102233965B1 (en) * 2013-07-01 2021-03-30 삼성전자주식회사 Method and apparatus for video encoding with filtering, method and apparatus for video decoding with filtering
US9906768B2 (en) * 2013-07-26 2018-02-27 Qualcomm Incorporated Use of a depth condition in 3DV codec
WO2015054634A2 (en) * 2013-10-11 2015-04-16 Vid Scale, Inc. High level syntax for hevc extensions
US9854270B2 (en) * 2013-12-19 2017-12-26 Qualcomm Incorporated Device and method for scalable coding of video information
WO2015101716A1 (en) * 2014-01-03 2015-07-09 Nokia Technologies Oy Parameter set coding
JP2015136057A (en) * 2014-01-17 2015-07-27 ソニー株式会社 Communication device, communication data generation method, and communication data processing method
JP2015136060A (en) * 2014-01-17 2015-07-27 ソニー株式会社 Communication device, communication data generation method, and communication data processing method
FR3018417B1 (en) * 2014-03-04 2017-07-28 Sagemcom Broadband Sas METHOD FOR MODIFYING A BINARY VIDEO STREAM
FR3029381A1 (en) * 2014-11-27 2016-06-03 Orange METHOD FOR COMPOSING AN INTERMEDIATE VIDEO REPRESENTATION
US10370060B2 (en) * 2015-10-30 2019-08-06 Shimano Inc. Bicycle electrical component assembly
GB2547442B (en) * 2016-02-17 2022-01-12 V Nova Int Ltd Physical adapter, signal processing equipment, methods and computer programs
CN110024385B (en) * 2016-11-29 2023-06-30 成均馆大学校产学协力团 Video encoding/decoding method, apparatus, and recording medium storing bit stream
CN108616748A (en) * 2017-01-06 2018-10-02 科通环宇(北京)科技有限公司 A kind of code stream and its packaging method, coding/decoding method and device
CN106878753B (en) * 2017-02-16 2020-04-28 南京理工大学 3D video residual coding mode selection method using texture smoothing information
EP3489900A1 (en) * 2017-11-23 2019-05-29 Thomson Licensing Method, apparatus and stream for encoding/decoding volumetric video
KR102503743B1 (en) 2018-04-11 2023-02-28 삼성전자주식회사 Apparatus and method for processing picture
US11451773B2 (en) * 2018-06-01 2022-09-20 Qualcomm Incorporated Block-based adaptive loop filter (ALF) design and signaling
JP7100200B2 (en) 2018-06-29 2022-07-12 北京字節跳動網絡技術有限公司 Partial / all pruning when adding HMVP candidates to merge / AMVP
WO2020003270A1 (en) 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Number of motion candidates in a look up table to be checked according to mode
TWI728388B (en) 2018-06-29 2021-05-21 大陸商北京字節跳動網絡技術有限公司 Checking order of motion candidates in look up table
KR102611261B1 (en) 2018-06-29 2023-12-08 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Distinguish between update target LUT or non-update LUT
SG11202012293RA (en) 2018-06-29 2021-01-28 Beijing Bytedance Network Technology Co Ltd Update of look up table: fifo, constrained fifo
WO2020003279A1 (en) 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Concept of using one or multiple look up tables to store motion information of previously coded in order and use them to code following blocks
EP4325861A3 (en) * 2018-06-29 2024-03-06 Beijing Bytedance Network Technology Co., Ltd. Interaction between lut and amvp
CN110677669B (en) 2018-07-02 2021-12-07 北京字节跳动网络技术有限公司 LUT with LIC
US11064196B2 (en) * 2018-09-03 2021-07-13 Qualcomm Incorporated Parametrizable, quantization-noise aware bilateral filter for video coding
CN113170096A (en) * 2018-10-27 2021-07-23 华为技术有限公司 Individual blend lists of sub-block blend candidates and intra and inter prediction technique coordination for video coding
US11051017B2 (en) 2018-12-20 2021-06-29 Qualcomm Incorporated Adaptive loop filter (ALF) index signaling
JP7275286B2 (en) 2019-01-10 2023-05-17 北京字節跳動網絡技術有限公司 Start LUT update
CN113383554B (en) 2019-01-13 2022-12-16 北京字节跳动网络技术有限公司 Interaction between LUTs and shared Merge lists
WO2020147773A1 (en) 2019-01-16 2020-07-23 Beijing Bytedance Network Technology Co., Ltd. Inserting order of motion candidates in lut
WO2020156535A1 (en) 2019-02-01 2020-08-06 Beijing Bytedance Network Technology Co., Ltd. Interactions between in-loop reshaping and block differential pulse coded modulation
CN113383547A (en) 2019-02-01 2021-09-10 北京字节跳动网络技术有限公司 Interaction between loop shaping and interframe coding and decoding tools
CN113574889B (en) 2019-03-14 2024-01-12 北京字节跳动网络技术有限公司 Signaling and syntax of loop shaping information
WO2020192611A1 (en) 2019-03-22 2020-10-01 Beijing Bytedance Network Technology Co., Ltd. Interaction between merge list construction and other tools
WO2020192612A1 (en) 2019-03-23 2020-10-01 Beijing Bytedance Network Technology Co., Ltd. Default in-loop reshaping parameters
EP3958568A4 (en) * 2019-04-15 2023-01-11 Lg Electronics Inc. Video or image coding based on signaling of scaling list data
JP7403245B2 (en) * 2019-06-21 2023-12-22 キヤノン株式会社 Image decoding device, image decoding method
CA3145175A1 (en) * 2019-06-24 2020-12-30 Interdigital Vc Holdings, Inc. Method and apparatus for signaling decoding data using high level syntax elements
GB2586517B (en) * 2019-08-23 2022-06-15 Imagination Tech Ltd Methods and decompression units for decompressing a compressed block of image data
US11535339B2 (en) * 2019-08-30 2022-12-27 Shimano Inc. Bicycle derailleur
CN117376552A (en) * 2019-09-16 2024-01-09 Lg电子株式会社 Decoding device, encoding device, and transmitting device
US11758193B2 (en) * 2019-11-04 2023-09-12 Hfi Innovation Inc. Signaling high-level information in video and image coding
KR102192631B1 (en) * 2019-11-28 2020-12-17 주식회사우경정보기술 Parallel forensic marking device and forensic marking mehod
US11902584B2 (en) 2019-12-19 2024-02-13 Tencent America LLC Signaling of picture header parameters
EP4088469A1 (en) * 2020-01-09 2022-11-16 Telefonaktiebolaget Lm Ericsson (Publ) Picture header presence
WO2021195588A1 (en) * 2020-03-26 2021-09-30 Alibaba Group Holding Limited Methods and apparatuses for signaling picture header
US11516514B2 (en) * 2020-03-27 2022-11-29 Tencent America LLC High level control for deblocking operations
CN112468818B (en) * 2021-01-22 2021-06-29 腾讯科技(深圳)有限公司 Video communication realization method and device, medium and electronic equipment

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010043773A1 (en) * 2008-10-17 2010-04-22 Nokia Corporation Sharing of motion vector in 3d video coding
JP2010520697A (en) * 2007-03-02 2010-06-10 エルジー エレクトロニクス インコーポレイティド Video signal decoding / encoding method and apparatus
JP2010157821A (en) * 2008-12-26 2010-07-15 Victor Co Of Japan Ltd Image encoder, image encoding method, and program of the same
WO2010126608A2 (en) * 2009-05-01 2010-11-04 Thomson Licensing 3d video coding formats
JP2010537484A (en) * 2007-08-15 2010-12-02 トムソン ライセンシング Method and apparatus for motion skip mode using regional disparity vectors in multi-view coded video
JP2011509631A (en) * 2008-01-11 2011-03-24 トムソン ライセンシング Video and depth encoding
WO2013016231A1 (en) * 2011-07-22 2013-01-31 Qualcomm Incorporated Mvc based 3dvc codec supporting inside view motion prediction (ivmp) mode
WO2013016225A1 (en) * 2011-07-22 2013-01-31 Qualcomm Incorporated Slice header prediction for depth maps in three-dimensional video codecs
WO2013115025A1 (en) * 2012-01-31 2013-08-08 ソニー株式会社 Encoding device and encoding method, and decoding device and decoding method

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004248124A (en) * 2003-02-17 2004-09-02 Nippon Telegr & Teleph Corp <Ntt> Hierarchical image encoder and hierarchical image decoder
US7586924B2 (en) * 2004-02-27 2009-09-08 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for coding an information signal into a data stream, converting the data stream and decoding the data stream
EP1879583A2 (en) * 2005-05-03 2008-01-23 Mutual Pharmaceutical Company, Inc. Quinine formulations
CN101283599B (en) * 2005-10-12 2011-01-26 汤姆森许可贸易公司 Region of interest H.264 scalable video coding
US8938009B2 (en) * 2007-10-12 2015-01-20 Qualcomm Incorporated Layered encoded bitstream structure
KR20090089960A (en) * 2008-02-20 2009-08-25 엘지전자 주식회사 A method for encoding and decoding of ultra-high definition image and apparatus thereof
WO2009136681A1 (en) * 2008-05-08 2009-11-12 Lg Electronics Inc. Method for encoding and decoding image, and apparatus for displaying image
CN101374243B (en) * 2008-07-29 2010-06-23 宁波大学 Depth map encoding compression method for 3DTV and FTV system
US9591320B2 (en) * 2010-07-15 2017-03-07 Texas Instruments Incorporated Context and bypass encoding video
CN102055982B (en) * 2011-01-13 2012-06-27 浙江大学 Coding and decoding methods and devices for three-dimensional video
KR101830787B1 (en) * 2011-07-12 2018-02-21 삼성전자 주식회사 Method and apparatus for searching hand written memo data
US9521418B2 (en) * 2011-07-22 2016-12-13 Qualcomm Incorporated Slice header three-dimensional video extension for slice header prediction
US20130188709A1 (en) * 2012-01-25 2013-07-25 Sachin G. Deshpande Video decoder for tiles with absolute signaling

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010520697A (en) * 2007-03-02 2010-06-10 エルジー エレクトロニクス インコーポレイティド Video signal decoding / encoding method and apparatus
JP2010537484A (en) * 2007-08-15 2010-12-02 トムソン ライセンシング Method and apparatus for motion skip mode using regional disparity vectors in multi-view coded video
JP2011509631A (en) * 2008-01-11 2011-03-24 トムソン ライセンシング Video and depth encoding
WO2010043773A1 (en) * 2008-10-17 2010-04-22 Nokia Corporation Sharing of motion vector in 3d video coding
JP2010157821A (en) * 2008-12-26 2010-07-15 Victor Co Of Japan Ltd Image encoder, image encoding method, and program of the same
WO2010126608A2 (en) * 2009-05-01 2010-11-04 Thomson Licensing 3d video coding formats
WO2013016231A1 (en) * 2011-07-22 2013-01-31 Qualcomm Incorporated Mvc based 3dvc codec supporting inside view motion prediction (ivmp) mode
WO2013016225A1 (en) * 2011-07-22 2013-01-31 Qualcomm Incorporated Slice header prediction for depth maps in three-dimensional video codecs
JP2014527336A (en) * 2011-07-22 2014-10-09 クゥアルコム・インコーポレイテッド Slice header prediction for depth map in 3D video codec
WO2013115025A1 (en) * 2012-01-31 2013-08-08 ソニー株式会社 Encoding device and encoding method, and decoding device and decoding method

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
JPN6014027236; Stephan Wenger et al.: 'Adaptation Parameter Set (APS)' Joint Collaborative Team on Video Coding (JCT-VC)of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC-F747r3, 201107, pp.1-10, 6th Meeting: Torino, IT *
JPN6015014600; Chia-Yang Tsai et al.: 'CE4 Subset3: Slice Common Information Sharing' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC-E045_r1, 201103, pp.1-7, 5th Meeting: Geneva, CH *
JPN6015020027; Kiran Misra et al.: 'Lightweight slicing for entropy coding' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC-D070, 20110116, pp.1-7, 4th Meeting: Daegu, KR *
JPN6015020033; Kiran Misra and Andrew Segall: 'Tiles for parallel decoding' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11 JCTVC-E412_r1, 20110319, pp.1-5, 5th Meeting: Geneva, CH *
JPN6015041866; Miska M. Hannuksela and Antti Hallapuro: 'Nested hierarchy of tiles and slices through slice header prediction' Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11 JCTVC-I0070r2, 201204, pp.1-11, 9th Meeting: Geneva, C&#xFF28 *
JPN6015041867; Byeongdoo Choi et al.: 'On Slice Header and Parameter Set' Joint Collaborative Team on 3D Video Coding Extension Development of ITU-T SG 16 WP 3 and ISO/IEC JT JCT2-A0026, 201207, pp.1-3, 1st Meeting: Stockholm, SE *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020184673A1 (en) * 2019-03-12 2020-09-17 ソニー株式会社 Image decoding device, image decoding method, image encoding device, and image encoding method
WO2020184672A1 (en) * 2019-03-12 2020-09-17 ソニー株式会社 Image decoding device, image decoding method, image encoding device, and image encoding method
US11516468B2 (en) 2019-03-12 2022-11-29 Sony Group Corporation Image decoding device, image decoding method, image encoding device, and image encoding method
US11831865B2 (en) 2019-03-12 2023-11-28 Sony Group Corporation Image decoding device, image decoding method, image encoding device, and image encoding method
WO2023276949A1 (en) * 2021-06-30 2023-01-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Encoding method, bit stream processing method, encoding device, and bit stream processing device

Also Published As

Publication number Publication date
JP5947405B2 (en) 2016-07-06
EP2810443A4 (en) 2016-11-09
EP2810443B1 (en) 2021-03-31
SG11201404509QA (en) 2014-08-28
US20130194384A1 (en) 2013-08-01
BR112014018856A8 (en) 2017-07-11
US9479775B2 (en) 2016-10-25
BR112014018856A2 (en) 2017-06-20
EP2810443A1 (en) 2014-12-10
KR101669524B1 (en) 2016-11-09
WO2013113997A1 (en) 2013-08-08
KR20140130152A (en) 2014-11-07
US10397610B2 (en) 2019-08-27
US20170048550A1 (en) 2017-02-16
CN104205819B (en) 2017-06-30
CA2863131A1 (en) 2013-08-08
BR112014018856B1 (en) 2022-09-20
CN104205819A (en) 2014-12-10
CA2863131C (en) 2017-03-28

Similar Documents

Publication Publication Date Title
JP5947405B2 (en) Video encoding method and apparatus
US11818385B2 (en) Method and apparatus for video coding
US10904543B2 (en) Method and apparatus for video coding and decoding
JP6057395B2 (en) Video encoding method and apparatus
JP5916266B2 (en) Video coding method and apparatus
JP6169273B2 (en) Video encoding / decoding device, method, and computer program
KR101678321B1 (en) Method and apparatus for video coding
JP2019075823A (en) Apparatus, method and computer program for video coding and decoding
US20130343459A1 (en) Method and apparatus for video coding
US20140219346A1 (en) Method and apparatus for video coding and decoding
US20140085415A1 (en) Method and apparatus for video coding
US20140092977A1 (en) Apparatus, a Method and a Computer Program for Video Coding and Decoding

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150413

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151021

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20151112

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160112

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160217

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160602

R150 Certificate of patent or registration of utility model

Ref document number: 5947405

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250