JP2017500764A - Hevc拡張のための高レベル構文 - Google Patents

Hevc拡張のための高レベル構文 Download PDF

Info

Publication number
JP2017500764A
JP2017500764A JP2016522000A JP2016522000A JP2017500764A JP 2017500764 A JP2017500764 A JP 2017500764A JP 2016522000 A JP2016522000 A JP 2016522000A JP 2016522000 A JP2016522000 A JP 2016522000A JP 2017500764 A JP2017500764 A JP 2017500764A
Authority
JP
Japan
Prior art keywords
layer
video
video encoding
representation format
sps
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016522000A
Other languages
English (en)
Other versions
JP6212212B2 (ja
Inventor
ホー ヨン
ホー ヨン
イエン イエ
イエン イエ
シアオユー シウ
シアオユー シウ
ユーウェン ホー
ユーウェン ホー
Original Assignee
ヴィド スケール インコーポレイテッド
ヴィド スケール インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヴィド スケール インコーポレイテッド, ヴィド スケール インコーポレイテッド filed Critical ヴィド スケール インコーポレイテッド
Publication of JP2017500764A publication Critical patent/JP2017500764A/ja
Application granted granted Critical
Publication of JP6212212B2 publication Critical patent/JP6212212B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/107Selection of coding mode or of prediction mode between spatial and temporal predictive coding, e.g. picture refresh
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/188Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a video data packet, e.g. a network abstraction layer [NAL] unit
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

ビデオ符号化デバイスが、ネットワーク抽象化レイヤ(NAL)ユニットを識別することができる。ビデオ符号化デバイスは、NALユニットが現在のレイヤに対するアクティブパラメータセットを含むかどうかを決定することができる。NALユニットが現在のレイヤに対するアクティブパラメータセットを含む場合、ビデオ符号化デバイスは、ゼロ、現在のレイヤを示す値、または現在のレイヤの参照レイヤを示す値の少なくとも1つへとNALユニットに関連付けられたNALユニットヘッダレイヤ識別子を設定することができる。NALユニットは、ピクチャパラメータセット(PPS)NALユニットの場合がある。NALユニットは、シーケンスパラメータセット(SPS)NALユニットの場合がある。

Description

本願発明は、HEVC拡張のための高レベル構文(High Level Syntax for HEVC Extensions)に関する。
相互参照
本出願は、それぞれ参照によりその全体が本明細書に組み込まれている、2013年10月11日に出願した米国仮出願第61/889,787号、および2013年10月11日に出願した米国仮出願第61/889,919号の優先権を主張するものである。
効率的なデジタルビデオ通信、配布、および消費を可能にするために、様々なデジタルビデオ圧縮方式が開発および標準化されてきた。ISO/IECおよび/またはITU−Tによって開発されてきた標準の例は、H.261、MPEG−1、MPEG−2、H.263、MPEG−4(パート2)、およびH.264/AVC(MPEG−4パート10アドバンスドビデオコーディング)を含む。高効率ビデオコーディング(HEVC:High Efficiency Video Coding)として知られているビデオ符号化標準は、ITU−Tビデオコーディングエキスパートグループ(VCEG:Video Coding Experts Group)およびISO/IEC MPEGによって共同で開発された。HEVC(ITU−T H.265およびISO/IEC 23008−2)は、H.264/AVC標準より実質的に高い符号化効率を達成することができる場合がある。
ビデオ符号化デバイスは、ネットワーク抽象化レイヤ(NAL)ユニットを識別することができる。ビデオ符号化デバイスは、NALユニットが現在のレイヤについてのアクティブパラメータセット(active parameter set)を含むかどうかを決定することができる。NALユニットが現在のレイヤについてのアクティブパラメータセットを含むという決定に基づいて、ビデオ符号化デバイスは、ゼロ、現在のレイヤを示す値、または現在のレイヤの参照レイヤを示す値の少なくとも1つへとNALユニットに関連付けられたNALユニットヘッダレイヤ識別子を設定することができる。NALユニットはピクチャパラメータセット(PPS:picture parameter set)NALユニットの場合がある。NALユニットは、シーケンスパラメータセット(SPS:sequence parameter set)NALユニットの場合がある。現在のレイヤを示す値は、現在のレイヤに関連付けられたレイヤ識別子を含むことができる。現在のレイヤの参照レイヤを示す値は、現在のレイヤの参照レイヤに関連付けられたレイヤ識別子を含むことができる。ビデオ符号化デバイスは、ビデオ復号化デバイスにNALユニットを含むビデオビットストリームを送ることができる。
ビデオ符号化デバイスは、SPSおよびビデオパラメータセット(VPS:video parameter set)を含むビデオビットストリームを受信することができる。VPSは、ビデオ表現形式のリストを含むことができる。ビデオ符号化デバイスは、たとえば、SPSの更新ビデオ表現形式フラグに基づいて、SPSに関連付けられたレイヤに対してビデオ表現形式を決定することができる。表現形式インデックスがSPSに存在することを更新ビデオ表現形式フラグが示している場合、ビデオ符号化デバイスは、表現形式インデックスに基づいて、VPSのビデオ表現形式のリストからビデオ表現形式を決定することができる。更新表現形式インデックスがSPSに存在しない場合、ビデオ符号化デバイスは、デフォルトビデオ表現形式からビデオ表現形式を決定することができる。ビデオ符号化デバイスは、たとえば、SPSの更新ビデオ表現形式フラグに基づいて、表現形式インデックスがSPSに存在するかどうかを決定することができる。たとえば、更新ビデオ表現形式フラグが1に等しい場合、ビデオ符号化デバイスは、表現形式インデックスがSPSに存在すると決定することができる。更新ビデオ表現形式フラグが0に等しい場合、ビデオ符号化デバイスは、表現形式インデックスがSPSに存在しないと決定することができる。デフォルトビデオ表現形式は、レイヤに対してVPSで指定されたデフォルトビデオ表現形式を含むことができる。ビデオ更新表現形式インデックスは、0とVPSの数表現形式マイナス1の値の間の範囲(両端の値を含む)にある場合がある。
ビデオ符号化デバイスは、SPSに関連付けられたレイヤについて表現形式を割り当てることができる。ビデオ符号化デバイスは、たとえば、SPSに関連付けられたレイヤに対して、割り当てられた表現形式に基づいて、SPSに表現形式インデックスを含むべきかどうかを決定することができる。たとえば、割り当てられた表現形式がデフォルト表現形式である場合、表現形式インデックスは、SPSに含まれ得ない。たとえば、割り当てられた表現形式がVPSで指定されている場合、表現形式インデックスはSPSに含まれ得る。ビデオ符号化デバイスは、表現形式インデックスがSPSに含まれているかどうかを示すために、更新ビデオ表現形式フラグを設定することができる。ビデオ符号化デバイスは、表現形式インデックスがSPSに存在することを示すために、1に等しい更新ビデオ表現形式フラグを設定することができる。ビデオ符号化デバイスは、表現形式インデックスがSPSに存在しないことを示すために、0に等しい更新ビデオ表現形式フラグを設定することができる。
ビデオ符号化デバイスは、VPSおよび1つまたは複数のレイヤを含むビデオビットストリームを受信することができる。ビデオ符号化デバイスは、たとえば、VPSのデフォルトの直接的な依存関係フラグに基づいて、レイヤの1つまたは複数に関連付けられた直接的な依存関係を決定することができる。直接的な依存関係タイプ情報がVPSに存在することをデフォルトの直接的な依存関係フラグが示している場合、ビデオ符号化デバイスは、VPSの直接的な依存関係タイプ情報から直接的な依存関係を決定することができる。直接的な依存関係タイプ情報がVPSに存在しないことをデフォルトの直接的な依存関係フラグが示している場合、ビデオ符号化デバイスは、デフォルトに基づいて直接的な依存関係を決定することができる。デフォルト依存関係は、複数のレイヤのすべてのレイヤに適用することができる。
ビデオ符号化デバイスは、VPSに直接的な依存関係タイプ情報を含めるべきかどうかを決定することができる。ビデオ符号化デバイスがデフォルト依存関係を使用することを決めた場合、ビデオ符号化デバイスは、VPSの直接的な依存関係タイプ情報を信号送信することを回避することができる。ビデオ符号化デバイスがデフォルト依存関係を使用しないことを決めた場合、ビデオ符号化デバイスは、VPSに直接的な依存関係タイプ情報を含めることができる。ビデオ符号化デバイスは、直接的な依存関係タイプ情報がVPSで信号送信されるかどうかを示すために、VPSにデフォルトの直接的な依存関係フラグを設定することができる。
マルチループSHVCエンコーダは、プロファイルに対する参照レイヤの数を制限するために、実行可能命令を用いるプロセッサを含むことができる。マルチループSHVCエンコーダは、参照レイヤ制限を設定することができる。マルチループSHVCエンコーダは、プロファイルに対するレイヤへとビデオ信号を符号化することができるため、符号化されたビデオ信号の所与のレイヤに対する直接的および間接的な参照レイヤの総数は、参照レイヤ制限未満である。
マルチループSHVCエンコーダは、プロファイルに対する参照レイヤの数を制限するために、実行可能命令を用いるプロセッサを持つことができる。マルチループSHVCエンコーダは、参照レイヤ制限を設定することができる。マルチループSHVCエンコーダは、直接的および間接的なレイヤを含むプロファイルに対するレイヤへとビデオ信号を符号化することができる。各レイヤについて、マルチループSHVCエンコーダは、直接的および間接的な参照レイヤの総数を決定することができる。マルチループSHVCエンコーダは、レイヤに対する直接的および間接的な参照レイヤの総数が参照レイヤ制限未満かどうかを決定することができる。マルチループSHVCエンコーダは、たとえば、各レイヤに対する直接的および間接的な参照レイヤの総数が、参照レイヤ制限未満である場合、デコーダに符号化されたビデオ信号を送ることができる。
ビデオ符号化デバイスは、たとえば、いくつかのレイヤを制限するために1つまたは複数の制約を適用することによって、マルチループSHVCコーデックに対する符号化の複雑さを限定および/または低減することができる。レイヤは、直接的な依存レイヤ、間接的な依存レイヤ、および/またはベースレイヤの場合がある。1つまたは複数の制約は、たとえば、直接的な依存レイヤの最大数を制限するか、または直接的および間接的な依存レイヤの最大数を制限することの場合がある。ビデオ符号化デバイスは、VPS拡張の構文要素、SPSの構文要素、プロファイル指示、ならびに/またはプロファイル、層、および/もしくはレベル(たとえば拡張可能な主なプロファイル)の少なくとも1つを介して、プロファイルの直接的な依存レイヤの最大数を制限することができる。ビデオ符号化デバイスは、VPS拡張の構文要素、SPSの構文要素、プロファイル指示、あるいは/またはプロファイル、層、および/もしくはレベル(たとえば拡張可能な主なプロファイル)の少なくとも1つを介して、プロファイルの直接的および間接的な依存レイヤの最大数を制限することができる。制約は、ベースレイヤへの制約の場合がある。ベースレイヤへの制約は、準拠するSHVCビットストリームを使用することができる。準拠するSHVCビットストリームは、たとえば、0に等しいそのnuh_layer_idおよび0に等しいTemporalIdを用いるピクチャを含む1つまたは複数のアクセスユニットの場合がある。0に等しいnuh_layer_idおよび0に等しいTemporalIdを用いるピクチャを含むレイヤは、レイヤ識別子リストTargetDecLayerIdListの各nuh_layer_id値に対するレイヤの直接的または間接的な依存レイヤの場合がある。ビデオ符号化デバイスは、導き出された変数を介して1つまたは複数の制約を信号送信することができる。ビデオ符号化デバイスは、構文要素を介して1つまたは複数の制約を信号送信することができる。
例示的なマルチレイヤの拡張可能なビデオ符号化システムを示す図である。 立体的な(stereoscopic)ビデオ符号化のための時間的かつレイヤ間の予測の例を示す図である。 HDからUHDへの拡張を実行するように構成され得る例示的な2レイヤの拡張可能なビデオエンコーダを示す簡略化されたブロック図である。 HDからUHDへの拡張を実行するように構成され得る例示的な2レイヤの拡張可能なビデオデコーダを示す簡略化されたブロック図である。 シーケンスパラメータセット(SPS)およびピクチャパラメータセット(PPS)のアクティブ化の例を示す図である。 例示的な複数レイヤ予測構造を示す図である。 例示的な間接的な依存レイヤを示す図である。 階層的なビデオ符号化構造の例示的な時間的なレイヤを示す図である。 1つまたは複数の開示された実施形態が実装され得る例示的な通信システムを示すシステム図である。 図9Aに示した通信システム内で使用され得る例示的なワイヤレス送信/受信ユニット(WTRU)を示すシステム図である。 図9Aに示した通信システム内で使用され得る例示的な無線アクセスネットワークおよび例示的なコアネットワークを示すシステム図である。 図9Aに示した通信システム内で使用され得る別の例示的な無線アクセスネットワークおよび別の例示的なコアネットワークを示すシステム図である。 図9Aに示した通信システム内で使用され得る別の例示的な無線アクセスネットワークおよび別の例示的なコアネットワークを示すシステム図である。
ここで、実例となる実施形態の詳細な説明について、様々な図に関して記述されるであろう。この記述は可能な実装の詳細な例を提供するが、詳細は、代表的なものであり、本出願の範囲を制限することを意図するものではないことに注意されたい。
衛星、ケーブル、および地上の伝送チャネルを通じてテレビ信号を送るなど、従来のデジタルビデオサービスと比較して、IPTV、ビデオチャット、モバイルビデオ、およびストリーミングビデオなど、ますます多くのビデオアプリケーションが、異種混合の環境で展開され得る。たとえば、ビデオアプリケーションは、異なるサイズのセルなどを用いるネットワークでビデオストリーミングを提供することができる。ネットワークだけでなくクライアント上またはクライアントにも異種混合が存在する場合がある。たとえば、クライアント側では、スマートフォン、タブレット、PC、およびテレビなどを含む、多様な画面サイズおよび表示能力を用いるデバイスでビデオコンテンツを消費しているN画面のシナリオが提供および/または使用され得る。ネットワーク側では、ビデオは、インターネット、WiFiネットワーク、モバイル(3Gおよび4G)ネットワーク、および/またはそれらの任意の組み合わせを通じて送信され得る。
拡張可能なビデオ符号化は、最高の解像度で信号を1度符号化することができる。拡張可能なビデオ符号化は、特定のアプリケーションによって必要とされ、かつ/またはクライアントデバイスによってサポートされる特定の速度および解像度に依存して、ストリームのサブセットからの復号を可能にすることができる。解像度は、空間解像度(たとえば画像サイズ)、時間解像度(たとえばフレームレート)、ビデオ品質(たとえばMOSなど主観的品質、および/またはPSNRもしくはSSIMもしくはVQMなど客観的品質)などを制限せずに含むいくつかのビデオパラメータによって定義され得る。他の一般的に使用されるビデオパラメータは、クロマ形式(たとえばYUV420またはYUV422またはYUV444など)、ビット深度(たとえば8ビットまたは10ビットのビデオなど)、複雑さ、ビュー、全色域、および/またはアスペクト比(たとえば16:9または4:3)を含むことができる。MPEG−2ビデオ、H.263、MPEG4 Visual、およびH.264など国際的なビデオ標準は、拡張モードをサポートするツールおよび/またはプロファイルを持つことができる。
拡張可能なビデオ符号化は、部分的なビットストリームの送信および復号を可能にすることができる。部分的なビットストリームの送信および復号は、比較的高い再構成品質(たとえば部分的なビットストリームの所与のそれぞれの速度)を保持しながら、拡張可能なビデオ符号化(SVC)システムが、ビデオサービスに、より低い時間解像度および/もしくは空間解像度または低減された忠実度を提供することを可能することができる。SVCは、単一ループ復号で実装され得るため、SVCデコーダは、復号されているレイヤで1つの動き補償ループ(motion compensation loop)をセットアップすることができ、1つまたは複数の他のより下位のレイヤで動き補償ループをセットアップすることができない。たとえば、ビットストリームは、ベースレイヤの場合がある第1のレイヤ(レイヤ1)および拡張レイヤの場合がある第2のレイヤ(レイヤ2)を含む、2つのレイヤを含むことができる。そのようなSVCデコーダがレイヤ2ビデオを再構築する場合、復号されたピクチャバッファおよび動き補償された予測(motion compensated prediction)のセットアップは、レイヤ2に限定され得る。SVCのそのような実装では、より下位のレイヤからのそれぞれの参照ピクチャは、完全には再構築されない場合があり、これによりデコーダで、計算上の複雑さおよび/またはメモリ消費量を低減することができる。
単一ループ復号は、制約されたレイヤ間テクスチャ予測(inter-layer texture prediction)によって達成され得て、所与のレイヤにおける現在のブロックについて、対応するより下位のレイヤのブロックがイントラモード(intra mode)で符号化されている場合、より下位のレイヤからの空間テクスチャ予測が許可され得る。これは、限定されたイントラ予測と呼ばれ得る。より下位のレイヤのブロックがイントラモードで符号化されている場合、動き補償動作および/または復号されたピクチャバッファなしで再構築され得る。
SVCは、1つまたは複数のより下位のレイヤから、動きベクトル予測、残差予測(residual prediction)、モード予測など1つまたは複数の追加のレイヤ間予測手法を実装することができる。これは、拡張レイヤのレート歪み効率を向上することができる。単一ループ復号を用いるSVC実装は、デコーダで低減された計算上の複雑さおよび/または低減されたメモリ消費量を示すことができ、たとえば、ブロックレベルのレイヤ間予測に対する信頼により、増加された実装の複雑さを示すことができる。単一ループ復号制約を課することによって引き起こされ得るパフォーマンスへのペナルティーを補償するために、エンコーダの設計および計算の複雑さは、望まれるパフォーマンスを達成するために増加され得る。インターレースされたコンテンツの符号化は、SVCによってサポートされない場合がある。
図1は、例示的なブロックベースのハイブリッドの拡張可能なビデオ符号化(SVC)システムを示す簡略化されたブロック図である。レイヤ1(ベースレイヤ)によって表される空間信号解像度および/または時間信号解像度は、入力ビデオ信号のダウンサンプリングによって生成され得る。次の符号化段階では、Q1など量子化器の設定は、基地情報の品質レベルにつながる場合がある。1つまたは複数の次のより高次のレイヤは、より高次のレイヤの解像度レベルの概算を表すことができる、ベースレイヤ再構成Y1を使用して符号化および/または復号され得る。アップサンプリングユニットは、レイヤ2の解像度へとベースレイヤ再構成信号のアップサンプリングを実行することができる。ダウンサンプリングおよび/またはアップサンプリングは、複数のレイヤの全体にわたって実行され得る(たとえばN個のレイヤに対して、レイヤ1、2...N)。ダウンサンプリング比および/またはアップサンプリング比は、たとえば、2つのレイヤ間の拡張性の大きさに依存して異なる場合がある。
図1の例示的な拡張可能なビデオ符号化システムでは、所与のより高次のレイヤn(たとえば、2≦n≦N、Nはレイヤの総数である)について、差動信号は、現在のレイヤn信号からアップサンプリングされたより下位のレイヤの信号(たとえばレイヤn−1信号)を引くことによって生成され得る。この差動信号は符号化され得る。2つのレイヤn1およびn2によって表されたそれぞれのビデオ信号が、同じ空間解像度を持っている場合、対応するダウンサンプリング動作および/またはアップサンプリング動作は回避され得る。所与のレイヤn(たとえば、1≦n≦N)、または複数のレイヤは、より高次のレイヤからの復号された情報を使用せずに復号され得る。
たとえば図1の例示的なSVCシステムを使用して、ベースレイヤ以外のレイヤについて残差信号(たとえば2つのレイヤ間の差動信号)の符号化に依存することは、視覚的アーティファクトを引き起こす可能性がある。そのような視覚的アーティファクトは、たとえば、そのダイナミックレンジおよび/または残差の符号化の間に実行された量子化を限定するための残差信号の量子化および/または正規化による場合がある。1つまたは複数のより高次のレイヤのエンコーダは、それぞれの符号化モードとして動き推定および/または動き補償された予測を採用することができる。残差信号の動き推定および/または補償は、従来の動き推定とは異なる場合があり、視覚的アーティファクトを受けやすい場合がある。視覚的アーティファクトの発生を減らす(たとえば、最小限にする)ために、残差の符号化の間に実行されるそのダイナミックレンジおよび量子化を限定するために、たとえば、残差信号の量子化および/または正規化の両方を含むことができる共同の量子化プロセスとともに、より高度な残差量子化が実装され得る。そのような量子化プロセスは、SVCシステムの複雑さを増加させる場合がある。
マルチビュービデオ符号化(MVC)は、ビューの拡張性を提供することができる。ビューの拡張性の例では、ベースレイヤビットストリームは、従来の2次元(2D)ビデオを再構築するために復号され得て、同じビデオ信号の他のビュー表現を再構築するために、1つまたは複数の追加の拡張レイヤが復号され得る。そのようなビューが三次元(3D)ディスプレイによってともに組み合わせられ表示されるとき、適切な奥行き知覚を用いる3Dビデオが生成され得る。
図2は、左ビュー(レイヤ1)および右ビュー(レイヤ2)を用いて立体的なビデオを符号化するためにMVCを使用するための例示的な予測構造を表している。左ビューのビデオは、I−B−B−P予測構造を用いて符号化され得て、右ビューのビデオはP−B−B−B予測構造を用いて符号化され得る。図2に示すように、右ビューでは、左ビューの第1のIピクチャを用いて配置された第1のピクチャは、Pピクチャとして符号化され得て、右ビューの次のピクチャは、右ビューの時間的な参照から来る第1の予測、および左ビューのレイヤ間参照から来る第2の予測を用いてBピクチャとして符号化され得る。MVCは、単一ループ復号機能をサポートしない場合がある。たとえば、図2に示すように、右ビュー(レイヤ2)のビデオの復号は、左ビュー(レイヤ1)のピクチャの全体の利用可能度に対して調整され得て、各レイヤ(ビュー)は、それぞれの補償ループを持っている。MVCの実装は、高レベルの構文変更を含む場合があり、ブロックレベルの変更を含まない場合がある。これは、MVCの実装を容易にする場合がある。たとえば、MVCは、スライスおよび/またはピクチャレベルで参照ピクチャを構成することによって実装され得る。MVCは、複数のビューを横断してレイヤ間予測を実行するために、たとえば図2に示した例を拡張することによって、2つを超えるビューの符号化をサポートすることができる。
MPEGフレーム互換(MFC)のビデオ符号化は、3Dビデオ符号化に拡張可能な拡張を提供することができる。たとえば、MFCは、フレーム互換のベースレイヤビデオに拡張可能な拡張を提供することができ(たとえば、同じフレームへとパック(pack)された2つのビュー)、完全な解像度のビューを回復するために1つまたは複数の拡張レイヤを提供することができる。立体的な3Dビデオは、左ビューおよび右ビューを含む2つのビューを持つことができる。立体的な3Dコンテンツは、1つのフレームに2つのビューをパックおよび/または多重化することによって、またパックされたビデオを圧縮および送信することによって伝達され得る。受信機側では、復号の後に、フレームは、アンパックされて2つのビューとして表示され得る。ビューのそのような多重化は、時間領域または空間領域で実行され得る。空間領域で実行される場合、同じピクチャサイズを維持するために、2つのビューは、(たとえば2の係数によって)空間的にダウンサンプリングされて、1つまたは複数の配置に従ってパックされ得る。たとえば、並行した配置は、ダウンサンプリングされた左ビューをピクチャの左半分に、ダウンサンプリングされた右ビューをピクチャの右半分に配置することができる。他の配置は、上下、行ごと、格子縞などを含むことができる。たとえば、フレーム互換の3Dビデオを達成するために使用される配置は、1つまたは複数のフレーム格納配置(frame packing arrangement)SEIメッセージによって伝達され得る。そのような配置は、帯域幅消費において最小の増加で3D伝達を達成することができるが、空間的なダウンサンプリングは、ビューのエイリアシングを引き起こす場合があり、かつ/または3Dビデオの視覚的な品質およびユーザ経験を低減する場合がある。
IPTV、ビデオチャット、モバイルビデオ、および/またはストリーミングビデオなどのビデオアプリケーションは、異種混合の環境で展開され得る。異種混合は、クライアント側に存在する場合がある。異種混合は、ネットワークに存在する場合がある。N画面は、スマートフォン、タブレット、PC、および/またはテレビを含む、多様な画面サイズおよび/または表示能力を有するデバイスでビデオコンテンツを消費することを含むことができる。N画面は、たとえば、クライアント側で異種混合に寄与する場合がある。ビデオは、インターネット、WiFiネットワーク、モバイルネットワーク(たとえば3Gおよび/または4G)、および/またはたとえばネットワーク側のこれらのネットワークの任意の組み合わせを横断して送信され得る。拡張可能なビデオ符号化は、ユーザ経験および/またはサービスのビデオ品質を向上することができる。拡張可能なビデオ符号化は、最高の解像度で信号を符号化することを伴う場合がある。拡張可能なビデオ符号化は、たとえば、特定のアプリケーションによって使用され、かつ/またはクライアントデバイスによってサポートされる利用可能なネットワーク帯域幅および/またはビデオ解像度に依存して、ストリームのサブセットから復号することを可能にすることを伴う場合がある。解像度は、いくつかのビデオパラメータによって特徴づけられて得る。ビデオパラメータは、空間解像度、時間解像度、ビデオ品質、クロマ形式、ビット深度、複雑さ、ビュー、色域、および/またはアスペクト比などの1つまたは複数を含むことができる。空間解像度は、ピクチャサイズを含むことができる。時間解像度は、フレームレートを含むことができる。ビデオ品質は、MOSなどの主観的な品質、および/またはPSNR、SSIM、またはVQMなど客観的な品質を含むことができる。クロマ形式は、YUV420、YUV422、またはYUV444などを含むことができる。ビット深度は、8ビットビデオ、10ビットビデオなどを含むことができる。アスペクト比は、16:9または4:3などを含むことができる。HEVC拡張可能な拡張は、少なくとも空間的な拡張性(たとえば、拡張可能なビットストリームは、1つを超える空間解像度で信号を含むことができる)、品質の拡張性(たとえば、拡張可能なビットストリームは、1つを超える品質レベルで信号を含むことができる)、および/または標準の拡張性(たとえば、拡張可能なビットストリームは、H.264/AVCを使用して符号化されたベースレイヤ、およびHEVCを使用して符号化された1つまたは複数の拡張レイヤを含むことができる)をサポートすることができる。空間的な拡張性では、拡張可能なビットストリームは、1つまたは複数の空間解像度で信号を含むことができる。品質の拡張性では、拡張可能なビットストリームは、1つまたは複数の品質レベルで信号を含むことができる。標準の拡張性では、拡張可能なビットストリームは、たとえば、H.264/AVCを使用して符号化されたベースレイヤ、およびたとえば、HEVCを使用して符号化された1つまたは複数の拡張レイヤを含むことができる。品質の拡張性は、SNR拡張性と呼ばれ得る。ビューの拡張性は、3Dビデオアプリケーションをサポートすることができる。ビューの拡張性では、拡張可能なビットストリームは、2Dと3Dのビデオ信号の両方を含むことができる。
ビデオ符号化システム(たとえば高効率ビデオコーディング(SHVC)の拡張可能な拡張に従うビデオ符号化システム)は、ビデオ符号化を実行するように構成された1つまたは複数のデバイスを含むことができる。(たとえばビデオ信号を符号化および/または復号するために)ビデオ符号化を実行するように構成されたデバイスは、ビデオ符号化デバイスと呼ばれ得る。そのようなビデオ符号化デバイスは、たとえば、テレビ、デジタルメディアプレーヤー、DVDプレーヤー、Blu−ray(商標)プレーヤー、ネットワーク化されたメディアプレーヤーデバイス、デスクトップ型コンピュータ、ラップトップ型パーソナルコンピュータ、タブレットデバイス、携帯電話、ビデオ会議システム、ハードウェア、および/またはソフトウェアベースのビデオ符号化システムなどのビデオ対応デバイスを含むことができる。そのようなビデオ符号化デバイスは、ワイヤレス送信/受信ユニット(WTRU)、基地局、ゲートウェイ、または他のネットワーク要素などワイヤレス通信ネットワーク要素を含むことができる。
図3は、例示的なエンコーダ(たとえばSHVCエンコーダ)を示す簡略化されたブロック図である。図示した例示的なエンコーダは、2レイヤのHDからUHDの拡張可能なビットストリームを生成するために使用され得る。図3に示すように、ベースレイヤ(BL)のビデオ入力330は、HDビデオ信号の場合があり、拡張レイヤ(EL)のビデオ入力302は、UHDビデオ信号の場合がある。HDビデオ信号330およびUHDビデオ信号302は、たとえば、1つまたは複数のダウンサンプリングパラメータ(たとえば空間的な拡張性)、1つまたは複数のカラーグレーディングパラメータ(たとえば色域の拡張性)、または1つまたは複数のトーンマッピングパラメータ(たとえばビット深度の拡張性)328の1つまたは複数によって相互に対応することができる。
BLエンコーダ318は、たとえば、高効率ビデオコーディング(HEVC)ビデオエンコーダまたはH.264/AVCビデオエンコーダを含むことができる。BLエンコーダ318は、予測のために(たとえば、BL DPB320に記憶された)1つまたは複数のBL再構築されたピクチャを使用して、BLビットストリーム332を生成するように構成され得る。ELエンコーダ304は、たとえば、HEVCエンコーダを含むことができる。ELエンコーダ304は、たとえばEL DPBにレイヤ間参照ピクチャを加えることによってレイヤ間予測をサポートするために、1つまたは複数の高レベルの構文修正を含むことができる。ELエンコーダ304は、予測のために(たとえば、EL DPB306に記憶された)1つまたは複数のEL再構築されたピクチャを使用して、ELビットストリーム308を生成するように構成され得る。
BL DPB320の1つまたは複数の再構築されたBLピクチャは、アップサンプリング(たとえば空間的な拡張性について)、色域変換(たとえば色域の拡張性について)、または逆トーンマッピング(たとえばビット深度の拡張性について)の1つまたは複数を含む、1つまたは複数のピクチャレベルのレイヤ間処理手法を使用して、レイヤ間処理(ILP)ユニット322で処理され得る。1つまたは複数の処理された再構築されたBLピクチャは、EL符号化のために参照ピクチャとして使用され得る。レイヤ間処理は、ELエンコーダ304から受信された拡張ビデオ情報314および/またはBLエンコーダ318から受信されたベースビデオ情報316に基づいて実行され得る。これはEL符号化効率を向上することができる。
326で、ILP情報324などレイヤ間処理で使用されるELビットストリーム308、BLビットストリーム332、およびパラメータは、拡張可能なビットストリーム312へと、ともに多重化され得る。たとえば、拡張可能なビットストリーム312は、SHVCビットストリームを含むことができる。
図4は、図3に示した例示的なエンコーダに対応することができる例示的なデコーダ(たとえばSHVCデコーダ)を示す簡略化されたブロック図である。図示した例示的なデコーダは、たとえば、2レイヤのHDからUHDのビットストリームを復号するために使用され得る。
図4に示すように、逆多重化モジュール(demux module)412は、拡張可能なビットストリーム402を受信することができ、ILP情報414、ELビットストリーム404、およびBLビットストリーム418を生成するために、拡張可能なビットストリーム402を逆多重化(demultiplex)することができる。拡張可能なビットストリーム402は、SHVCビットストリームを含むことができる。ELビットストリーム404は、ELデコーダ406によって復号され得る。ELデコーダ406は、たとえば、HEVCビデオデコーダを含むことができる。ELデコーダ406は、予測のために(たとえば、EL DPB408に記憶された)1つまたは複数のEL再構築されたピクチャを使用して、UHDビデオ信号410を生成するように構成され得る。BLビットストリーム418は、BLデコーダ420によって復号され得る。BLデコーダ420は、たとえば、HEVCビデオデコーダまたはH.264/AVCビデオを含むことができる。BLデコーダ420は、予測のために(たとえば、BL DPB422に記憶された)1つまたは複数のBL再構築されたピクチャを使用して、HDビデオ信号424を生成するように構成され得る。UHDビデオ信号410およびHDビデオ信号424など再構築されたビデオ信号は、ディスプレイデバイスを駆動するために使用され得る。
BL DPB422の1つまたは複数の再構築されたBLピクチャは、1つまたは複数のピクチャレベルのレイヤ間処理手法を使用して、ILPユニット916で、処理され得る。そのようなピクチャレベルのレイヤ間処理手法は、アップサンプリング(たとえば空間的な拡張性について)、色域変換(たとえば色域の拡張性について)、または逆トーンマッピング(たとえばビット深度の拡張性について)の1つまたは複数を含むことができる。1つまたは複数の処理された再構築されたBLピクチャは、EL復号化のために参照ピクチャとして使用され得る。レイヤ間処理は、ILP情報414などレイヤ間処理で使用されるパラメータに基づいて実行され得る。予測情報は、予測ブロックサイズ、(たとえば、動きの方向および量を示すことができる)1つまたは複数の動きベクトル、および/または(たとえば、予測信号が取得されるであろう参照ピクチャを示すことができる)1つまたは複数の参照インデックスを含むことができる。これは、EL復号効率を向上することができる。
参照インデックスベースのフレームワークは、単一レイヤのコーデックにおけるブロックレベルの動作に類似するブロックレベル動作を利用することができる。単一レイヤのコーデックロジックは、拡張可能な符号化システム内で再使用され得る。参照インデックスベースのフレームワークは、拡張可能なコーデック設計を簡素化することができる。参照インデックスベースのフレームワークは、たとえば、適切な高レベルの構文シグナリングによって、および/または符号化効率を達成するためにレイヤ間処理モジュールを利用することによって、異なるタイプの拡張性をサポートするために柔軟性を提供することができる。1つまたは複数の高レベルの構文変更は、SHVCのレイヤ間処理および/またはマルチレイヤシグナリングをサポートすることができる。
SHVCに対する高レベルの構文設計は、たとえば、パラメータセット識別制約、高レベルの構文要素および意味論的(semantic)な改善、ならびに/または対応する構文/意味論的な変更に対する復号プロセスを含むことができる。
パラメータセットは、ビデオパラメータセット(VPS)、シーケンスパラメータセット(SPS)、および/またはピクチャパラメータセット(PPS)の場合がある。パラメータセットは、構文要素を含む場合がある高レベルの構文構造の場合がある。構文要素は、複数のビットストリームレイヤに適用することができる。構文要素は、1つのレイヤ内のいくつかの符号化されたピクチャに適用することができる。パラメータセットは、ビデオビットストリームの符号化されたピクチャを用いて送られ得る。たとえば、ビデオ符号化デバイスは、ビデオビットストリームの符号化されたピクチャを用いてパラメータセットを送るように構成され得る。パラメータセットは、信頼できるチャネル、ハード符号化などを使用して、帯域外送信など他の手段を通じて送られ得る。ビデオ符号化デバイスは、信頼できるチャネル、ハード符号化などを使用して、帯域外送信など他の手段を通じてパラメータセットを送るように構成され得る。スライスヘッダは、特定のスライスまたはピクチャタイプに対して比較的小さいか、または関連する場合があるピクチャに関連する情報を含むことができる。スライスヘッダは、高レベルの構文の一部と考えられ得る。
表1は、例示的なNALユニットのヘッダ構文構造を示している。識別子nuh_layer_idは、レイヤの識別子を指定することができる。nuh_layer_idの値は、0に等しい場合がある。たとえば、nuh_layer_idの値は、VPSについて0に等しい場合がある。表2は、部分的なSPS構文構造の例を示している。表3は、部分的なPPS構文構造の例を示している。表4は、部分的なスライスヘッダ構文構造の例を示している。
Figure 2017500764
Figure 2017500764
Figure 2017500764
Figure 2017500764
図5は、SPS、PPS、およびスライスセグメントヘッダのNALユニットを用いるSPSおよびPPSのアクティブ化の例を示している。NALユニットは、NALユニットヘッダおよび/またはNALユニットヘッダレイヤ識別子を含むことができる。NALユニットは、ペイロードデータを含むことができる。例示的なNALユニットヘッダは、表1に示されている。NALユニットペイロードデータは、たとえば、NALユニットタイプ(nal_unit_type)に依存して、SPS、PPS、および/またはスライスセグメントデータなどのデータを含むことができる。
図5に示した例では、1つまたは複数のSPS NALユニット502、504、506は、一意のSPS識別子(sps_seq_parameter_set_id)を持つことができる。1つまたは複数のPPS NALユニット508、510、512は、一意のPPS識別子(pps_pic_parameter_set_id)を含むことができる。符号化ピクチャスライスヘッダは、構文要素slice_pic_parameter_set_idを含むことができる。構文要素slice_pic_parameter_set_idは、スライスが参照しているPPS NALユニットを示すことができる。たとえば、ビデオ符号化デバイスは、スライスが参照しているPPS NALユニットを示すために、構文要素slice_pic_parameter_set_idを設定することができる。ビデオ復号化デバイスは、スライスが参照しているPPS NALユニットを決定するために、構文要素slice_pic_parameter_set_idを使用することができる。図1に示したビデオ符号化デバイスなどのビデオ符号化デバイス、図3に示したビデオエンコーダ、および/または図4に示したビデオデコーダは、ビデオ信号および/またはビデオ信号のレイヤをアクティブ化することができる。たとえば、図5において、スライスは、2に等しいpps_pic_parameter_set_idを用いるPPS NALユニット510を参照している。ビデオ符号化デバイスは、2に等しいpps_pic_parameter_set_idを用いるPPS NALユニット510をアクティブ化するように構成され得る。2に等しいpps_pic_parameter_set_idを用いるPPS NALユニット510は、その構文要素pps_seq_parameter_set_idを用いるSPS NALユニットを参照することができる。図5に示す例では、アクティブなPPS NALユニットのpps_seq_parameter_set_idは2に等しい。ビデオ符号化デバイスは、2に等しいsps_seq_parameter_set_idを用いるSPS NALユニット504をアクティブ化するように構成され得る。
SPSおよび/またはPPSユニットが別のNALユニットによって参照されている場合、ビデオ符号化デバイスは、SPSおよび/またはPPSをアクティブ化することができる。たとえば、PPSは、符号化されたスライスを含むNALユニットによってアクティブ化され得る。符号化されたスライスのスライスヘッダは、slice_pic_parameter_set_idの構文要素を含むことができる。PPSは、pps_seq_parameter_set_idの構文要素を含むことができる。別のNALユニットのslice_pic_parameter_set_idおよび/またはpps_seq_parameter_set_id構文要素によって識別されるSPSおよび/またはPPSがアクティブ化され得る。
ビデオ符号化デバイスは、たとえば、アクティブ化するSPSまたはPPSのnuh_layer_id値が、それがアクティブ化するレイヤ以下である場合、SPSまたはPPSをアクティブ化することができる。アクティブ化するSPSまたはPPS nuh_layer_idの値は、アクティブ化されたレイヤのnuh_layer_idに等しくない場合がある。アクティブ化するSPSまたはPPS nuh_layer_idの値は、アクティブ化されたレイヤの依存レイヤの1つのnuh_layer_idの値に等しくない場合がある。デコーダなどビデオ符号化デバイスは、下位ビットストリーム抽出プロセスの間にSPSまたはPPS NALユニットを取り除くことができる。SPSまたはPPS NALユニットは、SPSまたはPPSが特定のレイヤに対して情報(たとえば本質的な情報)を提供することを識別するのが難しい場合があるため、たとえば、下位ビットストリーム抽出プロセスの間に取り除かれ得る。ビットストリーム抽出に誤りが発生し、ビデオ符号化デバイスが、ビットストリーム抽出においてSPSまたはPPS(たとえば本質的なSPSまたはPPS)を取り除いた場合、結果として得られるビットストリームのレイヤの少なくとも1つは、紛失したSPSおよび/またはPPSにより、正確に復号されない場合がある。ビットストリーム抽出プロセスでは、デコーダなどビデオ符号化デバイスは、ビデオ符号化デバイスが維持したい場合があるレイヤのNALユニットの各々を解析することができる。ビデオ符号化デバイスは、たとえば、ビデオ符号化デバイスが維持したい場合があるレイヤのNALユニットの各々を解析することによって、SPSまたはPPS(たとえば必要なSPSまたはPPS)が破棄されないことを保証することができる。
ビデオ符号化デバイスは、NALユニットを識別することができ、NALユニットが現在のレイヤについてのアクティブなパラメータセット(Active Parameter Set)を含むかどうかを決定することができる。NALユニットが現在のレイヤについてのアクティブパラメータセットを含むという決定に基づいて、ビデオ符号化デバイスは、ゼロ、現在のレイヤを示す値、または現在のレイヤの参照レイヤを示す値の少なくとも1つへとNALユニットに関連付けられたNALユニットヘッダレイヤ識別子を設定することができる。参照レイヤは、依存レイヤを含む場合があり、それらは本明細書において区別なく使用され得る。NALユニットは、PPS NALユニット、SPS NALユニット、および/または同様のものの場合がある。現在のレイヤを示す値は、NALユニットヘッダで信号送信された現在のレイヤに関連付けられたレイヤ識別子を示す値の場合がある。現在のレイヤの参照レイヤを示す値は、NALユニットヘッダで信号送信された現在のレイヤの参照レイヤのレイヤ識別子を示す値の場合がある。ビデオ符号化デバイスは、ビデオ復号化デバイスにNALユニットを含むビデオビットストリームを送ることができる。
たとえば、エンコーダなどビデオ符号化デバイスは、0に等しいアクティブ化するSPSまたはPPS NALユニットのnuh_layer_idの値を設定するように構成され得る。ビデオ符号化デバイスは、アクティブ化するSPSまたはPPS NALユニットのnuh_layer_idの値を0に抑制することができる。
ビデオ符号化デバイスは、現在のレイヤの値に等しくなるように、アクティブ化するSPSまたはPPS NALユニットのnuh_layer_idの値を設定することができる。ビデオ符号化デバイスは、現在のレイヤの依存レイヤの値に等しくなるように、アクティブ化するSPSまたはPPS NALユニットのnuh_layer_idの値を設定することができる。ビデオ符号化デバイスは、現在のレイヤの値に等しくなるように、アクティブ化するSPSまたはPPS NALユニットのnuh_layer_idの値を抑制することができる。ビデオ符号化デバイスは、現在のレイヤの依存レイヤの値に等しくなるように、アクティブ化するSPSまたはPPS NALユニットのnuh_layer_idの値を抑制することができる。
ビデオ符号化デバイスは、たとえば、所与のレイヤの復号に伴う、対応するSPSまたはPPS NALユニットの識別を可能にするために制約を適用することができる。ビデオ符号化デバイスは、たとえば、対応するSPSまたはPPS NALユニットのnuh_layer_idの値を識別することによって、所与のレイヤの復号に伴う、対応するSPSまたはPPS NALユニットの識別を可能にすることができる。ビデオ符号化デバイスは、対応するSPSまたはPPS NALユニットのnuh_layer_idの値を識別することができる。ビデオ符号化デバイスは、たとえば、下位ビットストリーム抽出においてディープパケットインスペクションを省略することができる。下位ビットストリーム抽出は、SPSまたはPPSのNALユニットが破棄されないことを保証することができる。
ビデオ符号化デバイスは、下位ビットストリーム抽出を用いるように構成され得る。下位ビットストリーム抽出では、ビデオ符号化デバイスは、ビットストリーム、ターゲットである最高のTemporalId値tldTarget、および/またはターゲットレイヤ識別子リストlayerIdListTargetを入力として取ることができる。下位ビットストリーム抽出では、ビデオ符号化デバイスは、下位ビットストリームを出力することができる。入力ビットストリームに対するビットストリームの適合について、適合するビットストリームは、ターゲットである最高のTemporalId値tldTargetおよびターゲットレイヤ識別子リストlayerIdListTargetを持つ出力下位ビットストリームの場合がある。ターゲットである最高のTemporalId値tldTargetは、たとえば、0から6の範囲(両端の値を含む)内にある任意の値に等しい場合がある。ターゲットレイヤ識別子リストlayerIdListTargetは、たとえば、アクティブなビデオパラメータセットで指定されたレイヤセットに関連付けられたレイヤ識別子リストに等しい場合がある。準拠するビットストリームは、0に等しいnuh_layer_idおよび0に等しいTemporalIdを用いる1つまたは複数の符号化されたスライスセグメントNALユニットを含むことができる。
ビデオ符号化デバイスは、出力下位ビットストリームを導き出すように構成され得る。ビデオ符号化デバイスは、たとえば、0に等しいnuh_layer_idを持ち、ネストされていないバッファリング期間SEIメッセージ、ネストされていないピクチャタイミングSEIメッセージ、および/またはネストされていない復号ユニット情報SEIメッセージを含む場合がある補助的な拡張情報(SEI)NALユニットを取り除くことによって、出力下位ビットストリームを導き出すことができる。ビデオ符号化デバイスは、たとえば、ネストされていないバッファリング期間SEIメッセージ、ネストされていないピクチャタイミングSEIメッセージ、および/またはネストされていない復号ユニット情報SEIメッセージを含む場合がある補助的な拡張情報(SEI)NALユニットを取り除くことによって、出力下位ビットストリームを導き出すことができる。ビデオ符号化デバイスは、たとえば、layerIdListTargetがビットストリームの各NALユニットにnuh_layer_idの値の各々を含まない場合、VCL NALユニットを取り除くことができる。たとえば、tldTargetがビットストリームの各NALユニットで最大のTemporalId未満である場合、ビデオ符号化デバイスは、VCL NALユニットを取り除くことができる。たとえば、下位ビットストリームに適用可能なSEIメッセージがオリジナルのビットストリームにネストされているSEIメッセージとして存在する場合、ビットストリーム抽出器は、抽出された下位ビットストリームに、適切なネストされていないバッファリングピクチャSEIメッセージ、ネストされていないピクチャタイミングSEIメッセージ、および/またはネストされていない復号ユニット情報SEIメッセージを含むことができる。ビットストリーム抽出器は、中央のボックスの場合がある。ビットストリーム抽出器は、エンドユーザによって要求されたレイヤを通じて通過することができる場合がある。デコーダなどビデオ符号化デバイスは、layerIdListTargetに含まれる値にないtldTargetまたはnuh_layer_idより大きいTemporalIdを用いてビデオ符号化レイヤ(VCL)のNALユニットを取り除くように構成され得る。デコーダなどビデオ符号化デバイスは、SPSおよびPPSなど非VCL NALユニットを保持するように構成され得る。non_VLC NALユニットのnuh_layer_idは、layerIdListTargetから除外され得るが、デコーダなどビデオ符号化デバイスは、非VCL NALユニットを保持することができる。非VCL NALユニットを保持することは、SPSおよび/またはPPSが、非VCL NALがアクティブ化するレイヤに対する下位ビットストリーム抽出の後に利用可能な場合があることを保証することができる。ビデオ符号化デバイスは、下位ビットストリーム抽出の間にlayerIdListTargetに含まれる値にないtldTargetまたはnuh_layer_idより大きいTemporalIdを用いてVCL NALユニットを取り除くことができる。
表5は、依存関係シグナリングの例を示している。レイヤの依存関係(たとえばdirect_dependency_flag)およびレイヤの依存関係のタイプ(direct_dependency_type)は、VPS拡張の一部として別々に信号送信され得る。
Figure 2017500764
エンコーダなどビデオ符号化デバイスは、構文要素の値を設定するように構成され得る。たとえば、ビデオ符号化デバイスは、デコーダに情報を示すために、構文要素の値を設定することができる。
構文要素direct_dependency_flag[i][j]が0に等しい場合、インデックスjを用いるレイヤは、インデックスiを用いるレイヤに対する直接的な参照レイヤではない場合がある。direct_dependency_flag[i][j]が1に等しい場合、インデックスjを用いるレイヤは、インデックスiを用いるレイヤに対する直接的な参照レイヤの場合がある。direct_dependency_flag[i][j]が0からvps_max_layers_minus1の範囲においてiおよびjに対して存在しない場合、direct_dependency_flag[i][j]は、0に等しいものと推量され得る。
構文要素direct_dep_type_len_minus2プラス2は、direct_dependency_type[i][j]構文要素のビット数を指定することができる。ビットストリームでは、direct_dep_type_len_minus2の値は、0に等しい場合がある。デコーダは、0から30の範囲(両端の値を含む)にあるdirect_dep_type_len_minus2の他の値が、構文に現われることを可能にすることができる。
ビデオ符号化デバイスは、情報を示すために構文要素を利用するように構成され得る。たとえば、構文要素direct_dependency_type[i][j]は、layer_id_in_nuh[i]に等しいnuh_layer_idを用いるレイヤと、layer_id_in_nuh[j]に等しいnuh_layer_idを用いるレイヤの間の依存関係のタイプを示すことができる。0に等しいdirect_dependency_type[i][j]は、layer_id_in_nuh[j]に等しいnuh_layer_idを用いるレイヤは、レイヤ間サンプル予測に使用され得ることを示すことができる。0に等しいdirect_dependency_type[i][j]は、layer_id_in_nuh[j]に等しいnuh_layer_idを用いるレイヤは、layer_id_in_nuh[i]に等しいnuh_layer_idを用いるレイヤのレイヤ間の動き予測で除外され得ることを示すことができる。1に等しいdirect_dependency_type[i][j]は、layer_id_in_nuh[j]に等しいnuh_layer_idを用いるレイヤがレイヤ間動き予測に使用され得ることを示すことができる。1に等しいdirect_dependency_type[i][j]は、layer_id_in_nuh[j]に等しいnuh_layer_idを用いるレイヤは、layer_id_in_nuh[i]に等しいnuh_layer_idを用いるレイヤのレイヤ間のサンプル予測で除外され得ることを示すことができる。2に等しいdirect_dependency_type[i][j]は、layer_id_in_nuh[j]に等しいnuh_layer_idを用いるレイヤは、layer_id_in_nuh[i]に等しいnuh_layer_idを用いるレイヤのレイヤ間サンプル動き予測およびレイヤ間動き予測の両方に使用され得ることを示すことができる。direct_dependency_type[i][j]の値は、0から2の範囲(両端の値を含む)にある場合があるが、デコーダは、3から232−2の範囲(両端の値を含む)にあるdirect_dependency_type[i][j]の値が、構文に現われことを可能することができる。
図1に示したビデオ符号化デバイスなどのビデオ符号化デバイス、図3に示したビデオエンコーダ、および/または図3に示したビデオデコーダは、どのレイヤが各拡張レイヤの直接的な依存レイヤか、および各直接的な依存レイヤがサポートすることができるレイヤ間予測のタイプを示すために構文要素を使用することができる。たとえば、構文要素direct_dependency_flag[i][j]、direct_dep_type_len_minus2、およびdirect_dependency_type[i][j]は、どのレイヤが各拡張レイヤの直接的な依存レイヤか、および各直接的な依存レイヤがサポートすることができるレイヤ間予測のタイプを示すためにビデオ符号化デバイスによって使用され得る。
たとえば、エンコーダなどビデオ符号化デバイスは、どのレイヤが各拡張レイヤの直接的な依存レイヤか、および各直接的な依存レイヤがサポートすることができるレイヤ間予測のタイプを示すために、構文要素direct_dependency_flag[i][j]、direct_dep_type_len_minus2、およびdirect_dependency_type[i][j]を設定するように構成され得る。たとえば、デコーダなどビデオ符号化デバイスは、どのレイヤが各拡張レイヤの直接的な依存レイヤか、および各直接的な依存レイヤがサポートすることができるレイヤ間予測のタイプを決定するために、構文要素direct_dependency_flag[i][j]、direct_dep_type_len_minus2、およびdirect_dependency_type[i][j]を使用するように構成され得る。
SHVCは、レイヤ間予測タイプをサポートすることができる。たとえば、SHVCは、テクスチャサンプル予測および動き予測をサポートすることができる。ビデオ符号化デバイスは、構文要素direct_dep_type_len_minus2を省略することができる。ビデオ符号化デバイスは、u(v)からu(2)へとdirect_dependency_type[i][j]の記述子を変更することができる。
図1に示したビデオ符号化デバイス、図3に示したビデオエンコーダ、および/または図3に示したビデオデコーダなどのビデオ符号化デバイスは、レイヤ間の依存関係を示すことができる。ビデオ符号化デバイスは、2つのレイヤ間の依存関係を示すために、レイヤ依存関係フラグdirect_dependency_flagおよび依存関係タイプdirect_dependency_typeを使用することができる。たとえば、エンコーダは、2つのレイヤ間の依存関係を示すために、レイヤ依存関係フラグdirect_dependency_flagおよび依存関係タイプdirect_dependency_typeを使用するように構成され得る。たとえば、デコーダは、2つのレイヤ間の依存関係を決定するために、レイヤ依存関係フラグdirect_dependency_flagおよび依存関係タイプdirect_dependency_typeを使用するように構成され得る。2つのレイヤ間の依存関係を示すために、レイヤ依存関係フラグdirect_dependency_flagおよび依存関係タイプdirect_dependency_typeを使用すると、冗長な信号送信が生じる場合がある。構文要素direct_dependency_flagおよびdirect_dependency_typeは、たとえば、表6に示すように、記述子ue(v)を用いて、1つの構文要素direct_dependency_typeへとマージされ得る。表6において、取り消し線が引かれたテキストは、省略され得る構文要素を示している。
Figure 2017500764
構文要素direct_dependency_typeは、構文要素direct_dependency_flagを置き換えることができる。図1に示したビデオ符号化システム、図3に示したビデオエンコーダ、および/または図3に示したビデオデコーダなどのビデオ符号化デバイスは、レイヤ間の依存関係を示すために構文要素を使用することができる。構文要素direct_dependency_type[i][j]は、layer_id_in_nuh[i]に等しいnuh_layer_idを用いるレイヤと、layer_id_in_nuh[j]に等しいnuh_layer_idを用いるレイヤの間の依存関係のタイプを示すことができる。たとえば、エンコーダは、layer_id_in_nuh[i]に等しいnuh_layer_idを用いるレイヤと、layer_id_in_nuh[j]に等しいnuh_layer_idを用いるレイヤの間の依存関係のタイプを示すために、構文要素direct_dependency_type[i][j]を設定するように構成され得る。たとえば、デコーダは、layer_id_in_nuh[i]に等しいnuh_layer_idを用いるレイヤと、layer_id_in_nuh[j]に等しいnuh_layer_idを用いるレイヤの間の依存関係のタイプを決定するために、構文要素direct_dependency_type[i][j]を使用するように構成され得る。
たとえば、direct_dependency_type[i][j]が0に等しい場合、layer_id_in_nuh[j]に等しいnuh_layer_idを用いるレイヤは、layer_id_in_nuh[i]に等しいnuh_layer_idを用いるレイヤに対して直接的な参照レイヤではない場合がある。direct_dependency_type[i][j]が1に等しい場合、layer_id_in_nuh[j]に等しいnuh_layer_idを用いるレイヤは、layer_id_in_nuh[i]に等しいnuh_layer_idを用いるレイヤに対する直接的な参照レイヤの場合がある。ビデオ符号化デバイスは、レイヤ間サンプル予測のためにlayer_id_in_nuh[j]に等しいnuh_layer_idを用いるレイヤを使用するように構成され得る。direct_dependency_type[i][j]が2に等しい場合、layer_id_in_nuh[j]に等しいnuh_layer_idを用いるレイヤは、layer_id_in_nuh[i]に等しいnuh_layer_idを用いるレイヤに対する直接的な参照レイヤの場合がある。ビデオ符号化デバイスは、レイヤ間サンプル予測およびレイヤ間動き予測の両方のために、layer_id_in_nuh[j]に等しいnuh_layer_idを用いてレイヤを使用するように構成され得る。direct_dependency_type[i][j]が3に等しい場合、layer_id_in_nuh[j]に等しいnuh_layer_idを用いるレイヤは、layer_id_in_nuh[i]に等しいnuh_layer_idを用いるレイヤに対する直接的な参照レイヤの場合がある。ビデオ符号化デバイスは、レイヤ間動き予測のためにlayer_id_in_nuh[j]に等しいnuh_layer_idを用いるレイヤを使用するように構成され得る。ビデオ符号化デバイスは、レイヤ間サンプル予測においてlayer_id_in_nuh[j]に等しいnuh_layer_idを用いるレイヤを省略するように構成され得る。
変数NumDirectRefLayers[i]、RefLayerId[i][j]、SamplePredEnabledFlag[i][j]、MotionPredEnabledFlag[i][j]、およびDirectRefLayerIdx[i][j]は、以下のように導き出され得る。
Figure 2017500764
図1に示したビデオ符号化システム、図3に示したビデオエンコーダ、および/または図3に示したビデオデコーダなどのビデオ符号化デバイスは、レイヤ間動き予測を提供するために依存レイヤを使用することができる。レイヤ間サンプル予測を提供するとき、ビデオ符号化デバイスは、依存レイヤを省略することができる。レイヤ間サンプル予測は、レイヤ間動き予測よりも符号化パフォーマンス利得に大きく寄与する場合がある(たとえば、レイヤ間動き予測に対する約1%と比較して、レイヤ間サンプル予測に対して約25〜30%)。レイヤ間サンプル予測は、レイヤ間予測の基本形として使用され得て、可能な追加としてレイヤ間動き予測を許可する。たとえば、レイヤ間サンプル予測が許可される場合、レイヤ間動き予測が許可され得る。レイヤ間サンプル予測をサポートするための直接的な依存レイヤに対する制約は、SHVCの主なプロファイルに適用され得る。
表7に示すように、VPS拡張におけるレイヤ依存関係信号送信は修正され得る。表7において、取り消し線が引かれたテキストは、省略され得る構文要素を示している。表8に示すように、構文構造は統合され得る。
Figure 2017500764
Figure 2017500764
表7および表8に示すように、構文要素direct_dependency_typeは、構文要素il_motion_prediction_flagと置き換えることができる。direct_dependency_flagおよびil_motion_prediction_flagの意味論は、本明細書に開示された通りの場合がある。
direct_dependency_flag[i][j]が0に等しい場合、インデックスjを用いるレイヤは、インデックスiを用いるレイヤに対する直接的な参照レイヤではない場合がある。direct_dependency_flag[i][j]が1に等しい場合、インデックスjを用いるレイヤは、インデックスiを用いるレイヤに対する直接的な参照レイヤの場合がある。ビデオ符号化デバイスは、layer_id_in_nuh[j]レイヤ間サンプル予測に等しいそのnuh_layer_idを用いるレイヤを使用することができる。direct_dependency_flag[i][j]が0からvps_max_layers_minus1の範囲においてiおよびjに対して存在しない場合、direct_dependency_flag[i][j]は、0に等しいものと推量され得る。
変数NumDirectRefLayers[i]、RefLayerId[i][j]、SamplePredEnabledFlag[i][j]、MotionPredEnabledFlag[i][j]、およびDirectRefLayerIdx[i][j]は、以下のように導き出され得る。
Figure 2017500764
il_motion_prediction_flag[i][j]が0に等しい場合、ビデオ符号化デバイスは、layer_id_in_nuh[i]に等しいnuh_layer_idを用いるレイヤのレイヤ間動き予測に対してlayer_id_in_nuh[j]に等しいnuh_layer_idを用いるレイヤを除外することができる。il_motion_prediction_flag[i][j]が1に等しい場合、ビデオ符号化デバイスは、layer_id_in_nuh[i]に等しいnuh_layer_idを用いるレイヤのレイヤ間動き予測に対してlayer_id_in_nuh[j]に等しいnuh_layer_idを用いるレイヤを使用することができる。il_motion_prediction_flag[i][j]が0からvps_max_layers_minus1の範囲においてiおよびjに対して存在しない場合、ビデオ符号化デバイスは、0に等しいものとil_motion_prediction_flag[i][j]を推測することができる。
例示的なSHVCビットストリームでは、ビデオ符号化デバイスは、1つもしく複数またはすべての直接的な依存レイヤについて、レイヤ間サンプル予測および/またはレイヤ間動き予測を可能にすることができる。ビデオ符号化デバイスは、1つまたは複数の(たとえば、各)個々の依存レイヤに対してdirect_dependency_typeの信号送信を回避することができる。たとえば、エンコーダは、各個々の依存レイヤに対するdirect_dependency_typeの信号送信が回避され得ることを示すために、表9に示すように、ゲーティングフラグdefault_all_ilp_enable_flagを使用することができる。たとえば、デコーダは、各個々の依存レイヤに対するdirect_dependency_typeの信号送信が回避され得るかどうかを決定するために、ゲーティングフラグdefault_all_ilp_enable_flagを使用することができる。
Figure 2017500764
default_all_ilp_enable_flagが1に等しい場合、ビデオ符号化デバイスは、iNuhLIdに等しいnuh_layer_idを用いるレイヤに対してレイヤ間サンプル予測およびレイヤ間動き予測について、iNuhLIdに等しいnuh_layer_idを用いるレイヤの直接的な依存レイヤ(たとえばすべての直接的な依存レイヤ)を使用することができる。default_all_ilp_enable_flagが0に等しい場合、ビデオ符号化デバイスは、iNuhLIdに等しいnuh_layer_idを用いるレイヤに対してレイヤ間サンプル予測およびレイヤ間動き予測について、iNuhLIdに等しいnuh_layer_idを用いるレイヤの直接的な依存レイヤ(たとえばすべての直接的な依存レイヤ)を使用または除外することができる。
ビデオ符号化デバイスは、VPSに直接的な依存関係タイプ情報を含めるべきかどうかを決定することができる。ビデオ符号化デバイスがデフォルト依存関係を使用することを決定した場合、ビデオ符号化デバイスは、VPSで直接的な依存関係タイプ情報を信号送信することを回避することができる。ビデオ符号化デバイスがデフォルト依存関係を使用しないことを決定した場合、ビデオ符号化デバイスは、VPSに直接的な依存関係タイプ情報を含むことができる。ビデオ符号化デバイスは、VPSでデフォルトの直接的な依存関係フラグを設定することができる。
ビデオ符号化デバイスは、たとえばdirect_dependency_type_presence_flagなど依存関係タイプ存在フラグを信号送信するように構成され得る。ビデオ符号化デバイスは、direct_dependency_type_presence_flagを設定するように構成され得る。ビデオ符号化デバイスは、VPS拡張においてdirect_dependency_type[i][j]を信号送信するように構成され得る。ビデオ符号化デバイスは、direct_dependency_type[i][j]を信号送信するために、direct_dependency_type_presence_flagを設定するように構成され得る。direct_dependency_type_presence_flagが1に等しく設定されている場合、ビデオ符号化デバイスは、VPS拡張において構文要素direct_dependency_type[i][j]を明示的に信号送信することができる。構文要素direct_dependency_type[i][j]は、VPS拡張に存在しない場合がある。
ビデオ符号化デバイスは、ビデオパラメータセット(VPS)およびレイヤの1つまたは複数を含むビデオビットストリームを受信することができる。ビデオ符号化デバイスは、たとえば、VPSのデフォルトの直接的な依存関係フラグに基づいて、レイヤの1つまたは複数に関連付けられた直接的な依存関係を決定することができる。直接的な依存関係タイプ情報がVPSに存在することをデフォルトの直接的な依存関係フラグが示している場合、ビデオ符号化デバイスは、VPSの直接的な依存関係タイプ情報から直接的な依存関係を決定することができる。直接的な依存関係タイプ情報がVPSに存在しないことをデフォルトの直接的な依存関係フラグが示している場合、ビデオ符号化デバイスは、デフォルトに基づいて直接的な依存関係を決定することができる。デフォルト依存関係は、複数のレイヤのすべてのレイヤに適用することができる。
ビデオ符号化デバイスは、SamplePredEnabledFlagおよびMotionPredEnabledFlagの値を推測することができる。ビデオ符号化デバイスは、SamplePredEnabledFlagおよびMotionPredEnabledFlagの値を推測するように構成され得る。たとえば、i番目の拡張レイヤの各j番目の依存レイヤのSamplePredEnabledFlag[i][j]とMotionPredEnabledFlag[i][j]の両方は、デフォルトで1であると推量され得る。
構文要素direct_dependency_type[i][j]は、layer_id_in_nuh[i]に等しいnuh_layer_idを用いるレイヤと、layer_id_in_nuh[j]に等しいnuh_layer_idを用いるレイヤとの間の依存関係のタイプを示すことができる。エンコーダなどのビデオ符号化デバイスは、layer_id_in_nuh[i]に等しいnuh_layer_idを用いるレイヤと、layer_id_in_nuh[j]に等しいnuh_layer_idを用いるレイヤの間の依存関係のタイプを示すために、構文要素direct_dependency_type[i][j]を設定するように構成され得る。direct_dependency_type[i][j]が0に等しい場合、ビデオ符号化デバイスは、レイヤ間サンプル予測のためにlayer_id_in_nuh[j]に等しいnuh_layer_idを用いるレイヤを使用することができる。direct_dependency_type[i][j]が0に等しい場合、ビデオ符号化デバイスは、layer_id_in_nuh[i]に等しいnuh_layer_idを用いるレイヤのレイヤ間動き予測のためにlayer_id_in_nuh[j]に等しいnuh_layer_idを用いるレイヤを使用することができる。direct_dependency_type[i][j]が1に等しい場合、ビデオ符号化デバイスは、レイヤ間動き予測のためにlayer_id_in_nuh[j]に等しいnuh_layer_idを用いるレイヤを使用するように構成され得る。direct_dependency_type[i][j]が1に等しい場合、ビデオ符号化デバイスは、layer_id_in_nuh[i]に等しいnuh_layer_idを用いるレイヤのレイヤ間サンプル予測のためにlayer_id_in_nuh[j]に等しいnuh_layer_idを用いるレイヤを使用することができる。direct_dependency_type[i][j]が2に等しい場合、ビデオ符号化デバイスは、layer_id_in_nuh[i]に等しいnuh_layer_idを用いるレイヤのレイヤ間サンプル動き予測とレイヤ間動き予測の両方のためにlayer_id_in_nuh[j]に等しいnuh_layer_idを用いるレイヤを使用するように構成され得る。
ビデオ符号化デバイスは、SPSに関連付けられたレイヤについて表現形式を割り当てることができる。VPSは、ビデオ表現形式のリストを含むことができる。たとえば、エンコーダなどビデオ符号化デバイスは、VPS拡張のルックアップリストへとビデオ表現形式(たとえば表10に示したrep_format())を信号送信するように構成され得る。たとえば、rep_format()のリストへの表11に示したvps_rep_format_idx[i]など、対応するインデックスは、VPSのレイヤ(たとえば各レイヤ)について指定され得る。
たとえば、特定のレイヤのrep_format()がVPS拡張で指定された事前定義されたrep_format()に一致しない場合、エンコーダなどビデオ符号化デバイスは、SPSにおいて表12に示したように更新されたフラグupdate_rep_format_flagを設定するように構成され得る。特定のレイヤのrep_format()がVPS拡張で指定された事前定義されたrep_format()に一致しない場合、エンコーダなどビデオ符号化デバイスは、SPSのrep_format()の構文要素(たとえばすべての構文要素)を信号送信(たとえば、明示的に信号送信)するように構成され得る。
Figure 2017500764
Figure 2017500764
Figure 2017500764
ビデオ符号化デバイスは、たとえば、SPSに関連付けられたレイヤに対して、割り当てられた表現形式に基づいて、SPSに表現形式インデックスを含めるべきかどうかを決定することができる。たとえば、割り当てられた表現形式がデフォルト表現形式である場合、表現形式インデックスは、SPSに含まれない場合がある。たとえば、割り当てられた表現形式がVPSで指定されている場合、表現形式インデックスは、SPSに含まれ得る。
図1に示したビデオ符号化システム、図3に示したビデオエンコーダ、および/または図3に示したビデオデコーダなどのビデオ符号化デバイスは、VPSで構文構造への情報を指定することができる。たとえば、update_rep_format_idx_present_flagおよびupdate_rep_format_idxなどの構文要素は、VPSでrep_format()構文構造のリストへとインデックスを指定することができる。表現形式がVPSで信号送信されたrep_format()リストに一致する場合、rep_format()のリストのインデックスが信号送信され得る。構文要素は、VPSでrep_format()構文構造のリストへとインデックスを指定することができる。表13は、SPSの例示的な構文要素を示している。
Figure 2017500764
ビデオ符号化デバイスは、表現形式インデックスがSPSに含まれているかどうかを示すために、更新ビデオ表現形式フラグを設定することができる。たとえば、update_rep_format_idx_present_flagが1に等しい場合、構文要素update_rep_format_idxは存在する場合がある。update_rep_format_idx_present_flagが0に等しい場合、構文要素update_rep_format_idxは存在しない場合がある。
構文要素update_rep_format_idxは、rep_format()構文構造のVPSでrep_format()構文構造のリストへとインデックスを指定することができる。存在しない場合、update_rep_format_idxの値は0に等しいものと推量され得る。update_rep_format_idxの値は、0からvps_num_rep_formats_minus1の範囲(両端の値を含む)にある場合がある。
ビデオ符号化デバイスは、たとえば、SPSの更新ビデオ表現形式フラグに基づいて、SPSに関連付けられたレイヤに対してビデオ表現形式を決定することができる。更新ビデオ表現形式フラグが表現形式インデックスの存在を示している場合、ビデオ表現形式は、表現形式インデックスに基づいて、VPSのビデオ表現形式のリストから決定され得る。更新表現形式インデックスが存在しない場合、ビデオ表現形式は、デフォルトビデオ表現形式から決定され得る。ビデオ符号化デバイスは、たとえば、SPSの更新ビデオ表現形式フラグに基づいて、表現形式インデックスがSPSに存在するかどうかを決定することができる。更新ビデオ表現形式フラグが1に等しい場合、ビデオ符号化デバイスは、表現形式インデックスがSPSに存在すると決定することができる。更新ビデオ表現形式フラグが0に等しい場合、ビデオ符号化デバイスは、表現形式インデックスがSPSに存在しないと決定することができる。デフォルトビデオ表現形式は、レイヤに対してVPSで指定されたデフォルトビデオ表現形式の場合がある。ビデオ更新表現形式インデックスは、0とVPS数の表現形式マイナス1の値の間の範囲(両端の値を含む)にある場合がある。
VPS拡張およびスライスヘッダの構文要素は、他の構文要素の値から推測され得る。構文要素の信号送信を調整することで、オーバーヘッドを減らすことができる。
エンコーダなどビデオ符号化デバイスは、現在の拡張レイヤの各ピクチャについて、1つの依存レイヤからの単一のピクチャがレイヤ間予測に使用され得るかどうかを指定するために、ビデオパラメータセット(VPS)拡張で構文要素max_one_active_ref_layer_flagを信号送信するように構成され得る。異なる依存レイヤからのピクチャは、たとえば、現在の拡張レイヤの異なるピクチャについて、レイヤ間予測に使用され得る。同じVPS拡張の構文要素all_ref_layers_active_flagは、現在の拡張レイヤの各ピクチャについて、all_ref_layers_active_flagの値が1に等しい場合、現在のアクセスユニットにおいて利用可能なその直接的な依存レイヤの参照ピクチャは、レイヤ間予測に使用され得ることを指定することができる。
エンコーダなどビデオ符号化デバイスは、all_ref_layers_active_flagの値を設定するように構成され得る。all_ref_layers_active_flagが1に等しく設定されている場合、デコーダなどビデオ符号化デバイスは、たとえば、iが1からレイヤの最大数の範囲にある場合、NumDirectRefLayers[i]の最大値からmax_one_active_ref_layer_flagの値を推測するように構成され得る。
表14は、VPS拡張での例示的な構文調整を示している。
Figure 2017500764
変数MaxNumDirectDependentRefLayersは、拡張レイヤの直接的な依存参照レイヤの最大数を表すことができる。変数MaxNumDirectDependentRefLayersは、以下のように導き出され得る。
Figure 2017500764
エンコーダなどビデオ符号化デバイスは、max_one_active_ref_layer_flagの値を設定するように構成され得る。max_one_active_ref_layer_flagが1に等しい場合、デコーダなどビデオ符号化デバイスは、CVSの各ピクチャに対するレイヤ間予測について、多くても1つのピクチャを使用するように構成され得る。max_one_active_ref_layer_flagが0に等しい場合、デコーダなどビデオ符号化デバイスは、CVSの各ピクチャに対するレイヤ間予測について、1つを超えるピクチャを使用するように構成され得る。max_one_active_ref_layer_flagが存在しない場合、max_one_active_ref_layer_flagは以下のように導き出され得る。
Figure 2017500764
ビデオエンコーダなどビデオ符号化デバイスは、現在のピクチャに対してピクチャオーダーカウント(picture order count)のLSBを指定するために、非IDRスライスに対してスライスヘッダの構文要素slice_pic_order_cnt_lsbを信号送信することができる。構文要素は、ピクチャタイプにかかわらず拡張レイヤについて信号送信され得る。たとえば、ビデオエンコーダなどビデオ符号化デバイスは、ピクチャタイプにかかわらず拡張レイヤに対して構文要素を信号送信するように構成され得る。エンコーダなどビデオ符号化デバイスは、イントラランダムアクセスポイント(IRAP:intra random access point)ピクチャがレイヤを横断して誤って調節されている場合、同じまたは同様のアクセスユニット内のピクチャに対してPOC値を調節するために構文要素を使用することができる。レイヤを横断してIRAPピクチャが調節されている場合、たとえば、IDRピクチャのPOC値はゼロの場合があるため、IDRピクチャに対してslice_pic_order_cnt_lsbを信号送信することは冗長な場合がある。ビデオエンコーダなどビデオ符号化デバイスは、IRAPピクチャが異なるレイヤを横断して調節されているかどうかを示すために、VPSの構文要素cross_layer_irap_aligned_flagを信号送信するように構成され得る。
cross_layer_irap_aligned_flagが1に等しい場合、CVSのIRAPピクチャは、たとえば、アクセスユニットのレイヤlayerAのピクチャpictureAが、IRAPピクチャである場合、レイヤを横断して調節され得る。layerAの直接的な参照レイヤに属することができるか、またはlayerAが直接的な参照レイヤであるレイヤに属することができる同じまたは同様のアクセスユニットのピクチャpictureBは、IRAPピクチャの場合がある。pictureBのVCL NALユニットは、pictureAのものと同じまたは同様のnal_unit_typeの値を持つことができる。cross_layer_irap_aligned_flagが0に等しい場合、これらの関係が適用され得る場合、または適用されない場合がある。
構文要素cross_layer_irap_aligned_flagは、表15に示すように、slice_pic_order_cnt_lsbの信号送信を調整するために使用され得る。
Figure 2017500764
HEVCは、拡張可能な符号化をサポートするために拡張され得る。たとえば、HEVCは、空間的な拡張性、品質の拡張性、および標準の拡張性をサポートすることができる。空間的な拡張性は、拡張可能なビットストリームが1つを超える空間解像度の場合がある信号を含むときの場合がある。品質の拡張性は、拡張可能なビットストリームが1つを超える品質レベルの信号を含むときの場合がある。品質の拡張性は、SNR拡張性とも呼ばれ得る。標準の拡張性は、拡張可能なビットストリームが、H.264/AVCを使用して符号化されたベースレイヤおよびHEVCを使用して符号化された1つまたは複数の拡張レイヤを含むときの場合がある。HEVCは、ビューの拡張性をサポートすることができる。ビューの拡張性は、拡張可能なビットストリームが2Dと3Dのビデオ信号の両方を含むときの場合がある。
HEVCの拡張可能な拡張(SHVC)は、参照インデックス基本フレームワークを利用することができる。SHVCは、構文、1もしくは複数の意味論、および/または1もしくは複数の復号プロセスを利用することができる。
ビデオ符号化デバイスは、圧縮ツールなどアルゴリズム的な機能のサブセット、ビット深度およびクロマ形式などビデオ入力フォーマットなどを定義するためにプロファイルを利用することができる。ビデオ符号化デバイスは、最大ビットレート、最大フレームサイズ、毎秒のサンプルの最大数など量的能力の組を定義するために、レベルおよび/または層を利用することができる。H.265および/またはHEVCのビデオ符号化デバイスは、3つのプロファイル(たとえば主なプロファイル、主な10プロファイル、および主な静止画プロファイル)および/またはたとえば2層を持つ1つまたは複数のレベルを持つ13レベルを利用することができる。ビデオ符号化デバイスは、そのプロファイル、レベル、および/または層に準拠するビデオ符号化デバイスの最大の複雑さを指定するために、プロファイル、レベル、および/または層を利用することができる。
プロファイル、層、およびレベルは、いくつかの制約を持つことができる(たとえば3つの制約)。制約は、以下の1つまたは複数を含むことができる。ビデオ復号化デバイスなどビデオ符号化デバイスは、特定のピクチャの復号について、ピクチャサンプル値のピクチャリサンプリングを2度以上呼び出さない場合がある。ビデオ符号化デバイスは、特定のピクチャの復号について、ピクチャ動きフィールドのリサンプリングを2度以上呼び出さない場合がある。ビデオ符号化デバイスが、特定のピクチャの復号に対して、ピクチャサンプル値とピクチャ動きフィールドリサンプリングの両方を呼び出すことができる場合、ビデオ符号化デバイスは、同じ参照レイヤピクチャにピクチャサンプル値および/またはピクチャ動きフィールドリサンプリングを適用することができる。Dependencyld[i]が1に等しい可能性がある場合、ビデオ符号化デバイスは、iに等しいnuh_layer_idを用いる符号化されたピクチャについて、2に等しくない場合がある、0から15まで(両端の値を含む)のsmldx値に対して0に等しいScalabilityld[LayerldxInVps[i]][smldx]を設定することができる。avc_base_layer_flagが1に等しい可能性がある場合、ビデオ符号化デバイスは、たとえば、ビットストリームの適合について、ビットストリームに存在するnuh_layer_idの値に等しいiNuhLIdについて、0に等しいMotionPredEnabledFlag[iNuhLId][0]を設定することができる。
ビデオ符号化デバイスは、ピクチャを復号するときに、ピクチャテクスチャリサンプリングおよび動きリサンプリングが2度以上呼び出されない場合があることを指定するために拡張可能な主なプロファイルを使用することができる。たとえば、空間的な拡張性に対するレイヤ間サンプル予測およびレイヤ間動き予測の各々は、1つの参照レイヤからの場合がある。たとえば、レイヤ間サンプル予測と動き予測の両方が有効化されている場合、ビデオ符号化デバイスは、同じ参照レイヤを使用することができる。
ビデオ符号化デバイスは、ピクチャレベルで、現在の制約など制約を指定することができる。NALユニットヘッダのlayer_idのビット長は、6ビットの場合がある。NALユニットヘッダの6ビット長のlayer_idは、最大64レイヤを許可および/または可能にすることができる。たとえば、ビデオ符号化デバイスが、ビットストリームの1つまたは複数の符号化されたピクチャについて、サンプル予測および/または動き予測のために参照レイヤの1つを使用する場合、63までの直接的な依存レイヤがビットストリームまたは符号化されたビデオシーケンス(CVS)レベルに存在することができる。直接的な依存レイヤは、特定の拡張レイヤピクチャに対するレイヤ間サンプル予測および/または動き予測について、参照ピクチャとして使用され得る少なくとも1つのピクチャを含むレイヤの場合がある。
ビデオ符号化デバイスは、たとえば、SHVCプロファイルに対していくつかのレイヤを制限するために1つまたは複数の制約を信号送信し、1つまたは複数の制約を適用することによって、マルチループSHVCコーデックに対して符号化の複雑さを限定および/または低減することができる。レイヤは、直接的な依存レイヤ、間接的な依存レイヤ、および/またはベースレイヤの場合がある。1つまたは複数の制約は、たとえば、直接的な依存レイヤの最大数を制限すること、または直接的および間接的な依存レイヤの最大数を制限することの場合がある。ビデオ符号化デバイスは、VPS拡張の構文要素、SPSの構文要素、プロファイル指示、ならびに/またはプロファイル、層、および/もしくレベル(たとえば拡張可能な主なプロファイル)に従うかの少なくとも1つを介して、直接的な依存レイヤの最大数を制限することができる。ビデオ符号化デバイスは、VPS拡張の構文要素、SPSの構文要素、プロファイル指示、ならびに/またはプロファイル、層、および/もしくはレベル(たとえば拡張可能な主なプロファイル)に従うかの少なくとも1つを介して直接的および間接的な依存レイヤの最大数を制限することができる。制約は、ベースレイヤの制約の場合がある。ベースレイヤの制約は、準拠するSHVCビットストリームを使用することができる。準拠するSHVCビットストリームは、たとえば、0に等しいそのnuh_layer_idおよび0に等しいTemporalIdを用いるピクチャを含む1つまたは複数のアクセスユニットの場合がある。0に等しいnuh_layer_idおよび0に等しいTemporalIdを用いるピクチャを含むレイヤは、レイヤ識別子リストTargetDecLayerIdListの各nuh_layer_id値について、レイヤの直接的または間接的な依存レイヤの場合がある。ビデオ符号化デバイスは、導き出された変数を介して1つまたは複数の制約を信号送信することができる。ビデオ符号化デバイスは、構文要素を介して1つまたは複数の制約を信号送信することができる。
図6は、複数レイヤ予測構造の例を示している。図6では、上部のレイヤであるレイヤ63 610は、ビデオシーケンス内に63までの直接的な依存レイヤを持つことができる。ビデオ符号化デバイスは、たとえば、SHVCの主なプロファイル制約を満たすために、レイヤ間サンプル予測および動き予測について、レイヤ63 610の各ピクチャに対して63の参照レイヤの1つから参照ピクチャを選択するように構成され得る。たとえば、ビデオ符号化デバイスは、レイヤ63 630のPOC−0ピクチャについて、(たとえば、矢印640によって示すように)レイヤ間予測のためにレイヤ62 632からのPOC−0ピクチャを使用することができる。ビデオ符号化デバイスは、レイヤ63 650などのピクチャPOC−1 614に対するレイヤ間予測のために、レイヤ61 652からのPOC−1ピクチャを使用することができる。たとえば、そのようなレイヤが、それ自身のレイヤ内のレイヤ間予測と時間的な予測の両方に使用されない場合があることが決定されない場合があるかぎり、実装の複雑さを限定することは、たとえば、直接的な参照レイヤの参照ピクチャが復号されることが要求される場合があるので、現在の制約で達成されない場合がある。実装の複雑さを限定するためのレイヤ間動き予測およびサンプル予測演算の数は限定され得る。直接的または間接的な依存レイヤの参照ピクチャは、復号され得る。ビデオ符号化デバイスは、たとえば、レイヤ間予測および/またはサンプル予測によって、直接的または間接的な依存レイヤの参照ピクチャを復号することができる。ビデオ符号化デバイスは、たとえば、1つまたは複数のピクチャが時間的および/またはレイヤ間予測に対する参照ピクチャでない場合、直接的または間接的な依存レイヤの1つまたは複数のピクチャを復号しない場合がある。たとえば、たとえば、レイヤ間予測について、レイヤ63 670のPOC63を用いるピクチャがレイヤ0 672のPOC63を用いるピクチャに直接的に依存している場合、ビデオ符号化デバイスは、レイヤ0 672のPOC63を用いるピクチャを復号するために、レイヤ0のPOC0 612、1 614...62 616を用いるピクチャを復号する必要がある場合がある。
マルチループSHVCエンコーダは、プロファイルに対する参照レイヤの数を制限するために実行可能命令を用いるプロセッサを持つことができる。マルチループSHVCエンコーダは、参照レイヤ制限を設定することができる。マルチループSHVCエンコーダは、プロファイルに対するレイヤへとビデオ信号を符号化することができるため、レイヤは、直接的および間接的な参照レイヤを含み、符号化されたビデオ信号のレイヤに対する直接的および間接的な参照レイヤの総数は、参照レイヤ制限未満である。
図7は、例示的な間接的な依存レイヤを示している。間接的な依存レイヤの数は、SHVCコーデック実装の複雑さに影響する場合がある。間接的な依存レイヤは、特定の拡張レイヤの直接的な依存レイヤのピクチャについて、レイヤ間サンプル予測および/または動き予測について、参照ピクチャとして使用され得る少なくとも1つのピクチャを含むレイヤの場合がある。図7に示すように、レイヤ63 702は、ビデオシーケンス内に1つの直接的な依存レイヤ、レイヤ62 704を持つことができる。ビデオ符号化デバイスは、レイヤ62 712の同じ場所を共用する参照ピクチャからのレイヤ63 702の1つまたは複数の符号化するピクチャを予測することができる。レイヤ63 702は、図7に示すように62までの間接的な依存レイヤを持つことができる。図7では、1もしくは複数または各レイヤは、参照レイヤとしてそのすぐ下のレイヤに依存することができる。たとえば、レイヤ63 702は、レイヤ62 704に直接的に依存し、レイヤ62 704は、レイヤ61 706に直接的に依存するというようにである。レイヤ63のピクチャを正確に復号するために、ビデオ符号化デバイスは、レイヤ0 710からレイヤ62 704の配列されたピクチャ708、714、716、712を正確に復号する必要がある場合がある。間接的な依存レイヤの数は、SHVC符号化システムに必要なメモリの合計量に影響する場合がある。間接的な依存レイヤの数は、システムの誤り耐性能力に影響する場合がある。直接的および/または間接的な依存レイヤの数の制約は、SHVCコーデックの最大の実装の複雑さを指定するために重要な場合がある。
マルチループSHVCエンコーダは、プロファイルに対する参照レイヤの数を制限するために実行可能命令を用いるプロセッサを持つことができる。マルチループSHVCエンコーダは、参照レイヤ制限を設定することができる。マルチループSHVCエンコーダは、直接的および間接的なレイヤを含むプロファイルに対してレイヤへとビデオ信号を符号化することができる。各レイヤについて、マルチループSHVCエンコーダは、直接的および間接的な参照レイヤの総数を決定することができる。マルチループSHVCエンコーダは、レイヤに対する直接的および間接的な参照レイヤの総数が参照レイヤ制限未満かどうかを決定することができる。たとえば、各レイヤに対する直接的および間接的な参照レイヤの総数が、参照レイヤ制限未満である場合、マルチループSHVCエンコーダは、デコーダに符号化されたビデオ信号を送ることができる。
SHVCの主なプロファイル制約は、ピクチャレベルで利用可能なレイヤ間参照ピクチャの数を限定するために、サンプルおよび/または動きリサンプリングプロセスの数を制限することができる。SNR拡張性では、ビデオ符号化デバイスは、サンプルまたは動きリサンプリングプロセスを使用しない場合がある。SNR拡張性では、ビデオ符号化デバイスは、マルチループ復号アーキテクチャに従うことができる。SNR拡張性では、ビデオ符号化デバイスは、所与の拡張レイヤを復号するために復号される依存レイヤ(たとえば、直接的および間接的)を使用することができる。依存レイヤの数の制約は、SNR拡張性に適用され得る。
ビデオ復号化デバイスなどSHVCビデオ符号化デバイスは、ビットストリームの64レイヤを完全に復号することができる場合がある。ビットストリームの64レイヤを復号することは、SHVCデコーダで64の単一レイヤのデコーダを持つことに等しい場合がある。ビデオ符号化デバイスは、SHVCデコーダの複雑さを制限するためにプロファイル制約を加えることができる。
例では、主なプロファイル制約は、依存レイヤの数に提供され得る。たとえば、マルチループSHVCコーデックに対する符号化の複雑さを限定するために、他の制約は、以下のように、SHVCの主なプロファイルおよびそのレベルに対して直接的および間接的な依存レイヤの数を制限するために提供され得る。
iNuhLIdに等しいnuh_layer_idを用いるレイヤの直接的な依存レイヤの数NumDirectRefLayers[iNuhLId]は、事前に決定され得る。ビデオ符号化デバイスは、以下のように、iNuhLIdに等しいnuh_layer_idを用いるレイヤの間接的な依存レイヤの数NumlndirectRefLayers[iNuhLId]を導き出すことができる。
Figure 2017500764
ビデオ符号化デバイスは、NumDirectRefLayers[iNuhLId]およびNumlndirectRefLayers[iNuhLId]を合計することによって、iNuhLIdに等しいnuh_layer_idを用いるレイヤの直接的および間接的な依存レイヤの総数NumRefLayers[iNuhLId]を決定することができる。たとえば、NumRefLayers[iNuhLId]=NumDirectRefLayers[iNuhLId]+NumIndirectRefLayers[iNuhLId]である。
ビデオ符号化デバイスは、直接的な依存レイヤの数の制約を使用することができる。たとえば、ビデオ符号化デバイスは、主なプロファイルの直接的な依存レイヤの最大数を制限するために制約オプションを使用することができる。ビデオ符号化デバイスは、SHVCの主なプロファイルの1もしくは複数または各拡張レイヤに利用可能な直接的な依存参照レイヤの総数の最大値を限定するために、VPS拡張またはSPSで、構文要素max_num_direct_dependent_ref_layers_minus1を信号送信することができる。ビデオ符号化デバイスは、変数NumDirectRefLayers[i]を設定することができ、ここでiは、1から、max_num_direct_dependent_ref_layers_minus1の値以下であるレイヤの最大数(たとえば63)までの範囲にある場合がある。たとえば、各依存レイヤは、復号される1つまたは複数のそれ自身の依存レイヤに依存する場合があるため、特定のレイヤを復号するためにビデオ符号化デバイスが復号することができるレイヤの総数は、63までの場合がある。
ビデオ符号化デバイスは、拡張可能な主なプロファイルに対して制約を利用することができる。たとえば、iNuhLIdに等しいnuh_layer_idを用いる特定の拡張レイヤの直接的な依存レイヤの数NumDirectRefLayers[iNuhLId、]は、Nを超えない場合があり、ここでNは、拡張可能な主なプロファイルによって許可され得る直接的な依存レイヤの最大数の場合がある。ビデオ符号化デバイスは、SHVCの主なプロファイルに対して1に等しい直接的な依存レイヤの最大数Nを設定することができる。
たとえば、ビデオ符号化デバイスは、SHVCの主なプロファイルの1もしくは複数または各拡張レイヤに利用可能な直接的および間接的な依存参照レイヤの総数の最大値を抑制するために、VPS拡張またはSPSで、max_num_dependent_ref_layers_minus1など構文要素を信号送信することができる。ビデオ符号化デバイスは、変数NumRefLayers[i]を設定することができ、ここでiは、1から、max_num_dependent_ref_layers_minus1プラス1の値以下であるレイヤの最大数(たとえば63)までの範囲にある場合がある。
ビデオ符号化デバイスは、SHVCコーデックの複雑さを低減または制限するために、直接的および間接的な依存レイヤの両方を含むことができる依存レイヤの数の制約を利用することができる。たとえば、マルチループSHVCエンコーダは、プロファイルに対する参照レイヤの数を制限するために実行可能命令を用いるプロセッサを含むことができる。マルチループSHVCエンコーダは、参照レイヤ制限を設定することができる。たとえば、参照レイヤ制限は、直接的および間接的な依存レイヤの最大数を制限するために、制約として使用され得る。マルチループSHVCエンコーダは、プロファイルに対するレイヤへとビデオ信号を符号化することができるため、符号化されたビデオ信号の所与のレイヤに対する直接的および間接的な参照レイヤの総数は、参照レイヤ制限未満である。
たとえば、各レイヤについて、マルチループSHVCエンコーダは、直接的および間接的な参照レイヤの総数を決定することができる。マルチループSHVCエンコーダは、レイヤに対する直接的および間接的な参照レイヤの総数が参照レイヤ制限未満かどうかを決定することができる。符号化されたビデオ信号は、たとえば、各レイヤに対する直接的および間接的な参照レイヤの総数が、参照レイヤ制限未満である場合、デコーダに送られ得る。
たとえば、ビデオ符号化デバイスは、拡張可能な主なプロファイルに対して制約を利用することができる。特定の拡張レイヤの直接的および間接的な依存レイヤの総数NumRefLayers[iNuhLId]は、Nを超えない場合があり、ここでNは、拡張可能な主なプロファイル、層、および/またはレベルによって使用および/または許可され得る依存レイヤの最大数の場合がある。
たとえば、SHVCの主なプロファイルは、あるまたは特定の層および/またはレベルについて、許可または使用され得るCTB(符号化ツリーブロック:Coding Tree Block)の最大数を指定することができる。例では、ビデオ符号化デバイスは、1もしくは複数または各依存レイヤのビデオ解像度に基づいて、CTBの最大数からNを導き出すことができる。
ビデオ符号化デバイスは、制約を提供するために1つまたは複数の方法で信号送信することができる。たとえば、ビデオ符号化デバイスは、SHVCにおいて本明細書に記述された1つまたは複数の制約を提供するために2つの方法を信号送信することができる。
たとえば、ビデオ符号化デバイスは、余分な構文要素を信号送信しない場合があり、制約は、NumDirectRefLayers[iNuhLId]およびNumRefLayers[iNuhLId]など導き出された変数で提供され得る。ビデオ符号化デバイスは、直接的および/または間接的な依存レイヤの最大数を用いて制約を満たすために、direct_dependency_flagなど構文要素の値を設定することができる。ビデオ符号化デバイスは、変数NumDirectRefLayers[iNuhLId]およびNumRefLayers[iNuhLId]を導き出すために、direct_dependency_flagなど構文要素を使用することができる。
ビデオ符号化デバイスは、依存レイヤの総数を示すためにパラメータセットで、max_num_direct_dependent_layer_minus1および/またはmax_num_dependent_layers_minus1などの構文要素を信号送信することができる。パラメータセットは、SPSまたはVPSの場合がある。ビデオ符号化デバイスは、たとえば、コーデックがサポートすることができるプロファイル、層、および/またはレベルに基づいて、構文要素の値を設定することができる。ビデオ符号化デバイスは、構文要素max_num_dependent_layer_minus1を使用することができる。
たとえば、構文要素がVPS拡張で信号送信され得る場合、各レイヤは、異なるプロファイルおよび/またはレベルをサポートすることができるため、ビデオ符号化デバイスは、(たとえば、表166に示した)レイヤの中の依存レイヤの最大数および/または(たとえば、表17に示した)各個々の拡張レイヤの依存レイヤの最大数を示すために構文要素を使用することができる。
Figure 2017500764
ビデオ符号化デバイスは、各レイヤに対する直接的および間接的な依存レイヤの最大数を指定するために、max_num_dependent_layers_minus1を使用することができる。max_num_dependent_layers_minus1の値は、0から62の範囲にある場合がある。それが存在しない可能性がある場合、max_num_dependent_layers_minus1の値は0に等しい場合がある。
Figure 2017500764
ビデオ符号化デバイスは、i番目のレイヤに対して直接的および間接的な依存レイヤの最大数を指定するために、max_num_dependent_layers_minus1[i]を使用することができる。max_num_dependent_layers_minus1の値は、0から62の範囲にある場合がある。それが存在しない可能性がある場合、max_num_dependent_layers_minus1の値は、0に等しい場合がある。
ビデオ符号化デバイスは、VPSで信号送信された構文要素の一部を調整するために、max_num_dependent_layers_minus1を使用することができる。たとえば、表18に示すように、各レイヤに利用可能な依存レイヤがある可能性がある場合(max_num_dependent_layers_minus1=0)、「all_ref_layers_active_flag」および「max_one_active_ref_layer_flag」などの構文要素は存在しない場合がある。
Figure 2017500764
ビデオ符号化デバイスは、SPSに関連付けられ得るアクティブなレイヤの依存レイヤの最大数を示すために、(たとえば、表19に示すように)SPSで信号送信された構文要素を使用することができる。ビデオ符号化デバイスは、SPS拡張で信号送信された、基準化されたオフセット構文要素を調整するために構文要素を使用することができる。表20は、提供および/または利用され得る例示的なSPS拡張構文の変更を示している。
Figure 2017500764
Figure 2017500764
ビデオ符号化デバイスは、ベースレイヤに対して主なプロファイル制約を使用することができる。たとえば、ビデオ符号化デバイスは、下位ビットストリーム抽出を使用することができる。ビデオ符号化デバイスは、下位ビットストリーム抽出への入力を使用することができる。下位ビットストリーム抽出への入力は、ビットストリーム、ターゲットである最高のTemporalId値tldTarget、および/またはターゲットレイヤ識別子リストlayerIdListTargetの場合がある。下位ビットストリーム抽出の出力は、下位ビットストリームの場合がある。入力ビットストリームに対するビットストリームの適合は、tldTargetを用いるプロセスの出力下位ビットストリームが、0から6の範囲(両端の値を含む)の値に等しいことを規定することができる。アクティブなビデオパラメータセットで指定されたレイヤセットに関連付けられたレイヤ識別子リストに等しいlayerIdListTargetは、準拠するビットストリームの場合がある。準拠するビットストリームは、0に等しいnuh_layer_idおよび0に等しいTemporalIdを用いる1つまたは複数の符号化されたスライスセグメントNALユニットを含む場合がある。
ビデオ符号化デバイスは、以下のように出力下位ビットストリームを導き出すことができる。以下の条件の1つまたは複数が真の可能性がある場合、ビデオ符号化デバイスは、0に等しいnuh_layer_idを持つことができ、ネストされていないバッファリング期間SEIメッセージ、ネストされていないピクチャタイミングSEIメッセージ、またはネストされていない復号ユニット情報SEIメッセージを含むことができるSEI NALユニットを取り除くことができる。ビデオ符号化デバイスは、layerIdListTargetが(たとえば条件において)ビットストリームのNALユニットにnuh_layer_idの値を含んでいない可能性がある場合、SEI NALユニットを取り除くことができる。ビデオ符号化デバイスは、tldTargetが(たとえば条件において)ビットストリームのNALユニットで最大のTemporalId未満の可能性がある場合、SEI NALユニットを取り除くことができる。下位ビットストリームに適用可能なSEIメッセージが、オリジナルのビットストリームのネストされているSEIメッセージとして存在している可能性があるという条件では、ビデオ符号化デバイスは、「スマートな」ビットストリーム抽出器が、抽出された下位ビットストリームに、適切なネストされていないバッファリングピクチャSEIメッセージ、ネストされていないピクチャタイミングSEIメッセージ、およびネストされていない復号ユニット情報SEIメッセージを含む可能性がある場合、SEI NALユニットを取り除くことができる。ビデオ符号化デバイスは、layerIdListTargetに含まれる値の中にない可能性があるtldTargetまたはnuh_layer_idより大きいTemporalIdを用いるNALユニットを取り除くことができる。
図8は、単一レイヤの階層的なビデオ符号化構造の時間的なレイヤの例を示している。0に等しいTemporalIdを用いる第1の時間的なレイヤは、ピクチャPOC810およびPOC890を含むことができる。1に等しいTemporalIdを用いる第2の時間的なレイヤは、ピクチャPOC850を含むことができる。2に等しいTemporalIdを用いる第3の時間的なレイヤは、ピクチャPOC830およびPOC870を含むことができる。3に等しいTemporalIdを用いる最後の時間的なレイヤは、ピクチャPOC820、POC840、POC860、およびPOC880を含むことができる。下位ビットストリーム抽出について2に等しく設定されているtldTargetの例では、下位ビットストリーム抽出プロセスからの出力ビットストリームは、POC810、POC830、POC850、POC870、およびPOC890のピクチャを含むことができる。
準拠するビットストリームは、0に等しいnuh_layer_idおよび0に等しいTemporalIdを用いる1つまたは複数の符号化されたスライスセグメントNALユニットを含むことができる。抽出プロセスの出力下位ビットストリームは、準拠するビットストリームの場合がある。たとえば、同じ適合要件をHEVCのマルチビューおよび拡張可能な拡張に適用することができる場合、ビデオ符号化デバイスは、そのnuh_layer_idが0に等しくTemporalIdが0に等しいベースレイヤNALユニットが、抽出された下位ビットストリームに含まれることを保証することを支援するために、SHVCの主なプロファイルに対して制約を使用することができる。
例示的な制約は、以下の通りの場合がある。ビデオ符号化デバイスは、準拠するSHVCビットストリームにおいて0に等しいそのnuh_layer_idおよび0に等しいTemporalIdを用いるピクチャを含む1つまたは複数のアクセスユニットを含むことができる。たとえば、0に等しいnuh_layer_idおよび0に等しいTemporalIdを用いるピクチャを含むレイヤは、レイヤ識別子リストTargetDecLayerIdListの各nuh_layer_id値について、レイヤの直接的または間接的な依存レイヤの場合がある。ビデオ符号化デバイスは、制約を利用し、サイマルキャストレイヤがSHVCビットストリームにおいて利用可能な場合があることを指定することができる。
図9Aは、1つまたは複数の開示された実施形態が実装され得る例示的な通信システム900を示す図である。通信システム900は、複数のワイヤレスユーザに、音声、データ、ビデオ、メッセージ、ブロードキャストなどのコンテンツを提供する多重アクセスシステムの場合がある。通信システム900は、複数のワイヤレスユーザが、ワイヤレス帯域幅を含むシステムリソースの共有を通じてそのようなコンテンツにアクセスすることを可能にすることができる。たとえば、通信システム900は、符号分割多元接続(CDMA)、時分割多重アクセス(TDMA)、周波数分割多元接続(FDMA)、直交FDMA(OFDMA)、単一キャリアのFDMA(SC−FDMA)など1つまたは複数のチャネルアクセス方式を用いることができる。
図9Aに示すように、通信システム900は、ワイヤレス送信/受信ユニット(WTRU)902a、902b、902c、および/または902d(一般的または総体としてWTRU902と呼ばれ得る)、無線アクセスネットワーク(RAN)903/904/905、コアネットワーク906/907/909、公衆交換電話網(PSTN)908、インターネット910、および他のネットワーク912を含むことができる。しかしながら、開示された実施形態は、任意の数のWTRU、基地局、ネットワーク、および/またはネットワーク要素を意図していることを理解されるであろう。WTRU902a、902b、902c、902dの各々は、ワイヤレス環境で動作および/または通信するように構成された任意のタイプのデバイスの場合がある。例として、WTRU902a、902b、902c、902dは、ワイヤレス信号を送信および/または受信するように構成されて得て、ユーザ機器(UE)、移動局、固定またはモバイルの加入者ユニット、ポケットベル、セルラー式電話、携帯情報端末(PDA)、スマートフォン、ラップトップ型コンピュータ、ネットブック、パーソナルコンピュータ、ワイヤレスセンサ、民生用電子機器などを含むことができる。
通信システム900は、また、基地局914aおよび基地局914bを含むことができる。基地局914a、914bの各々は、コアネットワーク906/907/909、インターネット910、および/またはネットワーク912など、1つまたは複数の通信ネットワークへのアクセスを促進するために、WTRU902a、902b、902c、902dの少なくとも1つとワイヤレスにインターフェースをとるように構成された任意のタイプのデバイスの場合がある。例として、基地局914a、914bは、無線基地局(BTS)、ノードB、eNode B、ホームノードB、ホームeNode B、サイト制御装置、アクセスポイント(AP)、ワイヤレスルータなどの場合がある。基地局914a、914bは、それぞれ単一の要素として表されているが、基地局914a、914bは、任意の数の相互に接続された基地局および/またはネットワーク要素を含むことができることが理解されよう。
基地局914aは、基地局制御装置(BSC)、無線ネットワーク制御装置(RNC)、中継ノードなど、他の基地局および/またはネットワーク要素(図示せず)も含むことができるRAN903/904/905の一部の場合がある。基地局914aおよび/または基地局914bは、セル(図示せず)と呼ばれ得る特定の地理的な領域内においてワイヤレス信号を送信および/または受信するように構成され得る。セルは、セルセクタにさらに分割され得る。たとえば、基地局914aに関連付けられたセルは、3つのセクタに分割され得る。したがって、一実施形態では、基地局914aは、たとえばセルの各セクタに対して1つのように、3つのトランシーバを含むことができる。別の実施形態では、基地局914aは、マルチ入力マルチ出力(MIMO)技術を用いることができ、したがって、セルの各セクタに対して複数のトランシーバを利用することができる。
基地局914a、914bは、任意の適したワイヤレス通信リンク(たとえば無線周波数(RF)、マイクロ波、赤外線(IR)、紫外線(UV)、可視光線など)の場合がある、エアインターフェース915/916/917を通じて、WTRU902a、902b、902c、902dの1つまたは複数と通信することができる。エアインターフェース915/916/917は、任意の適した無線アクセス技術(RAT)を使用して確立され得る。
より具体的には、上に示したように、通信システム900は、多重アクセスシステムの場合があり、CDMA、TDMA、FDMA、OFDMA、SC−FDMAなど1つまたは複数のチャネルアクセス方式を用いることができる。たとえば、RAN903/904/905の基地局914a、およびWTRU902a、902b、902cは、広帯域CDMA(WCDMA)を使用して、エアインターフェース915/916/917を確立することができる、ユニバーサルモバイルテレコミュニケーションシステム(UMTS)地上無線アクセス(UTRA)などの無線技術を実装することができる。WCDMAは、高速パケットアクセス(HSPA)および/またはEvolved HSPA(HSPA+)などの通信プロトコルを含むことができる。HSPAは、高速ダウンリンクパケットアクセス(HSDPA)および/または高速アップリンクパケットアクセス(HSUPA)を含むことができる。
別の実施形態では、基地局914a、WTRU902a、902b、902cは、ロングタームエボリューション(LTE)および/またはLTE−Advanced(LTE−A)を使用して、エアインターフェース915/916/917を確立することができる、進化型UMTS地球無線アクセス(E−UTRA)などの無線技術を実装することができる。
他の実施形態では、基地局914aおよびWTRU902a、902b、902cは、IEEE802.16(たとえばワールドワイドインターオペラビリティフォーマイクロウェーブアクセス(WiMAX))、CDMA2000、CDMA2000 IX、CDMA2000 EV−DO、暫定標準2000(IS−2000:Interim Standard 2000)、暫定標準95(IS−95:Interim Standard 95)、暫定標準856(IS−856:Interim Standard 856)、グローバルシステムフォーモバイルコミュニケーションズ(GSM)、GSM進化型高速データレート(EDGE:Enhanced Data rates for GSM Evolution)、GSMエッジ(GERAN)などの無線技術を実装することができる。
図9Aの基地局914bは、たとえば、ワイヤレスルータ、ホームノードB、ホームeNode B、またはアクセスポイントの場合があり、事業所、家、車両、キャンパスなど、局所的な領域においてワイヤレス接続を促進するために任意の適したRATを利用することができる。一実施形態では、基地局914b、WTRU902c、902dは、ワイヤレスローカルエリアネットワーク(WLAN)を確立するために、IEEE802.11など無線技術を実装することができる。別の実施形態では、基地局914bおよびWTRU902c、902dは、ワイヤレスパーソナルエリアネットワーク(WPAN)を確立するためにIEEE802.15などの無線技術を実装することができる。さらに別の実施形態では、基地局914bおよびWTRU902c、902dは、ピコセルまたはフェムトセルを確立するために、セルラーベースのRAT(たとえばWCDMA、CDMA2000、GSM、LTE、LTE−Aなど)を利用することができる。図9Aに示すように、基地局914bは、インターネット910への直接的な接続を持つことができる。したがって、基地局914bは、コアネットワーク906/907/909を介して、インターネット910にアクセスすることを要求されない場合がある。
RAN903/904/905は、音声、データ、アプリケーション、および/またはボイスオーバーインターネットプロトコル(VoIP)のサービスをWTRU902a、902b、902c、902dの1つまたは複数に提供するように構成された任意のタイプのネットワークの場合がある、コアネットワーク906/907/909と通信することができる。たとえば、コアネットワーク906/907/909は、呼制御、請求サービス、モバイルの位置ベースのサービス、前払いの呼び出し、インターネット接続、ビデオ配布などを提供することができ、かつ/またはユーザ認証など高レベルのセキュリティ機能を実行することができる。図9Aには示していないが、RAN903/904/905および/またはコアネットワーク906/907/909は、RAN903/904/905同じRATまたは異なるRATを用いる他のRANと直接的または間接的に通信することができることを理解されるであろう。たとえば、E−UTRA無線技術を利用することができるRAN903/904/905に接続されることに加えて、コアネットワーク906/907/909は、また、GSM無線技術を用いる別のRAN(図示せず)と通信することができる。
コアネットワーク906/907/909は、また、PSTN908、インターネット910、および/または他のネットワーク912にアクセスするために、WTRU902a、902b、902c、902dに対するゲートウェイとして機能することができる。PSTN908は、基本電話サービス(POTS:plain old telephone service)を提供する、回線交換電話ネットワークを含むことができる。インターネット910は、TCP/IPインターネットプロトコルスイートの伝送制御プロトコル(TCP)、ユーザデータグラムプロトコル(UDP)、およびインターネットプロトコル(IP)など、一般的な通信プロトコルを使用する、相互に接続されたコンピュータネットワークおよびデバイスのグローバルシステムを含むことができる。ネットワーク912は、他のサービス提供者によって所有および/または運用される有線またはワイヤレスの通信ネットワークを含むことができる。たとえば、ネットワーク912は、RAN903/904/905と同じRATまたは異なるRATを用いることができる1つまたは複数のRANに接続された別のコアネットワークを含むことができる。
通信システム100のWTRU902a、902b、902c、902dの一部またはすべては、マルチモード能力を含むことができる。たとえば、WTRU902a、902b、902c、902dは、異なるワイヤレスリンクを通じて、異なるワイヤレスネットワークと通信するために複数のトランシーバを含むことができる。たとえば、図9Aに示したWTRU902cは、セルラーベースの無線技術を用いることができる基地局914aおよびIEEE802無線技術を用いることができる基地局914bと通信するように構成され得る。
図9Bは、例示的なWTRU902を示すシステム図である。図9Bに示すように、WTRU902は、プロセッサ918、トランシーバ920、送信/受信要素922、スピーカ/マイクロホン924、キーパッド926、ディスプレイ/タッチパッド928、ノンリムーバブルメモリ930、リムーバブルメモリ932、電源934、全地球測位システム(GPS)チップセット936、および他の周辺装置938を含むことができる。WTRU902は、実施形態との整合性を維持しながら、前述の要素の任意の下位の組み合わせを含むことができることを理解されるであろう。また、実施形態は、基地局914aおよび914b、ならびに/またはたとえば、限定しないが、トランシーバ基地局(BTS)、ノードB、サイト制御装置、アクセスポイント(AP)、ホームノードB、発展型ホームノードB(eNodeB:evolved home node-B)、ホーム発展型ノードB(HeNBまたはHeNodeB)、ホーム発展型ノードBゲートウェイ、およびプロキシノードなど、基地局914aおよび914bが表すことができるノードは、特に、図9Bに表し本明細書に記述した要素の一部またはすべてを含むことができることを意図するものである。
プロセッサ918は、汎用プロセッサ、専用プロセッサ、従来のプロセッサ、デジタル信号プロセッサ(DSP)、複数のマイクロプロセッサ、DSPコアに関連する1つまたは複数のマイクロプロセッサ、制御装置、マイクロコントローラ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)回路、任意の他のタイプの集積回路(IC)、状態機械などの場合がある。プロセッサ918は、信号符号化、データ処理、出力制御、入力/出力処理、および/またはWTRU902がワイヤレス環境で動作することを可能にする任意の他の機能を実行することができる。プロセッサ918は、送信/受信要素922に結合され得るトランシーバ920に結合され得る。図9Bは、個別のコンポーネントとしてプロセッサ918およびトランシーバ920を表しているが、プロセッサ918およびトランシーバ920は、電子パッケージまたはチップにともに統合され得ることを理解されるであろう。
送信/受信要素922は、エアインターフェース915/916/917を通じて、基地局(たとえば基地局914a)との間で信号を送信するか、または信号を受信するように構成され得る。たとえば、一実施形態では、送信/受信要素922は、RF信号を送信および/または受信するように構成されたアンテナの場合がある。別の実施形態では、送信/受信要素922は、たとえば、IR、UV、または可視光線信号を送信および/または受信するように構成されたエミッタ/検知器の場合がある。さらに別の実施形態では、送信/受信要素922は、RFと光信号の両方を送受信するように構成され得る。送信/受信要素922は、ワイヤレス信号の任意の組み合わせを送信および/または受信するように構成され得ることを理解されるであろう。
加えて、送信/受信要素922は、単一の要素として図9Bに表されているが、WTRU902は、任意の数の送信/受信要素922を含むことができる。より具体的には、WTRU902、はMIMO技術を用いることができる。したがって、一実施形態では、WTRU902は、エアインターフェース915/916/917を通じてワイヤレス信号を送信および受信するために、2つ以上の送信/受信要素922(たとえば複数のアンテナ)を含むことができる。
トランシーバ920は、送信/受信要素922によって送信されるであろう信号を変調し、送信/受信要素922によって受信される信号を復調するように構成され得る。上に記述したように、WTRU902は、マルチモード能力を持つことができる。したがって、トランシーバ920は、WTRU902がたとえばUTRAおよびIEEE802.11など複数のRATを介して通信することを可能にするために複数のトランシーバを含むことができる。
WTRU902のプロセッサ918は、スピーカ/マイクロホン924、キーパッド926、および/またはディスプレイ/タッチパッド928(たとえば液晶ディスプレイ(LCD)ディスプレイユニットまたは有機発光ダイオード(OLED)ディスプレイユニット)に結合され得て、それらからユーザ入力データを受信することができる。プロセッサ918は、また、スピーカ/マイクロホン924、キーパッド926、および/またはディスプレイ/タッチパッド928にユーザデータを出力することができる。加えて、プロセッサ918は、ノンリムーバブルメモリ930および/またはリムーバブルメモリ932など、任意のタイプの適したメモリからの情報にアクセスし、そこにデータを記憶することができる。ノンリムーバブルメモリ930は、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、ハードディスク、または任意の他のタイプのメモリ記憶デバイスを含むことができる。リムーバブルメモリ932は、加入者識別モジュール(SIM)カード、メモリスティック、セキュアデジタル(SD)メモリカードなどを含むことができる。他の実施形態では、プロセッサ918は、サーバまたはホームコンピュータ(図示せず)など、WTRU902に物理的に配置されていないメモリからの情報にアクセスし、そこにデータを記憶することができる。
プロセッサ918は、電源934から電力を受信することができ、WTRU902の他のコンポーネントにおいて電力を配布および/または制御するように構成され得る。電源934は、WTRU902に電力を供給するための任意の適したデバイスの場合がある。たとえば、電源934は、1つまたは複数の乾電池(たとえばニッケルカドミウム(NiCd)、ニッケル亜鉛(NiZn)、ニッケル水素(NiMH)、リチウムイオン(Li−ion)など)、太陽電池、燃料電池、などを含むことができる。
プロセッサ918は、また、WTRU902の現在の位置に関して位置情報(たとえば経度および緯度)を提供するように構成され得るGPSチップセット936に結合され得る。GPSチップセット936からの情報に加えて、またはその代わりに、WTRU902は、基地局(たとえば基地局914a、914b)からエアインターフェース915/916/917を通じて位置情報を受信し、かつ/または2つ以上の近くの基地局から受信されている信号のタイミングに基づいてその位置を決定することができる。WTRU902は、実施形態との整合性を維持しながら、任意の適した位置決定実装を手段として位置情報を取得することができることを理解されるであろう。
プロセッサ918は、追加の特徴、機能、および/または有線もしくはワイヤレスの接続を提供する1つまたは複数のソフトウェアおよび/またはハードウェアモジュールを含むことができる他の周辺装置938にさらに結合され得る。たとえば、周辺装置938は、加速度計、イーコンパス、衛星トランシーバ、(写真またはビデオ用の)デジタルカメラ、ユニバーサルシリアルバス(USB)ポート、振動デバイス、テレビ用トランシーバ、ハンズフリーのヘッドセット、ブルートゥース(登録商標)モジュール、周波数変調(FM)無線ユニット、デジタル音楽プレーヤー、メディアプレーヤー、ビデオゲームプレーヤーモジュール、インターネットブラウザなどを含むことができる。
図9Cは、実施形態に従ったRAN903およびコアネットワーク906を示すシステム図である。上に記述したように、RAN903は、エアインターフェース915を通じてWTRU902a、902b、902cと通信するためにUTRA無線技術を用いることができる。RAN903は、また、コアネットワーク906と通信することができる。図9Cに示すように、RAN903は、それぞれエアインターフェース915を通じて、WTRU902a、902b、902cと通信するために1つまたは複数のトランシーバを含むことができるノードB940a、940b、940cを含むことができる。ノード−B940a、940b、940cは、RAN903内の特定のセル(図示せず)にそれぞれ関連付けられ得る。RAN903は、また、RNC942a、942bを含む場合がある。RAN903は、実施形態との整合性を維持しながら、任意の数のノードBおよびRNCを含むことができることを理解されるであろう。
図9Cに示したように、ノードB940a、940bは、RNC942aと通信することができる。さらに、ノードB940cは、RNC942bと通信することができる。ノードB940a、940b、940cは、Iubインターフェースを介して、それぞれのRNC942a、942bと通信することができる。RNC942a、942bは、Iurインターフェースを介して相互に通信することができる。RNC942a、942bのそれぞれは、それが接続されているそれぞれのノードB940a、940b、940cを制御するように構成され得る。加えて、RNC942a、942bの各々は、外部ループ出力制御、負荷制御、承認制御、パケットスケジューリング、ハンドオーバ制御、マクロダイバーシチ、セキュリティ機能、データの暗号化など、他の機能を実行またはサポートするように構成され得る。
図9Cに示したコアネットワーク906は、メディアゲートウェイ(MGW)944、移動通信交換局(MSC)946、サービスを提供するGPRSサポートノード(SGSN)948、および/またはゲートウェイGPRSサポートノード(GGSN)950を含むことができる。前述の要素の各々は、コアネットワーク906の一部として表されているが、これらの要素の任意の1つは、コアネットワークオペレータ以外のエンティティによって所有および/または運用され得ることを理解されるであろう。
RAN903のRNC942aは、IuCSインターフェースを介してコアネットワーク906のMSC946に接続され得る。MSC946は、MGW944に接続され得る。MSC946およびMGW944は、WTRU902a、902b、902cと、従来の陸線通信デバイスの間の通信を促進するために、PSTN908など、回線交換ネットワークへのアクセスをWTRU902a、902b、902cに提供することができる。
RAN903のRNC942aは、また、IuPSインターフェースを介してコアネットワーク906のSGSN948に接続され得る。SGSN948は、GGSN950に接続され得る。SGSN948およびGGSN950は、WTRU902a、902b、902cとIP対応デバイスの間の通信を促進するために、インターネット910など、パケット交換ネットワークへのアクセスをWTRU902a、902b、902cに提供することができる。
上に記述したように、コアネットワーク906は、また、他のサービス提供者によって所有および/または運用される他の有線またはワイヤレスのネットワークを含むことができるネットワーク912に接続され得る。
図9Dは、実施形態に従ったRAN904およびコアネットワーク907を示すシステム図である。上に記述したように、RAN904は、エアインターフェース916を通じてWTRU902a、902b、902cと通信するためにE−UTRA無線技術を用いることができる。RAN904は、また、コアネットワーク907と通信することができる。
RAN904は、eNode−B960a、960b、960cを含むことができる。しかしながら、RAN904は、実施形態との整合性を維持しながら、任意の数のeNode−Bを含むことができることを理解されるであろう。eNode−B960a、960b、960cはそれぞれ、エアインターフェース916を通じて、WTRU902a、902b、902cと通信するために1つまたは複数のトランシーバを含むことができる。一実施形態では、eNode−B960a、960b、960cは、MIMO技術を実装することができる。したがって、eNode−B960aは、たとえば、WTRU902aとの間で、ワイヤレス信号を送信し、ワイヤレス信号を受信するために複数のアンテナを使用することができる。
eNode−B960a、960b、960cの各々は、特定のセル(図示せず)に関連付けられ得て、無線資源管理の決定、ハンドオーバの決定、アップリンクおよび/またはダウンリンクのユーザのスケジューリングなどを処理するように構成され得る。図9Dに示すように、eNode−B960a、960b、960cは、X2インターフェースを通じて相互に通信することができる。
図9Dに示したコアネットワーク907は、移動性管理ゲートウェイ(MME)962、サービングゲートウェイ964、およびパケットデータネットワーク(PDN)ゲートウェイ966を含むことができる。前述の要素の各々は、コアネットワーク907の一部として表されているが、これらの要素の任意の1つは、コアネットワークオペレータ以外のエンティティによって所有および/または運用され得ることを理解されるであろう。
MME962は、S1インターフェースを介してRAN904のeNode−B960a、960b、960cの各々に接続され得て、制御ノードとして機能することができる。たとえば、MME962は、WTRU902a、902b、902cのユーザを認証すること、ベアラのアクティブ化/非アクティブ化、WTRU902a、902b、902cの最初の接続の間に、特定のサービングゲートウェイを選択することなどを担当することができる。MME962は、また、RAN904と、GSMまたはWCDMAなど他の無線技術を用いる他のRAN(図示せず)の間で切り替えるためにコントロールプレーン機能を提供することができる。
サービングゲートウェイ964は、S1インターフェースを介してRAN904のeNode−B960a、960b、960cの各々に接続され得る。サービングゲートウェイ964は、一般的に、WTRU902a、902b、902cとの間で、ユーザデータパケットをルーティングおよび転送することができる。サービングゲートウェイ964は、また、eNode B間のハンドオーバの間にユーザプレーンをアンカーすること、ダウンリンクデータをWTRU902a、902b、902cに利用可能な場合にページングをトリガすること、WTRU902a、902b、902cのコンテキストを管理および記憶することなど他の機能を実行することができる。
サービングゲートウェイ964は、また、WTRU902a、902b、902cとIP対応デバイスの間の通信を促進するために、インターネット910などパケット交換ネットワークへのアクセスをWTRU902a、902b、902cに提供することができるPDNゲートウェイ966に接続され得る。
コアネットワーク907は、他のネットワークとの通信を促進することができる。たとえば、コアネットワーク907は、WTRU902a、902b、902cと従来の陸線通信デバイスの間の通信を促進するために、PSTN908など回線交換ネットワークへのアクセスをWTRU902a、902b、902cに提供することができる。たとえば、コアネットワーク907は、コアネットワーク907とPSTN908の間でインターフェースとしてサービスを提供するIPゲートウェイ(たとえばIPマルチメディアサブシステム(IMS)サーバ)を含むことができるか、またはそれと通信することができる。加えて、コアネットワーク907は、他のサービス提供者によって所有および/または運用される他の有線またはワイヤレスのネットワークを含むことができるネットワーク912へのアクセスをWTRU902a、902b、902cに提供することができる。
図9Eは、実施形態に従ったRAN905およびコアネットワーク909を示すシステム図である。RAN905は、エアインターフェース917を通じて、WTRU902a、902b、902cと通信するためにIEEE802.16無線技術を用いるアクセスサービスネットワーク(ASN)の場合がある。以下にさらに説明するように、WTRU902a、902b、902c、RAN905、およびコアネットワーク909の異なる機能エンティティ間の通信リンクは、参照点として定義され得る。
図9Eに示すように、RAN905は、基地局980a、980b、980c、およびASNゲートウェイ982を含むことができる。しかしながら、RAN905は、実施形態との整合性を維持しながら、任意の数の基地局およびASNゲートウェイを含むことができることを理解されるであろう。基地局980a、980b、980cはそれぞれ、RAN905の特定のセル(図示せず)に関連付けられ得て、それぞれエアインターフェース917を通じて、WTRU902a、902b、902cと通信するために1つまたは複数のトランシーバを含むことができる。一実施形態では、基地局980a、980b、980cは、MIMO技術を実装することができる。したがって、基地局980aは、たとえば、WTRU902aとの間で、ワイヤレス信号を送信し、ワイヤレス信号を受信するために、複数のアンテナを使用することができる。基地局980a、980b、980cは、また、ハンドオフトリガ、トンネル確立、無線リソース管理、トラフィック分類、サービス品質(QoS)ポリシー施行など、移動性管理機能を提供することができる。ASNゲートウェイ982は、トラフィック集合ポイントとして機能することができ、ページング、加入者プロファイルのキャッシング、コアネットワーク909へのルーティングなどを担当することができる。
WTRU902a、902b、9602cとRAN905の間のエアインターフェース917は、IEEE802.16仕様を実装するR1参照点として定義され得る。加えて、WTRU902a、902b、902cの各々は、コアネットワーク909との論理インターフェース(図示せず)を確立することができる。WTRU902a、902b、902cとコアネットワーク909の間の論理インターフェースは、認証、承認、IPホスト構成管理、および/または移動性管理に使用され得るR2参照点として定義され得る。
基地局980a、980b、980cの各々の間の通信リンクは、WTRUハンドオーバおよび基地局間のデータの転送を促進するためのプロトコルを含むR8参照点として定義され得る。基地局980a、980b、980cとASNゲートウェイ982の間の通信リンクは、R6参照点として定義され得る。R6参照点は、WTRU902a、902b、902cの各々に関連付けられた移動性イベントに基づいて、移動性管理を促進するためのプロトコルを含むことができる。
図9Eに示すように、RAN905は、コアネットワーク909に接続され得る。RAN905とコアネットワーク909の間の通信リンクは、たとえば、データ転送および移動性管理の能力を促進するためのプロトコルを含むR3参照点として定義され得る。コアネットワーク909は、モバイルIPホームエージェント(MIP−HA)984、認証、認可、課金(AAA:authentication, authorization, accounting)サーバ986、およびゲートウェイ988を含むことができる。前述の要素の各々は、コアネットワーク909の一部として表されているが、これらの要素の任意の1つは、コアネットワークオペレータ以外のエンティティによって所有および/または運用され得ることを理解されるであろう。
MIP−HAは、IPアドレス管理を担当することができ、WTRU902a、902b、902cが、異なるASNおよび/または異なるコアネットワークの間で移動することを可能にすることができる。MIP−HA984は、WTRU902a、902b、902cとIP対応デバイスの間の通信を促進するために、インターネット910などパケット交換ネットワークへのアクセスをWTRU902a、902b、902cに提供することができる。AAAサーバ986は、ユーザ認証、およびユーザサービスのサポートを担当することができる。ゲートウェイ988は、他のネットワークとの網間接続を促進することができる。たとえば、ゲートウェイ988は、WTRU902a、902b、902cと従来の陸線通信デバイスの間の通信を促進するために、PSTN908など回線交換ネットワークへのアクセスをWTRU902a、902b、902cに提供することができる。加えて、ゲートウェイ988は、他のサービス提供者によって所有および/または運用される他の有線またはワイヤレスのネットワークを含むことができるネットワーク912へのアクセスをWTRU902a、902b、902cに提供することができる。
図9Eには示していないが、RAN905は、他のASNに接続され得て、コアネットワーク909は、他のコアネットワークに接続され得ることを理解されるであろう。RAN905と他のASNの間の通信リンクは、RAN905と他のASNの間でWTRU902a、902b、902cの移動性を調整するためのプロトコルを含むことができるR4参照点として定義され得る。コアネットワーク909と他のコアネットワークの間の通信リンクは、ホームコアネットワークと訪問されたコアネットワークの間を網間接続することを促進するためのプロトコルを含むことができるR5参照として定義され得る。
本明細書に記述されたプロセスおよび手段は、任意の組み合わせで適用することができ、他のワイヤレス技術、および他のサービスについて適用することができる。
WTRUは、物理デバイスの識別情報、またはたとえばMSISDN、SIP URIなど、契約に関連する識別情報などユーザ識別情報を参照することができる。WTRUは、アプリケーションベースの識別情報、たとえばアプリケーションごとに使用され得るユーザ名を参照することができる。
上に記述されたプロセスは、コンピュータおよび/またはプロセッサによって実行するために、コンピュータ可読媒体に組み込まれたコンピュータプログラム、ソフトウェア、および/またはファームウェアに実装され得る。コンピュータ可読媒体の例は、限定しないが、(有線および/またはワイヤレスの接続を通じて送信される)電子信号および/またはコンピュータ可読記憶媒体を含む。コンピュータ可読記憶媒体の例は、限定しないが、読み取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、レジスタ、キャッシュメモリ、半導体記憶デバイス、限定しないが内部ハードディスクおよびリムーバブルディスク、磁気光学媒体などの磁気媒体、ならびに/またはCD−ROMディスクおよび/またはデジタルバーサタイルディスク(DVD)などの光学媒体を含む。ソフトウェアに関連付けられたプロセッサは、WTRU、UE、端末、基地局、RNC、および/または任意のホストコンピュータで使用するために無線周波数トランシーバを実装するために使用され得る。

Claims (42)

  1. ビデオ符号化デバイスであって、
    ネットワーク抽象化レイヤ(NAL)ユニットを識別し、
    前記NALユニットが現在のレイヤについてのアクティブパラメータセットを含むかどうかを決定し、
    前記NALユニットが前記現在のレイヤについての前記アクティブパラメータセットを含むという決定に基づいて、前記NALユニットに関連付けられたNALユニットヘッダレイヤ識別子を、ゼロ、前記現在のレイヤを示す値、または前記現在のレイヤの参照レイヤを示す値の少なくとも1つに、設定する
    ように構成されたプロセッサ
    を備えた、ビデオ符号化デバイス。
  2. 前記NALユニットは、ピクチャパラメータセット(PPS)NALユニットである、請求項1に記載のビデオ符号化デバイス。
  3. 前記NALユニットは、シーケンスパラメータセット(SPS)NALユニットである、請求項1に記載のビデオ符号化デバイス。
  4. 前記現在のレイヤを示す値は、前記現在のレイヤに関連付けられたレイヤ識別子を示す値を含む、請求項1に記載のビデオ符号化デバイス。
  5. 前記現在のレイヤの前記参照レイヤを示す値は、前記現在のレイヤの前記参照レイヤに関連付けられたレイヤ識別子を示す値を含む、請求項1に記載のビデオ符号化デバイス。
  6. 前記プロセッサは、ビデオ復号化デバイスに前記NALユニットを含むビデオビットストリームを送るように構成されている、請求項1に記載のビデオ符号化デバイス。
  7. ビデオ符号化方法であって、
    ネットワーク抽象化レイヤ(NAL)ユニットを識別することと、
    前記NALユニットが現在のレイヤについてのアクティブパラメータセットを含むかどうか決定することと、
    前記NALユニットが前記現在のレイヤについての前記アクティブパラメータセットを含むという決定に基づいて、前記NALユニットに関連付けられたNALユニットヘッダレイヤ識別子を、ゼロ、前記現在のレイヤを示す値、または前記現在のレイヤの参照レイヤを示す値の少なくとも1つに、設定することと
    を含む、ビデオ符号化方法。
  8. 前記NALユニットは、ピクチャパラメータセット(PPS)NALユニットである、請求項7に記載のビデオ符号化方法。
  9. 前記NALユニットは、シーケンスパラメータセット(SPS)NALユニットである、請求項7に記載のビデオ符号化方法。
  10. 前記現在のレイヤを示す値は、前記現在のレイヤに関連付けられたレイヤ識別子を示す値を含む、請求項7に記載のビデオ符号化方法。
  11. 前記現在のレイヤの前記参照レイヤを示す値は、前記現在のレイヤの前記参照レイヤに関連付けられたレイヤ識別子を示す値を含む、請求項7に記載のビデオ符号化方法。
  12. プロセッサは、ビデオ復号化デバイスに前記NALユニットを含むビデオビットストリームを送るように構成される、請求項7に記載のビデオ符号化方法。
  13. ビデオ符号化デバイスであって、
    ビデオ表現形式のリストを持つシーケンスパラメータセット(SPS)およびビデオパラメータセット(VPS)を含むビデオビットストリームを受信し、
    前記SPSの更新ビデオ表現形式フラグに基づいて前記SPSに関連付けられたレイヤについてのビデオ表現形式を決定し、
    前記更新ビデオ表現形式フラグが表現形式インデックスの存在を示しているという条件で、前記表現形式インデックスに基づいて、前記VPSのビデオ表現形式のリストから前記ビデオ表現形式が決定され、
    更新表現形式インデックスが存在しないという条件で、デフォルトビデオ表現形式から前記ビデオ表現形式が決定される
    ように構成されたプロセッサ
    を備えた、ビデオ符号化デバイス。
  14. 前記プロセッサは、
    前記SPSの前記更新ビデオ表現形式フラグに基づいて、前記表現形式インデックスが前記SPSに存在するかどうかを決定し、前記更新ビデオ表現形式フラグが1に等しいとい条件で、前記表現形式インデックスが前記SPSに存在すると決定し、前記更新ビデオ表現形式フラグが0に等しいという条件で、前記表現形式インデックスが前記SPSに存在しないと決定する
    ように構成されている、請求項13に記載のビデオ符号化デバイス。
  15. 前記デフォルトビデオ表現形式は、前記レイヤについての前記VPSで指定されたデフォルトビデオ表現形式である、請求項13に記載のビデオ符号化デバイス。
  16. 前記表現形式インデックスは、0と前記VPS数の表現形式マイナス1の値の間の範囲(両端の値を含む)にある、請求項13に記載のビデオ符号化デバイス。
  17. ビデオ符号化方法であって、
    ビデオ表現形式のリストを持つシーケンスパラメータセット(SPS)およびビデオパラメータセット(VPS)を含むビデオビットストリームを受信することと、
    前記SPSの更新ビデオ表現形式フラグに基づいて前記SPSに関連付けられたレイヤについてのビデオ表現形式を決定することであり、
    前記更新ビデオ表現形式フラグが表現形式インデックスの存在を示しているという条件で、前記表現形式インデックスに基づいて、前記VPSのビデオ表現形式のリストから前記ビデオ表現形式を決定し、
    更新表現形式インデックスが存在しないという条件で、デフォルトビデオ表現形式から前記ビデオ表現形式を決定する、ことと
    を含む、ビデオ符号化方法。
  18. 前記SPSの前記更新ビデオ表現形式フラグに基づいて、前記表現形式インデックスが前記SPSに存在するかどうかを決定することであり、前記更新ビデオ表現形式フラグが1に等しいという条件で、前記表現形式インデックスが前記SPSに存在すると決定し、前記更新ビデオ表現形式フラグが0に等しいという条件で、前記表現形式インデックスが前記SPSに存在しないと決定する、ことを含む、請求項17に記載のビデオ符号化方法。
  19. 前記デフォルトビデオ表現形式は、前記レイヤについての前記VPSで指定されたデフォルトビデオ表現形式である、請求項17に記載のビデオ符号化方法。
  20. 前記表現形式インデックスは、0と前記VPS数の表現形式マイナス1の値の間の範囲(両端の値を含む)にある、請求項17に記載のビデオ符号化方法。
  21. ビデオ符号化デバイスであって、
    シーケンスパラメータセット(SPS)に関連付けられたレイヤについての表現形式を割り当て、
    前記SPSに関連付けられた前記レイヤについての前記割り当てられた表現形式に基づいて、前記SPSに表現形式インデックスを含めるべきかどうかを決定し、
    前記割り当てられた表現形式がデフォルト表現形式であるという条件で、前記表現形式インデックスが前記SPSに含められず、
    前記割り当てられた表現形式がビデオパラメータセット(VPS)で指定されるという条件で、前記表現形式インデックスが前記SPSに含められ、
    前記決定に基づいて前記表現形式インデックスが前記SPSに含められているかどうかを示す更新ビデオ表現形式フラグを設定する
    ように構成されたプロセッサ
    を備えた、ビデオ符号化デバイス。
  22. 前記プロセッサは、前記更新ビデオ表現形式フラグを1と等しく設定し、前記表現形式インデックスは前記SPSに存在することを示す、ように構成されることを特徴とする請求項21に記載のビデオ符号化デバイス。
  23. 前記プロセッサは、前記更新ビデオ表現形式フラグを0に等しく設定し、前記表現形式インデックスが前記SPSに存在しないことを示す、ように構成されることを特徴とする請求項21に記載のビデオ符号化デバイス。
  24. 前記プロセッサは、ビデオビットストリームで前記設定された更新ビデオ表現形式フラグを信号送信するように構成されることを特徴とする請求項21に記載のビデオ符号化デバイス。
  25. ビデオ符号化方法は、
    シーケンスパラメータセット(SPS)に関連付けられたレイヤについて表現形式を割り当てることと、
    前記SPSに関連付けられた前記レイヤについての前記割り当てられた表現形式に基づいて、前記SPSに表現形式インデックスを含むべきかどうかを決定することであり、
    前記割り当てられた表現形式がデフォルト表現形式であるという条件で、前記表現形式インデックスが前記SPSに含められず、
    前記割り当てられた表現形式がビデオパラメータセット(VPS)で指定されているという条件で、前記表現形式インデックスが前記SPSに含められる、ことと、
    前記決定に基づいて前記表現形式インデックスが前記SPSに含まれているかどうかを示す更新ビデオ表現形式フラグを設定することと
    を含むことを特徴とするビデオ符号化方法。
  26. プロセッサが、前記更新ビデオ表現形式フラグを1に等しく設定し、前記表現形式インデックスが前記SPSにあることを示す、ように構成されることを特徴とする請求項25に記載のビデオ符号化方法。
  27. プロセッサが、前記更新ビデオ表現形式フラグを0に等しく設定し、前記表現形式インデックスが前記SPSに存在しないことを示す、ように構成されることを特徴とする請求項25に記載のビデオ符号化方法。
  28. プロセッサが、ビデオビットストリームで前記設定された更新ビデオ表現形式フラグを信号送信するように構成されることを特徴とする請求項25に記載のビデオ符号化方法。
  29. ビデオ符号化デバイスであって、
    ビデオパラメータセット(VPS)および複数のレイヤを含むビデオビットストリームを受信し、
    前記VPSのデフォルトの直接的な依存関係フラグに基づいて、前記複数のレイヤに関連付けられた直接的な依存関係を決定し、
    直接的な依存関係タイプ情報が前記VPSに存在することを前記デフォルトの直接的な依存関係フラグが示しているという条件で、前記直接的な依存関係が、前記VPSの前記直接的な依存関係タイプ情報から決定され、
    前記直接的な依存関係タイプ情報が前記VPSに存在しないことを前記デフォルトの直接的な依存関係フラグが示しているという条件で、デフォルトに基づいて前記直接的な依存関係は決定される
    ように構成されたプロセッサ
    を備えた、ビデオ符号化デバイス。
  30. ビデオ符号化方法であって、
    ビデオパラメータセット(VPS)および複数のレイヤを含むビデオビットストリームを受信することと、
    前記VPSのデフォルトの直接的な依存関係フラグに基づいて、前記複数のレイヤに関連付けられた直接的な依存関係を決定することであり、
    直接的な依存関係タイプ情報が前記VPSに存在することを前記デフォルトの直接的な依存関係フラグが示しているという条件で、前記VPSの前記直接的な依存関係タイプ情報から前記直接的な依存関係を決定し、
    前記直接的な依存関係タイプ情報が前記VPSに存在しないことを前記デフォルトの直接的な依存関係フラグが示しているという条件で、前記直接的な依存関係がデフォルトに基づくと決定する、ことと
    を含むことを特徴とするビデオ符号化方法。
  31. 前記デフォルトの依存関係は、前記複数のレイヤの各レイヤに適用される、請求項30に記載のビデオ符号化方法。
  32. ビデオ符号化デバイスであって、
    VPSに直接的な依存関係タイプ情報を含めるべきかどうかを決定し、
    デフォルト依存関係が使用されるという条件で、前記VPSで前記直接的な依存関係タイプ情報を信号送信することをバイパスし、
    デフォルト依存関係が使用されないという条件で、前記VPSに前記直接的な依存関係タイプ情報を含め、
    前記決定に基づいて、前記VPSでデフォルトの直接的な依存関係フラグを設定する
    ように構成されたプロセッサ
    を備える、ビデオ符号化デバイス。
  33. ビデオ符号化方法であって、
    VPSに直接的な依存関係タイプ情報を含むべきかどうかを決定することであり、
    デフォルト依存関係が使用されるという条件で、前記VPSで前記直接的な依存関係タイプ情報を信号送信することをバイパスし、
    デフォルト依存関係が使用されないという条件で、前記VPSに前記直接的な依存関係タイプ情報を含める、ことと、
    前記決定に基づいて、前記VPSでデフォルトの直接的な依存関係フラグを設定することと
    を含む、ビデオ符号化方法。
  34. マルチループSHVCエンコーダであって、
    プロファイルのための参照レイヤの数を制限するための実行可能命令であり、
    参照レイヤ制限を設定することと、
    前記プロファイルのためのレイヤへとビデオ信号を符号化することであり、前記レイヤは直接的および間接的な参照レイヤを含み、前記符号化されたビデオ信号のレイヤについての直接的および間接的な参照レイヤの総数は前記参照レイヤ制限未満である、ことと
    を含む実行可能命令を、用いるプロセッサを備えた、マルチループSHVCエンコーダ。
  35. マルチループSHVCエンコーダであって、
    プロファイルに対して参照レイヤの数を制限するための実行可能命令であり、
    参照レイヤ制限を設定することと、
    直接的および間接的なレイヤを含むプロファイルのためのレイヤへとビデオ信号を符号化することと、
    各レイヤについて、直接的および間接的な参照レイヤの総数を決定すること、および前記レイヤについての直接的および間接的な参照レイヤの総数が前記参照レイヤ制限未満かどうか決定することと、
    各レイヤについての前記直接的および間接的な参照レイヤの総数が前記参照レイヤ制限未満である場合、デコーダに前記符号化されたビデオ信号を送ることと
    を含む実行可能命令を、用いるプロセッサを備えた、マルチループSHVCエンコーダ。
  36. マルチループSHVCコーデックに対して符号化の複雑さを限定および/または低減するための方法であって、
    1つまたは複数の制約を信号送信して、レイヤの数を制限することと、
    前記1つまたは複数の制約を適用するステップと
    を含む、方法。
  37. 前記レイヤは、直接的な依存レイヤ、間接的な依存レイヤ、またはベースレイヤの少なくとも1つを含む、請求項36に記載の方法。
  38. 前記1つまたは複数の制約は、前記直接的な依存レイヤの最大数を制限すること、または直接的および間接的な依存レイヤの最大数を制限することの少なくとも1つを含む、請求項37に記載の方法。
  39. 前記直接的な依存レイヤの最大数は、VPS拡張の構文要素、SPSの構文要素、またはプロファイル指示の少なくとも1つを介して限定される、請求項38に記載の方法。
  40. 前記直接的および間接的な依存レイヤの最大数は、VPS拡張の構文要素、SPSの構文要素、またはプロファイル指示の少なくとも1つを介して限定される、請求項38に記載の方法。
  41. 前記1つまたは複数の制約は、導き出された変数を介して信号送信される、請求項36に記載の方法。
  42. 前記1つまたは複数の制約は、構文要素を介して信号送信される、請求項36に記載の方法。
JP2016522000A 2013-10-11 2014-10-10 Hevc拡張のための高レベル構文 Active JP6212212B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201361889787P 2013-10-11 2013-10-11
US201361889919P 2013-10-11 2013-10-11
US61/889,787 2013-10-11
US61/889,919 2013-10-11
PCT/US2014/060136 WO2015054634A2 (en) 2013-10-11 2014-10-10 High level syntax for hevc extensions

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017177031A Division JP6515159B2 (ja) 2013-10-11 2017-09-14 Hevc拡張のための高レベル構文

Publications (2)

Publication Number Publication Date
JP2017500764A true JP2017500764A (ja) 2017-01-05
JP6212212B2 JP6212212B2 (ja) 2017-10-11

Family

ID=51868303

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2016522000A Active JP6212212B2 (ja) 2013-10-11 2014-10-10 Hevc拡張のための高レベル構文
JP2017177031A Active JP6515159B2 (ja) 2013-10-11 2017-09-14 Hevc拡張のための高レベル構文
JP2019077002A Pending JP2019146239A (ja) 2013-10-11 2019-04-15 Hevc拡張のための高レベル構文

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2017177031A Active JP6515159B2 (ja) 2013-10-11 2017-09-14 Hevc拡張のための高レベル構文
JP2019077002A Pending JP2019146239A (ja) 2013-10-11 2019-04-15 Hevc拡張のための高レベル構文

Country Status (9)

Country Link
US (3) US9648333B2 (ja)
EP (2) EP3056004A2 (ja)
JP (3) JP6212212B2 (ja)
KR (2) KR102143707B1 (ja)
CN (2) CN109905703B (ja)
IL (1) IL245013B (ja)
MY (1) MY178305A (ja)
TW (2) TWI646825B (ja)
WO (1) WO2015054634A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017510121A (ja) * 2014-01-08 2017-04-06 クゥアルコム・インコーポレイテッドQualcomm Incorporated Hevcマルチレイヤ拡張における非hevcベースレイヤのサポート

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210129266A (ko) * 2012-07-09 2021-10-27 브이아이디 스케일, 인크. 멀티 레이어 비디오 코딩용 코덱 아키텍처
US10284858B2 (en) * 2013-10-15 2019-05-07 Qualcomm Incorporated Support of multi-mode extraction for multi-layer video codecs
WO2015099400A1 (ko) 2013-12-24 2015-07-02 주식회사 케이티 멀티 레이어 비디오 신호 인코딩/디코딩 방법 및 장치
CN104754358B (zh) * 2013-12-27 2019-02-19 中兴通讯股份有限公司 码流的生成和处理方法、装置及系统
US9654794B2 (en) * 2014-01-03 2017-05-16 Qualcomm Incorporated Methods for coding an inter-layer reference picture set (RPS) and coding end of bitstream (EOB) network access layer (NAL) units in multi-layer coding
US9832481B2 (en) * 2014-01-03 2017-11-28 Qualcomm Incorporated Support of base layer of a different codec in multi-layer video coding
US10091553B1 (en) * 2014-01-10 2018-10-02 Sprint Communications Company L.P. Video content distribution system and method
KR20150110295A (ko) * 2014-03-24 2015-10-02 주식회사 케이티 멀티 레이어 비디오 신호 인코딩/디코딩 방법 및 장치
JP6150134B2 (ja) * 2014-03-24 2017-06-21 ソニー株式会社 画像符号化装置および方法、画像復号装置および方法、プログラム、並びに記録媒体
US9894370B2 (en) 2014-03-24 2018-02-13 Qualcomm Incorporated Generic use of HEVC SEI messages for multi-layer codecs
US10432951B2 (en) * 2014-06-24 2019-10-01 Qualcomm Incorporated Conformance and inoperability improvements in multi-layer video coding
WO2016098056A1 (en) 2014-12-18 2016-06-23 Nokia Technologies Oy An apparatus, a method and a computer program for video coding and decoding
JP6909223B2 (ja) 2016-01-25 2021-07-28 コニンクリーケ・ケイピーエヌ・ナムローゼ・フェンノートシャップ 空間スケーラブル・ビデオ・コーディング
US10623755B2 (en) * 2016-05-23 2020-04-14 Qualcomm Incorporated End of sequence and end of bitstream NAL units in separate file tracks
CN106162180A (zh) 2016-06-30 2016-11-23 北京奇艺世纪科技有限公司 一种图像编解码方法及装置
CN106658225B (zh) * 2016-10-31 2019-11-26 日立楼宇技术(广州)有限公司 视频扩展码设置及视频播放方法和系统
US10904521B2 (en) 2017-03-03 2021-01-26 Qualcomm Incorporated Extracting MCTS sub-bitstreams for video coding
CN107124571B (zh) * 2017-04-14 2020-01-14 浙江宇视科技有限公司 录像存储方法及装置
CN111937401B (zh) 2018-04-13 2022-08-16 皇家Kpn公司 基于块级超分辨率的视频编码的方法和装置
KR102030630B1 (ko) * 2018-04-30 2019-11-08 서울과학기술대학교 산학협력단 하이브리드 망 기반의 스테레오스코픽 3차원 360도 가상 현실 서비스 제공 시스템
CN112771885B (zh) * 2018-09-18 2023-04-25 诺基亚技术有限公司 用于针对视频编码的非二进制简档约束信令的方法和装置
US11553210B2 (en) 2018-12-07 2023-01-10 Interdigital Vc Holdings, Inc. Managing coding tools combinations and restrictions
BR112021016689A2 (pt) 2019-03-08 2021-10-13 Beijing Bytedance Network Technology Co., Ltd. Método de processamento de vídeo, aparelho em um sistema de vídeo, e, produto de programa de computador armazenado em uma mídia legível por computador não transitória
JP2022525399A (ja) * 2019-03-11 2022-05-13 ヴィド スケール インコーポレイテッド サブピクチャ適応解像度変更のための方法および装置
US20200322656A1 (en) * 2019-04-02 2020-10-08 Nbcuniversal Media, Llc Systems and methods for fast channel changing
BR112021019679A2 (pt) 2019-04-18 2021-12-07 Beijing Bytedance Network Tech Co Ltd Método para processamento de mídia visual, aparelho codificador de vídeo, aparelho decodificador de vídeo, e, mídia legível por computador
KR102630411B1 (ko) * 2019-04-20 2024-01-29 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 크로마 잔차 조인트 코딩을 위한 구문 요소의 시그널링
CN113711610B (zh) 2019-04-23 2024-04-16 北京字节跳动网络技术有限公司 降低跨分量依赖性的方法
CN117221558A (zh) 2019-05-08 2023-12-12 北京字节跳动网络技术有限公司 跨分量编解码的适用性条件
CN113785574B (zh) 2019-05-30 2022-10-11 北京字节跳动网络技术有限公司 色度分量的自适应环路滤波
US11166033B2 (en) * 2019-06-06 2021-11-02 Qualcomm Incorporated Adaptation parameter set in access unit in video coding
KR20220024006A (ko) 2019-06-22 2022-03-03 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 크로마 잔차 스케일링을 위한 신택스 요소
CA3145175A1 (en) * 2019-06-24 2020-12-30 Interdigital Vc Holdings, Inc. Method and apparatus for signaling decoding data using high level syntax elements
CN117395396A (zh) 2019-07-07 2024-01-12 北京字节跳动网络技术有限公司 色度残差缩放的信令通知
CA3150261A1 (en) * 2019-09-06 2021-03-11 Huawei Technologies Co., Ltd. HIGH LEVEL SIGNALING METHOD AND APPARATUS FOR WEIGHTED PREDICTION
US11418813B2 (en) 2019-09-20 2022-08-16 Tencent America LLC Signaling of inter layer prediction in video bitstream
US11109069B2 (en) * 2019-09-20 2021-08-31 Tencent America LLC Signaling of scalability parameters in video bitstream
EP4022772A4 (en) * 2019-09-24 2022-11-23 Huawei Technologies Co., Ltd. LAYER-BASED PARAMETER SET NAL UNIT CONSTRAINTS
AU2020319903A1 (en) * 2019-10-07 2022-05-19 Huawei Technologies Co., Ltd. Avoidance of redundant signaling in multi-layer video bitstreams
EP4062319A4 (en) 2019-12-26 2023-01-11 ByteDance Inc. REPORTING DECODED FRAME BUFFER PARAMETERS IN LAYERED VIDEO
MX2022007502A (es) 2019-12-26 2022-07-04 Bytedance Inc Tecnicas para implementar un orden de decodificacion dentro de una imagen codificada.
WO2021134015A1 (en) 2019-12-26 2021-07-01 Bytedance Inc. Profile, tier and layer indication in video coding
EP4066499A4 (en) 2019-12-27 2023-01-11 ByteDance Inc. SYNTAX FOR SIGNALING VIDEO IMAGES
US11825107B2 (en) * 2019-12-27 2023-11-21 Tencent America LLC Method for parameter set reference in coded video stream
BR112022013032A2 (pt) * 2019-12-31 2023-03-14 Huawei Tech Co Ltd Codificador, decodificador e métodos e aparelho correspondentes
CN115004669A (zh) 2020-01-09 2022-09-02 字节跳动有限公司 不同sei消息的解码顺序
WO2021170091A1 (en) 2020-02-29 2021-09-02 Beijing Bytedance Network Technology Co., Ltd. Constrains for high level syntax elements
US20230319302A1 (en) * 2020-03-31 2023-10-05 Lg Electronics Inc. Image encoding/decoding method and apparatus for determining sublayer on basis of whether or not to make reference between layers, and method for transmitting bitstream
WO2021233449A1 (en) * 2020-05-22 2021-11-25 Beijing Bytedance Network Technology Co., Ltd. Reserved bits in general constraint information of a video
WO2021237184A1 (en) 2020-05-22 2021-11-25 Bytedance Inc. Signaling of display information in video bitstreams
US11418814B2 (en) * 2020-05-22 2022-08-16 Tencent America LLC Constraint on syntax elements for still picture profiles
CA3179644A1 (en) 2020-05-22 2021-11-25 Ye-Kui Wang Scalable nested sei message handling in video sub-bitstream extraction process
KR20230013264A (ko) 2020-05-22 2023-01-26 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 서브픽처 서브-비트스트림 추출 개선들
WO2021252533A1 (en) 2020-06-09 2021-12-16 Bytedance Inc. Sub-bitstream extraction of multi-layer video bitstreams
KR20230019848A (ko) * 2020-06-09 2023-02-09 바이트댄스 아이엔씨 서브픽처 서브비트스트림 추출 프로세스 향상들
KR20230024341A (ko) * 2020-06-10 2023-02-20 엘지전자 주식회사 최대 시간 식별자에 기반하여 서브 비트스트림 추출과정을 수행하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 컴퓨터 판독가능한 기록매체
CN112749548B (zh) * 2020-11-02 2024-04-26 万齐智 一种基于规则的中文结构化金融事件缺省补全抽取方法
US20230102088A1 (en) * 2021-09-29 2023-03-30 Tencent America LLC Techniques for constraint flag signaling for range extension
WO2024063559A1 (ko) * 2022-09-23 2024-03-28 엘지전자 주식회사 프로파일을 정의하는 하이 레벨 신택스에 기반한 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130182755A1 (en) * 2012-01-14 2013-07-18 Qualcomm Incorporated Coding parameter sets and nal unit headers for video coding

Family Cites Families (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2386275B (en) * 2002-03-05 2004-03-17 Motorola Inc Scalable video transmissions
JP5055355B2 (ja) * 2006-03-30 2012-10-24 エルジー エレクトロニクス インコーポレイティド ビデオ信号のデコーディング/エンコーディング方法及び装置
US8699583B2 (en) * 2006-07-11 2014-04-15 Nokia Corporation Scalable video coding and decoding
US20080089411A1 (en) * 2006-10-16 2008-04-17 Nokia Corporation Multiple-hypothesis cross-layer prediction
US20080095228A1 (en) * 2006-10-20 2008-04-24 Nokia Corporation System and method for providing picture output indications in video coding
WO2008056959A1 (en) * 2006-11-09 2008-05-15 Lg Electronics Inc. Method and apparatus for decoding/encoding a video signal
KR100896291B1 (ko) * 2006-11-17 2009-05-07 엘지전자 주식회사 비디오 신호의 디코딩/인코딩 방법 및 장치
US20100189182A1 (en) * 2009-01-28 2010-07-29 Nokia Corporation Method and apparatus for video coding and decoding
US8745677B2 (en) * 2009-06-12 2014-06-03 Cygnus Broadband, Inc. Systems and methods for prioritization of data for intelligent discard in a communication network
US9053562B1 (en) * 2010-06-24 2015-06-09 Gregory S. Rabin Two dimensional to three dimensional moving image converter
EP2596633B1 (en) * 2010-07-20 2016-11-23 Nokia Technologies Oy A media streaming apparatus
CN103299619A (zh) * 2010-09-14 2013-09-11 汤姆逊许可公司 遮挡数据的压缩方法和装置
US20120075436A1 (en) * 2010-09-24 2012-03-29 Qualcomm Incorporated Coding stereo video data
CN103430458B (zh) * 2011-03-10 2016-03-02 维德约股份有限公司 可伸缩视频编码的依存参数集
US20130170561A1 (en) * 2011-07-05 2013-07-04 Nokia Corporation Method and apparatus for video coding and decoding
KR101669524B1 (ko) * 2012-02-01 2016-11-09 노키아 테크놀로지스 오와이 비디오 코딩을 위한 방법 및 장치
PT2822276T (pt) * 2012-02-29 2018-12-18 Lg Electronics Inc Processo de predição inter-camadas e dispositivo que o utiliza
US9503720B2 (en) * 2012-03-16 2016-11-22 Qualcomm Incorporated Motion vector coding and bi-prediction in HEVC and its extensions
CN104205813B (zh) * 2012-04-06 2018-05-08 维德约股份有限公司 分层视频编码的等级信令
JP6057395B2 (ja) * 2012-04-16 2017-01-11 ノキア テクノロジーズ オーユー ビデオ符号化方法および装置
KR101682999B1 (ko) * 2012-04-16 2016-12-20 노키아 테크놀로지스 오와이 비디오 코딩 및 디코딩을 위한 장치, 방법 및 컴퓨터 프로그램
KR20130116782A (ko) * 2012-04-16 2013-10-24 한국전자통신연구원 계층적 비디오 부호화에서의 계층정보 표현방식
US20130287093A1 (en) * 2012-04-25 2013-10-31 Nokia Corporation Method and apparatus for video coding
US9674532B2 (en) * 2012-06-24 2017-06-06 Lg Electronics Inc. Image decoding method using information on a random access picture and apparatus using same
US20140003504A1 (en) * 2012-07-02 2014-01-02 Nokia Corporation Apparatus, a Method and a Computer Program for Video Coding and Decoding
WO2014006266A1 (en) * 2012-07-02 2014-01-09 Nokia Corporation Method and apparatus for video coding
WO2014009603A1 (en) * 2012-07-02 2014-01-16 Nokia Corporation Method and apparatus for video coding
CN110087091B (zh) * 2012-08-06 2021-11-12 Vid拓展公司 多层视频编码中用于空间层的采样栅格信息
WO2014038906A1 (ko) * 2012-09-09 2014-03-13 엘지전자 주식회사 영상 복호화 방법 및 이를 이용하는 장치
KR102160242B1 (ko) * 2012-09-09 2020-09-25 엘지전자 주식회사 영상 복호화 방법 및 이를 이용하는 장치
SG11201502194QA (en) * 2012-09-21 2015-04-29 Nokia Technologies Oy Method and apparatus for video coding
US20140085415A1 (en) * 2012-09-27 2014-03-27 Nokia Corporation Method and apparatus for video coding
KR101775250B1 (ko) * 2012-09-28 2017-09-05 노키아 테크놀로지스 오와이 비디오 코딩 및 디코딩을 위한 장치, 방법 및 컴퓨터 프로그램
KR20150063135A (ko) * 2012-09-28 2015-06-08 노키아 테크놀로지스 오와이 비디오 코딩 및 디코딩을 위한 장치, 방법 및 컴퓨터 프로그램
CN104685885B (zh) * 2012-09-30 2018-09-07 华为技术有限公司 一种在参数集中用信号发送可缩放性信息的方法
WO2014072571A1 (en) * 2012-10-01 2014-05-15 Nokia Corporation Method and apparatus for scalable video coding
WO2014058177A1 (ko) * 2012-10-08 2014-04-17 삼성전자 주식회사 멀티 레이어 비디오 부호화 방법 및 장치, 멀티 레이어 비디오 복호화 방법 및 장치
US20150245063A1 (en) * 2012-10-09 2015-08-27 Nokia Technologies Oy Method and apparatus for video coding
US20140098883A1 (en) * 2012-10-09 2014-04-10 Nokia Corporation Method and apparatus for video coding
US10805605B2 (en) * 2012-12-21 2020-10-13 Telefonaktiebolaget Lm Ericsson (Publ) Multi-layer video stream encoding and decoding
US9774927B2 (en) * 2012-12-21 2017-09-26 Telefonaktiebolaget L M Ericsson (Publ) Multi-layer video stream decoding
US10419778B2 (en) * 2013-01-04 2019-09-17 Sony Corporation JCTVC-L0227: VPS_extension with updates of profile-tier-level syntax structure
US9351009B2 (en) * 2013-04-05 2016-05-24 Sharp Kabushiki Kaisha Marking pictures for inter-layer prediction
US9532067B2 (en) * 2013-04-05 2016-12-27 Sharp Kabushiki Kaisha Decoding of inter-layer reference picture set and reference picture list construction
US9807421B2 (en) * 2013-04-05 2017-10-31 Sharp Kabushiki Kaisha NAL unit type restrictions
US20140301477A1 (en) * 2013-04-07 2014-10-09 Sharp Laboratories Of America, Inc. Signaling dpb parameters in vps extension and dpb operation
US9591321B2 (en) * 2013-04-07 2017-03-07 Dolby International Ab Signaling change in output layer sets
CN103237213B (zh) * 2013-04-08 2016-03-30 华为技术有限公司 视频编码方法和视频解码方法及相关装置
CN105210370B (zh) 2013-07-10 2019-04-12 夏普株式会社 运动图像解码装置
US20150373350A1 (en) * 2014-06-20 2015-12-24 Qualcomm Incorporated Temporal motion vector prediction (tmvp) indication in multi-layer codecs

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130182755A1 (en) * 2012-01-14 2013-07-18 Qualcomm Incorporated Coding parameter sets and nal unit headers for video coding

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ADARSH K. RAMASUBRAMONIAN 5775 MOREHOUSE DRIVE SAN DIEGO, CA 92121-1714 USA: "MV-HEVC/SHVC HLS: Representation format information in VPS[online]", JCTVC-N JCTVC-N0092R1, JPN6017015716, ISSN: 0003551911 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017510121A (ja) * 2014-01-08 2017-04-06 クゥアルコム・インコーポレイテッドQualcomm Incorporated Hevcマルチレイヤ拡張における非hevcベースレイヤのサポート
US10547834B2 (en) 2014-01-08 2020-01-28 Qualcomm Incorporated Support of non-HEVC base layer in HEVC multi-layer extensions

Also Published As

Publication number Publication date
TW201531090A (zh) 2015-08-01
JP6515159B2 (ja) 2019-05-15
US20200107027A1 (en) 2020-04-02
IL245013B (en) 2020-04-30
US20170214923A1 (en) 2017-07-27
JP6212212B2 (ja) 2017-10-11
KR20160068936A (ko) 2016-06-15
US10547853B2 (en) 2020-01-28
CN105706451A (zh) 2016-06-22
EP3989585A1 (en) 2022-04-27
KR102143707B1 (ko) 2020-08-11
JP2018026833A (ja) 2018-02-15
US9648333B2 (en) 2017-05-09
MY178305A (en) 2020-10-07
KR20180069136A (ko) 2018-06-22
WO2015054634A2 (en) 2015-04-16
WO2015054634A3 (en) 2015-06-11
TW201921933A (zh) 2019-06-01
EP3056004A2 (en) 2016-08-17
KR101869882B1 (ko) 2018-06-25
CN109905703B (zh) 2023-11-17
IL245013A0 (en) 2016-05-31
CN109905703A (zh) 2019-06-18
TWI646825B (zh) 2019-01-01
TWI704801B (zh) 2020-09-11
US20150103886A1 (en) 2015-04-16
CN105706451B (zh) 2019-03-08
JP2019146239A (ja) 2019-08-29

Similar Documents

Publication Publication Date Title
JP6515159B2 (ja) Hevc拡張のための高レベル構文
JP6574223B2 (ja) 複数レイヤビデオ符号化のためのコーデックアーキテクチャ
US20190037225A1 (en) Parallel decoding method for layered video coding
US9973751B2 (en) Slice base skip mode signaling for multiple layer video coding
US10616597B2 (en) Reference picture set mapping for standard scalable video coding
US20140010291A1 (en) Layer Dependency and Priority Signaling Design for Scalable Video Coding
JP2017169213A (ja) スケーラブルビデオ符号化のための動き情報シグナリング
KR20190110644A (ko) 다계층 비디오 코딩을 위해 조합된 확장성 프로세싱
KR20180081846A (ko) 비디오 송신 시스템에 대한 에러 은닉 모드 시그널링

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170914

R150 Certificate of patent or registration of utility model

Ref document number: 6212212

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250