JP2017508336A - マルチレイヤビデオコーディングにおける異なるコーデックのベースレイヤのサポート - Google Patents

マルチレイヤビデオコーディングにおける異なるコーデックのベースレイヤのサポート Download PDF

Info

Publication number
JP2017508336A
JP2017508336A JP2016544389A JP2016544389A JP2017508336A JP 2017508336 A JP2017508336 A JP 2017508336A JP 2016544389 A JP2016544389 A JP 2016544389A JP 2016544389 A JP2016544389 A JP 2016544389A JP 2017508336 A JP2017508336 A JP 2017508336A
Authority
JP
Japan
Prior art keywords
picture
video
layer
decoded
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016544389A
Other languages
English (en)
Other versions
JP6513684B2 (ja
JP2017508336A5 (ja
Inventor
ワン、イェ−クイ
チェン、ジャンレ
チェン、イン
ヘンドライ、フヌ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2017508336A publication Critical patent/JP2017508336A/ja
Publication of JP2017508336A5 publication Critical patent/JP2017508336A5/ja
Application granted granted Critical
Publication of JP6513684B2 publication Critical patent/JP6513684B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/58Motion compensation with long-term prediction, i.e. the reference frame for a current frame not being the temporally closest one
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

ある態様に従ってコーディングビデオ情報のための装置は、メモリおよびプロセッサを含む。メモリユニットは、エンハンスメントレイヤ(EL)および対応する参照レイヤ(RL)に関連するビデオ情報を記憶するように構成される。プロセッサは、現在のアクセスユニット(AU)におけるELピクチャをコード化することを行うように構成され、ELは、RLをコード化するために使用される第2の標準と異なる第1の標準を使用してコード化され、ELピクチャをコード化することは、現在のアクセスユニットにおけるRLピクチャに関連する情報に基づき、RLピクチャに関連する情報は、外部手段によって提供され、(1)Rlピクチャの復号サンプル値、(2)RLピクチャの表現フォーマット、(3)RLピクチャが瞬時復号リフレッシュ(IDR)ピクチャであるかどうかのインジケーションから成る。【選択図】図5

Description

[0001]本開示は、ビデオコーディングおよび圧縮の分野に関し、特に、スケーラブルビデオコーディング(SVC)、マルチビュービデオコーディング(MVC)、3Dビデオコーディング(3DV)を含むマルチレイヤビデオコーディングに関する。
[0002]デジタルビデオ機能は、デジタルテレビジョン、デジタルダイレクトブロードキャストシステム、ワイヤレスブロードキャストシステム、携帯情報端末(PDA)、ラップトップまたはデスクトップコンピュータ、デジタルカメラ、デジタル記録デバイス、デジタルメディアプレーヤ、ビデオゲームデバイス、ビデオゲームコンソール、セルラー電話または衛星無線電話、ビデオ遠隔会議デバイスなどを含む、広範囲にわたるデバイスに組み込まれ得る。デジタルビデオデバイスは、MPEG−2、MPEG−4、ITU−T H.263、ITU−T H.264/MPEG−4,Part 10,アドバンストビデオコーディング(AVC:Advanced Video Coding)、現在開発中である高効率ビデオコーディング(HEVC:High Efficiency Video Coding)規格によって定義された規格、およびそのような規格の拡張に記載されているビデオ圧縮技法などのビデオ圧縮技法を実装する。ビデオデバイスは、そのようなビデオコーディング技法を実装することによって、デジタルビデオ情報をより効率的に送信、受信、符号化、復号、および/または記憶し得る。
[0003]ビデオ圧縮技法は、ビデオシーケンスに固有の冗長性を低減または除去するために空間的(イントラピクチャ)予測および/または時間的(インターピクチャ)予測を実行する。ブロックベースのビデオコーディングの場合、ビデオスライス(たとえば、ビデオフレーム、ビデオフレームの一部分など)が、ツリーブロック、コーディングユニット(CU:coding unit)および/またはコーディングノードと呼ばれることもあるビデオブロックに区分され得る。ピクチャのイントラコード化(I)スライス中のビデオブロックは、同じピクチャ中の隣接ブロック内の参照サンプルに対する空間的予測を使用して符号化される。ピクチャのインターコード化(PまたはB)スライス中のビデオブロックは、同じピクチャ中の隣接ブロック中の参照サンプルに対する空間的予測、または他の参照ピクチャ中の参照サンプルに対する時間的予測を使用し得る。ピクチャはフレームと呼ばれることがあり、参照ピクチャは参照フレームと呼ばれることがある。
[0004]空間的予測または時間的予測は、コーディングされるべきブロックの予測ブロックを生じる。残差データは、コーディングされるべき元のブロックと予測ブロックとの間のピクセル差分を表す。インターコード化ブロックは、予測ブロックを形成する参照サンプルのブロックを指す動きベクトルと、コード化ブロックと予測ブロックとの間の差分を示す残差データとに従って符号化される。イントラコード化ブロックは、イントラコーディングモードと残差データとに従って符号化される。さらなる圧縮のために、残差データは、ピクセル領域から変換領域に変換されて、残差変換係数が得られ得、その残差変換係数は、次いで量子化され得る。量子化変換係数は、最初は2次元アレイで構成され、変換係数の1次元ベクトルを生成するためにスキャンされ得、なお一層の圧縮を達成するために、エントロピー符号化が適用され得る。
[0005]スケーラブルビデオコーディング(SVC)は、参照レイヤ(RL:reference layer)と呼ばれることがあるベースレイヤ(BL:base layer)と、1つまたは複数のスケーラブルエンハンスメントレイヤ(EL:enhancement layer)とが使用されるビデオコーディングを指す。SVCでは、ベースレイヤは、ベースレベルの品質でビデオデータを搬送することができる。1つまたは複数のエンハンスメントレイヤは、たとえば、より高い空間レベル、時間レベル、および/または信号対雑音(SNR:signal-to-noise)レベルをサポートするために追加のビデオデータを搬送することができる。エンハンスメントレイヤは、前に符号化されたレイヤに対して定義され得る。たとえば、最下位レイヤはBLとして働き得、最上位レイヤはELとして働き得る。中間レイヤは、ELまたはRLのいずれか、あるいはその両方として働き得る。たとえば、中間レイヤ(たとえば、最下位レイヤでも最上位レイヤでもないレイヤ)が、ベースレイヤまたは介在エンハンスメントレイヤ(intervening enhancement layer)など、中間レイヤの下のレイヤのためのELであり、同時に、中間レイヤの上の1つまたは複数のエンハンスメントレイヤのためのRLとして働き得る。同様に、HEVC規格のマルチビューまたは3D拡張では、複数のビューがあり得、1つのビューの情報は、別のビューの情報(たとえば、動き推定、動きベクトル予測および/または他の冗長)をコーディング(たとえば、符号化または復号)するために利用され得る。
[0006]ある実施形態に従うビデオ情報をコーディングするための装置は、メモリおよびプロセッサを含む。メモリユニットは、エンハンスメントレイヤ(EL)および対応する参照レイヤ(RL)に関連付けられたビデオ情報を記憶するように構成される。プロセッサは、現在のアクセスユニット(AU)におけるELピクチャをコード化するように構成され、ELは、RLをコード化するために使用した第2の標準と異なる第1の標準を使用してコード化され、ELピクチャをコーディングすることは、現在のアクセスユニットにおけるRLピクチャに関連付けられた情報に基づき、RLピクチャに関連付けられた情報は、外部手段によって提供され、(1)RLピクチャの復号サンプル値、(2)RLピクチャの表現フォーマット、(3)RLピクチャが瞬時復号リフレッシュ(IDR)ピクチャであるかどうかのインジケーションから成る。
[0007]本開示のシステム、方法およびデバイスは、それぞれいくつかの発明的態様を有し、それらのうちの単一の態様が、本明細書で開示する望ましい属性を単独で担当するとは限らない。1つまたは複数の例の詳細を添付の図面および以下の説明に記載する。添付の図面および以下の説明は、本明細書で説明する発明的概念の全範囲を限定するものではない。他の特徴、目的、および利点は、説明および図面、ならびに特許請求の範囲から明らかになろう。
本開示で説明する態様による技法を利用し得る例示的なビデオ符号化および復号システムを示すブロック図。 本開示で説明する態様による技法を実行し得る別の例示的なビデオ符号化および復号システムを示すブロック図。 本開示で説明する態様による技法を実装し得るビデオ符号化器の一例を示すブロック図。 本開示で説明する態様による技法を実装し得るビデオ符号化器の一例を示すブロック図。 本開示で説明する態様による技法を実装し得るビデオ復号器の一例を示すブロック図。 本開示で説明する態様による技法を実装し得るビデオ復号器の一例を示すブロック図。 本開示の一実施形態による、異なるレイヤにおけるピクチャの例示的な構成を示すブロック図。 本開示の一実施形態による、ビデオ情報をコーディングする方法を示すフローチャート。
[0016]概して、本開示は、HEVC(高効率ビデオコーディング)など、アドバンストビデオコーデックのコンテキストにおけるスケーラブルビデオコーディングのためのレイヤ間予測に関する。より詳細には、本開示は、SHVCと呼ばれることがある、HEVCのスケーラブルビデオコーディング拡張におけるレイヤ間予測の性能の改善のためのシステムおよび方法に関する。
[0017]以下の説明では、いくつかの実施形態に関係するH.264/アドバンストビデオコーディング(AVC)技法について説明し、HEVC規格および関係する技法についても説明する。いくつかの実施形態について、HEVCおよび/またはH.264規格のコンテキストにおいて本明細書で説明するが、本明細書で開示するシステムおよび方法が任意の好適なビデオコーディング規格に適用可能であり得ることを、当業者は諒解されよう。たとえば、本明細書で開示する実施形態は、以下の規格、すなわち、国際電気通信連合(ITU)電気通信規格化セクタ(ITU−T)H.261、国際標準化機構(ISO)および国際電気標準会議(IEC)(ISO/IEC)ムービングピクチャエキスパートグループ(MPEG)1(MPEG−1) Visual、ITU−T H.262またはISO/IEC MPEG−2 Visual、ITU−T H.263、ISO/IEC MPEG−4 Visual、およびそれのスケーラブルビデオコーディング(SVC)拡張とマルチビュービデオコーディング(MVC)拡張とを含む、(ISO/IEC MPEG−4 AVCとしても知られる)ITU−T H.264のうちの1つまたは複数に適用可能であり得る。
[0018]HEVCは、概して、多くの点で、前のビデオコーディング規格のフレームワークに従う。HEVCにおける予測のユニットは、いくつかの前のビデオコーディング規格における予測のユニット(たとえば、マクロブロック)とは異なる。事実上、マクロブロックの概念は、いくつかの前のビデオコーディング規格において理解されているように、HEVC中に存在しない。マクロブロックは、考えられる利益の中でも、高いフレキシビリティを提供し得る、4分木方式に基づく階層構造と置き換えられる。たとえば、HEVC方式内で、3つのタイプのブロック、コーディングユニット(CU:Coding Unit)、予測ユニット(PU:Prediction Unit)、および変換ユニット(TU:Transform Unit)が定義される。CUは領域分割の基本ユニットを指すことがある。CUはマクロブロックの概念に類似すると見なされ得るが、HEVCは、CUの最大サイズを制限せず、コンテンツ適応性を改善するために4つの等しいサイズのCUへの再帰的分割を可能にし得る。PUはインター/イントラ予測の基本ユニットと見なされ得、単一のPUは、不規則な画像パターンを効果的にコーディングするために、複数の任意の形状パーティションを含んでいることがある。TUは変換の基本ユニットと見なされ得る。TUは、PUとは無関係に定義され得るが、TUのサイズは、TUが属するCUのサイズに制限され得る。3つの異なる概念へのブロック構造のこの分離は、各ユニットがユニットのそれぞれの役割に従って最適化されることを可能にし得、それによりコーディング効率が改善され得る。
[0019]単に説明の目的で、本明細書で開示するいくつかの実施形態について、ビデオデータのただ2つのレイヤ(たとえば、ベースレイヤなどの下位レイヤ、およびエンハンスメントレイヤなどの上位レイヤ)を含む例を用いて説明する。ビデオデータの「レイヤ」は、概して、ビュー、フレームレート、解像度などの少なくとも1つの共通の特性を有するピクチャのシーケンスを指すことがある。たとえば、レイヤは、マルチビュービデオデータの特定のビュー(たとえば、パースペクティブ)に関連付けられたビデオデータを含み得る。別の例として、レイヤは、スケーラブルビデオデータの特定のレイヤに関連付けられたビデオデータを含み得る。したがって、本開示は、ビデオデータのレイヤおよびビューを互換的に指すことがある。すなわち、ビデオデータのビューはビデオデータのレイヤと呼ばれることがあり、ビデオデータのレイヤはビデオデータのビューと呼ばれることがある。さらに、(マルチレイヤビデオコーダまたはマルチレイヤ符号化器復号器とも呼ばれる)マルチレイヤコーデックは、マルチビューコーデックまたはスケーラブルコーデック(たとえば、MV−HEVC、3D−HEVC、SHVC、または別のマルチレイヤコーディング技法を使用するビデオデータを符号化および/または復号するように構成されたコーデック)を共同で指すことがある。ビデオ符号化およびビデオ復号は両方とも、概して、ビデオコーディングと呼ばれることがある。そのような例は、複数のベースレイヤおよび/またはエンハンスメントレイヤを含む構成に適用可能であり得ることを理解されたい。さらに、説明を簡単にするために、以下の開示は、いくつかの実施形態に関して「フレーム」または「ブロック」という用語を含む。ただし、これらの用語は限定的なものではない。たとえば、以下で説明する技法は、ブロック(たとえば、CU、PU、TU、マクロブロックなど)、スライス、フレームなど、任意の好適なビデオユニットとともに使用され得る。

ビデオコーディング規格
[0020]ビデオ画像、TV画像、静止画像、あるいはビデオレコーダまたはコンピュータによって生成された画像など、デジタル画像は、水平ラインおよび垂直ラインで構成されたピクセルまたはサンプルからなり得る。単一の画像中のピクセルの数は一般に数万個である。各ピクセルは、一般に、ルミナンス情報とクロミナンス情報とを含んでいる。圧縮がなければ、画像符号化器から画像復号器に搬送されるべき情報の甚だしい量は、リアルタイム画像送信を不可能にするであろう。送信されるべき情報の量を低減するために、JPEG、MPEGおよびH.263規格など、いくつかの異なる圧縮方法が開発された。
[0021]ビデオコーディング規格は、ITU−T H.261と、ISO/IEC MPEG−1 Visualと、ITU−T H.262またはISO/IEC MPEG−2 Visualと、ITU−T H.263と、ISO/IEC MPEG−4 Visualと、それのSVCおよびMVC拡張を含む(ISO/IEC MPEG−4 AVCとしても知られる)ITU−T H.264とを含む。
[0022]さらに、新しいビデオコーディング規格、すなわち、HEVCが、ITU−Tビデオコーディングエキスパートグループ(VCEG:Video Coding Experts Group)とISO/IECモーションピクチャエキスパートグループ(MPEG:Motion Picture Experts Group)とのジョイントコラボレーションチームオンビデオコーディング(JCT−VC:Joint Collaboration Team on Video Coding)によって開発されている。HEVCドラフト10についての完全引用は、文書JCTVC−L1003、Brossら、「High Efficiency Video Coding (HEVC) Text Specification Draft 10」、ITU−T SG16 WP3およびISO/IEC JTC1/SC29/WG11のジョイントコラボレーティブチームオンビデオコーディング(JCT−VC:Joint Collaborative Team on Video Coding)、第12回会合:ジュネーブ、スイス、2013年1月14日〜2013年1月23日である。HEVCのマルチビュー拡張すなわちMV−HEVC、およびSHVCと称されるHEVCのスケーラブル拡張も、それぞれJCT−3V(ITU−TI/SO/IECのジョイントコラボレーティブチームオン3Dビデオコーディング拡張開発)およびJCT−VCによって開発されている。

概要
[0023]マルチレイヤコーディングのいくつかの場合では、参照レイヤ(RL)は、1つの標準を使用してコード化され、エンハンスメントレイヤ(EL)は、別の標準を使用してコード化され得る。例えば、RLは、H.264/AVCにしたがってコード化され、ELは、H.265/AVC/HEVCにしたがってコード化され得る。以前の標準(またはコーディングスキーム)を使用してコード化されるRLまたは標準の以前のバージョン(またはコーディングスキーム)のためのサポートを提供することは、以前の標準または所与の標準の以前のバージョンを使用してコード化されたビデオデータが現在の標準または以前のバージョンを有する標準の現在のバージョンを使用するマルチレイヤビデオコーディングにおいて利用され得るので、有益である。しかしながら、異なる標準または標準の異なるバージョンにおいてコード化されたRLを処理する多くの態様を管理することは、マルチレイヤコーディングのためのサポートを複雑化させることになる。例えば、符号化器または復号器は、RLピクチャの出力を取り扱い、RLピクチャのために復号化されたピクチャ記憶を維持する、等が必要となり得る
[0024]これらおよび他の課題に対処するために、いくつかの態様に従う技法は、単純化されたやり方で、異なる標準を使用して、または標準の異なるバージョンを使用してマルチレイヤビデオコーディングをサポートすることができる。例えば、HEVC復号器は、HEVC以外の標準を使用してコード化されたRLピクチャの管理および処理することを最小限にし得る。説明の目的で、RLは、H.264/AVCを使用してコード化されるとして説明され、ELがH.265/HEVCを使用してコード化されるとして説明されることになる。しかしながら、異なる標準の任意の組み合わせは、RLおよびELをコード化するのに使用されることができる。ある態様に従って、技法は、(1)復号RLピクチャが外部手段によって提供され、(2)ELピクチャの出力との同期を含む、RLピクチャの出力が外部手段によって制御される、ようなRLピクチャの管理および処理することを最小限にする。外部手段は、RLをコード化するために使用された標準をサポートするコーダ(例えば、符号化器または復号器)を指し得る。HEVC復号器は、異なる標準を使用してマルチレイヤビデオコーディングをサポートするためにいくつかのルールを実装することができる。ルールおよびルールに関する詳細は、以下でさらに説明される。
ビデオコーディングシステム
[0025]添付の図面を参照しながら新規のシステム、装置、および方法の様々な態様について以下でより十分に説明する。ただし、本開示は、多くの異なる形態で実施され得、本開示全体にわたって提示する任意の特定の構造または機能に限定されるものと解釈されるべきではない。むしろ、これらの態様は、本開示が周到で完全になり、本開示の範囲を当業者に十分に伝えるために提供されるものである。本明細書の教示に基づいて、本開示の範囲は、本開示の他の態様とは無関係に実装されるにせよ、本開示の他の態様と組み合わせて実装されるにせよ、本明細書で開示する新規のシステム、装置、および方法のいかなる態様をもカバーするものであることを、当業者なら諒解されたい。たとえば、本明細書に記載される態様をいくつ使用しても、装置は実装され得、または方法は実施され得る。さらに、本開示の範囲は、本明細書に記載する本開示の様々な態様に加えてまたはそれらの態様以外に、他の構造、機能、または構造および機能を使用して実施されるそのような装置または方法をカバーするものとする。本明細書で開示するどの態様も請求項の1つまたは複数の要素によって実施され得ることを理解されたい。
[0026]本明細書では特定の態様について説明するが、これらの態様の多くの変形および置換は本開示の範囲内に入る。好適な態様のいくつかの利益および利点について説明するが、本開示の範囲は特定の利益、使用、または目的に限定されるものではない。むしろ、本開示の態様は、様々なワイヤレス技術、システム構成、ネットワーク、および伝送プロトコルに広く適用可能であるものとし、それらのいくつかを例として、図および好適な態様についての以下の説明において示す。発明を実施するための形態および図面は、本開示を限定するものではなく説明するものにすぎず、本開示の範囲は添付の特許請求の範囲およびそれの均等物によって定義される。
[0027]添付の図面は例を示している。添付の図面中の参照番号によって示される要素は、以下の説明における同様の参照番号によって示される要素に対応する。本開示では、序数語(たとえば、「第1の」、「第2の」、「第3の」など)で始まる名前を有する要素は、必ずしもそれらの要素が特定の順序を有することを暗示するとは限らない。むしろ、そのような序数語は、同じまたは同様のタイプの異なる要素を指すために使用されるにすぎない。
[0028]図1Aは、本開示で説明する態様による技法を利用し得る例示的なビデオコーディングシステム10を示すブロック図である。本明細書で使用し説明する「ビデオコーダ」という用語は、総称的にビデオ符号化器とビデオ復号器の両方を指す。本開示では、「ビデオコーディング」または「コーディング」という用語は、ビデオ符号化とビデオ復号とを総称的に指すことがある。ビデオ符号化器およびビデオ復号器に加えて、本出願で説明する態様は、トランスコーダ(たとえば、ビットストリームを復号し、別のビットストリームを再符号化することができるデバイス)およびミドルボックス(たとえば、ビットストリームを変更、変換、および/または場合によっては操作することができるデバイス)など、他の関係するデバイスに拡張され得る。
[0029]図1Aに示されているように、ビデオコーディングシステム10は、宛先デバイス14によって後で復号されるべき符号化ビデオデータを生成するソースデバイス12を含む。図1Aの例では、ソースデバイス12および宛先デバイス14は、別個のデバイスを構成する。ただし、ソースデバイス12および宛先デバイス14は、図1Bの例に示されているように、同じデバイス上にあるかまたはそれの一部であり得ることに留意されたい。
[0030]もう一度図1Aを参照すると、ソースデバイス12および宛先デバイス14は、それぞれ、デスクトップコンピュータ、ノートブック(たとえば、ラップトップ)コンピュータ、タブレットコンピュータ、セットトップボックス、いわゆる「スマート」フォンなどの電話ハンドセット、いわゆる「スマート」パッド、テレビジョン、カメラ、ディスプレイデバイス、デジタルメディアプレーヤ、ビデオゲームコンソール、ビデオストリーミングデバイスなどを含む、広範囲にわたるデバイスのいずれかを備え得る。場合によっては、ソースデバイス12および宛先デバイス14は、ワイヤレス通信のために装備され得る。
[0031]宛先デバイス14は、復号されるべき符号化ビデオデータをリンク16を介して受信し得る。リンク16は、ソースデバイス12から宛先デバイス14に符号化ビデオデータを移動することが可能な任意のタイプの媒体またはデバイスを備え得る。図1Aの例では、リンク16は、ソースデバイス12が符号化ビデオデータをリアルタイムで宛先デバイス14に送信することを可能にするための通信媒体を備え得る。符号化ビデオデータは、ワイヤレス通信プロトコルなどの通信規格に従って変調され、宛先デバイス14に送信され得る。通信媒体は、無線周波数(RF)スペクトルあるいは1つまたは複数の物理伝送線路など、任意のワイヤレスまたはワイヤード通信媒体を備え得る。通信媒体は、ローカルエリアネットワーク、ワイドエリアネットワークなどのパケットベースネットワーク、またはインターネットなどのグローバルネットワークの一部を形成し得る。通信媒体は、ルータ、スイッチ、基地局、またはソースデバイス12から宛先デバイス14への通信を可能にするために有用であり得る任意の他の機器を含み得る。
[0032]代替的に、符号化データは出力インターフェース22からオプションのストレージデバイス31に出力され得る。同様に、符号化データは、たとえば、宛先デバイス14の入力インターフェース28によってストレージデバイス31からアクセスされ得る。ストレージデバイス31は、ハードドライブ、フラッシュメモリ、揮発性または不揮発性メモリ、あるいは符号化ビデオデータを記憶するための任意の他の好適なデジタル記憶媒体など、様々な分散されたまたはローカルにアクセスされるデータ記憶媒体のいずれかを含み得る。さらなる一例では、ストレージデバイス31は、ソースデバイス12によって生成された符号化ビデオを保持し得るファイルサーバまたは別の中間ストレージデバイスに対応し得る。宛先デバイス14は、ストリーミングまたはダウンロードを介してストレージデバイス31から記憶されたビデオデータにアクセスし得る。ファイルサーバは、符号化ビデオデータを記憶し、その符号化ビデオデータを宛先デバイス14に送信することができる任意のタイプのサーバであり得る。例示的なファイルサーバとしては、(たとえば、ウェブサイトのための)ウェブサーバ、ファイル転送プロトコル(FTP)サーバ、ネットワーク接続ストレージ(NAS)デバイス、またはローカルディスクドライブがある。宛先デバイス14は、インターネット接続を含む、任意の標準のデータ接続を通して符号化ビデオデータにアクセスし得る。これは、ファイルサーバに記憶された符号化ビデオデータにアクセスするのに好適であるワイヤレスチャネル(たとえば、ワイヤレスローカルエリアネットワーク(WLAN)接続)、ワイヤード接続(たとえば、デジタル加入者線(DSL)、ケーブルモデムなど)、またはその両方の組合せを含み得る。ストレージデバイス31からの符号化ビデオデータの送信は、ストリーミング送信、ダウンロード送信、またはその両方の組合せであり得る。
[0033]本開示の技法はワイヤレス適用例または設定に限定されない。本技法は、オーバージエアテレビジョン放送、ケーブルテレビジョン送信、衛星テレビジョン送信、たとえばインターネットを介したストリーミングビデオ送信(たとえば、ハイパーテキスト転送プロトコル(HTTP)上での動的適応ストリーミングなど)、データ記憶媒体に記憶するためのデジタルビデオの符号化、データ記憶媒体に記憶されたデジタルビデオの復号、または他の適用例など、様々なマルチメディア適用例のいずれかをサポートするビデオコーディングに適用され得る。いくつかの例では、ビデオコーディングシステム10は、ビデオストリーミング、ビデオ再生、ビデオブロードキャスティング、および/またはビデオテレフォニーなどの適用例をサポートするために、一方向または双方向のビデオ送信をサポートするように構成され得る。
[0034]図1Aの例では、ソースデバイス12は、ビデオソース18と、ビデオ符号化器20と、出力インターフェース22とを含む。場合によっては、出力インターフェース22は、変調器/復調器(モデム)および/または送信機を含み得る。ソースデバイス12において、ビデオソース18は、ビデオキャプチャデバイス、たとえばビデオカメラ、以前にキャプチャされたビデオを含んでいるビデオアーカイブ、ビデオコンテンツプロバイダからビデオを受信するためのビデオフィードインターフェース、および/またはソースビデオとしてコンピュータグラフィックスデータを生成するためのコンピュータグラフィックスシステムなどのソース、あるいはそのようなソースの組合せを含み得る。一例として、ビデオソース18がビデオカメラである場合、ソースデバイス12および宛先デバイス14は、図1Bの例に示されているように、いわゆる「カメラフォン」または「ビデオフォン」を形成し得る。ただし、本開示で説明する技法は、概してビデオコーディングに適用可能であり得、ワイヤレスおよび/またはワイヤード適用例に適用され得る。
[0035]キャプチャされたビデオ、以前にキャプチャされたビデオ、またはコンピュータ生成されたビデオは、ビデオ符号化器20によって符号化され得る。符号化されたビデオデータは、ソースデバイス12の出力インターフェース22を介して宛先デバイス14に送信され得る。符号化ビデオデータは、さらに(または代替として)、復号および/または再生のための宛先デバイス14または他のデバイスによる後のアクセスのためにストレージデバイス31上に記憶され得る。図1Aおよび図1Bに示されているビデオ符号化器20は、図2A示されているビデオ符号化器20、図2Bに示されているビデオ符号化器23、または本明細書で説明する他のビデオ符号化器を備え得る。
[0036]図1Aの例では、宛先デバイス14は、入力インターフェース28と、ビデオ復号器30と、ディスプレイデバイス32とを含む。場合によっては、入力インターフェース28は、受信機および/またはモデムを含み得る。宛先デバイス14の入力インターフェース28は、リンク16を介しておよび/またはストレージデバイス31から符号化ビデオデータを受信し得る。リンク16を介して通信され、またはストレージデバイス31上に提供された符号化ビデオデータは、ビデオデータを復号する際に、ビデオ復号器30などのビデオ復号器が使用するためのビデオ符号化器20によって生成される様々なシンタックス要素を含み得る。そのようなシンタックス要素は、通信媒体上で送信された、記憶媒体上に記憶された、またはファイルサーバ記憶された符号化ビデオデータに含まれ得る。図1Aおよび図1Bに示されているビデオ復号器30は、図3A示されているビデオ復号器30、図3Bに示されているビデオ復号器33、または本明細書で説明する他のビデオ復号器を備え得る。
[0037]ディスプレイデバイス32は、宛先デバイス14と一体化されるかまたはその外部にあり得る。いくつかの例では、宛先デバイス14は、一体型ディスプレイデバイスを含み、また、外部ディスプレイデバイスとインターフェースするように構成され得る。他の例では、宛先デバイス14はディスプレイデバイスであり得る。概して、ディスプレイデバイス32は、復号ビデオデータをユーザに対して表示し、液晶ディスプレイ(LCD)、プラズマディスプレイ、有機発光ダイオード(OLED)ディスプレイ、または別のタイプのディスプレイデバイスなど、様々なディスプレイデバイスのいずれかを備え得る。
[0038]関係する態様では、図1Bは例示的なビデオ符号化および復号システム10’を示し、ここにおいて、ソースデバイス12および宛先デバイス14はデバイス11上にあるかまたはそれの一部である。デバイス11は、「スマート」フォンなどの電話ハンドセットであり得る。デバイス11は、ソースデバイス12および宛先デバイス14と動作可能に通信しているオプションのコントローラ/プロセッサデバイス13を含み得る。図1Bのシステム10’は、ビデオ符号化器20と出力インターフェース22との間のビデオ処理ユニット21をさらに含み得る。いくつかの実装形態では、図1Bに示されているように、ビデオ処理ユニット21は別個のユニットであるが、他の実装形態では、ビデオ処理ユニット21は、ビデオ符号化器20および/またはプロセッサ/コントローラデバイス13の一部分として実装され得る。システム10’はまた、ビデオシーケンス中の当該のオブジェクトを追跡することができるオプションのトラッカー29を含み得る。追跡されるべきオブジェクトまたは興味は、本開示の1つまたは複数の態様に関して説明する技法によってセグメント化され得る。関係する態様では、追跡することは、単独でまたはトラッカー29とともに、ディスプレイデバイス32によって実行され得る。図1Bのシステム10’およびそれの構成要素は、場合によっては図1Aのシステム10およびそれの構成要素と同様である。
[0039]ビデオ符号化器20およびビデオ復号器30は、HEVCなどのビデオ圧縮規格に従って動作し得、HEVCテストモデル(HM)に準拠し得る。代替的に、ビデオ符号化器20およびビデオ復号器30は、代替的にMPEG−4,Part10,AVCと呼ばれるITU−T H.264規格など、他のプロプライエタリ規格または業界規格、またはそのような規格の拡張に従って動作し得る。ただし、本開示の技法は、いかなる特定のコーディング規格にも限定されない。ビデオ圧縮規格の他の例としてはMPEG−2およびITU−T H.263がある。
[0040]図1Aおよび図1Bの例には示されていないが、ビデオ符号化器20およびビデオ復号器30は、それぞれオーディオ符号化器および復号器と統合され得、共通のデータストリームまたは別個のデータストリーム中のオーディオとビデオの両方の符号化を処理するために、適切なMUX−DEMUXユニット、または他のハードウェアおよびソフトウェアを含み得る。適用可能な場合、いくつかの例では、MUX−DEMUXユニットは、ITU H.223マルチプレクサプロトコル、またはユーザデータグラムプロトコル(UDP)などの他のプロトコルに準拠し得る。
[0041]ビデオ符号化器20およびビデオ復号器30はそれぞれ、1つまたは複数のマイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、ディスクリート論理、ソフトウェア、ハードウェア、ファームウェアなど、様々な好適な符号化器回路のいずれか、またはそれらの任意の組合せとして実装され得る。本技法が部分的にソフトウェアで実装されるとき、デバイスは、好適な非一時的コンピュータ可読媒体にソフトウェアのための命令を記憶し、1つまたは複数のプロセッサを使用してその命令をハードウェアで実行して、本開示の技法を実行し得る。ビデオ符号化器20およびビデオ復号器30の各々は1つまたは複数の符号化器または復号器中に含まれ得、そのいずれも、それぞれのデバイスにおいて複合符号化器/復号器(コーデック)の一部として統合され得る。

ビデオコーディングプロセス
[0042]上記で手短に述べたように、ビデオ符号化器20はビデオデータを符号化する。ビデオデータは1つまたは複数のピクチャを備え得る。ピクチャの各々は、ビデオの一部を形成する静止画像である。いくつかの事例では、ピクチャはビデオ「フレーム」と呼ばれることがある。ビデオ符号化器20がビデオデータを符号化するとき、ビデオ符号化器20はビットストリームを生成し得る。ビットストリームは、ビデオデータのコード化表現を形成するビットのシーケンスを含み得る。ビットストリームは、コード化ピクチャと関連データとを含み得る。コード化ピクチャとは、ピクチャのコード化表現である。
[0043]ビットストリームを生成するために、ビデオ符号化器20は、ビデオデータ中の各ピクチャに対して符号化演算を実行し得る。ビデオ符号化器20がピクチャに対して符号化演算を実行するとき、ビデオ符号化器20は、一連のコード化ピクチャと関連データとを生成し得る。関連データは、ビデオパラメータセット(VPS)と、シーケンスパラメータセット(SPS)と、ピクチャパラメータセット(PPS)と、適応パラメータセット(APS)と、他のシンタックス構造とを含み得る。SPSは、ピクチャの0個以上のシーケンスに適用可能なパラメータを含んでいることがある。PPSは、0個以上のピクチャに適用可能なパラメータを含んでいることがある。APSは、0個以上のピクチャに適用可能なパラメータを含んでいることがある。APS中のパラメータは、PPS中のパラメータよりも変化する可能性が高いパラメータであり得る。
[0044]コード化ピクチャを生成するために、ビデオ符号化器20は、ピクチャを等しいサイズのビデオブロックに区分し得る。ビデオブロックはサンプルの2次元アレイであり得る。ビデオブロックの各々はツリーブロックに関連付けられる。いくつかの事例では、ツリーブロックは、最大コーディングユニット(LCU:largest coding unit)と呼ばれることがある。HEVCのツリーブロックは、H.264/AVCなど、以前の規格のマクロブロックに広い意味で類似し得る。しかしながら、ツリーブロックは、必ずしも特定のサイズに限定されるとは限らず、1つまたは複数のコーディングユニット(CU)を含み得る。ビデオ符号化器20は、4分木区分(quadtree partitioning)を使用して、ツリーブロックのビデオブロックを、CUに関連付けられたビデオブロックに区分し得、したがって「ツリーブロック」という名前がある。
[0045]いくつかの例では、ビデオ符号化器20はピクチャを複数のスライスに区分し得る。スライスの各々は整数個のCUを含み得る。いくつかの事例では、スライスは整数個のツリーブロックを備える。他の事例では、スライスの境界はツリーブロック内にあり得る。
[0046]ピクチャに対して符号化演算を実行することの一部として、ビデオ符号化器20は、ピクチャの各スライスに対して符号化演算を実行し得る。ビデオ符号化器20がスライスに対して符号化演算を実行するとき、ビデオ符号化器20は、スライスに関連付けられた符号化データを生成し得る。スライスに関連付けられた符号化データは「コード化スライス」と呼ばれることがある。
[0047]コード化スライスを生成するために、ビデオ符号化器20は、スライス中の各ツリーブロックに対して符号化演算を実行し得る。ビデオ符号化器20がツリーブロックに対して符号化演算を実行するとき、ビデオ符号化器20はコード化ツリーブロックを生成し得る。コード化ツリーブロックは、ツリーブロックの符号化バージョンを表すデータを備え得る。
[0048]ビデオ符号化器20がコード化スライスを生成するとき、ビデオ符号化器20は、ラスタスキャン順序に従って、スライス中のツリーブロックに対して符号化演算を実行し得る(たとえば、そのツリーブロックを符号化し得る)。たとえば、ビデオ符号化器20は、スライス中のツリーブロックの一番上の行にわたって左から右に進み、次いでツリーブロックの次の下の行にわたって左から右に進み、以下同様に進む順序で、ビデオ符号化器20がスライス中のツリーブロックの各々を符号化するまで、スライスのツリーブロックを符号化し得る。
[0049]ラスタスキャン順序に従ってツリーブロックを符号化した結果として、所与のツリーブロックの上および左のツリーブロックは符号化されていることがあるが、所与のツリーブロックの下および右のツリーブロックはまだ符号化されていない。したがって、ビデオ符号化器20は、所与のツリーブロックを符号化するとき、所与のツリーブロックの上および左のツリーブロックを符号化することによって生成された情報にアクセスすることが可能であり得る。しかしながら、ビデオ符号化器20は、所与のツリーブロックを符号化するとき、所与のツリーブロックの下および右のツリーブロックを符号化することによって生成された情報にアクセスすることができないことがある。
[0050]コード化ツリーブロックを生成するために、ビデオ符号化器20は、ツリーブロックのビデオブロックに対して4分木区分を再帰的に実行して、ビデオブロックを徐々により小さいビデオブロックに分割し得る。より小さいビデオブロックの各々は、異なるCUに関連付けられ得る。たとえば、ビデオ符号化器20は、ツリーブロックのビデオブロックを4つの等しいサイズのサブブロックに区分し、サブブロックのうちの1つまたは複数を、4つの等しいサイズのサブサブブロックに区分し得、以下同様である。区分されたCUは、それのビデオブロックが、他のCUに関連付けられたビデオブロックに区分された、CUであり得る。区分されていないCUは、それのビデオブロックが、他のCUに関連付けられたビデオブロックに区分されていない、CUであり得る。
[0051]ビットストリーム中の1つまたは複数のシンタックス要素は、ビデオ符号化器20がツリーブロックのビデオブロックを区分し得る最大の回数を示し得る。CUのビデオブロックは形状が正方形であり得る。CUのビデオブロックのサイズ(たとえば、CUのサイズ)は、8×8ピクセルから、最大64×64以上のピクセルをもつツリーブロックのビデオブロックのサイズ(たとえば、ツリーブロックのサイズ)までに及び得る。
[0052]ビデオ符号化器20は、zスキャン順序に従って、ツリーブロックの各CUに対して符号化演算を実行し得る(たとえば、各CUを符号化し得る)。言い換えれば、ビデオ符号化器20は、左上のCUと、右上のCUと、左下のCUと、次いで右下のCUとを、その順序で符号化し得る。ビデオ符号化器20が、区分されたCUに対して符号化演算を実行するとき、ビデオ符号化器20は、zスキャン順序に従って、区分されたCUのビデオブロックのサブブロックに関連付けられたCUを符号化し得る。言い換えれば、ビデオ符号化器20は、左上のサブブロックに関連付けられたCUと、右上のサブブロックに関連付けられたCUと、左下のサブブロックに関連付けられたCUと、次いで右下のサブブロックに関連付けられたCUとを、その順序で符号化し得る。
[0053]zスキャン順序に従ってツリーブロックのCUを符号化した結果として、所与のCUの上、左上、右上、左、および左下のCUは符号化されていることがある。所与のCUの下および右のCUはまだ符号化されていない。したがって、ビデオ符号化器20は、所与のCUを符号化するとき、所与のCUに隣接するいくつかのCUを符号化することによって生成された情報にアクセスすることが可能であり得る。しかしながら、ビデオ符号化器20は、所与のCUを符号化するとき、所与のCUに隣接する他のCUを符号化することによって生成された情報にアクセスすることができないことがある。
[0054]ビデオ符号化器20が、区分されていないCUを符号化するとき、ビデオ符号化器20は、CUのために1つまたは複数の予測ユニット(PU)を生成し得る。CUのPUの各々は、CUのビデオブロック内の異なるビデオブロックに関連付けられ得る。ビデオ符号化器20は、CUの各PUについて予測ビデオブロックを生成し得る。PUの予測ビデオブロックはサンプルのブロックであり得る。ビデオ符号化器20は、イントラ予測またはインター予測を使用して、PUのための予測ビデオブロックを生成し得る。
[0055]ビデオ符号化器20がイントラ予測を使用してPUの予測ビデオブロックを生成するとき、ビデオ符号化器20は、PUに関連付けられたピクチャの復号サンプルに基づいて、PUの予測ビデオブロックを生成し得る。ビデオ符号化器20がイントラ予測を使用してCUのPUの予測ビデオブロックを生成する場合、CUはイントラ予測されたCUである。ビデオ符号化器20がインター予測を使用してPUの予測ビデオブロックを生成するとき、ビデオ符号化器20は、PUに関連付けられたピクチャ以外の1つまたは複数のピクチャの復号サンプルに基づいて、PUの予測ビデオブロックを生成し得る。ビデオ符号化器20がインター予測を使用してCUのPUの予測ビデオブロックを生成する場合、CUはインター予測されたCUである。
[0056]さらに、ビデオ符号化器20がインター予測を使用してPUのための予測ビデオブロックを生成するとき、ビデオ符号化器20はPUの動き情報を生成し得る。PUの動き情報は、PUの1つまたは複数の参照ブロックを示し得る。PUの各参照ブロックは参照ピクチャ内のビデオブロックであり得る。参照ピクチャはPUに関連付けられたピクチャ以外のピクチャであり得る。いくつかの事例では、PUの参照ブロックはPUの「参照サンプル」と呼ばれることもある。ビデオ符号化器20は、PUの参照ブロックに基づいて、PUのための予測ビデオブロックを生成し得る。
[0057]ビデオ符号化器20がCUの1つまたは複数のPUのための予測ビデオブロックを生成した後、ビデオ符号化器20は、CUのPUのための予測ビデオブロックに基づいて、CUの残差データを生成し得る。CUの残差データは、CUのPUのための予測ビデオブロック中のサンプルと、CUの元のビデオブロック中のサンプルとの間の差を示し得る。
[0058]さらに、区分されていないCUに対して符号化演算を実行することの一部として、ビデオ符号化器20は、CUの残差データに対して再帰的な4分木区分を実行して、CUの残差データを、CUの変換ユニット(TU)に関連付けられた残差データの1つまたは複数のブロック(たとえば、残差ビデオブロック)に区分し得る。CUの各TUは異なる残差ビデオブロックに関連付けられ得る。
[0059]ビデオ符号化器20は、TUに関連付けられた変換係数ブロック(たとえば、変換係数のブロック)を生成するために、TUに関連付けられた残差ビデオブロックに1つまたは複数の変換を適用し得る。概念的に、変換係数ブロックは変換係数の2次元(2D)行列であり得る。
[0060]変換係数ブロックを生成した後、ビデオ符号化器20は、変換係数ブロックに対して量子化プロセスを実行し得る。量子化は、一般に、変換係数を表すために使用されるデータの量をできるだけ低減するために変換係数が量子化され、さらなる圧縮を提供するプロセスを指す。量子化プロセスは、変換係数の一部または全部に関連付けられたビット深度を低減し得る。たとえば、量子化中にnビットの変換係数がmビットの変換係数に切り捨てられることがあり、ここで、nはmよりも大きい。
[0061]ビデオ符号化器20は、各CUを量子化パラメータ(QP:quantization parameter)値に関連付け得る。CUに関連付けられたQP値は、ビデオ符号化器20が、CUに関連付けられた変換係数ブロックをどのように量子化するかを決定し得る。ビデオ符号化器20は、CUに関連付けられたQP値を調整することによって、CUに関連付けられた変換係数ブロックに適用される量子化の程度を調整し得る。
[0062]ビデオ符号化器20が変換係数ブロックを量子化した後、ビデオ符号化器20は、量子化された変換係数ブロック中で変換係数を表すシンタックス要素のセットを生成し得る。ビデオ符号化器20は、これらのシンタックス要素のうちのいくつかに、コンテキスト適応型バイナリ算術コーディング(CABAC:Context Adaptive Binary Arithmetic Coding)演算などのエントロピー符号化演算を適用し得る。コンテンツ適応型可変長コーディング(CAVLC:content adaptive variable length coding)、確率間隔区分エントロピー(PIPE:probability interval partitioning entropy)コーディング、または他のバイナリ算術コーディングなど、他のエントロピーコーディング技法も使用され得る。
[0063]ビデオ符号化器20によって生成されるビットストリームは、一連のネットワークアブストラクションレイヤ(NAL:Network Abstraction Layer)ユニットを含み得る。NALユニットの各々は、NALユニット中のデータのタイプの指示と、データを含んでいるバイトとを含んでいるシンタックス構造であり得る。たとえば、NALユニットは、ビデオパラメータセット、シーケンスパラメータセット、ピクチャパラメータセット、コード化スライス、補足エンハンスメント情報(SEI:supplemental enhancement information)、アクセスユニット区切り文字、フィラーデータ、または別のタイプのデータを表すデータを含み得る。NALユニット中のデータは様々なシンタックス構造を含み得る。
[0064]ビデオ復号器30は、ビデオ符号化器20によって生成されたビットストリームを受信し得る。ビットストリームは、ビデオ符号化器20によって符号化されたビデオデータのコード化表現を含み得る。ビデオ復号器30がビットストリームを受信するとき、ビデオ復号器30は、ビットストリームに対してパース演算を実行し得る。ビデオ復号器30がパース演算を実行するとき、ビデオ復号器30は、ビットストリームからシンタックス要素を抽出し得る。ビデオ復号器30は、ビットストリームから抽出されたシンタックス要素に基づいて、ビデオデータのピクチャを再構成し得る。シンタックス要素に基づいてビデオデータを再構成するためのプロセスは、一般に、シンタックス要素を生成するためにビデオ符号化器20によって実行されるプロセスとは逆であり得る。
[0065]ビデオ復号器30がCUに関連付けられたシンタックス要素を抽出した後、ビデオ復号器30は、シンタックス要素に基づいて、CUのPUのための予測ビデオブロックを生成し得る。さらに、ビデオ復号器30は、CUのTUに関連付けられた変換係数ブロックを逆量子化し得る。ビデオ復号器30は、変換係数ブロックに対して逆変換を実行して、CUのTUに関連付けられた残差ビデオブロックを再構成し得る。予測ビデオブロックを生成し、残差ビデオブロックを再構成した後、ビデオ復号器30は、予測ビデオブロックと残差ビデオブロックとに基づいて、CUのビデオブロックを再構成し得る。このようにして、ビデオ復号器30は、ビットストリーム中のシンタックス要素に基づいて、CUのビデオブロックを再構成し得る。

ビデオ符号化器
[0066]図2Aは、本開示で説明する態様による技法を実装し得るビデオ符号化器の一例を示すブロック図である。ビデオ復号器20は、HEVCの場合など、ビデオフレームの単一のレイヤを処理するように構成され得る。さらに、ビデオ符号化器20は、限定はしないが、図4および図5に関して上記および下記でより詳細に説明する異なる標準を使用してマルチレイヤコーディングのためのサポートの方法および関係するプロセスを含む、本開示の技法のいずれかまたはすべてを実行するように構成され得る。一例として、予測処理ユニット100は、本開示で説明する技法のいずれかまたはすべてを実行するように構成され得る。別の実施形態では、ビデオ符号化器20は、本開示で説明する技法のいずれかまたはすべてを実行するように構成されたオプションのレイヤ間予測ユニット128を含む。他の実施形態では、レイヤ間予測は予測処理ユニット100(たとえば、インター予測ユニット121および/またはイントラ予測ユニット126)によって実行され得、その場合、レイヤ間予測ユニット128は省略され得る。ただし、本開示の態様はそのように限定されない。いくつかの例では、本開示で説明する技法は、ビデオ符号化器20の様々な構成要素間で共有され得る。いくつかの例では、追加または代替として、プロセッサ(図示せず)が、本開示で説明する技法のいずれかまたはすべてを実行するように構成され得る。
[0067]説明の目的で、本開示では、HEVCコーディングのコンテキストにおいてビデオ符号化器20について説明する。しかしながら、本開示の技法は、他のコーディング規格または方法にも適用可能であり得る。図2Aに示された例はシングルレイヤコーデックのためのものである。しかしながら、図2Bに関してさらに説明するように、ビデオ符号化器20の一部または全部はマルチレイヤコーデックの処理のために複製され得る。
[0068]ビデオ符号化器20は、ビデオスライス内のビデオブロックのイントラコーディングおよびインターコーディングを実行し得る。イントラコーディングは、所与のビデオフレームまたはピクチャ内のビデオの空間冗長性を低減または除去するために空間予測に依拠する。インターコーディングは、ビデオシーケンスの隣接フレームまたはピクチャ内のビデオ中の時間冗長性を低減または削除するために、時間予測に依拠する。イントラモード(Iモード)は、いくつかの空間ベースコーディングモードのいずれかを指すことがある。単方向予測(Pモード)または双方向予測(Bモード)などのインターモードは、いくつかの時間ベースのコーディングモードのいずれかを指すことがある。
[0069]図2Aの例では、ビデオ符号化器20は複数の機能構成要素を含む。ビデオ符号化器20の機能構成要素は、予測処理ユニット100と、残差生成ユニット102と、変換処理ユニット104と、量子化ユニット106と、逆量子化ユニット108と、逆変換ユニット110と、再構成ユニット112と、フィルタユニット113と、復号ピクチャバッファ114と、エントロピー符号化ユニット116とを含む。予測処理ユニット100は、インター予測ユニット121と、動き推定ユニット122と、動き補償ユニット124と、イントラ予測ユニット126と、レイヤ間予測ユニット128とを含む。他の例では、ビデオ符号化器20は、より多数の、より少数の、または異なる機能構成要素を含み得る。さらに、動き推定ユニット122と動き補償ユニット124とは、高度に統合され得るが、図2Aの例では、説明の目的で別々に表されている。
[0070]ビデオ符号化器20はビデオデータを受信し得る。ビデオ符号化器20は、様々なソースからビデオデータを受信し得る。たとえば、ビデオ符号化器20は、(たとえば、図1Aまたは図1Bに示された)ビデオソース18、または別のソースからビデオデータを受信し得る。ビデオデータは一連のピクチャを表し得る。ビデオデータを符号化するために、ビデオ符号化器20は、ピクチャの各々に対して符号化演算を実行し得る。ピクチャに対して符号化演算を実行することの一部として、ビデオ符号化器20は、ピクチャの各スライスに対して符号化演算を実行し得る。スライスに対して符号化演算を実行することの一部として、ビデオ符号化器20は、スライス中のツリーブロックに対して符号化演算を実行し得る。
[0071]ツリーブロックに対して符号化演算を実行することの一部として、予測処理ユニット100は、ツリーブロックのビデオブロックに対して4分木区分を実行して、ビデオブロックを徐々により小さいビデオブロックに分割し得る。より小さいビデオブロックの各々は、異なるCUに関連付けられ得る。たとえば、予測処理ユニット100は、ツリーブロックのビデオブロックを4つの等しいサイズのサブブロックに区分し、サブブロックの1つまたは複数を、4つの等しいサイズのサブサブブロックに区分し得、以下同様である。
[0072]CUに関連付けられたビデオブロックのサイズは、8×8サンプルから、最大64×64以上のサンプルをもつツリーブロックのサイズまでに及び得る。本開示では、「N×N(NxN)」および「N×N(N by N)」は、垂直寸法および水平寸法に関するビデオブロックのサンプル寸法、たとえば、16×16(16x16)サンプルまたは16×16(16 by 16)サンプルを指すために互換的に使用され得る。概して、16×16ビデオブロックは、垂直方向に16個のサンプルを有し(y=16)、水平方向に16個のサンプルを有する(x=16)。同様に、N×Nブロックは、概して、垂直方向にN個のサンプルを有し、水平方向にN個のサンプルを有し、ここで、Nは非負整数値を表す。
[0073]さらに、ツリーブロックに対して符号化演算を実行することの一部として、予測処理ユニット100は、ツリーブロック用の階層的な4分木データ構造を生成し得る。たとえば、ツリーブロックは、4分木データ構造のルートノードに対応し得る。予測処理ユニット100が、ツリーブロックのビデオブロックを4つのサブブロックに区分する場合、ルートノードは、4分木データ構造中に4つの子ノードを有する。子ノードの各々は、サブブロックのうちの1つに関連付けられたCUに対応する。予測処理ユニット100が、サブブロックのうちの1つを4つのサブサブブロックに区分する場合、サブブロックに関連付けられたCUに対応するノードは、サブサブブロックのうちの1つに関連付けられたCUに各々が対応する、4つの子ノードを有し得る。
[0074]4分木データ構造の各ノードは、対応するツリーブロックまたはCUのシンタックスデータ(たとえば、シンタックス要素)を含み得る。たとえば、4分木の中のノードは、そのノードに対応するCUのビデオブロックが4つのサブブロックに区分される(たとえば、分割される)かどうかを示すスプリットフラグを含み得る。CUのためのシンタックス要素は、再帰的に定義され得、CUのビデオブロックがサブブロックに分割されるかどうかに依存し得る。それのビデオブロックが区分されていないCUは、4分木データ構造におけるリーフノードに対応し得る。コード化ツリーブロックは、対応するツリーブロック用の4分木データ構造に基づくデータを含み得る。
[0075]ビデオ符号化器20は、ツリーブロックの区分されていない各CUに対して符号化演算を実行し得る。ビデオ符号化器20が、区分されていないCUに対して符号化演算を実行するとき、ビデオ符号化器20は、区分されていないCUの符号化表現を表すデータを生成する。
[0076]CUに対して符号化演算を実行することの一部として、予測処理ユニット100は、CUの1つまたは複数のPUの中で、CUのビデオブロックを区分し得る。ビデオ符号化器20およびビデオ復号器30は、様々なPUサイズをサポートし得る。特定のCUのサイズが2N×2Nであると仮定すると、ビデオ符号化器20およびビデオ復号器30は、2N×2NまたはN×NのPUサイズと、2N×2N、2N×N、N×2N、N×N、2N×nU、nL×2N、nR×2N、または同様の対称PUサイズでのインター予測とをサポートし得る。ビデオ符号化器20およびビデオ復号器30は、2N×nU、2N×nD、nL×2N、およびnR×2NのPUサイズに対する非対称区分をもサポートし得る。いくつかの例では、予測処理ユニット100は、CUのビデオブロックの辺に直角に接触しない境界に沿って、CUのPUの間でCUのビデオブロックを区分するように、幾何学的な区分を実行し得る。
[0077]インター予測ユニット121はCUの各PUに対してインター予測を実行し得る。インター予測は時間圧縮を提供し得る。PUに対してインター予測を実行するために、動き推定ユニット122はPUの動き情報を生成し得る。動き補償ユニット124は、動き情報と、CUに関連付けられたピクチャ以外のピクチャ(たとえば、参照ピクチャ)の復号サンプルとに基づくPUのための予測ビデオブロックを生成し得る。本開示では、動き補償ユニット124によって生成された予測ビデオブロックは、インター予測ビデオブロックと呼ばれることがある。
[0078]スライスは、Iスライス、Pスライス、またはBスライスであり得る。動き推定ユニット122および動き補償ユニット124は、PUがIスライス中にあるか、Pスライス中にあるか、Bスライス中にあるかに応じて、CUのPUに対して異なる演算を実行し得る。Iスライス中では、すべてのPUがイントラ予測される。したがって、PUがIスライス中にある場合、動き推定ユニット122および動き補償ユニット124は、PUに対してインター予測を実行しない。
[0079]PUがPスライス中にある場合、PUを含んでいるピクチャは、「リスト0」と呼ばれる参照ピクチャのリストに関連付けられる。リスト0中の参照ピクチャの各々は、他のピクチャのインター予測に使用され得るサンプルを含んでいる。動き推定ユニット122が、Pスライス中のPUに関して動き推定演算を実行するとき、動き推定ユニット122は、PUのための参照ブロックについて、リスト0中の参照ピクチャを探索し得る。PUの参照ブロックは、PUのビデオブロック中のサンプルに最も密接に対応するサンプルのセット、たとえば、サンプルのブロックであり得る。動き推定ユニット122は、様々なメトリクスを使用して、参照ピクチャ中のサンプルのセットがどの程度密接にPUのビデオブロック中のサンプルに対応するかを決定し得る。たとえば、動き推定ユニット122は、絶対差分和(SAD:sum of absolute difference)、2乗差分和(SSD:sum of square difference)、または他の差分メトリックによって、参照ピクチャ中のサンプルのセットがどの程度密接にPUのビデオブロック中のサンプルに対応するかを決定し得る。
[0080]Pスライス中のPUの参照ブロックを識別した後、動き推定ユニット122は、参照ブロックを含んでいる、リスト0中の参照ピクチャを示す参照インデックスと、PUと参照ブロックとの間の空間変位を示す動きベクトルとを生成し得る。様々な例において、動き推定ユニット122は動きベクトルを異なる精度に生成し得る。たとえば、動き推定ユニット122は、1/4サンプル精度、1/8サンプル精度、または他の分数のサンプル精度で動きベクトルを生成し得る。分数のサンプル精度の場合、参照ブロック値は、参照ピクチャ中の整数位置のサンプル値から補間され得る。動き推定ユニット122は、PUの動き情報として、参照インデックスと動きベクトルとを出力し得る。動き補償ユニット124は、PUの動き情報によって識別された参照ブロックに基づいて、PUの予測ビデオブロックを生成し得る。
[0081]PUがBスライス中にある場合、PUを含んでいるピクチャは、「リスト0」および「リスト1」と呼ばれる参照ピクチャの2つのリストに関連付けられ得る。いくつかの例では、Bスライスを含んでいるピクチャは、リスト0とリスト1の組合せである、リストの組合せに関連付けられ得る。
[0082]さらに、PUがBスライス中にある場合、動き推定ユニット122は、PUについての単方向予測または双方向予測を実行し得る。動き推定ユニット122が、PUについての単方向予測を実行するとき、動き推定ユニット122は、PUのための参照ブロックについて、リスト0またはリスト1の参照ピクチャを探索し得る。動き推定ユニット122は、次いで、参照ブロックを含んでいる、リスト0またはリスト1中の参照ピクチャを示す参照インデックスと、PUと参照ブロックとの間の空間変位を示す動きベクトルとを生成し得る。動き推定ユニット122は、PUの動き情報として、参照インデックスと、予測方向インジケータと、動きベクトルとを出力し得る。予測方向インジケータは、参照インデックスが、リスト0中の参照ピクチャを示すか、リスト1中の参照ピクチャを示すかを示し得る。動き補償ユニット124は、PUの動き情報によって示された参照ブロックに基づいて、PUの予測ビデオブロックを生成し得る。
[0083]動き推定ユニット122が、PUについての双方向予測を実行するとき、動き推定ユニット122は、PUのための参照ブロックについて、リスト0中の参照ピクチャを探索し得、また、PUのための別の参照ブロックについて、リスト1中の参照ピクチャを探索し得る。動き推定ユニット122は、次いで、参照ブロックを含んでいる、リスト0およびリスト1中の参照ピクチャを示す参照インデックスと、参照ブロックとPUの間の空間変位を示す動きベクトルとを生成し得る。動き推定ユニット122は、PUの動き情報としてPUの参照インデックスと動きベクトルとを出力し得る。動き補償ユニット124は、PUの動き情報によって示された参照ブロックに基づいて、PUの予測ビデオブロックを生成し得る。
[0084]いくつかの例では、動き推定ユニット122は、PUの動き情報のフルセットをエントロピー符号化ユニット116に出力しない。そうではなく、動き推定ユニット122は、別のPUの動き情報を参照して、PUの動き情報をシグナリングし得る。たとえば、動き推定ユニット122は、PUの動き情報が、隣接PUの動き情報と十分に類似していると決定し得る。この例では、動き推定ユニット122は、PUに関連付けられたシンタックス構造において、PUが隣接PUと同じ動き情報を有することをビデオ復号器30に示す値を示し得る。別の例では、動き推定ユニット122は、PUに関連付けられたシンタックス構造において、隣接PUと動きベクトル差分(MVD:motion vector difference)とを識別し得る。動きベクトル差分は、PUの動きベクトルと、示される隣接PUの動きベクトルとの間の差分を示す。ビデオ復号器30は、示される隣接PUの動きベクトルと、動きベクトル差分とを使用して、PUの動きベクトルを決定し得る。第2のPUの動き情報をシグナリングするときに第1のPUの動き情報を参照することによって、ビデオ符号化器20は、より少数のビットを使用して、第2のPUの動き情報をシグナリングすることが可能であり得る。
[0085]図5に関して以下でさらに説明するように、予測処理ユニット100は、図5に示されている方法を実行することによってPU(または他の参照レイヤブロックおよび/またはエンハンスメントレイヤブロックまたはビデオユニット)をコーディング(たとえば、符号化または復号)するように構成され得る。たとえば、(たとえば、動き推定ユニット122および/または動き補償ユニット124を介した)インター予測ユニット121、イントラ予測ユニット126、またはレイヤ間予測ユニット128は、一緒にまたは別々に、図5に示されている方法を実行するように構成され得る。
[0086]CUに対して符号化演算を実行することの一部として、イントラ予測ユニット126は、CUのPUに対してイントラ予測を実行し得る。イントラ予測は空間圧縮を提供し得る。イントラ予測ユニット126がPUに対してイントラ予測を実行するとき、イントラ予測ユニット126は、同じピクチャ中の他のPUの復号サンプルに基づいて、PUの予測データを生成し得る。PUの予測データは、予測ビデオブロックと様々なシンタックス要素とを含み得る。イントラ予測ユニット126は、Iスライス、Pスライス、およびBスライス中のPUに対してイントラ予測を実行し得る。
[0087]PUに対してイントラ予測を実行するために、イントラ予測ユニット126は、複数のイントラ予測モードを使用して、PUの予測データの複数のセットを生成し得る。イントラ予測ユニット126が、イントラ予測モードを使用してPUの予測データのセットを生成するとき、イントラ予測ユニット126は、イントラ予測モードに関連付けられた方向および/または勾配で、隣接PUのビデオブロックからPUのビデオブロックにわたって、サンプルを延ばし得る。隣接PUは、PU、CU、およびツリーブロックについて左から右、上から下の符号化順序を仮定すると、PUの上、右上、左上、または左にあり得る。イントラ予測ユニット126は、PUのサイズに応じて、様々な数のイントラ予測モード、たとえば、33個の方向性イントラ予測モードを使用し得る。
[0088]予測処理ユニット100は、PUについての、動き補償ユニット124によって生成された予測データ、またはPUについての、イントラ予測ユニット126によって生成された予測データの中から、PUの予測データを選択し得る。いくつかの例では、予測処理ユニット100は、予測データのセットのレート/ひずみメトリックに基づいて、PUのための予測データを選択する。
[0089]予測処理ユニット100が、イントラ予測ユニット126によって生成された予測データを選択する場合、予測処理ユニット100は、PUの予測データを生成するために使用されたイントラ予測モード、たとえば、選択されたイントラ予測モードをシグナリングし得る。予測処理ユニット100は、選択されたイントラ予測モードを様々な方法でシグナリングし得る。たとえば、選択されたイントラ予測モードは、隣接PUのイントラ予測モードと同じであることがあり得る。言い換えれば、隣接PUのイントラ予測モードは現在PUに対して最確モードであり得る。したがって、予測処理ユニット100は、選択されたイントラ予測モードが隣接PUのイントラ予測モードと同じであることを示すための、シンタックス要素を生成し得る。
[0090]上記で説明したように、ビデオ符号化器20はレイヤ間予測ユニット128を含み得る。レイヤ間予測ユニット128は、SVCにおいて利用可能である1つまたは複数の異なるレイヤ(たとえば、ベースレイヤまたは参照レイヤ)を使用して現在ブロック(たとえば、EL中の現在ブロック)を予測するように構成される。そのような予測はレイヤ間予測と呼ばれることがある。レイヤ間予測ユニット128は、レイヤ間冗長性を低減するために予測方法を利用し、それによって、コーディング効率を改善し、計算リソース要件を低減する。レイヤ間予測のいくつかの例としては、レイヤ間イントラ予測、レイヤ間動き予測、およびレイヤ間残差予測がある。レイヤ間イントラ予測は、ベースレイヤ中のコロケートブロックの再構成を使用してエンハンスメントレイヤ中の現在ブロックを予測する。レイヤ間動き予測は、ベースレイヤの動き情報を使用してエンハンスメントレイヤ中の動作を予測する。レイヤ間残差予測は、ベースレイヤの残差を使用してエンハンスメントレイヤの残差を予測する。レイヤ間予測方式の各々について、より詳細に以下で説明する。
[0091]予測処理ユニット100がCUのPUの予測データを選択した後、残差生成ユニット102は、CUのビデオブロックからCUのPUの予測ビデオブロックを差し引くこと(たとえば、マイナス符号によって示される)によって、CUの残差データを生成し得る。CUの残差データは、CUのビデオブロック中のサンプルの異なるサンプル成分に対応する、2D残差ビデオブロックを含み得る。たとえば、残差データは、CUのPUの予測ビデオブロック中のサンプルのルミナンス成分と、CUの元のビデオブロック中のサンプルのルミナンス成分との間の差分に対応する、残差ビデオブロックを含み得る。さらに、CUの残差データは、CUのPUの予測ビデオブロック中のサンプルのクロミナンス成分と、CUの元のビデオブロック中のサンプルのクロミナンス成分との間の差分に対応する、残差ビデオブロックを含み得る。
[0092]予測処理ユニット100は、4分木区分を実行して、CUの残差ビデオブロックをサブブロックに区分し得る。各分割されていない残差ビデオブロックは、CUの異なるTUに関連付けられ得る。CUのTUに関連付けられた残差ビデオブロックのサイズおよび位置は、CUのPUに関連付けられたビデオブロックのサイズおよび位置に基づくことも基づかないこともある。「残差4分木」(RQT:residual quad tree)として知られる4分木構造は、残差ビデオブロックの各々に関連付けられたノードを含み得る。CUのTUはRQTのリーフノードに対応し得る。
[0093]変換処理ユニット104は、TUに関連付けられた残差ビデオブロックに1つまたは複数の変換を適用することによって、CUの各TUのための1つまたは複数の変換係数ブロックを生成し得る。変換係数ブロックの各々は、変換係数の2D行列であり得る。変換処理ユニット104は、TUに関連付けられた残差ビデオブロックに様々な変換を適用し得る。たとえば、変換処理ユニット104は、離散コサイン変換(DCT)、方向性変換、または概念的に同様の変換を、TUに関連付けられた残差ビデオブロックに適用し得る。
[0094]変換処理ユニット104が、TUに関連付けられた変換係数ブロックを生成した後、量子化ユニット106は、変換係数ブロック中の変換係数を量子化し得る。量子化ユニット106は、CUに関連付けられたQP値に基づいて、CUのTUに関連付けられた変換係数ブロックを量子化し得る。
[0095]ビデオ符号化器20は、様々な方法でQP値をCUに関連付け得る。たとえば、ビデオ符号化器20は、CUに関連付けられたツリーブロックに対してレートひずみ分析を実行し得る。レートひずみ分析では、ビデオ符号化器20は、ツリーブロックに対して符号化演算を複数回実行することによって、ツリーブロックの複数のコード化表現を生成し得る。ビデオ符号化器20がツリーブロックの異なる符号化表現を生成するとき、ビデオ符号化器20は、異なるQP値をCUに関連付け得る。ビデオ符号化器20は、最小のビットレートおよびひずみメトリックを有するツリーブロックのコード化表現で所与のQP値がCUに関連付けられるとき、所与のQP値がCUに関連付けられることをシグナリングし得る。
[0096]逆量子化ユニット108および逆変換ユニット110は、それぞれ、変換係数ブロックに逆量子化と逆変換とを適用して、変換係数ブロックから残差ビデオブロックを再構成し得る。再構成ユニット112は、再構成された残差ビデオブロックを、予測処理ユニット100によって生成された1つまたは複数の予測ビデオブロックからの対応するサンプルに追加して、TUに関連付けられた再構成されたビデオブロックを生成し得る。このようにCUの各TUのためのビデオブロックを再構成することによって、ビデオ符号化器20は、CUのビデオブロックを再構成し得る。
[0097]再構成ユニット112がCUのビデオブロックを再構成した後、フィルタユニット113は、CUに関連付けられたビデオブロックにおけるブロッキングアーティファクトを低減するためにデブロッキング演算を実行し得る。1つまたは複数のデブロッキング演算を実行した後、フィルタユニット113は、復号ピクチャバッファ114にCUの再構成されたビデオブロックを記憶し得る。動き推定ユニット122および動き補償ユニット124は、再構成されたビデオブロックを含んでいる参照ピクチャを使用して、後続ピクチャのPUに対してインター予測を実行し得る。さらに、イントラ予測ユニット126は、復号ピクチャバッファ114中の再構成されたビデオブロックを使用して、CUと同じピクチャの中の他のPUに対してイントラ予測を実行し得る。
[0098]エントロピー符号化ユニット116は、ビデオ符号化器20の他の機能構成要素からデータを受信し得る。たとえば、エントロピー符号化ユニット116は、量子化ユニット106から変換係数ブロックを受信し得、予測処理ユニット100からシンタックス要素を受信し得る。エントロピー符号化ユニット116がデータを受信するとき、エントロピー符号化ユニット116は、1つまたは複数のエントロピー符号化演算を実行して、エントロピー符号化されたデータを生成し得る。たとえば、ビデオ符号化器20は、コンテキスト適応型可変長コーディング(CAVLC)演算、CABAC演算、変数間(V2V:variable-to-variable)レングスコーディング演算、シンタックスベースコンテキスト適応型バイナリ算術コーディング(SBAC:syntax-based context-adaptive binary arithmetic coding)演算、確率間隔区分エントロピー(PIPE)コーディング演算、または別のタイプのエントロピー符号化演算をデータに対して実行し得る。エントロピー符号化ユニット116は、エントロピー符号化されたデータを含むビットストリームを出力し得る。
[0099]データに対してエントロピー符号化演算を実行することの一部として、エントロピー符号化ユニット116は、コンテキストモデルを選択し得る。エントロピー符号化ユニット116がCABAC演算を実行している場合、コンテキストモデルは、特定の値を有する特定のビンの確率の推定値を示し得る。CABACのコンテキストでは、「ビン」という用語は、シンタックス要素の2値化されたバージョンのビットを指すために使用される。

マルチレイヤビデオ符号化器
[00100]図2Bは、本開示で説明する態様による技法を実装し得る(単にビデオ符号化器23とも呼ばれる)マルチレイヤビデオ符号化器23の一例を示すブロック図である。ビデオ符号化器23は、SHVCおよびマルチビューコーディングの場合など、マルチレイヤビデオフレームを処理するように構成され得る。さらに、ビデオ符号化器23は、本開示の技法のいずれかまたはすべてを実行するように構成され得る。
[00101]ビデオ符号化器23はビデオ符号化器20Aとビデオ符号化器20Bとを含み、それらの各々はビデオ符号化器20として構成され得、ビデオ符号化器20に関して上記で説明した機能を実行し得る。さらに、参照番号の再利用によって示されるように、ビデオ符号化器20Aおよび20Bは、ビデオ符号化器20としてシステムとサブシステムとのうちの少なくともいくつかを含み得る。ビデオ符号化器23は、2つのビデオ符号化器20Aおよび20Bを含むものとして示されているが、ビデオ符号化器23は、そのようなものとして限定されず、任意の数のビデオ符号化器20レイヤを含み得る。いくつかの実施形態では、ビデオ符号化器23はアクセスユニット中の各ピクチャまたはフレームについてビデオ符号化器20を含み得る。たとえば、5つのピクチャを含むアクセスユニットは、5つの符号化器レイヤを含むビデオ符号化器によって処理または符号化され得る。いくつかの実施形態では、ビデオ符号化器23は、アクセスユニット中のフレームよりも多くの符号化器レイヤを含み得る。いくつかのそのような場合では、ビデオ符号化器レイヤのいくつかは、いくつかのアクセスユニットを処理するときに非アクティブであり得る。
[00102]ビデオ符号化器20Aおよび20Bに加えて、ビデオ符号化器23はリサンプリングユニット90を含み得る。リサンプリングユニット90は、場合によっては、たとえば、エンハンスメントレイヤを作成するために、受信されたビデオフレームのベースレイヤをアップサンプリングし得る。リサンプリングユニット90は、フレームの受信されたベースレイヤに関連付けられた特定の情報をアップサンプリングするが、他の情報をアップサンプリングしないことがある。たとえば、リサンプリングユニット90は、ベースレイヤの空間サイズまたはピクセルの数をアップサンプリングし得るが、スライスの数またはピクチャ順序カウントは定数のままであり得る。場合によっては、リサンプリングユニット90は、受信されたビデオを処理しないことがあるか、および/またはオプションであり得る。たとえば、場合によっては、予測処理ユニット100はアップサンプリングを実行し得る。いくつかの実施形態では、リサンプリングユニット90は、レイヤをアップサンプリングすることと、スライス境界ルールおよび/またはラスタスキャンルールのセットに準拠するために1つまたは複数のスライスを再編成、再定義、変更、または調整することとを行うように構成される。アクセスユニット中のベースレイヤまたは下位レイヤをアップサンプリングするものとして主に説明したが、場合によっては、リサンプリングユニット90はレイヤをダウンサンプリングし得る。たとえば、ビデオのストリーミング中に帯域幅が減少した場合、フレームは、アップサンプリングされるのではなく、ダウンサンプリングされ得る。
[00103]リサンプリングユニット90は、下位レイヤ符号化器(たとえば、ビデオ符号化器20A)の復号ピクチャバッファ114からピクチャまたはフレーム(またはピクチャに関連付けられたピクチャ情報)を受信し、ピクチャ(または受信されたピクチャ情報)をアップサンプリングするように構成され得る。このアップサンプリングされたピクチャは、次いで、下位レイヤ符号化器と同じアクセスユニット中のピクチャを符号化するように構成された上位レイヤ符号化器(たとえば、ビデオ符号化器20B)の予測処理ユニット100に提供され得る。場合によっては、上位レイヤ符号化器は、下位レイヤ符号化器から削除された1つのレイヤである。他の場合には、図2Bのレイヤ0ビデオ符号化器とレイヤ1符号化器との間に1つまたは複数の上位レイヤ符号化器があり得る。
[00104]場合によっては、リサンプリングユニット90は省略またはバイパスされ得る。そのような場合、ビデオ符号化器20Aの復号ピクチャバッファ114からのピクチャは、直接、または少なくともリサンプリングユニット90に提供されることなしに、ビデオ符号化器20Bの予測処理ユニット100に提供され得る。たとえば、ビデオ符号化器20Bに提供されたビデオデータと、ビデオ符号化器20Aの復号ピクチャバッファ114からの参照ピクチャとが同じサイズまたは解像度である場合、参照ピクチャは、リサンプリングなしにビデオ符号化器20Bに提供され得る。
[00105]いくつかの実施形態では、ビデオ符号化器23は、ビデオ符号化器20Aにビデオデータを提供される前に、ダウンサンプリングユニット94を使用して下位レイヤ符号化器に提供されるべきビデオデータをダウンサンプリングする。代替的に、ダウンサンプリングユニット94は、ビデオデータをアップサンプリングまたはダウンサンプリングすることが可能なリサンプリングユニット90であり得る。また他の実施形態では、ダウンサンプリングユニット94は省略され得る。
[00106]図2Bに示されているように、ビデオ符号化器23は、マルチプレクサ98、またはmuxをさらに含み得る。mux98は、ビデオ符号化器23から合成ビットストリームを出力することができる。合成ビットストリームは、ビデオ符号化器20Aおよび20Bの各々からビットストリームを取り、所与の時間において出力されるビットストリームを互い違いにすることによって作成され得る。場合によっては、2つの(または、3つ以上のビデオ符号化器レイヤの場合には、より多くの)ビットストリームからのビットが一度に1ビットずつ互い違いにされ得るが、多くの場合、ビットストリームは別様に合成され得る。たとえば、出力ビットストリームは、選択されたビットストリームを一度に1ブロックずつ互い違いにすることによって作成され得る。別の例では、出力ビットストリームは、ビデオ符号化器20Aおよび20Bの各々からブロックの非1:1比を出力することによって作成され得る。たとえば、ビデオ符号化器20Aから出力された各ブロックについて、2つのブロックがビデオ符号化器20Bから出力され得る。いくつかの実施形態では、mux98からの出力ストリームはプリプログラムされ得る。他の実施形態では、mux98は、ソースデバイス12を含むソースデバイス上のプロセッサからなど、ビデオ符号化器23の外部のシステムから受信された制御信号に基づいて、ビデオ符号化器20A、20Bからのビットストリームを合成し得る。制御信号は、ビデオソース18からのビデオの解像度またはビットレートに基づいて、リンク16の帯域幅に基づいて、ユーザに関連付けられたサブスクリプション(たとえば、有料サブスクリプション対無料サブスクリプション)に基づいて、またはビデオ符号化器23から望まれる解像度出力を決定するための他のファクタに基づいて生成され得る。

ビデオ復号器
[00107]図3Aは、本開示で説明する態様による技法を実装し得るビデオ復号器の一例を示すブロック図である。ビデオ復号器30は、HEVCの場合など、ビデオフレームの単一のレイヤを処理するように構成され得る。さらに、ビデオ復号器30は、限定はしないが、図4および図5に関して上記および下記でより詳細に説明する異なる標準を使用するマルチレイヤコーディングのためのサポートの方法および関係するプロセスを含む、本開示の技法のいずれかまたはすべてを実行するように構成され得る。一例として、動き補償ユニット162および/またはイントラ予測ユニット164は、本開示で説明する技法のいずれかまたはすべてを実行するように構成され得る。一実施形態では、ビデオ復号器30は、場合によっては、本開示で説明する技法のいずれかまたはすべてを実行するように構成されたレイヤ間予測ユニット166を含み得る。他の実施形態では、レイヤ間予測は予測処理ユニット152(たとえば、動き補償ユニット162および/またはイントラ予測ユニット164)によって実行され得、その場合、レイヤ間予測ユニット166は省略され得る。ただし、本開示の態様はそのように限定されない。いくつかの例では、本開示で説明する技法は、ビデオ復号器30の様々な構成要素間で共有され得る。いくつかの例では、追加または代替として、プロセッサ(図示せず)が、本開示で説明する技法のいずれかまたはすべてを実行するように構成され得る。
[00108]説明の目的で、本開示では、HEVCコーディングのコンテキストにおいてビデオ復号器30について説明する。しかしながら、本開示の技法は、他のコーディング規格または方法にも適用可能であり得る。図3Aに示された例はシングルレイヤコーデックのためのものである。しかしながら、図3Bに関してさらに説明するように、ビデオ復号器30の一部または全部はマルチレイヤコーデックの処理のために複製され得る。
[00109]図3Aの例では、ビデオ復号器30は複数の機能構成要素を含む。ビデオ復号器30の機能構成要素は、エントロピー復号ユニット150と、予測処理ユニット152と、逆量子化ユニット154と、逆変換ユニット156と、再構成ユニット158と、フィルタユニット159と、復号ピクチャバッファ160とを含む。予測処理ユニット152は、動き補償ユニット162と、イントラ予測ユニット164と、レイヤ間予測ユニット166とを含む。いくつかの例では、ビデオ復号器30は、図2Aのビデオ符号化器20に関して説明された符号化経路とは全般に逆の復号経路を実行し得る。他の例では、ビデオ復号器30は、より多数の、より少数の、または異なる機能構成要素を含み得る。
[00110]ビデオ復号器30は、符号化ビデオデータを備えるビットストリームを受信し得る。ビットストリームは複数のシンタックス要素を含み得る。ビデオ復号器30がビットストリームを受信したとき、エントロピー復号ユニット150は、ビットストリームに対してパース演算を実行し得る。ビットストリームに対してパース演算を実行した結果として、エントロピー復号ユニット150は、ビットストリームからシンタックス要素を抽出し得る。パース演算を実行することの一部として、エントロピー復号ユニット150は、ビットストリーム中のエントロピー符号化されたシンタックス要素をエントロピー復号し得る。予測処理ユニット152、逆量子化ユニット154、逆変換ユニット156、再構成ユニット158、およびフィルタユニット159は、ビットストリームから抽出されたシンタックス要素に基づいて、復号ビデオデータを生成する再構成演算を実行し得る。
[00111]上記で説明したように、ビットストリームは、一連のNALユニットを備え得る。ビットストリームのNALユニットは、ビデオパラメータセットNALユニット、シーケンスパラメータセットNALユニット、ピクチャパラメータセットNALユニット、SEI NALユニットなどを含み得る。ビットストリームに対してパース演算を実行することの一部として、エントロピー復号ユニット150は、シーケンスパラメータセットNALユニットからのシーケンスパラメータセット、ピクチャパラメータセットNALユニットからのピクチャパラメータセット、SEI NALユニットからのSEIデータなどを抽出しエントロピー復号する、パース演算を実行し得る。
[00112]さらに、ビットストリームのNALユニットはコード化スライスNALユニットを含み得る。ビットストリームに対してパース演算を実行することの一部として、エントロピー復号ユニット150は、コード化スライスNALユニットからコード化スライスを抽出しエントロピー復号する、パース演算を実行し得る。コーディングされたスライスの各々は、スライスヘッダとスライスデータとを含み得る。スライスヘッダは、スライスに関するシンタックス要素を含んでいることがある。スライスヘッダ中のシンタックス要素は、スライスを含んでいるピクチャに関連付けられたピクチャパラメータセットを識別するシンタックス要素を含み得る。エントロピー復号ユニット150は、コード化されたスライスヘッダ中のシンタックス要素に対して、CABAC復号演算などのエントロピー復号演算を実行して、スライスヘッダを再構成し得る。
[00113]コード化スライスのNALユニットからスライスデータを抽出することの一部として、エントロピー復号ユニット150は、スライスデータ中のコード化CUからシンタックス要素を抽出するパース演算を実行し得る。抽出されたシンタックス要素は、変換係数ブロックに関連付けられたシンタックス要素を含み得る。エントロピー復号ユニット150は、次いで、シンタックス要素のうちのいくつかに対してCABAC復号演算を実行し得る。
[00114]エントロピー復号ユニット150が区分されていないCUに対してパース演算を実行した後、ビデオ復号器30は、区分されていないCUに対して再構成演算を実行し得る。区分されていないCUに対して再構成演算を実行するために、ビデオ復号器30はCUの各TUに対して再構成演算を実行し得る。CUの各TUについて再構成演算を実行することによって、ビデオ復号器30は、CUに関連付けられた残差ビデオブロックを再構成し得る。
[00115]TUに対して再構成演算を実行することの一部として、逆量子化ユニット154は、TUに関連付けられた変換係数ブロックを逆量子化(inverse quantize)、たとえば、逆量子化(de-quantize)し得る。逆量子化ユニット154は、HEVC用に提案された、またはH.264復号規格によって定義された逆量子化プロセスと同様の方式で、変換係数ブロックを逆量子化し得る。逆量子化ユニット154は、量子化の程度を決定し、同様に、逆量子化ユニット154が適用すべき逆量子化の程度を決定するために、変換係数ブロックのCUのためにビデオ符号化器20によって計算される量子化パラメータQPを使用し得る。
[00116]逆量子化ユニット154が変換係数ブロックを逆量子化した後、逆変換ユニット156は、変換係数ブロックに関連付けられたTUのための残差ビデオブロックを生成し得る。逆変換ユニット156は、TUのための残差ビデオブロックを生成するために、変換係数ブロックに逆変換を適用し得る。たとえば、逆変換ユニット156は、変換係数ブロックに、逆DCT、逆整数変換、逆カルーネンレーベ変換(KLT:Karhunen-Loeve transform)、逆回転変換、逆方向変換、または別の逆変換を適用し得る。いくつかの例では、逆変換ユニット156は、ビデオ符号化器20からのシグナリングに基づいて、変換係数ブロックに適用すべき逆変換を決定し得る。そのような例では、逆変換ユニット156は、変換係数ブロックに関連付けられたツリーブロックの4分木のルートノードにおいてシグナリングされた変換に基づいて、逆変換を決定し得る。他の例では、逆変換ユニット156は、ブロックサイズ、コーディングモードなど、1つまたは複数のコーディング特性から逆変換を推論し得る。いくつかの例では、逆変換ユニット156はカスケード逆変換を適用し得る。
[00117]いくつかの例では、動き補償ユニット162は、補間フィルタに基づく補間を実行することによって、PUの予測ビデオブロックを改良し得る。サブサンプル精度をもつ動き補償のために使用されるべき補間フィルタのための識別子が、シンタックス要素中に含まれ得る。動き補償ユニット162は、PUの予測ビデオブロックの生成中にビデオ符号化器20によって使用された同じ補間フィルタを使用して、参照ブロックのサブ整数サンプルについての補間値を計算し得る。動き補償ユニット162は、受信されたシンタックス情報に従って、ビデオ符号化器20によって使用された補間フィルタを決定し、その補間フィルタを使用して予測ビデオブロックを生成し得る。
[00118]図5に関して以下でさらに説明するように、予測処理ユニット152は、図5に示されている方法を実行することによってPU(または他の参照レイヤブロックおよび/またはエンハンスメントレイヤブロックまたはビデオユニット)をコーディング(たとえば、符号化または復号)し得る。たとえば、動き補償ユニット162、イントラ予測ユニット164、またはレイヤ間予測ユニット166は、一緒にまたは別々に、図5に示されている方法を実行するように構成され得る。
[00119]PUが、イントラ予測を使用して符号化される場合、イントラ予測ユニット164は、PUのための予測ビデオブロックを生成するためにイントラ予測を実行し得る。たとえば、イントラ予測ユニット164は、ビットストリーム中のシンタックス要素に基づいて、PUのためのイントラ予測モードを決定し得る。ビットストリームは、PUのイントラ予測モードを決定するためにイントラ予測ユニット164が使用し得るシンタックス要素を含み得る。
[00120]いくつかの事例では、シンタックス要素は、イントラ予測ユニット164が別のPUのイントラ予測モードを使用して現在PUのイントラ予測モードを決定するべきであることを示し得る。たとえば、現在PUのイントラ予測モードは隣接PUのイントラ予測モードと同じであることがあり得る。言い換えれば、隣接PUのイントラ予測モードは、現在PUに対して最確モードであり得る。したがって、この例では、ビットストリームは、PUのイントラ予測モードが隣接PUのイントラ予測モードと同じであることを示す、小さいシンタックス要素を含み得る。イントラ予測ユニット164は、次いで、イントラ予測モードを使用して、空間的に隣接するPUのビデオブロックに基づいて、PUの予測データ(たとえば、予測サンプル)を生成し得る。
[00121]上記で説明したように、ビデオ復号器30もレイヤ間予測ユニット166を含み得る。レイヤ間予測ユニット166は、SVCにおいて利用可能である1つまたは複数の異なるレイヤ(たとえば、ベースレイヤまたは参照レイヤ)を使用して、現在ブロック(たとえば、EL中の現在ブロック)を予測するように構成される。そのような予測はレイヤ間予測と呼ばれることがある。レイヤ間予測ユニット166は、レイヤ間冗長性を低減するための予測方法を利用し、それによって、コーディング効率を改善し、計算リソース要件を低減する。レイヤ間予測のいくつかの例としては、レイヤ間イントラ予測、レイヤ間動き予測、およびレイヤ間残差予測がある。レイヤ間イントラ予測は、エンハンスメントレイヤ中の現在ブロックを予測するために、ベースレイヤ中のコロケートブロックの再構成を使用する。レイヤ間動き予測は、ベースレイヤの動き情報を使用してエンハンスメントレイヤ中の動作を予測する。レイヤ間残差予測は、ベースレイヤの残差を使用してエンハンスメントレイヤの残差を予測する。レイヤ間予測方式の各々について、より詳細に以下で説明する。
[00122]再構成ユニット158は、適用可能なとき、CUのTUに関連付けられた残差ビデオブロックとCUのPUの予測ビデオブロックとを使用して、すなわち、イントラ予測データまたはインター予測データのいずれかを使用して、CUのビデオブロックを再構成し得る。したがって、ビデオ復号器30は、ビットストリーム中のシンタックス要素に基づいて、予測ビデオブロックと残差ビデオブロックとを生成し得、予測ビデオブロックと残差ビデオブロックとに基づいて、ビデオブロックを生成し得る。
[00123]再構成ユニット158がCUのビデオブロックを再構成した後、フィルタユニット159は、デブロッキング演算を実行して、CUに関連付けられたブロッキングアーティファクトを低減し得る。フィルタユニット159が、CUに関連付けられたブロッキングアーティファクトを低減するためにデブロッキング演算を実行した後、ビデオ復号器30はCUのビデオブロックを復号ピクチャバッファ160に記憶し得る。復号ピクチャバッファ160は、後続の動き補償、イントラ予測、および図1Aまたは図1Bのディスプレイデバイス32などのディスプレイデバイス上での提示のために、参照ピクチャを提供し得る。たとえば、ビデオ復号器30は、復号ピクチャバッファ160中のビデオブロックに基づいて、他のCUのPUに対してイントラ予測演算またはインター予測演算を実行し得る。

マルチレイヤ復号器
[00124]図3Bは、本開示で説明する態様による技法を実装し得る(単にビデオ復号器33とも呼ばれる)マルチレイヤビデオ復号器33の一例を示すブロック図である。ビデオ復号器33は、SHVCおよびマルチビューコーディングの場合など、マルチレイヤビデオフレームを処理するように構成され得る。さらに、ビデオ復号器33は、本開示の技法のいずれかまたはすべてを実行するように構成され得る。
[00125]ビデオ復号器33はビデオ復号器30Aとビデオ復号器30Bとを含み、それらの各々はビデオ復号器30として構成され得、ビデオ復号器30に関して上記で説明した機能を実行し得る。さらに、参照番号の再利用によって示されるように、ビデオ復号器30Aおよび30Bは、ビデオ復号器30としてシステムとサブシステムとのうちの少なくともいくつかを含み得る。ビデオ復号器33は、2つのビデオ復号器30Aおよび30Bを含むものとして示されているが、ビデオ復号器33は、そのようなものとして限定されず、任意の数のビデオ復号器30レイヤを含み得る。いくつかの実施形態では、ビデオ復号器33はアクセスユニット中の各ピクチャまたはフレームについてビデオ復号器30を含み得る。たとえば、5つのピクチャを含むアクセスユニットは、5つの復号器レイヤを含むビデオ復号器によって処理または復号され得る。いくつかの実施形態では、ビデオ復号器33は、アクセスユニット中のフレームよりも多くの復号器レイヤを含み得る。いくつかのそのような場合では、ビデオ復号器レイヤのいくつかは、いくつかのアクセスユニットを処理するときに非アクティブであり得る。
[00126]ビデオ復号器30Aおよび30Bに加えて、ビデオ復号器33はアップサンプリングユニット92を含み得る。いくつかの実施形態では、アップサンプリングユニット92は、フレームまたはアクセスユニットのための参照ピクチャリストに追加されるべきエンハンストレイヤを作成するために、受信されたビデオフレームのベースレイヤをアップサンプリングし得る。このエンハンストレイヤは復号ピクチャバッファ160に記憶され得る。いくつかの実施形態では、アップサンプリングユニット92は、図2Aのリサンプリングユニット90に関して説明した実施形態の一部または全部を含むことができる。いくつかの実施形態では、アップサンプリングユニット92は、レイヤをアップサンプリングすることと、スライス境界ルールおよび/またはラスタスキャンルールのセットに準拠するために1つまたは複数のスライスを再編成、再定義、変更、または調整することとを行うように構成される。場合によっては、アップサンプリングユニット92は、受信されたビデオフレームのレイヤをアップサンプリングおよび/またはダウンサンプリングするように構成されたリサンプリングユニットであり得る。
[00127]アップサンプリングユニット92は、下位レイヤ復号器(たとえば、ビデオ復号器30A)の復号ピクチャバッファ160からピクチャまたはフレーム(またはピクチャに関連付けられたピクチャ情報)を受信し、ピクチャ(または受信されたピクチャ情報)をアップサンプリングするように構成され得る。このアップサンプリングされたピクチャは、次いで、下位レイヤ復号器と同じアクセスユニット中のピクチャを復号するように構成された上位レイヤ復号器(たとえば、ビデオ復号器30B)の予測処理ユニット152に提供され得る。場合によっては、上位レイヤ復号器は、下位レイヤ復号器から削除された1つのレイヤである。他の場合には、図3Bのレイヤ0ビデオ復号器とレイヤ1復号器との間に1つまたは複数の上位レイヤ復号器があり得る。
[00128]場合によっては、アップサンプリングユニット92は省略またはバイパスされ得る。そのような場合、ビデオ復号器30Aの復号ピクチャバッファ160からのピクチャは、直接、または少なくともアップサンプリングユニット92に提供されることなしに、ビデオ復号器30Bの予測処理ユニット152に提供され得る。たとえば、ビデオ復号器30Bに提供されたビデオデータと、ビデオ復号器30Aの復号ピクチャバッファ160からの参照ピクチャとが同じサイズまたは解像度である場合、参照ピクチャは、アップサンプリングなしにビデオ復号器30Bに提供され得る。さらに、いくつかの実施形態では、アップサンプリングユニット92は、ビデオ復号器30Aの復号ピクチャバッファ160から受信された参照ピクチャをアップサンプリングまたはダウンサンプリングするように構成されたリサンプリングユニット90であり得る。
[00129]図3Bに示されているように、ビデオ復号器33は、デマルチプレクサ99、またはdemuxをさらに含み得る。demux99は符号化ビデオビットストリームを複数のビットストリームにスプリットすることができ、demux99によって出力された各ビットストリームは異なるビデオ復号器30Aおよび30Bに提供される。複数のビットストリームは、ビットストリームを受信することによって作成され得、ビデオ復号器30Aおよび30Bの各々は、所与の時間においてビットストリームの一部分を受信する。場合によっては、demux99において受信されるビットストリームからのビットは、ビデオ復号器の各々(たとえば、図3Bの例ではビデオ復号器30Aおよび30B)の間で一度に1ビットずつ互い違いにされ得るが、多くの場合、ビットストリームは別様に分割される。たとえば、ビットストリームは、一度に1ブロックずつビットストリームを受信するビデオ復号器を交替することによって分割され得る。別の例では、ビットストリームは、ブロックの非1:1比によって、ビデオ復号器30Aおよび30Bの各々に分割され得る。たとえば、2つのブロックは、ビデオ復号器30Aに提供されれる各ブロックについてビデオ復号器30Bに提供され得る。いくつかの実施形態では、demux99によるビットストリームの分割はプリプログラムされ得る。他の実施形態では、demux99は、宛先モジュール14を含む宛先デバイス上のプロセッサからなど、ビデオ復号器33の外部のシステムから受信された制御信号に基づいてビットストリームを分割し得る。制御信号は、入力インターフェース28からのビデオの解像度またはビットレートに基づいて、リンク16の帯域幅に基づいて、ユーザに関連付けられたサブスクリプション(たとえば、有料サブスクリプション対無料サブスクリプション)に基づいて、またはビデオ復号器33によって取得可能な解像度を決定するための他のファクタに基づいて生成され得る。

イントラランダムアクセスポイント(IRAP)ピクチャ
[00130]いくつかのビデオコーディング方式は様々なランダムアクセスポイントを、ビットストリームが、ビットストリームの中でそれらのランダムアクセスポイントに先行するいかなるピクチャも復号する必要なしに、それらのランダムアクセスポイントのいずれかから始めて復号され得るように、ビットストリーム全体にわたって提供し得る。そのようなビデオコーディング方式では、(たとえば、ランダムアクセスポイントを提供するピクチャと同じアクセスユニット中にあるピクチャを含む)出力順序においてランダムアクセスポイントに後続するすべてのピクチャは、ランダムアクセスポイントに先行するいかなるピクチャも使用することなしに正しく復号され得る。たとえば、ビットストリームの一部分が送信の間または復号の間に失われても、復号器は、次のランダムアクセスポイントから始めてビットストリームの復号を再開することができる。ランダムアクセスのサポートは、たとえば、動的なストリーミングサービス、シーク動作、チャネル切替えなどを容易にし得る。
[00131]いくつかのコーディング方式では、そのようなランダムアクセスポイントは、イントラランダムアクセスポイント(IRAP)ピクチャと呼ばれるピクチャによって提供され得る。たとえば、アクセスユニット(「auA」)中に含まれているエンハンスメントレイヤ(「layerA」)中の(たとえば、エンハンスメントレイヤIRAPピクチャによって提供される)ランダムアクセスポイントは、各参照レイヤ(「layerB」)中にあり、復号順序においてauAに先行するアクセスユニット(「auB」)中に含まれているランダムアクセスポイント(または、auA中に含まれているランダムアクセスポイント)を有するlayerAのlayerB(たとえば、layerAを予測するために使用されるレイヤである参照レイヤ)に関して出力順序においてauBに後続する(auB中に位置するピクチャを含む)layerA中のピクチャが、auBに先行するlayerA中のいかなるピクチャも復号する必要なしに正しく復号可能であるように、レイヤ特有のランダムアクセスを提供し得る。
[00132]IRAPピクチャは、イントラ予測を使用してコーディングされ(たとえば、他のピクチャを参照することなしにコーディングされ)得、たとえば、瞬時復号リフレッシュ(IDR:instantaneous decoding refresh)ピクチャと、クリーンランダムアクセス(CRA:clean random access)ピクチャと、ブロークンリンクアクセス(BLA:broken link access)ピクチャとを含み得る。ビットストリーム中にIDRピクチャがあるとき、復号順序においてIDRピクチャに先行するすべてのピクチャは、復号順序においてIDRピクチャに後続するピクチャによる予測のために使用されない。ビットストリーム中にCRAピクチャがあるとき、CRAピクチャに後続するピクチャは、復号順序においてCRAピクチャに先行するピクチャを予測のために使用してよく、または使用しなくてもよい。復号順序においてCRAピクチャに後続するが、復号順序においてCRAピクチャに先行するピクチャを使用するピクチャは、ランダムアクセススキップリーディング(RASL:random access skipped leading)ピクチャと呼ばれることがある。復号順序においてIRAPピクチャに後続し、出力順序においてIRAPピクチャに先行する別のタイプのピクチャは、復号順序においてIRAPピクチャに先行するいかなるピクチャへの参照も含んでいないことがあるランダムアクセス復号可能リーディング(RADL:random access decodable leading)ピクチャである。CRAピクチャに先行するピクチャが利用可能でない場合、RASLピクチャは復号器によって廃棄され得る。BLAピクチャは、(たとえば、2つのビットストリームが互いにスプライスされ、BLAピクチャが復号順序において第2のビットストリームの最初のピクチャであるので)BLAピクチャに先行するピクチャが復号器にとって利用可能でないことがあることを、復号器に示す。IRAPピクチャであるベースレイヤピクチャ(たとえば、0のレイヤID値を有するピクチャ)を含んでいるアクセスユニット(たとえば、複数のレイヤにわたって同じ出力時間に関連付けられたすべてのコード化ピクチャからなるピクチャのグループ)は、IRAPアクセスユニットと呼ばれ
ることがある。

IRAPピクチャのクロスレイヤアラインメント
[00133]SVCでは、IRAPピクチャは、異なるレイヤにわたってアラインされる(たとえば、同じアクセスユニットに含まれている)ことを必要とされないことがある。たとえば、IRAPピクチャがアラインされることを必要とされる場合、少なくとも1つのIRAPピクチャを含んでいるいかなるアクセスユニットもIRAPピクチャのみを含んでいることになる。一方、IRAPピクチャが、単一のアクセスユニット中で、アラインされることを必要とされない場合、(たとえば、第1のレイヤ中の)あるピクチャがIRAPピクチャであり得、(たとえば、第2のレイヤ中の)別のピクチャが非IRAPピクチャであり得る。ビットストリーム中にそのような非アラインIRAPピクチャを有することは、いくつかの利点を提供し得る。たとえば、2レイヤビットストリーム中で、エンハンスメントレイヤ中よりも多くのIRAPピクチャがベースレイヤ中にある場合、ブロードキャストおよびマルチキャストの適用例において、小さい同調遅延および高いコーディング効率が達成され得る。
[00134]いくつかのビデオコーディング方式では、ピクチャ順序カウント(POC:picture order count)が、復号ピクチャが表示される相対的な順序を追跡するために使用され得る。そのようなコーディング方式のうちのいくつかにより、POC値は、いくつかのタイプのピクチャがビットストリーム中に出現するときはいつでもリセットされる(たとえば、0にセットされるか、またはビットストリーム中でシグナリングされた何らかの値にセットされる)ことになり得る。たとえば、あるIRAPピクチャのPOC値がリセットされ得、復号順序においてそれらのIRAPピクチャに先行する他のピクチャのPOC値もリセットされることになる。IRAPピクチャが異なるレイヤにわたってアラインされることを必要とされないとき、このことが問題となり得る。たとえば、あるピクチャ(「picA」)がIRAPピクチャであり、同じアクセスユニット中の別のピクチャ(「picB」)がIRAPピクチャでないとき、picAがIRAPピクチャであることに起因してリセットされる、picAを含んでいるレイヤ中のピクチャ(「picC」)のPOC値は、picBを含んでいるレイヤ中のリセットされないピクチャ(「picD」)のPOC値と異なることがあり得、ここで、picCおよびpicDは同じアクセスユニット中にある。このことは、それらが同じアクセスユニット(たとえば、同じ出力時間)に属していても、picCおよびpicDが異なるPOC値を有することを引き起こす。したがって、この例では、picCおよびpicDのPOC値を導出するための導出プロセスは、POC値およびアクセスユニットの定義と一致するPOC値を生成するように修正され得る。

ピクチャ順序カウント(POC)
[0135]上記で説明したように、特定のコード化ピクチャのためのピクチャ順序カウント(POC)の値(例えば、HEVCにおけるPicOrderCntVal)は、同じコード化ビデオシーケンス中の他のピクチャに関してピクチャ出力プロセス中の特定のコード化ピクチャの相対順序を示す。いくつかの実施形態では、POCは、最下位ビット(LSB)と最上位ビット(MSB)とを備え、POCは、MSBおよびLSBを連結することによって取得され得る。他の実施形態では、POCは、MSB値とLSB値とを加えることによって取得され得る。LSBは、スライスヘッダにおいてシグナリングされ得、MSBは、現在のピクチャのNALユニットタイプと、(1)RASLまたはRADLでない、(2)破棄可能でない(例えば、「破棄可能である」としてマークされたピクチャであって、他のピクチャがそれらに全く依存しないことを示し、従って、それらに帯域幅制限を満たすようにドロップされることを可能にする)、(3)サブレイヤ非参照ピクチャでない(例えば、同じ時間サブレイヤまたは同じレイヤ中の他のピクチャによる参照のために使用されていないピクチャ)、(4)0に等しい時間ID(例えば、時間サブレイヤID)を有する、復号順序における1つまたは複数の以前のピクチャのMSBおよびLSBとに基づいて符号化器または復号器によって計算され得る。(1)−(4)において記述されるようなピクチャは、本明細書でPOCアンカーピクチャと呼ばれ得る。同様に、0より大きい時間ID値を有するピクチャ、RASLまたはRADLピクチャ、廃棄可能なピクチャ、またはサブレイヤ非参照ピクチャは、非POCアンカーピクチャと呼ばれ得る。POCアンカーピクチャは、符号化器および/または復号器がビットストリームから削除するように(例えば、帯域幅制限を満たすように)選出し得ないピクチャをさらに含み得る。POCアンカーピクチャは、符号化器および/または復号器がビットストリームから削除するように(例えば、帯域幅制限を満たすように)構成され得るピクチャのタイプ以外の任意のピクチャをさらに含み得る。非POCアンカーピクチャは、POCアンカーピクチャでない任意のピクチャを含み得る。
[0136]現在のピクチャが(1)NoRaslOutputFlagを持つIRAPピクチャ(例えば、1にセットされた場合に、RASLピクチャが出力されるべきでないことを示し、0にセットされた場合に、RASLピクチャが出力されるべきであることを示すフラグ)、または(2)ビットストリームの第1のピクチャであるCRAピクチャである時、POC MSBの値は、0に等しいと推論される。上記で説明したように、マルチレイヤビットストリーム(例えば、1つのレイヤより多くのレイヤを持つSHVCまたはMV−HEVCビットストリーム)では、アクセスユニット(AU)が存在することがあり得、1つまたは複数のピクチャは、IRAPピクチャであり、1つまたは複数の他のピクチャは、非IRAPであり、そのようなAUは、「非アラインIRAP AU」と呼ばれ得る。復号ビットストリームが非アラインIRAP AUを含む場合、ビットストリーム中でシグナルされるPOC LSB値に基づいて導出されるPOCが、アクセスユニットにおけるすべてのピクチャが同じPOC値を有するべきであるとのビットストリーム適合要求を破ることが可能である(および可能性が高い)。

レイヤ初期化ピクチャ(LIP)
[00137]いくつかのコーディング方式では、レイヤ初期化ピクチャ(「LIPピクチャ」)は、1にセットされたNoRaslOutputFlagフラグ(たとえば、1にセットされる場合はRASLピクチャが出力されないことを示し、0にセットされる場合はRASLピクチャが出力されることを示すフラグ)を有するIRAPピクチャであるピクチャ、またはベースレイヤピクチャ(たとえば、0のレイヤIDまたはビットストリーム中で定義される最小のレイヤIDを有するピクチャ)が、1にセットされたNoRaslOutputFlagを有する、IRAPアクセスユニットである初期IRAPアクセスユニット含まれているピクチャとして定義され得る。
[00138]いくつかの実施形態では、SPSは、各LIPピクチャにおいてアクティブにされ得る。たとえば、1にセットされたNoRaslOutputFlagフラグを有する各IRAPピクチャ、または初期IRAPアクセスユニット中に含まれている各ピクチャ、(たとえば、異なるピクチャ解像度を指定するなど)前にアクティブにされたSPSとは異なり得る、新しいSPS。しかしながら、LIPピクチャがIRAPピクチャ(たとえば、初期IRAPアクセスユニット中に含まれている任意のピクチャ)でなく、初期IRAPアクセスユニット中のベースレイヤピクチャが、0にセットされたフラグNoClrasOutputFlagフラグ(たとえば、1にセットされる場合はクロスレイヤランダムアクセススキップピクチャが出力されないことを示し、0にセットされる場合はクロスレイヤランダムアクセススキップピクチャが出力されることを示すフラグ)をもつIDRピクチャである場合、LIPピクチャは新しいSPSをアクティブにすることを許容されるべきでない。そのような場合、そのようなLIPピクチャにおいて新しいSPSがアクティブにされる場合、詳細には、新しいSPSのSPS RBSPのコンテンツが初期IRAPアクセスユニットの前にあらかじめアクティブであったSPSのコンテンツとは異なるとき、異なるピクチャ解像度および誤り耐性において問題があることがある。たとえば、新しいSPSは、解像度を更新し、異なるサイズのピクチャを参照するための時間予測を使用し得る。

ピクチャのバンピングおよびフラッシング
[00139]復号されたピクチャは、(たとえば、それらが表示され、または他のピクチャを予測するために使用され得るように)復号ピクチャバッファ(DPB)に記憶される。出力されるべきであるピクチャは、「出力のために必要とされる」とマークされ得、他のピクチャを予測するために使用されるべきであるピクチャは、「参照のために使用される」とマークされ得る。「出力のために必要とされる」とも「参照のために使用される」ともマークされない復号ピクチャ(たとえば、最初に「参照のために使用される」または「出力のために必要とされる」とマークされたが、その後、「参照のために使用されない」または「出力のために必要とされない」とマークされたピクチャ)は、それらが復号プロセスによって削除されるまでDPB中に存在し得る。出力順序適合の復号器では、ピクチャをDPBから削除するプロセスが、しばしば、「出力のために必要とされる」とマークされたピクチャの出力の直後にくる。出力およびその後の削除のこのプロセスは、「バンピング」と呼ばれることがある。
[00140]これらのピクチャが「出力のために必要とされる」とマークされていても、復号器がDPB中のピクチャを出力することなく削除し得る状況もある。本明細書での説明を簡単にするために、IRAPピクチャを復号するときにDPB中に存在する復号ピクチャは、(復号ピクチャが「出力のために必要とされる」とマークされたのか「参照のために使用される」とマークされたのかにかかわらず)IRAPピクチャに関連付けられた「遅れDPBピクチャ」、またはIRAPピクチャの「関連付けられた遅れDPBピクチャ」と呼ばれる。そのような状況のいくつかの例について、HEVCのコンテキストにおいて以下に説明する。
[00141]一例では、「1」の値に等しいNoRaslOutputFlagを有するCRAピクチャがビットストリームの中間に存在する(たとえば、ビットストリーム中の最初のピクチャでない)とき、CRAピクチャに関連付けられた遅れDPBピクチャは、出力されないことになり、DPBから削除されることになる。2つのビットストリームが互いに接合され、後者のビットストリームの最初のピクチャが「1」の値に等しいNoRaslOutputFlagをもつCRAピクチャであるスプライスポイントにおいて、そのような状況が起こる可能性が高い。別の例では、「1」の値に等しいNoRaslOutputFlagを有するとともにCRAピクチャでないIRAPピクチャpicA(たとえば、IDRピクチャ)がビットストリームの中間に存在し、ピクチャの解像度が(たとえば、新しいSPSのアクティブ化とともに)picAにおいて変化するとき、picAの関連付けられた遅れDPBピクチャは、関連付けられた遅れDPBピクチャがDPBを占有し続ける場合、picAから始まるピクチャの復号が、たとえば、バッファオーバーフローに起因して問題となり得るので、それらが出力され得る前にDPBから削除され得る。この場合、picAに関連付けられたno_output_of_prior_pics_flag(たとえば、1にセットされる場合は前に復号されDPBに記憶されたピクチャが出力されることなくDPBから削除されるべきであることを示し、0にセットされる場合は前に復号されDPBに記憶されたピクチャが出力されることなくDPBから削除されるべきでないことを示すフラグ)の値は、符号化器またはスプライサによって「1」の値に等しくセットされるべきであり、または、NoOutputOfPriorPicsFlag(たとえば、ビットストリーム中に含まれる情報に基づいて決定され得る導出値)は、遅れピクチャをDPBの外へ出力することなくフラッシングするように、復号器によって「1」の値に等しいものとして導出され得る。スプライシング動作について、図4に関して以下でさらに説明する。
[00142]関連付けられた遅れDPBピクチャを出力することなくDPBから削除するこのプロセスは、「フラッシング」と呼ばれることがある。上述されない状況においても、復号器がIRAPピクチャの関連付けられたDPB遅れピクチャをフラッシングするように、IRAPピクチャは、no_output_of_prior_pics_flagの値を「1」の値に等しく指定し得る。

スプライスポイントを含むビットストリーム
[00143]図4を参照しながら、スプライスポイントを有する例示的なビットストリームについて説明する。図4に、スプライシングビットストリーム410および420によって作り出されたマルチレイヤビットストリーム400を示す。ビットストリーム410は、エンハンスメントレイヤ(EL)410Aとベースレイヤ(BL)410Bとを含み、ビットストリーム420は、EL420AとBL420Bとを含む。EL410AはELピクチャ412Aを含み、BL410BはBLピクチャ412Bを含む。EL420Aは、ELピクチャ422A、424A、および426Aを含み、BL420Bは、BLピクチャ422B、424B、および426Bを含む。マルチレイヤビットストリーム400は、アクセスユニット(AU)430〜460をさらに含む。AU430は、ELピクチャ412AとBLピクチャ412Bとを含み、AU440は、ELピクチャ422AとBLピクチャ422Bとを含み、AU450は、ELピクチャ424AとBLピクチャ424Bとを含み、AU460は、ELピクチャ426AとBLピクチャ426Bとを含む。図4の例では、BLピクチャ422BはIRAPピクチャであり、AU440の中の対応するELピクチャ422Aは、末尾のピクチャ(たとえば、非IRAPピクチャ)であり、したがって、AU440は非アラインIRAP AUである。また、AU440がスプライスポイント470の直後にくるアクセスユニットであることに留意されたい。
[00144]図4の例は2つの異なるビットストリームが互いに接合される場合を示すが、いくつかの実施形態では、ビットストリームの一部分が削除されるとき、スプライスポイントが存在し得る。たとえば、ビットストリームは部分A、B、およびCを有し得、部分Bは部分AとCとの間にある。部分Bがビットストリームから削除される場合、残りの部分AおよびCは互いに接合され得、それらが互いに接合される点はスプライスポイントと呼ばれることがある。より一般に、本出願で説明されるようなスプライスポイントは、1つまたは複数のシグナリングまたは導出されたパラメータまたはフラグが所定の値を有するとき、存在すると見なされ得る。たとえば、スプライスポイントが特定のロケーションにおいて存在するという特定のインジケーションを受信しなければ、復号器は、フラグ(たとえば、NoClrasOutputFlag)の値を決定し、フラグの値に基づいて本出願で説明する1つまたは複数の技法を実行し得る。

マルチレイヤコンテキストにおけるピクチャのフラッシング
[00145]マルチレイヤコーディングのいくつかの場合では、参照レイヤ(RL)は、1つの標準を使用してコード化され、エンハンスメントレイヤ(EL)は、別の標準を使用してコード化され得る。例えば、RLは、H.264/AVCにしたがってコード化され、ELは、H.265/HEVCにしたがってコード化され得る。標準の以前のバージョンを使用してコード化されるRLのためのサポートを提供することは、以前のバージョンを使用してコード化されたビデオデータが現在の標準を使用するマルチレイヤビデオコーディングにおいて利用され得るので、有益となることができる。しかしながら、異なる標準中でコード化されたRLを処理する多くの態様を管理することは、マルチレイヤコーディングのためのサポートが複雑になる。例えば、符号化器または復号器は、RLピクチャの出力を取り扱い、RLピクチャのための復号ピクチャ記憶を維持する、等が必要になり得る。議論を容易にするために、異なる標準を使用するRLおよびELをコーディングすることは、異なる標準を使用するマルチレイヤビデオコーディングと呼ばれ得る。説明の目的のために、本明細書は、異なる標準を使用することに言及するが、本明細書に説明される技法はまた、同じ標準の異なるバージョンを使用することに適用することができる。技法はさらに、異なるコーディングスキームを使用すること、またはコーディングスキームの異なるバージョンを使用することに適用し得る。
[00146]これらおよび他の課題に対処するために、ある態様にしたがう技法は、単純化されたやり方で異なる標準を使用するマルチレイヤビデオコーディングをサポートすることができる。たとえば、HEVC復号器は、HEVC以外の標準を使用してコード化されたRLピクチャの管理および処理を最小限にし得る。説明の目的のために、RLは、H.264/AVCを使用してコード化されるとして説明されることになり、ELは、H.265/HEVCを使用してコード化されるとして説明されることになる。しかしながら、異なる標準の任意の組み合わせは、RLおよびELをコード化するために使用されることができる。ある態様にしたがって、技法は、以下の、(1)復号RLピクチャが外部手段によって提供される(例えば、カプセル化が全く提供されない)、および(2)ELピクチャの出力との同期を含む、RLピクチャの出力が外部手段によって制御される、ようなRLピクチャの管理および処理を最小限にする。カプセル化は、RLピクチャが特有のNALユニットヘッダシンタックスを使用してビットストリーム中に提供されるようなRLピクチャのためのあるNALユニットヘッダシンタックスを定義することを指しうる。外部手段は、RLをコード化するために使用される標準をサポートするコーダ(例えば、符号化器または復号器)を指し得る。HEVC復号器は、異なる標準を使用するマルチレイヤビデオコーディングをサポートするために、以下で詳細に説明される、あるルールを実装することができる。以上で説明したように、技法はまた、単に異なる標準を使用するのではなく、標準の異なるバージョンを使用することに適用でき、さらに、異なるコーディングスキームを使用することまたはコーディングスキームの異なるバージョンを使用することに適用することができる。
[00147]本開示の全体で使用される様々な用語は、それらの普通の意味を有する広い用語である。加えて、いくつかの実施形態では、ある用語は、以下のビデオコンセプトに関する。標準は、H.264/AVC、H.265/HEVC、等のようなビデオコーディング標準を指すことができる。いくつかの実施形態では、標準は、H.265/HEVC、SHVC,MC−HEVC、等のような、同じ標準の異なる拡張を指すことができる。例えば、参照レイヤは、HEVCを使用して符号化され、エンハンスメントレイヤは、SHVCまたはMV−HEVCを使用して符号化される。以上で説明したように、本コンテキストにおける外部手段は、EL復号器の一部ではなく、例えば、アプリケーションプログラミングインターフェース(API)を通じて、EL復号器と情報を交換する、任意の装置またはエンティティを指し得る。1つの例では、外部手段は、RLをコード化するために使用される標準をサポートするコーダ(例えば、符号化器または復号器)を指し得る。別の例では、外部手段は、EL復号器を含む受信機の一部を指し得る。たとえば、同じ受信機は、EL復号器と外部手段との両方を含み得る。そのような場合では、外部手段は、EL復号器の一部ではなく、ある意味ではEL復号器に対してまだ外部にある。ある実施形態では、外部手段はさらに外部装置と呼ばれ得る。

例示的な実施形態
[00148]1つの実施形態では、以下のルールが、異なる標準を使用してマルチレイヤコーディングをサポートするために実装される:
1)現在のアクセスユニットのために、情報が全く提供されない(ベースレイヤピクチャが現在のアクセスユニットのために全く存在しないことを意味する)、またはベースレイヤピクチャの以下の情報が外部手段によって提供される:
− ベースレイヤ復号ピクチャの復号サンプル値
− ルーマサンプル中の幅および高さと、カラーフォーマットと、ルーマビット深度と、クロマビット深度とを含む、ベースレイヤ復号ピクチャの表現フォーマット。
− ベースレイヤピクチャがIDRピクチャか否か。
− オプションとして、ピクチャがフレームまたはフィールドかどうか、およびフィールドであるときの、(フィールドがトップフィールドまたはボトムフィールドであるかどうかを示す)フィールドパリティ。提供されない場合、復号ピクチャは、フレームピクチャになるべきであると推論される。
2)ベースレイヤピクチャの出力がベースレイヤ復号器の信頼度(responsibility)である。オプションとして、1つの非ベースレイヤが存在するのみであり、それは、ターゲット出力レイヤのみである。
3)(マルチ標準)SHVC復号器は、ベースレイヤ復号ピクチャのためのメモリの1つの復号ピクチャ記憶を維持する必要のみがあり、このメモリは、DPBの一部として考慮されない。
4)アクセスユニットに対するベースレイヤ復号ピクチャの関連性は、外部手段(例えば、ベースレイヤ復号器または他の外部手段)の信頼度である。
5)ベースレイヤ復号ピクチャのnuh_layer_idは0に等しくなるようにセットされる。代替として、ベースレイヤ復号ピクチャのnuh_layer_idは、アクセスユニットにおけるすべてのエンハンスメントレイヤピクチャの間のnuh_layer_idの最低値を持つエンハンスメントレイヤピクチャのインターレイヤ参照ピクチャセットにおけるエントリーのnuh_layer_idに等しくなるようにセットされる。
6)ベースレイヤ復号ピクチャのピクチャ順序カウント(POC)は、エンハンスメントレイヤピクチャのピクチャ順序カウントに等しくなるようにセットされる。この場合、スケーラブルまたはマルチビューコーデックのようなベースレイヤ復号器によって復号されるベースレイヤピクチャの実際のピクチャ順序カウントが、それがAVC復号器によって復号されるときと、同じピクチャのピクチャ順序カウント値と異なり得ることに注意。
7)ベースレイヤ復号ピクチャは、「長期間参照のために使用される」としてマークされる。
8)バッファモデルまたは仮説の参照復号器のコード化ピクチャバッファ動作に対して、ベースレイヤは、ゼロビットを有するとして考慮される。
9)バッファモデルまたは仮説の参照復号器の復号ピクチャバッファ動作に対して、エンハンスメントレイヤの復号ピクチャのみが考慮される。
[00149]ルールは、ELをコード化するコーダ(例えば、符号化器および/または復号器)によって実装されることができる。ルールのうちのいくつかまたはすべては、RLをコード化するコーダによって実装され得る。例えば、RLコーダは、ELコーダにRLピクチャに関する情報を提供するように修正されることができる。RLコーダによって実行されるとして示される任意の機能は、任意の他の外部手段によって実行されることができ、外部手段によって実行されるとして示される任意の機能は、RLコーダによって実行されることができる。ルールは、以上でベースレイヤとエンハンスメントレイヤの用語について説明されるが、ルールは、任意のエンハンスメントレイヤおよびその対応する参照レイヤに適用することができ、それは、ベースレイヤであるまたはベースレイヤでない。各ルールは、以下で順々に説明される。

ルール1−RLピクチャの情報
[00150]現在のAUがRLピクチャを含まない場合、外部手段は、RLピクチャに関する情報を全く提供しない。現在のAUがRLピクチャを含む場合、外部手段は、以下の情報の3つのタイプを提供する:
(1)RL復号ピクチャの復号サンプル値;
(2)ルーマサンプルにおける幅および高さと、カラーフォーマットと、ルーマビット深度と、クロマビット深度とを含む、RL復号ピクチャの表現フォーマット;
(3)RLピクチャがIDRピクチャか否か。
外部手段は、異なる標準を使用するマルチレイヤコーディングをサポートするためにRLピクチャに関する(1)乃至(3)のみを提供することができる。情報(3)は、ELピクチャの復号およびELピクチャの出力がいくつかの場合において(3)に依存するので重要である。
[00151]外部手段は、オプションとして以下の情報のタイプを提供し得る:
(4)ピクチャがフレームまたはフィールドであるかどうか、およびピクチャがフィールドである時の、(フィールドがトップフィールドまたはボトムフィールドであるかどうかを示す)フィールドパリティ。
[00152]フレームは、プログレッシブフレームであるピクチャを参照することができる。フィールドは、フレームのサンプル行の半分、奇数行または偶数行のいずれかを備える、インターレースピクチャであるピクチャを参照することができる。トップフィールドは、0から始まる数のインデックスを付された行を持つ、サンプル行の偶数を備えるフィールドを指すことができる。ボトムフィールドは、0から始まる数のインデックスを付された行を持つ、サンプル行の奇数を備えるフィールドを指すことができる。(4)が提供されない場合、復号RLピクチャは、フレームピクチャとなるべきであると推論される。
[00153]情報(1)乃至(4)のいずれかは、アプリケーションプログラミングインターフェース(API)または他の適切な方法を使用して提供されることができる。1つの例では、RLコーダは、復号RLピクチャをパスするためにAPIを有することができ、ELコーダは、復号RLピクチャを受け入れるためにAPIを有することができる。2つのAPIは、RLコーダからELコーダに復号RLピクチャ値を送るために結合されることができる。別の例では、RLコーダは、ファイルまたはバッファ中に復号RLピクチャを記憶することができ、ELコーダは、ファイルまたはバッファから復号RLピクチャにアクセスすることができる。

ルール2−RLピクチャの出力
[00154]RLコーダまたは別の外部手段は、RLピクチャの出力を取り扱う。オプションとして、一つの非参照レイヤ(例えば1つのEL)のみが存在することが指定され、それがターゲット出力レイヤのみである。したがって、ELコーダは、任意のRLピクチャを出力する必要がない。

ルール3−RL復号ピクチャのための復号ピクチャ記憶
[00155]ELコーダは、RL復号ピクチャのためのメモリのただ1つの復号ピクチャ記憶を維持し、RL復号ピクチャのための復号ピクチャ記憶は、DPBの一部を考慮しない。復号RLピクチャは、同じAU内のインターレイヤ予測(ILP)中でのみ一般に使用され、そのため、一旦、ELコーダが現在のAUを復号することを完了すると、現在のAUのための復号RLピクチャは、復号ピクチャ記憶から削除されることができる。したがって復号ピクチャ記憶のメモリサイズは、固定されたままにすることができ、RLピクチャのための復号ピクチャ記憶のための1つのフレームバッファサイズであることができる。

ルール4−アクセスユニットに対するRL復号ピクチャの関連性
[00156]RLコーダまたは別の外部手段は、AUに対するRL復号ピクチャの関連性を取り扱う。例えば、各ELピクチャは、特定のAUに属し、RLコーダまたは別の外部手段は、RL復号ピクチャを、ELにおけるAUにどのようにマッチさせるかを決定する。1つの実施形態では、RL復号ピクチャは、タイムスタンプに基づいてAUにマッチさせることができる。ELのためのビットストリームおよびBLのためのビットストリームの両方は、タイムスタンプを含み、RLコーダまたは別の外部手段は、タイムスタンプに基づいてELにおけるAUにRL復号ピクチャをマッチする。

ルール5−RL復号ピクチャのレイヤIDのセッティング
[00157]ELコーダは、RL復号ピクチャのnuh_layer_idを0にセットする。変数nuh_layer_idは、マルチレイヤコーディングにおけるレイヤの識別子を参照することができる。代替として、ELコーダは、RL復号ピクチャのnuh_layer_idを、AUにおけるすべてのELピクチャの間のnuh_layer_idの最小値を有するELピクチャのインターレイヤ参照ピクチャセットにおけるエントリーのnuh_layer_idにセットする。例えば、ILPのために使用されることができるELより低い1つまたは複数のレイヤがある場合、ELコーダは、RL復号ピクチャを、これらのレイヤからの最低nuh_layer_idにセットする。

ルール6−RL復号ピクチャのピクチャ順序カウントのセッティング
[00158]ELコーダは、RL復号ピクチャのPOCをエンハンスメントレイヤピクチャのPOCに等しくなるようにセットする。RL復号ピクチャのPOCは、ELコーダによって復号された時とRLコーダによって復号された時とで異なり得る。ELコーダがRL復号ピクチャの復号サンプル値のみを受信するので、ELコーダは、RL復号ピクチャのPOCにアクセスし得るまたはし得ない。ELコーダは、RLコーダによって取得されるピクチャのオリジナルPOC値を知る必要はない。ELコーダは、RL復号ピクチャのPOCをELピクチャのPOCに等しくなるように簡単にセットすることができる。

ルール7−RL復号ピクチャのマーキング
[00159]ELコーダは、「長期間参照のために使用される」としてRL復号ピクチャをマークする。RL復号ピクチャは、「長期間参照のために使用される」としてマークされない場合、あるスケーリング動作は、RLピクチャおよびELピクチャのPOC値のデルタによる分割動作を含むことができる、ILPのために実行され得る。ELコーダがELピクチャのPOCと同じであるようにRL復号ピクチャのPOCをセットするので、これは0によって分割することを含むだろう。したがって、0による分割動作を防止するために、ELコーダは、「長期間参照のために使用される」としてRL復号ピクチャをマークすることができる。

ルール8−コード化ピクチャバッファ動作
[00160]バッファモデルまたは仮説参照復号器(HRD)のコード化ピクチャバッファ(CPB)動作に対して、ELコーダは、ゼロビットを有するとしてRLを考慮する。HRDは、ネットワーク接続からビットストリームを受信することおよびビットストリームを復号することのためのバッファモデルを参照することができる。たとえば、ビットストリームは、圧縮されたピクチャであるコード化ピクチャを含み、コード化ピクチャが復号のためにCPB中に記憶される。ELコーダが外部手段からRL復号ピクチャの復号サンプル値を受信するので、ELコーダは、CPB動作に関連するRLピクチャのためのコード化ピクチャを考慮に入れる必要がない。

ルール9−復号ピクチャバッファ動作
[00161]バッファモデルまたはHRDの復号ピクチャバッファ動作に対して、ELコーダは、エンハンスメントレイヤの復号ピクチャのみを考慮に入れる。上述したように、RL復号ピクチャは、ELコーダによって復号されず、DPBの一部であると考慮されない別個の復号ピクチャ記憶中に記憶される。したがって、ELコーダは、DPB動作に関連して復号RLピクチャを考慮しない。

異なる標準を使用するマルチレイヤコーディングをサポートする方法
[00162]図5は、本開示の一実施形態による、ビデオ情報をコーディングする方法を示すフローチャートである。本方法は、異なる標準を使用してマルチレイヤコーディングのためのサポートを提供することに関する。プロセス500は、実施形態によっては、符号化器(たとえば、図2A、図2Bなどに示されている符号化器)、復号器(たとえば、図3A、図3Bなどに示されている復号器)、または任意の他の構成要素によって実行され得る。プロセス500のブロックについて図3B中の復号器33に関して説明するが、プロセス500は、上述のように、符号化器など、他の構成要素によって実行され得る。復号器33のレイヤ1ビデオ復号器30Bおよび/または復号器33のレイヤ0復号器30Aが、実施形態によっては、プロセス500を実行し得る。図5に関して説明するすべての実施形態は、別々に、または互いと組み合わせて実装され得る。プロセス500に関係するいくつかの詳細が、たとえば、図4に関して上記および以下で説明されている。
[00163]プロセス500は、ブロック501において開始する。復号器33は、エンハンスメントレイヤ(EL)および対応する参照レイヤ(RL)に関連付けられたビデオ情報ビデオ情報を記憶するためのメモリを含むことができる。
[00164]ブロック502で、復号器33は、現在のアクセスユニット(AU)における参照レイヤピクチャと関連する情報を取得する。RLは、標準(例えば、H.264/AVC)を使用してコード化される。RLをコード化するために使用される標準はまた、「RL標準」と呼ばれ得る。RLピクチャに関連する情報は、(1)RLピクチャの復号サンプル値、(2)RLピクチャの表現フォーマット、(3)RLピクチャが瞬時復号リフレッシュ(IDR)ピクチャか否かのインジケーションから成ることができる。RLピクチャに関連する情報は、外部手段または装置、例えば、復号器に対して外部、によって提供されることができる。1つの実施形態では、外部手段は、RL標準を使用してビデオ情報をコード化するように構成されるコーダである。例えば、コーダは、RLをコード化するために使用されたコーダまたは任意の他の外部手段であることができる。RLピクチャの表現フォーマットは、RLピクチャの幅、RLピクチャの高さ、RLピクチャのカラーフォーマット、RLピクチャのルーマコンポーネントのビット深度、RLピクチャのクロマコンポーネントのビット深度のうちの少なくとも1つを含むことができる。RLピクチャの幅とRLピクチャの高さは、ルーマサンプルのユニットにおいて指定され得る。1つの実施形態では、情報は、1つまたは複数のアプリケーションプログラミングインターフェース(API)を使用して提供される。他の実施形態では、情報は、ファイル、バッファ、または他の適切な手段を使用して提供される。
[00165]いくつかの実施形態では、復号器33は、現在のAUにおけるRLピクチャに関連する追加情報を受信する。追加情報は、(4)RLピクチャがフレームまたはフィールドであるかどうかのインジケーションを含むことができる。RLピクチャがフィールドである場合、追加情報は、(5)フィールドパリティをさらに含む。追加情報は、オプションであることができる。
[00166]ブロック503で、復号器33は、取得された情報に基づいて現在のAUにおけるELピクチャをコード化する。ELピクチャは、RLをコード化するために使用される標準と異なる標準(例えば、H.265/HEVCまたはSHVC)を使用してコード化される。1つの実施形態では、RLをコード化するために使用した標準は、H.264/AVCであり、ELをコード化するために使用した標準は、H.265/HEVCまたはSHVCである。ELをコード化するために使用した標準は、「EL標準」と呼ばれ得る。
[00167]いくつかの実施形態では、復号器33は、以下の特徴のうちの1つまたは複数を実装し得る:
・ 復号器33は、RL復号ピクチャの出力を取り扱わない。例えば、復号器33は、RLピクチャの復号サンプル値を出力しないように構成される。
・ 復号器33のメモリは、復号ピクチャバッファ(DPB)を含み、復号器33は、DPBの一部でない復号ピクチャ記憶中のRLピクチャの復号サンプル値を記憶する。
・ 復号器33は、ELにおけるAUに対してRLピクチャの関連性を取り扱わない。例えば、復号器33は、RL標準を使用してビデオ情報をコード化するように構成されるコーダからRLピクチャのAUを取得する。コーダは、ELビットストリームおよびBLビットストリーム中のタイムスタンプに基づいて、EL中のAUにRLピクチャを関連付け得、復号器33によって要求された場合、RLピクチャのAuを提供する。
・ 復号器33は、RLピクチャのレイヤ識別子(例えば、nuh_layer_ID)をELピクチャのレイヤ識別子に等しくなるようにセットする。
・ 復号器33は、RLピクチャのピクチャ順序カウント(POC)をELピクチャのPOCに等しくなるようにセットする。
・ 復号器33は、長期間参照ピクチャ(例えば「長期間参照」のために使用される)としてRLピクチャをマークする。
・ 復号器33のメモリは、コード化ピクチャバッファ(CPB)を含み、復号器33は、CPB動作のために0ビットを有するようにRLを考慮する。例えば、復号器33は、CPB動作中に0ビットを有するようにRLをセットする。
・ 復号器33は、DPB動作のためのELの復号ピクチャのみを考慮する。例えば、復号器33は、DPB動作中のRLピクチャの復号サンプル値を参照しないように構成される。
[00168]プロセス500はブロック504において終了する。ブロックは、実施形態によっては、プロセス500において追加および/または省略され得、プロセス500のブロックは、実施形態によっては、異なる順序で実行され得る。
[00169]本開示における異なる標準を使用してマルチレイヤコーディングのためのサポートに関して説明したいかなる特徴および/または実施形態も、別々に、またはそれらの任意の組合せで実装され得る。たとえば、図1〜図4に関して説明したいかなる特徴および/または実施形態、ならびに本開示の他の部分も、図5に関して説明した任意の特徴および/または実施形態との任意の組合せで実装され得、その逆も同様である。
[00170]本明細書で開示される情報および信号は、多種多様な技術および技法のいずれかを使用して表され得る。たとえば、上記の説明全体にわたって言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、およびチップは、電圧、電流、電磁波、磁界または磁性粒子、光場または光学粒子、あるいはそれらの任意の組合せによって表され得る。
[00171]本明細書で開示した実施形態に関して説明した様々な例示的な論理ブロック、回路、およびアルゴリズムステップは、電子ハードウェア、コンピュータソフトウェア、またはその両方の組合せとして実装され得る。ハードウェアとソフトウェアのこの互換性を明確に示すために、様々な例示的な構成要素、ブロック、モジュール、回路、およびステップについて、概してそれらの機能に関して上記で説明した。そのような機能をハードウェアとして実装するか、ソフトウェアとして実装するかは、特定の適用例および全体的なシステムに課される設計制約に依存する。当業者は、説明した機能を特定の適用例ごとに様々な方法で実装し得るが、そのような実装の決定は、本発明の範囲からの逸脱を生じるものと解釈すべきではない。
[00172]本明細書で説明した技術は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの任意の組合せで実装され得る。そのような技法は、汎用コンピュータ、ワイヤレス通信デバイスハンドセット、またはワイヤレス通信デバイスハンドセットおよび他のデバイスにおける適用例を含む複数の用途を有する集積回路デバイスなど、様々なデバイスのいずれかにおいて実装され得る。モジュールまたは構成要素として説明した特徴は、集積論理デバイスに一緒に、または個別であるが相互運用可能な論理デバイスとして別々に実装され得る。ソフトウェアで実装した場合、本技法は、実行されたとき、上記で説明した方法のうちの1つまたは複数を実行する命令を含むプログラムコードを備えるコンピュータ可読データ記憶媒体によって、少なくとも部分的に実現され得る。コンピュータ可読データ記憶媒体は、パッケージング材料を含むことがあるコンピュータプログラム製品の一部を形成し得る。コンピュータ可読媒体は、同期型ダイナミックランダムアクセスメモリ(SDRAM)などのランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、不揮発性ランダムアクセスメモリ(NVRAM)、電気消去可能プログラマブル読取り専用メモリ(EEPROM(登録商標))、フラッシュメモリ、磁気または光学データ記憶媒体などの、メモリまたはデータ記憶媒体を備え得る。本技法は、追加または代替として、伝搬信号または電波など、命令またはデータ構造の形態でプログラムコードを搬送または伝達し、コンピュータによってアクセスされ、読み取られ、および/または実行され得るコンピュータ可読通信媒体によって、少なくとも部分的に実現され得る。
[00173]プログラムコードは、1つまたは複数のデジタル信号プロセッサ(DSP)、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルロジックアレイ(FPGA)、または他の等価の集積回路またはディスクリート論理回路など、1つまたは複数のプロセッサを含み得るプロセッサによって実行され得る。そのようなプロセッサは、本開示で説明する技法のいずれかを実行するように構成され得る。汎用プロセッサはマイクロプロセッサであり得るが、代替として、プロセッサは、任意の従来のプロセッサ、コントローラ、マイクロコントローラ、または状態機械であり得る。プロセッサはまた、コンピューティングデバイスの組合せ、たとえば、DSPとマイクロプロセッサとの組合せ、複数のマイクロプロセッサ、DSPコアと連携する1つまたは複数のマイクロプロセッサ、あるいは任意の他のそのような構成として実装され得る。したがって、本明細書で使用する「プロセッサ」という用語は、上記の構造、上記の構造の任意の組合せ、または本明細書で説明する技法の実装に好適な他の構造または装置のいずれかを指すことがある。さらに、いくつかの態様では、本明細書で説明した機能は、符号化および復号のために構成された専用のソフトウェアモジュールもしくはハードウェアモジュール内に提供され得、または複合ビデオ符号化器/復号器(コーデック)に組み込まれ得る。また、本技法は、1つまたは複数の回路または論理要素中に十分に実装され得る。
[00174]本開示の技法は、ワイヤレスハンドセット、集積回路(IC)またはICのセット(たとえば、チップセット)を含む、多種多様なデバイスまたは装置で実装され得る。本開示では、開示する技法を実行するように構成されたデバイスの機能的態様を強調するために、様々な構成要素、モジュール、またはユニットについて説明したが、それらの構成要素、モジュール、またはユニットは、必ずしも異なるハードウェアユニットによる実現を必要とするとは限らない。むしろ、上記で説明したように、様々なユニットが、好適なソフトウェアおよび/またはファームウェアとともに、上記で説明した1つまたは複数のプロセッサを含めて、コーデックハードウェアユニットにおいて組み合わせられるか、または相互動作可能なハードウェアユニットの集合によって提供され得る。
[00175]本開示の様々な実施形態について説明した。これらおよび他の実施形態は以下の特許請求の範囲内に入る。
[00175]本開示の様々な実施形態について説明した。これらおよび他の実施形態は以下の特許請求の範囲内に入る。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1]
コーディングビデオ情報のための装置であって、
エンハンスメントレイヤ(EL)および対応する参照レイヤ(RL)に関連するビデオ情報を記憶するように構成されるメモリと、
前記メモリに動作可能に結合されるプロセッサと
を備え、前記プロセッサは、
現在のアクセスユニット(AU)におけるELピクチャをコード化することを行うように構成され、前記ELは、前記RLをコード化するために使用される第2の標準と異なる第1の標準を使用してコード化され、前記ELピクチャを前記コード化することは、前記現在のアクセスユニットにおけるRLピクチャに関連する情報に基づき、前記RLピクチャに関連する前記情報は、外部手段によって提供され、
(1)前記Rlピクチャの復号サンプル値、
(2)前記RLピクチャの表現フォーマット、
(3)前記RLピクチャが瞬時復号リフレッシュ(IDR)ピクチャであるかどうかのインジケーション
から成る、装置。
[C2]
前記外部手段は、前記第2の標準を使用してビデオ情報をコード化するように構成されるコーダである、
C1に記載の装置。
[C3]
前記プロセッサは、
前記現在のAUにおける前記RLピクチャに関連する第2の情報を受信すること、前記第2の情報は、(4)前記RLピクチャがフレームまたはフィールドであるかどうかのインジケーションを備える、と、
前記第2の情報および前記現在のAUにおける前記RLピクチャに関連する前記情報に基づいて前記ELピクチャをコード化することと
を行うようにさらに構成される、C1に記載の装置。
[C4]
前記RLピクチャがフィールドである場合、前記RLピクチャに関連する前記第2の情報は、(5)フィールドパリティをさらに備える、
C3に記載の装置。
[C5]
前記第1の標準は、H.265/HEVCビデオコーディング標準であり、前記第2の標準は、H.264/AVCビデオコーディング標準である、
C1に記載の装置。
[C6]
前記プロセッサは、前記RLピクチャの前記復号サンプル値を出力しないことを行うようにさらに構成される、
C1に記載の装置。
[C7]
前記メモリは、復号ピクチャバッファ(DPB)を含み、前記プロセッサは、前記復号ピクチャバッファの一部でない、復号ピクチャ記憶中に前記RLピクチャの前記復号サンプル値を記憶することを行うようにさらに構成される、
C6に記載の装置。
[C8]
前記プロセッサは、前記RLピクチャが属するアクセスユニットに関する情報を前記外部装置から取得することを行うようにさらに構成される、
C7に記載の装置。
[C9]
前記プロセッサは、前記RLピクチャのレイヤ識別子を前記ELピクチャのレイヤ識別子に等しくなるようにセットすることを行うようにさらに構成される、
C8に記載の装置。
[C10]
前記プロセッサは、前記RLピクチャのピクチャ順序カウント(POC)を前記ELピクチャのPOCに等しくなるようにセットすることを行うようにさらに構成される、
C9に記載の装置。
[C11]
前記プロセッサは、長期間参照ピクチャとして前記RLピクチャをマークすることを行うようにさらに構成される、
C10に記載の装置。
[C12]
前記メモリは、コード化ピクチャバッファ(CPB)を含み、前記プロセッサは、CPB動作における0ビットを有するように前記RLをセットすることを行うようにさらに構成される、
C11に記載の装置。
[C13]
前記プロセッサは、DPB動作における前記RLピクチャの前記復号サンプル値を参照しないことを行うようにさらに構成される、
C12に記載の装置。
[C14]
前記RLピクチャの前記表現フォーマットは、前記RLピクチャの幅、前記RLピクチャの高さ、前記RLピクチャのカラーフォーマット、前記RLピクチャのルーマコンポーネントのビット深度、または前記RLピクチャのクロマコンポーネントのビット深度のうちの少なくとも1つを備える、
C1に記載の装置。
[C15]
前記RLピクチャの前記幅および前記RLピクチャの前記高さは、ルーマサンプルのユニットにおいて指定される、
C14に記載の装置。
[C16]
前記RLピクチャに関連する前記情報は1つまたは複数のアプリケーションプログラミングインターフェース(API)を使用して提供される、
C1に記載の装置。
[C17]
前記装置は、デスクトップコンピュータ、ノートブックコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、セットトップボックス、電話ハンドセット、スマートフォン、スマートパッド、テレビジョン、カメラ、ディスプレイデバイス、デジタルメディアプレーヤ、ビデオゲームコンソール、およびビデオストリーミングデバイスのうちの1つまたは複数からなるグループから選択される、
C1に記載の装置。
[C18]
コーディングビデオ情報の方法であって、
1つまたは複数のコンピュータハードウェアを備える1つまたは複数のコンピューティングデバイスを使用して、メモリ中に、エンハンスメントレイヤ(EL)および対応する参照レイヤ(RL)に関連するビデオ情報を記憶することと、
前記1つまたは複数のコンピュータハードウェアを備える1つまたは複数のコンピューティングデバイスを使用して、現在のアクセスユニット(AU)におけるELピクチャをコード化することと
を備え、前記ELは、前記RLをコード化するために使用される第2の標準と異なる第1の標準を使用してコード化され、前記ELピクチャを前記コード化することは、前記現在のアクセスユニットにおけるRLピクチャに関連する情報に基づき、前記RLピクチャに関連する前記情報は、外部手段によって提供され、
(1)前記Rlピクチャの復号サンプル値、
(2)前記RLピクチャの表現フォーマット、
(3)前記RLピクチャが瞬時復号リフレッシュ(IDR)ピクチャであるかどうかのインジケーション
から成る、方法。
[C19]
前記1つまたは複数のコンピューティングデバイスは、前記RLピクチャの前記復号サンプル値を出力しないことを行うように構成される、
C18に記載の方法。
[C20]
前記メモリは、復号ピクチャバッファ(DPB)を含み、前記方法は、前記復号ピクチャバッファの一部でない復号ピクチャ記憶中に前記RLピクチャの前記復号サンプル値を記憶することをさらに備える、
C19に記載の方法。
[C21]
前記RLピクチャが属するアクセスユニットに関する情報を前記外部装置から取得することをさらに備える、
C20に記載の方法。
[C22]
前記RLピクチャのレイヤ識別子を前記ELピクチャのレイヤ識別子に等しくなるようにセットすることをさらに備える、
C21に記載の方法。
[C23]
前記RLピクチャのピクチャ順序カウント(POC)を前記ELピクチャのPOCに等しくなるようにセットすることをさらに備える、
C22に記載の方法。
[C24]
長期間参照ピクチャとして前記RLピクチャをマークすることをさらに備える、
C23に記載の方法。
[C25]
前記メモリは、コード化ピクチャバッファ(CPB)を含み、前記方法は、CPB動作における0ビットを有するように前記RLをセットすることをさらに備える、
C24に記載の方法。
[C26]
前記1つまたは複数のコンピューティングデバイスは、DPB動作における前記RLピクチャの前記復号サンプル値を参照しないことを行うようにさらに構成される、
C25に記載の方法。
[C27]
前記RLピクチャの前記表現フォーマットは、前記RLピクチャの幅、前記RLピクチャの高さ、前記RLピクチャのカラーフォーマット、前記RLピクチャのルーマコンポーネントのビット深度、または前記RLピクチャのクロマコンポーネントのビット深度のうちの少なくとも1つを備える、
C18に記載の方法。
[C28]
コンピュータハードウェアを備えるプロセッサ上で実行されると、前記プロセッサに、
エンハンスメントレイヤ(EL)および対応する参照レイヤ(RL)に関連するビデオ情報を記憶することと、
現在のアクセスユニット(AU)におけるELピクチャをコード化することと
を行わせる命令を備え、前記ELは、前記RLをコード化するために使用される第2の標準と異なる第1の標準を使用してコード化され、前記ELピクチャを前記コード化することは、前記現在のアクセスユニットにおけるRLピクチャに関連する情報に基づき、前記RLピクチャに関連する前記情報は、外部手段によって提供され、
(1)前記Rlピクチャの復号サンプル値、
(2)前記RLピクチャの表現フォーマット、
(3)前記RLピクチャが瞬時復号リフレッシュ(IDR)ピクチャであるかどうかのインジケーション
から成る、非一時的コンピュータ可読媒体。
[C29]
前記外部手段は、前記第2の標準を使用してビデオ情報をコード化するように構成されるコーダである、
C28に記載の非一時的コンピュータ可読媒体。
[C30]
コーディングビデオ情報のための装置であって、
エンハンスメントレイヤ(EL)および対応する参照レイヤ(RL)に関連するビデオ情報を記憶するための手段と、
現在のアクセスユニット(AU)におけるELピクチャをコード化するための手段と
を備え、前記ELは、前記RLをコード化するために使用された第2の標準と異なる第1の標準を使用してコード化され、前記ELピクチャを前記コード化することは、前記現在のアクセスユニットにおけるRLピクチャに関連する情報に基づき、前記RLピクチャに関連する前記情報は、外部手段によって提供され、
(1)前記Rlピクチャの復号サンプル値、
(2)前記RLピクチャの表現フォーマット、
(3)前記RLピクチャが瞬時復号リフレッシュ(IDR)ピクチャであるかどうかのインジケーション
から成る、装置。

Claims (30)

  1. コーディングビデオ情報のための装置であって、
    エンハンスメントレイヤ(EL)および対応する参照レイヤ(RL)に関連するビデオ情報を記憶するように構成されるメモリと、
    前記メモリに動作可能に結合されるプロセッサと
    を備え、前記プロセッサは、
    現在のアクセスユニット(AU)におけるELピクチャをコード化することを行うように構成され、前記ELは、前記RLをコード化するために使用される第2の標準と異なる第1の標準を使用してコード化され、前記ELピクチャを前記コード化することは、前記現在のアクセスユニットにおけるRLピクチャに関連する情報に基づき、前記RLピクチャに関連する前記情報は、外部手段によって提供され、
    (1)前記Rlピクチャの復号サンプル値、
    (2)前記RLピクチャの表現フォーマット、
    (3)前記RLピクチャが瞬時復号リフレッシュ(IDR)ピクチャであるかどうかのインジケーション
    から成る、装置。
  2. 前記外部手段は、前記第2の標準を使用してビデオ情報をコード化するように構成されるコーダである、
    請求項1に記載の装置。
  3. 前記プロセッサは、
    前記現在のAUにおける前記RLピクチャに関連する第2の情報を受信すること、前記第2の情報は、(4)前記RLピクチャがフレームまたはフィールドであるかどうかのインジケーションを備える、と、
    前記第2の情報および前記現在のAUにおける前記RLピクチャに関連する前記情報に基づいて前記ELピクチャをコード化することと
    を行うようにさらに構成される、請求項1に記載の装置。
  4. 前記RLピクチャがフィールドである場合、前記RLピクチャに関連する前記第2の情報は、(5)フィールドパリティをさらに備える、
    請求項3に記載の装置。
  5. 前記第1の標準は、H.265/HEVCビデオコーディング標準であり、前記第2の標準は、H.264/AVCビデオコーディング標準である、
    請求項1に記載の装置。
  6. 前記プロセッサは、前記RLピクチャの前記復号サンプル値を出力しないことを行うようにさらに構成される、
    請求項1に記載の装置。
  7. 前記メモリは、復号ピクチャバッファ(DPB)を含み、前記プロセッサは、前記復号ピクチャバッファの一部でない、復号ピクチャ記憶中に前記RLピクチャの前記復号サンプル値を記憶することを行うようにさらに構成される、
    請求項6に記載の装置。
  8. 前記プロセッサは、前記RLピクチャが属するアクセスユニットに関する情報を前記外部装置から取得することを行うようにさらに構成される、
    請求項7に記載の装置。
  9. 前記プロセッサは、前記RLピクチャのレイヤ識別子を前記ELピクチャのレイヤ識別子に等しくなるようにセットすることを行うようにさらに構成される、
    請求項8に記載の装置。
  10. 前記プロセッサは、前記RLピクチャのピクチャ順序カウント(POC)を前記ELピクチャのPOCに等しくなるようにセットすることを行うようにさらに構成される、
    請求項9に記載の装置。
  11. 前記プロセッサは、長期間参照ピクチャとして前記RLピクチャをマークすることを行うようにさらに構成される、
    請求項10に記載の装置。
  12. 前記メモリは、コード化ピクチャバッファ(CPB)を含み、前記プロセッサは、CPB動作における0ビットを有するように前記RLをセットすることを行うようにさらに構成される、
    請求項11に記載の装置。
  13. 前記プロセッサは、DPB動作における前記RLピクチャの前記復号サンプル値を参照しないことを行うようにさらに構成される、
    請求項12に記載の装置。
  14. 前記RLピクチャの前記表現フォーマットは、前記RLピクチャの幅、前記RLピクチャの高さ、前記RLピクチャのカラーフォーマット、前記RLピクチャのルーマコンポーネントのビット深度、または前記RLピクチャのクロマコンポーネントのビット深度のうちの少なくとも1つを備える、
    請求項1に記載の装置。
  15. 前記RLピクチャの前記幅および前記RLピクチャの前記高さは、ルーマサンプルのユニットにおいて指定される、
    請求項14に記載の装置。
  16. 前記RLピクチャに関連する前記情報は1つまたは複数のアプリケーションプログラミングインターフェース(API)を使用して提供される、
    請求項1に記載の装置。
  17. 前記装置は、デスクトップコンピュータ、ノートブックコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、セットトップボックス、電話ハンドセット、スマートフォン、スマートパッド、テレビジョン、カメラ、ディスプレイデバイス、デジタルメディアプレーヤ、ビデオゲームコンソール、およびビデオストリーミングデバイスのうちの1つまたは複数からなるグループから選択される、
    請求項1に記載の装置。
  18. コーディングビデオ情報の方法であって、
    1つまたは複数のコンピュータハードウェアを備える1つまたは複数のコンピューティングデバイスを使用して、メモリ中に、エンハンスメントレイヤ(EL)および対応する参照レイヤ(RL)に関連するビデオ情報を記憶することと、
    前記1つまたは複数のコンピュータハードウェアを備える1つまたは複数のコンピューティングデバイスを使用して、現在のアクセスユニット(AU)におけるELピクチャをコード化することと
    を備え、前記ELは、前記RLをコード化するために使用される第2の標準と異なる第1の標準を使用してコード化され、前記ELピクチャを前記コード化することは、前記現在のアクセスユニットにおけるRLピクチャに関連する情報に基づき、前記RLピクチャに関連する前記情報は、外部手段によって提供され、
    (1)前記Rlピクチャの復号サンプル値、
    (2)前記RLピクチャの表現フォーマット、
    (3)前記RLピクチャが瞬時復号リフレッシュ(IDR)ピクチャであるかどうかのインジケーション
    から成る、方法。
  19. 前記1つまたは複数のコンピューティングデバイスは、前記RLピクチャの前記復号サンプル値を出力しないことを行うように構成される、
    請求項18に記載の方法。
  20. 前記メモリは、復号ピクチャバッファ(DPB)を含み、前記方法は、前記復号ピクチャバッファの一部でない復号ピクチャ記憶中に前記RLピクチャの前記復号サンプル値を記憶することをさらに備える、
    請求項19に記載の方法。
  21. 前記RLピクチャが属するアクセスユニットに関する情報を前記外部装置から取得することをさらに備える、
    請求項20に記載の方法。
  22. 前記RLピクチャのレイヤ識別子を前記ELピクチャのレイヤ識別子に等しくなるようにセットすることをさらに備える、
    請求項21に記載の方法。
  23. 前記RLピクチャのピクチャ順序カウント(POC)を前記ELピクチャのPOCに等しくなるようにセットすることをさらに備える、
    請求項22に記載の方法。
  24. 長期間参照ピクチャとして前記RLピクチャをマークすることをさらに備える、
    請求項23に記載の方法。
  25. 前記メモリは、コード化ピクチャバッファ(CPB)を含み、前記方法は、CPB動作における0ビットを有するように前記RLをセットすることをさらに備える、
    請求項24に記載の方法。
  26. 前記1つまたは複数のコンピューティングデバイスは、DPB動作における前記RLピクチャの前記復号サンプル値を参照しないことを行うようにさらに構成される、
    請求項25に記載の方法。
  27. 前記RLピクチャの前記表現フォーマットは、前記RLピクチャの幅、前記RLピクチャの高さ、前記RLピクチャのカラーフォーマット、前記RLピクチャのルーマコンポーネントのビット深度、または前記RLピクチャのクロマコンポーネントのビット深度のうちの少なくとも1つを備える、
    請求項18に記載の方法。
  28. コンピュータハードウェアを備えるプロセッサ上で実行されると、前記プロセッサに、
    エンハンスメントレイヤ(EL)および対応する参照レイヤ(RL)に関連するビデオ情報を記憶することと、
    現在のアクセスユニット(AU)におけるELピクチャをコード化することと
    を行わせる命令を備え、前記ELは、前記RLをコード化するために使用される第2の標準と異なる第1の標準を使用してコード化され、前記ELピクチャを前記コード化することは、前記現在のアクセスユニットにおけるRLピクチャに関連する情報に基づき、前記RLピクチャに関連する前記情報は、外部手段によって提供され、
    (1)前記Rlピクチャの復号サンプル値、
    (2)前記RLピクチャの表現フォーマット、
    (3)前記RLピクチャが瞬時復号リフレッシュ(IDR)ピクチャであるかどうかのインジケーション
    から成る、非一時的コンピュータ可読媒体。
  29. 前記外部手段は、前記第2の標準を使用してビデオ情報をコード化するように構成されるコーダである、
    請求項28に記載の非一時的コンピュータ可読媒体。
  30. コーディングビデオ情報のための装置であって、
    エンハンスメントレイヤ(EL)および対応する参照レイヤ(RL)に関連するビデオ情報を記憶するための手段と、
    現在のアクセスユニット(AU)におけるELピクチャをコード化するための手段と
    を備え、前記ELは、前記RLをコード化するために使用された第2の標準と異なる第1の標準を使用してコード化され、前記ELピクチャを前記コード化することは、前記現在のアクセスユニットにおけるRLピクチャに関連する情報に基づき、前記RLピクチャに関連する前記情報は、外部手段によって提供され、
    (1)前記Rlピクチャの復号サンプル値、
    (2)前記RLピクチャの表現フォーマット、
    (3)前記RLピクチャが瞬時復号リフレッシュ(IDR)ピクチャであるかどうかのインジケーション
    から成る、装置。
JP2016544389A 2014-01-03 2014-12-30 マルチレイヤビデオコーディングにおける異なるコーデックのベースレイヤのサポート Active JP6513684B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201461923529P 2014-01-03 2014-01-03
US61/923,529 2014-01-03
US14/584,473 2014-12-29
US14/584,473 US9832481B2 (en) 2014-01-03 2014-12-29 Support of base layer of a different codec in multi-layer video coding
PCT/US2014/072698 WO2015103224A1 (en) 2014-01-03 2014-12-30 Support of base layer of a different codec in multi-layer video coding

Publications (3)

Publication Number Publication Date
JP2017508336A true JP2017508336A (ja) 2017-03-23
JP2017508336A5 JP2017508336A5 (ja) 2018-01-25
JP6513684B2 JP6513684B2 (ja) 2019-05-15

Family

ID=52394375

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016544389A Active JP6513684B2 (ja) 2014-01-03 2014-12-30 マルチレイヤビデオコーディングにおける異なるコーデックのベースレイヤのサポート

Country Status (8)

Country Link
US (1) US9832481B2 (ja)
EP (1) EP3090551B1 (ja)
JP (1) JP6513684B2 (ja)
KR (1) KR102127549B1 (ja)
CN (1) CN105850130B (ja)
BR (1) BR112016015453B1 (ja)
CA (1) CA2930331C (ja)
WO (1) WO2015103224A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3672245A1 (en) * 2013-04-05 2020-06-24 Samsung Electronics Co., Ltd. Multi-layer video coding method for random access and device therefor, and multi-layer video decoding method for random access and device therefor
US20150195549A1 (en) 2014-01-08 2015-07-09 Qualcomm Incorporated Support of non-hevc base layer in hevc multi-layer extensions
US10448069B2 (en) * 2015-02-05 2019-10-15 Cisco Technology, Inc. PVR assist information for HEVC bitstreams
US10455242B2 (en) 2015-03-04 2019-10-22 Qualcomm Incorporated Signaling output indications in codec-hybrid multi-layer video coding
US10523895B2 (en) 2016-09-26 2019-12-31 Samsung Display Co., Ltd. System and method for electronic data communication
US10469857B2 (en) 2016-09-26 2019-11-05 Samsung Display Co., Ltd. System and method for electronic data communication
US10616383B2 (en) 2016-09-26 2020-04-07 Samsung Display Co., Ltd. System and method for electronic data communication
US10075671B2 (en) 2016-09-26 2018-09-11 Samsung Display Co., Ltd. System and method for electronic data communication
WO2019162230A1 (en) * 2018-02-20 2019-08-29 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Picture/video coding supporting varying resolution and/or efficiently handling region-wise packing
US11356698B2 (en) * 2019-12-30 2022-06-07 Tencent America LLC Method for parameter set reference constraints in coded video stream
WO2021170091A1 (en) 2020-02-29 2021-09-02 Beijing Bytedance Network Technology Co., Ltd. Constrains for high level syntax elements
WO2021233449A1 (en) 2020-05-22 2021-11-25 Beijing Bytedance Network Technology Co., Ltd. Reserved bits in general constraint information of a video
CN115769586A (zh) * 2020-05-28 2023-03-07 抖音视界有限公司 视频编解码中的参考图片列表信令通知
US11706497B1 (en) * 2022-02-11 2023-07-18 Microsoft Technology Licensing, Llc Ultra-low latency video streaming

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130195186A1 (en) * 2012-02-01 2013-08-01 Futurewei Technologies, Inc. Scalable Video Coding Extensions for High Efficiency Video Coding
JP2015002495A (ja) * 2013-06-18 2015-01-05 シャープ株式会社 画像復号装置、および画像符号化装置
WO2015054634A2 (en) * 2013-10-11 2015-04-16 Vid Scale, Inc. High level syntax for hevc extensions

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8705617B2 (en) * 2005-09-27 2014-04-22 Qualcomm Incorporated Multiple layer video encoding
KR100781524B1 (ko) * 2006-04-04 2007-12-03 삼성전자주식회사 확장 매크로블록 스킵 모드를 이용한 인코딩/디코딩 방법및 장치
US9467689B2 (en) * 2010-07-08 2016-10-11 Dolby Laboratories Licensing Corporation Systems and methods for multi-layered image and video delivery using reference processing signals
US9357197B2 (en) 2012-05-24 2016-05-31 Dolby Laboratories Licensing Corporation Multi-layer backwards-compatible video delivery for enhanced dynamic range and enhanced resolution formats
KR101775250B1 (ko) * 2012-09-28 2017-09-05 노키아 테크놀로지스 오와이 비디오 코딩 및 디코딩을 위한 장치, 방법 및 컴퓨터 프로그램
EP3672245A1 (en) * 2013-04-05 2020-06-24 Samsung Electronics Co., Ltd. Multi-layer video coding method for random access and device therefor, and multi-layer video decoding method for random access and device therefor
CN105659599B (zh) * 2013-10-14 2019-04-12 瑞典爱立信有限公司 可缩放视频中的图序计数对齐
EP3058734B1 (en) * 2013-10-15 2020-06-24 Nokia Technologies Oy Buffering parameters in scalable video coding and decoding

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130195186A1 (en) * 2012-02-01 2013-08-01 Futurewei Technologies, Inc. Scalable Video Coding Extensions for High Efficiency Video Coding
JP2015002495A (ja) * 2013-06-18 2015-01-05 シャープ株式会社 画像復号装置、および画像符号化装置
WO2015054634A2 (en) * 2013-10-11 2015-04-16 Vid Scale, Inc. High level syntax for hevc extensions

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
MISKA M. HANNUKSELA: "MV-HEVC/SHVC HLS: On non-HEVC base layer", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JCTVC-O0166, JPN6018044917, October 2013 (2013-10-01), pages 1 - 3, ISSN: 0003918712 *
MISKA M. HANNUKSELA: "MV-HEVC/SHVC HLS: On non-HEVC base layer", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JCTVC-P0140, JPN6018044919, January 2014 (2014-01-01), pages 1 - 4, ISSN: 0003918714 *
SACHIN DESHPANDE: "On Inter-layer Reference Picture Set", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JCTVC-O0120-r2, JPN6018044918, October 2013 (2013-10-01), pages 1 - 8, ISSN: 0003918713 *
SHUO LU AND KAZUSHI SATO: "AHG9: Inter-layer RPS Prediction", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JCTVC-M0140r1, JPN6018044916, April 2013 (2013-04-01), pages 1 - 9, ISSN: 0003918711 *
YE-KUI WANG ET AL.: "Support of AVC base layer in SHVC", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11, vol. JCTVC-P0184v4, JPN6018044920, February 2014 (2014-02-01), pages 1 - 2, ISSN: 0003918715 *

Also Published As

Publication number Publication date
JP6513684B2 (ja) 2019-05-15
EP3090551A1 (en) 2016-11-09
BR112016015453A2 (pt) 2017-08-08
KR20160102074A (ko) 2016-08-26
WO2015103224A1 (en) 2015-07-09
CA2930331A1 (en) 2015-07-09
US9832481B2 (en) 2017-11-28
KR102127549B1 (ko) 2020-06-26
EP3090551B1 (en) 2019-10-23
CA2930331C (en) 2021-09-21
US20150195561A1 (en) 2015-07-09
CN105850130A (zh) 2016-08-10
CN105850130B (zh) 2019-07-16
BR112016015453B1 (pt) 2023-04-18

Similar Documents

Publication Publication Date Title
JP6513685B2 (ja) ビデオコーディングにおけるNoOutputOfPriorPicsFlagの改善された推論
JP6622211B2 (ja) マルチレイヤビットストリームのためのシーケンス終了nalユニット情報の導出
JP6486952B2 (ja) ビデオ情報のスケーラブルコーディングのためのデバイスおよび方法
JP6554477B2 (ja) マルチレイヤビットストリームのためのピクチャのフラッシングおよび復号ピクチャバッファのパラメータ推測
JP6513684B2 (ja) マルチレイヤビデオコーディングにおける異なるコーデックのベースレイヤのサポート
JP6591425B2 (ja) Hevcマルチレイヤ拡張における非hevcベースレイヤのサポート
JP6608395B2 (ja) スケーラブルビデオコード化におけるビットストリーム適合制約
JP2017525224A (ja) マルチレイヤコーデックにおける表現フォーマット更新
JP6633005B2 (ja) マルチレイヤコーデックのためのフルピクチャ順序カウントリセット
JP2017517185A (ja) マルチレイヤコーディングにおける適合ウィンドウ情報
JP6608374B2 (ja) ビデオ情報のスケーラブルコーディングのためのデバイスおよび方法
JP2016539545A (ja) ビデオ情報のスケーラブルコーディングのためのデバイスおよび方法
JP6434044B2 (ja) ビデオ情報のスケーラブルコード化のための機器及び方法
JP2017507539A (ja) マルチレイヤコーディングにおいて回復点補足エンハンスメント情報(sei)メッセージと領域リフレッシュ情報seiメッセージとをコーディングするための方法
JP6312838B2 (ja) マルチレイヤコード化においてレイヤ間参照ピクチャセット(RPS)をコード化し、ビットストリーム終端(EoB)ネットワークアクセスレイヤ(NAL)単位をコード化するための方法
JP2018514985A (ja) ビデオデータを処理するためのデバイスおよび方法
JP2016528805A (ja) ビデオ情報のスケーラブルコーディングのためのデバイスおよび方法
JP2017507546A (ja) マルチレイヤコード化において参照ピクチャセット(rps)をコード化するための方法
JP2018511238A (ja) 高速レートひずみ最適量子化

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171204

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190410

R150 Certificate of patent or registration of utility model

Ref document number: 6513684

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250