JP2015146599A - Inter-layer pixel sample prediction - Google Patents

Inter-layer pixel sample prediction Download PDF

Info

Publication number
JP2015146599A
JP2015146599A JP2015047787A JP2015047787A JP2015146599A JP 2015146599 A JP2015146599 A JP 2015146599A JP 2015047787 A JP2015047787 A JP 2015047787A JP 2015047787 A JP2015047787 A JP 2015047787A JP 2015146599 A JP2015146599 A JP 2015146599A
Authority
JP
Japan
Prior art keywords
layer region
inter
prediction
enhancement layer
base layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015047787A
Other languages
Japanese (ja)
Inventor
ジャーン,ウエンハオ
Wenhao Zhang
チウ,イー−ジェン
Yi-Jen Chiu
シュイ,リードーン
Lidong Xu
ハン,ユイ
Yu Han
ドゥオン,ジーピン
Deng Zhipin
ツァイ,シヤオシア
Xiaoxia Cai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Priority to JP2015047787A priority Critical patent/JP2015146599A/en
Publication of JP2015146599A publication Critical patent/JP2015146599A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a system, an apparatus, and a method, performing scalable video coding by using Inter-layer pixel sample prediction.SOLUTION: The inter-layer pixel sample prediction at an extended layer coding unit, a prediction unit, or a conversion unit uses a reconstituted pixel sample acquired from a basic layer or a lower level extended layer. The pixel sample receives up-sample filtering and/or improved filtering. An up-sample of an improved filtering coefficient is predetermined or adaptively determined.

Description

本発明は、レイヤ間の画素サンプル予測に関する。   The present invention relates to pixel sample prediction between layers.

ISO/IEC動画像専門家グループ(MPEG)およびITU−T映像符号化専門家グループ(VCEG)によって形成された映像符号化についての共同作業部会(JCT−VC)により現在開発中である高効率映像符号化(HEVC)は、2012年に最終決定されるように計画された映像圧縮規格である。これまでの映像符号化規格と同様に、HEVCは、イントラ予測/インター予測、変換、量子化、インループ/フィルタリング、およびエントロピー符号化のような基本機能モジュールを含む。   High-efficiency video currently under development by the Joint Working Group on Video Coding (JCT-VC) formed by the ISO / IEC Video Experts Group (MPEG) and ITU-T Video Coding Experts Group (VCEG) Encoding (HEVC) is a video compression standard planned to be finalized in 2012. Similar to previous video coding standards, HEVC includes basic functional modules such as intra prediction / inter prediction, transform, quantization, in-loop / filtering, and entropy coding.

HEVCは、可変サイズを有する長方形ブロックの形をとるピクチャのサブパーティションとして符号化単位(CU)を定義する。各CUの内部で、四分木(quad−tree)に基づく分割スキームは、CUパーティションパターンを指定する。HEVCは、所定のCUが予測目的および変換目的のためどのように区分化されるべきであるかをそれぞれ指定する予測単位(PU)および変換単位(TU)も定義する。イントラ予測またはインター予測の後、変換演算が係数を生成するために残差ブロックに適用される。係数は、次に、量子化され、1次元の次数に走査され、最後に、エントロピーエンコードされる。   HEVC defines a coding unit (CU) as a sub-partition of a picture that takes the form of a rectangular block having a variable size. Within each CU, a split scheme based on quad-tree specifies a CU partition pattern. HEVC is how it should be partitioned prediction unit that specifies each for a given CU predicted objects and transform objects (PU) and conversion unit (TU) is also defined. After intra prediction or inter prediction, a transform operation is applied to the residual block to generate coefficients. The coefficients are then quantized, scanned to a one-dimensional order, and finally entropy encoded.

HEVCは、スケーラブル映像符号化(SVC)拡張を含むことが期待される。HEVC SVCビットストリームは、異なった空間分解能、フレームレート、品質、ビット深度などでソース映像コンテンツを表現するいくつかのサブセット・ビットストリームを提供する。スケーラビリティは、その後、一般に、基本レイヤ(BL)および少なくとも1層の拡張レイヤ(EL)を含むマルチレイヤ符号化構造を使用して達成される。これは、ELに属しているピクチャ、または、CUのようなピクチャの一部分が下位レイヤピクチャ(たとえば、BLピクチャ)から、または、同じレイヤ内の既に符号化されたピクチャから予測されることを可能にする。   HEVC is expected to include scalable video coding (SVC) extensions. The HEVC SVC bitstream provides several subset bitstreams that represent the source video content with different spatial resolution, frame rate, quality, bit depth, etc. Scalability is then generally achieved using a multi-layer coding structure that includes a base layer (BL) and at least one enhancement layer (EL). This allows a part of a picture belonging to EL or a part of a picture like a CU to be predicted from a lower layer picture (eg BL picture) or from an already encoded picture in the same layer To.

従来的なアプローチでは、現在CUに対するインター予測および/またはイントラ予測は、同じレイヤの内部のピクチャのCUに関して実行される。一例を挙げると、EL CUのための画素サンプル予測は、同じELのCUに関して従来とおり実行され、別のELまたはBLのCUに関して実行されない。   In the conventional approach, inter prediction and / or intra prediction for the current CU is performed for CUs of pictures inside the same layer. As an example, pixel sample prediction for an EL CU is performed conventionally for the same EL CU and not for another EL or BL CU.

拡張レイヤ(EL)映像デコーダで、下位ELフレームまたは基本レイヤ(BL)フレームの少なくとも一方から取得された画素サンプルに少なくとも部分的に基づいてELフレームのブロックの予測画素を決定することを備える方法。   A method comprising determining, at an enhancement layer (EL) video decoder, predicted pixels of a block of EL frames based at least in part on pixel samples obtained from at least one of a lower EL frame or a base layer (BL) frame.

本明細書に記載された題材は、一例として、かつ、限定としてではなく、添付図面に示される。説明の簡単化および明確化のため、図に示された要素は、必ずしも正しい縮尺で示されていない。たとえば、ある要素の寸法は、明確にするため他の要素に対して相対的に誇張されることがある。さらに、適切であると考えられる場合、符号は、対応する要素または同様の要素を指示するために図の間で共通して繰り返されている。
符号化システムの実施例に係るダイヤグラムを示している。 エンコーディングシステムの実施例に係るダイヤグラムを示している。 プロセスの実施例に係るフローチャートを示している。 システムの実施例に係るダイヤグラムを示している。 符号化スキームの実施例に係るダイヤグラムを示している。 ビットストリームの実施例に係るダイヤグラムを示している。 デコーディングシステムの実施例に係るダイヤグラムを示している。 プロセスの実施例に係るフローチャートを示している。 システムの実施例に係るダイヤグラムを示している。 本発明開示内容の少なくともある実装に従って、全てが配置された装置の実施例を示している。
The subject matter described in this specification is illustrated by way of example and not limitation in the accompanying drawings. For simplicity and clarity of illustration, elements shown in the figures are not necessarily drawn to scale. For example, the dimensions of one element may be exaggerated relative to other elements for clarity. Further, where considered appropriate, reference numerals have been repeated among the figures to indicate corresponding or similar elements.
1 shows a diagram according to an embodiment of an encoding system. 1 shows a diagram according to an embodiment of an encoding system. 3 shows a flowchart according to an embodiment of the process. 1 shows a diagram according to an embodiment of the system. Fig. 4 shows a diagram according to an embodiment of an encoding scheme. Fig. 3 shows a diagram according to an embodiment of a bitstream. 1 shows a diagram according to an embodiment of a decoding system. 3 shows a flowchart according to an embodiment of the process. 1 shows a diagram according to an embodiment of the system. Fig. 4 illustrates an example of an all-placed device in accordance with at least some implementations of the present disclosure.

1つ以上の実施形態または実装は、次に、添付図面を参照して説明される。具体的な構成および配置が検討されているが、これは、例示の目的のためだけに行われることが理解されるべきである。当業者は、その他の構成および配置が説明の趣旨および範囲から逸脱することなく利用されることがあることを理解するであろう。本明細書において説明された技術および/または配置が本明細書において説明されていない種々の他のシステムおよびアプリケーションにも利用されることがあることは、当業者にとって明らかであろう。   One or more embodiments or implementations will now be described with reference to the accompanying drawings. Although specific configurations and arrangements are contemplated, it should be understood that this is done for illustrative purposes only. Those skilled in the art will appreciate that other configurations and arrangements may be utilized without departing from the spirit and scope of the description. It will be apparent to those skilled in the art that the techniques and / or arrangements described herein may be utilized for various other systems and applications that are not described herein.

以下の説明は、たとえば、システム・オン・チップ(SoC)アーキテクチャのようなアーキテクチャにおいて明示されることがある様々な実装を記載するが、本明細書において説明された技術および/または配置の実装は、特別なアーキテクチャおよび/またはコンピューティングシステムに限定されることなく、同様の目的のためアーキテクチャおよび/またはコンピューティングシステムによって実装されることがある。一例を挙げると、たとえば、複数の集積回路(IC)チップおよび/またはパッケージ、および/または、様々なコンピューティング装置、および/または、セット・トップ・ボックス、スマートフォンなどのような消費者エレクトロニクス(CE)装置を利用する様々なアーキテクチャは、本明細書において説明された技術および/または配置を実装することがある。さらに、以下の説明は、システムコンポーネントの論理実装、型および相互関係、論理分割/統合選択などのような多数の具体的な詳細を記載することがあるが、請求項に係る主題は、このような具体的な詳細なしに実施されることがある。他の事例では、たとえば、制御構造および完全なソフトウェア命令系列のようなある種の題材は、本明細書で公開された題材を曖昧にしないために詳細に明らかにされないことがある。   The following description describes various implementations that may be manifested in an architecture such as, for example, a system on chip (SoC) architecture, but implementations of the techniques and / or arrangements described herein are Without being limited to a particular architecture and / or computing system, it may be implemented by the architecture and / or computing system for similar purposes. One example is a plurality of integrated circuit (IC) chips and / or packages and / or various computing devices and / or consumer electronics (CE) such as set top boxes, smartphones, etc. Various architectures that utilize the devices may implement the techniques and / or arrangements described herein. Further, the following description may set forth numerous specific details such as the logical implementation, type and interrelationships of the system components, logical partitioning / integration selection, etc., but the claimed subject matter is May be implemented without any specific details. In other cases, certain materials such as, for example, control structures and complete software instruction sequences may not be revealed in detail in order not to obscure the material published herein.

本明細書で公開された題材は、ハードウェア、ファームウェア、ソフトウェア、またはこれらのいずれかの組み合わせで実装されることがある。本明細書で公開された題材は、1台以上のプロセッサによって読み取られ、実行されることがあるマシン読み取り可能な媒体に記憶された命令として実装されることもある。マシン読み取り可能な媒体は、機械(たとえば、コンピューティング装置)によって読み取り可能な形式で情報を記憶または伝達する何らかの媒体および/または仕組みを含むことがある。たとえば、マシン読み取り可能な媒体は、リード・オンリー・メモリ(ROM)、ランダム・アクセス・メモリ(RAM)、磁気ディスク記憶媒体、光学記憶媒体、フラッシュメモリ装置、電気的、光学的、音響的もしくはその他の形式の伝搬信号(たとえば、搬送波、赤外線信号、デジテル信号など)、およびその他を含むことがある。   The subject matter published herein may be implemented in hardware, firmware, software, or any combination thereof. The subject matter published herein may be implemented as instructions stored on a machine-readable medium that may be read and executed by one or more processors. A machine-readable medium may include any medium and / or mechanism for storing or transmitting information in a form readable by a machine (eg, a computing device). For example, the machine readable medium may be read only memory (ROM), random access memory (RAM), magnetic disk storage medium, optical storage medium, flash memory device, electrical, optical, acoustic or other In the form of propagation signals (eg, carrier waves, infrared signals, digitel signals, etc.), and others.

明細書における「一実装」、「実装」、「実装例」などへの言及は、記載された実装が特別な特徴、構造、または特性を含むことがあるが、あらゆる実施形態がこの特別な特徴、構造、または特性を含むとは限らないことを示唆する。その上、このような言い回しは、同じ実装に言及するとは限らない。さらに、特別な特徴、構造、または特性が実施形態に関連して説明されるとき、本明細書に明示的に記載されているか否かを問わずに、他の実装に関連したこのような特徴、構造、または特性を達成することは、当業者の知識の範囲に含まれる。   References to “one implementation”, “implementation”, “example of implementation”, etc. in the specification may include specific features, structures, or characteristics of the described implementation, but every embodiment may have this special feature. , Suggests not necessarily including structure, or property. Moreover, such phrases may not refer to the same implementation. Further, when a particular feature, structure, or characteristic is described in connection with an embodiment, such feature in connection with other implementations, whether or not explicitly described herein. It is within the knowledge of one of ordinary skill in the art to achieve any structure, property, or characteristic.

レイヤ間画素サンプル予測を利用する映像符号化のための演算を含むシステム、装置、製品、および方法が、以下に説明される。   Systems, apparatus, products, and methods that include operations for video coding that utilize inter-layer pixel sample prediction are described below.

本明細書において使用されるように、用語「符号器」は、エンコードおよび/またはデコーダを指すことがある。同様に、本明細書において使用されるように、用語「符号化」は、エンコーダによるエンコーディングおよび/またはデコーダによるデコーディングを指すことがある。たとえば、映像エンコーダおよび映像デコーダは、どちらも符号化する能力を持つ符号器の実施例であるということがある。その上、本明細書において使用されるように、用語「コーデック」は、たとえば、エンコーダおよび/またはデコーダを実装することがあるソフトウェア、ファームウェア、および/またはハードウェアの何らかの組み合わせのような何らかのプロセス、プログラムまたは演算の組を指すことがある。   As used herein, the term “encoder” may refer to an encode and / or a decoder. Similarly, as used herein, the term “encoding” may refer to encoding by an encoder and / or decoding by a decoder. For example, a video encoder and a video decoder may both be examples of encoders that are capable of encoding. Moreover, as used herein, the term “codec” refers to any process such as, for example, some combination of software, firmware, and / or hardware that may implement an encoder and / or decoder, May refer to a set of programs or operations.

スケーラブル映像コーディングシステムでは、空間スケーラビリティ、時間スケーラビリティ、ビット深度スケーラビリティなどを含む数種類のスケーラビリティをサポートするためにマルチレイヤ型符号化が使用される。本発明開示内容によれば、様々なレイヤ間画素サンプル予測スキームがスケーラブル映像符号化システムにおける符号化効率および/または符号化自由度を高めるために使用されることがある。   In scalable video coding systems, multi-layer coding is used to support several types of scalability including spatial scalability, temporal scalability, bit depth scalability, and the like. In accordance with the present disclosure, various inter-layer pixel sample prediction schemes may be used to increase coding efficiency and / or coding flexibility in a scalable video coding system.

図1は、本発明開示内容によるスケーラブル映像符号化(SVC)符号化システム例100を示す。様々な実装では、システム100は、たとえば、高効率映像符号化(HEVC)規格(ISO/IEC JTC/SC29/WG11およびITU−T SG16 WP3, “High efficiency video coding(HEVC) test specification draft 8”(JCTVC−J1003_d7), July 2012を参照のこと)および、これらの何らかのスケーラブル映像符号化(SVC)拡張のような1つ以上の規格または仕様に従って、映像圧縮および展開を引き受ける、および/または、映像コーデックを実装する。システム100および/またはその他のシステム、スキームまたはプロセッサは、HEVC規格のSVC拡張との関連において本明細書において説明されることがあるが、本発明開示内容は、特別な映像エンコーディング規格もしくは仕様またはこれらの拡張に限定されることがない。   FIG. 1 illustrates an example scalable video coding (SVC) coding system 100 in accordance with the present disclosure. In various implementations, the system 100 may be implemented, for example, by the High Efficiency Video Coding (HEVC) standard (ISO / IEC JTC / SC29 / WG11 and ITU-T SG16 WP3, “High efficiency video coding (HEVC) test specification 8” JCTVC-J1003_d7), July 2012) and undertake video compression and decompression according to one or more standards or specifications such as these and some scalable video coding (SVC) extensions and / or video codecs Is implemented. Although the system 100 and / or other systems, schemes or processors may be described herein in the context of the SVC extension of the HEVC standard, the present disclosure is not limited to any particular video encoding standard or specification or these It is not limited to the extension.

例示されるように、システム100は、レイヤ0または基本レイヤ(BL)エンコーダ102と、レイヤ1または第1の拡張レイヤ(EL)エンコーダ104と、レイヤ2または第2のELエンコーダ106とを含む複数の映像エンコーダを有するエンコーダサブシステム101を含む。システム100は、レイヤ0(BL)デコーダ108、レイヤ1(EL)デコーダ110、およびレイヤ2(EL)デコーダ112を含んでいるデコーダサブシステム103の中の対応する映像デコーダをさらに含む。概して、BLは、HEVC互換符号化されることがある。Nに等しいレイヤ識別番号(ID)を持つELを符号化するとき、SVC符号化スキームは、特別なELに属しているピクチャが下位レイヤ・ピクチャから(たとえば、下位レイヤIDを有するBLまたはELにおいて)、または、同じレイヤの中の予め符号化されたピクチャから予測されることがあるように、N未満のレイヤIDを有するあらゆる符号化レイヤがレイヤ間予測スキームで用いるため利用可能であることを保証する。   As illustrated, the system 100 includes a layer 0 or base layer (BL) encoder 102, a layer 1 or first enhancement layer (EL) encoder 104, and a layer 2 or second EL encoder 106. An encoder subsystem 101 having a plurality of video encoders. The system 100 further includes a corresponding video decoder in a decoder subsystem 103 that includes a layer 0 (BL) decoder 108, a layer 1 (EL) decoder 110, and a layer 2 (EL) decoder 112. In general, BL may be HEVC compatible encoded. When encoding an EL with a layer identification number (ID) equal to N, the SVC encoding scheme is used when a picture belonging to a particular EL starts from a lower layer picture (eg, in a BL or EL with a lower layer ID). ), Or that any coding layer with a layer ID less than N is available for use in the inter-layer prediction scheme, as may be predicted from pre-coded pictures in the same layer. Guarantee.

様々な実装では、HEVCは、その後に、可変サイズを有する長方形ブロックの形をとる符号化単位(CU)に区分化されることがあるピクチャに対する最大符号化単位(LCU)を指定する.各LCUの範囲内で、四分木に基づく分割スキームは、CUパーティションパターンを指定する。HEVCは、所定のCUが予測目的および変換目的のためどのように区分化されるべきであるかをそれぞれ指定する予測単位(PU)および変換単位(TU)をさらに定義する。CUは、通常、1個の輝度符号化ブロック(CB)および2個の色度CBを関連したシンタックスと共に含み、PUは、サイズが64×64サンプルから4×4サンプルまでに及ぶ予測ブロック(PB)にさらに分割されることがある。本明細書において使用されるように、用語「ブロック」は、映像ピクチャの何らかのパーティションまたはサブパーティションを指すことがある。たとえば、ブロックは、PCまたはPBを指すことがある。   In various implementations, HEVC then specifies a maximum coding unit (LCU) for a picture that may be partitioned into coding units (CUs) that take the form of rectangular blocks having variable sizes. Within each LCU, a quadtree based partitioning scheme specifies a CU partition pattern. HEVC further define how it should be partitioned prediction unit that specifies each for a given CU predicted objects and transform objects (PU) and conversion unit (TU). A CU typically includes one luminance coding block (CB) and two chromaticity CBs with associated syntax, and a PU is a prediction block (ranging from 64 × 64 to 4 × 4 samples in size). PB) may be further divided. As used herein, the term “block” may refer to any partition or subpartition of a video picture. For example, a block may refer to PC or PB.

本発明開示内容によれば、以下でより詳しく説明されるように、ELエンコーダ104および106の一方または両方は、レイヤ間画素サンプル予測を実行するためにいずれかのエンコード102または104から取得された画素サンプルを使用することがある。たとえば、ある種の実装では、エンコーダ104は、エンコーダ102から取得され、レイヤ間予測モジュール116によって処理された画素サンプル114を使用してレイヤ間画素サンプル予測を実行することがある。その上、ある種の実装では、エンコーダ106は、エンコーダ102またはエンコーダ104からそれぞれ取得され、レイヤ間予測モジュール120またはレイヤ間予測モジュール122によってそれぞれ処理された画素サンプル114または画素サンプル118のいずれかを使用してレイヤ間画素サンプル予測を実行することがある。   In accordance with the present disclosure, as described in more detail below, one or both of EL encoders 104 and 106 were obtained from either encoding 102 or 104 to perform inter-layer pixel sample prediction. Pixel samples may be used. For example, in certain implementations, the encoder 104 may perform inter-layer pixel sample prediction using the pixel samples 114 obtained from the encoder 102 and processed by the inter-layer prediction module 116. Moreover, in certain implementations, the encoder 106 receives either the pixel sample 114 or the pixel sample 118 obtained from the encoder 102 or encoder 104, respectively, and processed by the inter-layer prediction module 120 or inter-layer prediction module 122, respectively. May be used to perform inter-layer pixel sample prediction.

本明細書において使用されるように、用語「レイヤ間画素サンプル予測」は、参照レイヤ・ピクチャから取得された画素サンプルを使用する拡張レイヤ・ピクチャのインター予測を指す。さらに、本明細書において使用されるように、「画素サンプル」は、再構成画素を指す。参照レイヤによって再構成された画素サンプルのような符号化情報を再使用することにより、レイヤ間画素予測は、システム100のようなSVCシステム、および/または、コーデック設計の圧縮効率および符号化自由度を改善することがある。本発明開示内容による様々な実装では、レイヤ間画素サンプル予測は、時間スケーラブル映像符号化アプリケーション、空間スケーラブル映像符号化アプリケーションおよび/または品質スケーラブル映像符号化アプリケーションに適用されることがある。   As used herein, the term “interlayer pixel sample prediction” refers to inter prediction of enhancement layer pictures using pixel samples obtained from a reference layer picture. Further, as used herein, a “pixel sample” refers to a reconstructed pixel. By re-using coding information such as pixel samples reconstructed by a reference layer, inter-layer pixel prediction can be used for SVC systems such as system 100 and / or compression efficiency and coding flexibility of codec designs. May improve. In various implementations according to the present disclosure, inter-layer pixel sample prediction may be applied to temporal scalable video coding applications, spatial scalable video coding applications, and / or quality scalable video coding applications.

レイヤ間予測モジュール116、120および/または122のいずれか1つ以上を利用することは、別個のビットストリームをエントロピーエンコーダ124に提供することがある。エントロピーエンコーダ124は、その後、複数のスケーラブル映像コンテンツのレイヤを含んでいる圧縮されたビットストリーム126をデコーダサブシステム103のエントロピーデコーダ128に提供することがある。本発明開示内容によれば、以下でより詳しく説明されるように、ELデコーダ110および112の一方または両方は、レイヤ間画素サンプル予測を実行するためにいずれかのデコーダ108または110から取得された画素サンプルを使用することがある。たとえば、ある種の実装では、デコーダ110は、デコーダ108から取得され、レイヤ間予測モジュール130によって処理された画素サンプルを使用してレイヤ間画素サンプル予測を実行することがある。その上、ある種の実装では、デコーダ112は、デコーダ108またはデコーダ110のいずれかからそれぞれ取得され、レイヤ間予測モジュール132またはレイヤ間予測モジュール134によってそれぞれ処理された画素サンプルを使用してレイヤ間画素サンプル予測を実行することがある。   Utilizing any one or more of the inter-layer prediction modules 116, 120 and / or 122 may provide a separate bitstream to the entropy encoder 124. The entropy encoder 124 may then provide a compressed bitstream 126 that includes multiple layers of scalable video content to the entropy decoder 128 of the decoder subsystem 103. In accordance with the present disclosure, as described in more detail below, one or both of EL decoders 110 and 112 were obtained from either decoder 108 or 110 to perform inter-layer pixel sample prediction. Pixel samples may be used. For example, in certain implementations, the decoder 110 may perform inter-layer pixel sample prediction using pixel samples obtained from the decoder 108 and processed by the inter-layer prediction module 130. Moreover, in certain implementations, the decoder 112 uses inter-layer samples using pixel samples obtained from either the decoder 108 or the decoder 110 and processed by the inter-layer prediction module 132 or the inter-layer prediction module 134, respectively. Pixel sample prediction may be performed.

図1は、3層のスケーラブル映像コンテンツのレイヤと、サブシステム101の中の3つのエンコーダおよびサブシステム103の中の3つのデコーダの対応する組とを利用するものとして実例システム100を示すが、スケーラブル映像符号化レイヤと対応するエンコーダおよびデコーダとは、いくつでも本発明開示内容に従って利用されることになる。さらに、システム100は、ある特定のコンポーネントを描くが、本発明開示内容は、図1に示された特別なコンポーネント、および/または、システム100の様々なコンポーネントが配置される方式に限定されない。一例を挙げると、様々な実装において、たとえば、エンコーダサブシステム101のレイヤ間予測モジュール116、120および122のようなシステム100のある種の要素は、3つのエンコーダ102、104および106など全てに結合された単一のレイヤ間予測モジュールによって実装されることがある。   FIG. 1 illustrates an example system 100 as utilizing three layers of scalable video content and a corresponding set of three encoders in subsystem 101 and three decoders in subsystem 103, Any number of scalable video coding layers and corresponding encoders and decoders may be utilized in accordance with the present disclosure. Further, although system 100 depicts certain components, the present disclosure is not limited to the particular components shown in FIG. 1 and / or the manner in which the various components of system 100 are arranged. In one example, in various implementations, certain elements of system 100, such as, for example, inter-layer prediction modules 116, 120, and 122 of encoder subsystem 101 are coupled to all three encoders 102, 104, and 106, etc. Implemented by a single inter-layer prediction module.

さらに、エンコーダサブシステム101は、たとえば、サーバシステムを含んでいるコンテンツ・プロバイダ・システムに関連付けられることがあること、そして、ビットストリーム126は、図1に描かれていないトランシーバ、アンテナ、ネットワークシステムなどのような様々な通信コンポーネントまたはシステムによってデコーダサブシステム103に送信または伝達されることがあることが認識されることがある。デコーダサブシステム103は、図1に同様に描かれていないトランシーバ、アンテナ、ネットワークシステムなどのような様々な通信コンポーネントまたはシステムを介してビットストリーム126を受信するコンピューティング装置(たとえば、コンピュータ、スマートフォンなど)のようなクライアントサブシステムに関連付けられることがあることが認識されることもある。   Further, the encoder subsystem 101 may be associated with, for example, a content provider system that includes a server system, and the bitstream 126 may be a transceiver, antenna, network system, etc. not depicted in FIG. It may be appreciated that various communication components or systems such as may be transmitted or communicated to the decoder subsystem 103. The decoder subsystem 103 is a computing device (eg, a computer, a smartphone, etc.) that receives the bitstream 126 via various communication components or systems such as transceivers, antennas, network systems, etc. that are also not depicted in FIG. May be associated with a client subsystem such as

図2は、本発明開示内容によるSVCエンコーディングシステム例200を示す。システム200は、たとえば、システム100のエンコーダ102およびエンコーダ104にそれぞれ対応することがある参照BLエンコーダ202およびターゲットELエンコーダ204を含む。システム200は、2層のSVC符号化レイヤに対応する2台のエンコーダ202および204だけを含むが、SVC符号化レイヤおよび対応するエンコーダは、図2に描かれたものに加えて、いくつでも本発明開示内容に従って利用されることがある。たとえば、付加的な拡張レイヤに対応する付加的なエンコーダは、システム200に組み込まれることがあり、ELエンコーダ204に関して以下で説明されるのと同様にBLエンコーダ202と相互作用することがある。   FIG. 2 shows an example SVC encoding system 200 according to the present disclosure. System 200 includes a reference BL encoder 202 and a target EL encoder 204 that may correspond to, for example, encoder 102 and encoder 104 of system 100, respectively. System 200 includes only two encoders 202 and 204 corresponding to two SVC coding layers, but any number of SVC coding layers and corresponding encoders can be added to those depicted in FIG. May be used in accordance with the disclosure of the invention. For example, additional encoders corresponding to additional enhancement layers may be incorporated into system 200 and may interact with BL encoder 202 in the same manner as described below with respect to EL encoder 204.

SVC符号化を引き受けるためにシステム200を利用するとき、EL入力フレーム206のような、拡張レイヤの中のピクチャまたは画像フレームの様々なブロックは、BLエンコーダ202によって処理されたままのBL入力フレーム208のようなピクチャから、または、ELエンコーダ204によって予めエンコードされた同じ拡張レイヤの中の他のピクチャから、ELエンコーダ204によって予測されることがある。以下でより詳しく説明されるように、システム200を使用してレイヤ間画素サンプル予測演算を引き受けるとき、EL入力フレーム206のようなレイヤ20内のピクチャの画素は、BLエンコーダ202によって提供された画素サンプル210を使用して予測されることがある。前述のとおり、EL入力フレーム206は、画素値の1個以上のブロックに対応する単位で符号化されることがあり、符号化されるブロックは、CU、PUまたはTUの形をしていることがある。さらに、符号化は、スライス、ピクチャ、またはレイヤレベルで適用されることがある。   When utilizing the system 200 to undertake SVC encoding, various blocks of a picture or image frame in the enhancement layer, such as the EL input frame 206, are still processed by the BL encoder 202. Or from other pictures in the same enhancement layer that were pre-encoded by the EL encoder 204. As described in more detail below, when using system 200 to undertake inter-layer pixel sample prediction operations, the pixels of a picture in layer 20, such as EL input frame 206, are pixels provided by BL encoder 202. May be predicted using sample 210. As described above, the EL input frame 206 may be encoded in units corresponding to one or more blocks of pixel values, and the encoded block is in the form of a CU, PU, or TU. There is. Further, encoding may be applied at the slice, picture, or layer level.

レイヤ間画素サンプル予測のため使用された画素サンプル210は、変換および量子化モジュール212と、逆変換および量子化モジュール214と、イントラ予測モジュール216と、インター予測モジュール218と、インループ・フィルタリング・モジュール220とを含む符号化ループを使用してBL入力フレーム208の処理から取得されることがある。詳しくは、インター予測モジュール218を使用してインター予測を実行するためにBLエンコーダ202を動作させるとき、画素サンプル210は、インループ・フィルタリング・モジュール220の出力から取得されることがある。モジュール212、214、216、218および220の機能性は、当該技術分野において十分に認識されるので、本明細書においてより詳しく説明されることはない。   The pixel samples 210 used for inter-layer pixel sample prediction are a transform and quantization module 212, an inverse transform and quantization module 214, an intra prediction module 216, an inter prediction module 218, and an in-loop filtering module. 220 may be obtained from the processing of the BL input frame 208 using a coding loop comprising 220. Specifically, when operating the BL encoder 202 to perform inter prediction using the inter prediction module 218, pixel samples 210 may be obtained from the output of the in-loop filtering module 220. The functionality of modules 212, 214, 216, 218, and 220 is well recognized in the art and will not be described in greater detail herein.

以下でより詳しく説明されるように、ある種の実装では、画素サンプル210は、ELエンコーダ204に適用される前に、アップサンプリング・モジュール222および/または改良モジュール224によって処理されることがある。様々な実装では、アップサンプリング・モジュール22および改良モジュール224は、レイヤ間予測モジュール(たとえば、システム100のレイヤ間予測モジュール116)のコンポーネントであることがある。さらに、様々な実施形態では、アップサンプリング・モジュール222および改良モジュール224の少なくとも一部分は、固定機能回路構成のようなハードウェアロジックによって提供されることがある。   As described in more detail below, in certain implementations, pixel samples 210 may be processed by upsampling module 222 and / or refinement module 224 before being applied to EL encoder 204. In various implementations, upsampling module 22 and refinement module 224 may be components of an inter-layer prediction module (eg, inter-layer prediction module 116 of system 100). Further, in various embodiments, at least a portion of upsampling module 222 and refinement module 224 may be provided by hardware logic, such as fixed function circuitry.

ELエンコーダ204において、改良モジュール224によって提供されたフィルタ処理済みの画素サンプル226は、変換および量子化モジュール228と、逆変換および量子化モジュール230とを含む符号化ループを使用してEL入力フレーム206において画素サンプルを予測するために使用されることがある。EL入力フレーム206のレイヤ間画素サンプル予測を引き受けるために動作させられたとき、ELエンコーダ204は、EL入力フレーム206を圧縮するために使用された符号化ループの中のイントラ予測モジュール232、インター予測モジュール234、またはインループ・フィルタリング・モジュール236のいずれも利用しないことがある。この場合も、モジュール228、232、234、および236の機能性は、当該技術分野において十分に認識されているので、本明細書においてより詳しく説明されることはない。ELエンコーダ204は、その後、EL入力フレーム206の様々なCUの中の様々な画素を予測するためにフィルタ処理済みの画素サンプル226を使用することがある。   In EL encoder 204, the filtered pixel samples 226 provided by refinement module 224 are encoded into EL input frame 206 using an encoding loop that includes transform and quantization module 228 and inverse transform and quantization module 230. May be used to predict pixel samples. When operated to undertake inter-layer pixel sample prediction for EL input frame 206, EL encoder 204 performs intra-prediction module 232 in the coding loop used to compress EL input frame 206, inter prediction. Neither module 234 nor in-loop filtering module 236 may be utilized. Again, the functionality of modules 228, 232, 234, and 236 is well recognized in the art and will not be described in more detail herein. The EL encoder 204 may then use the filtered pixel samples 226 to predict various pixels in various CUs of the EL input frame 206.

様々な実装では、BLエンコーダ202およびELエンコーダ204の一方または両方は、BL入力フレーム208の少なくとも一部およびEL入力フレーム206の少なくとも一部のそれぞれの符号化された残差に対応する圧縮された係数をエントロピーエンコーダ・モジュール238に供給することがある。モジュール238は、その後、残差の無損失圧縮(lossless compression)を実行し、システム200からの出力として、符号化された残差に含まれている多重化されたSVCビットストリームを供給することがある。その他の実装では、BLエンコーダ202およびELエンコーダ204の一方または両方は、BL入力フレーム208の少なくとも一部およびEL入力フレーム206の少なくとも一部のそれぞれの符号化された残差をエントロピーエンコーダ・モジュール238に供給しないことがある。   In various implementations, one or both of BL encoder 202 and EL encoder 204 are compressed corresponding to respective encoded residuals of at least a portion of BL input frame 208 and at least a portion of EL input frame 206. The coefficients may be supplied to the entropy encoder module 238. Module 238 then performs lossless compression of the residual and provides, as output from system 200, the multiplexed SVC bitstream contained in the encoded residual. is there. In other implementations, one or both of the BL encoder 202 and EL encoder 204 may use the entropy encoder module 238 to encode the encoded residuals of at least a portion of the BL input frame 208 and at least a portion of the EL input frame 206, respectively. May not supply.

図3は、本発明開示内容の様々な実装によるプロセス例300のフロー図を示す。プロセス300は、図3のブロック301、302、304、306、308、310、312、314および316のうちの1つ以上によって示されるように1つ以上の動作、機能または作用を含むことがある。限定されない例として、プロセス300は、エンコーダシステム200によって引き受けられるようにELレイヤの一部分(たとえば、本実装におけるCU)のためのスケーラブル映像符号化プロセスの少なくとも一部を形成することがある。   FIG. 3 shows a flow diagram of an example process 300 according to various implementations of the present disclosure. Process 300 may include one or more operations, functions, or acts as illustrated by one or more of blocks 301, 302, 304, 306, 308, 310, 312, 314, and 316 of FIG. . As a non-limiting example, process 300 may form at least part of a scalable video encoding process for a portion of an EL layer (eg, a CU in this implementation) to be undertaken by encoder system 200.

さらに、プロセス300は、システム400がプロセッサ402、SVCコーデックモジュール406、およびメモリ408を含む図4のスケーラブル映像符号化システム400を使用して拡張レイヤCUを符号化することに関連して本明細書において同様に説明されるであろう。プロセッサ402は、本発明開示内容に従ってレイヤ間画素サンプル予測を行うためにSVCコーデックモジュール406をインスタンス化することがある。システム400の実施例では、メモリ408は、BL入力フレーム208の少なくとも一部および/またはEL入力フレーム206の少なくとも一部を含んでいる映像コンテンツと、以下でより詳しく説明されるように、フィルタ係数などのような他の項目とを記憶することがある。SVCコーデックモジュール406は、符号化システム200を実装するため適したソフトウェア論理、ファームウェア論理、および/またはハードウェアロジックのいずれかの組み合わせによって提供されることがある。メモリ408は、揮発性メモリ(たとえば、スタティック・ランダム・アクセス・メモリ(SRAM)、ダイナミック・ランダム・アクセス・メモリ(DRAM)など)または不揮発性メモリ(たとえば、フラッシュメモリなど)などのようなあらゆるタイプのメモリでもよい。限定されない実施例では、メモリ480は、キャッシュメモリによって実装されることがある。   Further, the process 300 is described herein in connection with encoding the enhancement layer CU using the scalable video encoding system 400 of FIG. 4 where the system 400 includes a processor 402, an SVC codec module 406, and a memory 408. Will be described in the same way. The processor 402 may instantiate the SVC codec module 406 to perform inter-layer pixel sample prediction in accordance with the present disclosure. In an embodiment of the system 400, the memory 408 includes video content including at least a portion of the BL input frame 208 and / or at least a portion of the EL input frame 206, and filter coefficients as described in more detail below. And other items such as The SVC codec module 406 may be provided by any combination of software logic, firmware logic, and / or hardware logic suitable for implementing the encoding system 200. Memory 408 can be any type of volatile memory (eg, static random access memory (SRAM), dynamic random access memory (DRAM), etc.) or non-volatile memory (eg, flash memory, etc.). It may be a memory. In a non-limiting example, memory 480 may be implemented with a cache memory.

プロセス300は、レイヤ間画素予測が現在EL CUに対して実行されるべきブロック301で始まることがある。様々な実装では、レイヤ間画素予測を実行するか否かの決定は、レート歪み(rate−distortion)コストに基づくことがある。たとえば、SVCコーデック406は、EL CU 502に対するレイヤ間画素予測を実行するか否かを公知のレート歪みコスト技術に基づいて決定することがある。レイヤ間画素予測が実行されるべき場合、プロセス300は、ブロック302に続くことがあり、レイヤ間画素予測が実行されるべきではない場合、プロセス300は、終了することがある。   Process 300 may begin at block 301 where inter-layer pixel prediction is to be performed for the current EL CU. In various implementations, the determination of whether to perform inter-layer pixel prediction may be based on rate-distortion costs. For example, the SVC codec 406 may determine whether to perform inter-layer pixel prediction for the EL CU 502 based on known rate distortion cost techniques. If inter-layer pixel prediction is to be performed, process 300 may continue at block 302, and if inter-layer pixel prediction is not to be performed, process 300 may end.

プロセス300は、ブロック302に続くことがある。例えば、現在EL CUに対して、このEL CUに対応するBLの1つ以上の同一位置ブロックが決定されることがある。たとえば、図5は、CU 502がBL入力フレーム208の同一位置ブロック504に空間的に対応する場合に、EL入力フレーム206の現在CU 502を示す。本実施例では、CU 502は、BL入力フレーム208の4個の同一位置ブロック504に対応する。しかし、様々な実装では、ELとBLまたは下位レベルELとの間の空間スケーリングに依存して、どんな個数のBLまたは下位レベルELブロックでも特別なEL CUに関して同一位置にあることがある。他の実装では、BLまたは下位レベルELブロックの一部分だけがEL CUと同一位置にあることがある。さらに、ELおよび下位ELまたはBLが空間比率1を有するように空間スケーリングが適用されない(たとえば、品質スケーリングが空間スケーリングなしでレイヤ間に適用されるとき)ある種のスケーラブル映像符号化実装では、ELの中のブロックと下位ELまたはBLの中のブロックとの1対1の対応関係が存在する。   Process 300 may continue at block 302. For example, for the current EL CU, one or more co-located blocks of BL corresponding to this EL CU may be determined. For example, FIG. 5 shows the current CU 502 of the EL input frame 206 when the CU 502 spatially corresponds to the co-located block 504 of the BL input frame 208. In this example, the CU 502 corresponds to four co-located blocks 504 in the BL input frame 208. However, in various implementations, depending on the spatial scaling between EL and BL or lower level EL, any number of BL or lower level EL blocks may be co-located with respect to a particular EL CU. In other implementations, only a portion of the BL or lower level EL block may be co-located with the EL CU. Furthermore, in some scalable video coding implementations where spatial scaling is not applied such that the EL and sub-EL or BL have a spatial ratio of 1 (eg when quality scaling is applied between layers without spatial scaling) There is a one-to-one correspondence between the blocks in and the blocks in the lower EL or BL.

図5の実施例に関して、ブロック302で同一位置ブロックを決定することは、現在EL CU 502に関して同一位置にあるものとしてブロック504にマーキングすること、または、そうでなければラベリングすることを含むことがある。さらに、様々な実装では、BLまたは下位ELレイヤの中で同一位置ブロックは、イントラ符号化されることがあり、インター符号化されることがあり、および/または、イントラ/インター・ハイブリッド符号化されることがある。その上、同一位置ブロックの組の中の異なったブロックは、異なったブロック符号化を有することがある。一例を挙げると、限定されない実施例では、同一位置ブロック504は、同一位置ブロックのうちの2つがイントラ符号化されることがあり、同一位置ブロックのうちの1つがインター符号化されることがあり、残りの同一位置ブロックがイントラ/インター・ハイブリッド符号化されることがあるように、符号化モードを混合している。   With respect to the embodiment of FIG. 5, determining the co-located block at block 302 may include marking block 504 as currently co-located with respect to EL CU 502 or otherwise labeling. is there. Further, in various implementations, co-located blocks in the BL or lower EL layer may be intra-coded, inter-coded, and / or intra / inter-hybrid coded. Sometimes. Moreover, different blocks in the co-located block set may have different block encodings. In one example, in a non-limiting example, co-location block 504 may have two of the co-location blocks encoded intra and one of the co-location blocks may be inter-coded. The coding modes are mixed so that the remaining co-located blocks may be intra / inter hybrid coded.

プロセス300は、同一位置ブロックに対応する画素サンプルがアクセスされることがあるブロック304に続くことがある。一例として挙げると、図4および5を参照すると、ブロック304は、メモリ408から、同一位置ブロック504に対応する画素サンプルを取得するためにプロセッサ402を使用してSVCコーデック406を含むことがある。一例として挙げると、メモリ408は、ブロック504の再構成された画素値に対応するBL入力フレーム208の一部分のような映像コンテンツを一時的に記憶するフレームバッファとしての役目を果たすことがある。   Process 300 may continue to block 304 where pixel samples corresponding to the same location block may be accessed. As an example, referring to FIGS. 4 and 5, block 304 may include an SVC codec 406 using processor 402 to obtain pixel samples corresponding to co-located block 504 from memory 408. As an example, memory 408 may serve as a frame buffer that temporarily stores video content, such as a portion of BL input frame 208 that corresponds to the reconstructed pixel value of block 504.

ブロック306で、決定は、ブロック304で取得された画素サンプルのアップサンプリングを実行することに関して行われることがある。一例として挙げると、CU 502が4個の同一位置ブロック504に対応する図5の実施例では、ブロック504に対応する画素サンプルは、CU 502のサイズに一致するようにアップサンプルされる必要があることがあり、プロセス300は、ブロック308に進むことがある。他の実施形態では、たとえば、空間スケーラビリティが提供されないとき、アップサンプリングは、実行されないことがあり、プロセス300は、ブロック308が実行されないことがあるように、ブロック306からブロック310まで省略することがある。   At block 306, a determination may be made regarding performing upsampling of the pixel samples obtained at block 304. As an example, in the example of FIG. 5 where CU 502 corresponds to four co-located blocks 504, the pixel samples corresponding to block 504 need to be upsampled to match the size of CU 502. The process 300 may proceed to block 308. In other embodiments, for example, when no spatial scalability is provided, upsampling may not be performed, and process 300 may omit from block 306 to block 310 such that block 308 may not be performed. is there.

様々な実装では、ブロック308での画素のアップサンプリングは、補間フィルタを画素サンプルに適用することにより実行されることがあるが、本発明開示内容は、何らかの特別な形式のアップサンプル・フィルタリングに限定されることがない。様々な実装では、画素サンプルをアップサンプリングすることは、レイヤ間画素予測の正確さを改善することがあり、ELのためのより優れた圧縮性能という結果をもたらすことがある。様々な実装では、固定補間フィルタまたは適応補間フィルタは、ブロック308で適用されることがある。固定アップサンプリング・フィルタを利用する実装に対して、フィルタ係数は、予め決定されることがあり、かつ、エンコーダ(たとえば、システム200)および(以下でより詳しく説明される)デコーダの両方によって使用されることがある。適応アップサンプリング・フィルタを利用する実装に対して、フィルタ係数は、エンコーダで(たとえば、トレーニングにより)適応的に決定されることがあり、かつ、その後、以下でさらに説明されるように、ビットストリームの一部としてデコーダへ送信されることがある。様々な実装では、ブロック308で適用された補間フィルタは、マルチタップ多相補間フィルタでもよい。さらに、様々な実装では、ブロック308は、メモリ407から取得された補間フィルタ係数を画素サンプルに適用するためにプロセッサ402において固定機能回路構成のようなハードウェアロジックを使用するSVCコーデック406を含むことがある。   In various implementations, pixel upsampling in block 308 may be performed by applying an interpolation filter to the pixel samples, but the present disclosure is limited to some special form of upsampling filtering. It will not be done. In various implementations, upsampling pixel samples may improve the accuracy of inter-layer pixel prediction and may result in better compression performance for EL. In various implementations, a fixed interpolation filter or an adaptive interpolation filter may be applied at block 308. For implementations that utilize a fixed upsampling filter, the filter coefficients may be predetermined and are used by both the encoder (eg, system 200) and the decoder (described in more detail below). Sometimes. For implementations that utilize an adaptive upsampling filter, the filter coefficients may be determined adaptively (eg, by training) at the encoder, and then as described further below in the bitstream May be sent to the decoder as part of. In various implementations, the interpolation filter applied at block 308 may be a multi-tap multi-complementary filter. Further, in various implementations, block 308 includes an SVC codec 406 that uses hardware logic, such as fixed function circuitry, in processor 402 to apply the interpolation filter coefficients obtained from memory 407 to the pixel samples. There is.

プロセス300は、ブロック304で取得された画素サンプルまたはブロック308から得られるアップサンプルされた画素のいずれかの決定が行われることがあるブロック310に続くことがある。様々な実装では、改良フィルタを画素サンプルに適用することは、レイヤ間画素予測の正確さを改善することがあり、かつ、ELに対するより良い圧縮性能をもたらすことがある。改良が選択された場合、プロセス300は、ある種の実装では、2次元(2D)空間フィルタが改良フィルタとして適用されることがあるブロック212へ進むことがあるが、本発明開示内容は、何らかの特別なタイプの改良フィルタに限定されることがない。他の実装では、空間フィルタリングは、実行されないことがあり、プロセス300は、ブロック312が実行されることがないように、ブロック310からブロック314まで省略することがある。さらに、様々な実装では、ブロック312は、メモリ408から取得された改良フィルタ係数を画素サンプルに適用するためにプロセッサ402において固定機能回路構成のようなハードウェアロジックを使用するSVCコーデック406を含むことがある。   Process 300 may continue to block 310 where a determination of either the pixel sample obtained at block 304 or an up-sampled pixel obtained from block 308 may be made. In various implementations, applying an improved filter to pixel samples may improve the accuracy of inter-layer pixel prediction and may result in better compression performance for EL. If improvement is selected, the process 300 may proceed to block 212 where, in certain implementations, a two-dimensional (2D) spatial filter may be applied as the improvement filter, It is not limited to a special type of improved filter. In other implementations, spatial filtering may not be performed and process 300 may omit from block 310 to block 314 so that block 312 is not performed. Further, in various implementations, block 312 includes an SVC codec 406 that uses hardware logic, such as fixed function circuitry, in processor 402 to apply the improved filter coefficients obtained from memory 408 to the pixel samples. There is.

様々な実装では、pがフィルタリング前の中心画素を表現し、周囲の画素qi,j(i,j=0,...,N)が2Dフィルタウィンドウを表現する場合、ブロック312で適用された改良フィルタは、以下の式に従って対応するフィルタ処理済みの中心画素p’を決定することがある。 In various implementations, if p represents the center pixel before filtering and the surrounding pixels q i, j (i, j = 0,..., N) represent a 2D filter window, then applied in block 312. The improved filter may determine the corresponding filtered center pixel p ′ according to the following equation:

p’=Σi,j=0 i,j×ai,j+b
式中、ai,j(i,j=0,...,N)は、フィルタ係数であり、bは、オフセットファクタである。
p ′ = Σ i, j = 0 N q i, j × a i, j + b
In the formula, a i, j (i, j = 0,..., N) is a filter coefficient, and b is an offset factor.

様々な実装では、フィルタ係数ai,jは、固定されることがあり、または、適応できることがある。フィルタ係数が固定される実装では、フィルタ係数ai,jおよびオフセットファクタbは、予め決められ、エンコーダおよびデコーダの両方によって利用されることがある。フィルタ係数が適応できる実装では、フィルタ係数ai,jおよびオフセットファクタbは、エンコーダで(たとえば、トレーニングにより)適応的に決定されることがあり、その後、以下でさらに説明されるようにビットストリームの一部としてデコーダに送信されることがある。 In various implementations, the filter coefficients a i, j may be fixed or may be adaptable. In implementations where the filter coefficients are fixed, the filter coefficients a i, j and offset factor b may be predetermined and utilized by both the encoder and decoder. In implementations where the filter coefficients can be adapted, the filter coefficients a i, j and the offset factor b may be determined adaptively (eg, by training) at the encoder and then the bitstream as further described below. May be sent to the decoder as part of.

システム400を参照すると、様々な実装では、ブロック308および312でのフィルタの適用は、メモリ408からフィルタ係数を取得するためにプロセッサ402を使用するSVCコーデック406によって引き受けられることがある。適応フィルタ実装では、SVCコーデック406は、メモリ408に記憶されることも記憶されないこともあるフィルタ係数を適応的に決定するためにプロセッサ402を使用することがある。   Referring to system 400, in various implementations, the application of the filters at blocks 308 and 312 may be undertaken by SVC codec 406 that uses processor 402 to obtain filter coefficients from memory 408. In an adaptive filter implementation, the SVC codec 406 may use the processor 402 to adaptively determine filter coefficients that may or may not be stored in the memory 408.

プロセッサ300は、画素サンプルが現在EL CUに対する予測された画素を決定するために使用されることがあるブロック314に続くことがある。一例を挙げると、SVCコーデック406は、ブロック304で取得され、CU 502に対する予測信号を形成するためにブロック308および/またはブロック310でフィルタ処理されることがある画素サンプルを使用することがある。様々な実装では、ブロック314は、現在EL CUに対する残差の生成をさらに含むことがある。一例を挙げると、SVCコーデック406は、ブロック504から取得された(フィルタ処理済みまたは別の方法で処理された)画素サンプルとCU 502の画素値との間の差に対応する残差を生成することがある。他の実装では、ブロック314は、現在EL CLに対する残差の生成を含まないことがある。様々な実装では、ブロック314は、予測画素を決定するために必要とされる算術演算を実行するために、固定機能回路構成のようなハードウェアロジックを使用して引き受けられることがある。さらに、このようなハードウェアロジックは、現在PUの様々な部分に対する、および/または、複数のPUに対する予測画素の並列決定を可能にすることがある。本明細書において使用されるように、「予測画素」は、1層以上の下位レイヤの1個以上のPUから取得された1個以上の画素サンプルに基づいて予測されることがある現在PUの中の画素サンプルの値を指すことがある。   The processor 300 may continue to block 314 where the pixel samples may be used to determine a predicted pixel for the current EL CU. In one example, the SVC codec 406 may use pixel samples that may be obtained at block 304 and filtered at block 308 and / or block 310 to form a prediction signal for the CU 502. In various implementations, block 314 may further include generating a residual for the current EL CU. In one example, the SVC codec 406 generates a residual corresponding to the difference between the pixel sample obtained from block 504 (filtered or otherwise processed) and the pixel value of the CU 502. Sometimes. In other implementations, block 314 may not include generating a residual for the current EL CL. In various implementations, block 314 may be undertaken using hardware logic such as fixed function circuitry to perform the arithmetic operations required to determine the predicted pixel. Further, such hardware logic may allow parallel determination of predicted pixels for various parts of the current PU and / or for multiple PUs. As used herein, a “predicted pixel” is a current PU's that may be predicted based on one or more pixel samples obtained from one or more PUs in one or more lower layers. May refer to the value of the middle pixel sample.

プロセス300は、現在EL CLに対するビットストリームが形成されることがあるブロック316で終了することがある。様々な実装では、ブロック316は、ヘッダ部と、現在EL CUに対する圧縮残差を含むこと、または、含まないことがあるデータ部とを含む、現在EL CUに対応するビットストリーム部を形成することを含むことがある。様々な実装では、ヘッダ部は、現在EL CLに対するレイヤ間画素予測を実行するか否かを指示するために、および/または、残差が現在CUに対して存在するか否かを指示するために1個以上の指標(たとえば、1個以上のフラグ)を含むことがある。   Process 300 may end at block 316 where a bitstream for the current EL CL may be formed. In various implementations, block 316 forms a bitstream portion corresponding to the current EL CU that includes a header portion and a data portion that may or may not include a compression residual for the current EL CU. May be included. In various implementations, the header portion indicates whether to perform inter-layer pixel prediction for the current EL CL and / or to indicate whether a residual exists for the current CU. May include one or more indicators (eg, one or more flags).

さらに、様々な実装では、ブロック308のアップサンプリング・フィルタ係数またはブロック312の改良フィルタ係数のいずれかに対応するフィルタ係数は、ブロック316で形成されたビットストリームにおいて指示されるか、または、含まれることがある。他の実装では、利用されたフィルタ係数は、たとえば、ブロック316で形成されたビットストリームのヘッダ部において指示されることがある。   Further, in various implementations, filter coefficients corresponding to either the upsampling filter coefficients in block 308 or the improved filter coefficients in block 312 are indicated or included in the bitstream formed in block 316. Sometimes. In other implementations, the utilized filter coefficients may be indicated in the header portion of the bitstream formed at block 316, for example.

図6は、本発明開示内容の様々な実装によるEL CUに対応するビットストリーム部例600を示す。ビットストリーム部600は、ヘッダ部602およびデータ部604を含む。ヘッダ部602は、1個以上の指標606を含む。一例を挙げると、指標606は、EL CUに対するレイヤ間画素予測を実行すべきか否かを指定する値を持つ指標608を含むことがある。指標606は、EL CUに対する残差が存在するか否かを指定する指標610を含むこと、または、含まないこともある。たとえば、一実装では、指標608は、「inter_layer_pixel_prediction_flag」としてラベル付けされることがあり、現在CU(たとえば、CU 502)がレイヤ間画素予測を使用するか否かを指示するためにCUシンタックステーブルに追加されることがある。さらに、inter_layer_pixel_prediction_flagが特別な値を有する(たとえば、1に等しい)とき、ビットストリームヘッダ部602は、続いて、「inter_layer_residual_flag」としてラベル付けされることがあり、かつ、現在CUに対する残差が存在するか否かを指示することがある指標610を含むことがある。   FIG. 6 illustrates an example bitstream portion 600 corresponding to an EL CU according to various implementations of the present disclosure. The bit stream unit 600 includes a header unit 602 and a data unit 604. The header part 602 includes one or more indicators 606. In one example, the index 606 may include an index 608 having a value that specifies whether to perform inter-layer pixel prediction for the EL CU. The indicator 606 may or may not include an indicator 610 that specifies whether there is a residual for the EL CU. For example, in one implementation, the indicator 608 may be labeled as “inter_layer_pixel_prediction_flag” and a CU syntax table to indicate whether the current CU (eg, CU 502) uses inter-layer pixel prediction. May be added. Further, when inter_layer_pixel_prediction_flag has a special value (eg, equal to 1), the bitstream header portion 602 may subsequently be labeled as “inter_layer_residual_flag” and there is a residual for the current CU. May include an indicator 610 that may indicate whether or not.

様々な実装では、指標608および610は、本発明開示内容による2つのスケーラブル映像符号化モード:レイヤ間画素予測が残差無しで使用されるレイヤ間スキップモード、および、レイヤ間画素予測が残差と共に使用されるレイヤ間直接モードを指定するために使用されることがある。このようにして、レイヤ間スキップモードでは、SVCコーデック406は、ビットストリーム600のデータ部604で残差を送信しないことがある。逆に、レイヤ間直接モードでは、SVCコーデック406は、ビットストリーム600のデータ部604で残差を送信することがある。   In various implementations, the indicators 608 and 610 are two scalable video coding modes according to the present disclosure: an inter-layer skip mode in which inter-layer pixel prediction is used without residual, and an inter-layer pixel prediction is residual. It may be used to specify the inter-layer direct mode used with. In this way, in the inter-layer skip mode, the SVC codec 406 may not transmit a residual in the data portion 604 of the bitstream 600. Conversely, in the inter-layer direct mode, the SVC codec 406 may transmit a residual in the data portion 604 of the bitstream 600.

プロセス300は、図5との関連で本明細書において説明されているが、本発明開示内容は、EL CUの全ての画素が同一の同一位置BLブロックから導出されたサンプルから予測されるレイヤ間画素予測の実行に限定されることがない。このようにして、様々な実施形態では、CUの一部分(たとえば、CUのある種のブロックだけ)が同一位置ブロックの一部だけに関して予測されることがあるが、CUの別の部分は、同一位置ブロックの他の部分に関して予測されることがある。たとえば、4個の同一位置BLブロックに対応するCUに対して、CUの第1の上方部分は、2個の上方の水平に隣接した同一位置BLブロックに基づいて予測されることがあるが、CUの第2の下方部分は、2個の下方の水平に隣接した同一位置BLブロックに基づいて予測されることがある。   Although the process 300 is described herein in connection with FIG. 5, the present disclosure discloses inter-layer prediction where all pixels of the EL CU are predicted from samples derived from the same co-located BL block. It is not limited to the execution of pixel prediction. Thus, in various embodiments, a portion of a CU (eg, only certain blocks of the CU) may be predicted for only a portion of the co-located block, while another portion of the CU is identical. May be predicted for other parts of the location block. For example, for a CU corresponding to four co-located BL blocks, the first upper portion of the CU may be predicted based on two upper horizontally adjacent co-located BL blocks, The second lower part of the CU may be predicted based on two lower horizontally adjacent co-located BL blocks.

さらに、様々な実装では、CUの異なった部分は、異なった符号化を有する異なった同一位置BLブロックから予測されることがある。上記から実施例を続けると、2個の上方の水平に隣接した同一位置BLブロックは、イントラ符号化されていることがあるが、2個の下方の水平に隣接した同一位置BLブロックは、インター符号化されていることがある。このようにして、CUの第1の部分は、イントラ符号化された画素サンプルから予測されることがあるが、CUの第2の部分は、インター符号化された画素サンプルから予測されることがある。   Further, in various implementations, different parts of the CU may be predicted from different co-located BL blocks with different encodings. Continuing with the above example, two upper horizontally adjacent identical position BL blocks may be intra-coded, but two lower horizontally adjacent identical position BL blocks may be inter-coded. It may be encoded. In this way, the first part of the CU may be predicted from intra-coded pixel samples, while the second part of the CU may be predicted from inter-coded pixel samples. is there.

図7は、本発明開示内容によるSVCデコーディングシステム例700を示す。システム700は、たとえば、システム100のデコーダ108およびデコーダ110にそれぞれ対応することがある参照BLデコーダ702およびターゲットELデコーダ704を含む。システム700は、2層のSVC符号化レイヤに対応する2台のデコーダ702および704だけを含むが、SVC符号化レイヤおよび対応するデコーダは、本発明開示内容によれば、図7に描かれたこれらに加えていくつでも利用されることがある。たとえば、付加的な拡張レイヤに対応する付加的なデコーダは、システム700に含まれることがあり、ELデコーダ704に関して以下で説明されるのと同様にBLデコーダ702と相互作用することがある。   FIG. 7 shows an example SVC decoding system 700 according to the present disclosure. System 700 includes a reference BL decoder 702 and a target EL decoder 704 that may correspond to, for example, decoder 108 and decoder 110 of system 100, respectively. System 700 includes only two decoders 702 and 704 corresponding to the two SVC coding layers, which are depicted in FIG. 7 according to the present disclosure. In addition to these, any number may be used. For example, additional decoders corresponding to additional enhancement layers may be included in system 700 and may interact with BL decoder 702 as described below with respect to EL decoder 704.

SVC符号化を引き受けるためにシステム700を利用するとき、EL出力フレーム706のような拡張レイヤの中のピクチャまたは画像フレームは、ELデコーダ704によって、BLデコーダ702によって処理されたままのBL出力フレーム708のようなピクチャから、または、同じ拡張レイヤの中でELデコーダ704によって予めエンコードされた他のピクチャからインター予測されることがある。以下でより詳しく説明されるように、システム700を使用してレイヤ間画素サンプル予測演算を引き受けるとき、EL出力フレーム706のようなレイヤ704の中のピクチャの画素は、BLデコーダ702によって提供された再構成BL画素サンプル710を使用して予測されることがある。サンプル710は、逆変換および量子化モジュール712と、インター予測モジュール714と、インループ・フィルタリング・モジュール718とを使用して取得されることがある。特に、インター予測モジュール714を使用してインター予測を実行するためにBLデコーダ702を動作させるとき、サンプル710は、インループ・フィルタリング・モジュール718の出力から取得されることがある。   When utilizing the system 700 to undertake SVC encoding, a picture or image frame in an enhancement layer, such as the EL output frame 706, is processed by the EL decoder 704 as it is processed by the BL decoder 702. Or from other pictures pre-encoded by the EL decoder 704 in the same enhancement layer. As described in more detail below, the pixels of a picture in layer 704, such as EL output frame 706, were provided by BL decoder 702 when undertaking inter-layer pixel sample prediction operations using system 700. May be predicted using reconstructed BL pixel samples 710. Sample 710 may be obtained using inverse transform and quantization module 712, inter prediction module 714, and in-loop filtering module 718. In particular, samples 710 may be obtained from the output of the in-loop filtering module 718 when operating the BL decoder 702 to perform inter prediction using the inter prediction module 714.

以下でより詳しく説明されるように、再構成画素サンプル710は、ELデコーダ704に供給される前に、アップサンプリング・モジュール720および改良モジュール722によって処理されることがある。様々な実装では、アップサンプリング・モジュール720および改良モジュール722は、レイヤ間予測モジュール(たとえば、システム100のレイヤ間予測モジュール130)のコンポーネントであることがある。ELデコーダ704で、改良モジュール322によって供給されたフィルタ処理済みの画素サンプル724は、逆変換および量子化モジュール726、ならびに、インループ・フィルタリング・モジュール728と組み合わせて、EL出力フレーム706の中の画素サンプルを予測するために使用されることがある。EL出力フレーム706のレイヤ間画素サンプル予測を引き受けるために動作させられるとき、ELデコーダ704は、イントラ予測モジュール730またはインター予測モジュール732のいずれも利用することがない。ELデコーダ704は、その後、EL出力フレーム706の様々なCUの中の様々な画素を予測するためにフィルタ処理済みの画素サンプル724を使用することがある。   As described in more detail below, reconstructed pixel samples 710 may be processed by upsampling module 720 and refinement module 722 before being provided to EL decoder 704. In various implementations, upsampling module 720 and refinement module 722 may be components of an inter-layer prediction module (eg, inter-layer prediction module 130 of system 100). In EL decoder 704, the filtered pixel samples 724 provided by refinement module 322 are combined with inverse transform and quantization module 726 and in-loop filtering module 728 to produce pixels in EL output frame 706. Sometimes used to predict a sample. When operated to assume inter-layer pixel sample prediction for EL output frame 706, EL decoder 704 does not utilize either intra prediction module 730 or inter prediction module 732. The EL decoder 704 may then use the filtered pixel samples 724 to predict various pixels in the various CUs of the EL output frame 706.

本明細書において説明されたシステムの様々なコンポーネントは、ソフトウェア論理、ファームウェア論理、および/またはハードウェアロジック、および/または、これらのいずれかの組み合わせで実装されることがある。たとえば、システム700の様々なコンポーネントは、少なくとも部分的に、たとえば、スマートフォンのようなコンピューティングシステムにおいて見られることがあるようなシステム・オン・チップ(SoC)のハードウェアによって、提供されることがある。当業者は、本明細書において説明されたシステムが対応する図において描かれていない付加的なコンポーネントを含むことがあることを認識することがある。たとえば、システム200および700は、明瞭さのために図2および7に描かれていないビットストリーム・マルチプレクサ・モジュールなどのような付加的なコンポーネントを含むことがある。   The various components of the systems described herein may be implemented with software logic, firmware logic, and / or hardware logic, and / or any combination thereof. For example, the various components of system 700 may be provided, at least in part, by system on chip (SoC) hardware, such as may be found in a computing system such as a smartphone, for example. is there. Those skilled in the art may recognize that the systems described herein may include additional components not depicted in the corresponding figures. For example, systems 200 and 700 may include additional components such as a bitstream multiplexer module that is not depicted in FIGS. 2 and 7 for clarity.

図8は、本発明開示内容の様々な実装によるプロセス例800のフロー図を示す。プロセス800は、図8のブロック802、804、806、808、810、812、814、816および818のうちの1つ以上によって示されるように1つ以上の動作、機能または作用を含むことがある。限定されることのない例として、プロセス800は、デコーダシステム700によって引き受けられるように、ELレイヤの一部分(たとえば、本実装におけるCU)に対するスケーラブル映像符号化プロセスの少なくとも一部を形成することがある。さらに、プロセス800は、SVCコーデックモジュール406がデコーダシステム700をインスタンス化することがある図4のスケーラブル映像符号化システム400を使用して拡張レイヤCUを符号化することと、図6のビットストリーム例600とに関連して本明細書において説明されることもある。   FIG. 8 shows a flow diagram of an example process 800 according to various implementations of the present disclosure. Process 800 may include one or more operations, functions or actions as indicated by one or more of blocks 802, 804, 806, 808, 810, 812, 814, 816 and 818 of FIG. . As a non-limiting example, process 800 may form at least part of a scalable video encoding process for a portion of an EL layer (eg, a CU in this implementation), as undertaken by decoder system 700. . Further, the process 800 encodes the enhancement layer CU using the scalable video coding system 400 of FIG. 4 where the SVC codec module 406 may instantiate the decoder system 700 and the example bitstream of FIG. 600 may be described herein in connection with FIG.

プロセッサ800は、現在CUに対するレイヤ間画素予測を実行すべきか否かに関する決定が行われることがあるブロック802で開始することがある。様々な実装では、SVCコーデック406は、ビットストリーム600のヘッダ部602において受信された指標608の値に応じてブロック802を引き受けることがある。一例として挙げると、指標608が第1の値(たとえば、1)を有する場合、SVCコーデック406は、現在CUに対するレイヤ間画素サンプル予測を引き受けることを決定することがある。逆に、指標608が第2の値(たとえば、2)を有する場合、SVCコーデック406は、現在CUに対するレイヤ間画素サンプル予測を引き受けないことを決定することがある。   The processor 800 may begin at block 802 where a determination may be made regarding whether to perform inter-layer pixel prediction for the current CU. In various implementations, the SVC codec 406 may assume the block 802 depending on the value of the indicator 608 received in the header portion 602 of the bitstream 600. As an example, if the indicator 608 has a first value (eg, 1), the SVC codec 406 may decide to undertake inter-layer pixel sample prediction for the current CU. Conversely, if the index 608 has a second value (eg, 2), the SVC codec 406 may determine not to assume inter-layer pixel sample prediction for the current CU.

ブロック802が否定的な決定という結果になる場合、プロセス800は、現在CUが1個以上の予めデコードされたCUに基づいてデコードされるということになるスキップモードを適用するか否かに関して決定が行われることがあるブロック804に進むことがある。スキップモードがブロック804で呼び出された場合、プロセス800は、スキップモード実装に対して、現在CUに対する画素値が1個以上の予めデコードされたCUに基づいて再構成されることがあるブロック814に進むことがある。   If block 802 results in a negative decision, process 800 determines whether to apply a skip mode that would result in the current CU being decoded based on one or more pre-decoded CUs. Proceed to block 804, which may occur. If the skip mode is invoked at block 804, the process 800 may return to block 814 where pixel values for the current CU may be reconstructed based on one or more pre-decoded CUs for the skip mode implementation. May go forward.

逆に、スキップモードがブロック804で呼び出されない場合、プロセス800は、CUに対してイントラ予測が実行されるべきか、または、インター予測が実行されるべきかに関する決定が行われることがあるブロック806に進むことがある。イントラ予測が選択された場合、プロセス800は、公知のレイヤ内イントラ予測技術を使用してイントラ予測が実行されることがあるブロック808に進むことがある。インター予測が選択された場合、プロセス800は、公知のレイヤ間インター予測技術を使用してインター予測が実行されることがあるブロック810に進むことがある。様々な実装では、SVCコーデック406は、たとえば、ブロック808を引き受けるためにデコーダ704のイントラ予測モジュール730を使用して、そして、ブロック810を引き受けるためにデコーダ704のインター予測モジュール732を使用して、ブロック804、806、808および810を引き受けることがある。   Conversely, if the skip mode is not invoked at block 804, the process 800 may make a decision regarding whether intra prediction or inter prediction should be performed for the CU. The process may proceed to 806. If intra prediction is selected, process 800 may proceed to block 808 where intra prediction may be performed using known intra-layer intra prediction techniques. If inter prediction is selected, process 800 may proceed to block 810 where inter prediction may be performed using known inter-layer inter prediction techniques. In various implementations, the SVC codec 406 uses, for example, the intra prediction module 730 of the decoder 704 to assume the block 808 and the inter prediction module 732 of the decoder 704 to assume the block 810, Blocks 804, 806, 808 and 810 may be undertaken.

プロセス800は、残差デコーディングが公知の残差デコーディング技術と、ブロック808または810のいずれかの結果とを使用して引き受けられることがあるブロック812に続くことがある。プロセス800は、その後、CU画素値が公知の技術とブロック812の結果とを使用して再構成されることがあるブロック814で終了することがある。   Process 800 may continue to block 812 where residual decoding may be undertaken using a known residual decoding technique and the result of either block 808 or 810. Process 800 may then end at block 814 where the CU pixel values may be reconstructed using known techniques and the results of block 812.

ブロック802の検討に戻ると、ブロック802が肯定的な決定という結果をもたらす場合、プロセス800は、予測画素がプロセス300に関して上記説明されたのと同様に下位レイヤ(群)から取得された画素サンプルに基づいて決定されることがあるブロック816に進むことがある。様々な実装では、SVCコーデック406は、第1の値(たとえば、1)を有する指標608に応じてブロック816を引き受けることがある。SVCコーデック406は、その後、たとえば、同一位置下位ELおよび/またはBLブロックに対応する画素サンプルを取得することがあり、アップサンプル・フィルタリングを画素サンプルに適用すること、または、適用しないことがあり、そして、改良フィルタリングを画素サンプルに適用すること、または、適用しないこともある。さらに、再構成画素サンプルのアップサンプル・フィルタリングおよび/または改良フィルタリングを引き受けるとき、SVCコーデック406は、ビットストリーム600によって指示されるか、または、ビットストリーム600の中で伝達されたフィルタ係数を使用してそのように行う。   Returning to the review of block 802, if block 802 results in a positive decision, the process 800 may include pixel samples from which the predicted pixel was obtained from the lower layer (s) as described above with respect to the process 300. May proceed to block 816, which may be determined based on In various implementations, the SVC codec 406 may assume block 816 in response to an indicator 608 having a first value (eg, 1). The SVC codec 406 may then obtain, for example, pixel samples corresponding to co-located sub-EL and / or BL blocks, and may or may not apply up-sample filtering to the pixel samples, Then, improved filtering may or may not be applied to the pixel samples. Further, when undertaking upsample filtering and / or refinement filtering of the reconstructed pixel samples, the SVC codec 406 uses the filter coefficients indicated by the bitstream 600 or communicated in the bitstream 600. Do it that way.

プロセス800は、残差がCUに対して利用可能であるか否かに関する決定が行われることがあるブロック818に続くことがある。様々な実装では、CUに関連付けられ、デコーダによって受信されたビットストリームは、ビットストリームがCUに対する残差を含むか否かを指定する指標を含むことがある。たとえば、SVCコーデック406は、ビットストリーム600の中の指標610の値に応じてブロック818を引き受けることがある。一例を挙げると、指標610が第1の値(たとえば、1)を有する場合、レイヤ間画素予測がCU画素値を再構成するために残差と共に使用されるレイヤ間直接モードが呼び出されることがあり、プロセス800は、ブロック812、そして、それ故にブロック814に進むことがある。そうではない場合、指標610が第2の値(たとえば、0)を有する場合、レイヤ間画素予測がCU画素値を再構成するために残差なしで使用されるレイヤ間スキップモードが呼び出されることがあり、プロセス800は、ブロック812を呼び出すことなしに、直接的にブロック814に進むことがある。   Process 800 may continue to block 818 where a determination may be made as to whether a residual is available for the CU. In various implementations, the bitstream associated with the CU and received by the decoder may include an indicator that specifies whether the bitstream includes a residual for the CU. For example, SVC codec 406 may assume block 818 depending on the value of index 610 in bitstream 600. As an example, if the indicator 610 has a first value (eg, 1), an inter-layer direct mode may be invoked where inter-layer pixel prediction is used with the residual to reconstruct the CU pixel value. Yes, process 800 may proceed to block 812 and hence block 814. Otherwise, if the index 610 has a second value (eg, 0), an inter-layer skip mode is invoked in which inter-layer pixel prediction is used without residual to reconstruct the CU pixel value. The process 800 may proceed directly to block 814 without calling block 812.

プロセス800は、EL CUに対するデコーディングプロセスとして本明細書において説明されているが、本発明開示内容は、CUレベルでのレイヤ間画素サンプル予測の実行に限定されることがない。このようにして、様々な実装では、プロセス800は、EL PUまたはEL TUにさらに適用されることがある。さらに、前述のとおり、本明細書において説明されたあらゆるレイヤ間画素サンプル予測プロセスは、時間スケーラブル映像符号化、空間スケーラブル映像符号化および/または品質スケーラブル映像符号化との関連で適用されることがある。   Although process 800 is described herein as a decoding process for an EL CU, the present disclosure is not limited to performing inter-layer pixel sample prediction at the CU level. Thus, in various implementations, the process 800 may be further applied to an EL PU or EL TU. Further, as described above, any inter-layer pixel sample prediction process described herein may be applied in the context of temporal scalable video coding, spatial scalable video coding, and / or quality scalable video coding. is there.

図3および8に示されるように、プロセス例300および800の実装は、例示された順序に表されたあらゆるブロックの引き受けを含むことがあるが、本発明開示内容は、この点に関して限定されることがなく、様々な実施例において、プロセス200および800の実装は、表された順序、および/または、例示された順序とは異なる順序でブロックの部分集合だけの引き受けを含むことがある。   As shown in FIGS. 3 and 8, implementations of example processes 300 and 800 may include underwriting of any block represented in the illustrated order, but the present disclosure is limited in this regard. Rather, in various embodiments, implementations of processes 200 and 800 may include underwriting only a subset of blocks in the order shown and / or in a different order than the illustrated order.

その上、図3および8のブロックのうちのいずれか1つ以上は、1つ以上のコンピュータ・プログラム・プロダクトによって提供された命令に応じて引き受けられることがある。このようなプログラム・プロダクトは、たとえば、プロセッサによって実行されたときに、本明細書において説明された機能性を提供することがある命令を供給する信号搬送媒体(signal bearing media)を含むことがある。コンピュータ・プログラム・プロダクトは、何らかの形をとる1つ以上のマシン読み取り可能な媒体で提供されることがある。このようにして、たとえば、1個以上のプロセッサコア(群)を含んでいるプロセッサは、1つ以上のマシン読み取り可能な媒体によってプロセッサに伝達されたプログラムコードおよび/または命令もしくは命令セットに応じて、図3および8に表されたブロックの1つ以上を引き受けることがある。一般に、マシン読み取り可能な媒体は、本明細書において説明された装置および/またはシステムのいずれかに映像システム100、200および700、および/または、SVCコーデックモジュール406の少なくとも一部分を実装させるプログラムコードおよび/または命令もしくは命令セットの形をしたソフトウェアを伝達することがある。   Moreover, any one or more of the blocks of FIGS. 3 and 8 may be undertaken in response to instructions provided by one or more computer program products. Such a program product may include, for example, a signal bearing media that provides instructions that, when executed by a processor, may provide the functionality described herein. . A computer program product may be provided on one or more machine-readable media in any form. Thus, for example, a processor including one or more processor core (s) may be responsive to program code and / or instructions or instruction sets communicated to a processor by one or more machine-readable media. , One or more of the blocks represented in FIGS. 3 and 8 may be undertaken. Generally, the machine-readable medium is a program code that causes any of the devices and / or systems described herein to implement at least a portion of the video systems 100, 200, and 700, and / or the SVC codec module 406. May transmit software in the form of instructions or instruction sets.

本明細書において記載されたいずれかの実装で使用されるように、用語「モジュール」は、本明細書において記載された機能性を提供するように構成されているソフトウェア、ファームウェア、および/または、ハードウェアの何らかの組み合わせを指す。ソフトウェアは、ソフトウェアパッケージ、コードおよび/または命令セットもしくは命令として具現化されることがあり、本明細書において記載されたいずれかの実装で使用されるように、「ハードウェア」は、たとえば、単独で、もしくは、何らかの組み合わせで、ハードワイヤード回路構成、プログラマブル回路構成、状態機械回路構成、および/または、プログラマブル回路によって実行される命令を記憶するファームウェアを含むことがある。モジュールは、集合的に、または、個別に、大規模システムの一部、たとえば、集積回路(IC)、システム・オン・チップ(SoC)などを形成する回路構成として具現化されることがある。   As used in any of the implementations described herein, the term “module” refers to software, firmware, and / or configured to provide the functionality described herein. Refers to any combination of hardware. Software may be embodied as a software package, code and / or instruction set or instructions, and as used in any of the implementations described herein, “hardware” may be, for example, a single Or, in some combination, may include firmware that stores hardwired circuitry, programmable circuitry, state machine circuitry, and / or instructions executed by the programmable circuitry. A module may be embodied collectively or individually as a circuit configuration that forms part of a larger system, such as an integrated circuit (IC), system on chip (SoC), and the like.

図9は、本発明開示内容によるシステム例900を示す。様々な実装では、システム900は、メディアシステムでもよいが、システム900は、この状況に限定されるものではない。たとえば、システム900は、パーソナル・コンピュータ(PC)、ラップトップ・コンピュータ、ウルトララップトップ・コンピュータ、タブレット、タッチパッド、ポータブル・コンピュータ、ハンドヘルド・コンピュータ、パームトップ・コンピュータ、個人情報端末(PDA)、セルラ電話機、組み合わせ式セルラ電話機/PDA、テレビジョン、スマート装置(たとえば、スマートフォン、スマートタブレットまたはスマートテレビジョン)、モバイル・インターネット装置(MID)、メッセージング装置、データ通信装置、カメラ(たとえば、自動焦点・自動露出カメラ、超望遠カメラ、スーパーズーム・カメラ、デジタル一眼レフ(DSLR)カメラ)などに組み込まれることがある。   FIG. 9 illustrates an example system 900 according to the present disclosure. In various implementations, the system 900 may be a media system, but the system 900 is not limited to this situation. For example, the system 900 can be a personal computer (PC), laptop computer, ultra laptop computer, tablet, touchpad, portable computer, handheld computer, palmtop computer, personal information terminal (PDA), cellular Telephone, combination cellular phone / PDA, television, smart device (eg, smart phone, smart tablet or smart television), mobile internet device (MID), messaging device, data communication device, camera (eg, auto focus / auto) It may be incorporated in an exposure camera, a super telephoto camera, a super zoom camera, a digital single lens reflex (DSLR) camera, or the like.

様々な実装では、システム900は、ディスプレイ900に結合されたプラットフォーム902を含む。プラットフォーム902は、コンテンツサービス装置(群)930またはコンテンツ配信装置(群)940といったコンテンツ装置から、または、他の類似したコンテンツソースからコンテンツを受信することがある。1つ以上のナビゲーションフィーチャー部分を有するナビゲーションコントローラ950は、たとえば、プラットフォーム902および/またはディスプレイ920と相互作用するために使用されることがある。これらのコンポーネントの各々は、以下でより詳しく説明される。   In various implementations, the system 900 includes a platform 902 coupled to the display 900. Platform 902 may receive content from content devices such as content service device (s) 930 or content distribution device (s) 940 or from other similar content sources. A navigation controller 950 having one or more navigation feature portions may be used, for example, to interact with platform 902 and / or display 920. Each of these components is described in more detail below.

様々な実装では、プラットフォーム902は、チップセット905、プロセッサ910、メモリ912、ストレージ914、グラフィックスサブシステム915、アプリケーション916および/または無線機918の何らかの組み合わせを含むことがある。チップセット905は、プロセッサ910と、メモリ912、ストレージ914、グラフィックスサブシステム915、アプリケーション916、および/または無線機918の間で通信を行うことがある。たとえば、チップセット905は、ストレージ914との相互通信を行う能力を持つストレージアダプタ(図示せず)を含むことがある。   In various implementations, platform 902 may include any combination of chipset 905, processor 910, memory 912, storage 914, graphics subsystem 915, application 916, and / or radio 918. Chipset 905 may communicate between processor 910 and memory 912, storage 914, graphics subsystem 915, application 916, and / or radio 918. For example, chipset 905 may include a storage adapter (not shown) that is capable of intercommunication with storage 914.

プロセッサ910は、複合命令セットコンピュータ(CISC)または縮小命令セットコンピュータ(RISC)プロセッサ、x86命令セット互換プロセッサ、マルチコア、またはその他のマイクロプロセッサもしくは中央処理ユニット(CPU)として実装されることがある。様々な実装では、プロセッサ910は、デュアルコア・プロセッサ(群)、デュアルコア・モバイル・プロセッサ(群)などでもよい。   The processor 910 may be implemented as a complex instruction set computer (CISC) or reduced instruction set computer (RISC) processor, x86 instruction set compatible processor, multi-core, or other microprocessor or central processing unit (CPU). In various implementations, the processor 910 may be a dual-core processor (s), a dual-core mobile processor (s), etc.

メモリ912は、限定されることはないが、ランダム・アクセス・メモリ(RAM)、ダイナミック・ランダム・アクセス・メモリ(DRAM)またはスタティックRAM(SRAM)のような揮発性メモリ装置として実装されることがある。   Memory 912 may be implemented as a volatile memory device such as, but not limited to, random access memory (RAM), dynamic random access memory (DRAM), or static RAM (SRAM). is there.

ストレージ914は、限定されることはないが、磁気ディスクドライブ、光ディスクドライブ、テープドライブ、内蔵ストレージ装置、外付けストレージ装置、フラッシュメモリ、バッテリバックアップ式SDRAM(同期DRAM)、および/またはネットワークアクセス可能なストレージ装置のような不揮発性ストレージ装置として実装されることがある。様々な実装では、ストレージ914は、たとえば、複数のハード装置が含まれている場合、貴重なデジタル媒体のためストレージ性能強化保護を増進する技術を含むことがある。   Storage 914 includes, but is not limited to, a magnetic disk drive, optical disk drive, tape drive, internal storage device, external storage device, flash memory, battery-backed SDRAM (synchronous DRAM), and / or network accessible It may be implemented as a non-volatile storage device such as a storage device. In various implementations, the storage 914 may include technology that enhances storage performance-enhanced protection for valuable digital media, for example when multiple hard devices are included.

グラフィックスサブシステム915は、表示用静止画または動画のような画像の処理を実行することがある。グラフィックスサブシステム915は、たとえば、グラフィックス処理ユニット(GPU)または視覚処理ユニット(VPU)でもよい。アナログまたはデジタルインターフェイスは、グラフィックスサブシステム915とディスプレイ920とを通信結合するために使用されることがある。たとえば、インターフェイスは、高品位マルチメディアインターフェイス、ディスプレイポート、無線HDMI(登録商標)、および/または、無線HD準拠技術のうちのいずれかでもよい。グラフィックスサブシステム915は、プロセッサ910またはチップセット905に統合されることがある。ある種の実施では、グラフィックスサブシステム915は、チップセット905に通信結合された独立型装置でもよい。   The graphics subsystem 915 may perform processing of images such as display still images or moving images. Graphics subsystem 915 may be, for example, a graphics processing unit (GPU) or a visual processing unit (VPU). An analog or digital interface may be used to communicatively couple graphics subsystem 915 and display 920. For example, the interface may be any of a high definition multimedia interface, a display port, wireless HDMI, and / or wireless HD compliant technology. Graphics subsystem 915 may be integrated into processor 910 or chipset 905. In certain implementations, graphics subsystem 915 may be a stand-alone device that is communicatively coupled to chipset 905.

本明細書において説明されたグラフィックスおよび/または映像処理技術は、様々なハードウェアアーキテクチャで実施されることがある。たとえば、グラフィックスおよび/または映像機能性は、チップセットの内部に統合されることがある。代替的に、ディスクリートグラフィックスおよび/または映像プロセッサが使用されることがある。さらに別の実装として、グラフィックスおよび/または映像機能は、マルチコア・プロセッサを含んでいる汎用プロセッサによって提供されることがある。さらなる実施形態では、機能は、消費者エレクトロニクス装置に実装されることがある。   The graphics and / or video processing techniques described herein may be implemented with various hardware architectures. For example, graphics and / or video functionality may be integrated inside the chipset. Alternatively, discrete graphics and / or video processors may be used. As yet another implementation, graphics and / or video functionality may be provided by a general purpose processor including a multi-core processor. In further embodiments, the functionality may be implemented in a consumer electronics device.

無線機918は、様々な好適な無線通信技術を使用して信号を送受信する能力を持つ1台以上の無線機を含むことがある。このような技術は、1つ以上の無線ネットワークに亘る通信を伴うことがある。無線ネットワーク例は、(限定されることなく)無線ローカル・エリア・ネットワーク(WLAN)、無線パーソナル・エリア・ネットワーク(WPAN)、無線メトロポリタン・エリア・ネットワーク(WMAN)、セルラネットワーク、および衛星ネットワークを含む。このようなネットワークに亘り信する際に、無線機918は、いずれかのバージョンの1つ以上の該当する規格に従って動作することがある。   Radio 918 may include one or more radios capable of transmitting and receiving signals using various suitable wireless communication technologies. Such techniques may involve communication across one or more wireless networks. Examples of wireless networks include (but are not limited to) wireless local area networks (WLAN), wireless personal area networks (WPAN), wireless metropolitan area networks (WMAN), cellular networks, and satellite networks. . In communicating across such networks, the radio 918 may operate in accordance with one or more applicable standards of any version.

様々な実装では、ディスプレイ920は、何らかのテレビジョン型モニタまたはディスプレイを含むことがある。ディスプレイ920は、たとえば、コンピュータ・ディスプレイ・スクリーン、タッチ・スクリーン・ディスプレイ、映像モニタ、テレビジョンのような装置、および/または、テレビジョンを含むことがある。ディスプレイ920は、デジタル方式および/またはアナログ方式でもよい。様々な実装では、ディスプレイ920は、ホログラフィックディスプレイでもよい。さらに、ディスプレイ920は、視覚的投影を受ける透明表面でもよい。このような投影は、様々な形式の情報、画像、および/または物体を伝達することがある。たとえば、このような投影は、モバイル拡張現実(MAR)アプリケーションのための視覚的オーバーレイでもよい。1つ以上のソフトウェアアプリケーション916の制御下で、プラットフォーム902は、ディスプレイ920にユーザ・インターフェイス922を表示することがある。   In various implementations, the display 920 may include any television type monitor or display. Display 920 may include, for example, a computer display screen, a touch screen display, a video monitor, a device such as a television, and / or a television. The display 920 may be digital and / or analog. In various implementations, the display 920 may be a holographic display. Further, the display 920 may be a transparent surface that receives a visual projection. Such projections may convey various types of information, images, and / or objects. For example, such a projection may be a visual overlay for mobile augmented reality (MAR) applications. Under the control of one or more software applications 916, the platform 902 may display a user interface 922 on the display 920.

様々な実装では、コンテンツサービス装置(群)930は、全国的、国際的および/または独立型サービスによってホストされ、よって、たとえば、インターネットを介してプラットフォーム902を利用できることがある。コンテンツサービス装置(群)930は、プラットフォーム902および/またはディスプレイ920に結合されることがある。プレットフォーム902および/またはコンテンツサービス装置(群)930は、メディア情報をネットワーク960との間で通信(たとえば、送信および/または受信)するためにネットワーク960に結合されることがある。コンテンツ配信装置(群)940は、プラットフォーム902および/またはディスプレイ920にさらに結合されることがある。   In various implementations, the content service device (s) 930 may be hosted by national, international, and / or stand-alone services, so that the platform 902 may be available over the Internet, for example. Content service device (s) 930 may be coupled to platform 902 and / or display 920. The tablet form 902 and / or content service device (s) 930 may be coupled to the network 960 for communicating (eg, transmitting and / or receiving) media information to and from the network 960. Content distribution device (s) 940 may be further coupled to platform 902 and / or display 920.

様々な実装では、コンテンツサービス装置(群)930は、ケーブル・テレビジョン・ボックスと、パーソナル・コンピュータと、ネットワークと、電話機と、デジタル情報および/またはコンテンツを配信する能力を持つインターネット接続可能な装置もしくは電気製品と、ネットワーク960を介して、もしくは、直接的にコンテンツプロバイダとプラットフォーム902および/またはディスプレイ920との間でコンテンツを一方向もしくは双方向に通信する能力を持つその他の類似した装置とを含むことがある。コンテンツは、ネットワーク960を介して、システム980のコンポーネントのうちのいずれか1つとコンテンツプロバイダとの間で一方向および/または双方向に通信されることがあることが認められるであろう。コンテンツの実施例は、たとえば、映像、音楽、医療およびゲーミング情報などを含んでいるいずれかのメディア情報を含むことがある。   In various implementations, the content service device (s) 930 is a cable television box, a personal computer, a network, a telephone, and an internet connectable device capable of distributing digital information and / or content. Or an electrical appliance and other similar devices capable of one-way or two-way communication of content between the content provider and the platform 902 and / or the display 920 directly via the network 960. May contain. It will be appreciated that content may be communicated unidirectionally and / or bidirectionally via a network 960 between any one of the components of the system 980 and a content provider. Examples of content may include any media information including, for example, video, music, medical and gaming information, and the like.

コンテンツサービス装置(群)930は、ケーブル・テレビジョン・プログラミング、デジタル情報、および/またはその他のコンテンツのようなコンテンツを受信することがある。コンテンツプロバイダの実施例は、何らかのケーブルもしくは衛星テレビジョン、または、ラジオもしくはインターネット・コンテンツ・プロバイダを含むことがある。提供された実施例は、決して本発明開示内容による実装を限定するという意味ではない。   Content service device (s) 930 may receive content such as cable television programming, digital information, and / or other content. Examples of content providers may include any cable or satellite television or radio or internet content provider. The provided examples are in no way meant to limit implementation according to the present disclosure.

様々な実装では、プラットフォーム902は、1つ以上のナビゲーションフィーチャー部分を有するナビゲーションコントローラ950から制御信号を受信することがある。コントローラ950のナビゲーションフィーチャー部分は、たとえば、ユーザ・インターフェイス922と相互作用するために使用されることがある。様々な実施形態では、ナビゲーションコントローラ950は、ユーザが空間(たとえば、連続的かつ多次元)データをコンピュータに入力することを可能にさせるコンピュータ・ハードウェア・コンポーネント(具体的に、ヒューマン・インターフェイス装置)であることがある位置決め装置でもよい。グラフィカル・ユーザ・インターフェイス(GUI)と、テレビジョンおよびモニタのような多くのシステムは、ユーザが物理的ジェスチャを使用してデータを制御し、コンピュータまたはテレビジョンに供給することを可能にさせる。   In various implementations, the platform 902 may receive control signals from a navigation controller 950 having one or more navigation feature portions. The navigation feature portion of the controller 950 may be used to interact with the user interface 922, for example. In various embodiments, the navigation controller 950 is a computer hardware component (specifically, a human interface device) that allows a user to enter spatial (eg, continuous and multidimensional) data into a computer. It may be a positioning device. Many systems, such as graphical user interfaces (GUIs) and televisions and monitors, allow users to use physical gestures to control and feed data to a computer or television.

コントローラ950のナビゲーションフィーチャー部分の運動は、ディスプレイ上に表示されたポインタ、カーソル、フォーカスリング、またはその他の視覚的指標の運動によってディスプレイ(たとえば、ディスプレイ920)上に複製されることがある。たとえば、ソフトウェアアプリケーション916の制御下で、ナビゲーションコントローラ950に位置しているナビゲーションフィーチャー部分は、たとえば、ユーザ・インターフェイス922に表示された仮想ナビゲーションフィーチャー部分にマップされることがある。様々な実施形態では、コントローラ950は、別個のコンポーネントではなく、プラットフォーム902および/またはディスプレイ920に統合されることがある。本発明開示内容は、しかし、本明細書において明らかにされ、または、説明された要素または状況に限定されることがない。   The movement of the navigation feature portion of controller 950 may be replicated on a display (eg, display 920) by movement of a pointer, cursor, focus ring, or other visual indicator displayed on the display. For example, a navigation feature portion located in the navigation controller 950 under the control of the software application 916 may be mapped to a virtual navigation feature portion displayed on the user interface 922, for example. In various embodiments, controller 950 may be integrated into platform 902 and / or display 920 rather than as a separate component. The present disclosure, however, is not limited to the elements or circumstances that are disclosed or described herein.

様々な実装では、ドライバ(図示せず)は、たとえば、有効にされたとき、ユーザが初期起動後にボタンのタッチでテレビジョンのようなプラットフォーム902を瞬時にオンおよびオフにすることを可能にする技術を含むことがある。プログラム論理は、プラットフォームが「オフ」にされているとき、プラットフォーム902がメディアアダプタまたはその他のコンテンツサービス装置(群)930もしくはコンテンツ配信装置(群)940へのコンテンツをストリーム化することを可能にさせることがある。付加的に、チップ905は、たとえば、5.1サラウンド・サウンド・オーディオおよび/または高品位7.1サラウンド・サウンド・オーディオのためのハードウェアおよび/またはソフトウェアサポートを含むことがある。ドライバは、統合されたグラフィックスプラットフォームのためのグラフィックスドライバを含むことがある。様々な実施形態では、グラフィックスドライバは、ペリフェラル・コンポーネント・インターコネクト(PCI)エクスプレス・グラフィック・カードを備えることがある。   In various implementations, a driver (not shown), for example, when enabled, allows a user to instantly turn on and off a television-like platform 902 with a touch of a button after initial activation. May include technology. Program logic allows the platform 902 to stream content to a media adapter or other content service device (s) 930 or content distribution device (s) 940 when the platform is “off”. Sometimes. Additionally, chip 905 may include hardware and / or software support for, for example, 5.1 surround sound audio and / or high definition 7.1 surround sound audio. The driver may include a graphics driver for the integrated graphics platform. In various embodiments, the graphics driver may comprise a peripheral component interconnect (PCI) express graphics card.

様々な実装では、システム900に表されたコンポーネントのうちの1つ以上は、統合されることがある。たとえば、プラットフォーム902およびコンテンツサービス装置(群)930は、統合されることがあり、もしくは、プラットフォーム902およびコンテンツ配信装置(群)940は、統合されることがあり、または、たとえば、プラットフォーム902、コンテンツサービス装置(群)930、およびコンテンツ配信装置(群)940は、統合されることがある。様々な実施形態では、プラットフォーム902およびディスプレイ920は、統合型ユニットであることがある。たとえば、ディスプレイ920およびコンテンツサービス装置(群)930は、統合されることがあり、または、ディスプレイ920およびコンテンツ配信装置(群)940は、統合されることがある。これらの実施例は、本発明開示内容を限定するという意味ではない。   In various implementations, one or more of the components represented in system 900 may be integrated. For example, platform 902 and content service device (s) 930 may be integrated, or platform 902 and content distribution device (s) 940 may be integrated, or, for example, platform 902, content The service device (group) 930 and the content distribution device (group) 940 may be integrated. In various embodiments, platform 902 and display 920 may be an integrated unit. For example, display 920 and content service device (s) 930 may be integrated, or display 920 and content distribution device (s) 940 may be integrated. These examples are not meant to limit the present disclosure.

様々な実施形態では、システム900は、無線システム、有線システム、または両方の組み合わせとして実装されることがある。無線システムとして実装されたとき、システム900は、1つ以上のアンテナ、トランスミッタ、レシーバ、トランシーバ、増幅器、フィルタ、制御ロジックなどのような、無線共有媒体を介して通信するため適したコンポーネントおよびインターフェイスを含むことがある。無線共有媒体の実施例は、RFスペクトルなどのような無線スペクトルの一部分を含むことがある。有線システムとして実装されたとき、システム900は、入力/出力(I/O)アダプタ、I/Oアダプタを対応する有線通信媒体と接続する物理的コネクタ、ネットワーク・インターフェイス・カード(NIC)、ディスクコントローラ、映像コントローラ、音声コントローラなどのような、有線通信媒体を介して通信するため適したコンポーネントおよびインターフェイスを含むことがある。有線通信媒体の実施例は、配線、ケーブル、金属リード線、印刷回路板(PCB)、バックプレーン、スイッチファブリック、半導体材料、ツイストペア配線、同軸ケーブル、光ファイバなどを含むことがある。   In various embodiments, system 900 may be implemented as a wireless system, a wired system, or a combination of both. When implemented as a wireless system, the system 900 includes components and interfaces suitable for communicating over a wireless shared medium, such as one or more antennas, transmitters, receivers, transceivers, amplifiers, filters, control logic, and the like. May contain. Examples of wireless shared media may include portions of the wireless spectrum, such as the RF spectrum. When implemented as a wired system, the system 900 includes an input / output (I / O) adapter, a physical connector that connects the I / O adapter to a corresponding wired communication medium, a network interface card (NIC), a disk controller. May include components and interfaces suitable for communicating via a wired communication medium, such as a video controller, an audio controller, and the like. Examples of wired communication media may include wiring, cables, metal leads, printed circuit boards (PCBs), backplanes, switch fabrics, semiconductor materials, twisted pair wiring, coaxial cables, optical fibers, and the like.

プラットフォーム902は、情報を通信するために1つ以上の論理または物理チャンネルを確立することがある。情報は、メディア情報および制御情報を含むことがある。メディア情報は、ユーザに向けられたコンテンツを表現する何らかのデータを指すことがある。コンテンツの実施例は、たとえば、音声会話、音声会議、ストリーミング映像、電子メール(「e−mail」)メッセージ、音声メールメッセージ、英数字シンボル、グラフィックス、画像、映像、テキストなどを含むことがある。音声会話からのデータは、たとえば、発話情報、沈黙時間、背景雑音、快適雑音、トーンなどであることがある。制御情報は、自動システムに向けられたコマンド、命令または制御語を表現する何らかのデータを指すことがある。たとえば、制御情報は、システムの中を通ってメディア情報を案内するために、または、所定の方式でメディア情報を処理するようにノードに命令するために使用されることがある。実施形態は、しかし、図9において表されるか、または、説明された要素または状況に限定されることがない。   Platform 902 may establish one or more logical or physical channels to communicate information. The information may include media information and control information. Media information may refer to some data representing content intended for the user. Examples of content may include, for example, voice conversations, audio conferencing, streaming video, electronic mail (“e-mail”) messages, voice mail messages, alphanumeric symbols, graphics, images, video, text, etc. . Data from a voice conversation may be, for example, speech information, silence time, background noise, comfort noise, tone, and the like. Control information may refer to any data that represents a command, instruction or control word directed to an automated system. For example, control information may be used to guide media information through the system or to instruct a node to process media information in a predetermined manner. Embodiments, however, are not limited to the elements or situations depicted or described in FIG.

前述のとおり、システム900は、様々な物理的スタイルまたはフォームファクタで具現化されることがある。図10は、システム1000が具現化されることがある小さい形状因子装置1000の実装を示す。様々な実施形態では、たとえば、装置1000は、無線能力を有するモバイル・コンピューティング装置として実装されることがある。モバイル・コンピューティング装置は、処理システム、および、たとえば、1台以上のバッテリのようなモバイル電源もしくは給電系統を有する何らかの装置を指すことがある。   As previously mentioned, the system 900 may be embodied in various physical styles or form factors. FIG. 10 shows an implementation of a small form factor device 1000 in which the system 1000 may be implemented. In various embodiments, for example, device 1000 may be implemented as a mobile computing device with wireless capabilities. A mobile computing device may refer to a processing system and any device having a mobile power supply or power supply system, such as one or more batteries.

前述のとおり、モバイル・コンピューティング装置の実施例は、パーソナル・コンピュータ(PC)、ラップトップ・コンピュータ、ウルトララップトップ・コンピュータ、タブレット、タッチパッド、ポータブル・コンピュータ、ハンドヘルド・コンピュータ、パームトップ・コンピュータ、個人情報端末(PDA)、携帯電話、組み合わせ式セルラ電話機/PDA、テレビジョン、スマート装置(たとえば、スマートフォン、スマートタブレットまたはスマートテレビジョン)、モバイル・インターネット装置(MID)、メッセージング装置、データ通信装置、カメラ(たとえば、自動焦点・自動露出カメラ、超望遠カメラ、スーパーズーム・カメラ、デジタル一眼レフ(DSLR)カメラ)などを含むことがある。   As mentioned above, examples of mobile computing devices include personal computers (PCs), laptop computers, ultra laptop computers, tablets, touchpads, portable computers, handheld computers, palmtop computers, Personal information terminal (PDA), mobile phone, combination cellular phone / PDA, television, smart device (eg, smart phone, smart tablet or smart television), mobile internet device (MID), messaging device, data communication device, Cameras (eg, autofocus and autoexposure cameras, super telephoto cameras, super zoom cameras, DSLR cameras) may be included.

モバイル・コンピューティング装置の実施例は、リスト・コンピュータ、フィンガー・コンピュータ、リング・コンピュータ、メガネ・コンピュータ、ベルトクリップ・コンピュータ、アームバンド・コンピュータ、シュー・コンピュータ、クロージング・コンピュータ、およびその他のウェアラブル・コンピュータのような人が装着するコンピュータをさらに含むことがある。様々な実施形態では、例えば、モバイル・コンピューティング装置は、コンピュータアプリケーション、ならびに、音声通信および/またはデータ通信を実行する能力を持つスマートフォンとして実装されることがある。ある種の実施形態は、一例として、スマートフォンとして実装されることがあるモバイル・コンピューティング装置を用いて説明されることがあるが、その他の実施形態が同様に他の無線モバイル・コンピューティング装置を使用して実施されることがあることが認められることがある。実施形態は、この状況に限定されることがない。   Examples of mobile computing devices include wrist computers, finger computers, ring computers, eyeglass computers, belt clip computers, armband computers, shoe computers, closing computers, and other wearable computers. It may further include a computer worn by such a person. In various embodiments, for example, a mobile computing device may be implemented as a smart phone with the ability to perform computer applications and voice and / or data communications. Certain embodiments may be described using, as an example, a mobile computing device that may be implemented as a smartphone, but other embodiments may use other wireless mobile computing devices as well. It may be observed that it may be used and implemented. Embodiments are not limited to this situation.

図10に示されるように、装置1000は、筐体1002と、ディスプレイ1004と、入力/出力(I/O)装置1006と、アンテナ1008とを含むことがある。装置1000は、ナビゲーションフィーチャー部分1012をさらに含むことがある。ディスプレイ1004は、モバイル・コンピューティング装置のため適切な情報を表示する何らかの適当なディスプレイユニットを含むことがある。I/O装置1006は、情報をモバイル・コンピューティング装置に入力する何らかの適当なI/O装置を含むことがある。I/O装置1006の実施例は、英数字キーボード、数字キーパッド、タッチパッド、入力キー、ボタン、スイッチ、ロッカースイッチ、マイクロフォン、スピーカ、音声認識装置およびソフトウェアなどを含むことがある。情報は、マイクロフォン(図示せず)を用いて装置1000にさらに入力されることがある。このような情報は、音声認識装置(図示せず)によってデジタル化されることがある。実施形態は、この状況に限定されることがない。   As shown in FIG. 10, device 1000 may include a housing 1002, a display 1004, an input / output (I / O) device 1006, and an antenna 1008. The apparatus 1000 may further include a navigation feature portion 1012. Display 1004 may include any suitable display unit that displays appropriate information for the mobile computing device. I / O device 1006 may include any suitable I / O device that inputs information to a mobile computing device. Examples of I / O device 1006 may include alphanumeric keyboards, numeric keypads, touchpads, input keys, buttons, switches, rocker switches, microphones, speakers, voice recognition devices, software, and the like. Information may be further input to device 1000 using a microphone (not shown). Such information may be digitized by a voice recognition device (not shown). Embodiments are not limited to this situation.

様々な実施形態は、ハードウェア要素、ソフトウェア要素、または両方の組み合わせを使用して実装されることがある。ハードウェア要素の実施例は、プロセッサ、マイクロプロセッサ、回路、回路素子(たとえば、トランジスタ、抵抗器、キャパシタ、インダクタなど)、集積回路、特定用途向け集積回路(ASIC)、プログラマブル論理装置(PLD)、デジタル信号プロセッサ(DSP)、フィールド・プログラマブル・ゲート・アレイ(FPGA)、論理ゲート、レジスタ、半導体装置、チップ、マイクロチップ、チップセットなどを含むことがある。ソフトウェア要素の実施例は、ソフトウェアコンポーネント、プログラム、アプリケーション、コンピュータプログラム、アプリケーションプログラム、システムプログラム、マシンプログラム、オペレーティング・システム・ソフトウェア、ミドルウェア、ファームウェア、ソフトウェアモジュール、ルーチン、サブルーチン、ファンクション、メソッド、手続、ソフトウェアインターフェイス、アプリケーション・プログラム・インターフェイス(API)、命令セット、コンピューティングコード、コンピュータコード、コードセグメント、コンピュータコードセグメント、ワード、バリュー、シンボル、またはこれらの何らかの組み合わせを含むことがある。実施形態がハードウェアおよび/またはソフトウェアを使用して実装されるか否かを決定することは、所望の計算レート、電力レベル、耐熱性、処理サイクル割当量、入力データレート、出力データレート、メモリ資源、データバス速度、およびその他の設計または性能上の制約のようないくつもの要因に従って変化することがある。   Various embodiments may be implemented using hardware elements, software elements, or a combination of both. Examples of hardware elements include processors, microprocessors, circuits, circuit elements (eg, transistors, resistors, capacitors, inductors, etc.), integrated circuits, application specific integrated circuits (ASICs), programmable logic devices (PLDs), May include digital signal processors (DSPs), field programmable gate arrays (FPGAs), logic gates, registers, semiconductor devices, chips, microchips, chipsets, and the like. Examples of software elements include software components, programs, applications, computer programs, application programs, system programs, machine programs, operating system software, middleware, firmware, software modules, routines, subroutines, functions, methods, procedures, software It may include an interface, application program interface (API), instruction set, computing code, computer code, code segment, computer code segment, word, value, symbol, or some combination thereof. Determining whether an embodiment is implemented using hardware and / or software depends on the desired calculation rate, power level, heat resistance, processing cycle quota, input data rate, output data rate, memory It can vary according to a number of factors such as resources, data bus speed, and other design or performance constraints.

少なくとも1つの実施形態の1つ以上の態様は、プロセッサの内部の様々な論理を表現し、機械によって読み取られたとき、本明細書において説明された技術を実行するために機械に論理を組み立てさせるマシン読み取り可能な媒体に記憶された代表的な命令によって実装されることがある。「IPコア」として知られたこのような表現は、有形のマシン読み取り可能な媒体に記憶され、実際に論理またはプロセッサを作る製造機械の中へロードするために様々な顧客または製造用設備に供給されることがある。   One or more aspects of at least one embodiment represent various logic within the processor and, when read by the machine, cause the machine to assemble logic to perform the techniques described herein. May be implemented by representative instructions stored on a machine-readable medium. Such representations, known as “IP cores”, are stored on a tangible machine-readable medium and supplied to various customers or manufacturing facilities for loading into the manufacturing machine that actually creates the logic or processor. May be.

本明細書に記載されたある特定のフィーチャー部分は、様々な実装を参照して説明されているが、この説明は、限定的な意味で解釈されることが意図されていない。従って、本明細書において説明された実装の様々な変更は、本発明開示内容に関係がある技術分野の通常の知識を有する者に明らかである他の実装と同様に、本発明開示内容の趣旨および範囲に含まれると考えられる。   Although certain feature portions described herein have been described with reference to various implementations, this description is not intended to be construed in a limiting sense. Accordingly, various modifications to the implementation described herein are intended to be within the scope of the present disclosure, as well as other implementations that will be apparent to those of ordinary skill in the art related to the present disclosure. And is considered to be included in the scope.

本発明開示内容によれば、基本レイヤ映像フレームから取得された画素サンプルは、拡張レイヤ映像デコーダからアクセスされ、拡張レイヤフレームの少なくとも一部分のレイヤ間画素予測は、少なくとも部分的に画素サンプルに応じて実行されることがある。レイヤ間画素予測を実行することは、少なくとも部分的に画素サンプルおよび残差に応じて、レイヤ間画素予測を実行することを含むことがある。   According to the present disclosure, pixel samples obtained from a base layer video frame are accessed from an enhancement layer video decoder, and inter-layer pixel prediction of at least a portion of the enhancement layer frame is at least partially responsive to the pixel sample. May be executed. Performing inter-layer pixel prediction may include performing inter-layer pixel prediction at least partially in response to the pixel samples and residuals.

本発明開示内容によれば、拡張レイヤフレームは、時間拡張レイヤフレーム、空間拡張レイヤフレームまたは品質拡張レイヤフレームのうちの1つでもよい。レイヤ間画素予測を実行することは、スライスレベル、ピクチャレベル、またはレイヤレベルのうちの少なくとも1つについてのレイヤ間画素予測を実行することを含むことがある。拡張レイヤフレーム部分は、符号化単位(CU)、予測単位(PU)、または変換単位(TU)のうちの1つであることがある。   According to the present disclosure, the enhancement layer frame may be one of a temporal enhancement layer frame, a spatial enhancement layer frame, or a quality enhancement layer frame. Performing inter-layer pixel prediction may include performing inter-layer pixel prediction for at least one of a slice level, a picture level, or a layer level. The enhancement layer frame portion may be one of a coding unit (CU), a prediction unit (PU), or a transform unit (TU).

本発明開示内容によれば、レイヤ間画素予測を実行することは、拡張レイヤ映像デコーダで受信されたビットストリームの中の指標に応じてレイヤ間画素予測を実行することを含むことがある。第1の状態では、指標は、拡張レイヤ映像デコーダがレイヤ間画素予測を実行すべきことを指定することがあり、第2の状態では、指標は、拡張レイヤ映像デコーダがレイヤ間画素予測を実行すべきではないことを指定することがある。指標は、レート歪みコストに応じて第1の状態または第2の状態の一方に置かれることがある。拡張レイヤフレームの一部分は、拡張レイヤフレームの1つ以上のブロックを含むことがあり、画素サンプルは、基本レイヤフレームの1つ以上の同一位置ブロックに対応することがある。基本レイヤフレームの同一位置ブロックは、イントラ符号化ブロック、インター符号化ブロック、または、イントラ/インター・ハイブリッド符号化ブロックであることがある。   According to the present disclosure, performing inter-layer pixel prediction may include performing inter-layer pixel prediction according to an index in the bitstream received by the enhancement layer video decoder. In the first state, the indicator may specify that the enhancement layer video decoder should perform inter-layer pixel prediction, and in the second state, the indicator performs the enhancement layer video decoder performing inter-layer pixel prediction. It may be specified that it should not. The indicator may be placed in one of the first state or the second state depending on the rate distortion cost. A portion of the enhancement layer frame may include one or more blocks of the enhancement layer frame, and a pixel sample may correspond to one or more co-located blocks of the base layer frame. The co-located block of the base layer frame may be an intra coded block, an inter coded block, or an intra / inter hybrid coded block.

本発明開示内容によれば、アップサンプル・フィルタは、レイヤ間画素予測を実行する前に画素サンプルに適用されることがある。アップサンプル・フィルタは、固定アップサンプル係数を有することがあり、または、適応アップサンプル係数を有することがある。さらに、改良フィルタは、レイヤ間画素予測を実行する前に画素サンプルに適用されることがある。改良フィルタは、固定改良係数を有することがあり、または、適応改良係数を有することがある。   In accordance with the present disclosure, upsample filters may be applied to pixel samples before performing inter-layer pixel prediction. The upsample filter may have a fixed upsample coefficient or may have an adaptive upsample coefficient. Furthermore, the refinement filter may be applied to the pixel samples before performing inter-layer pixel prediction. The improvement filter may have a fixed improvement factor or may have an adaptive improvement factor.

本発明開示内容によれば、基本レイヤ映像フレームから取得された画素サンプルは、拡張レイヤ映像デコーダでアクセスされることがあり、拡張レイヤフレームの少なくとも一部分のレイヤ間画素予測は、少なくとも部分的に画素サンプルに応じて実行されることがある。レイヤ間画素予測を実行することは、少なくとも部分的に画素サンプルおよび残差に基づいてレイヤ間画素予測を実行することを含む。さらに、拡張レイヤフレームは、レイヤ間画素予測を実行した後にエントロピーエンコードされることがあり、エントロピーエンコードされた拡張レイヤフレームを含むビットストリームが生成されることがある。エントロピーエンコードされた拡張レイヤフレームは、残差を含むことがある。   In accordance with the present disclosure, pixel samples obtained from a base layer video frame may be accessed by an enhancement layer video decoder, and inter-layer pixel prediction of at least a portion of the enhancement layer frame is at least partially pixelated. May be executed depending on the sample. Performing inter-layer pixel prediction includes performing inter-layer pixel prediction based at least in part on pixel samples and residuals. Further, the enhancement layer frame may be entropy encoded after performing inter-layer pixel prediction, and a bitstream including the entropy encoded enhancement layer frame may be generated. An entropy encoded enhancement layer frame may contain residuals.

本発明開示内容によれば、指標が生成されることがあり、第1の状態では、指標は、レイヤ間画素予測が拡張レイヤフレームの一部分に対して実行されるべきことを指定し、第2の状態では、指標は、レイヤ間画素予測が拡張レイヤフレームの一部分に対して実行されるべきではないことを指定する。指標は、その後、ビットストリームの中に入れられることがある。指標は、レート歪みコストに応じて第1の状態または第2の状態の一方に置かれることがある。
上記の実施形態につき以下の付記を残しておく。
(付記1)
拡張レイヤ(EL)映像デコーダで、下位ELフレームまたは基本レイヤ(BL)フレームの少なくとも一方から取得された画素サンプルに少なくとも部分的に基づいてELフレームのブロックの予測画素を決定することを備える方法。
(付記2)
メモリの中の前記画素サンプルにアクセスすることをさらに備える、付記1に記載の方法。
(付記3)
前記ELフレームは、時間ELフレーム、空間ELフレームまたは品質ELフレームのうちの少なくとも1つを備える、付記1に記載の方法。
(付記4)
前記予測画素を決定することは、スライスレベル、ピクチャレベル、またはレイヤレベルのうちの少なくとも1つについての予測画素を決定することを備える、付記1に記載の方法。
(付記5)
前記ブロックは、符号化ユニット(CU)、予測ユニット(PU)、または変換ユニット(TU)のうちの1つを備える、付記1に記載の方法。
(付記6)
予測画素を決定することは、前記EL映像デコーダで受信されたビットストリームに含まれる標識に応じて予測画素を決定することを備える、付記1に記載の方法。
(付記7)
第1の状態では、前記標識は、前記EL映像デコーダがレイヤ間画素予測を実行すべきことを指定し、第2の状態では、前記標識は、前記EL映像デコーダがレイヤ間画素予測を実行すべきではないことを指定する、付記6に記載の方法。
(付記8)
前記標識は、レート歪みコストに応じて前記第1の状態または前記第2の状態の一方に置かれている、付記7に記載の方法。
(付記9)
前記画素サンプルは、前記下位ELフレームまたは前記BLフレームの1つ以上の同一位置ブロックに対応する、付記1に記載の方法。
(付記10)
前記基本レイヤフレームの前記1つ以上の同一位置ブロックは、イントラ符号化ブロック、インター符号化ブロック、またはイントラ/インター・ハイブリッド符号化ブロックのうちの少なくとも1つを備える、付記9に記載の方法。
(付記11)
前記予測画素を決定する前にアップサンプル・フィルタを前記画素サンプルに適用することをさらに備える、付記1に記載の方法。
(付記12)
前記アップサンプル・フィルタは、固定アップサンプル係数または適応アップサンプル係数の一方を含む、付記11に記載の方法。
(付記13)
前記予測画素を決定する前に改良フィルタを前記画素サンプルに適用することをさらに備える、付記1に記載の方法
(付記14)
前記改良フィルタは、固定改良係数または適応改良係数の一方を含む、付記13に記載の方法。
(付記15)
前記予測画素を決定することは、少なくとも部分的に、前記画素サンプルおよび残差に応じて前記予測画素を決定することを備える、付記1に記載の方法。
(付記16)
コンピューティング装置で実行されるのに応じて、前記コンピューティング装置に付記1から15のいずれか1項に記載の方法を実行させる複数の命令を備える、少なくとも1つの機械読み取り可能な媒体。
(付記17)
使用できるときに、付記1から15のいずれか1項に記載の方法を実行するように構成されている装置。
(付記18)
付記1から15のいずれか1項に記載の方法を実行する手段を備える装置。
(付記19)
拡張レイヤ(EL)映像エンコーダで、少なくとも部分的に、下位ELフレームまたは基本レイヤ(BL)フレームの少なくとも一方から取得された画素サンプルに応じて、ELフレームのブロックの予測画素を決定することを備える方法。
(付記20)
メモリの中の前記画素サンプルにアクセスすることをさらに備える、付記19に記載の方法。
(付記21)
前記予測画素を決定した後に前記ELフレームをエントロピーエンコーディングすることと、
前記エントロピーエンコードされたELフレームを含むビットストリームを生成することと、
をさらに備える、付記19に記載の方法。
(付記22)
前記エントロピーエンコードされたELフレームは、残差を含む、付記21に記載の方法。
(付記23)
第1の状態では、レイヤ間画素予測が前記ブロックに対して実行されることになることを指定し、第2の状態では、レイヤ間画素予測が前記ブロックに対して実行されないことになることを指定する標識を生成することと、
前記標識を前記ビットストリームの中に入れることと、
をさらに備える、付記21に記載の方法。
(付記24)
前記標識をレート歪みコストに応じて前記第1の状態または前記第2の状態の一方に置くことをさらに備える、付記23に記載の方法。
(付記25)
前記ELフレームは、時間ELフレーム、空間ELフレームまたは品質ELフレームのうちの少なくとも1つを備える、付記19に記載の方法。
(付記26)
予測画素を決定することは、スライスレベル、ピクチャレベル、またはレイヤレベルのうちの少なくとも1つについての予測画素を決定することを備える、付記19に記載の方法。
(付記27)
前記ブロックは、符号化単位(CU)、予測単位(PU)、または変換単位(TU)のうちの1つを備える、付記19に記載の方法。
(付記28)
前記画素サンプルは、前記下位ELフレームまたは前記BLフレームの1つ以上の同一位置ブロックに対応する、付記19に記載の方法。
(付記29)
前記1つ以上の同一位置ブロックは、イントラ符号化ブロック、インター符号化ブロック、またはイントラ/インター・符号化ブロックのうちの少なくとも1つを備える、付記28に記載の方法。
(付記30)
前記予測画素を決定する前にアップサンプル・フィルタを前記画素サンプルに適用することをさらに備える、付記19に記載の方法。
(付記31)
前記アップサンプル・フィルタは、固定アップサンプル係数または適応アップサンプル係数の一方を含む、付記30に記載の方法。
(付記32)
前記予測画素を決定する前に改良フィルタを前記画素サンプルに適用することをさらに備える、付記19に記載の方法。
(付記33)
前記改良フィルタは、固定改良係数または適応改良係数の一方を含む、付記32に記載の方法。
(付記34)
前記予測画素を決定することは、少なくとも部分的に、前記画素サンプルおよび残差に応じて前記予測画素を決定することを備える、付記19に記載の方法。
(付記35)
コンピューティング装置で実行されるのに応じて、前記コンピューティング装置に付記19から34のいずれか1項に記載の方法を実行させる複数の命令を備える、少なくとも1つの機械読み取り可能な媒体。
(付記36)
使用できるときに、付記19から34のいずれか1項に記載の方法を実行するように構成されている装置。
(付記37)
付記19から34のいずれか1項に記載の方法を実行する手段を備える装置。
In accordance with the present disclosure, an index may be generated, and in the first state, the index specifies that inter-layer pixel prediction should be performed on a portion of the enhancement layer frame, and a second In the state, the indicator specifies that inter-layer pixel prediction should not be performed on a portion of the enhancement layer frame. The indicator may then be placed in the bitstream. The indicator may be placed in one of the first state or the second state depending on the rate distortion cost.
The following additional notes are left for the above embodiment.
(Appendix 1)
A method comprising determining, at an enhancement layer (EL) video decoder, predicted pixels of a block of EL frames based at least in part on pixel samples obtained from at least one of a lower EL frame or a base layer (BL) frame.
(Appendix 2)
The method of claim 1, further comprising accessing the pixel sample in memory.
(Appendix 3)
The method of claim 1, wherein the EL frame comprises at least one of a temporal EL frame, a spatial EL frame, or a quality EL frame.
(Appendix 4)
The method of claim 1, wherein determining the prediction pixel comprises determining a prediction pixel for at least one of a slice level, a picture level, or a layer level.
(Appendix 5)
The method of claim 1, wherein the block comprises one of a coding unit (CU), a prediction unit (PU), or a transform unit (TU).
(Appendix 6)
The method of claim 1, wherein determining a prediction pixel comprises determining a prediction pixel in response to an indicator included in a bitstream received by the EL video decoder.
(Appendix 7)
In the first state, the indicator specifies that the EL video decoder is to perform inter-layer pixel prediction, and in the second state, the indicator is that the EL video decoder performs inter-layer pixel prediction. The method of appendix 6, specifying that it should not.
(Appendix 8)
The method of claim 7, wherein the indicator is placed in one of the first state or the second state depending on a rate distortion cost.
(Appendix 9)
The method of claim 1, wherein the pixel sample corresponds to one or more co-located blocks of the lower EL frame or the BL frame.
(Appendix 10)
The method of claim 9, wherein the one or more co-located blocks of the base layer frame comprise at least one of an intra coded block, an inter coded block, or an intra / inter hybrid coded block.
(Appendix 11)
The method of claim 1, further comprising applying an upsample filter to the pixel samples before determining the predicted pixel.
(Appendix 12)
The method of claim 11, wherein the upsampling filter includes one of a fixed upsampling factor or an adaptive upsampling factor.
(Appendix 13)
The method of claim 1 (Appendix 14) further comprising applying an improved filter to the pixel sample prior to determining the predicted pixel.
The method of claim 13, wherein the improvement filter includes one of a fixed improvement factor or an adaptive improvement factor.
(Appendix 15)
The method of claim 1, wherein determining the predicted pixel comprises determining the predicted pixel in response to the pixel sample and residual, at least in part.
(Appendix 16)
16. At least one machine-readable medium comprising a plurality of instructions that, when executed on a computing device, cause the computing device to perform the method of any one of appendices 1-15.
(Appendix 17)
An apparatus configured to perform the method of any one of appendices 1 to 15 when available.
(Appendix 18)
An apparatus comprising means for executing the method according to any one of appendices 1 to 15.
(Appendix 19)
An enhancement layer (EL) video encoder comprises determining predicted pixels of a block of an EL frame in response to pixel samples obtained at least in part from at least one of a lower EL frame or a base layer (BL) frame. Method.
(Appendix 20)
The method of claim 19, further comprising accessing the pixel sample in memory.
(Appendix 21)
Entropy encoding the EL frame after determining the prediction pixel;
Generating a bitstream including the entropy encoded EL frame;
The method according to appendix 19, further comprising:
(Appendix 22)
The method of claim 21, wherein the entropy encoded EL frame includes a residual.
(Appendix 23)
The first state specifies that inter-layer pixel prediction will be performed on the block, and the second state indicates that inter-layer pixel prediction will not be performed on the block. Generating an indicator to specify;
Placing the indicator in the bitstream;
The method according to appendix 21, further comprising:
(Appendix 24)
24. The method of claim 23, further comprising placing the indicator in one of the first state or the second state depending on a rate distortion cost.
(Appendix 25)
The method of claim 19, wherein the EL frame comprises at least one of a temporal EL frame, a spatial EL frame, or a quality EL frame.
(Appendix 26)
The method of clause 19, wherein determining the prediction pixel comprises determining a prediction pixel for at least one of a slice level, a picture level, or a layer level.
(Appendix 27)
The method of claim 19, wherein the block comprises one of a coding unit (CU), a prediction unit (PU), or a transform unit (TU).
(Appendix 28)
The method of claim 19, wherein the pixel sample corresponds to one or more co-located blocks of the lower EL frame or the BL frame.
(Appendix 29)
29. The method of clause 28, wherein the one or more co-location blocks comprise at least one of an intra-coded block, an inter-coded block, or an intra / inter-coded block.
(Appendix 30)
The method of claim 19, further comprising applying an upsample filter to the pixel samples prior to determining the predicted pixel.
(Appendix 31)
The method of claim 30, wherein the upsample filter comprises one of a fixed upsample coefficient or an adaptive upsample coefficient.
(Appendix 32)
The method of claim 19, further comprising applying an improved filter to the pixel samples prior to determining the predicted pixel.
(Appendix 33)
The method of claim 32, wherein the refinement filter comprises one of a fixed improvement factor or an adaptive improvement factor.
(Appendix 34)
The method of claim 19, wherein determining the prediction pixel comprises determining the prediction pixel in response to the pixel sample and a residual, at least in part.
(Appendix 35)
35. At least one machine-readable medium comprising a plurality of instructions that, when executed on a computing device, cause the computing device to perform the method of any one of appendices 19 to 34.
(Appendix 36)
An apparatus configured to perform the method of any one of appendices 19 to 34 when available.
(Appendix 37)
An apparatus comprising means for executing the method according to any one of appendices 19 to 34.

102 レイヤ0(BL)エンコーダ
104 レイヤ1(EL)エンコーダ
106 レイヤ2(EL)エンコーダ
108 レイヤ0(BL)デコーダ
110 レイヤ1(EL)デコーダ
112 レイヤ2(EL)デコーダ
116 レイヤ間予測
120 レイヤ間予測
122 レイヤ間予測
124 エントロピーエンコーダ
128 エントロピーデコーダ
130 レイヤ間予測
132 レイヤ間予測
134 レイヤ間予測
202 BLエンコーダ
204 ELエンコーダ
206 EL入力フレーム
208 BL入力フレーム
210 画素サンプル
212 変換および量子化
214 逆変換および逆量子化
216 イントラ予測
218 インター予測
220 インループ・フィルタリング
222 アップサンプリング
224 改良
228 変換および量子化
230 逆変換および逆量子化
232 イントラ予測
234 インター予測
236 インループ・フィルタリング
238 エントロピーエンコーダ
402 プロセッサ
406 SVCコーデック
408 メモリ
602 ヘッダ部
604 データ部
701 エントロピーデコーダ
702 BLデコーダ
704 ELデコーダ
706 EL出力フレーム
708 BL入力フレーム
710 再構成BLサンプル
712 逆変換および逆量子化
714 インター予測
716 イントラ予測
718 インループ・フィリタリング
720 アップサンプリング
722 改良
726 逆変換および逆量子化
728 インループ・フィルタリング
730 イントラ予測
732 インター予測
902 プラットフォーム
905 チップセット
910 プロセッサ
912 メモリ
914 ストレージ
915 グラフィックスサブシステム
916 アプリケーション
918 無線機
920 ディスプレイ
922 ユーザ・インターフェイス
930 コンテンツサービス装置(群)
940 コンテンツ配信装置(群)
960 ネットワーク
102 Layer 0 (BL) encoder 104 Layer 1 (EL) encoder 106 Layer 2 (EL) encoder 108 Layer 0 (BL) decoder 110 Layer 1 (EL) decoder 112 Layer 2 (EL) decoder 116 Inter-layer prediction 120 Inter-layer prediction 122 Inter-layer prediction 124 Entropy encoder 128 Entropy decoder 130 Inter-layer prediction 132 Inter-layer prediction 134 Inter-layer prediction 202 BL encoder 204 EL encoder 206 EL input frame 208 BL input frame 210 Pixel sample 212 Transformation and quantization 214 Inverse transformation and inverse quantum 216 Intra Prediction 218 Inter Prediction 220 In-Loop Filtering 222 Upsampling 224 Improvement 228 Transform and Quantize 230 Inverse Transform and Inverse Quantization 232 Intra prediction 234 Inter prediction 236 In-loop filtering 238 Entropy encoder 402 Processor 406 SVC codec 408 Memory 602 Header part 604 Data part 701 Entropy decoder 702 BL decoder 704 EL decoder 706 EL output frame 708 BL input frame 710 Reconstructed BL sample 712 Inverse transformation and inverse quantization 714 Inter prediction 716 Intra prediction 718 In-loop filtering 720 Upsampling 722 Improvement 726 Inverse transformation and inverse quantization 728 In-loop filtering 730 Intra prediction 732 Inter prediction 902 Platform 905 Chipset 910 Processor 912 Memory 914 Storage 915 Graphics Subsystem 91 6 Application 918 Radio 920 Display 922 User interface 930 Content service device (group)
940 Content distribution device (s)
960 network

Claims (30)

拡張レイヤ領域を決定するためにレイヤ間予測を使用すべきか否かにかかわらず、基本レイヤ領域の色度および輝度サンプルを選択的にアップサンプルする回路であり、前記拡張レイヤ領域は、前記基本レイヤ領域の少なくとも一部分に対応している、回路と、
前記基本レイヤ領域のアップサンプルされた前記色度および輝度サンプルに係る一部分に少なくとも部分的に基づいて、レイヤ間予測を使用して、前記拡張レイヤを選択的に決定する回路と、
を含む、映像デコーダ装置。
A circuit that selectively upsamples the chromaticity and luminance samples of the base layer region regardless of whether inter-layer prediction should be used to determine the enhancement layer region, wherein the enhancement layer region comprises the base layer A circuit corresponding to at least a portion of the region;
A circuit that selectively determines the enhancement layer using inter-layer prediction based at least in part on a portion of the base layer region related to the upsampled chromaticity and luminance samples;
A video decoder device.
基本レイヤ領域の色度および輝度サンプルをアップサンプルすることは、固定係数を用いたマルチタップフィルタの使用を含む、
請求項1に記載の映像デコーダ装置。
Upsampling the chromaticity and luminance samples of the base layer region includes the use of a multi-tap filter with a fixed coefficient,
The video decoder device according to claim 1.
イントラ予測を使用して前記拡張レイヤ領域を選択的に決定する回路と、
インター予測を使用して前記拡張レイヤ領域を選択的に決定する回路と、
を含む、請求項1に記載の映像デコーダ装置。
Circuitry for selectively determining the enhancement layer region using intra prediction;
Circuitry that selectively determines the enhancement layer region using inter prediction;
The video decoder device according to claim 1, comprising:
アップサンプルされた前記色度および輝度サンプルを改良する回路と、
を含む、請求項1に記載の映像デコーダ装置。
Circuitry for improving the upsampled chromaticity and luminance samples;
The video decoder device according to claim 1, comprising:
ビットストリーム部を受信する回路を含み、
前記ビットストリーム部は、前記拡張レイヤ領域を決定するためにレイヤ間予測を使用するか否かを指示するフラグを含んでいる、
請求項1に記載の映像デコーダ装置。
Including a circuit for receiving the bitstream portion;
The bitstream part includes a flag that indicates whether to use inter-layer prediction to determine the enhancement layer region,
The video decoder device according to claim 1.
前記ビットストリーム部は、残差、および、前記拡張レイヤ領域の決定のために前記残差を使用するか否かを指示するフラグ、を含む、
請求項5に記載の映像デコーダ装置。
The bitstream part includes a residual and a flag indicating whether to use the residual for determining the enhancement layer region.
The video decoder device according to claim 5.
前記基本レイヤ領域のアップサンプルされた前記色度および輝度サンプルに係る一部分に少なくとも部分的に基づいて、レイヤ間予測を使用して前記拡張レイヤを選択的に決定する前記回路は、また、前記拡張レイヤ領域を決定するために前記残差を使用するように指示する前記フラグに応じて、前記残差も使用する、
請求項6に記載の映像デコーダ装置。
The circuit that selectively determines the enhancement layer using inter-layer prediction based at least in part on a portion of the base layer region that is related to the up-sampled chromaticity and luminance samples. In response to the flag instructing to use the residual to determine a layer region, the residual is also used.
The video decoder device according to claim 6.
ラジオと、
前記ラジオに通信結合された少なくとも一つのアンテナと、
を含む、請求項1に記載の映像デコーダ装置。
Radio and
At least one antenna communicatively coupled to the radio;
The video decoder device according to claim 1, comprising:
一つまたはそれ以上のプロセッサ回路と、
前記一つまたはそれ以上のプロセッサ回路に通信結合された少なくとも一つのメモリと、
前記一つまたはそれ以上のプロセッサ回路と通信結合されたディスプレイであり、前記ディスプレイは、前記決定された拡張レイヤ領域に少なくとも部分的に基づいて映像を表示する、
請求項8に記載の映像デコーダ装置。
One or more processor circuits;
At least one memory communicatively coupled to the one or more processor circuits;
A display communicatively coupled to the one or more processor circuits, the display displaying video based at least in part on the determined enhancement layer region;
The video decoder device according to claim 8.
前記基本レイヤ領域は、ピクチャを含んでいる、
請求項1乃至9いずれか一項に記載の映像デコーダ装置。
The base layer region includes a picture;
The video decoder device according to claim 1.
前記基本レイヤ領域の少なくとも一部分に対応する前記拡張レイヤ領域は、前記基本レイヤ領域の少なくとも一部分と同一位置にある前記拡張レイヤ領域を含んでいる、
請求項1乃至9いずれか一項に記載の映像デコーダ装置。
The enhancement layer region corresponding to at least a portion of the base layer region includes the enhancement layer region co-located with at least a portion of the base layer region;
The video decoder device according to claim 1.
一つまたはそれ以上の前記回路は、一つまたはそれ以上のプロセッサ、ハードウェア、または、ファームウェアによって実行されるソフトウェア又はその組合せを含んでいる、
請求項1乃至9いずれか一項に記載の映像デコーダ装置。
One or more of the circuits include one or more processors, hardware, software executed by firmware, or combinations thereof,
The video decoder device according to claim 1.
少なくとも一つの固定のコンピュータで読取り可能な媒体であって、媒体上に保管されたインストラクションを含み、コンピュータによって実行されると、前記コンピュータは、
拡張レイヤ領域を決定するためにレイヤ間予測を使用すべきか否かにかかわらず、基本レイヤ領域の色度および輝度サンプルを選択的にアップサンプルし、前記拡張レイヤ領域は、前記基本レイヤ領域の少なくとも一部分に対応しており、かつ、
前記基本レイヤ領域のアップサンプルされた前記色度および輝度サンプルに係る一部分に少なくとも部分的に基づいて、レイヤ間予測を使用して、前記拡張レイヤを選択的に決定する、
コンピュータで読取り可能な媒体。
At least one fixed computer-readable medium comprising instructions stored on the medium, wherein when executed by the computer, the computer comprises:
Regardless of whether or not inter-layer prediction should be used to determine the enhancement layer region, the chromaticity and luminance samples of the base layer region are selectively upsampled, and the enhancement layer region includes at least the base layer region It corresponds to a part, and
Selectively determining the enhancement layer using inter-layer prediction based at least in part on a portion of the base layer region related to the up-sampled chromaticity and luminance samples.
A computer-readable medium.
前記コンピュータが、基本レイヤ領域の色度および輝度サンプルをアップサンプルする場合に、前記コンピュータは、固定係数を含んでいるマルチタップフィルタリング技術を使用する、
請求項13に記載のコンピュータで読取り可能な媒体。
When the computer upsamples the chromaticity and luminance samples of the base layer region, the computer uses a multi-tap filtering technique that includes fixed coefficients.
The computer readable medium of claim 13.
前記媒体上に保管されたインストラクションが、コンピュータによって実行されると、前記コンピュータは、さらに、
イントラ予測を使用して前記拡張レイヤ領域を選択的に決定し、かつ、
インター予測を使用して前記拡張レイヤ領域を選択的に決定する、
請求項13に記載のコンピュータで読取り可能な媒体。
When the instructions stored on the medium are executed by a computer, the computer further includes:
Selectively determining the enhancement layer region using intra prediction; and
Selectively determining the enhancement layer region using inter prediction;
The computer readable medium of claim 13.
前記媒体上に保管されたインストラクションが、コンピュータによって実行されると、前記コンピュータは、さらに、
アップサンプルされた前記色度および輝度サンプルを改良する、
請求項13に記載のコンピュータで読取り可能な媒体。
When the instructions stored on the medium are executed by a computer, the computer further includes:
Improving the upsampled chromaticity and brightness samples;
The computer readable medium of claim 13.
前記媒体上に保管されたインストラクションが、コンピュータによって実行されると、前記コンピュータは、さらに、
ビットストリーム部を受信し、
前記ビットストリーム部は、前記拡張レイヤ領域を決定するためにレイヤ間予測を使用するか否かを指示するフラグを含む、
請求項13に記載のコンピュータで読取り可能な媒体。
When the instructions stored on the medium are executed by a computer, the computer further includes:
Receive the bitstream part,
The bitstream part includes a flag indicating whether to use inter-layer prediction to determine the enhancement layer region;
The computer readable medium of claim 13.
前記ビットストリーム部は、残差、および、前記拡張レイヤ領域の決定のために前記残差を使用するか否かを指示するフラグ、を含む、
請求項17に記載のコンピュータで読取り可能な媒体。
The bitstream part includes a residual and a flag indicating whether to use the residual for determining the enhancement layer region.
The computer readable medium of claim 17.
前記基本レイヤ領域のアップサンプルされた前記色度および輝度サンプルに係る一部分に少なくとも部分的に基づいて、レイヤ間予測を使用して前記拡張レイヤを選択的に決定することは、また、前記拡張レイヤ領域を決定するために前記残差を使用するように指示する前記フラグに応じた前記残差にも基づいている、
請求項18に記載のコンピュータで読取り可能な媒体。
Selectively determining the enhancement layer using inter-layer prediction based at least in part on a portion of the base layer region that is related to the up-sampled chromaticity and luminance samples; Is also based on the residual in response to the flag instructing to use the residual to determine a region;
The computer readable medium of claim 18.
前記基本レイヤ領域は、ピクチャを含んでいる、
請求項13至19いずれか一項に記載のコンピュータで読取り可能な媒体。
The base layer region includes a picture;
A computer readable medium according to any one of claims 13 to 19.
前記基本レイヤ領域の少なくとも一部分に対応する前記拡張レイヤ領域は、前記基本レイヤ領域の少なくとも一部分と同一位置にある前記拡張レイヤ領域を含んでいる、
請求項13至19いずれか一項に記載のコンピュータで読取り可能な媒体。
The enhancement layer region corresponding to at least a portion of the base layer region includes the enhancement layer region co-located with at least a portion of the base layer region;
A computer readable medium according to any one of claims 13 to 19.
コンピュータで実施される方法であって、
拡張レイヤ領域を決定するためにレイヤ間予測を使用すべきか否かにかかわらず、基本レイヤ領域の色度および輝度サンプルを選択的にアップサンプルするステップであり、前記拡張レイヤ領域は、前記基本レイヤ領域の少なくとも一部分に対応してる、ステップと、
前記基本レイヤ領域のアップサンプルされた前記色度および輝度サンプルに係る一部分に少なくとも部分的に基づいて、レイヤ間予測を使用して、前記拡張レイヤを選択的に決定するステップと、
を含む、方法。
A computer-implemented method comprising:
Regardless of whether inter-layer prediction should be used to determine the enhancement layer region, selectively upsampling chromaticity and luminance samples of the base layer region, wherein the enhancement layer region comprises the base layer A step corresponding to at least a portion of the region;
Selectively determining the enhancement layer using inter-layer prediction based at least in part on a portion of the base layer region related to the upsampled chromaticity and luminance samples;
Including a method.
基本レイヤ領域の色度および輝度サンプルをアップサンプルするステップは、固定係数を含んでいるマルチタップフィルタリング技術を使用するステップを含む、
請求項22に記載の方法。
Up-sampling the chromaticity and luminance samples of the base layer region includes using a multi-tap filtering technique that includes fixed coefficients,
The method of claim 22.
前記方法は、さらに、
イントラ予測を使用して前記拡張レイヤ領域を選択的に決定するステップと、
インター予測を使用して前記拡張レイヤ領域を選択的に決定するステップと、
を含む、請求項22に記載の方法。
The method further comprises:
Selectively determining the enhancement layer region using intra prediction;
Selectively determining the enhancement layer region using inter prediction;
23. The method of claim 22, comprising:
前記方法は、さらに、
アップサンプルされた前記色度および輝度サンプルを改良するステップと、
を含む、請求項22に記載の方法。
The method further comprises:
Improving the upsampled chromaticity and brightness samples;
23. The method of claim 22, comprising:
前記方法は、さらに、
ビットストリーム部を受信するステップと、を含み、
前記ビットストリーム部は、前記拡張レイヤ領域を決定するためにレイヤ間予測を使用するか否かを指示するフラグを含んでいる、
請求項22に記載の方法。
The method further comprises:
Receiving a bitstream portion, and
The bitstream part includes a flag that indicates whether to use inter-layer prediction to determine the enhancement layer region,
The method of claim 22.
前記ビットストリーム部は、残差、および、前記拡張レイヤ領域の決定のために前記残差を使用するか否かを指示するフラグ、を含む、
請求項26に記載の方法。
The bitstream part includes a residual and a flag indicating whether to use the residual for determining the enhancement layer region.
27. The method of claim 26.
前記基本レイヤ領域のアップサンプルされた前記色度および輝度サンプルに係る一部分に少なくとも部分的に基づいて、レイヤ間予測を使用して前記拡張レイヤを選択的に決定するステップは、また、前記拡張レイヤ領域を決定するために前記残差を使用するように指示する前記フラグに応じた前記残差にも基づいている、
請求項27に記載の方法。
The step of selectively determining the enhancement layer using inter-layer prediction based at least in part on a portion of the base layer region that is related to the upsampled chromaticity and luminance samples is also the enhancement layer. Is also based on the residual in response to the flag instructing to use the residual to determine a region;
28. The method of claim 27.
前記基本レイヤ領域は、ピクチャを含んでいる、
請求項22至28いずれか一項に記載の方法。
The base layer region includes a picture;
29. A method according to any one of claims 22 to 28.
前記基本レイヤ領域の少なくとも一部分に対応する前記拡張レイヤ領域は、前記基本レイヤ領域の少なくとも一部分と同一位置にある前記拡張レイヤ領域を含んでいる、
請求項22至28いずれか一項に記載の方法。
The enhancement layer region corresponding to at least a portion of the base layer region includes the enhancement layer region co-located with at least a portion of the base layer region;
29. A method according to any one of claims 22 to 28.
JP2015047787A 2015-03-11 2015-03-11 Inter-layer pixel sample prediction Pending JP2015146599A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015047787A JP2015146599A (en) 2015-03-11 2015-03-11 Inter-layer pixel sample prediction

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015047787A JP2015146599A (en) 2015-03-11 2015-03-11 Inter-layer pixel sample prediction

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015528832A Division JP2015530805A (en) 2012-09-28 2012-09-28 Inter-layer pixel sample prediction

Publications (1)

Publication Number Publication Date
JP2015146599A true JP2015146599A (en) 2015-08-13

Family

ID=53890613

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015047787A Pending JP2015146599A (en) 2015-03-11 2015-03-11 Inter-layer pixel sample prediction

Country Status (1)

Country Link
JP (1) JP2015146599A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007503775A (en) * 2003-08-26 2007-02-22 トムソン ライセンシング Method and apparatus for encoding hybrid intra-inter coded blocks
JP2010512699A (en) * 2006-12-14 2010-04-22 トムソン ライセンシング Method and apparatus for encoding and / or decoding video data using enhancement layer residual prediction for bit depth scalability

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007503775A (en) * 2003-08-26 2007-02-22 トムソン ライセンシング Method and apparatus for encoding hybrid intra-inter coded blocks
JP2010512699A (en) * 2006-12-14 2010-04-22 トムソン ライセンシング Method and apparatus for encoding and / or decoding video data using enhancement layer residual prediction for bit depth scalability

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
DANNY HONG, WONKAP JANG, JILL BOYCE, ADEEL ABBAS, SCALABILITY SUPPORT IN HEVC, JPN6013027194, 14 July 2011 (2011-07-14), ISSN: 0003352372 *

Similar Documents

Publication Publication Date Title
JP2015530805A (en) Inter-layer pixel sample prediction
US10075709B2 (en) Cross-channel residual prediction
KR101731335B1 (en) Refining filter for inter layer prediction of scalable video coding
US10764592B2 (en) Inter-layer residual prediction
EP2901693A1 (en) Inter-layer intra mode prediction
JP6060394B2 (en) Cross-layer / cross-channel residual prediction
TWI559749B (en) Inter layer motion data inheritance
US9860533B2 (en) Cross-layer cross-channel sample prediction
JP6005847B2 (en) Adaptive filtering for scalable video coding
US20140192898A1 (en) Coding unit bit number limitation
JP6156808B2 (en) Apparatus, system, method, integrated circuit, and program for decoding compressed video data
JP2015146599A (en) Inter-layer pixel sample prediction
TWI578763B (en) Coding unit bit number limitation
JP2016165160A (en) Cross-channel residual prediction

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160920

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161018