JP2015146599A - Inter-layer pixel sample prediction - Google Patents
Inter-layer pixel sample prediction Download PDFInfo
- Publication number
- JP2015146599A JP2015146599A JP2015047787A JP2015047787A JP2015146599A JP 2015146599 A JP2015146599 A JP 2015146599A JP 2015047787 A JP2015047787 A JP 2015047787A JP 2015047787 A JP2015047787 A JP 2015047787A JP 2015146599 A JP2015146599 A JP 2015146599A
- Authority
- JP
- Japan
- Prior art keywords
- layer region
- inter
- prediction
- enhancement layer
- base layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、レイヤ間の画素サンプル予測に関する。 The present invention relates to pixel sample prediction between layers.
ISO/IEC動画像専門家グループ(MPEG)およびITU−T映像符号化専門家グループ(VCEG)によって形成された映像符号化についての共同作業部会(JCT−VC)により現在開発中である高効率映像符号化(HEVC)は、2012年に最終決定されるように計画された映像圧縮規格である。これまでの映像符号化規格と同様に、HEVCは、イントラ予測/インター予測、変換、量子化、インループ/フィルタリング、およびエントロピー符号化のような基本機能モジュールを含む。 High-efficiency video currently under development by the Joint Working Group on Video Coding (JCT-VC) formed by the ISO / IEC Video Experts Group (MPEG) and ITU-T Video Coding Experts Group (VCEG) Encoding (HEVC) is a video compression standard planned to be finalized in 2012. Similar to previous video coding standards, HEVC includes basic functional modules such as intra prediction / inter prediction, transform, quantization, in-loop / filtering, and entropy coding.
HEVCは、可変サイズを有する長方形ブロックの形をとるピクチャのサブパーティションとして符号化単位(CU)を定義する。各CUの内部で、四分木(quad−tree)に基づく分割スキームは、CUパーティションパターンを指定する。HEVCは、所定のCUが予測目的および変換目的のためどのように区分化されるべきであるかをそれぞれ指定する予測単位(PU)および変換単位(TU)も定義する。イントラ予測またはインター予測の後、変換演算が係数を生成するために残差ブロックに適用される。係数は、次に、量子化され、1次元の次数に走査され、最後に、エントロピーエンコードされる。 HEVC defines a coding unit (CU) as a sub-partition of a picture that takes the form of a rectangular block having a variable size. Within each CU, a split scheme based on quad-tree specifies a CU partition pattern. HEVC is how it should be partitioned prediction unit that specifies each for a given CU predicted objects and transform objects (PU) and conversion unit (TU) is also defined. After intra prediction or inter prediction, a transform operation is applied to the residual block to generate coefficients. The coefficients are then quantized, scanned to a one-dimensional order, and finally entropy encoded.
HEVCは、スケーラブル映像符号化(SVC)拡張を含むことが期待される。HEVC SVCビットストリームは、異なった空間分解能、フレームレート、品質、ビット深度などでソース映像コンテンツを表現するいくつかのサブセット・ビットストリームを提供する。スケーラビリティは、その後、一般に、基本レイヤ(BL)および少なくとも1層の拡張レイヤ(EL)を含むマルチレイヤ符号化構造を使用して達成される。これは、ELに属しているピクチャ、または、CUのようなピクチャの一部分が下位レイヤピクチャ(たとえば、BLピクチャ)から、または、同じレイヤ内の既に符号化されたピクチャから予測されることを可能にする。 HEVC is expected to include scalable video coding (SVC) extensions. The HEVC SVC bitstream provides several subset bitstreams that represent the source video content with different spatial resolution, frame rate, quality, bit depth, etc. Scalability is then generally achieved using a multi-layer coding structure that includes a base layer (BL) and at least one enhancement layer (EL). This allows a part of a picture belonging to EL or a part of a picture like a CU to be predicted from a lower layer picture (eg BL picture) or from an already encoded picture in the same layer To.
従来的なアプローチでは、現在CUに対するインター予測および/またはイントラ予測は、同じレイヤの内部のピクチャのCUに関して実行される。一例を挙げると、EL CUのための画素サンプル予測は、同じELのCUに関して従来とおり実行され、別のELまたはBLのCUに関して実行されない。 In the conventional approach, inter prediction and / or intra prediction for the current CU is performed for CUs of pictures inside the same layer. As an example, pixel sample prediction for an EL CU is performed conventionally for the same EL CU and not for another EL or BL CU.
拡張レイヤ(EL)映像デコーダで、下位ELフレームまたは基本レイヤ(BL)フレームの少なくとも一方から取得された画素サンプルに少なくとも部分的に基づいてELフレームのブロックの予測画素を決定することを備える方法。 A method comprising determining, at an enhancement layer (EL) video decoder, predicted pixels of a block of EL frames based at least in part on pixel samples obtained from at least one of a lower EL frame or a base layer (BL) frame.
本明細書に記載された題材は、一例として、かつ、限定としてではなく、添付図面に示される。説明の簡単化および明確化のため、図に示された要素は、必ずしも正しい縮尺で示されていない。たとえば、ある要素の寸法は、明確にするため他の要素に対して相対的に誇張されることがある。さらに、適切であると考えられる場合、符号は、対応する要素または同様の要素を指示するために図の間で共通して繰り返されている。
1つ以上の実施形態または実装は、次に、添付図面を参照して説明される。具体的な構成および配置が検討されているが、これは、例示の目的のためだけに行われることが理解されるべきである。当業者は、その他の構成および配置が説明の趣旨および範囲から逸脱することなく利用されることがあることを理解するであろう。本明細書において説明された技術および/または配置が本明細書において説明されていない種々の他のシステムおよびアプリケーションにも利用されることがあることは、当業者にとって明らかであろう。 One or more embodiments or implementations will now be described with reference to the accompanying drawings. Although specific configurations and arrangements are contemplated, it should be understood that this is done for illustrative purposes only. Those skilled in the art will appreciate that other configurations and arrangements may be utilized without departing from the spirit and scope of the description. It will be apparent to those skilled in the art that the techniques and / or arrangements described herein may be utilized for various other systems and applications that are not described herein.
以下の説明は、たとえば、システム・オン・チップ(SoC)アーキテクチャのようなアーキテクチャにおいて明示されることがある様々な実装を記載するが、本明細書において説明された技術および/または配置の実装は、特別なアーキテクチャおよび/またはコンピューティングシステムに限定されることなく、同様の目的のためアーキテクチャおよび/またはコンピューティングシステムによって実装されることがある。一例を挙げると、たとえば、複数の集積回路(IC)チップおよび/またはパッケージ、および/または、様々なコンピューティング装置、および/または、セット・トップ・ボックス、スマートフォンなどのような消費者エレクトロニクス(CE)装置を利用する様々なアーキテクチャは、本明細書において説明された技術および/または配置を実装することがある。さらに、以下の説明は、システムコンポーネントの論理実装、型および相互関係、論理分割/統合選択などのような多数の具体的な詳細を記載することがあるが、請求項に係る主題は、このような具体的な詳細なしに実施されることがある。他の事例では、たとえば、制御構造および完全なソフトウェア命令系列のようなある種の題材は、本明細書で公開された題材を曖昧にしないために詳細に明らかにされないことがある。 The following description describes various implementations that may be manifested in an architecture such as, for example, a system on chip (SoC) architecture, but implementations of the techniques and / or arrangements described herein are Without being limited to a particular architecture and / or computing system, it may be implemented by the architecture and / or computing system for similar purposes. One example is a plurality of integrated circuit (IC) chips and / or packages and / or various computing devices and / or consumer electronics (CE) such as set top boxes, smartphones, etc. Various architectures that utilize the devices may implement the techniques and / or arrangements described herein. Further, the following description may set forth numerous specific details such as the logical implementation, type and interrelationships of the system components, logical partitioning / integration selection, etc., but the claimed subject matter is May be implemented without any specific details. In other cases, certain materials such as, for example, control structures and complete software instruction sequences may not be revealed in detail in order not to obscure the material published herein.
本明細書で公開された題材は、ハードウェア、ファームウェア、ソフトウェア、またはこれらのいずれかの組み合わせで実装されることがある。本明細書で公開された題材は、1台以上のプロセッサによって読み取られ、実行されることがあるマシン読み取り可能な媒体に記憶された命令として実装されることもある。マシン読み取り可能な媒体は、機械(たとえば、コンピューティング装置)によって読み取り可能な形式で情報を記憶または伝達する何らかの媒体および/または仕組みを含むことがある。たとえば、マシン読み取り可能な媒体は、リード・オンリー・メモリ(ROM)、ランダム・アクセス・メモリ(RAM)、磁気ディスク記憶媒体、光学記憶媒体、フラッシュメモリ装置、電気的、光学的、音響的もしくはその他の形式の伝搬信号(たとえば、搬送波、赤外線信号、デジテル信号など)、およびその他を含むことがある。 The subject matter published herein may be implemented in hardware, firmware, software, or any combination thereof. The subject matter published herein may be implemented as instructions stored on a machine-readable medium that may be read and executed by one or more processors. A machine-readable medium may include any medium and / or mechanism for storing or transmitting information in a form readable by a machine (eg, a computing device). For example, the machine readable medium may be read only memory (ROM), random access memory (RAM), magnetic disk storage medium, optical storage medium, flash memory device, electrical, optical, acoustic or other In the form of propagation signals (eg, carrier waves, infrared signals, digitel signals, etc.), and others.
明細書における「一実装」、「実装」、「実装例」などへの言及は、記載された実装が特別な特徴、構造、または特性を含むことがあるが、あらゆる実施形態がこの特別な特徴、構造、または特性を含むとは限らないことを示唆する。その上、このような言い回しは、同じ実装に言及するとは限らない。さらに、特別な特徴、構造、または特性が実施形態に関連して説明されるとき、本明細書に明示的に記載されているか否かを問わずに、他の実装に関連したこのような特徴、構造、または特性を達成することは、当業者の知識の範囲に含まれる。 References to “one implementation”, “implementation”, “example of implementation”, etc. in the specification may include specific features, structures, or characteristics of the described implementation, but every embodiment may have this special feature. , Suggests not necessarily including structure, or property. Moreover, such phrases may not refer to the same implementation. Further, when a particular feature, structure, or characteristic is described in connection with an embodiment, such feature in connection with other implementations, whether or not explicitly described herein. It is within the knowledge of one of ordinary skill in the art to achieve any structure, property, or characteristic.
レイヤ間画素サンプル予測を利用する映像符号化のための演算を含むシステム、装置、製品、および方法が、以下に説明される。 Systems, apparatus, products, and methods that include operations for video coding that utilize inter-layer pixel sample prediction are described below.
本明細書において使用されるように、用語「符号器」は、エンコードおよび/またはデコーダを指すことがある。同様に、本明細書において使用されるように、用語「符号化」は、エンコーダによるエンコーディングおよび/またはデコーダによるデコーディングを指すことがある。たとえば、映像エンコーダおよび映像デコーダは、どちらも符号化する能力を持つ符号器の実施例であるということがある。その上、本明細書において使用されるように、用語「コーデック」は、たとえば、エンコーダおよび/またはデコーダを実装することがあるソフトウェア、ファームウェア、および/またはハードウェアの何らかの組み合わせのような何らかのプロセス、プログラムまたは演算の組を指すことがある。 As used herein, the term “encoder” may refer to an encode and / or a decoder. Similarly, as used herein, the term “encoding” may refer to encoding by an encoder and / or decoding by a decoder. For example, a video encoder and a video decoder may both be examples of encoders that are capable of encoding. Moreover, as used herein, the term “codec” refers to any process such as, for example, some combination of software, firmware, and / or hardware that may implement an encoder and / or decoder, May refer to a set of programs or operations.
スケーラブル映像コーディングシステムでは、空間スケーラビリティ、時間スケーラビリティ、ビット深度スケーラビリティなどを含む数種類のスケーラビリティをサポートするためにマルチレイヤ型符号化が使用される。本発明開示内容によれば、様々なレイヤ間画素サンプル予測スキームがスケーラブル映像符号化システムにおける符号化効率および/または符号化自由度を高めるために使用されることがある。 In scalable video coding systems, multi-layer coding is used to support several types of scalability including spatial scalability, temporal scalability, bit depth scalability, and the like. In accordance with the present disclosure, various inter-layer pixel sample prediction schemes may be used to increase coding efficiency and / or coding flexibility in a scalable video coding system.
図1は、本発明開示内容によるスケーラブル映像符号化(SVC)符号化システム例100を示す。様々な実装では、システム100は、たとえば、高効率映像符号化(HEVC)規格(ISO/IEC JTC/SC29/WG11およびITU−T SG16 WP3, “High efficiency video coding(HEVC) test specification draft 8”(JCTVC−J1003_d7), July 2012を参照のこと)および、これらの何らかのスケーラブル映像符号化(SVC)拡張のような1つ以上の規格または仕様に従って、映像圧縮および展開を引き受ける、および/または、映像コーデックを実装する。システム100および/またはその他のシステム、スキームまたはプロセッサは、HEVC規格のSVC拡張との関連において本明細書において説明されることがあるが、本発明開示内容は、特別な映像エンコーディング規格もしくは仕様またはこれらの拡張に限定されることがない。
FIG. 1 illustrates an example scalable video coding (SVC)
例示されるように、システム100は、レイヤ0または基本レイヤ(BL)エンコーダ102と、レイヤ1または第1の拡張レイヤ(EL)エンコーダ104と、レイヤ2または第2のELエンコーダ106とを含む複数の映像エンコーダを有するエンコーダサブシステム101を含む。システム100は、レイヤ0(BL)デコーダ108、レイヤ1(EL)デコーダ110、およびレイヤ2(EL)デコーダ112を含んでいるデコーダサブシステム103の中の対応する映像デコーダをさらに含む。概して、BLは、HEVC互換符号化されることがある。Nに等しいレイヤ識別番号(ID)を持つELを符号化するとき、SVC符号化スキームは、特別なELに属しているピクチャが下位レイヤ・ピクチャから(たとえば、下位レイヤIDを有するBLまたはELにおいて)、または、同じレイヤの中の予め符号化されたピクチャから予測されることがあるように、N未満のレイヤIDを有するあらゆる符号化レイヤがレイヤ間予測スキームで用いるため利用可能であることを保証する。
As illustrated, the
様々な実装では、HEVCは、その後に、可変サイズを有する長方形ブロックの形をとる符号化単位(CU)に区分化されることがあるピクチャに対する最大符号化単位(LCU)を指定する.各LCUの範囲内で、四分木に基づく分割スキームは、CUパーティションパターンを指定する。HEVCは、所定のCUが予測目的および変換目的のためどのように区分化されるべきであるかをそれぞれ指定する予測単位(PU)および変換単位(TU)をさらに定義する。CUは、通常、1個の輝度符号化ブロック(CB)および2個の色度CBを関連したシンタックスと共に含み、PUは、サイズが64×64サンプルから4×4サンプルまでに及ぶ予測ブロック(PB)にさらに分割されることがある。本明細書において使用されるように、用語「ブロック」は、映像ピクチャの何らかのパーティションまたはサブパーティションを指すことがある。たとえば、ブロックは、PCまたはPBを指すことがある。 In various implementations, HEVC then specifies a maximum coding unit (LCU) for a picture that may be partitioned into coding units (CUs) that take the form of rectangular blocks having variable sizes. Within each LCU, a quadtree based partitioning scheme specifies a CU partition pattern. HEVC further define how it should be partitioned prediction unit that specifies each for a given CU predicted objects and transform objects (PU) and conversion unit (TU). A CU typically includes one luminance coding block (CB) and two chromaticity CBs with associated syntax, and a PU is a prediction block (ranging from 64 × 64 to 4 × 4 samples in size). PB) may be further divided. As used herein, the term “block” may refer to any partition or subpartition of a video picture. For example, a block may refer to PC or PB.
本発明開示内容によれば、以下でより詳しく説明されるように、ELエンコーダ104および106の一方または両方は、レイヤ間画素サンプル予測を実行するためにいずれかのエンコード102または104から取得された画素サンプルを使用することがある。たとえば、ある種の実装では、エンコーダ104は、エンコーダ102から取得され、レイヤ間予測モジュール116によって処理された画素サンプル114を使用してレイヤ間画素サンプル予測を実行することがある。その上、ある種の実装では、エンコーダ106は、エンコーダ102またはエンコーダ104からそれぞれ取得され、レイヤ間予測モジュール120またはレイヤ間予測モジュール122によってそれぞれ処理された画素サンプル114または画素サンプル118のいずれかを使用してレイヤ間画素サンプル予測を実行することがある。
In accordance with the present disclosure, as described in more detail below, one or both of
本明細書において使用されるように、用語「レイヤ間画素サンプル予測」は、参照レイヤ・ピクチャから取得された画素サンプルを使用する拡張レイヤ・ピクチャのインター予測を指す。さらに、本明細書において使用されるように、「画素サンプル」は、再構成画素を指す。参照レイヤによって再構成された画素サンプルのような符号化情報を再使用することにより、レイヤ間画素予測は、システム100のようなSVCシステム、および/または、コーデック設計の圧縮効率および符号化自由度を改善することがある。本発明開示内容による様々な実装では、レイヤ間画素サンプル予測は、時間スケーラブル映像符号化アプリケーション、空間スケーラブル映像符号化アプリケーションおよび/または品質スケーラブル映像符号化アプリケーションに適用されることがある。
As used herein, the term “interlayer pixel sample prediction” refers to inter prediction of enhancement layer pictures using pixel samples obtained from a reference layer picture. Further, as used herein, a “pixel sample” refers to a reconstructed pixel. By re-using coding information such as pixel samples reconstructed by a reference layer, inter-layer pixel prediction can be used for SVC systems such as
レイヤ間予測モジュール116、120および/または122のいずれか1つ以上を利用することは、別個のビットストリームをエントロピーエンコーダ124に提供することがある。エントロピーエンコーダ124は、その後、複数のスケーラブル映像コンテンツのレイヤを含んでいる圧縮されたビットストリーム126をデコーダサブシステム103のエントロピーデコーダ128に提供することがある。本発明開示内容によれば、以下でより詳しく説明されるように、ELデコーダ110および112の一方または両方は、レイヤ間画素サンプル予測を実行するためにいずれかのデコーダ108または110から取得された画素サンプルを使用することがある。たとえば、ある種の実装では、デコーダ110は、デコーダ108から取得され、レイヤ間予測モジュール130によって処理された画素サンプルを使用してレイヤ間画素サンプル予測を実行することがある。その上、ある種の実装では、デコーダ112は、デコーダ108またはデコーダ110のいずれかからそれぞれ取得され、レイヤ間予測モジュール132またはレイヤ間予測モジュール134によってそれぞれ処理された画素サンプルを使用してレイヤ間画素サンプル予測を実行することがある。
Utilizing any one or more of the
図1は、3層のスケーラブル映像コンテンツのレイヤと、サブシステム101の中の3つのエンコーダおよびサブシステム103の中の3つのデコーダの対応する組とを利用するものとして実例システム100を示すが、スケーラブル映像符号化レイヤと対応するエンコーダおよびデコーダとは、いくつでも本発明開示内容に従って利用されることになる。さらに、システム100は、ある特定のコンポーネントを描くが、本発明開示内容は、図1に示された特別なコンポーネント、および/または、システム100の様々なコンポーネントが配置される方式に限定されない。一例を挙げると、様々な実装において、たとえば、エンコーダサブシステム101のレイヤ間予測モジュール116、120および122のようなシステム100のある種の要素は、3つのエンコーダ102、104および106など全てに結合された単一のレイヤ間予測モジュールによって実装されることがある。
FIG. 1 illustrates an
さらに、エンコーダサブシステム101は、たとえば、サーバシステムを含んでいるコンテンツ・プロバイダ・システムに関連付けられることがあること、そして、ビットストリーム126は、図1に描かれていないトランシーバ、アンテナ、ネットワークシステムなどのような様々な通信コンポーネントまたはシステムによってデコーダサブシステム103に送信または伝達されることがあることが認識されることがある。デコーダサブシステム103は、図1に同様に描かれていないトランシーバ、アンテナ、ネットワークシステムなどのような様々な通信コンポーネントまたはシステムを介してビットストリーム126を受信するコンピューティング装置(たとえば、コンピュータ、スマートフォンなど)のようなクライアントサブシステムに関連付けられることがあることが認識されることもある。
Further, the
図2は、本発明開示内容によるSVCエンコーディングシステム例200を示す。システム200は、たとえば、システム100のエンコーダ102およびエンコーダ104にそれぞれ対応することがある参照BLエンコーダ202およびターゲットELエンコーダ204を含む。システム200は、2層のSVC符号化レイヤに対応する2台のエンコーダ202および204だけを含むが、SVC符号化レイヤおよび対応するエンコーダは、図2に描かれたものに加えて、いくつでも本発明開示内容に従って利用されることがある。たとえば、付加的な拡張レイヤに対応する付加的なエンコーダは、システム200に組み込まれることがあり、ELエンコーダ204に関して以下で説明されるのと同様にBLエンコーダ202と相互作用することがある。
FIG. 2 shows an example
SVC符号化を引き受けるためにシステム200を利用するとき、EL入力フレーム206のような、拡張レイヤの中のピクチャまたは画像フレームの様々なブロックは、BLエンコーダ202によって処理されたままのBL入力フレーム208のようなピクチャから、または、ELエンコーダ204によって予めエンコードされた同じ拡張レイヤの中の他のピクチャから、ELエンコーダ204によって予測されることがある。以下でより詳しく説明されるように、システム200を使用してレイヤ間画素サンプル予測演算を引き受けるとき、EL入力フレーム206のようなレイヤ20内のピクチャの画素は、BLエンコーダ202によって提供された画素サンプル210を使用して予測されることがある。前述のとおり、EL入力フレーム206は、画素値の1個以上のブロックに対応する単位で符号化されることがあり、符号化されるブロックは、CU、PUまたはTUの形をしていることがある。さらに、符号化は、スライス、ピクチャ、またはレイヤレベルで適用されることがある。
When utilizing the
レイヤ間画素サンプル予測のため使用された画素サンプル210は、変換および量子化モジュール212と、逆変換および量子化モジュール214と、イントラ予測モジュール216と、インター予測モジュール218と、インループ・フィルタリング・モジュール220とを含む符号化ループを使用してBL入力フレーム208の処理から取得されることがある。詳しくは、インター予測モジュール218を使用してインター予測を実行するためにBLエンコーダ202を動作させるとき、画素サンプル210は、インループ・フィルタリング・モジュール220の出力から取得されることがある。モジュール212、214、216、218および220の機能性は、当該技術分野において十分に認識されるので、本明細書においてより詳しく説明されることはない。
The
以下でより詳しく説明されるように、ある種の実装では、画素サンプル210は、ELエンコーダ204に適用される前に、アップサンプリング・モジュール222および/または改良モジュール224によって処理されることがある。様々な実装では、アップサンプリング・モジュール22および改良モジュール224は、レイヤ間予測モジュール(たとえば、システム100のレイヤ間予測モジュール116)のコンポーネントであることがある。さらに、様々な実施形態では、アップサンプリング・モジュール222および改良モジュール224の少なくとも一部分は、固定機能回路構成のようなハードウェアロジックによって提供されることがある。
As described in more detail below, in certain implementations,
ELエンコーダ204において、改良モジュール224によって提供されたフィルタ処理済みの画素サンプル226は、変換および量子化モジュール228と、逆変換および量子化モジュール230とを含む符号化ループを使用してEL入力フレーム206において画素サンプルを予測するために使用されることがある。EL入力フレーム206のレイヤ間画素サンプル予測を引き受けるために動作させられたとき、ELエンコーダ204は、EL入力フレーム206を圧縮するために使用された符号化ループの中のイントラ予測モジュール232、インター予測モジュール234、またはインループ・フィルタリング・モジュール236のいずれも利用しないことがある。この場合も、モジュール228、232、234、および236の機能性は、当該技術分野において十分に認識されているので、本明細書においてより詳しく説明されることはない。ELエンコーダ204は、その後、EL入力フレーム206の様々なCUの中の様々な画素を予測するためにフィルタ処理済みの画素サンプル226を使用することがある。
In EL encoder 204, the filtered
様々な実装では、BLエンコーダ202およびELエンコーダ204の一方または両方は、BL入力フレーム208の少なくとも一部およびEL入力フレーム206の少なくとも一部のそれぞれの符号化された残差に対応する圧縮された係数をエントロピーエンコーダ・モジュール238に供給することがある。モジュール238は、その後、残差の無損失圧縮(lossless compression)を実行し、システム200からの出力として、符号化された残差に含まれている多重化されたSVCビットストリームを供給することがある。その他の実装では、BLエンコーダ202およびELエンコーダ204の一方または両方は、BL入力フレーム208の少なくとも一部およびEL入力フレーム206の少なくとも一部のそれぞれの符号化された残差をエントロピーエンコーダ・モジュール238に供給しないことがある。
In various implementations, one or both of
図3は、本発明開示内容の様々な実装によるプロセス例300のフロー図を示す。プロセス300は、図3のブロック301、302、304、306、308、310、312、314および316のうちの1つ以上によって示されるように1つ以上の動作、機能または作用を含むことがある。限定されない例として、プロセス300は、エンコーダシステム200によって引き受けられるようにELレイヤの一部分(たとえば、本実装におけるCU)のためのスケーラブル映像符号化プロセスの少なくとも一部を形成することがある。
FIG. 3 shows a flow diagram of an
さらに、プロセス300は、システム400がプロセッサ402、SVCコーデックモジュール406、およびメモリ408を含む図4のスケーラブル映像符号化システム400を使用して拡張レイヤCUを符号化することに関連して本明細書において同様に説明されるであろう。プロセッサ402は、本発明開示内容に従ってレイヤ間画素サンプル予測を行うためにSVCコーデックモジュール406をインスタンス化することがある。システム400の実施例では、メモリ408は、BL入力フレーム208の少なくとも一部および/またはEL入力フレーム206の少なくとも一部を含んでいる映像コンテンツと、以下でより詳しく説明されるように、フィルタ係数などのような他の項目とを記憶することがある。SVCコーデックモジュール406は、符号化システム200を実装するため適したソフトウェア論理、ファームウェア論理、および/またはハードウェアロジックのいずれかの組み合わせによって提供されることがある。メモリ408は、揮発性メモリ(たとえば、スタティック・ランダム・アクセス・メモリ(SRAM)、ダイナミック・ランダム・アクセス・メモリ(DRAM)など)または不揮発性メモリ(たとえば、フラッシュメモリなど)などのようなあらゆるタイプのメモリでもよい。限定されない実施例では、メモリ480は、キャッシュメモリによって実装されることがある。
Further, the
プロセス300は、レイヤ間画素予測が現在EL CUに対して実行されるべきブロック301で始まることがある。様々な実装では、レイヤ間画素予測を実行するか否かの決定は、レート歪み(rate−distortion)コストに基づくことがある。たとえば、SVCコーデック406は、EL CU 502に対するレイヤ間画素予測を実行するか否かを公知のレート歪みコスト技術に基づいて決定することがある。レイヤ間画素予測が実行されるべき場合、プロセス300は、ブロック302に続くことがあり、レイヤ間画素予測が実行されるべきではない場合、プロセス300は、終了することがある。
プロセス300は、ブロック302に続くことがある。例えば、現在EL CUに対して、このEL CUに対応するBLの1つ以上の同一位置ブロックが決定されることがある。たとえば、図5は、CU 502がBL入力フレーム208の同一位置ブロック504に空間的に対応する場合に、EL入力フレーム206の現在CU 502を示す。本実施例では、CU 502は、BL入力フレーム208の4個の同一位置ブロック504に対応する。しかし、様々な実装では、ELとBLまたは下位レベルELとの間の空間スケーリングに依存して、どんな個数のBLまたは下位レベルELブロックでも特別なEL CUに関して同一位置にあることがある。他の実装では、BLまたは下位レベルELブロックの一部分だけがEL CUと同一位置にあることがある。さらに、ELおよび下位ELまたはBLが空間比率1を有するように空間スケーリングが適用されない(たとえば、品質スケーリングが空間スケーリングなしでレイヤ間に適用されるとき)ある種のスケーラブル映像符号化実装では、ELの中のブロックと下位ELまたはBLの中のブロックとの1対1の対応関係が存在する。
図5の実施例に関して、ブロック302で同一位置ブロックを決定することは、現在EL CU 502に関して同一位置にあるものとしてブロック504にマーキングすること、または、そうでなければラベリングすることを含むことがある。さらに、様々な実装では、BLまたは下位ELレイヤの中で同一位置ブロックは、イントラ符号化されることがあり、インター符号化されることがあり、および/または、イントラ/インター・ハイブリッド符号化されることがある。その上、同一位置ブロックの組の中の異なったブロックは、異なったブロック符号化を有することがある。一例を挙げると、限定されない実施例では、同一位置ブロック504は、同一位置ブロックのうちの2つがイントラ符号化されることがあり、同一位置ブロックのうちの1つがインター符号化されることがあり、残りの同一位置ブロックがイントラ/インター・ハイブリッド符号化されることがあるように、符号化モードを混合している。
With respect to the embodiment of FIG. 5, determining the co-located block at
プロセス300は、同一位置ブロックに対応する画素サンプルがアクセスされることがあるブロック304に続くことがある。一例として挙げると、図4および5を参照すると、ブロック304は、メモリ408から、同一位置ブロック504に対応する画素サンプルを取得するためにプロセッサ402を使用してSVCコーデック406を含むことがある。一例として挙げると、メモリ408は、ブロック504の再構成された画素値に対応するBL入力フレーム208の一部分のような映像コンテンツを一時的に記憶するフレームバッファとしての役目を果たすことがある。
ブロック306で、決定は、ブロック304で取得された画素サンプルのアップサンプリングを実行することに関して行われることがある。一例として挙げると、CU 502が4個の同一位置ブロック504に対応する図5の実施例では、ブロック504に対応する画素サンプルは、CU 502のサイズに一致するようにアップサンプルされる必要があることがあり、プロセス300は、ブロック308に進むことがある。他の実施形態では、たとえば、空間スケーラビリティが提供されないとき、アップサンプリングは、実行されないことがあり、プロセス300は、ブロック308が実行されないことがあるように、ブロック306からブロック310まで省略することがある。
At
様々な実装では、ブロック308での画素のアップサンプリングは、補間フィルタを画素サンプルに適用することにより実行されることがあるが、本発明開示内容は、何らかの特別な形式のアップサンプル・フィルタリングに限定されることがない。様々な実装では、画素サンプルをアップサンプリングすることは、レイヤ間画素予測の正確さを改善することがあり、ELのためのより優れた圧縮性能という結果をもたらすことがある。様々な実装では、固定補間フィルタまたは適応補間フィルタは、ブロック308で適用されることがある。固定アップサンプリング・フィルタを利用する実装に対して、フィルタ係数は、予め決定されることがあり、かつ、エンコーダ(たとえば、システム200)および(以下でより詳しく説明される)デコーダの両方によって使用されることがある。適応アップサンプリング・フィルタを利用する実装に対して、フィルタ係数は、エンコーダで(たとえば、トレーニングにより)適応的に決定されることがあり、かつ、その後、以下でさらに説明されるように、ビットストリームの一部としてデコーダへ送信されることがある。様々な実装では、ブロック308で適用された補間フィルタは、マルチタップ多相補間フィルタでもよい。さらに、様々な実装では、ブロック308は、メモリ407から取得された補間フィルタ係数を画素サンプルに適用するためにプロセッサ402において固定機能回路構成のようなハードウェアロジックを使用するSVCコーデック406を含むことがある。
In various implementations, pixel upsampling in
プロセス300は、ブロック304で取得された画素サンプルまたはブロック308から得られるアップサンプルされた画素のいずれかの決定が行われることがあるブロック310に続くことがある。様々な実装では、改良フィルタを画素サンプルに適用することは、レイヤ間画素予測の正確さを改善することがあり、かつ、ELに対するより良い圧縮性能をもたらすことがある。改良が選択された場合、プロセス300は、ある種の実装では、2次元(2D)空間フィルタが改良フィルタとして適用されることがあるブロック212へ進むことがあるが、本発明開示内容は、何らかの特別なタイプの改良フィルタに限定されることがない。他の実装では、空間フィルタリングは、実行されないことがあり、プロセス300は、ブロック312が実行されることがないように、ブロック310からブロック314まで省略することがある。さらに、様々な実装では、ブロック312は、メモリ408から取得された改良フィルタ係数を画素サンプルに適用するためにプロセッサ402において固定機能回路構成のようなハードウェアロジックを使用するSVCコーデック406を含むことがある。
様々な実装では、pがフィルタリング前の中心画素を表現し、周囲の画素qi,j(i,j=0,...,N)が2Dフィルタウィンドウを表現する場合、ブロック312で適用された改良フィルタは、以下の式に従って対応するフィルタ処理済みの中心画素p’を決定することがある。
In various implementations, if p represents the center pixel before filtering and the surrounding pixels q i, j (i, j = 0,..., N) represent a 2D filter window, then applied in
p’=Σi,j=0 Nqi,j×ai,j+b
式中、ai,j(i,j=0,...,N)は、フィルタ係数であり、bは、オフセットファクタである。
p ′ = Σ i, j = 0 N q i, j × a i, j + b
In the formula, a i, j (i, j = 0,..., N) is a filter coefficient, and b is an offset factor.
様々な実装では、フィルタ係数ai,jは、固定されることがあり、または、適応できることがある。フィルタ係数が固定される実装では、フィルタ係数ai,jおよびオフセットファクタbは、予め決められ、エンコーダおよびデコーダの両方によって利用されることがある。フィルタ係数が適応できる実装では、フィルタ係数ai,jおよびオフセットファクタbは、エンコーダで(たとえば、トレーニングにより)適応的に決定されることがあり、その後、以下でさらに説明されるようにビットストリームの一部としてデコーダに送信されることがある。 In various implementations, the filter coefficients a i, j may be fixed or may be adaptable. In implementations where the filter coefficients are fixed, the filter coefficients a i, j and offset factor b may be predetermined and utilized by both the encoder and decoder. In implementations where the filter coefficients can be adapted, the filter coefficients a i, j and the offset factor b may be determined adaptively (eg, by training) at the encoder and then the bitstream as further described below. May be sent to the decoder as part of.
システム400を参照すると、様々な実装では、ブロック308および312でのフィルタの適用は、メモリ408からフィルタ係数を取得するためにプロセッサ402を使用するSVCコーデック406によって引き受けられることがある。適応フィルタ実装では、SVCコーデック406は、メモリ408に記憶されることも記憶されないこともあるフィルタ係数を適応的に決定するためにプロセッサ402を使用することがある。
Referring to
プロセッサ300は、画素サンプルが現在EL CUに対する予測された画素を決定するために使用されることがあるブロック314に続くことがある。一例を挙げると、SVCコーデック406は、ブロック304で取得され、CU 502に対する予測信号を形成するためにブロック308および/またはブロック310でフィルタ処理されることがある画素サンプルを使用することがある。様々な実装では、ブロック314は、現在EL CUに対する残差の生成をさらに含むことがある。一例を挙げると、SVCコーデック406は、ブロック504から取得された(フィルタ処理済みまたは別の方法で処理された)画素サンプルとCU 502の画素値との間の差に対応する残差を生成することがある。他の実装では、ブロック314は、現在EL CLに対する残差の生成を含まないことがある。様々な実装では、ブロック314は、予測画素を決定するために必要とされる算術演算を実行するために、固定機能回路構成のようなハードウェアロジックを使用して引き受けられることがある。さらに、このようなハードウェアロジックは、現在PUの様々な部分に対する、および/または、複数のPUに対する予測画素の並列決定を可能にすることがある。本明細書において使用されるように、「予測画素」は、1層以上の下位レイヤの1個以上のPUから取得された1個以上の画素サンプルに基づいて予測されることがある現在PUの中の画素サンプルの値を指すことがある。
The
プロセス300は、現在EL CLに対するビットストリームが形成されることがあるブロック316で終了することがある。様々な実装では、ブロック316は、ヘッダ部と、現在EL CUに対する圧縮残差を含むこと、または、含まないことがあるデータ部とを含む、現在EL CUに対応するビットストリーム部を形成することを含むことがある。様々な実装では、ヘッダ部は、現在EL CLに対するレイヤ間画素予測を実行するか否かを指示するために、および/または、残差が現在CUに対して存在するか否かを指示するために1個以上の指標(たとえば、1個以上のフラグ)を含むことがある。
さらに、様々な実装では、ブロック308のアップサンプリング・フィルタ係数またはブロック312の改良フィルタ係数のいずれかに対応するフィルタ係数は、ブロック316で形成されたビットストリームにおいて指示されるか、または、含まれることがある。他の実装では、利用されたフィルタ係数は、たとえば、ブロック316で形成されたビットストリームのヘッダ部において指示されることがある。
Further, in various implementations, filter coefficients corresponding to either the upsampling filter coefficients in
図6は、本発明開示内容の様々な実装によるEL CUに対応するビットストリーム部例600を示す。ビットストリーム部600は、ヘッダ部602およびデータ部604を含む。ヘッダ部602は、1個以上の指標606を含む。一例を挙げると、指標606は、EL CUに対するレイヤ間画素予測を実行すべきか否かを指定する値を持つ指標608を含むことがある。指標606は、EL CUに対する残差が存在するか否かを指定する指標610を含むこと、または、含まないこともある。たとえば、一実装では、指標608は、「inter_layer_pixel_prediction_flag」としてラベル付けされることがあり、現在CU(たとえば、CU 502)がレイヤ間画素予測を使用するか否かを指示するためにCUシンタックステーブルに追加されることがある。さらに、inter_layer_pixel_prediction_flagが特別な値を有する(たとえば、1に等しい)とき、ビットストリームヘッダ部602は、続いて、「inter_layer_residual_flag」としてラベル付けされることがあり、かつ、現在CUに対する残差が存在するか否かを指示することがある指標610を含むことがある。
FIG. 6 illustrates an
様々な実装では、指標608および610は、本発明開示内容による2つのスケーラブル映像符号化モード:レイヤ間画素予測が残差無しで使用されるレイヤ間スキップモード、および、レイヤ間画素予測が残差と共に使用されるレイヤ間直接モードを指定するために使用されることがある。このようにして、レイヤ間スキップモードでは、SVCコーデック406は、ビットストリーム600のデータ部604で残差を送信しないことがある。逆に、レイヤ間直接モードでは、SVCコーデック406は、ビットストリーム600のデータ部604で残差を送信することがある。
In various implementations, the
プロセス300は、図5との関連で本明細書において説明されているが、本発明開示内容は、EL CUの全ての画素が同一の同一位置BLブロックから導出されたサンプルから予測されるレイヤ間画素予測の実行に限定されることがない。このようにして、様々な実施形態では、CUの一部分(たとえば、CUのある種のブロックだけ)が同一位置ブロックの一部だけに関して予測されることがあるが、CUの別の部分は、同一位置ブロックの他の部分に関して予測されることがある。たとえば、4個の同一位置BLブロックに対応するCUに対して、CUの第1の上方部分は、2個の上方の水平に隣接した同一位置BLブロックに基づいて予測されることがあるが、CUの第2の下方部分は、2個の下方の水平に隣接した同一位置BLブロックに基づいて予測されることがある。
Although the
さらに、様々な実装では、CUの異なった部分は、異なった符号化を有する異なった同一位置BLブロックから予測されることがある。上記から実施例を続けると、2個の上方の水平に隣接した同一位置BLブロックは、イントラ符号化されていることがあるが、2個の下方の水平に隣接した同一位置BLブロックは、インター符号化されていることがある。このようにして、CUの第1の部分は、イントラ符号化された画素サンプルから予測されることがあるが、CUの第2の部分は、インター符号化された画素サンプルから予測されることがある。 Further, in various implementations, different parts of the CU may be predicted from different co-located BL blocks with different encodings. Continuing with the above example, two upper horizontally adjacent identical position BL blocks may be intra-coded, but two lower horizontally adjacent identical position BL blocks may be inter-coded. It may be encoded. In this way, the first part of the CU may be predicted from intra-coded pixel samples, while the second part of the CU may be predicted from inter-coded pixel samples. is there.
図7は、本発明開示内容によるSVCデコーディングシステム例700を示す。システム700は、たとえば、システム100のデコーダ108およびデコーダ110にそれぞれ対応することがある参照BLデコーダ702およびターゲットELデコーダ704を含む。システム700は、2層のSVC符号化レイヤに対応する2台のデコーダ702および704だけを含むが、SVC符号化レイヤおよび対応するデコーダは、本発明開示内容によれば、図7に描かれたこれらに加えていくつでも利用されることがある。たとえば、付加的な拡張レイヤに対応する付加的なデコーダは、システム700に含まれることがあり、ELデコーダ704に関して以下で説明されるのと同様にBLデコーダ702と相互作用することがある。
FIG. 7 shows an example
SVC符号化を引き受けるためにシステム700を利用するとき、EL出力フレーム706のような拡張レイヤの中のピクチャまたは画像フレームは、ELデコーダ704によって、BLデコーダ702によって処理されたままのBL出力フレーム708のようなピクチャから、または、同じ拡張レイヤの中でELデコーダ704によって予めエンコードされた他のピクチャからインター予測されることがある。以下でより詳しく説明されるように、システム700を使用してレイヤ間画素サンプル予測演算を引き受けるとき、EL出力フレーム706のようなレイヤ704の中のピクチャの画素は、BLデコーダ702によって提供された再構成BL画素サンプル710を使用して予測されることがある。サンプル710は、逆変換および量子化モジュール712と、インター予測モジュール714と、インループ・フィルタリング・モジュール718とを使用して取得されることがある。特に、インター予測モジュール714を使用してインター予測を実行するためにBLデコーダ702を動作させるとき、サンプル710は、インループ・フィルタリング・モジュール718の出力から取得されることがある。
When utilizing the
以下でより詳しく説明されるように、再構成画素サンプル710は、ELデコーダ704に供給される前に、アップサンプリング・モジュール720および改良モジュール722によって処理されることがある。様々な実装では、アップサンプリング・モジュール720および改良モジュール722は、レイヤ間予測モジュール(たとえば、システム100のレイヤ間予測モジュール130)のコンポーネントであることがある。ELデコーダ704で、改良モジュール322によって供給されたフィルタ処理済みの画素サンプル724は、逆変換および量子化モジュール726、ならびに、インループ・フィルタリング・モジュール728と組み合わせて、EL出力フレーム706の中の画素サンプルを予測するために使用されることがある。EL出力フレーム706のレイヤ間画素サンプル予測を引き受けるために動作させられるとき、ELデコーダ704は、イントラ予測モジュール730またはインター予測モジュール732のいずれも利用することがない。ELデコーダ704は、その後、EL出力フレーム706の様々なCUの中の様々な画素を予測するためにフィルタ処理済みの画素サンプル724を使用することがある。
As described in more detail below,
本明細書において説明されたシステムの様々なコンポーネントは、ソフトウェア論理、ファームウェア論理、および/またはハードウェアロジック、および/または、これらのいずれかの組み合わせで実装されることがある。たとえば、システム700の様々なコンポーネントは、少なくとも部分的に、たとえば、スマートフォンのようなコンピューティングシステムにおいて見られることがあるようなシステム・オン・チップ(SoC)のハードウェアによって、提供されることがある。当業者は、本明細書において説明されたシステムが対応する図において描かれていない付加的なコンポーネントを含むことがあることを認識することがある。たとえば、システム200および700は、明瞭さのために図2および7に描かれていないビットストリーム・マルチプレクサ・モジュールなどのような付加的なコンポーネントを含むことがある。
The various components of the systems described herein may be implemented with software logic, firmware logic, and / or hardware logic, and / or any combination thereof. For example, the various components of
図8は、本発明開示内容の様々な実装によるプロセス例800のフロー図を示す。プロセス800は、図8のブロック802、804、806、808、810、812、814、816および818のうちの1つ以上によって示されるように1つ以上の動作、機能または作用を含むことがある。限定されることのない例として、プロセス800は、デコーダシステム700によって引き受けられるように、ELレイヤの一部分(たとえば、本実装におけるCU)に対するスケーラブル映像符号化プロセスの少なくとも一部を形成することがある。さらに、プロセス800は、SVCコーデックモジュール406がデコーダシステム700をインスタンス化することがある図4のスケーラブル映像符号化システム400を使用して拡張レイヤCUを符号化することと、図6のビットストリーム例600とに関連して本明細書において説明されることもある。
FIG. 8 shows a flow diagram of an
プロセッサ800は、現在CUに対するレイヤ間画素予測を実行すべきか否かに関する決定が行われることがあるブロック802で開始することがある。様々な実装では、SVCコーデック406は、ビットストリーム600のヘッダ部602において受信された指標608の値に応じてブロック802を引き受けることがある。一例として挙げると、指標608が第1の値(たとえば、1)を有する場合、SVCコーデック406は、現在CUに対するレイヤ間画素サンプル予測を引き受けることを決定することがある。逆に、指標608が第2の値(たとえば、2)を有する場合、SVCコーデック406は、現在CUに対するレイヤ間画素サンプル予測を引き受けないことを決定することがある。
The
ブロック802が否定的な決定という結果になる場合、プロセス800は、現在CUが1個以上の予めデコードされたCUに基づいてデコードされるということになるスキップモードを適用するか否かに関して決定が行われることがあるブロック804に進むことがある。スキップモードがブロック804で呼び出された場合、プロセス800は、スキップモード実装に対して、現在CUに対する画素値が1個以上の予めデコードされたCUに基づいて再構成されることがあるブロック814に進むことがある。
If
逆に、スキップモードがブロック804で呼び出されない場合、プロセス800は、CUに対してイントラ予測が実行されるべきか、または、インター予測が実行されるべきかに関する決定が行われることがあるブロック806に進むことがある。イントラ予測が選択された場合、プロセス800は、公知のレイヤ内イントラ予測技術を使用してイントラ予測が実行されることがあるブロック808に進むことがある。インター予測が選択された場合、プロセス800は、公知のレイヤ間インター予測技術を使用してインター予測が実行されることがあるブロック810に進むことがある。様々な実装では、SVCコーデック406は、たとえば、ブロック808を引き受けるためにデコーダ704のイントラ予測モジュール730を使用して、そして、ブロック810を引き受けるためにデコーダ704のインター予測モジュール732を使用して、ブロック804、806、808および810を引き受けることがある。
Conversely, if the skip mode is not invoked at
プロセス800は、残差デコーディングが公知の残差デコーディング技術と、ブロック808または810のいずれかの結果とを使用して引き受けられることがあるブロック812に続くことがある。プロセス800は、その後、CU画素値が公知の技術とブロック812の結果とを使用して再構成されることがあるブロック814で終了することがある。
ブロック802の検討に戻ると、ブロック802が肯定的な決定という結果をもたらす場合、プロセス800は、予測画素がプロセス300に関して上記説明されたのと同様に下位レイヤ(群)から取得された画素サンプルに基づいて決定されることがあるブロック816に進むことがある。様々な実装では、SVCコーデック406は、第1の値(たとえば、1)を有する指標608に応じてブロック816を引き受けることがある。SVCコーデック406は、その後、たとえば、同一位置下位ELおよび/またはBLブロックに対応する画素サンプルを取得することがあり、アップサンプル・フィルタリングを画素サンプルに適用すること、または、適用しないことがあり、そして、改良フィルタリングを画素サンプルに適用すること、または、適用しないこともある。さらに、再構成画素サンプルのアップサンプル・フィルタリングおよび/または改良フィルタリングを引き受けるとき、SVCコーデック406は、ビットストリーム600によって指示されるか、または、ビットストリーム600の中で伝達されたフィルタ係数を使用してそのように行う。
Returning to the review of
プロセス800は、残差がCUに対して利用可能であるか否かに関する決定が行われることがあるブロック818に続くことがある。様々な実装では、CUに関連付けられ、デコーダによって受信されたビットストリームは、ビットストリームがCUに対する残差を含むか否かを指定する指標を含むことがある。たとえば、SVCコーデック406は、ビットストリーム600の中の指標610の値に応じてブロック818を引き受けることがある。一例を挙げると、指標610が第1の値(たとえば、1)を有する場合、レイヤ間画素予測がCU画素値を再構成するために残差と共に使用されるレイヤ間直接モードが呼び出されることがあり、プロセス800は、ブロック812、そして、それ故にブロック814に進むことがある。そうではない場合、指標610が第2の値(たとえば、0)を有する場合、レイヤ間画素予測がCU画素値を再構成するために残差なしで使用されるレイヤ間スキップモードが呼び出されることがあり、プロセス800は、ブロック812を呼び出すことなしに、直接的にブロック814に進むことがある。
プロセス800は、EL CUに対するデコーディングプロセスとして本明細書において説明されているが、本発明開示内容は、CUレベルでのレイヤ間画素サンプル予測の実行に限定されることがない。このようにして、様々な実装では、プロセス800は、EL PUまたはEL TUにさらに適用されることがある。さらに、前述のとおり、本明細書において説明されたあらゆるレイヤ間画素サンプル予測プロセスは、時間スケーラブル映像符号化、空間スケーラブル映像符号化および/または品質スケーラブル映像符号化との関連で適用されることがある。
Although
図3および8に示されるように、プロセス例300および800の実装は、例示された順序に表されたあらゆるブロックの引き受けを含むことがあるが、本発明開示内容は、この点に関して限定されることがなく、様々な実施例において、プロセス200および800の実装は、表された順序、および/または、例示された順序とは異なる順序でブロックの部分集合だけの引き受けを含むことがある。
As shown in FIGS. 3 and 8, implementations of example processes 300 and 800 may include underwriting of any block represented in the illustrated order, but the present disclosure is limited in this regard. Rather, in various embodiments, implementations of
その上、図3および8のブロックのうちのいずれか1つ以上は、1つ以上のコンピュータ・プログラム・プロダクトによって提供された命令に応じて引き受けられることがある。このようなプログラム・プロダクトは、たとえば、プロセッサによって実行されたときに、本明細書において説明された機能性を提供することがある命令を供給する信号搬送媒体(signal bearing media)を含むことがある。コンピュータ・プログラム・プロダクトは、何らかの形をとる1つ以上のマシン読み取り可能な媒体で提供されることがある。このようにして、たとえば、1個以上のプロセッサコア(群)を含んでいるプロセッサは、1つ以上のマシン読み取り可能な媒体によってプロセッサに伝達されたプログラムコードおよび/または命令もしくは命令セットに応じて、図3および8に表されたブロックの1つ以上を引き受けることがある。一般に、マシン読み取り可能な媒体は、本明細書において説明された装置および/またはシステムのいずれかに映像システム100、200および700、および/または、SVCコーデックモジュール406の少なくとも一部分を実装させるプログラムコードおよび/または命令もしくは命令セットの形をしたソフトウェアを伝達することがある。
Moreover, any one or more of the blocks of FIGS. 3 and 8 may be undertaken in response to instructions provided by one or more computer program products. Such a program product may include, for example, a signal bearing media that provides instructions that, when executed by a processor, may provide the functionality described herein. . A computer program product may be provided on one or more machine-readable media in any form. Thus, for example, a processor including one or more processor core (s) may be responsive to program code and / or instructions or instruction sets communicated to a processor by one or more machine-readable media. , One or more of the blocks represented in FIGS. 3 and 8 may be undertaken. Generally, the machine-readable medium is a program code that causes any of the devices and / or systems described herein to implement at least a portion of the
本明細書において記載されたいずれかの実装で使用されるように、用語「モジュール」は、本明細書において記載された機能性を提供するように構成されているソフトウェア、ファームウェア、および/または、ハードウェアの何らかの組み合わせを指す。ソフトウェアは、ソフトウェアパッケージ、コードおよび/または命令セットもしくは命令として具現化されることがあり、本明細書において記載されたいずれかの実装で使用されるように、「ハードウェア」は、たとえば、単独で、もしくは、何らかの組み合わせで、ハードワイヤード回路構成、プログラマブル回路構成、状態機械回路構成、および/または、プログラマブル回路によって実行される命令を記憶するファームウェアを含むことがある。モジュールは、集合的に、または、個別に、大規模システムの一部、たとえば、集積回路(IC)、システム・オン・チップ(SoC)などを形成する回路構成として具現化されることがある。 As used in any of the implementations described herein, the term “module” refers to software, firmware, and / or configured to provide the functionality described herein. Refers to any combination of hardware. Software may be embodied as a software package, code and / or instruction set or instructions, and as used in any of the implementations described herein, “hardware” may be, for example, a single Or, in some combination, may include firmware that stores hardwired circuitry, programmable circuitry, state machine circuitry, and / or instructions executed by the programmable circuitry. A module may be embodied collectively or individually as a circuit configuration that forms part of a larger system, such as an integrated circuit (IC), system on chip (SoC), and the like.
図9は、本発明開示内容によるシステム例900を示す。様々な実装では、システム900は、メディアシステムでもよいが、システム900は、この状況に限定されるものではない。たとえば、システム900は、パーソナル・コンピュータ(PC)、ラップトップ・コンピュータ、ウルトララップトップ・コンピュータ、タブレット、タッチパッド、ポータブル・コンピュータ、ハンドヘルド・コンピュータ、パームトップ・コンピュータ、個人情報端末(PDA)、セルラ電話機、組み合わせ式セルラ電話機/PDA、テレビジョン、スマート装置(たとえば、スマートフォン、スマートタブレットまたはスマートテレビジョン)、モバイル・インターネット装置(MID)、メッセージング装置、データ通信装置、カメラ(たとえば、自動焦点・自動露出カメラ、超望遠カメラ、スーパーズーム・カメラ、デジタル一眼レフ(DSLR)カメラ)などに組み込まれることがある。
FIG. 9 illustrates an
様々な実装では、システム900は、ディスプレイ900に結合されたプラットフォーム902を含む。プラットフォーム902は、コンテンツサービス装置(群)930またはコンテンツ配信装置(群)940といったコンテンツ装置から、または、他の類似したコンテンツソースからコンテンツを受信することがある。1つ以上のナビゲーションフィーチャー部分を有するナビゲーションコントローラ950は、たとえば、プラットフォーム902および/またはディスプレイ920と相互作用するために使用されることがある。これらのコンポーネントの各々は、以下でより詳しく説明される。
In various implementations, the
様々な実装では、プラットフォーム902は、チップセット905、プロセッサ910、メモリ912、ストレージ914、グラフィックスサブシステム915、アプリケーション916および/または無線機918の何らかの組み合わせを含むことがある。チップセット905は、プロセッサ910と、メモリ912、ストレージ914、グラフィックスサブシステム915、アプリケーション916、および/または無線機918の間で通信を行うことがある。たとえば、チップセット905は、ストレージ914との相互通信を行う能力を持つストレージアダプタ(図示せず)を含むことがある。
In various implementations, platform 902 may include any combination of chipset 905,
プロセッサ910は、複合命令セットコンピュータ(CISC)または縮小命令セットコンピュータ(RISC)プロセッサ、x86命令セット互換プロセッサ、マルチコア、またはその他のマイクロプロセッサもしくは中央処理ユニット(CPU)として実装されることがある。様々な実装では、プロセッサ910は、デュアルコア・プロセッサ(群)、デュアルコア・モバイル・プロセッサ(群)などでもよい。
The
メモリ912は、限定されることはないが、ランダム・アクセス・メモリ(RAM)、ダイナミック・ランダム・アクセス・メモリ(DRAM)またはスタティックRAM(SRAM)のような揮発性メモリ装置として実装されることがある。
ストレージ914は、限定されることはないが、磁気ディスクドライブ、光ディスクドライブ、テープドライブ、内蔵ストレージ装置、外付けストレージ装置、フラッシュメモリ、バッテリバックアップ式SDRAM(同期DRAM)、および/またはネットワークアクセス可能なストレージ装置のような不揮発性ストレージ装置として実装されることがある。様々な実装では、ストレージ914は、たとえば、複数のハード装置が含まれている場合、貴重なデジタル媒体のためストレージ性能強化保護を増進する技術を含むことがある。 Storage 914 includes, but is not limited to, a magnetic disk drive, optical disk drive, tape drive, internal storage device, external storage device, flash memory, battery-backed SDRAM (synchronous DRAM), and / or network accessible It may be implemented as a non-volatile storage device such as a storage device. In various implementations, the storage 914 may include technology that enhances storage performance-enhanced protection for valuable digital media, for example when multiple hard devices are included.
グラフィックスサブシステム915は、表示用静止画または動画のような画像の処理を実行することがある。グラフィックスサブシステム915は、たとえば、グラフィックス処理ユニット(GPU)または視覚処理ユニット(VPU)でもよい。アナログまたはデジタルインターフェイスは、グラフィックスサブシステム915とディスプレイ920とを通信結合するために使用されることがある。たとえば、インターフェイスは、高品位マルチメディアインターフェイス、ディスプレイポート、無線HDMI(登録商標)、および/または、無線HD準拠技術のうちのいずれかでもよい。グラフィックスサブシステム915は、プロセッサ910またはチップセット905に統合されることがある。ある種の実施では、グラフィックスサブシステム915は、チップセット905に通信結合された独立型装置でもよい。
The graphics subsystem 915 may perform processing of images such as display still images or moving images. Graphics subsystem 915 may be, for example, a graphics processing unit (GPU) or a visual processing unit (VPU). An analog or digital interface may be used to communicatively
本明細書において説明されたグラフィックスおよび/または映像処理技術は、様々なハードウェアアーキテクチャで実施されることがある。たとえば、グラフィックスおよび/または映像機能性は、チップセットの内部に統合されることがある。代替的に、ディスクリートグラフィックスおよび/または映像プロセッサが使用されることがある。さらに別の実装として、グラフィックスおよび/または映像機能は、マルチコア・プロセッサを含んでいる汎用プロセッサによって提供されることがある。さらなる実施形態では、機能は、消費者エレクトロニクス装置に実装されることがある。 The graphics and / or video processing techniques described herein may be implemented with various hardware architectures. For example, graphics and / or video functionality may be integrated inside the chipset. Alternatively, discrete graphics and / or video processors may be used. As yet another implementation, graphics and / or video functionality may be provided by a general purpose processor including a multi-core processor. In further embodiments, the functionality may be implemented in a consumer electronics device.
無線機918は、様々な好適な無線通信技術を使用して信号を送受信する能力を持つ1台以上の無線機を含むことがある。このような技術は、1つ以上の無線ネットワークに亘る通信を伴うことがある。無線ネットワーク例は、(限定されることなく)無線ローカル・エリア・ネットワーク(WLAN)、無線パーソナル・エリア・ネットワーク(WPAN)、無線メトロポリタン・エリア・ネットワーク(WMAN)、セルラネットワーク、および衛星ネットワークを含む。このようなネットワークに亘り信する際に、無線機918は、いずれかのバージョンの1つ以上の該当する規格に従って動作することがある。 Radio 918 may include one or more radios capable of transmitting and receiving signals using various suitable wireless communication technologies. Such techniques may involve communication across one or more wireless networks. Examples of wireless networks include (but are not limited to) wireless local area networks (WLAN), wireless personal area networks (WPAN), wireless metropolitan area networks (WMAN), cellular networks, and satellite networks. . In communicating across such networks, the radio 918 may operate in accordance with one or more applicable standards of any version.
様々な実装では、ディスプレイ920は、何らかのテレビジョン型モニタまたはディスプレイを含むことがある。ディスプレイ920は、たとえば、コンピュータ・ディスプレイ・スクリーン、タッチ・スクリーン・ディスプレイ、映像モニタ、テレビジョンのような装置、および/または、テレビジョンを含むことがある。ディスプレイ920は、デジタル方式および/またはアナログ方式でもよい。様々な実装では、ディスプレイ920は、ホログラフィックディスプレイでもよい。さらに、ディスプレイ920は、視覚的投影を受ける透明表面でもよい。このような投影は、様々な形式の情報、画像、および/または物体を伝達することがある。たとえば、このような投影は、モバイル拡張現実(MAR)アプリケーションのための視覚的オーバーレイでもよい。1つ以上のソフトウェアアプリケーション916の制御下で、プラットフォーム902は、ディスプレイ920にユーザ・インターフェイス922を表示することがある。 In various implementations, the display 920 may include any television type monitor or display. Display 920 may include, for example, a computer display screen, a touch screen display, a video monitor, a device such as a television, and / or a television. The display 920 may be digital and / or analog. In various implementations, the display 920 may be a holographic display. Further, the display 920 may be a transparent surface that receives a visual projection. Such projections may convey various types of information, images, and / or objects. For example, such a projection may be a visual overlay for mobile augmented reality (MAR) applications. Under the control of one or more software applications 916, the platform 902 may display a user interface 922 on the display 920.
様々な実装では、コンテンツサービス装置(群)930は、全国的、国際的および/または独立型サービスによってホストされ、よって、たとえば、インターネットを介してプラットフォーム902を利用できることがある。コンテンツサービス装置(群)930は、プラットフォーム902および/またはディスプレイ920に結合されることがある。プレットフォーム902および/またはコンテンツサービス装置(群)930は、メディア情報をネットワーク960との間で通信(たとえば、送信および/または受信)するためにネットワーク960に結合されることがある。コンテンツ配信装置(群)940は、プラットフォーム902および/またはディスプレイ920にさらに結合されることがある。
In various implementations, the content service device (s) 930 may be hosted by national, international, and / or stand-alone services, so that the platform 902 may be available over the Internet, for example. Content service device (s) 930 may be coupled to platform 902 and / or display 920. The tablet form 902 and / or content service device (s) 930 may be coupled to the
様々な実装では、コンテンツサービス装置(群)930は、ケーブル・テレビジョン・ボックスと、パーソナル・コンピュータと、ネットワークと、電話機と、デジタル情報および/またはコンテンツを配信する能力を持つインターネット接続可能な装置もしくは電気製品と、ネットワーク960を介して、もしくは、直接的にコンテンツプロバイダとプラットフォーム902および/またはディスプレイ920との間でコンテンツを一方向もしくは双方向に通信する能力を持つその他の類似した装置とを含むことがある。コンテンツは、ネットワーク960を介して、システム980のコンポーネントのうちのいずれか1つとコンテンツプロバイダとの間で一方向および/または双方向に通信されることがあることが認められるであろう。コンテンツの実施例は、たとえば、映像、音楽、医療およびゲーミング情報などを含んでいるいずれかのメディア情報を含むことがある。
In various implementations, the content service device (s) 930 is a cable television box, a personal computer, a network, a telephone, and an internet connectable device capable of distributing digital information and / or content. Or an electrical appliance and other similar devices capable of one-way or two-way communication of content between the content provider and the platform 902 and / or the display 920 directly via the
コンテンツサービス装置(群)930は、ケーブル・テレビジョン・プログラミング、デジタル情報、および/またはその他のコンテンツのようなコンテンツを受信することがある。コンテンツプロバイダの実施例は、何らかのケーブルもしくは衛星テレビジョン、または、ラジオもしくはインターネット・コンテンツ・プロバイダを含むことがある。提供された実施例は、決して本発明開示内容による実装を限定するという意味ではない。 Content service device (s) 930 may receive content such as cable television programming, digital information, and / or other content. Examples of content providers may include any cable or satellite television or radio or internet content provider. The provided examples are in no way meant to limit implementation according to the present disclosure.
様々な実装では、プラットフォーム902は、1つ以上のナビゲーションフィーチャー部分を有するナビゲーションコントローラ950から制御信号を受信することがある。コントローラ950のナビゲーションフィーチャー部分は、たとえば、ユーザ・インターフェイス922と相互作用するために使用されることがある。様々な実施形態では、ナビゲーションコントローラ950は、ユーザが空間(たとえば、連続的かつ多次元)データをコンピュータに入力することを可能にさせるコンピュータ・ハードウェア・コンポーネント(具体的に、ヒューマン・インターフェイス装置)であることがある位置決め装置でもよい。グラフィカル・ユーザ・インターフェイス(GUI)と、テレビジョンおよびモニタのような多くのシステムは、ユーザが物理的ジェスチャを使用してデータを制御し、コンピュータまたはテレビジョンに供給することを可能にさせる。
In various implementations, the platform 902 may receive control signals from a
コントローラ950のナビゲーションフィーチャー部分の運動は、ディスプレイ上に表示されたポインタ、カーソル、フォーカスリング、またはその他の視覚的指標の運動によってディスプレイ(たとえば、ディスプレイ920)上に複製されることがある。たとえば、ソフトウェアアプリケーション916の制御下で、ナビゲーションコントローラ950に位置しているナビゲーションフィーチャー部分は、たとえば、ユーザ・インターフェイス922に表示された仮想ナビゲーションフィーチャー部分にマップされることがある。様々な実施形態では、コントローラ950は、別個のコンポーネントではなく、プラットフォーム902および/またはディスプレイ920に統合されることがある。本発明開示内容は、しかし、本明細書において明らかにされ、または、説明された要素または状況に限定されることがない。
The movement of the navigation feature portion of
様々な実装では、ドライバ(図示せず)は、たとえば、有効にされたとき、ユーザが初期起動後にボタンのタッチでテレビジョンのようなプラットフォーム902を瞬時にオンおよびオフにすることを可能にする技術を含むことがある。プログラム論理は、プラットフォームが「オフ」にされているとき、プラットフォーム902がメディアアダプタまたはその他のコンテンツサービス装置(群)930もしくはコンテンツ配信装置(群)940へのコンテンツをストリーム化することを可能にさせることがある。付加的に、チップ905は、たとえば、5.1サラウンド・サウンド・オーディオおよび/または高品位7.1サラウンド・サウンド・オーディオのためのハードウェアおよび/またはソフトウェアサポートを含むことがある。ドライバは、統合されたグラフィックスプラットフォームのためのグラフィックスドライバを含むことがある。様々な実施形態では、グラフィックスドライバは、ペリフェラル・コンポーネント・インターコネクト(PCI)エクスプレス・グラフィック・カードを備えることがある。 In various implementations, a driver (not shown), for example, when enabled, allows a user to instantly turn on and off a television-like platform 902 with a touch of a button after initial activation. May include technology. Program logic allows the platform 902 to stream content to a media adapter or other content service device (s) 930 or content distribution device (s) 940 when the platform is “off”. Sometimes. Additionally, chip 905 may include hardware and / or software support for, for example, 5.1 surround sound audio and / or high definition 7.1 surround sound audio. The driver may include a graphics driver for the integrated graphics platform. In various embodiments, the graphics driver may comprise a peripheral component interconnect (PCI) express graphics card.
様々な実装では、システム900に表されたコンポーネントのうちの1つ以上は、統合されることがある。たとえば、プラットフォーム902およびコンテンツサービス装置(群)930は、統合されることがあり、もしくは、プラットフォーム902およびコンテンツ配信装置(群)940は、統合されることがあり、または、たとえば、プラットフォーム902、コンテンツサービス装置(群)930、およびコンテンツ配信装置(群)940は、統合されることがある。様々な実施形態では、プラットフォーム902およびディスプレイ920は、統合型ユニットであることがある。たとえば、ディスプレイ920およびコンテンツサービス装置(群)930は、統合されることがあり、または、ディスプレイ920およびコンテンツ配信装置(群)940は、統合されることがある。これらの実施例は、本発明開示内容を限定するという意味ではない。
In various implementations, one or more of the components represented in
様々な実施形態では、システム900は、無線システム、有線システム、または両方の組み合わせとして実装されることがある。無線システムとして実装されたとき、システム900は、1つ以上のアンテナ、トランスミッタ、レシーバ、トランシーバ、増幅器、フィルタ、制御ロジックなどのような、無線共有媒体を介して通信するため適したコンポーネントおよびインターフェイスを含むことがある。無線共有媒体の実施例は、RFスペクトルなどのような無線スペクトルの一部分を含むことがある。有線システムとして実装されたとき、システム900は、入力/出力(I/O)アダプタ、I/Oアダプタを対応する有線通信媒体と接続する物理的コネクタ、ネットワーク・インターフェイス・カード(NIC)、ディスクコントローラ、映像コントローラ、音声コントローラなどのような、有線通信媒体を介して通信するため適したコンポーネントおよびインターフェイスを含むことがある。有線通信媒体の実施例は、配線、ケーブル、金属リード線、印刷回路板(PCB)、バックプレーン、スイッチファブリック、半導体材料、ツイストペア配線、同軸ケーブル、光ファイバなどを含むことがある。
In various embodiments,
プラットフォーム902は、情報を通信するために1つ以上の論理または物理チャンネルを確立することがある。情報は、メディア情報および制御情報を含むことがある。メディア情報は、ユーザに向けられたコンテンツを表現する何らかのデータを指すことがある。コンテンツの実施例は、たとえば、音声会話、音声会議、ストリーミング映像、電子メール(「e−mail」)メッセージ、音声メールメッセージ、英数字シンボル、グラフィックス、画像、映像、テキストなどを含むことがある。音声会話からのデータは、たとえば、発話情報、沈黙時間、背景雑音、快適雑音、トーンなどであることがある。制御情報は、自動システムに向けられたコマンド、命令または制御語を表現する何らかのデータを指すことがある。たとえば、制御情報は、システムの中を通ってメディア情報を案内するために、または、所定の方式でメディア情報を処理するようにノードに命令するために使用されることがある。実施形態は、しかし、図9において表されるか、または、説明された要素または状況に限定されることがない。 Platform 902 may establish one or more logical or physical channels to communicate information. The information may include media information and control information. Media information may refer to some data representing content intended for the user. Examples of content may include, for example, voice conversations, audio conferencing, streaming video, electronic mail (“e-mail”) messages, voice mail messages, alphanumeric symbols, graphics, images, video, text, etc. . Data from a voice conversation may be, for example, speech information, silence time, background noise, comfort noise, tone, and the like. Control information may refer to any data that represents a command, instruction or control word directed to an automated system. For example, control information may be used to guide media information through the system or to instruct a node to process media information in a predetermined manner. Embodiments, however, are not limited to the elements or situations depicted or described in FIG.
前述のとおり、システム900は、様々な物理的スタイルまたはフォームファクタで具現化されることがある。図10は、システム1000が具現化されることがある小さい形状因子装置1000の実装を示す。様々な実施形態では、たとえば、装置1000は、無線能力を有するモバイル・コンピューティング装置として実装されることがある。モバイル・コンピューティング装置は、処理システム、および、たとえば、1台以上のバッテリのようなモバイル電源もしくは給電系統を有する何らかの装置を指すことがある。
As previously mentioned, the
前述のとおり、モバイル・コンピューティング装置の実施例は、パーソナル・コンピュータ(PC)、ラップトップ・コンピュータ、ウルトララップトップ・コンピュータ、タブレット、タッチパッド、ポータブル・コンピュータ、ハンドヘルド・コンピュータ、パームトップ・コンピュータ、個人情報端末(PDA)、携帯電話、組み合わせ式セルラ電話機/PDA、テレビジョン、スマート装置(たとえば、スマートフォン、スマートタブレットまたはスマートテレビジョン)、モバイル・インターネット装置(MID)、メッセージング装置、データ通信装置、カメラ(たとえば、自動焦点・自動露出カメラ、超望遠カメラ、スーパーズーム・カメラ、デジタル一眼レフ(DSLR)カメラ)などを含むことがある。 As mentioned above, examples of mobile computing devices include personal computers (PCs), laptop computers, ultra laptop computers, tablets, touchpads, portable computers, handheld computers, palmtop computers, Personal information terminal (PDA), mobile phone, combination cellular phone / PDA, television, smart device (eg, smart phone, smart tablet or smart television), mobile internet device (MID), messaging device, data communication device, Cameras (eg, autofocus and autoexposure cameras, super telephoto cameras, super zoom cameras, DSLR cameras) may be included.
モバイル・コンピューティング装置の実施例は、リスト・コンピュータ、フィンガー・コンピュータ、リング・コンピュータ、メガネ・コンピュータ、ベルトクリップ・コンピュータ、アームバンド・コンピュータ、シュー・コンピュータ、クロージング・コンピュータ、およびその他のウェアラブル・コンピュータのような人が装着するコンピュータをさらに含むことがある。様々な実施形態では、例えば、モバイル・コンピューティング装置は、コンピュータアプリケーション、ならびに、音声通信および/またはデータ通信を実行する能力を持つスマートフォンとして実装されることがある。ある種の実施形態は、一例として、スマートフォンとして実装されることがあるモバイル・コンピューティング装置を用いて説明されることがあるが、その他の実施形態が同様に他の無線モバイル・コンピューティング装置を使用して実施されることがあることが認められることがある。実施形態は、この状況に限定されることがない。 Examples of mobile computing devices include wrist computers, finger computers, ring computers, eyeglass computers, belt clip computers, armband computers, shoe computers, closing computers, and other wearable computers. It may further include a computer worn by such a person. In various embodiments, for example, a mobile computing device may be implemented as a smart phone with the ability to perform computer applications and voice and / or data communications. Certain embodiments may be described using, as an example, a mobile computing device that may be implemented as a smartphone, but other embodiments may use other wireless mobile computing devices as well. It may be observed that it may be used and implemented. Embodiments are not limited to this situation.
図10に示されるように、装置1000は、筐体1002と、ディスプレイ1004と、入力/出力(I/O)装置1006と、アンテナ1008とを含むことがある。装置1000は、ナビゲーションフィーチャー部分1012をさらに含むことがある。ディスプレイ1004は、モバイル・コンピューティング装置のため適切な情報を表示する何らかの適当なディスプレイユニットを含むことがある。I/O装置1006は、情報をモバイル・コンピューティング装置に入力する何らかの適当なI/O装置を含むことがある。I/O装置1006の実施例は、英数字キーボード、数字キーパッド、タッチパッド、入力キー、ボタン、スイッチ、ロッカースイッチ、マイクロフォン、スピーカ、音声認識装置およびソフトウェアなどを含むことがある。情報は、マイクロフォン(図示せず)を用いて装置1000にさらに入力されることがある。このような情報は、音声認識装置(図示せず)によってデジタル化されることがある。実施形態は、この状況に限定されることがない。
As shown in FIG. 10,
様々な実施形態は、ハードウェア要素、ソフトウェア要素、または両方の組み合わせを使用して実装されることがある。ハードウェア要素の実施例は、プロセッサ、マイクロプロセッサ、回路、回路素子(たとえば、トランジスタ、抵抗器、キャパシタ、インダクタなど)、集積回路、特定用途向け集積回路(ASIC)、プログラマブル論理装置(PLD)、デジタル信号プロセッサ(DSP)、フィールド・プログラマブル・ゲート・アレイ(FPGA)、論理ゲート、レジスタ、半導体装置、チップ、マイクロチップ、チップセットなどを含むことがある。ソフトウェア要素の実施例は、ソフトウェアコンポーネント、プログラム、アプリケーション、コンピュータプログラム、アプリケーションプログラム、システムプログラム、マシンプログラム、オペレーティング・システム・ソフトウェア、ミドルウェア、ファームウェア、ソフトウェアモジュール、ルーチン、サブルーチン、ファンクション、メソッド、手続、ソフトウェアインターフェイス、アプリケーション・プログラム・インターフェイス(API)、命令セット、コンピューティングコード、コンピュータコード、コードセグメント、コンピュータコードセグメント、ワード、バリュー、シンボル、またはこれらの何らかの組み合わせを含むことがある。実施形態がハードウェアおよび/またはソフトウェアを使用して実装されるか否かを決定することは、所望の計算レート、電力レベル、耐熱性、処理サイクル割当量、入力データレート、出力データレート、メモリ資源、データバス速度、およびその他の設計または性能上の制約のようないくつもの要因に従って変化することがある。 Various embodiments may be implemented using hardware elements, software elements, or a combination of both. Examples of hardware elements include processors, microprocessors, circuits, circuit elements (eg, transistors, resistors, capacitors, inductors, etc.), integrated circuits, application specific integrated circuits (ASICs), programmable logic devices (PLDs), May include digital signal processors (DSPs), field programmable gate arrays (FPGAs), logic gates, registers, semiconductor devices, chips, microchips, chipsets, and the like. Examples of software elements include software components, programs, applications, computer programs, application programs, system programs, machine programs, operating system software, middleware, firmware, software modules, routines, subroutines, functions, methods, procedures, software It may include an interface, application program interface (API), instruction set, computing code, computer code, code segment, computer code segment, word, value, symbol, or some combination thereof. Determining whether an embodiment is implemented using hardware and / or software depends on the desired calculation rate, power level, heat resistance, processing cycle quota, input data rate, output data rate, memory It can vary according to a number of factors such as resources, data bus speed, and other design or performance constraints.
少なくとも1つの実施形態の1つ以上の態様は、プロセッサの内部の様々な論理を表現し、機械によって読み取られたとき、本明細書において説明された技術を実行するために機械に論理を組み立てさせるマシン読み取り可能な媒体に記憶された代表的な命令によって実装されることがある。「IPコア」として知られたこのような表現は、有形のマシン読み取り可能な媒体に記憶され、実際に論理またはプロセッサを作る製造機械の中へロードするために様々な顧客または製造用設備に供給されることがある。 One or more aspects of at least one embodiment represent various logic within the processor and, when read by the machine, cause the machine to assemble logic to perform the techniques described herein. May be implemented by representative instructions stored on a machine-readable medium. Such representations, known as “IP cores”, are stored on a tangible machine-readable medium and supplied to various customers or manufacturing facilities for loading into the manufacturing machine that actually creates the logic or processor. May be.
本明細書に記載されたある特定のフィーチャー部分は、様々な実装を参照して説明されているが、この説明は、限定的な意味で解釈されることが意図されていない。従って、本明細書において説明された実装の様々な変更は、本発明開示内容に関係がある技術分野の通常の知識を有する者に明らかである他の実装と同様に、本発明開示内容の趣旨および範囲に含まれると考えられる。 Although certain feature portions described herein have been described with reference to various implementations, this description is not intended to be construed in a limiting sense. Accordingly, various modifications to the implementation described herein are intended to be within the scope of the present disclosure, as well as other implementations that will be apparent to those of ordinary skill in the art related to the present disclosure. And is considered to be included in the scope.
本発明開示内容によれば、基本レイヤ映像フレームから取得された画素サンプルは、拡張レイヤ映像デコーダからアクセスされ、拡張レイヤフレームの少なくとも一部分のレイヤ間画素予測は、少なくとも部分的に画素サンプルに応じて実行されることがある。レイヤ間画素予測を実行することは、少なくとも部分的に画素サンプルおよび残差に応じて、レイヤ間画素予測を実行することを含むことがある。 According to the present disclosure, pixel samples obtained from a base layer video frame are accessed from an enhancement layer video decoder, and inter-layer pixel prediction of at least a portion of the enhancement layer frame is at least partially responsive to the pixel sample. May be executed. Performing inter-layer pixel prediction may include performing inter-layer pixel prediction at least partially in response to the pixel samples and residuals.
本発明開示内容によれば、拡張レイヤフレームは、時間拡張レイヤフレーム、空間拡張レイヤフレームまたは品質拡張レイヤフレームのうちの1つでもよい。レイヤ間画素予測を実行することは、スライスレベル、ピクチャレベル、またはレイヤレベルのうちの少なくとも1つについてのレイヤ間画素予測を実行することを含むことがある。拡張レイヤフレーム部分は、符号化単位(CU)、予測単位(PU)、または変換単位(TU)のうちの1つであることがある。 According to the present disclosure, the enhancement layer frame may be one of a temporal enhancement layer frame, a spatial enhancement layer frame, or a quality enhancement layer frame. Performing inter-layer pixel prediction may include performing inter-layer pixel prediction for at least one of a slice level, a picture level, or a layer level. The enhancement layer frame portion may be one of a coding unit (CU), a prediction unit (PU), or a transform unit (TU).
本発明開示内容によれば、レイヤ間画素予測を実行することは、拡張レイヤ映像デコーダで受信されたビットストリームの中の指標に応じてレイヤ間画素予測を実行することを含むことがある。第1の状態では、指標は、拡張レイヤ映像デコーダがレイヤ間画素予測を実行すべきことを指定することがあり、第2の状態では、指標は、拡張レイヤ映像デコーダがレイヤ間画素予測を実行すべきではないことを指定することがある。指標は、レート歪みコストに応じて第1の状態または第2の状態の一方に置かれることがある。拡張レイヤフレームの一部分は、拡張レイヤフレームの1つ以上のブロックを含むことがあり、画素サンプルは、基本レイヤフレームの1つ以上の同一位置ブロックに対応することがある。基本レイヤフレームの同一位置ブロックは、イントラ符号化ブロック、インター符号化ブロック、または、イントラ/インター・ハイブリッド符号化ブロックであることがある。 According to the present disclosure, performing inter-layer pixel prediction may include performing inter-layer pixel prediction according to an index in the bitstream received by the enhancement layer video decoder. In the first state, the indicator may specify that the enhancement layer video decoder should perform inter-layer pixel prediction, and in the second state, the indicator performs the enhancement layer video decoder performing inter-layer pixel prediction. It may be specified that it should not. The indicator may be placed in one of the first state or the second state depending on the rate distortion cost. A portion of the enhancement layer frame may include one or more blocks of the enhancement layer frame, and a pixel sample may correspond to one or more co-located blocks of the base layer frame. The co-located block of the base layer frame may be an intra coded block, an inter coded block, or an intra / inter hybrid coded block.
本発明開示内容によれば、アップサンプル・フィルタは、レイヤ間画素予測を実行する前に画素サンプルに適用されることがある。アップサンプル・フィルタは、固定アップサンプル係数を有することがあり、または、適応アップサンプル係数を有することがある。さらに、改良フィルタは、レイヤ間画素予測を実行する前に画素サンプルに適用されることがある。改良フィルタは、固定改良係数を有することがあり、または、適応改良係数を有することがある。 In accordance with the present disclosure, upsample filters may be applied to pixel samples before performing inter-layer pixel prediction. The upsample filter may have a fixed upsample coefficient or may have an adaptive upsample coefficient. Furthermore, the refinement filter may be applied to the pixel samples before performing inter-layer pixel prediction. The improvement filter may have a fixed improvement factor or may have an adaptive improvement factor.
本発明開示内容によれば、基本レイヤ映像フレームから取得された画素サンプルは、拡張レイヤ映像デコーダでアクセスされることがあり、拡張レイヤフレームの少なくとも一部分のレイヤ間画素予測は、少なくとも部分的に画素サンプルに応じて実行されることがある。レイヤ間画素予測を実行することは、少なくとも部分的に画素サンプルおよび残差に基づいてレイヤ間画素予測を実行することを含む。さらに、拡張レイヤフレームは、レイヤ間画素予測を実行した後にエントロピーエンコードされることがあり、エントロピーエンコードされた拡張レイヤフレームを含むビットストリームが生成されることがある。エントロピーエンコードされた拡張レイヤフレームは、残差を含むことがある。 In accordance with the present disclosure, pixel samples obtained from a base layer video frame may be accessed by an enhancement layer video decoder, and inter-layer pixel prediction of at least a portion of the enhancement layer frame is at least partially pixelated. May be executed depending on the sample. Performing inter-layer pixel prediction includes performing inter-layer pixel prediction based at least in part on pixel samples and residuals. Further, the enhancement layer frame may be entropy encoded after performing inter-layer pixel prediction, and a bitstream including the entropy encoded enhancement layer frame may be generated. An entropy encoded enhancement layer frame may contain residuals.
本発明開示内容によれば、指標が生成されることがあり、第1の状態では、指標は、レイヤ間画素予測が拡張レイヤフレームの一部分に対して実行されるべきことを指定し、第2の状態では、指標は、レイヤ間画素予測が拡張レイヤフレームの一部分に対して実行されるべきではないことを指定する。指標は、その後、ビットストリームの中に入れられることがある。指標は、レート歪みコストに応じて第1の状態または第2の状態の一方に置かれることがある。
上記の実施形態につき以下の付記を残しておく。
(付記1)
拡張レイヤ(EL)映像デコーダで、下位ELフレームまたは基本レイヤ(BL)フレームの少なくとも一方から取得された画素サンプルに少なくとも部分的に基づいてELフレームのブロックの予測画素を決定することを備える方法。
(付記2)
メモリの中の前記画素サンプルにアクセスすることをさらに備える、付記1に記載の方法。
(付記3)
前記ELフレームは、時間ELフレーム、空間ELフレームまたは品質ELフレームのうちの少なくとも1つを備える、付記1に記載の方法。
(付記4)
前記予測画素を決定することは、スライスレベル、ピクチャレベル、またはレイヤレベルのうちの少なくとも1つについての予測画素を決定することを備える、付記1に記載の方法。
(付記5)
前記ブロックは、符号化ユニット(CU)、予測ユニット(PU)、または変換ユニット(TU)のうちの1つを備える、付記1に記載の方法。
(付記6)
予測画素を決定することは、前記EL映像デコーダで受信されたビットストリームに含まれる標識に応じて予測画素を決定することを備える、付記1に記載の方法。
(付記7)
第1の状態では、前記標識は、前記EL映像デコーダがレイヤ間画素予測を実行すべきことを指定し、第2の状態では、前記標識は、前記EL映像デコーダがレイヤ間画素予測を実行すべきではないことを指定する、付記6に記載の方法。
(付記8)
前記標識は、レート歪みコストに応じて前記第1の状態または前記第2の状態の一方に置かれている、付記7に記載の方法。
(付記9)
前記画素サンプルは、前記下位ELフレームまたは前記BLフレームの1つ以上の同一位置ブロックに対応する、付記1に記載の方法。
(付記10)
前記基本レイヤフレームの前記1つ以上の同一位置ブロックは、イントラ符号化ブロック、インター符号化ブロック、またはイントラ/インター・ハイブリッド符号化ブロックのうちの少なくとも1つを備える、付記9に記載の方法。
(付記11)
前記予測画素を決定する前にアップサンプル・フィルタを前記画素サンプルに適用することをさらに備える、付記1に記載の方法。
(付記12)
前記アップサンプル・フィルタは、固定アップサンプル係数または適応アップサンプル係数の一方を含む、付記11に記載の方法。
(付記13)
前記予測画素を決定する前に改良フィルタを前記画素サンプルに適用することをさらに備える、付記1に記載の方法
(付記14)
前記改良フィルタは、固定改良係数または適応改良係数の一方を含む、付記13に記載の方法。
(付記15)
前記予測画素を決定することは、少なくとも部分的に、前記画素サンプルおよび残差に応じて前記予測画素を決定することを備える、付記1に記載の方法。
(付記16)
コンピューティング装置で実行されるのに応じて、前記コンピューティング装置に付記1から15のいずれか1項に記載の方法を実行させる複数の命令を備える、少なくとも1つの機械読み取り可能な媒体。
(付記17)
使用できるときに、付記1から15のいずれか1項に記載の方法を実行するように構成されている装置。
(付記18)
付記1から15のいずれか1項に記載の方法を実行する手段を備える装置。
(付記19)
拡張レイヤ(EL)映像エンコーダで、少なくとも部分的に、下位ELフレームまたは基本レイヤ(BL)フレームの少なくとも一方から取得された画素サンプルに応じて、ELフレームのブロックの予測画素を決定することを備える方法。
(付記20)
メモリの中の前記画素サンプルにアクセスすることをさらに備える、付記19に記載の方法。
(付記21)
前記予測画素を決定した後に前記ELフレームをエントロピーエンコーディングすることと、
前記エントロピーエンコードされたELフレームを含むビットストリームを生成することと、
をさらに備える、付記19に記載の方法。
(付記22)
前記エントロピーエンコードされたELフレームは、残差を含む、付記21に記載の方法。
(付記23)
第1の状態では、レイヤ間画素予測が前記ブロックに対して実行されることになることを指定し、第2の状態では、レイヤ間画素予測が前記ブロックに対して実行されないことになることを指定する標識を生成することと、
前記標識を前記ビットストリームの中に入れることと、
をさらに備える、付記21に記載の方法。
(付記24)
前記標識をレート歪みコストに応じて前記第1の状態または前記第2の状態の一方に置くことをさらに備える、付記23に記載の方法。
(付記25)
前記ELフレームは、時間ELフレーム、空間ELフレームまたは品質ELフレームのうちの少なくとも1つを備える、付記19に記載の方法。
(付記26)
予測画素を決定することは、スライスレベル、ピクチャレベル、またはレイヤレベルのうちの少なくとも1つについての予測画素を決定することを備える、付記19に記載の方法。
(付記27)
前記ブロックは、符号化単位(CU)、予測単位(PU)、または変換単位(TU)のうちの1つを備える、付記19に記載の方法。
(付記28)
前記画素サンプルは、前記下位ELフレームまたは前記BLフレームの1つ以上の同一位置ブロックに対応する、付記19に記載の方法。
(付記29)
前記1つ以上の同一位置ブロックは、イントラ符号化ブロック、インター符号化ブロック、またはイントラ/インター・符号化ブロックのうちの少なくとも1つを備える、付記28に記載の方法。
(付記30)
前記予測画素を決定する前にアップサンプル・フィルタを前記画素サンプルに適用することをさらに備える、付記19に記載の方法。
(付記31)
前記アップサンプル・フィルタは、固定アップサンプル係数または適応アップサンプル係数の一方を含む、付記30に記載の方法。
(付記32)
前記予測画素を決定する前に改良フィルタを前記画素サンプルに適用することをさらに備える、付記19に記載の方法。
(付記33)
前記改良フィルタは、固定改良係数または適応改良係数の一方を含む、付記32に記載の方法。
(付記34)
前記予測画素を決定することは、少なくとも部分的に、前記画素サンプルおよび残差に応じて前記予測画素を決定することを備える、付記19に記載の方法。
(付記35)
コンピューティング装置で実行されるのに応じて、前記コンピューティング装置に付記19から34のいずれか1項に記載の方法を実行させる複数の命令を備える、少なくとも1つの機械読み取り可能な媒体。
(付記36)
使用できるときに、付記19から34のいずれか1項に記載の方法を実行するように構成されている装置。
(付記37)
付記19から34のいずれか1項に記載の方法を実行する手段を備える装置。
In accordance with the present disclosure, an index may be generated, and in the first state, the index specifies that inter-layer pixel prediction should be performed on a portion of the enhancement layer frame, and a second In the state, the indicator specifies that inter-layer pixel prediction should not be performed on a portion of the enhancement layer frame. The indicator may then be placed in the bitstream. The indicator may be placed in one of the first state or the second state depending on the rate distortion cost.
The following additional notes are left for the above embodiment.
(Appendix 1)
A method comprising determining, at an enhancement layer (EL) video decoder, predicted pixels of a block of EL frames based at least in part on pixel samples obtained from at least one of a lower EL frame or a base layer (BL) frame.
(Appendix 2)
The method of
(Appendix 3)
The method of
(Appendix 4)
The method of
(Appendix 5)
The method of
(Appendix 6)
The method of
(Appendix 7)
In the first state, the indicator specifies that the EL video decoder is to perform inter-layer pixel prediction, and in the second state, the indicator is that the EL video decoder performs inter-layer pixel prediction. The method of appendix 6, specifying that it should not.
(Appendix 8)
The method of claim 7, wherein the indicator is placed in one of the first state or the second state depending on a rate distortion cost.
(Appendix 9)
The method of
(Appendix 10)
The method of claim 9, wherein the one or more co-located blocks of the base layer frame comprise at least one of an intra coded block, an inter coded block, or an intra / inter hybrid coded block.
(Appendix 11)
The method of
(Appendix 12)
The method of claim 11, wherein the upsampling filter includes one of a fixed upsampling factor or an adaptive upsampling factor.
(Appendix 13)
The method of claim 1 (Appendix 14) further comprising applying an improved filter to the pixel sample prior to determining the predicted pixel.
The method of claim 13, wherein the improvement filter includes one of a fixed improvement factor or an adaptive improvement factor.
(Appendix 15)
The method of
(Appendix 16)
16. At least one machine-readable medium comprising a plurality of instructions that, when executed on a computing device, cause the computing device to perform the method of any one of appendices 1-15.
(Appendix 17)
An apparatus configured to perform the method of any one of
(Appendix 18)
An apparatus comprising means for executing the method according to any one of
(Appendix 19)
An enhancement layer (EL) video encoder comprises determining predicted pixels of a block of an EL frame in response to pixel samples obtained at least in part from at least one of a lower EL frame or a base layer (BL) frame. Method.
(Appendix 20)
The method of claim 19, further comprising accessing the pixel sample in memory.
(Appendix 21)
Entropy encoding the EL frame after determining the prediction pixel;
Generating a bitstream including the entropy encoded EL frame;
The method according to appendix 19, further comprising:
(Appendix 22)
The method of claim 21, wherein the entropy encoded EL frame includes a residual.
(Appendix 23)
The first state specifies that inter-layer pixel prediction will be performed on the block, and the second state indicates that inter-layer pixel prediction will not be performed on the block. Generating an indicator to specify;
Placing the indicator in the bitstream;
The method according to appendix 21, further comprising:
(Appendix 24)
24. The method of claim 23, further comprising placing the indicator in one of the first state or the second state depending on a rate distortion cost.
(Appendix 25)
The method of claim 19, wherein the EL frame comprises at least one of a temporal EL frame, a spatial EL frame, or a quality EL frame.
(Appendix 26)
The method of clause 19, wherein determining the prediction pixel comprises determining a prediction pixel for at least one of a slice level, a picture level, or a layer level.
(Appendix 27)
The method of claim 19, wherein the block comprises one of a coding unit (CU), a prediction unit (PU), or a transform unit (TU).
(Appendix 28)
The method of claim 19, wherein the pixel sample corresponds to one or more co-located blocks of the lower EL frame or the BL frame.
(Appendix 29)
29. The method of clause 28, wherein the one or more co-location blocks comprise at least one of an intra-coded block, an inter-coded block, or an intra / inter-coded block.
(Appendix 30)
The method of claim 19, further comprising applying an upsample filter to the pixel samples prior to determining the predicted pixel.
(Appendix 31)
The method of claim 30, wherein the upsample filter comprises one of a fixed upsample coefficient or an adaptive upsample coefficient.
(Appendix 32)
The method of claim 19, further comprising applying an improved filter to the pixel samples prior to determining the predicted pixel.
(Appendix 33)
The method of claim 32, wherein the refinement filter comprises one of a fixed improvement factor or an adaptive improvement factor.
(Appendix 34)
The method of claim 19, wherein determining the prediction pixel comprises determining the prediction pixel in response to the pixel sample and a residual, at least in part.
(Appendix 35)
35. At least one machine-readable medium comprising a plurality of instructions that, when executed on a computing device, cause the computing device to perform the method of any one of appendices 19 to 34.
(Appendix 36)
An apparatus configured to perform the method of any one of appendices 19 to 34 when available.
(Appendix 37)
An apparatus comprising means for executing the method according to any one of appendices 19 to 34.
102 レイヤ0(BL)エンコーダ
104 レイヤ1(EL)エンコーダ
106 レイヤ2(EL)エンコーダ
108 レイヤ0(BL)デコーダ
110 レイヤ1(EL)デコーダ
112 レイヤ2(EL)デコーダ
116 レイヤ間予測
120 レイヤ間予測
122 レイヤ間予測
124 エントロピーエンコーダ
128 エントロピーデコーダ
130 レイヤ間予測
132 レイヤ間予測
134 レイヤ間予測
202 BLエンコーダ
204 ELエンコーダ
206 EL入力フレーム
208 BL入力フレーム
210 画素サンプル
212 変換および量子化
214 逆変換および逆量子化
216 イントラ予測
218 インター予測
220 インループ・フィルタリング
222 アップサンプリング
224 改良
228 変換および量子化
230 逆変換および逆量子化
232 イントラ予測
234 インター予測
236 インループ・フィルタリング
238 エントロピーエンコーダ
402 プロセッサ
406 SVCコーデック
408 メモリ
602 ヘッダ部
604 データ部
701 エントロピーデコーダ
702 BLデコーダ
704 ELデコーダ
706 EL出力フレーム
708 BL入力フレーム
710 再構成BLサンプル
712 逆変換および逆量子化
714 インター予測
716 イントラ予測
718 インループ・フィリタリング
720 アップサンプリング
722 改良
726 逆変換および逆量子化
728 インループ・フィルタリング
730 イントラ予測
732 インター予測
902 プラットフォーム
905 チップセット
910 プロセッサ
912 メモリ
914 ストレージ
915 グラフィックスサブシステム
916 アプリケーション
918 無線機
920 ディスプレイ
922 ユーザ・インターフェイス
930 コンテンツサービス装置(群)
940 コンテンツ配信装置(群)
960 ネットワーク
102 Layer 0 (BL)
940 Content distribution device (s)
960 network
Claims (30)
前記基本レイヤ領域のアップサンプルされた前記色度および輝度サンプルに係る一部分に少なくとも部分的に基づいて、レイヤ間予測を使用して、前記拡張レイヤを選択的に決定する回路と、
を含む、映像デコーダ装置。 A circuit that selectively upsamples the chromaticity and luminance samples of the base layer region regardless of whether inter-layer prediction should be used to determine the enhancement layer region, wherein the enhancement layer region comprises the base layer A circuit corresponding to at least a portion of the region;
A circuit that selectively determines the enhancement layer using inter-layer prediction based at least in part on a portion of the base layer region related to the upsampled chromaticity and luminance samples;
A video decoder device.
請求項1に記載の映像デコーダ装置。 Upsampling the chromaticity and luminance samples of the base layer region includes the use of a multi-tap filter with a fixed coefficient,
The video decoder device according to claim 1.
インター予測を使用して前記拡張レイヤ領域を選択的に決定する回路と、
を含む、請求項1に記載の映像デコーダ装置。 Circuitry for selectively determining the enhancement layer region using intra prediction;
Circuitry that selectively determines the enhancement layer region using inter prediction;
The video decoder device according to claim 1, comprising:
を含む、請求項1に記載の映像デコーダ装置。 Circuitry for improving the upsampled chromaticity and luminance samples;
The video decoder device according to claim 1, comprising:
前記ビットストリーム部は、前記拡張レイヤ領域を決定するためにレイヤ間予測を使用するか否かを指示するフラグを含んでいる、
請求項1に記載の映像デコーダ装置。 Including a circuit for receiving the bitstream portion;
The bitstream part includes a flag that indicates whether to use inter-layer prediction to determine the enhancement layer region,
The video decoder device according to claim 1.
請求項5に記載の映像デコーダ装置。 The bitstream part includes a residual and a flag indicating whether to use the residual for determining the enhancement layer region.
The video decoder device according to claim 5.
請求項6に記載の映像デコーダ装置。 The circuit that selectively determines the enhancement layer using inter-layer prediction based at least in part on a portion of the base layer region that is related to the up-sampled chromaticity and luminance samples. In response to the flag instructing to use the residual to determine a layer region, the residual is also used.
The video decoder device according to claim 6.
前記ラジオに通信結合された少なくとも一つのアンテナと、
を含む、請求項1に記載の映像デコーダ装置。 Radio and
At least one antenna communicatively coupled to the radio;
The video decoder device according to claim 1, comprising:
前記一つまたはそれ以上のプロセッサ回路に通信結合された少なくとも一つのメモリと、
前記一つまたはそれ以上のプロセッサ回路と通信結合されたディスプレイであり、前記ディスプレイは、前記決定された拡張レイヤ領域に少なくとも部分的に基づいて映像を表示する、
請求項8に記載の映像デコーダ装置。 One or more processor circuits;
At least one memory communicatively coupled to the one or more processor circuits;
A display communicatively coupled to the one or more processor circuits, the display displaying video based at least in part on the determined enhancement layer region;
The video decoder device according to claim 8.
請求項1乃至9いずれか一項に記載の映像デコーダ装置。 The base layer region includes a picture;
The video decoder device according to claim 1.
請求項1乃至9いずれか一項に記載の映像デコーダ装置。 The enhancement layer region corresponding to at least a portion of the base layer region includes the enhancement layer region co-located with at least a portion of the base layer region;
The video decoder device according to claim 1.
請求項1乃至9いずれか一項に記載の映像デコーダ装置。 One or more of the circuits include one or more processors, hardware, software executed by firmware, or combinations thereof,
The video decoder device according to claim 1.
拡張レイヤ領域を決定するためにレイヤ間予測を使用すべきか否かにかかわらず、基本レイヤ領域の色度および輝度サンプルを選択的にアップサンプルし、前記拡張レイヤ領域は、前記基本レイヤ領域の少なくとも一部分に対応しており、かつ、
前記基本レイヤ領域のアップサンプルされた前記色度および輝度サンプルに係る一部分に少なくとも部分的に基づいて、レイヤ間予測を使用して、前記拡張レイヤを選択的に決定する、
コンピュータで読取り可能な媒体。 At least one fixed computer-readable medium comprising instructions stored on the medium, wherein when executed by the computer, the computer comprises:
Regardless of whether or not inter-layer prediction should be used to determine the enhancement layer region, the chromaticity and luminance samples of the base layer region are selectively upsampled, and the enhancement layer region includes at least the base layer region It corresponds to a part, and
Selectively determining the enhancement layer using inter-layer prediction based at least in part on a portion of the base layer region related to the up-sampled chromaticity and luminance samples.
A computer-readable medium.
請求項13に記載のコンピュータで読取り可能な媒体。 When the computer upsamples the chromaticity and luminance samples of the base layer region, the computer uses a multi-tap filtering technique that includes fixed coefficients.
The computer readable medium of claim 13.
イントラ予測を使用して前記拡張レイヤ領域を選択的に決定し、かつ、
インター予測を使用して前記拡張レイヤ領域を選択的に決定する、
請求項13に記載のコンピュータで読取り可能な媒体。 When the instructions stored on the medium are executed by a computer, the computer further includes:
Selectively determining the enhancement layer region using intra prediction; and
Selectively determining the enhancement layer region using inter prediction;
The computer readable medium of claim 13.
アップサンプルされた前記色度および輝度サンプルを改良する、
請求項13に記載のコンピュータで読取り可能な媒体。 When the instructions stored on the medium are executed by a computer, the computer further includes:
Improving the upsampled chromaticity and brightness samples;
The computer readable medium of claim 13.
ビットストリーム部を受信し、
前記ビットストリーム部は、前記拡張レイヤ領域を決定するためにレイヤ間予測を使用するか否かを指示するフラグを含む、
請求項13に記載のコンピュータで読取り可能な媒体。 When the instructions stored on the medium are executed by a computer, the computer further includes:
Receive the bitstream part,
The bitstream part includes a flag indicating whether to use inter-layer prediction to determine the enhancement layer region;
The computer readable medium of claim 13.
請求項17に記載のコンピュータで読取り可能な媒体。 The bitstream part includes a residual and a flag indicating whether to use the residual for determining the enhancement layer region.
The computer readable medium of claim 17.
請求項18に記載のコンピュータで読取り可能な媒体。 Selectively determining the enhancement layer using inter-layer prediction based at least in part on a portion of the base layer region that is related to the up-sampled chromaticity and luminance samples; Is also based on the residual in response to the flag instructing to use the residual to determine a region;
The computer readable medium of claim 18.
請求項13至19いずれか一項に記載のコンピュータで読取り可能な媒体。 The base layer region includes a picture;
A computer readable medium according to any one of claims 13 to 19.
請求項13至19いずれか一項に記載のコンピュータで読取り可能な媒体。 The enhancement layer region corresponding to at least a portion of the base layer region includes the enhancement layer region co-located with at least a portion of the base layer region;
A computer readable medium according to any one of claims 13 to 19.
拡張レイヤ領域を決定するためにレイヤ間予測を使用すべきか否かにかかわらず、基本レイヤ領域の色度および輝度サンプルを選択的にアップサンプルするステップであり、前記拡張レイヤ領域は、前記基本レイヤ領域の少なくとも一部分に対応してる、ステップと、
前記基本レイヤ領域のアップサンプルされた前記色度および輝度サンプルに係る一部分に少なくとも部分的に基づいて、レイヤ間予測を使用して、前記拡張レイヤを選択的に決定するステップと、
を含む、方法。 A computer-implemented method comprising:
Regardless of whether inter-layer prediction should be used to determine the enhancement layer region, selectively upsampling chromaticity and luminance samples of the base layer region, wherein the enhancement layer region comprises the base layer A step corresponding to at least a portion of the region;
Selectively determining the enhancement layer using inter-layer prediction based at least in part on a portion of the base layer region related to the upsampled chromaticity and luminance samples;
Including a method.
請求項22に記載の方法。 Up-sampling the chromaticity and luminance samples of the base layer region includes using a multi-tap filtering technique that includes fixed coefficients,
The method of claim 22.
イントラ予測を使用して前記拡張レイヤ領域を選択的に決定するステップと、
インター予測を使用して前記拡張レイヤ領域を選択的に決定するステップと、
を含む、請求項22に記載の方法。 The method further comprises:
Selectively determining the enhancement layer region using intra prediction;
Selectively determining the enhancement layer region using inter prediction;
23. The method of claim 22, comprising:
アップサンプルされた前記色度および輝度サンプルを改良するステップと、
を含む、請求項22に記載の方法。 The method further comprises:
Improving the upsampled chromaticity and brightness samples;
23. The method of claim 22, comprising:
ビットストリーム部を受信するステップと、を含み、
前記ビットストリーム部は、前記拡張レイヤ領域を決定するためにレイヤ間予測を使用するか否かを指示するフラグを含んでいる、
請求項22に記載の方法。 The method further comprises:
Receiving a bitstream portion, and
The bitstream part includes a flag that indicates whether to use inter-layer prediction to determine the enhancement layer region,
The method of claim 22.
請求項26に記載の方法。 The bitstream part includes a residual and a flag indicating whether to use the residual for determining the enhancement layer region.
27. The method of claim 26.
請求項27に記載の方法。 The step of selectively determining the enhancement layer using inter-layer prediction based at least in part on a portion of the base layer region that is related to the upsampled chromaticity and luminance samples is also the enhancement layer. Is also based on the residual in response to the flag instructing to use the residual to determine a region;
28. The method of claim 27.
請求項22至28いずれか一項に記載の方法。 The base layer region includes a picture;
29. A method according to any one of claims 22 to 28.
請求項22至28いずれか一項に記載の方法。 The enhancement layer region corresponding to at least a portion of the base layer region includes the enhancement layer region co-located with at least a portion of the base layer region;
29. A method according to any one of claims 22 to 28.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015047787A JP2015146599A (en) | 2015-03-11 | 2015-03-11 | Inter-layer pixel sample prediction |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015047787A JP2015146599A (en) | 2015-03-11 | 2015-03-11 | Inter-layer pixel sample prediction |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015528832A Division JP2015530805A (en) | 2012-09-28 | 2012-09-28 | Inter-layer pixel sample prediction |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015146599A true JP2015146599A (en) | 2015-08-13 |
Family
ID=53890613
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015047787A Pending JP2015146599A (en) | 2015-03-11 | 2015-03-11 | Inter-layer pixel sample prediction |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015146599A (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007503775A (en) * | 2003-08-26 | 2007-02-22 | トムソン ライセンシング | Method and apparatus for encoding hybrid intra-inter coded blocks |
JP2010512699A (en) * | 2006-12-14 | 2010-04-22 | トムソン ライセンシング | Method and apparatus for encoding and / or decoding video data using enhancement layer residual prediction for bit depth scalability |
-
2015
- 2015-03-11 JP JP2015047787A patent/JP2015146599A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007503775A (en) * | 2003-08-26 | 2007-02-22 | トムソン ライセンシング | Method and apparatus for encoding hybrid intra-inter coded blocks |
JP2010512699A (en) * | 2006-12-14 | 2010-04-22 | トムソン ライセンシング | Method and apparatus for encoding and / or decoding video data using enhancement layer residual prediction for bit depth scalability |
Non-Patent Citations (1)
Title |
---|
DANNY HONG, WONKAP JANG, JILL BOYCE, ADEEL ABBAS, SCALABILITY SUPPORT IN HEVC, JPN6013027194, 14 July 2011 (2011-07-14), ISSN: 0003352372 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2015530805A (en) | Inter-layer pixel sample prediction | |
US10075709B2 (en) | Cross-channel residual prediction | |
KR101731335B1 (en) | Refining filter for inter layer prediction of scalable video coding | |
US10764592B2 (en) | Inter-layer residual prediction | |
EP2901693A1 (en) | Inter-layer intra mode prediction | |
JP6060394B2 (en) | Cross-layer / cross-channel residual prediction | |
TWI559749B (en) | Inter layer motion data inheritance | |
US9860533B2 (en) | Cross-layer cross-channel sample prediction | |
JP6005847B2 (en) | Adaptive filtering for scalable video coding | |
US20140192898A1 (en) | Coding unit bit number limitation | |
JP6156808B2 (en) | Apparatus, system, method, integrated circuit, and program for decoding compressed video data | |
JP2015146599A (en) | Inter-layer pixel sample prediction | |
TWI578763B (en) | Coding unit bit number limitation | |
JP2016165160A (en) | Cross-channel residual prediction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160223 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160510 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160920 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20161018 |