JP2009543501A - Method and system for integrating multiple layers in a multi-layer bitstream - Google Patents

Method and system for integrating multiple layers in a multi-layer bitstream Download PDF

Info

Publication number
JP2009543501A
JP2009543501A JP2009519132A JP2009519132A JP2009543501A JP 2009543501 A JP2009543501 A JP 2009543501A JP 2009519132 A JP2009519132 A JP 2009519132A JP 2009519132 A JP2009519132 A JP 2009519132A JP 2009543501 A JP2009543501 A JP 2009543501A
Authority
JP
Japan
Prior art keywords
layer
transform coefficients
transform
bitstream
integrated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009519132A
Other languages
Japanese (ja)
Other versions
JP2009543501A5 (en
Inventor
アンドリュー セガール クリストファー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US11/694,955 external-priority patent/US8130822B2/en
Priority claimed from US11/694,956 external-priority patent/US8059714B2/en
Priority claimed from US11/694,959 external-priority patent/US8422548B2/en
Priority claimed from US11/694,954 external-priority patent/US8532176B2/en
Priority claimed from US11/694,958 external-priority patent/US7885471B2/en
Priority claimed from US11/694,957 external-priority patent/US7840078B2/en
Application filed by Sharp Corp filed Critical Sharp Corp
Publication of JP2009543501A publication Critical patent/JP2009543501A/en
Publication of JP2009543501A5 publication Critical patent/JP2009543501A5/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/40Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video transcoding, i.e. partial or full decoding of a coded input stream followed by re-encoding of the decoded output stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本発明の実施形態は、マルチレイヤ・ビットストリーム中の複数のレイヤを管理および統合するためのシステムおよび方法を含んでいる。  Embodiments of the present invention include systems and methods for managing and integrating multiple layers in a multi-layer bitstream.

Description

本発明の実施形態は、マルチレイヤ・ビットストリームにおける処理および処理管理のための方法およびシステムを含んでいる。本発明は、特に、1)マルチレイヤ・ビットストリーム中の複数のレイヤを統合する(comibine)ための方法およびシステム、2)条件付きの変換領域残差の累算(transform-domain residual accumulation)のための方法およびシステム、3)残差レイヤのスケーリングのための方法およびシステム、4)隣接するブロックの特性に基づく画像処理制御のための方法およびシステム、5)符号化ブロック・パターン情報の保守および使用のための方法およびシステム、および、6)変換の選択および管理のための方法およびシステムに関するものである。   Embodiments of the present invention include methods and systems for processing and processing management in multi-layer bitstreams. The present invention particularly relates to 1) a method and system for combining multiple layers in a multi-layer bitstream, and 2) conditional transform-domain residual accumulation. Method and system for 3) Method and system for scaling of residual layer 4) Method and system for image processing control based on characteristics of neighboring blocks 5) Maintenance of coded block pattern information and It relates to a method and system for use and 6) a method and system for selection and management of transformations.

エンコーダ出力のビットレートを下げるために、スケーラブルなビットストリームは、レイヤ間予測の一形態を含みうる。典型的なシステムは、AVC|H.264ビデオ符号化標準のためのスケーラブルなビデオ拡張におけるレイヤ間予測を含んでいる。上記拡張はSVCとして一般に知られており、SVCシステムはT. Wiegand, G. Sullivan, J. Reichel, H. Schwarz and M. Wien, "Joint Draft 9 of SVC amendment (revision 2)", JVT-V201, Marrakech, Morocco, January 13-19, 2007に記載されている。上記SVCシステムにおいて、レイヤ間予測は、列挙された(enumerated)下位レイヤから列挙された上位レイヤへ動きおよびモードの情報を投影する(project)ことによって実現される。それに加えて、予測残差が、列挙された下位レイヤから列挙された上位レイヤへ投影される。したがって、上記の上位レイヤのビットストリームは、復号された出力の質を改善するために追加の残差を含むことができる。   To reduce the bit rate of the encoder output, the scalable bitstream can include a form of inter-layer prediction. A typical system is the AVC | H. Includes inter-layer prediction in scalable video extensions for the H.264 video coding standard. The above extension is commonly known as SVC and the SVC system is T. Wiegand, G. Sullivan, J. Reichel, H. Schwarz and M. Wien, "Joint Draft 9 of SVC amendment (revision 2)", JVT-V201. , Marrakech, Morocco, January 13-19, 2007. In the SVC system, inter-layer prediction is realized by projecting motion and mode information from an enumerated lower layer to an enumerated upper layer. In addition, prediction residuals are projected from the enumerated lower layers to the enumerated upper layers. Thus, the above upper layer bitstream can include additional residuals to improve the quality of the decoded output.

本発明の第1の態様によれば、マルチレイヤ・ビットストリーム中の複数のレイヤを統合する方法であって、a)第1レイヤの量子化された変換係数を逆量子化し、それによって第1レイヤの変換係数を作成するステップ;b)第1レイヤの変換係数を第2レイヤの特性(characteristic)と整合する(match)ようにスケーリングし、それによって第1レイヤのスケーリングされた変換係数を作成するステップ;c)第2レイヤの量子化された変換係数を逆量子化し、それによって第2レイヤの変換係数を作成するステップ;およびd)第1レイヤのスケーリングされた変換係数を第2レイヤの変換係数と統合して、統合された係数を形成するステップを含む方法が提供される。   According to a first aspect of the present invention, there is provided a method for integrating a plurality of layers in a multi-layer bitstream, comprising: a) dequantizing the quantized transform coefficients of the first layer, whereby the first Creating a layer transform coefficient; b) scaling the first layer transform coefficient to match the characteristics of the second layer, thereby creating a scaled transform coefficient for the first layer C) dequantizing the quantized transform coefficients of the second layer, thereby creating second layer transform coefficients; and d) converting the scaled transform coefficients of the first layer to those of the second layer. A method is provided that includes integrating with the transform coefficients to form an integrated coefficient.

上記第1レイヤは、基本レイヤであってもよい。   The first layer may be a base layer.

第1レイヤの量子化された変換係数を逆量子化するステップは、第1の量子化パラメータを用いるステップを含んでいてもよく、第2レイヤの量子化された変換係数を逆量子化するステップは、第2の量子化パラメータを用いるステップを含んでいてもよい。   Dequantizing the quantized transform coefficients of the first layer may include using a first quantization parameter, and dequantizing the quantized transform coefficients of the second layer May include using a second quantization parameter.

上記第1レイヤおよび上記第2レイヤは、異なる空間解像度を有していてもよい。   The first layer and the second layer may have different spatial resolutions.

上記第2レイヤは、拡張レイヤであってもよい。   The second layer may be an enhancement layer.

上記方法は、上記の統合された係数を逆変換し、それによって空間領域残差値を生成するステップをさらに含んでいてもよい。   The method may further include the step of inverse transforming the integrated coefficients, thereby generating a spatial domain residual value.

上記方法は、上記空間領域残差値を上記空間領域予測値と統合するステップをさらに含んでいてもよい。   The method may further include integrating the spatial region residual value with the spatial region predicted value.

上記方法は、a)第3レイヤの量子化された変換係数を逆量子化し、それによって第3レイヤの変換係数を作成するステップ;b)上記の統合された係数を第3レイヤの特性と整合するようにスケーリングし、それによって、統合されスケーリングされた係数を作成するステップ;およびc)上記の統合されスケーリングされた係数を上記の第3レイヤの変換係数と統合するステップをさらに含んでいてもよい。   The method comprises the steps of: a) dequantizing the third layer quantized transform coefficients, thereby creating third layer transform coefficients; b) matching the integrated coefficients with the characteristics of the third layer And c) further comprising the steps of: creating an integrated and scaled coefficient; and c) integrating the integrated and scaled coefficient with the third layer transform coefficient. Good.

上記方法は、上記の統合された係数を含む、統合されたビットストリームを生成するステップをさらに含んでいてもよい。   The method may further include generating an integrated bitstream that includes the integrated coefficients.

上記の統合されたビットストリームは、イントラ予測モードをさらに含んでいてもよい。   The integrated bitstream may further include an intra prediction mode.

上記の統合されたビットストリームは、動きベクトルをさらに含んでいてもよい。   The integrated bitstream may further include a motion vector.

本発明の第2の態様によれば、マルチレイヤ・ビットストリーム中の複数のレイヤを統合するためのシステムであって、a)第1レイヤの量子化された変換係数を逆量子化し、それによって第1レイヤの変換係数を作成するための第1の逆量子化器;b)上記の第1レイヤの変換係数を第2レイヤの特性と整合するようにスケーリングし、それによって第1レイヤのスケーリングされた変換係数を作成するためのスケーラ;c)第2レイヤの量子化された変換係数を逆量子化し、それによって第2レイヤの変換係数を作成するための第2の逆量子化器;およびd)第1レイヤのスケーリングされた変換係数を第2レイヤの変換係数と統合して、統合された係数を形成するための係数統合器を含むシステムが提供される。   According to a second aspect of the present invention, a system for integrating a plurality of layers in a multi-layer bitstream comprising: a) dequantizing the quantized transform coefficients of the first layer, thereby A first dequantizer for creating first layer transform coefficients; b) scaling the first layer transform coefficients to match the characteristics of the second layer, thereby scaling the first layer A scaler for generating the transformed transform coefficients; c) a second inverse quantizer for dequantizing the second layer quantized transform coefficients, thereby creating a second layer transform coefficient; and d) A system is provided that includes a coefficient integrator for integrating the scaled transform coefficients of the first layer with the transform coefficients of the second layer to form an integrated coefficient.

上記システムは、上記の統合された係数を含む、統合されたビットストリームを生成するためのビットストリーム生成器をさらに含んでいてもよい。   The system may further include a bitstream generator for generating an integrated bitstream that includes the integrated coefficients.

上記システムは、上記の統合された係数を逆変換し、それによって空間領域残差値を生成するための逆変換器と、上記空間領域残差値を上記空間領域予測値と統合するための第2の統合器とをさらに含んでいてもよい。   The system inversely transforms the integrated coefficients, thereby generating a spatial domain residual value, and a first unit for integrating the spatial domain residual value with the spatial domain prediction value. 2 integrators may be further included.

本発明の第3の態様によれば、SVC準拠のビットストリームをAVC準拠のデータに変換するための方法であって、a)予測データと、基本レイヤの残差データと、拡張レイヤの残差データとを含むSVC準拠のビットストリームを受け取るステップ;b)上記基本レイヤの残差データを逆量子化し、それによって基本レイヤの変換係数を作成するステップ;c)上記拡張レイヤの残差データを逆量子化し、それによって拡張レイヤの変換係数を作成するステップ;d)上記基本レイヤの変換係数を上記拡張レイヤの量子化特性と整合するようにスケーリングし、それによって基本レイヤのスケーリングされた変換係数を作成するステップ;およびe)基本レイヤのスケーリングされた変換係数を拡張レイヤの変換係数と統合して、統合された係数を形成するステップを含む方法が提供される。   According to a third aspect of the present invention, there is provided a method for converting an SVC compliant bitstream into AVC compliant data, comprising a) prediction data, base layer residual data, and enhancement layer residual. Receiving a SVC-compliant bitstream including data; b) dequantizing the base layer residual data, thereby creating base layer transform coefficients; c) reversing the enhancement layer residual data Quantizing, thereby creating enhancement layer transform coefficients; d) scaling the base layer transform coefficients to match the enhancement layer quantization characteristics, thereby reducing the base layer scaled transform coefficients And e) integrating the scaled transform coefficients of the base layer with the transform coefficients of the enhancement layer. Method comprising the step of forming the coefficients is provided.

上記方法は、上記統合された係数を予測データと統合してAVC準拠のビットストリームを形成するステップをさらに含んでいてもよい。   The method may further include integrating the integrated coefficients with prediction data to form an AVC compliant bitstream.

上記予測データは、イントラ予測モード指標を含んでいてもよい。   The prediction data may include an intra prediction mode index.

上記予測データは、動きベクトルを含んでいてもよい。   The prediction data may include a motion vector.

上記方法は、上記統合された係数を逆変換し、それによって空間領域残差値を作成するステップをさらに含んでいてもよい。   The method may further include the step of inverse transforming the integrated coefficients, thereby creating a spatial domain residual value.

上記方法は、空間領域予測値を取得するステップと、上記空間領域予測値を上記空間領域残差値と統合して、復号された画像を形成するステップとをさらに含んでいてもよい。   The method may further include obtaining a spatial region prediction value and integrating the spatial region prediction value with the spatial region residual value to form a decoded image.

本発明の第4の態様によれば、マルチレイヤ・ビットストリーム中の複数のレイヤを統合する方法であって、a)第1レイヤの量子化された変換係数を受け取るステップ;b)第1レイヤの量子化された変換係数を第2レイヤの特性と整合するようにスケーリングし、それによって第1レイヤの量子化されスケーリングされた変換係数を作成するステップ;c)第2レイヤの量子化された変換係数を受け取るステップ;およびd)第1レイヤのスケーリングされた変換係数を第2レイヤの量子化された変換係数と統合して、量子化され統合された係数を形成するステップを含む方法が提供される。   According to a fourth aspect of the present invention, there is provided a method for integrating a plurality of layers in a multi-layer bitstream, comprising: a) receiving a quantized transform coefficient of a first layer; b) a first layer Scaling the quantized transform coefficients of the second layer to match the characteristics of the second layer, thereby creating a quantized and scaled transform coefficient of the first layer; c) the quantized second layer Receiving a transform coefficient; and d) integrating the scaled transform coefficient of the first layer with the quantized transform coefficient of the second layer to form a quantized and consolidated coefficient. Is done.

上記方法は、量子化され統合された係数を逆量子化して、統合された係数を生成するステップをさらに含んでいる。   The method further includes the step of dequantizing the quantized and combined coefficients to generate the combined coefficients.

上記方法は、統合された係数を逆変換し、それによって空間領域残差値を生成するステップをさらに含んでいる。   The method further includes the step of inverse transforming the combined coefficients, thereby generating a spatial domain residual value.

上記方法は、上記空間領域残差値を空間領域予測値と統合するステップをさらに含んでいる。   The method further includes integrating the spatial domain residual value with a spatial domain predicted value.

上記方法は、量子化され統合された係数を含む、統合されたビットストリームを生成するステップをさらに含んでいる。   The method further includes generating an integrated bitstream that includes quantized and integrated coefficients.

本発明の第5の態様によれば、マルチレイヤ・ビットストリーム中の複数のレイヤを条件付きで統合する方法であって、a)第1レイヤの量子化された変換係数を受け取るステップ;b)第2レイヤの量子化された変換係数を受け取るステップ;c)レイヤ統合指標を受け取るステップ;d)上記レイヤ統合指標が変換領域累算を示している場合に、第1レイヤの量子化された変換係数を第2レイヤの特性と整合するようにスケーリングし、それによって、第1レイヤの量子化されスケーリングされた変換係数を作成するステップ;およびe)上記レイヤ統合指標が変換領域累算を示している場合に、第1レイヤのスケーリングされた変換係数を第2レイヤの量子化された変換係数と統合して、量子化され統合された係数を形成するステップを含む方法が提供される。   According to a fifth aspect of the present invention, there is provided a method for conditionally integrating a plurality of layers in a multi-layer bitstream comprising the steps of: a) receiving a quantized transform coefficient of a first layer; b) Receiving a quantized transform coefficient of the second layer; c) receiving a layer integration indicator; d) a quantized transform of the first layer if the layer integration indicator indicates a transform domain accumulation Scaling the coefficients to match the characteristics of the second layer, thereby creating a quantized and scaled transform coefficient for the first layer; and e) the layer integration indicator indicates transform domain accumulation Integrating the scaled transform coefficients of the first layer with the quantized transform coefficients of the second layer, if any, to form quantized and consolidated coefficients The method comprising is provided.

上記レイヤ統合指標は、第2レイヤのビットストリーム中のデータから取得されてもよい。   The layer integration indicator may be acquired from data in the bit stream of the second layer.

上記方法は、上記レイヤ統合指標が変換領域累算を示している場合に、平滑化参照予測を無効にするステップをさらに含んでいてもよい。   The method may further include the step of invalidating the smoothed reference prediction when the layer integration indicator indicates transformation region accumulation.

本発明の第6の態様によれば、マルチレイヤ・ビットストリームから拡張レイヤを再構成する方法であって、a)第1レイヤのイントラ予測モードを受け取るステップ;b)第1レイヤの予測モードが第2レイヤの予測に使用されることを示す、第2レイヤのビットストリーム予測指標を受け取るステップ;c)第1レイヤの予測モードを用いて、第2レイヤ中の隣接するブロック・データに基づく第2レイヤ予測を構成するステップ;およびd)上記第2レイヤ予測を残差情報と統合し、それによって、再構成された第2レイヤを作成するステップを含む方法が提供される。   According to a sixth aspect of the present invention, there is provided a method for reconstructing an enhancement layer from a multi-layer bitstream comprising: a) receiving a first layer intra prediction mode; b) a first layer prediction mode being Receiving a second layer bitstream prediction indicator indicating that it is used for second layer prediction; c) using a first layer prediction mode, based on neighboring block data in the second layer; And d) integrating the second layer prediction with residual information, thereby creating a reconstructed second layer.

本発明の第7の態様によれば、マルチレイヤ・ビットストリーム中の複数のレイヤを統合する方法であって、a)マルチレイヤ画像の第1レイヤの第1の空間解像度を決定するステップ;b)上記マルチレイヤ画像の第2レイヤの第2の空間解像度を決定するステップ;c)上記第1の空間解像度を上記第2の空間解像度と比較するステップ;d)上記第1の空間解像度が上記第2の空間解像度と実質的に等しい場合に、ステップe)〜f)を実行するステップ;e)第1レイヤの変換係数を第2レイヤの特性と整合するようにスケーリングし、それによって、第1レイヤのスケーリングされた変換係数を作成するステップ;f)第1レイヤのスケーリングされた変換係数を第2レイヤの変換係数と統合して、統合された係数を形成するステップ;g)第1レイヤの空間解像度が第2レイヤの空間解像度と実質的に等しくない場合に、ステップh)〜k)を実行するステップ;h)第1レイヤの変換係数を逆変換し、それによって第1レイヤの空間領域値を生成するステップ;i)第2レイヤの変換係数を逆変換し、それによって第2レイヤの空間領域値を生成するステップ;j)第1レイヤの空間領域値を第2レイヤの解像度と整合するようにスケーリングし、それによって、第1レイヤのスケーリングされた空間領域値を生成するステップ;およびk)第1レイヤのスケーリングされた空間領域値を第2レイヤの空間領域値と統合し、それによって、統合された空間領域残差値を生成するステップを含む方法が提供される。   According to a seventh aspect of the present invention, there is provided a method for integrating a plurality of layers in a multi-layer bitstream, comprising: a) determining a first spatial resolution of a first layer of a multi-layer image; b ) Determining a second spatial resolution of the second layer of the multi-layer image; c) comparing the first spatial resolution with the second spatial resolution; d) the first spatial resolution is Performing steps e) -f) if substantially equal to the second spatial resolution; e) scaling the transform coefficients of the first layer to match the characteristics of the second layer; Creating a layer of scaled transform coefficients; f) integrating the scaled transform coefficients of the first layer with the transform coefficients of the second layer to form a consolidated coefficient. G) performing steps h) to k) when the spatial resolution of the first layer is not substantially equal to the spatial resolution of the second layer; h) inverse transforming the transform coefficients of the first layer; Thereby generating a spatial region value of the first layer; i) inverse transforming the transform coefficients of the second layer, thereby generating a spatial region value of the second layer; j) a spatial region value of the first layer Scaling to match the resolution of the second layer, thereby generating a scaled spatial domain value of the first layer; and k) scaling the scaled spatial domain value of the first layer to that of the second layer A method is provided that includes integrating with a spatial domain value, thereby generating an integrated spatial domain residual value.

上記特性は、量子化パラメータを含んでいてもよい。   The characteristic may include a quantization parameter.

上記変換係数は、非量子化された(de-quantized)変換係数であってもよい。   The transform coefficient may be a de-quantized transform coefficient.

上記変換係数は量子化された変換係数であってもよく、また、上記変換係数は逆変換の前に逆量子化されてもよい。   The transform coefficient may be a quantized transform coefficient, and the transform coefficient may be inversely quantized before the inverse transform.

上記スケーリングするステップは、a)第1レイヤの量子化パラメータを決定するステップ;b)第2レイヤの量子化パラメータを決定するステップ;およびc)第1レイヤの量子化パラメータと第2レイヤの量子化パラメータとに基づいて上記第1レイヤの変換係数をスケーリングするステップを含んでいてもよい。   The scaling step comprises: a) determining a first layer quantization parameter; b) determining a second layer quantization parameter; and c) a first layer quantization parameter and a second layer quantum. Scaling the transform coefficients of the first layer based on the conversion parameter.

上記方法は、上記第1の空間解像度が上記第2の空間解像度と実質的に等しい場合に、統合された係数を逆変換し、それによって空間領域残差値を生成するステップをさらに含んでいてもよい。   The method further includes the step of inverse transforming the combined coefficients and thereby generating a spatial domain residual value when the first spatial resolution is substantially equal to the second spatial resolution. Also good.

上記方法は、上記第1の空間解像度が上記第2の空間解像度と実質的に等しい場合に、上記空間領域残差値を空間領域予測値と統合するステップをさらに含んでいてもよい。   The method may further include integrating the spatial domain residual value with a spatial domain prediction value when the first spatial resolution is substantially equal to the second spatial resolution.

上記方法は、上記第1の空間解像度が上記第2の空間解像度と実質的に等しくない場合に、統合された空間領域残差値を空間領域予測値と統合し、それによって、統合された空間領域値を作成するステップをさらに含んでいてもよい。   The method integrates an integrated spatial domain residual value with a spatial domain prediction value when the first spatial resolution is not substantially equal to the second spatial resolution, thereby integrating the integrated space. The method may further include creating a region value.

上記方法は、上記第1の空間解像度が上記第2の空間解像度と実質的に等しい場合に、統合された係数を含む、統合されたビットストリームを生成するステップをさらに含んでいてもよい。   The method may further include generating an integrated bitstream that includes the integrated coefficients when the first spatial resolution is substantially equal to the second spatial resolution.

上記の統合されたビットストリームは、上記第1の空間解像度が上記第2の空間解像度と実質的に等しい場合、イントラ予測モードをさらに含んでいてもよい。   The integrated bitstream may further include an intra prediction mode when the first spatial resolution is substantially equal to the second spatial resolution.

上記の統合されたビットストリームは、上記第1の空間解像度が上記第2の空間解像度と実質的に等しい場合、動きベクトルをさらに含んでいてもよい。   The integrated bitstream may further include a motion vector if the first spatial resolution is substantially equal to the second spatial resolution.

上記方法は、上記第1の空間解像度が上記第2の空間解像度と実質的に等しくない場合に、統合された空間領域値を変換し、それによって、統合された変換領域係数を作成するステップをさらに含んでいてもよい。   The method includes the step of transforming an integrated spatial domain value if the first spatial resolution is not substantially equal to the second spatial resolution, thereby creating an integrated transformed domain coefficient. Further, it may be included.

上記方法は、上記第1の空間解像度が上記第2の空間解像度と実質的に等しくない場合に、統合された変換領域係数を含む、統合されたビットストリームを生成するステップをさらに含んでいてもよい。。   The method may further include generating an integrated bitstream that includes the integrated transform domain coefficients when the first spatial resolution is not substantially equal to the second spatial resolution. Good. .

上記の統合されたビットストリームは、上記第1の空間解像度が上記第2の空間解像度と実質的に等しくない場合、イントラ予測モードをさらに含んでいてもよい。   The integrated bitstream may further include an intra prediction mode if the first spatial resolution is not substantially equal to the second spatial resolution.

上記の統合されたビットストリームは、上記第1の空間解像度が上記第2の空間解像度と実質的に等しくない場合、動きベクトルをさらに含んでいてもよい。   The integrated bitstream may further include a motion vector if the first spatial resolution is not substantially equal to the second spatial resolution.

本発明の第8の態様によれば、マルチレイヤ・ビットストリーム中の複数のレイヤを統合するためのシステムであって、a)マルチレイヤ画像の第1レイヤの第1の空間解像度を決定すると共に、上記マルチレイヤ画像の第2レイヤの第2の空間解像度を決定するための解像度決定器;b)上記第1の空間解像度を上記第2の空間解像度と比較するための比較器;c)上記第1の空間解像度が上記第2の空間解像度と実質的に等しい場合に、ステップe)〜f)を実行するためのコントローラ;d)第2レイヤの特性と整合するように第1レイヤの変換係数をスケーリングし、それによって、第1レイヤのスケーリングされた変換係数を作成するための係数スケーラ;e)第1レイヤのスケーリングされた変換係数を第2レイヤの変換係数と統合して、統合された係数を形成するための係数統合器;f)第1レイヤの空間解像度が第2レイヤの空間解像度と実質的に等しくない場合に、ステップg)〜i)を選択的に実行するコントローラ;g)第1レイヤの変換係数を逆変換し、それによって第1レイヤの空間領域値を生成すると共に、第2レイヤの変換係数を逆変換し、それによって第2レイヤの空間領域値を生成するための逆変換器;h)第1レイヤの空間領域値を第2レイヤの解像度と整合するようにスケーリングして、それによって第1レイヤのスケーリングされた空間領域値を生成するための空間領域スケーラ;およびi)第1レイヤのスケーリングされた空間領域値を第2レイヤの空間領域値と統合し、それによって、統合された空間領域残差値を生成するための空間領域統合器を含むシステムが提供される。   According to an eighth aspect of the present invention, there is a system for integrating a plurality of layers in a multi-layer bitstream, comprising: a) determining a first spatial resolution of a first layer of a multi-layer image; A resolution determiner for determining a second spatial resolution of a second layer of the multi-layer image; b) a comparator for comparing the first spatial resolution with the second spatial resolution; c) above A controller for performing steps e) to f) when the first spatial resolution is substantially equal to the second spatial resolution; d) transformation of the first layer to be consistent with the characteristics of the second layer A coefficient scaler for scaling the coefficients, thereby creating scaled transform coefficients for the first layer; e) the scaled transform coefficients for the first layer with the transform coefficients for the second layer And a coefficient integrator for forming an integrated coefficient; f) selectively steps g) to i) if the spatial resolution of the first layer is not substantially equal to the spatial resolution of the second layer. G) inverse transforming the first layer transform coefficients, thereby generating the first layer spatial domain values and inverse transforming the second layer transform coefficients, thereby creating the second layer space An inverse transformer for generating region values; h) scaling the spatial region values of the first layer to match the resolution of the second layer, thereby generating the scaled spatial region values of the first layer A spatial domain scaler for; and i) integrating the scaled spatial domain value of the first layer with the spatial domain value of the second layer, thereby generating an integrated spatial domain residual value System including a region integrating unit is provided.

上記逆変換器は、さらに、上記第1の空間解像度が上記第2の空間解像度と実質的に等しい場合に、統合された係数を逆変換し、それによって空間領域残差値を生成してもよい。   The inverse transformer may further inverse transform the integrated coefficients when the first spatial resolution is substantially equal to the second spatial resolution, thereby generating a spatial domain residual value. Good.

上記空間領域統合器は、さらに、上記第1の空間解像度が上記第2の空間解像度と実質的に等しい場合に、上記空間領域残差値を空間領域予測値と統合してもよい。   The spatial domain integrator may further integrate the spatial domain residual value with the spatial domain prediction value when the first spatial resolution is substantially equal to the second spatial resolution.

上記空間領域統合器は、さらに、上記第1の空間解像度が上記第2の空間解像度と実質的に等しくない場合に、統合された空間領域残差値を空間領域予測値と統合し、それによって、統合された空間領域値を作成してもよい。   The spatial domain integrator further integrates an integrated spatial domain residual value with a spatial domain prediction value when the first spatial resolution is not substantially equal to the second spatial resolution, thereby An integrated spatial domain value may be created.

上記システムは、上記第1の空間解像度が上記第2の空間解像度と実質的に等しい場合に、統合された係数を含む、統合されたビットストリームを生成するためのビットストリーム生成器をさらに含んでいてもよい。   The system further includes a bitstream generator for generating an integrated bitstream that includes integrated coefficients when the first spatial resolution is substantially equal to the second spatial resolution. May be.

上記第1の空間解像度が上記第2の空間解像度と実質的に等しい場合、上記の統合されたビットストリームはイントラ予測モードをさらに含んでいてもよい。   If the first spatial resolution is substantially equal to the second spatial resolution, the integrated bitstream may further include an intra prediction mode.

上記の統合されたビットストリームは、上記第1の空間解像度が上記第2の空間解像度と実質的に等しい場合、動きベクトルをさらに含んでいてもよい。   The integrated bitstream may further include a motion vector if the first spatial resolution is substantially equal to the second spatial resolution.

上記システムは、上記第1の空間解像度が第2の空間解像度と実質的に等しくない場合に、統合された空間領域値を変換し、それによって、統合された変換領域係数を作成するための変換器をさらに含んでいてもよい。   The system transforms an integrated spatial domain value if the first spatial resolution is not substantially equal to a second spatial resolution, thereby creating an integrated transformed domain coefficient A vessel may further be included.

上記システムは、上記第1の空間解像度が上記第2の空間解像度と実質的に等しくない場合に、統合された変換領域係数を含む、統合されたビットストリームを生成するためのビットストリーム生成器をさらに含んでいてもよい。   The system includes a bitstream generator for generating an integrated bitstream that includes integrated transform domain coefficients when the first spatial resolution is not substantially equal to the second spatial resolution. Further, it may be included.

上記の統合されたビットストリームは、上記第1の空間解像度が上記第2の空間解像度と実質的に等しくない場合、イントラ予測モードをさらに含んでいてもよい。   The integrated bitstream may further include an intra prediction mode if the first spatial resolution is not substantially equal to the second spatial resolution.

上記の統合されたビットストリームは、上記第1の空間解像度が上記第2の空間解像度と実質的に等しくない場合、動きベクトルをさらに含んでいてもよい。   The integrated bitstream may further include a motion vector if the first spatial resolution is not substantially equal to the second spatial resolution.

本発明の第9の態様によれば、マルチレイヤ・ビットストリーム中の複数のレイヤを統合する方法であって、a)第1の空間解像度を持つ第1レイヤのための非量子化された変換係数を受け取るステップ;b)第1の空間解像度を持つ第2レイヤのための非量子化された変換係数を受け取るステップ;c)第1レイヤの変換係数をスケーリングし、それによって、第1レイヤのスケーリングされた変換係数を作成するステップ;d)第1レイヤのスケーリングされた変換係数を第2レイヤの変換係数と統合し、それによって、統合された変換係数を作成するステップ;e)統合された変換係数を逆変換し、それによって、統合された空間領域残差値(residual spatial-domain values)を作成するステップ;f)第2の空間解像度を持つ第3レイヤのための非量子化された変換係数を受け取るステップ;g)統合された空間領域残差値を第2の空間解像度へリサンプリングし、それによって統合されリサンプリングされた空間領域値を作成するステップ;h)第3レイヤの変換係数を逆変換し、それによって第3レイヤの空間領域値を作成するステップ;およびi)統合されリサンプリングされた空間領域値を第3レイヤの空間領域値と統合するステップを含む方法が提供される。   According to a ninth aspect of the present invention, there is a method for integrating a plurality of layers in a multi-layer bitstream comprising: a) a non-quantized transform for a first layer having a first spatial resolution Receiving a coefficient; b) receiving an unquantized transform coefficient for a second layer having a first spatial resolution; c) scaling the transform coefficient of the first layer, thereby Creating a scaled transform coefficient; d) integrating the scaled transform coefficient of the first layer with the transform coefficient of the second layer, thereby creating an integrated transform coefficient; e) integrated Inverse transforming transform coefficients, thereby creating integrated spatial-domain residual values; f) for a third layer having a second spatial resolution Receiving a non-quantized transform coefficient; g) re-sampling the integrated spatial domain residual value to a second spatial resolution, thereby creating an integrated re-sampled spatial domain value; h) Inverse transforming the third layer transform coefficients, thereby creating a third layer spatial domain value; and i) integrating the integrated and resampled spatial domain value with the spatial domain value of the third layer. A method of including is provided.

本発明の第10の態様によれば、マルチレイヤ・ビットストリーム中の複数のレイヤを統合する方法であって、a)第1の空間解像度を持つ第1レイヤのための量子化された変換係数を受け取るステップ;b)上記第1の空間解像度を持つ第2レイヤのための量子化された変換係数を受け取るステップ;c)第1レイヤの量子化された変換係数をスケーリングし、それによって第1レイヤの量子化されスケーリングされた変換係数を作成するステップ;d)第1レイヤの量子化されスケーリングされた変換係数を第2レイヤの量子化された変換係数と統合し、それによって、量子化され統合された変換係数を作成するステップ;e)量子化され統合された変換係数を逆量子化し、それによって、統合された変換係数を作成するステップ;f)統合された変換係数を逆変換し、それによって、統合された残差空間領域値を作成するステップ;g)第2の空間解像度を持つ第3レイヤのための量子化された変換係数を受け取るステップ;h)統合された残差空間領域値を第2の空間解像度へリサンプリングし、それによって、統合されリサンプリングされた空間領域値を作成するステップ;i)第3レイヤの量子化された変換係数を逆量子化し、それによって第3レイヤの変換係数を作成するステップ;j)第3レイヤの変換係数を逆変換し、それによって第3レイヤの空間領域値を作成するステップ;およびk)統合されリサンプリングされた空間領域値を第3レイヤの空間領域値と統合するステップを含む方法が提供される。   According to a tenth aspect of the present invention, there is provided a method for integrating a plurality of layers in a multi-layer bitstream, comprising: a) a quantized transform coefficient for a first layer having a first spatial resolution B) receiving the quantized transform coefficients for the second layer having the first spatial resolution; c) scaling the quantized transform coefficients of the first layer, whereby the first Creating a quantized scaled transform coefficient of the layer; d) integrating the quantized scaled transform coefficient of the first layer with the quantized transform coefficient of the second layer, thereby quantizing Creating an integrated transform coefficient; e) dequantizing the quantized and integrated transform coefficient, thereby creating an integrated transform coefficient; f) Inverse transforming the combined transform coefficients, thereby creating an integrated residual spatial domain value; g) receiving quantized transform coefficients for a third layer having a second spatial resolution H) resampling the integrated residual spatial domain value to a second spatial resolution, thereby creating an integrated resampled spatial domain value; i) a third layer quantized transform; Dequantizing the coefficients, thereby creating third layer transform coefficients; j) inverse transforming the third layer transform coefficients, thereby creating the third layer spatial domain values; and k) integrating There is provided a method comprising integrating the resampled spatial domain values with the spatial domain values of the third layer.

本発明の第11の態様によれば、マルチレイヤ・ビットストリーム中の複数のレイヤを統合する方法であって、a)第1の空間解像度を持つ第1レイヤのための非量子化された変換係数を受け取るステップ;b)第1レイヤの非量子化された変換係数を逆変換し、それによって第1レイヤの空間領域値を生成するステップ;c)上記第1の空間解像度より高い第2の空間解像度を持つ第2レイヤのための非量子化された変換係数を受け取るステップ;d)第2の空間解像度を持つ第3レイヤのための非量子化された変換係数を受け取るステップ;e)第1レイヤの空間領域値を第2の空間解像度へアップサンプリングし、それによって第1レイヤのアップサンプリングされた空間領域値を生成するステップ;f)第2レイヤの非量子化された変換係数を第3レイヤの非量子化された変換係数と統合し、それによって、統合された変換係数を作成するステップ;g)統合された変換係数を逆変換し、それによって第1の統合された空間領域残差値を作成するステップ;およびh)第1レイヤのアップサンプリングされた空間領域値を第1の統合された空間領域残差値と統合するステップを含む方法が提供される。   According to an eleventh aspect of the present invention, a method for integrating a plurality of layers in a multi-layer bitstream, comprising: a) a non-quantized transform for a first layer having a first spatial resolution Receiving a coefficient; b) inverse transforming the unquantized transform coefficient of the first layer, thereby generating a spatial domain value of the first layer; c) a second higher than the first spatial resolution Receiving a non-quantized transform coefficient for a second layer having a spatial resolution; d) receiving a non-quantized transform coefficient for a third layer having a second spatial resolution; Up-sampling the spatial domain value of one layer to a second spatial resolution, thereby generating the up-sampled spatial domain value of the first layer; f) the unquantized second layer Integrating the transform coefficients with the non-quantized transform coefficients of the third layer, thereby creating an integrated transform coefficient; g) inverse transforming the merged transform coefficient and thereby the first integrated And h) integrating the up-sampled spatial region value of the first layer with the first integrated spatial region residual value.

本発明の第12の態様によれば、マルチレイヤ・ビットストリーム中の複数のレイヤを統合する方法であって、a)第1の空間解像度を持つ第1レイヤのための量子化された変換係数を受け取るステップ;b)第1の空間解像度を持つ第2レイヤのための量子化された変換係数を受け取るステップ;c)第1の空間解像度を持つ第3レイヤのための量子化された変換係数を受け取るステップ;d)第1レイヤの量子化された変換係数を第2レイヤの特性(properties)と整合するようにスケーリングし、それによって第1レイヤの量子化されスケーリングされた変換係数を作成するステップ;e)第1レイヤの量子化されスケーリングされた変換係数を第2レイヤの量子化された変換係数と統合し、それによって、量子化され統合された変換係数を作成するステップ;f)量子化され統合された変換係数を逆量子化し、それによって、統合された変換係数を作成するステップ;g)第3レイヤの量子化された変換係数を逆量子化し、それによって第3レイヤの非量子化された変換係数を作成するステップ;h)統合された変換係数を第3レイヤの非量子化された変換係数と統合し、それによって3つのレイヤの統合された変換係数を作成するステップ;およびi)3つのレイヤの統合された変換係数を逆変換し、それによって、統合された空間領域値を作成するステップを含む方法が提供される。   According to a twelfth aspect of the present invention, a method for integrating a plurality of layers in a multi-layer bitstream, comprising: a) a quantized transform coefficient for a first layer having a first spatial resolution B) receiving a quantized transform coefficient for the second layer having the first spatial resolution; c) a quantized transform coefficient for the third layer having the first spatial resolution. D) scaling the quantized transform coefficients of the first layer to match the properties of the second layer, thereby creating a quantized and scaled transform coefficient of the first layer E) integrating the quantized scaled transform coefficients of the first layer with the quantized transform coefficients of the second layer, thereby obtaining the quantized and unified transform coefficients F) dequantizing the quantized and integrated transform coefficients, thereby creating an integrated transform coefficient; g) dequantizing the third layer quantized transform coefficients; Creating a third layer non-quantized transform coefficient by: h) integrating the integrated transform coefficient with the third layer non-quantized transform coefficient, thereby integrating the three layer integrated transform A method is provided comprising: creating coefficients; and i) inverse transforming the combined transform coefficients of the three layers, thereby creating an integrated spatial domain value.

本発明の第13の態様によれば、マルチレイヤ・ビットストリーム中の複数のレイヤを統合する方法であって、i)マルチレイヤ画像の第2レイヤが残差予測を使用しているかを判定するステップ;ii)第2レイヤが残差予測を使用している場合のみ、以降の各ステップを実行するステップ;iii)マルチレイヤ画像の第1レイヤの第1の空間解像度を決定するステップ;iv)第2レイヤの第2の空間解像度を決定するステップ;v)上記第1の空間解像度を上記第2の空間解像度と比較するステップ;vi)第1の空間解像度が第2の空間解像度と実質的に等しい場合に、ステップvii)〜viii)を実行するステップ;vii)第1レイヤの変換係数を第2レイヤの特性と整合するようにスケーリングし、それによって、第1レイヤのスケーリングされた変換係数を作成するステップ;viii)第1レイヤのスケーリングされた変換係数を第2レイヤの変換係数と統合して、統合された係数を形成するステップ;ix)第1レイヤの空間解像度が第2レイヤの空間解像度と実質的に等しくない場合に、ステップx)〜xiii)を実行するステップ;x)第1レイヤの変換係数を逆変換し、それによって第1レイヤの空間領域値を生成するステップ;xi)第2レイヤの変換係数を逆変換し、それによって第2レイヤの空間領域値を生成するステップ;xii)第1レイヤの空間領域値を第2レイヤの解像度と整合するようにスケーリングして、それによって第1レイヤのスケーリングされた空間領域値を生成するステップ;およびxiii)第1レイヤのスケーリングされた空間領域値を第2レイヤの空間領域値と統合し、それによって、統合された空間領域値を生成するステップを含む方法が提供される。   According to a thirteenth aspect of the present invention, there is provided a method for integrating a plurality of layers in a multi-layer bitstream, i) determining whether a second layer of a multi-layer image uses residual prediction. Step; ii) performing the subsequent steps only if the second layer uses residual prediction; iii) determining the first spatial resolution of the first layer of the multi-layer image; iv) Determining a second spatial resolution of the second layer; v) comparing the first spatial resolution with the second spatial resolution; vi) the first spatial resolution substantially equal to the second spatial resolution; Vii) scaling the first layer transform coefficients to match the characteristics of the second layer, and thereby the first layer scaling. Creating a ringed transform coefficient; viii) integrating the scaled transform coefficients of the first layer with the transform coefficients of the second layer to form a consolidated coefficient; ix) spatial resolution of the first layer Performing steps x) to xiii) if x is not substantially equal to the spatial resolution of the second layer; x) inverse transforming the transform coefficients of the first layer, thereby converting the spatial domain value of the first layer Generating; xi) inverse transforming the transform coefficients of the second layer, thereby generating a spatial region value of the second layer; xii) matching the spatial region value of the first layer with the resolution of the second layer Generating a first layer scaled spatial domain value; and xiii) a first layer scaled spatial domain value to a second layer spatial A method is provided that includes the step of integrating with region values thereby generating an integrated spatial region value.

本発明の第14の態様によれば、マルチレイヤ・ビットストリーム中の変換係数をスケーリングする方法であって、上記マルチレイヤ・ビットストリームに基づいて第1レイヤの量子化パラメータを決定するステップ;上記マルチレイヤ・ビットストリームに基づいて第2レイヤの量子化パラメータを決定するステップ;および第1レイヤの量子化パラメータおよび第2レイヤの量子化パラメータに基づいて第1レイヤの変換係数をスケーリングするステップを含む方法が提供される。   According to a fourteenth aspect of the present invention, there is provided a method for scaling transform coefficients in a multi-layer bitstream, the step of determining a first-layer quantization parameter based on the multi-layer bitstream; Determining a second layer quantization parameter based on the multi-layer bitstream; and scaling the first layer transform coefficients based on the first layer quantization parameter and the second layer quantization parameter. A method of including is provided.

上記スケーリングは、次の関係に従って行われるものであってもよい。   The scaling may be performed according to the following relationship.

Figure 2009543501
Figure 2009543501

(ここで、TSecondLayerおよびTFirstLayerはそれぞれ第2レイヤおよび第1レイヤにおける変換係数を示し、kは整数であり、Qp_FirstLayerおよびQp_SecondLayerはそれぞれ第1レイヤおよび第2レイヤのための量子化パラメータである)
kは、6に等しくてもよい。
(Here, TSecondLayer and TFirstLayer are transform coefficients in the second layer and the first layer, respectively, k is an integer, and Qp_FirstLayer and Qp_SecondLayer are quantization parameters for the first layer and the second layer, respectively)
k may be equal to 6.

上記スケーリングは、次の関係に従って行われるものであってもよい。   The scaling may be performed according to the following relationship.

Figure 2009543501
Figure 2009543501

(ここで、//は整数除算を示し、%はモジュロ演算を示し、MおよびScaleMatrixは定数であり、TSecondLayerおよびTFirstLayerはそれぞれ第2レイヤおよび第1レイヤにおける変換係数を示し、kは整数であり、Qp_FirstLayerおよびQp_SecondLayerはそれぞれ第1レイヤおよび第2レイヤのための量子化パラメータである)
Qp_Diffが0未満であると分かっている場合には、Qp_Diffを0にリセットしてもよい。
(Where // indicates integer division,% indicates modulo operation, M and ScaleMatrix are constants, TSecondLayer and TFirstLayer indicate transform coefficients in the second layer and the first layer, respectively, and k is an integer. Qp_FirstLayer and Qp_SecondLayer are quantization parameters for the first layer and the second layer, respectively)
If Qp_Diff is known to be less than 0, Qp_Diff may be reset to 0.

ScaleMatrixは[512 573 642 719 806 902]に等しくてもよく、また、Mは512に等しくてもよい。   ScaleMatrix may be equal to [512 573 642 719 806 902] and M may be equal to 512.

ScaleMatrixは[8 9 10 11 13 14]に等しくてもよく、また、Mは8に等しくてもよい。   ScaleMatrix may be equal to [8 9 10 11 13 14] and M may be equal to 8.

上記スケーリングは、次の関係に従って行われるものであってもよい。   The scaling may be performed according to the following relationship.

Figure 2009543501
Figure 2009543501

(ここで、//は整数除算を示し、%はモジュロ演算を示し、MおよびScaleMatrixは定数であり、TSecondLayerおよびTFirstLayerはそれぞれ第2レイヤおよび第1レイヤにおける変換係数を示し、kは整数であり、Qp_FirstLayerおよびQp_SecondLayerはそれぞれ第1レイヤおよび第2レイヤのための量子化パラメータである)
Qp_Diffが0未満であると分かっている場合には、Qp_Diffを0にリセットしてもよい。
(Where // indicates integer division,% indicates modulo operation, M and ScaleMatrix are constants, TSecondLayer and TFirstLayer indicate transform coefficients in the second layer and the first layer, respectively, and k is an integer. Qp_FirstLayer and Qp_SecondLayer are quantization parameters for the first layer and the second layer, respectively)
If Qp_Diff is known to be less than 0, Qp_Diff may be reset to 0.

ScaleMatrixは[291 325 364 408 457 512 573 642 719 806 902]に等しくてもよく、また、Mは512に等しくてもよい。   ScaleMatrix may be equal to [291 325 364 408 457 512 573 642 719 806 902] and M may be equal to 512.

上記方法は、スケーリングされた第1レイヤの変換係数を第2レイヤの変換係数と統合し、それによって、統合された係数を作成するステップをさらに含んでいてもよい。   The method may further include the step of integrating the scaled first layer transform coefficients with the second layer transform coefficients, thereby creating an integrated coefficient.

上記方法は、統合された係数を含む、統合されたビットストリームを生成するステップをさらに含んでいてもよい。   The method may further include generating an integrated bitstream that includes the integrated coefficients.

上記方法は、第1レイヤの変換係数に依存する重み係数Sと第2レイヤの変換係数に依存する重み係数Sとを決定するステップをさらに含み、上記スケーリングが、次の関係に従って行われるものであってもよい。 The method further comprises determining the weighting factor S F which depends on the conversion coefficient of the first layer and the weighting coefficient S S which depends on the conversion coefficient of the second layer, the scaling is performed according to the relation It may be a thing.

Figure 2009543501
Figure 2009543501

(ここで、TSecondLayerおよびTFirstLayerはそれぞれ第2レイヤおよび第1レイヤにおける変換係数を示し、kは整数であり、Qp_FirstLayerおよびQp_SecondLayerはそれぞれ第1レイヤおよび第2レイヤのための量子化パラメータである)
上記方法は、第1レイヤの変換係数に依存する重み係数Sを決定するステップ;および第2レイヤの変換係数に依存する重み係数Sを決定するステップをさらに含み、上記スケーリングが、次の関係に従って行われるものであってもよい。
(Here, TSecondLayer and TFirstLayer are transform coefficients in the second layer and the first layer, respectively, k is an integer, and Qp_FirstLayer and Qp_SecondLayer are quantization parameters for the first layer and the second layer, respectively)
The above method comprises determining the weighting factor S F which depends on the conversion coefficient of the first layer; further comprising the step of determining the weighting factor S S which depends on the transform coefficients and the second layer, the scaling, the following It may be performed according to the relationship.

Figure 2009543501
Figure 2009543501

(ここで、//は整数除算を示し、%はモジュロ演算を示し、MおよびScaleMatrixは定数であり、TSecondLayerおよびTFirstLayerはそれぞれ第2レイヤおよび第1レイヤにおける変換係数をそれぞれ意味し、kは整数であり、Qp_FirstLayerおよびQp_SecondLayerはそれぞれ第1レイヤおよび第2レイヤのための量子化パラメータである)
およびSは、マルチレイヤ・ビットストリーム中に明示的に存在していてもよい。
(Where // indicates integer division,% indicates modulo operation, M and ScaleMatrix are constants, TSecondLayer and TFirstLayer respectively mean transform coefficients in the second layer and the first layer, and k is an integer. Qp_FirstLayer and Qp_SecondLayer are quantization parameters for the first layer and the second layer, respectively)
S F and S S may be explicitly present in the multi-layer bitstream.

およびSは、マルチレイヤ・ビットストリームから算出されてもよい。 S F and S S may be calculated from the multi-layer bitstream.

上記方法は、乗法的であり、かつ変換係数に依存する重み係数W1を決定するステップと、加法的であり、かつ変換係数に依存する重み係数W2を決定するステップとをさらに含み、上記スケーリングが、次の関係に従って行われるものであってもよい。   The method further includes determining a weighting factor W1 that is multiplicative and depends on the transform coefficient, and determining a weighting factor W2 that is additive and depends on the transform coefficient, wherein the scaling is It may be performed according to the following relationship.

Figure 2009543501
Figure 2009543501

(ここで、//は整数除算を示し、%はモジュロ演算を示し、MおよびScaleMatrixは定数であり、TSecondLayerおよびTFirstLayerはそれぞれ第2レイヤおよび第1レイヤにおける変換係数を示し、kは整数であり、Qp_FirstLayerおよびQp_SecondLayerはそれぞれ第1レイヤおよび第2レイヤのための量子化パラメータである)
W1およびW2は、マルチレイヤ・ビットストリーム中に明示的に存在していてもよい。
(Where // indicates integer division,% indicates modulo operation, M and ScaleMatrix are constants, TSecondLayer and TFirstLayer indicate transform coefficients in the second layer and the first layer, respectively, and k is an integer. Qp_FirstLayer and Qp_SecondLayer are quantization parameters for the first layer and the second layer, respectively)
W1 and W2 may be explicitly present in the multi-layer bitstream.

W1およびW2は、マルチレイヤ・ビットストリームから算出されてもよい。   W1 and W2 may be calculated from the multi-layer bitstream.

上記方法は、統合された係数を逆量子化し、それによって、統合され非量子化された変換係数を生成するステップをさらに含んでいてもよい。   The method may further include the step of dequantizing the combined coefficients, thereby generating combined and unquantized transform coefficients.

上記方法は、統合され非量子化された変換係数を逆変換し、それによって空間領域残差値を生成するステップをさらに含んでいてもよい。   The method may further include the step of inverse transforming the combined, unquantized transform coefficients, thereby generating a spatial domain residual value.

上記方法は、上記空間領域残差値を空間領域予測値と統合するステップをさらに含んでいてもよい。   The method may further include integrating the spatial domain residual value with a spatial domain prediction value.

本発明の第15の態様によれば、マルチレイヤ・ビットストリーム中の変換係数をスケーリングするためのシステムであって、上記マルチレイヤ・ビットストリームに基づいて第1レイヤの量子化パラメータを決定するための第1のパラメータ決定器;上記マルチレイヤ・ビットストリームに基づいて第2レイヤの量子化パラメータを決定するための第2のパラメータ決定器;および第1レイヤの量子化パラメータおよび第2レイヤの量子化パラメータに基づいて第1レイヤの変換係数をスケーリングするためのスケーラを含むシステムが提供される。   According to a fifteenth aspect of the present invention, there is provided a system for scaling transform coefficients in a multi-layer bitstream for determining a first-layer quantization parameter based on the multi-layer bitstream. A first parameter determiner; a second parameter determiner for determining a second layer quantization parameter based on the multi-layer bitstream; and a first layer quantization parameter and a second layer quantum A system is provided that includes a scaler for scaling the first layer transform coefficients based on the quantization parameter.

本発明の第16の態様によれば、エントロピー符号化プロセスを制御するための方法であって、a)対象(target)マクロブロックに隣接する第1の隣接マクロブロックを識別するステップ;b)対象マクロブロックに隣接する第2の隣接マクロブロックを識別するステップ;c)第1の隣接マクロブロックが別のレイヤを参照して符号化されているかを示す第1のマクロブロック指標を決定するステップ;d)第2の隣接マクロブロックが別のレイヤを参照して符号化されているかを示す第2のマクロブロック指標を決定するステップ;およびe)第1のマクロブロック指標および第2のマクロブロック指標に基づいてエントロピー符号化制御値を決定するステップを含む方法が提供される。   According to a sixteenth aspect of the present invention, there is provided a method for controlling an entropy encoding process comprising the steps of: a) identifying a first neighboring macroblock adjacent to a target macroblock; Identifying a second neighboring macroblock adjacent to the macroblock; c) determining a first macroblock index indicating whether the first neighboring macroblock is encoded with reference to another layer; d) determining a second macroblock index indicating whether the second neighboring macroblock is encoded with reference to another layer; and e) a first macroblock index and a second macroblock index. A method is provided that includes determining an entropy encoding control value based on.

上記方法は、上記エントロピー符号化制御値を用いてイントラ予測モードを符号化するステップをさらにんでいてもよい。   The method may further include a step of encoding an intra prediction mode using the entropy encoding control value.

上記方法は、上記エントロピー符号化制御値を用いてイントラ予測モードを復号するステップをさらに含んでいてもよい。   The method may further include a step of decoding an intra prediction mode using the entropy encoding control value.

上記方法は、上記エントロピー符号化制御値を用いて上記対象マクロブロックを符号化するステップをさらに含んでいてもよい。   The method may further include a step of encoding the target macroblock using the entropy encoding control value.

上記方法は、上記エントロピー符号化制御値を用いて上記対象マクロブロックを復号するステップをさらに含んでいてもよい。   The method may further include the step of decoding the target macroblock using the entropy encoding control value.

上記対象マクロブロックは、色差マクロブロックであってもよい。   The target macroblock may be a color difference macroblock.

マクロブロックは、マクロブロックがタイプIntraBLである場合に、別のレイヤを参照して符号化されていると判定されてもよい。   A macroblock may be determined to be encoded with reference to another layer when the macroblock is of type IntraBL.

上記エントロピー符号化制御値は、コンテキストを含んでいてもよい。   The entropy encoding control value may include a context.

上記コンテキストは、累積的なマクロブロック情報を基礎とするものであってもよい。   The context may be based on cumulative macroblock information.

本発明の第17の態様によれば、エントロピー符号化プロセスを制御するための方法であって、a)対象マクロブロックに隣接する第1の隣接マクロブロックを識別するステップ;b)対象マクロブロックに隣接する第2の隣接マクロブロックを識別するステップ;c)上記第1の隣接マクロブロックが利用可能であるかを判定するステップ;d)上記第1の隣接マクロブロックがレイヤ間予測モードで符号化されているかを判定するステップ;e)上記第1の隣接マクロブロックが空間領域で符号化されているかを判定するステップ;f)上記第1の隣接マクロブロックがDC予測モードでイントラ予測されているかを判定するステップ;g)上記第1の隣接マクロブロックが別のレイヤを参照して符号化されているかを判定するステップ;h)ステップc)〜g)の何れかが真であれば、第1の隣接ブロック・フラグを1にセットするステップ;i)上記第2の隣接マクロブロックが利用可能かを判定するステップ;j)上記第2の隣接マクロブロックがレイヤ間予測モードで符号化されているかを判定するステップ;k)上記第2の隣接マクロブロックが空間領域で符号化されているかを判定するステップ;l)上記第2の隣接マクロブロックがDC予測モードでイントラ予測されているかを判定するステップ;m)上記第2の隣接マクロブロックが別のレイヤを参照して符号化されているかを判定するステップ;n)ステップi)〜m)の何れかが真であれば、第2の隣接ブロック・フラグ値を1にセットするステップ;およびo)上記第1の隣接ブロック・フラグ値と上記第2の隣接ブロック・フラグ値とを加算してエントロピー符号化制御値を生成するステップを含む方法が提供される。   According to a seventeenth aspect of the present invention, there is provided a method for controlling an entropy encoding process comprising: a) identifying a first neighboring macroblock adjacent to a target macroblock; b) Identifying a neighboring second neighboring macroblock; c) determining whether the first neighboring macroblock is available; d) coding the first neighboring macroblock in inter-layer prediction mode E) determining whether the first neighboring macroblock is encoded in the spatial domain; f) whether the first neighboring macroblock is intra predicted in DC prediction mode G) determining whether the first neighboring macroblock is encoded with reference to another layer h) if any of steps c) to g) is true, setting a first adjacent block flag to 1; i) determining whether the second adjacent macroblock is available; j ) Determining whether the second adjacent macroblock is encoded in inter-layer prediction mode; k) determining whether the second adjacent macroblock is encoded in the spatial domain; l) above Determining whether the second neighboring macroblock is intra predicted in DC prediction mode; m) determining whether the second neighboring macroblock is encoded with reference to another layer; n) If any of steps i) to m) is true, setting a second adjacent block flag value to 1; and o) above the first adjacent block flag value Comprising the step of generating an entropy encoding control value by adding the second adjacent block flag value is provided.

上記方法は、上記エントロピー符号化制御値を用いて上記対象マクロブロックを符号化するステップをさらに含んでいてもよい。   The method may further include a step of encoding the target macroblock using the entropy encoding control value.

上記方法は、上記エントロピー符号化制御値を用いて上記対象マクロブロックを復号するステップをさらに含んでいてもよい。   The method may further include the step of decoding the target macroblock using the entropy encoding control value.

上記対象マクロブロックは、色差マクロブロックであってもよい。   The target macroblock may be a color difference macroblock.

マクロブロックは、該マクロブロックがタイプIntraBLである場合に別のレイヤを参照して符号化されていると判定されてもよい。   A macroblock may be determined to be encoded with reference to another layer when the macroblock is of type IntraBL.

マクロブロックは、該マクロブロックがタイプI_PCMである場合に空間領域で符号化されていると判定されてもよい。   A macroblock may be determined to be encoded in the spatial domain when the macroblock is type I_PCM.

上記エントロピー符号化制御値は、コンテキストを含んでいてもよい。   The entropy encoding control value may include a context.

上記コンテキストは、累積的なマクロブロック情報を基礎とするものであってもよい。   The context may be based on cumulative macroblock information.

本発明の第18の態様によれば、予測モードを決定するための方法であって、a)対象マクロブロックに隣接する第1の隣接マクロブロックを識別するステップ;b)対象マクロブロックに隣接する第2の隣接マクロブロックを識別するステップ;およびc)以下の条件i)〜vi):i)第1の隣接マクロブロックが利用可能である;ii)第1の隣接マクロブロックがレイヤ間予測モードで符号化されている;iii)第1の隣接マクロブロックが別のレイヤを参照して符号化されている;iv)第2の隣接マクロブロックが利用可能である;v)第2の隣接マクロブロックがレイヤ間予測モードで符号化されている;vi)第2の隣接マクロブロックが別のレイヤを参照して符号化されている;の何れかが真であれば、対象ブロックの推定された(estimated)予測モードを予め定められたモードにセットするステップを含む方法が提供される。   According to an eighteenth aspect of the present invention, there is provided a method for determining a prediction mode, comprising a) identifying a first adjacent macroblock adjacent to a target macroblock; b) adjacent to the target macroblock. Identifying a second neighboring macroblock; and c) the following conditions i) to vi): i) the first neighboring macroblock is available; ii) the first neighboring macroblock is in inter-layer prediction mode Iii) the first neighboring macroblock is coded with reference to another layer; iv) the second neighboring macroblock is available; v) the second neighboring macro The block is coded in inter-layer prediction mode; vi) the second neighboring macroblock is coded with reference to another layer; if either is true, the target block is estimated (est imated) a method is provided that includes setting the prediction mode to a predetermined mode.

上記の予め定められたモードは、DC予測モードであってもよい。   The predetermined mode may be a DC prediction mode.

上記方法は、対象ブロックの実際の予測モードを対象ブロックの内容に基づいて特定するステップをさらに含んでいてもよい。   The method may further include the step of specifying the actual prediction mode of the target block based on the content of the target block.

上記方法は、推定された予測モードを実際の予測モードと比較するステップをさらに含んでいてもよい。   The method may further include comparing the estimated prediction mode with the actual prediction mode.

上記方法は、メッセージを符号化するステップであって、上記メッセージが、実際の予測モードが推定された予測モードと同じである場合に、推定された予測モードを用いて対象ブロックを予測するようデコーダに指示するものであるステップをさらに含んでいてもよい。   The method is a step of encoding a message, wherein the decoder predicts a target block using the estimated prediction mode when the message is the same as the estimated prediction mode. The method may further include a step that instructs the above.

上記方法は、メッセージを復号するステップであって、上記メッセージが、実際の予測モードが推定された予測モードと同じである場合に、推定された予測モードを用いて対象ブロックを予測するようデコーダに指示するものであるステップをさらに含んでいてもよい。   The method is a step of decoding a message, wherein if the message is the same as the estimated prediction mode, the decoder is used to predict the target block using the estimated prediction mode. It may further include a step that is an instruction.

上記方法は、メッセージを復号するステップであって、上記メッセージが、実際の予測モードが推定された予測モードと同じでない場合に、実際の予測モードを用いて対象ブロックを予測するようデコーダに指示するものであるステップをさらに含んでいてもよい。   The method is a step of decoding a message, instructing the decoder to predict the target block using the actual prediction mode if the message is not the same as the estimated prediction mode. It may further include a step that is a thing.

上記方法は、メッセージを符号化するステップであって、上記メッセージが、実際の予測モードが推定された予測モードと同じでない場合に、実際の予測モードを用いて対象ブロックを予測するようデコーダに指示するものであるステップをさらに含んでいてもよい。   The method is a step of encoding a message, instructing the decoder to predict the target block using the actual prediction mode when the message is not the same as the estimated prediction mode. It may further include a step that is to be performed.

対象ブロックの推定された予測モードは、輝度予測モードであってもよい。   The estimated prediction mode of the target block may be a luminance prediction mode.

本発明の第19の態様によれば、エントロピー符号化プロセスを制御するためのシステムであって、a)対象マクロブロックに隣接する第1の隣接マクロブロックを識別するための第1の識別子;b)対象マクロブロックに隣接する第2の隣接マクロブロックを識別するための第2の識別子;c)第1の隣接マクロブロックが別のレイヤを参照して符号化されているかを示す第1のマクロブロック指標を決定するための第1の指標決定器;d)第2の隣接マクロブロックが別のレイヤを参照して符号化されているかを示す第2のマクロブロック指標を決定するための第2の指標決定器;およびe)第1のマクロブロック指標および第2のマクロブロック指標に基づいてエントロピー符号化制御値を決定するための値決定器を含むシステムが提供される。   According to a nineteenth aspect of the present invention, there is provided a system for controlling an entropy encoding process, wherein a) a first identifier for identifying a first neighboring macroblock adjacent to a target macroblock; b ) A second identifier for identifying a second adjacent macroblock adjacent to the target macroblock; c) a first macro indicating whether the first adjacent macroblock is encoded with reference to another layer A first index determiner for determining a block index; d) a second index for determining a second macroblock index indicating whether the second neighboring macroblock is coded with reference to another layer. And e) a system including a value determiner for determining an entropy coding control value based on the first macroblock index and the second macroblock index. It is.

本発明の第20の態様によれば、マルチレイヤ・ビットストリーム中の複数のレイヤを統合する方法であって、a)符号化画像係数と符号化ブロック・パターン(Cbp)情報とを含むビットストリームであって、上記Cbp情報がビットストリーム中における変換係数を含む領域を識別するビットストリームを受け取るステップ;b)上記Cbp情報を復号するステップ;c)Cbp情報を用いて変換係数を含むビットストリーム領域を識別することによって、ビットストリームを解析するステップ;d)ビットストリーム中の第1レイヤの変換係数をビットストリーム中の第2レイヤの特性と整合するようにスケーリングするステップ;e)第1レイヤのスケーリングされた変換係数を第2レイヤの変換係数に加算して、統合されたレイヤ中の統合された係数を形成するステップ;およびf)統合されたレイヤ中における変換係数を含む領域を識別する情報である、統合されたレイヤのための統合されたCbp情報を計算するステップを含む方法が提供される。   According to a twentieth aspect of the present invention, there is provided a method for integrating a plurality of layers in a multi-layer bitstream, comprising: a) a bitstream including encoded image coefficients and encoded block pattern (Cbp) information A step of receiving a bitstream identifying an area in which the Cbp information includes transform coefficients in the bitstream; b) a step of decoding the Cbp information; c) a bitstream area including transform coefficients using the Cbp information Analyzing the bitstream by identifying; d) scaling the transform coefficients of the first layer in the bitstream to match the characteristics of the second layer in the bitstream; e) of the first layer The scaled transform coefficients are added to the second layer transform coefficients to create an integrated ray Forming integrated coefficients therein; and f) calculating integrated Cbp information for the integrated layer, which is information identifying regions containing transform coefficients in the integrated layer. A method is provided.

上記計算は、第2レイヤ中の係数が第1レイヤから予測される場合にのみ行ってもよい。   The above calculation may be performed only when the coefficients in the second layer are predicted from the first layer.

上記方法は、統合された係数を逆変換し、それによって空間領域値を作成するステップをさらに含んでいてもよい。   The method may further include the step of inverse transforming the combined coefficients, thereby creating a spatial domain value.

上記方法は、統合されたCbp情報に基づいて空間領域値の領域を選択的にフィルタリングするステップをさらに含んでいてもよい。   The method may further include selectively filtering regions of spatial region values based on the integrated Cbp information.

上記第1レイヤおよび第2レイヤは、異なる空間解像度を有していてもよい。   The first layer and the second layer may have different spatial resolutions.

上記第1レイヤおよび第2レイヤは、異なるビット深度を有していてもよい。   The first layer and the second layer may have different bit depths.

上記第1レイヤは、基本レイヤであってもよい。   The first layer may be a basic layer.

上記第2レイヤは、拡張レイヤであってもよい。   The second layer may be an enhancement layer.

上記の統合されたCbp情報を計算するステップは、統合された係数を検査する(test)ステップを含んでいてもよい。   The step of calculating the integrated Cbp information may include a step of testing the integrated coefficient.

上記の統合されたCbp情報を計算するステップは、第1レイヤと第2レイヤとの2進論理和(binary-OR)を演算するステップを含んでいてもよい。   The step of calculating the integrated Cbp information may include a step of calculating a binary OR of the first layer and the second layer.

上記の統合されたCbp情報を計算するステップは、係数リストを走査して、残差情報を有する領域を識別するステップを含んでいてもよい。   The step of calculating the integrated Cbp information may include scanning a coefficient list to identify regions having residual information.

本発明の第21の態様によれば、マルチレイヤ・ビットストリーム中の複数のレイヤを統合するためのシステムであって、g)符号化画像係数と符号化ブロック・パターン(Cbp)情報とを含むビットストリームであって、上記Cbp情報がビットストリーム中における変換係数を含む領域を識別するものであるビットストリームを受け取るための受信機;h)Cbp情報を復号するためのデコーダ;i)Cbp情報を用いて変換係数を含むビットストリーム領域を識別することによって、ビットストリームを解析するためのパーサ;j)ビットストリーム中の第1レイヤの変換係数をビットストリー中の第2レイヤの特性と整合するようにスケーリングするためのスケーラ;k)第1レイヤのスケーリングされた変換係数を第2レイヤの変換係数に加算して、統合されたレイヤ中の統合された係数を形成するための加算器;およびl)統合されたレイヤ中における変換係数を含む領域を識別する情報である、統合されたレイヤのための統合されたCbp情報を計算するための計算器を含むシステムが提供される。   According to a twenty-first aspect of the present invention, there is provided a system for integrating a plurality of layers in a multi-layer bitstream, including g) encoded image coefficients and encoded block pattern (Cbp) information. A receiver for receiving a bitstream, wherein the Cbp information identifies an area including a transform coefficient in the bitstream; h) a decoder for decoding the Cbp information; i) Cbp information A parser for analyzing the bitstream by using to identify the bitstream region containing the transform coefficients; j) matching the transform coefficients of the first layer in the bitstream with the characteristics of the second layer in the bitstream K) the scaled transform coefficients of the first layer to the second layer An adder for adding to the transform coefficients to form a merged coefficient in the merged layer; and l) the merged layer, information identifying areas in the merged layer that contain transform coefficients A system including a calculator for calculating integrated Cbp information for is provided.

上記計算は、第2レイヤ中の係数が第1レイヤから予測される場合にのみ行ってもよい。   The above calculation may be performed only when the coefficients in the second layer are predicted from the first layer.

上記方法は、統合された係数を逆変換し、それによって空間領域値を作成するための逆変換器をさらに含んでいてもよい。   The method may further include an inverse transformer for inverse transforming the combined coefficients, thereby creating a spatial domain value.

上記システムは、統合されたCbp情報に基づいて空間領域値の領域を選択的にフィルタリングするためのフィルタをさらに含んでいてもよい。   The system may further include a filter for selectively filtering regions of the spatial region value based on the integrated Cbp information.

上記第1レイヤおよび上記第2レイヤは、異なる空間解像度を有していてもよい。   The first layer and the second layer may have different spatial resolutions.

上記第1レイヤおよび上記第2レイヤは、異なるビット深度を有していてもよい。   The first layer and the second layer may have different bit depths.

上記第1レイヤは、基本レイヤであってもよい。   The first layer may be a base layer.

上記第2レイヤは、拡張レイヤであってもよい。   The second layer may be an enhancement layer.

上記の統合されたCbp情報の計算は、統合された係数の検査を含んでいてもよい。   The calculation of the integrated Cbp information may include an examination of the integrated coefficient.

上記の統合されたCbp情報の計算は、第1レイヤと第2レイヤとの2進論理和の演算を含んでいてもよい。   The calculation of the integrated Cbp information may include a binary OR operation between the first layer and the second layer.

上記の統合されたCbp情報の計算は、係数リストを走査して、残差情報を有する領域を識別することを含んでいてもよい。   The calculation of the integrated Cbp information may include scanning the coefficient list to identify regions having residual information.

本発明の第22の態様によれば、変換サイズが拡張レイヤ中で示されていない場合に、再構成変換サイズを選択するための方法であって、a)下位レイヤの変換サイズを決定するステップ;b)下位レイヤの変換サイズが予め定められた変換サイズに実質的に類似しているかを判断するステップ;c)下位レイヤの変換サイズが予め定められた変換サイズに実質的に類似している場合に、予め定められた変換サイズの逆変換を再構成変換として選択するステップ;およびd)下位レイヤの変換サイズが予め定められた変換サイズに実質的に類似していない場合に、デフォルト(default)変換サイズの逆変換を再構成変換として選択するステップを含む方法が提供される。   According to a twenty-second aspect of the present invention, there is provided a method for selecting a reconstructed transform size when the transform size is not indicated in the enhancement layer, and a) determining a transform size of a lower layer B) determining whether the transformation size of the lower layer is substantially similar to the predetermined transformation size; c) the transformation size of the lower layer is substantially similar to the predetermined transformation size; A step of selecting an inverse transform of a predetermined transform size as the reconstruction transform; and d) a default if the transform size of the lower layer is not substantially similar to the predetermined transform size A method is provided that includes selecting an inverse transform of the transform size as the reconstruction transform.

上記デフォルト変換サイズは、再構成変換のために選択されたか否かにかかわらず、ビットストリームを解析するために使用されてもよい。   The default transform size may be used to parse the bitstream regardless of whether it was selected for reconstruction transform.

上記方法は、拡張レイヤの係数を再構成変換で逆変換するステップをさらに含んでいてもよい。   The method may further include a step of inversely transforming the enhancement layer coefficients by reconstruction transform.

上記の予め定められた変換サイズは、8×8であってもよい。   The predetermined conversion size may be 8 × 8.

上記の予め定められた変換サイズは、16×16であってもよい。   The predetermined conversion size may be 16 × 16.

上記方法は、拡張レイヤのための予測モードを決定するステップと、拡張レイヤが下位レイヤから予測されることを拡張レイヤの予測モードが示している場合にのみ、ステップa)〜d)を実行するステップとをさらに含んでいてもよい。   The method performs steps a) -d) only when determining a prediction mode for the enhancement layer and when the enhancement layer prediction mode indicates that the enhancement layer is predicted from a lower layer. A step.

上記方法は、デフォルト変換サイズにフォーマットされた、拡張レイヤの複数の係数を抽出するステップをさらに含んでいてもよい。   The method may further include extracting a plurality of enhancement layer coefficients formatted to a default transform size.

上記方法は、拡張レイヤの複数の抽出された係数を予め定められた変換サイズに再フォーマットするステップをさらに含んでいてもよい。   The method may further include reformatting the plurality of extracted coefficients of the enhancement layer to a predetermined transform size.

上記方法は、デフォルト変換サイズにフォーマットされた、拡張レイヤの複数の量子化された係数を抽出するステップをさらに含んでいてもよい。   The method may further include extracting a plurality of quantized coefficients of the enhancement layer formatted to a default transform size.

上記方法は、拡張レイヤの複数の量子化され抽出された係数を予め定められた変換サイズに再フォーマットし、それによって、拡張レイヤの複数の量子化され再フォーマットされた係数を作成するステップをさらに含んでいてもよい。   The method further comprises reformatting the plurality of quantized and extracted coefficients of the enhancement layer to a predetermined transform size, thereby creating a plurality of quantized and reformatted coefficients of the enhancement layer. May be included.

上記方法は、i)下位レイヤの複数の量子化された変換係数を逆量子化し、それによって下位レイヤの複数の変換係数を作成するステップ;ii)下位レイヤの複数の変換係数を拡張レイヤの特性と整合するようにスケーリングし、それによって下位レイヤの複数のスケーリングされた変換係数を作成するステップ;iii)拡張レイヤの量子化され再フォーマットされた係数を逆量子化し、それによって拡張レイヤの変換係数を作成するステップ;およびiv)下位レイヤのスケーリングされた変換係数を拡張レイヤの変換係数と統合して、統合された係数を形成するステップをさらに含んでいてもよい。   The method includes: i) dequantizing a plurality of quantized transform coefficients in a lower layer, thereby creating a plurality of transform coefficients in the lower layer; ii) converting the plurality of transform coefficients in the lower layer into characteristics of the enhancement layer Scaling to match with, thereby creating a plurality of scaled transform coefficients for the lower layer; iii) dequantizing the quantized and reformatted coefficients of the enhancement layer, thereby transforming the enhancement layer transform coefficients And iv) integrating the scaled transform coefficients of the lower layer with the transform coefficients of the enhancement layer to form an integrated coefficient.

上記方法は、統合された係数を含む、統合されたビットストリームを生成するステップをさらに含んでいてもよい。   The method may further include generating an integrated bitstream that includes the integrated coefficients.

上記の統合されたビットストリームは、イントラ予測モードをさらに含んでいてもよい。   The integrated bitstream may further include an intra prediction mode.

上記の統合されたビットストリームは、動きベクトルをさらに含んでいてもよい。   The integrated bitstream may further include a motion vector.

上記方法は、統合された係数を再構成変換を用いて逆変換し、それによって空間領域残差値を生成するステップをさらに含んでいてもよい。   The method may further include the step of inverse transforming the combined coefficients using a reconstruction transform, thereby generating a spatial domain residual value.

上記方法は、上記空間領域残差値を上記空間領域予測値と統合するステップをさらに含んでいてもよい。   The method may further include integrating the spatial region residual value with the spatial region predicted value.

上記方法は、i)下位レイヤの複数の量子化された変換係数を拡張レイヤの特性と整合するようにスケーリングし、それによって下位レイヤの複数の量子化されスケーリングされた変換係数を作成するステップ;およびii)下位レイヤの複数の量子化されスケーリングされた変換係数を拡張レイヤの量子化され再フォーマットされた係数と統合して、量子化され統合された係数を形成するステップをさらに含んでいてもよい。   The method includes i) scaling the plurality of quantized transform coefficients of the lower layer to match the characteristics of the enhancement layer, thereby creating a plurality of quantized scaled transform coefficients of the lower layer; And ii) further comprising integrating the plurality of quantized scaled transform coefficients of the lower layer with the quantized reformatted coefficients of the enhancement layer to form a quantized integrated coefficient Good.

上記方法は、量子化され統合された係数を逆量子化し、それによって、統合された係数を作成するステップをさらに含んでいてもよい。   The method may further include dequantizing the quantized and combined coefficients, thereby creating the integrated coefficients.

上記方法は、統合された係数を含む、統合されたビットストリームを生成するステップをさたに含んでいてもよい。   The method may further include the step of generating an integrated bitstream that includes the integrated coefficients.

上記の統合されたビットストリームは、イントラ予測モードをさらに含んでいてもよい。   The integrated bitstream may further include an intra prediction mode.

上記の統合されたビットストリームは、動きベクトルをさらに含んでいてもよい。   The integrated bitstream may further include a motion vector.

上記方法は、再構成変換を用いて統合された係数を逆変換て、それによって空間領域残差値を生成するステップをさらに含んでいてもよい。   The method may further include the step of inverse transforming the combined coefficients using a reconstruction transform, thereby generating a spatial domain residual value.

上記方法は、上記空間領域残差値を上記空間領域予測値と統合するステップをさらに含んでいてもよい。   The method may further include integrating the spatial region residual value with the spatial region predicted value.

本発明の第23の態様によれば、変換サイズが拡張レイヤ中で示されていない場合に、再構成変換サイズを選択するためのシステムであって、a)下位レイヤの変換サイズを決定するためのサイズ決定器;b)下位レイヤの変換サイズが予め定められた変換サイズに実質的に類似しているかを判定するための判定器;c)下位レイヤの変換サイズが予め定められた変換サイズに実質的に類似している場合に、予め定められた変換サイズの逆変換を再構成変換として選択するための第1の選択器;およびd)下位レイヤの変換サイズが予め定められた変換サイズに実質的に類似していない場合に、デフォルト変換サイズの逆変換を再構成変換として選択するための第2の選択器を含むシステムが提供される。   According to a twenty-third aspect of the present invention, there is a system for selecting a reconstructed transform size when the transform size is not indicated in the enhancement layer, a) for determining the transform size of the lower layer B) a determination unit for determining whether the conversion size of the lower layer is substantially similar to the predetermined conversion size; c) the conversion size of the lower layer is set to the predetermined conversion size. A first selector for selecting an inverse transform of a predetermined transform size as a reconstruction transform if substantially similar; and d) the transform size of the lower layer is set to a predetermined transform size A system is provided that includes a second selector for selecting an inverse transform of the default transform size as the reconstruction transform if it is not substantially similar.

本発明の一部の実施形態は、マルチレイヤ・ビットストリーム中の処理および処理管理のための方法およびシステムを含む。   Some embodiments of the present invention include methods and systems for processing and processing management in a multi-layer bitstream.

本発明の前述および他の目的、特徴、および利点は、本発明に関する以下の詳細な説明を添付図面と併せて参酌すれば、より容易に理解されるだろう。   The foregoing and other objects, features and advantages of the present invention will be more readily understood when the following detailed description of the invention is considered in conjunction with the accompanying drawings.

変換領域係数のスケーリングを含む本発明の実施形態を示す図である。FIG. 6 illustrates an embodiment of the present invention that includes scaling of transform domain coefficients. 量子化された変換係数の累算、および量子化された変換領域係数のスケーリングを含む本発明の実施形態を示す図である。FIG. 3 illustrates an embodiment of the present invention including accumulation of quantized transform coefficients and scaling of quantized transform domain coefficients. 変換領域係数のスケーリング、および再構成なしのビットストリーム書き換え(rewriting)を含む本発明の実施形態を示す図である。FIG. 6 illustrates an embodiment of the present invention including transform domain coefficient scaling and bitstream rewriting without reconfiguration. 量子化された変換係数または変換インデックスの累算、および再構成なしのビットストリーム書き換えを含む本発明の実施形態を示す図である。FIG. 6 illustrates an embodiment of the present invention including accumulation of quantized transform coefficients or transform indices and bitstream rewriting without reconstruction. 変換サイズの選択を含む本発明の実施形態を示す図である。FIG. 6 illustrates an embodiment of the present invention that includes selection of transform sizes. 条件付きの変換サイズの指示(indication)および選択を含む本発明の実施形態を示す図である。FIG. 6 illustrates an embodiment of the present invention including conditional transform size indication and selection. 量子化パラメータに基づく係数スケーリングを含む本発明の実施形態を示す図である。FIG. 4 illustrates an embodiment of the present invention including coefficient scaling based on quantization parameters. 隣接マクロブロック・データに基づくエントロピー・エンコーダ制御値の計算を含む本発明の実施形態を示す図である。FIG. 6 illustrates an embodiment of the present invention including calculation of entropy encoder control values based on adjacent macroblock data. 隣接マクロブロックの条件の組み合わせに基づくエントロピー・エンコーダ制御値の決定を含む本発明の実施形態を示す図である。It is a figure which shows embodiment of this invention including determination of the entropy encoder control value based on the condition combination of an adjacent macroblock. 隣接マクロブロック・データに基づく、推定された予測モードの決定および予測モードの情報伝達(signaling)を含む本発明の実施形態を示す図である。FIG. 6 illustrates an embodiment of the present invention including determination of an estimated prediction mode and signaling of a prediction mode based on neighboring macroblock data. 統合されたレイヤの符号化ブロック・パターンの計算を含む本発明の実施形態を示す図である。FIG. 6 illustrates an embodiment of the present invention including calculation of a unified layer coding block pattern. レイヤの空間解像度に基づく選択的な変換累算を含む本発明の実施形態を示す図である。FIG. 6 illustrates an embodiment of the present invention that includes selective transform accumulation based on the spatial resolution of a layer. 変換サイズの選択を含む本発明の実施形態を示すブロック図である。FIG. 6 is a block diagram illustrating an embodiment of the present invention that includes transform size selection. 量子化パラメータに基づく係数スケーリングを含む本発明の実施形態を示すブロック図である。FIG. 3 is a block diagram illustrating an embodiment of the present invention that includes coefficient scaling based on quantization parameters. 隣接マクロブロック・データに基づくエントロピー・エンコーダ制御値の計算を含む本発明の実施形態を示す図である。FIG. 6 illustrates an embodiment of the present invention including calculation of entropy encoder control values based on adjacent macroblock data. 統合されたレイヤの符号化ブロック・パターンの計算を含む本発明の実施形態を示す図である。FIG. 6 illustrates an embodiment of the present invention including calculation of a unified layer coding block pattern. レイヤの空間解像度に基づく選択的な変換累算を含む本発明の実施形態を示すブロック図である。FIG. 6 is a block diagram illustrating an embodiment of the present invention that includes selective transform accumulation based on the spatial resolution of the layers.

本発明の実施形態は、図面を参照することによって最も良く理解できるであろう。全ての図面を通して、同様の部分を同様の数字で示している。上に挙げた各図は、この詳細な説明の一部として明示的に組み込まれるものとする。   Embodiments of the present invention may be best understood with reference to the drawings. Like parts are indicated by like numerals throughout the drawings. Each figure listed above is expressly incorporated as part of this detailed description.

本発明の構成要素は、ここで概略的に説明し図面中に概略的に示したように、多種多様な異なる構成に構成および設計できることが容易に理解できるであろう。したがって、本発明の方法およびシステムの実施形態についての以下のより詳細な説明は、本発明の範囲を制限することを意図したものではなく、本発明の現在の好ましい実施形態の代表例にすぎない。   It will be readily appreciated that the components of the present invention can be configured and designed in a wide variety of different configurations, as generally described herein and schematically illustrated in the drawings. Accordingly, the following more detailed description of the method and system embodiments of the present invention is not intended to limit the scope of the invention, but is merely representative of the presently preferred embodiments of the invention. .

本発明の実施形態の構成要素は、ハードウェア、ファームウェア、および/またはソフトウェアで実現できる。ここで開示した典型的な実施形態は、これら形態の1つについて記述したものにすぎず、当業者であれば、本発明の範囲内にある限りこれらの形態の何れにおいてもこれら構成要素を実施できることが理解できるであろう。   The components of the embodiments of the present invention can be realized by hardware, firmware, and / or software. The exemplary embodiments disclosed herein are only described for one of these forms, and those skilled in the art will implement these components in any of these forms as long as they are within the scope of the present invention. You will understand what you can do.

本発明の一部の実施形態は、スケーラブルなビデオ符号化のための残差の累算のための方法およびシステムを含んでいる。一部の実施形態は、スケーラブルなビットストリームを復号するための方法およびシステムを含んでいる。上記ビットストリームを、エンコーダによって生成し、続いてデコーダに格納および/または伝送することができる。上記デコーダは、上記ビットストリームを解析し、解析されたシンボルを復号された画像のシーケンスに変換することができる。   Some embodiments of the present invention include methods and systems for residual accumulation for scalable video coding. Some embodiments include a method and system for decoding a scalable bitstream. The bitstream can be generated by an encoder and subsequently stored and / or transmitted to a decoder. The decoder can analyze the bitstream and convert the analyzed symbols into a sequence of decoded images.

スケーラブルなビットストリームは、異なる複数の表現の原画像シーケンスを含みうる。1つの具体例では、上記ビットストリーム中の第1レイヤは、上記画像シーケンスの低品質バージョンを含んでおり、上記ビットストリーム中の第2レイヤは、上記画像シーケンスのより高品質のバージョンを含んでいる。第2の具体例では、上記ビットストリーム中の第1レイヤは、上記画像シーケンスの低解像度バージョンを含んでおり、上記ビットストリーム中の第2レイヤは、上記画像シーケンスのより高い解像度バージョンを含んでいる。より複雑な例は当業者に容易に理解できるであろう。より複雑な例は、異なる複数の品質および異なる複数の解像度の組み合わせを含む、複数の表現の画像シーケンスおよび/またはストリームを含みうる。   A scalable bitstream may contain different representations of original image sequences. In one embodiment, the first layer in the bitstream includes a low quality version of the image sequence, and the second layer in the bitstream includes a higher quality version of the image sequence. Yes. In a second example, the first layer in the bitstream includes a low resolution version of the image sequence, and the second layer in the bitstream includes a higher resolution version of the image sequence. Yes. More complex examples will be readily apparent to those skilled in the art. More complex examples may include multiple representations of image sequences and / or streams, including combinations of different qualities and different resolutions.

エンコーダ出力のビットレートを下げるために、スケーラブルなビットストリームは、レイヤ間予測の一形態を含みうる。典型的な実施形態は、AVC|H.264ビデオ符号化標準のためのスケーラブルなビデオ拡張におけるレイヤ間予測を含みうる。上記拡張はSVCとして一般に知られており、SVCシステムはT. Wiegand, G. Sullivan, J. Reichel, H. Schwarz and M. Wien, "Joint Draft 9 of SVC amendment (revision 2)", JVT-V201, Marrakech, Morroco, January 13-19, 2007に記載されている。上記文献は、参照によって本明細書に組み込まれるものとする。上記SVCシステムにおいて、レイヤ間予測は、列挙された下位レイヤから列挙された上位レイヤまで動きおよびモードの情報を投影することによって実現される。それに加えて、予測残差が、列挙された下位レイヤから列挙された上位レイヤへ投影される。したがって、上記の上位レイヤのビットストリームは、復号された出力の質を改善するために追加の残差を含むことができる。   To reduce the bit rate of the encoder output, the scalable bitstream can include a form of inter-layer prediction. Exemplary embodiments include AVC | H. It may include inter-layer prediction in scalable video extensions for the H.264 video coding standard. The above extension is commonly known as SVC, and the SVC system is T. Wiegand, G. Sullivan, J. Reichel, H. Schwarz and M. Wien, "Joint Draft 9 of SVC amendment (revision 2)", JVT-V201. , Marrakech, Morroco, January 13-19, 2007. The above references are hereby incorporated by reference. In the SVC system, inter-layer prediction is realized by projecting motion and mode information from the enumerated lower layers to the enumerated upper layers. In addition, prediction residuals are projected from the enumerated lower layers to the enumerated upper layers. Thus, the above upper layer bitstream can include additional residuals to improve the quality of the decoded output.

ISO/IEC JTC1/SC29/WG11 Information Technology - Coding of Audio-Visual Objects - Part 10: Advanced Video Coding, ISO/IEC 14496-10, 2005も、参照によって本明細書に組み込まれるものとする。   ISO / IEC JTC1 / SC29 / WG11 Information Technology-Coding of Audio-Visual Objects-Part 10: Advanced Video Coding, ISO / IEC 14496-10, 2005 is also incorporated herein by reference.

ITU-T Recommendation H.264: "Advanced video coding for generic audio visual services", March 2003も、参照によって本明細書に組み込まれるものとする。   ITU-T Recommendation H.264: “Advanced video coding for generic audio visual services”, March 2003 is also incorporated herein by reference.

〔SVCからAVCへのビットストリームの書き換え〕
現在のSVCシステムは、基本レイヤに加えてどんなレイヤでもAVCデバイスをサポートできるトランスコーディングを必要としている。これは、SVCの応用範囲を制限する。本発明の実施形態は、SVCビットストリームをAVC準拠のビットストリームへ高速で書き換えることを可能にするために、粗粒度スケーラブルな(coarse grain scalable)レイヤのシンタックス(syntax)およびセマンティックス(semantics)への変更を含んでいる。一部の実施形態では、ネットワークデバイスは、誤差(drift)なしに、かつ、シーケンスを再構成する必要なしに、SVCデータをAVCビットストリームへ書き換えることができる。これは、一部の実施形態では、多数の粗粒度スケーラブルなレイヤをまとめる(merge)ことにより実現できる。
[Rewriting of bit stream from SVC to AVC]
Current SVC systems require transcoding that can support AVC devices at any layer in addition to the base layer. This limits the application range of SVC. Embodiments of the present invention are directed to coarse grain scalable layer syntax and semantics to enable fast rewriting of SVC bitstreams to AVC compliant bitstreams. Includes changes. In some embodiments, the network device can rewrite SVC data into an AVC bitstream without drift and without having to reconstruct the sequence. This can be achieved in some embodiments by merging multiple coarse-grained scalable layers.

本発明の一部の実施形態は、SVCからAVCへのビットストリームの書き換えを含んでいる。このプロセスは、SVCビットストリームを入力として取り込むステップ、およびAVCビットストリームを出力として生成するステップを含みうる。これは概念的にトランスコーディングに類似している。しかしながら、一部の実施形態は、SVCの単一ループ構造を利用し、SVCビットストリームをAVCシンタックス要素上に直接マッピングすることを可能にする。一部の実施形態は、誤差をもたらすことなしに、かつビデオシーケンスの再構成なしに、この機能を実行することができる。   Some embodiments of the present invention include rewriting a bitstream from SVC to AVC. This process may include taking an SVC bitstream as input and generating an AVC bitstream as output. This is conceptually similar to transcoding. However, some embodiments take advantage of the single loop structure of SVC and allow SVC bitstreams to be mapped directly onto AVC syntax elements. Some embodiments can perform this function without introducing errors and without reconstructing the video sequence.

SVCからAVCへのビットストリームへの高速書き換えを可能にする実施形態は、SVCの端々(SVC end-to-end)によってもたらされる追加の費用を負担する必要をなくす。したがって、それは、スケーラブルな機能性がもはや必要でない場合には廃棄(discard)できる。これらの実施形態は、SVCの応用範囲を大きく拡張することができる。典型的な実施形態の限定されない例として、最終の伝送リンクが制約された速度の伝送リンクであるようなシナリオを考える。これは、携帯機器への無線リンクであってもよく、それに代えて高解像度ディスプレイへの無線リンクであってもよい。いずれの場合も、我々は、SVCのスケーラビリティ特徴を用いて送信機での速度を知的に適応させることができる。しかしながら、ビットストリームからSVC成分を取り除くことは、受信デバイスがSVC機能を必要としないので、有利である。これは、より少数のビットが付加ビット(overhead)に割り当てられ、より多くのビットが画像データに利用可能であるので、伝送されるビデオの視覚的な品質を改善する。   Embodiments that allow fast rewriting of SVC to AVC bitstreams eliminate the need to incur additional costs incurred by SVC end-to-end. Therefore, it can be discarded when scalable functionality is no longer needed. These embodiments can greatly expand the application range of SVC. As a non-limiting example of an exemplary embodiment, consider a scenario where the final transmission link is a limited speed transmission link. This may be a wireless link to a portable device, or alternatively a wireless link to a high resolution display. In either case, we can intelligently adapt the speed at the transmitter using the scalability features of SVC. However, removing the SVC component from the bitstream is advantageous because the receiving device does not require SVC functionality. This improves the visual quality of the transmitted video as fewer bits are allocated to overhead and more bits are available for image data.

ビットストリーム書き換えの第2の限定されない例として、多数の異種のデバイスをサポートするシステムを考える。低速の伝送リンクで接続されているデバイスは、SVCビットストリームの一部であるAVC基本レイヤを受け取り、より高速の伝送リンクで接続されているデバイスはAVC基本レイヤに加えて付加的なSVC拡張を受け取る。この拡張データを見るために、これらの受信機は、SVCシーケンスを復号および再構成することができなければならない。これは、これらデバイスを多数用いる用途については、SVCを配備するための多額の出費を招く。セットトップ・ボックス(または他の復号ハードウェア)は、各受信機に配備しなければならない。より費用効率が高い解決策として、ネットワーク内でSVCからAVCへビットストリームを書き換えるプロセスを使用して、全てのデバイスにAVCデータを送出することができる。これは、SVCの配備コストを低減する。   As a second non-limiting example of bitstream rewriting, consider a system that supports a number of disparate devices. Devices connected by a low-speed transmission link receive an AVC base layer that is part of the SVC bitstream, and devices connected by a higher-speed transmission link receive additional SVC extensions in addition to the AVC base layer. receive. In order to see this extension data, these receivers must be able to decode and reconstruct the SVC sequence. This incurs significant expense for deploying SVC for applications that use many of these devices. A set top box (or other decoding hardware) must be deployed at each receiver. As a more cost effective solution, AVC data can be sent to all devices using a process of rewriting the bitstream from SVC to AVC in the network. This reduces SVC deployment costs.

ビットストリーム書き換えの第3の限定されない例として、クライアントデバイスへの最終的な送出のためにメディア・サーバ上にコンテンツを格納するためにSVCを利用する適用を考える。SVCフォーマットは、多数のAVCビットストリームをサーバに保存するのと比較して、必要とする格納スペースが少ないので、非常に魅力的である。しかしながら、それは、さらに、サーバ内のトランスコーディング演算がAVCクライアントをサポートするか、あるいはクライアント上のSVC能力をサポートすることを必要とする。SVCからAVCへのビットストリームの書き換えを可能にすることは、ネットワーク全体にわたってトランスコーディングおよび/またはSVCの能力を計算上要求することを必要とせずに、メディア・サーバがSVCを利用して効率を符号化することを可能にする。   As a third non-limiting example of bitstream rewriting, consider an application that uses SVC to store content on a media server for final delivery to a client device. The SVC format is very attractive because it requires less storage space than storing a large number of AVC bitstreams on a server. However, it further requires that the transcoding operations in the server support AVC clients or support SVC capabilities on the clients. Enabling SVC-to-AVC bitstream rewriting allows the media server to use SVC to increase efficiency without requiring computationally demanding transcoding and / or SVC capabilities throughout the network. Allows encoding.

ビットストリーム書き換えの第4の限定されない例として、SVCからAVCへビットストリームを書き換えるプロセスは、SVCデコーダのハードウェアの設計を簡素化する。現在、SVCデコーダは、AVCの復号および再構成のロジック全体にわたって修正を必要とする。SVCからAVCビットストリームへの書き換えを可能にすることで、AVCとSVCとの間の差は、エントロピー・デコーダおよび係数スケーリング演算に集約される。これは、最終の再構成ループがAVC再構成プロセスと同一であるので、SVC復号プロセスの設計を簡素化する。さらに、SVC再構成ステップは、1つのブロック当たりただ1つの予測演算とただ1つの逆変換演算とを含むことが保証される。これは、現在のSVC演算と異なるものであり、多数の逆変換演算とイントラ予測のための可変の参照データとを必要とする。   As a fourth non-limiting example of bitstream rewriting, the process of rewriting a bitstream from SVC to AVC simplifies the hardware design of the SVC decoder. Currently, SVC decoders require modification throughout the AVC decoding and reconstruction logic. By enabling rewriting from SVC to AVC bitstream, the difference between AVC and SVC is aggregated into an entropy decoder and coefficient scaling operation. This simplifies the design of the SVC decoding process because the final reconstruction loop is identical to the AVC reconstruction process. Furthermore, the SVC reconstruction step is guaranteed to include only one prediction operation and only one inverse transformation operation per block. This is different from the current SVC operation and requires a large number of inverse transform operations and variable reference data for intra prediction.

本発明の一部の実施形態は、SVCビットストリームからAVCビットストリームへの直接マッピングを可能にするために、SVC粗粒度スケーラビリティ・レイヤに対する変更を含んでいる。これらの変更は、修正されたIntraBLモードと、インター符号化(画面間符号化)された拡張レイヤ中のBLSkipブロックの変換についての制限とを含む。一部の実施形態では、これらの変更は、シーケンス基準で、場合によってはシーケンス基準およびスライス基準の両方で、送られたフラグによって実施できる。   Some embodiments of the present invention include changes to the SVC coarse-grained scalability layer to allow direct mapping from SVC bitstream to AVC bitstream. These changes include a modified IntraBL mode and restrictions on the conversion of BLSkip blocks in an inter-coded (inter-frame coded) enhancement layer. In some embodiments, these changes can be made by flags sent on a sequence basis, and possibly both a sequence basis and a slice basis.

〔インター符号化ブロック〕
一部の実施形態は、インター符号化ブロックのための変更を含んでいる。これらの変更は、以下のものを含んでいる。基本レイヤ・ブロックから推定(infer)されるブロックは、基本レイヤ・ブロックと同じ変換を用いなければならない。例えば、粗粒度スケーラブルなレイヤ中のブロックが1に等しいbase_mode_flagを有しており、かつ同じ場所にある基本レイヤ・ブロックが4×4変換を用いる場合、拡張レイヤ・ブロックも4×4変換を用いなければならない。
[Inter coding block]
Some embodiments include modifications for inter-coded blocks. These changes include the following: A block that is inferred from a base layer block must use the same transform as the base layer block. For example, if a block in a coarse-grained scalable layer has base_mode_flag equal to 1, and a base layer block in the same location uses 4x4 transform, the enhancement layer block also uses 4x4 transform There must be.

基本レイヤ・ブロックから推定され、かつ残差予測を用いるブロックの再構成は、変換領域に生じなければならない。ここで、基本レイヤ・ブロックが空間領域中で再構成され、次いで、残差が拡張レイヤ中で伝送されるであろう。これらの実施形態では、基本レイヤ・ブロックの変換係数は、デコーダでスケーリングされ、拡張レイヤ中の情報によって微調整(refine)され、次いで逆変換される。   Reconstruction of blocks that are estimated from base layer blocks and that use residual prediction must occur in the transform domain. Here, the base layer block will be reconstructed in the spatial domain and then the residual will be transmitted in the enhancement layer. In these embodiments, the base layer block transform coefficients are scaled at the decoder, refined with information in the enhancement layer, and then inverse transformed.

avc_rewriteフラグが1である場合、smoothed_reference_flagは0であるものとする。   When the avc_rewrite flag is 1, smoothed_reference_flag is 0.

〔イントラ符号化ブロック〕
イントラ符号化(画面内符号化)ブロックは、SVCからAVCへの書き換えの問題に、追加の障害を生じさせる。上記CGSシステム内では、拡張レイヤ中のブロックをIntraBLモードで符号化してもよい。このモードは、基本レイヤ中のイントラ符号化ブロックが復号され予測に使用されるべきであることを情報伝達する。その後、追加の残差を、拡張レイヤ中で情報伝達することができる。SVCからAVCへの書き換えを行うシステム内では、これは障害を作成する。なぜなら、再構成されたイントラ符号化ブロックを、その近傍の空間的予測と情報伝達された残差との和として記述することができないからである。したがって、イントラ符号化ブロックをSVCからAVCへトランスコードされなければならない。これは、追加の計算上の複雑さを必要とする。さらに、それは、動き補償を介して伝播(propagate)しうる符号化誤差をもたらす。
[Intra coding block]
The intra coding (intra-screen coding) block causes an additional obstacle to the problem of rewriting from SVC to AVC. Within the CGS system, blocks in the enhancement layer may be encoded in IntraBL mode. This mode conveys that intra-coded blocks in the base layer should be decoded and used for prediction. The additional residual can then be communicated in the enhancement layer. In a system that rewrites from SVC to AVC, this creates a fault. This is because the reconstructed intra-coded block cannot be described as the sum of the spatial prediction in the vicinity thereof and the information-transferred residual. Therefore, intra-coded blocks must be transcoded from SVC to AVC. This requires additional computational complexity. In addition, it introduces coding errors that can be propagated through motion compensation.

本発明の一部の実施形態について図1Aを参照して説明する。これらの実施形態に係る、デコーダまたはリライタ(システム)は、第1の逆量子化器5、スケーラ6、第2の逆量子化器11、第1の加算器(係数統合器)7、逆変換器10、および第2の加算器(第2の統合器)9を含んでいる。これらの実施形態では、基本レイヤの残差(基本レイヤの量子化された変換係数)1、予測モード・データ2、および拡張レイヤの残差(拡張レイヤの量子化された変換係数)3を、デコーダまたはリライタで受け取る。近隣ブロック・データ4も、デコーダ/リライタで既知である。第1の逆量子化器5が、基本レイヤの残差データ1を逆量子化し、それによって基本レイヤの変換係数を作成することができ、また、スケーラ6が、変換係数を拡張レイヤの特性と整合するようにスケーリングし、それによって基本レイヤのスケーリングされた変換係数を作成することができる。一部の実施形態では、整合される特性は、量子化パラメータ特性を含みうる。さらにまた、拡張レイヤの残差3が、第2の逆量子化器11によって逆量子化され、第1の加算器7によって、基本レイヤのスケーリングされた残差の係数(基本レイヤのスケーリングされた変換係数)に加算され、それによって統合された係数を形成することができる。その後、逆変換器10が、統合された係数を逆変換して空間領域強度値を生成する。一部の実施形態では、拡張レイヤ情報を、必要としない場合には無視することができる。予測モード・データ2および近隣ブロック・データ4は、イントラ予測8による予測ブロックの決定に使用される。その後、第2の加算器9が、基本レイヤおよび拡張レイヤからの空間領域強度値に対して予測ブロックを加算して、復号されたブロック12を生成する。   Some embodiments of the present invention will be described with reference to FIG. 1A. The decoder or rewriter (system) according to these embodiments includes a first inverse quantizer 5, a scaler 6, a second inverse quantizer 11, a first adder (coefficient integrator) 7, and an inverse transform. And a second adder (second integrator) 9. In these embodiments, base layer residuals (base layer quantized transform coefficients) 1, prediction mode data 2, and enhancement layer residuals (enhancement layer quantized transform coefficients) 3 are: Received by decoder or rewriter. Neighboring block data 4 is also known by the decoder / rewriter. The first dequantizer 5 can dequantize the residual data 1 of the base layer, thereby creating the transform coefficient of the base layer, and the scaler 6 can convert the transform coefficient to the characteristics of the enhancement layer. Scale to match, thereby creating a base layer scaled transform coefficient. In some embodiments, the matched characteristics may include quantization parameter characteristics. Furthermore, the enhancement layer residual 3 is dequantized by the second dequantizer 11 and the first adder 7 scales the base layer scaled residual coefficient (the base layer scaled). Conversion coefficients), thereby forming an integrated coefficient. Thereafter, the inverse transformer 10 inversely transforms the integrated coefficients to generate a spatial domain intensity value. In some embodiments, enhancement layer information can be ignored if not required. Prediction mode data 2 and neighboring block data 4 are used to determine a prediction block by intra prediction 8. Thereafter, the second adder 9 adds the prediction block to the spatial domain intensity values from the base layer and the enhancement layer to generate a decoded block 12.

本発明の一部の実施形態について図1Bを参照して説明する。これらの実施形態では、基本レイヤの残差1、予測モード2、および拡張レイヤの残差3を、デコーダまたはリライタで受け取る。近隣ブロック・データ135も、デコーダ/リライタで既知であり、予測(134)に使用できる。これらの実施形態では、基本レイヤの量子化された変換係数1を拡張レイヤの特性と整合するようにスケーリングし(130)、それによって基本レイヤのスケーリングされた変換係数を作成することができる。一部の実施形態では、整合される特性は、量子化パラメータ特性を含みうる。拡張レイヤの量子化された変換係数を基本レイヤの量子化されスケーリングされた変換係数3に加算して(131)、量子化され統合された係数を作成することができる。その後、量子化され統合された係数を逆量子化して(132)、統合され非量子化された係数を生成することができる。その後、統合され非量子化された係数を逆変換して(133)、統合された空間領域値を生成することができる。その後、これらの空間領域値を予測データと統合して(136)、再構成された画像137を形成することができる。   Some embodiments of the present invention are described with reference to FIG. 1B. In these embodiments, base layer residual 1, prediction mode 2, and enhancement layer residual 3 are received at a decoder or rewriter. Neighboring block data 135 is also known at the decoder / rewriter and can be used for prediction (134). In these embodiments, the base layer quantized transform coefficient 1 may be scaled 130 to match the characteristics of the enhancement layer, thereby creating a base layer scaled transform coefficient. In some embodiments, the matched characteristics may include quantization parameter characteristics. The quantized transform coefficients of the enhancement layer can be added (131) to the quantized scaled transform coefficient 3 of the base layer to create a quantized and integrated coefficient. The quantized and integrated coefficients can then be dequantized (132) to produce integrated and unquantized coefficients. The integrated and unquantized coefficients can then be inverse transformed (133) to generate integrated spatial domain values. These spatial region values can then be integrated with the prediction data (136) to form a reconstructed image 137.

本発明の一部の実施形態について図2Aを参照して説明する。これらの実施形態では、ビットストリームが、画像の完全な再構成なしに再符号化される。これらの実施形態では、基本レイヤ(BL)の残差データ1を、デコーダ、トランスコーダ、エンコーダのデコーダ部分、もしくは他のデバイスまたはモジュールで受け取ることができる。拡張レイヤ(EL)の残差データ3も、上記のデバイスまたはモジュールで受け取ることができる。これらの実施形態では、第1の逆量子化器5が、BLの残差1を逆量子化してBLの変換係数を生成することができる。その後、スケーラ6が、これらのBLの変換係数を拡張レイヤの特性と整合するようにスケーリングし、それによってBLの変換係数を作成することができる。一部の実施形態では、この拡張レイヤの特性は、量子化パラメータであってもよく、解像度パラメータであってもよく、基本レイヤを拡張レイヤに関連付ける何らかの他のパラメータであってもよい。さらにまた、第2の逆量子化器11が、拡張レイヤデータ3を逆量子化して拡張レイヤの係数18を生成することができる。その後、係数統合器19が、スケーリングされたBL係数16を、スケーリングされたBL係数と統合して、統合された係数17を生成することができる。その後、ビットストリーム・エンコーダ(ビットストリーム生成器)13が、統合された係数を縮小レイヤ(reduced-layer)または単一レイヤのビットストリームに書き換えることができる。ビットストリーム・エンコーダ13は、さらに予測データ2をビットストリーム中に書き込むことができる。ビットストリーム・エンコーダ13の機能は、量子化機能、エントロピー符号化機能、および他の機能をさらに含んでいてもよい。   Some embodiments of the present invention are described with reference to FIG. 2A. In these embodiments, the bitstream is re-encoded without complete reconstruction of the image. In these embodiments, the base layer (BL) residual data 1 may be received at a decoder, transcoder, decoder portion of an encoder, or other device or module. The enhancement layer (EL) residual data 3 can also be received by the device or module described above. In these embodiments, the first inverse quantizer 5 can inverse quantize the residual 1 of BL to generate a transform coefficient of BL. The scaler 6 can then scale these BL transform coefficients to match the enhancement layer characteristics, thereby creating the BL transform coefficients. In some embodiments, the enhancement layer characteristic may be a quantization parameter, a resolution parameter, or some other parameter that associates the base layer with the enhancement layer. Furthermore, the second inverse quantizer 11 can inverse quantize the enhancement layer data 3 to generate the enhancement layer coefficient 18. A coefficient integrator 19 can then integrate the scaled BL coefficient 16 with the scaled BL coefficient to produce the integrated coefficient 17. A bitstream encoder (bitstream generator) 13 can then rewrite the combined coefficients into a reduced-layer or single layer bitstream. The bitstream encoder 13 can further write the prediction data 2 into the bitstream. The function of the bitstream encoder 13 may further include a quantization function, an entropy encoding function, and other functions.

本発明の一部の実施形態について図2Bを参照して説明する。これらの実施形態では、ビットストリームは、画像の完全な再構成なしに、かつ逆量子化なしに、再符号化される。これらの実施形態では、基本レイヤ(BL)の残差データ36を、デコーダ、トランスコーダ、エンコーダのデコーダ部分、もしくは他のデバイスまたははモジュールで受け取ることができる。拡張レイヤ(EL)データ37も、上記デバイスまたはモジュールで受け取ることができる。これらの実施形態では、BLの信号36および拡張レイヤの信号37をエントロピー復号して、量子化された係数またはインデックス21および23を生成することができる。その後、BLの量子化インデックス21を拡張レイヤの特性と整合するようにスケーリングし(20)、それによってBLのスケーリングされたインデックスを作成することができる。一部の実施形態では、この拡張レイヤの特性は、量子化パラメータであってもよく、解像度パラメータであってもよく、基本レイヤを拡張レイヤに関連付ける何らかの他のパラメータであってもよい。その後、スケーリングされたBLインデックス26をELのインデックス23と統合して(24)、統合されたインデックス27を生成することができる。その後、ビットストリーム・エンコーダ25が、統合された係数を縮小レイヤまたは単一レイヤのビットストリーム28に書き換えることができる。ビットストリーム・エンコーダ25は、さらに予測データ35をビットストリーム中に書き込むことができる。ビットストリーム・エンコーダ25の機能は、量子化機能、エントロピー符号化機能、および他の機能も含みうる。   Some embodiments of the present invention will be described with reference to FIG. 2B. In these embodiments, the bitstream is re-encoded without complete reconstruction of the image and without inverse quantization. In these embodiments, base layer (BL) residual data 36 may be received at a decoder, transcoder, decoder portion of an encoder, or other device or module. Enhancement layer (EL) data 37 may also be received at the device or module. In these embodiments, the BL signal 36 and enhancement layer signal 37 may be entropy decoded to generate quantized coefficients or indices 21 and 23. The BL quantization index 21 can then be scaled (20) to match the enhancement layer characteristics, thereby creating a BL scaled index. In some embodiments, the enhancement layer characteristic may be a quantization parameter, a resolution parameter, or some other parameter that associates the base layer with the enhancement layer. The scaled BL index 26 can then be integrated (24) with the EL index 23 to generate an integrated index 27. The bitstream encoder 25 can then rewrite the combined coefficients into a reduced layer or single layer bitstream 28. The bitstream encoder 25 can further write prediction data 35 into the bitstream. The functions of the bitstream encoder 25 may also include a quantization function, an entropy encoding function, and other functions.

これらの実施形態では、基本レイヤ・ブロックを完全に再構成する必要はない。それに代えて、イントラ予測モードおよび残差データが両方とも、拡張レイヤにマッピングされる。その後、拡張レイヤから追加の残差データが加算される。最後に、上記ブロックが再構成される。このアプローチの利点は、損失なしに、かつ基本レイヤを完全に復号する必要なしに、拡張ブロックを単一レイヤのビットストリーム中に書くことができるということである。   In these embodiments, the base layer block need not be completely reconstructed. Instead, both intra prediction mode and residual data are mapped to the enhancement layer. Thereafter, additional residual data is added from the enhancement layer. Finally, the block is reconstructed. The advantage of this approach is that the extended block can be written in a single layer bitstream without loss and without having to completely decode the base layer.

本発明の一部の実施形態は、残差予測フラグの使用なしに、CGSシステム中の複数のレイヤ間で動きデータを伝播することを含んでいる。これらの実施形態は、基本レイヤから拡張レイヤへイントラ予測モードを伝播させる、改良されたIntraBL方法を含んでいる。その後、イントラ予測が拡張レイヤで行われる。   Some embodiments of the invention include propagating motion data between multiple layers in a CGS system without the use of residual prediction flags. These embodiments include an improved IntraBL method that propagates the intra prediction mode from the base layer to the enhancement layer. Thereafter, intra prediction is performed in the enhancement layer.

これらの実施形態では、IntraBLブロックの変換タイプは、同じ場所にある基本レイヤ・ブロックと同じでなければならない。例えば、基本レイヤ・ブロックが8×8変換を用いる場合、拡張レイヤ・ブロックも8×8変換を用いなければならない。   In these embodiments, the transform type of the IntraBL block must be the same as the base layer block at the same location. For example, if the base layer block uses an 8x8 transform, the enhancement layer block must also use an 8x8 transform.

一部の実施形態では、ビットストリームの独立した処理を可能にするために、8×8変換フラグも拡張レイヤ中で伝送することができる。   In some embodiments, an 8x8 conversion flag can also be transmitted in the enhancement layer to allow independent processing of the bitstream.

一部の典型的な実施形態では、基本レイヤ中の16×16変換によって符号化されたブロックも、拡張レイヤ中の16×16変換によって符号化される。しかしながら、拡張レイヤ・ブロックは4×4走査のパターンおよび方法で伝送される。すなわち一部の実施形態では、16×16ブロックのDC係数およびAC係数が別々に送られない。   In some exemplary embodiments, blocks encoded by a 16x16 transform in the base layer are also encoded by a 16x16 transform in the enhancement layer. However, enhancement layer blocks are transmitted in a 4x4 scan pattern and method. That is, in some embodiments, the 16 × 16 block of DC and AC coefficients are not sent separately.

本発明の一部の実施形態について図3および図11を参照して説明する。これらの実施形態に係るシステムは、サイズ決定器201、決定器202、第1の選択器203、および第2の選択器204を含んでいる。マルチレイヤ画像を含むこれらの実施形態では、1つのレイヤから別のレイヤへイントラ予測モードおよび変換データを推定することができる。一部の実施形態では、サイズ決定器201が第1レイヤの変換サイズを決定することができる(30)。第1レイヤは、基本レイヤであってもよく、別のレイヤを予測する基となるレイヤであってもよい。これらの実施形態では、予め定められた変換サイズが確立される。その後、第1レイヤの変換サイズが、予め定められた(予め規定された)変換サイズと比較される。すなわち、判定器202は、下位レイヤの変換サイズが予め定められた変換サイズと同じである(実質的に類似している)かを判定する。第1レイヤの変換サイズが予め定められた変換サイズと同じである場合(31)、第1の選択器203が予め定められた変換サイズを逆変換演算に選択する(33)。第1レイヤの変換サイズが予め定められた変換サイズと同じでない場合(31)、第2の選択器204がデフォルト変換サイズを逆変換演算に選択する(32)。一部の実施形態では、予め定められた変換サイズを8×8とすることができ、また、デフォルト変換サイズを4×4とすることができる。   Some embodiments of the present invention will be described with reference to FIGS. The system according to these embodiments includes a size determiner 201, a determiner 202, a first selector 203, and a second selector 204. In those embodiments involving multi-layer images, intra prediction modes and transform data can be estimated from one layer to another. In some embodiments, the size determiner 201 can determine the transform size of the first layer (30). The first layer may be a base layer or a layer that is a basis for predicting another layer. In these embodiments, a predetermined transform size is established. Thereafter, the conversion size of the first layer is compared with a predetermined (predetermined) conversion size. That is, the determiner 202 determines whether the conversion size of the lower layer is the same (substantially similar) to a predetermined conversion size. When the conversion size of the first layer is the same as the predetermined conversion size (31), the first selector 203 selects the predetermined conversion size for the inverse conversion operation (33). If the conversion size of the first layer is not the same as the predetermined conversion size (31), the second selector 204 selects the default conversion size for the inverse conversion operation (32). In some embodiments, the predetermined transform size can be 8 × 8 and the default transform size can be 4 × 4.

一部の実施形態では、予め定められた変換サイズも、特別の走査のパターンおよび方法に関連付けることができる。これらの実施形態では、第1レイヤの変換サイズと予め定められた変換サイズとの関係も、特別な符号化の方法およびパターンをトリガーすることができる。例えば、一部の実施形態では、予め定められた変換サイズを16×16とすることができ、予め定められた16×16のサイズと実際の下位レイヤのサイズとの一致は、「16×16が使用されることになっているが、AC係数およびDC係数が一緒に伝送される4×4の走査パターンおよび走査方法でデータが符号化されている」ことを示しうる。   In some embodiments, a predetermined transform size can also be associated with a particular scan pattern and method. In these embodiments, the relationship between the transform size of the first layer and a predetermined transform size can also trigger a special encoding method and pattern. For example, in some embodiments, the predetermined transform size may be 16 × 16, and the match between the predetermined 16 × 16 size and the actual lower layer size is “16 × 16 May be used, but the data is encoded with a 4 × 4 scan pattern and scan method in which AC and DC coefficients are transmitted together.

本発明の一部の実施形態について図4を参照して説明する。これらの実施形態では、マルチレイヤ・ビットストリームを解析(40)および処理して、基本レイヤの変換サイズを決定すると共に、BLの係数値を生成する。ビットストリームの拡張レイヤも解析して(41)、変換指標が存在するかを判定する。拡張レイヤの変換指標がビットストリーム中に存在する場合(42)、指し示された変換サイズをELの係数の逆変換に用いることができる(43)。拡張レイヤの変換指標がビットストリーム中に存在しない場合(42)、基本レイヤの変換サイズが8×8であるかを判定する(44)。基本レイヤの変換サイズが8×8である場合、8×8変換サイズを用いて拡張レイヤを逆変換する(46)。基本レイヤの変換サイズが8×8でない場合、4×4などのようなデフォルト変換サイズを用いて拡張レイヤを逆変換することができる(45)。   Some embodiments of the present invention will be described with reference to FIG. In these embodiments, the multi-layer bitstream is analyzed (40) and processed to determine the transform size of the base layer and generate the BL coefficient values. The enhancement layer of the bitstream is also analyzed (41) to determine whether a conversion index exists. If the enhancement layer transform index is present in the bitstream (42), the indicated transform size can be used for the inverse transform of the EL coefficients (43). When the enhancement layer conversion index does not exist in the bitstream (42), it is determined whether the conversion size of the base layer is 8 × 8 (44). When the transform size of the base layer is 8 × 8, the enhancement layer is inversely transformed using the 8 × 8 transform size (46). If the base layer transform size is not 8 × 8, the enhancement layer can be inverse transformed using a default transform size such as 4 × 4 (45).

本発明の一部の実施形態では、イントラ予測モードは、IntraBLブロック中の基本レイヤからイントラ予測モードを推定することによって、基本レイヤから直接コピーすることができる。一部の代替の実施形態では、それは、基本レイヤのモードと異なり符号化することができる。一部の実施形態では、AVC中でイントラ予測モードを情報伝達するための現行の方法を用いることができる。しかしながら、これらの実施形態では、予測されるモード(または最も可能性の高いモード)は、基本レイヤのモードと等しくなるよう設定される。   In some embodiments of the invention, the intra prediction mode can be copied directly from the base layer by estimating the intra prediction mode from the base layer in the IntraBL block. In some alternative embodiments, it may be encoded differently from the base layer mode. In some embodiments, current methods for signaling intra prediction modes in AVC can be used. However, in these embodiments, the predicted mode (or most likely mode) is set equal to the base layer mode.

一部の実施形態では、8×8変換フラグを拡張レイヤのビットストリームから省略してもよく、また、変換を基本レイヤモードから推定してもよい。   In some embodiments, the 8x8 transform flag may be omitted from the enhancement layer bitstream and the transform may be estimated from the base layer mode.

一部の実施形態では、16×16変換係数を、基本レイヤ中および拡張レイヤ中の両方において同じ方法で情報伝達することができる。16×16変換の存在は、拡張レイヤ中の追加のフラグで情報伝達してもよく、基本レイヤのビットストリームから推定してもよい。   In some embodiments, 16 × 16 transform coefficients may be communicated in the same way both in the base layer and in the enhancement layer. The presence of a 16x16 transform may be signaled with an additional flag in the enhancement layer, and may be estimated from the base layer bitstream.

本発明の一部の実施形態は、IntraBLブロックのための残差予測フラグを含んでいる。これらの実施形態は、基本レイヤの残差を適応的に使用して拡張レイヤのイントラ予測されたブロックを改良することを可能にする。   Some embodiments of the present invention include a residual prediction flag for IntraBL blocks. These embodiments allow base layer residuals to be used adaptively to improve enhancement layer intra-predicted blocks.

本発明の一部の実施形態では、AVCビットストリームに直接マッピングすることができない、SVCビットストリーム中のモードを全て、エンコーダが無効にすることができる。これらの実施形態のための情報伝達は、SVCビットストリーム中で行うことができる。一部の典型的な実施形態では、この情報伝達は、シーケンス・ヘッダー中、シーケンス・パラメータ・セット中、ピクチャ・パラメータ・セット中、スライス・ヘッダ中、または他の所で、起こりうる。一部の実施形態で、この情報伝達は、SEIメッセージ中で起こりうる。典型的な実施形態では、この情報伝達は、空間スケーラビリティSEIメッセージ中で起こりうる。一部の実施形態では、この情報伝達は他の帯域外方法によって起こり得るし、一部の場合には、SVC復号演算に対して標準の変更を加えることを必要としないであろう。   In some embodiments of the invention, the encoder can disable all modes in the SVC bitstream that cannot be mapped directly to the AVC bitstream. Information transfer for these embodiments can occur in the SVC bitstream. In some exemplary embodiments, this communication can occur in the sequence header, in the sequence parameter set, in the picture parameter set, in the slice header, or elsewhere. In some embodiments, this communication can occur in SEI messages. In an exemplary embodiment, this communication can occur in a spatial scalability SEI message. In some embodiments, this signaling may occur by other out-of-band methods and in some cases may not require standard changes to the SVC decoding operation.

一部の実施形態では、エンコーダがこの動作モードを情報伝達すると、デコーダは、AVCに翻訳できるビットストリームをエンコーダが生成しているとみなすことができる。一部の典型的な実施形態では、エンコーダは、このモードで動作しているとき、IntraBLブロックモードまたは平滑化参照ツールを用いなくてもよい。さらに、これらの実施形態では、エンコーダは、基本レイヤの変換係数をスケーリングし、次いで伝送された残差を加算することによって、残差データを組み込む(incorporate)ことができることを保証できる。これらの実施形態は、エンコーダが基本レイヤ中および拡張レイヤ中で同じ変換方法を用いることを必要とする可能性がある。   In some embodiments, once the encoder communicates this mode of operation, the decoder can assume that the encoder is generating a bitstream that can be translated into AVC. In some exemplary embodiments, the encoder may not use the IntraBL block mode or smoothing reference tool when operating in this mode. Furthermore, in these embodiments, the encoder can ensure that residual data can be incorporated by scaling the base layer transform coefficients and then adding the transmitted residuals. These embodiments may require the encoder to use the same conversion method in the base layer and in the enhancement layer.

〔CGSのためのSVCからAVCへのビットストリーム書き換え:シンタックス〕
F.7.3.2 シーケンス・パラメータ・セットSVC拡張のシンタックス
[Bitstream rewriting from SVC to AVC for CGS: syntax]
F.7.3.2 Sequence Parameter Set SVC Extension Syntax

Figure 2009543501
Figure 2009543501

Figure 2009543501
Figure 2009543501

F.7.3.4 スケーラブルな拡張におけるスライス・ヘッダ F.7.3.4 Slice header in scalable extensions

Figure 2009543501
Figure 2009543501

Figure 2009543501
Figure 2009543501

Figure 2009543501
Figure 2009543501

Figure 2009543501
Figure 2009543501

Figure 2009543501
Figure 2009543501

F.7.3.6.3 スケーラブルな拡張における残差のシンタックス F.7.3.6.3 Residual syntax in scalable extensions

Figure 2009543501
Figure 2009543501

Figure 2009543501
Figure 2009543501

Figure 2009543501
Figure 2009543501

F.7.3.2 シーケンス・パラメータ・セットSVC拡張のセマンティックス
0に等しいnal_unit_extension_flagは、(dependency_id,temporal_level,quality_level)へのsimple_priority_idのマッピングを指定するパラメータがシーケンス・パラメータ・セット中で次に続くことを示す。1に等しいnal_unit_extension_flagは、(dependency_id,temporal_level,quality_level)へのsimple_priority_idのマッピングを指定するパラメータが存在しないことを示す。nal_unit_extension_flagが存在しない場合、nal_unit_extension_flagが1に等しいと推定されるものとする。現(current)シーケンス・パラメータ・セットを参照する、20および21に等しいnal_unit_typeを持つ、全てのNALユニットのNALユニットシンタックス要素extension_flagは、nal_unit_extension_flagに等しいものとする。
F.7.3.2 Sequence Parameter Set SVC Extension Semantics nal_unit_extension_flag equal to 0 indicates that the parameter specifying the mapping of simple_priority_id to (dependency_id, temporal_level, quality_level) follows in the sequence parameter set . Nal_unit_extension_flag equal to 1 indicates that there is no parameter that specifies mapping of simple_priority_id to (dependency_id, temporal_level, quality_level). When nal_unit_extension_flag does not exist, it is assumed that nal_unit_extension_flag is equal to 1. The NAL unit syntax element extension_flag of all NAL units with nal_unit_type equal to 20 and 21 that refer to the current sequence parameter set shall be equal to nal_unit_extension_flag.

注:profile_idcが83に等しくない場合、現シーケンス・パラメータ・セットを参照する、20および21に等しいnal_unit_typeを持つ、全てのNALユニットのシンタックス要素extension_flagは、1に等しいものとする.
number_of_simple_priority_id_values_minus1に1を加えた値は、(dependency_id,temporal_level,quality_level)へのマッピングがシーケンス・パラメータ・セット中で次に続くパラメータによって指定される、simple_priority_idの値の個数を指定する。number_of_simple_priority_id_values_minus1の値は、0〜63の範囲内にあるものとする。
Note: If profile_idc is not equal to 83, the syntax element extension_flag of all NAL units with nal_unit_type equal to 20 and 21 referring to the current sequence parameter set shall be equal to 1.
A value obtained by adding 1 to number_of_simple_priority_id_values_minus1 specifies the number of values of simple_priority_id that is specified by a parameter that is mapped to (dependency_id, temporal_level, quality_level) in the sequence parameter set. The value of number_of_simple_priority_id_values_minus1 is assumed to be in the range of 0-63.

priority_id、dependency_id_list[priority_id]、temporal_level_list[priority_id]、quality_level_list[priority_id]は、従属節F.7.4.1で示すシンタックス要素dependency_id、temporal_level、およびquality_levelを推定するプロセスを指定する。priority_idの全ての値についてdependency_list[priority_id]、temporal_level_list[priority_id]、およびquality_level_list[priority_id]が存在しない場合、dependency_list[priority_id]、temporal_level_list[priority_id]、およびquality_level_list[priority_id]が0に等しいと推定されるものとする。   priority_id, dependency_id_list [priority_id], temporal_level_list [priority_id], and quality_level_list [priority_id] specify the process for estimating the syntax elements dependency_id, temporal_level, and quality_level shown in subordinate clause F.7.4.1. If dependency_list [priority_id], temporal_level_list [priority_id], and quality_level_list [priority_id] do not exist for all values of priority_id, dependency_list [priority_id], temporal_level_list [priority_id], and quality_level_list [priority_id] are estimated to be equal to 0 And

extended_spatial_scalabilityは、基本レイヤのアップサンプリングのための幾何学的パラメータに関連付けられたシンタックス要素の存在を示す。extended_spatial_scalabilityが0に等しい場合、幾何学的パラメータがビットストリーム中にない。extended_spatial_scalabilityが1に等しい場合、幾何学的パラメータがシーケンス・パラメータ・セット中にある。extended_spatial_scalabilityが2に等しい場合、幾何学的パラメータがslice_data_in_scalable_extension中にある。3の値は、extended_spatial_scalabilityには未使用である。extended_spatial_scalabilityが存在しない場合、extended_spatial_scalabilityが0に等しいと推定されるものとする。   extended_spatial_scalability indicates the presence of a syntax element associated with a geometric parameter for base layer upsampling. If extended_spatial_scalability is equal to 0, the geometric parameter is not in the bitstream. If extended_spatial_scalability is equal to 1, the geometric parameter is in the sequence parameter set. If extended_spatial_scalability is equal to 2, the geometric parameter is in slice_data_in_scalable_extension. A value of 3 is not used for extended_spatial_scalability. When extended_spatial_scalability does not exist, it is assumed that extended_spatial_scalability is equal to 0.

scaled_base_left_offsetは、アップサンプリングされた基本レイヤのピクチャの左上の画素と現レイヤのピクチャの左上の画素との間の水平オフセットを2つの輝度サンプルの単位で指定する。scaled_base_left_offsetが存在しない場合、scaled_base_left_offsetが0に等しいと推定されるものとする。   scaled_base_left_offset specifies the horizontal offset between the upper left pixel of the up-sampled base layer picture and the upper left pixel of the current layer picture in units of two luminance samples. When scaled_base_left_offset does not exist, it is assumed that scaled_base_left_offset is equal to 0.

変数ScaledBaseLeftOffsetは、次のように規定される:
ScaledBaseLeftOffset=2*scaled_base_left_offset (F−40)
変数ScaledBaseLeftOffsetCは、次のように規定される:
ScaledBaseLeftOffsetC=ScaledBaseLeftOffset/SubWidthC (F−41)
scaled_base_top_offsetは、アップサンプリングされた基本レイヤのピクチャの左上の画素と現レイヤのピクチャの左上の画素との間の垂直オフセットを2つの輝度サンプルの単位で指定する。scaled_base_top_offsetが存在しない場合、scaled_base_top_offsetが0に等しいと推定されるものとする。
The variable ScaledBaseLeftOffset is specified as follows:
ScaledBaseLeftOffset = 2 * scaled_base_left_offset (F-40)
The variable ScaledBaseLeftOffsetC is defined as follows:
ScaledBaseLeftOffsetC = ScaledBaseLeftOffset / SubWidthC (F-41)
scaled_base_top_offset specifies the vertical offset between the upper left pixel of the upsampled base layer picture and the upper left pixel of the current layer picture in units of two luminance samples. When scaled_base_top_offset does not exist, it is assumed that scaled_base_top_offset is equal to 0.

変数ScaledBaseTopOffsetは、次のように規定される。   The variable ScaledBaseTopOffset is defined as follows.

ScaledBaseTopOffset=2*scaled_base_top_offset (F−42)
変数ScaledBaseTopOffsetCは、次のように規定される。
ScaledBaseTopOffset = 2 * scaled_base_top_offset (F-42)
The variable ScaledBaseTopOffsetC is defined as follows.

ScaledBaseTopOffsetC=ScaledBaseTopOffset/SubHeightC (F−43)
scaled_base_right_offsetは、アップサンプリングされた基本レイヤのピクチャの右下画素と現レイヤのピクチャの右下画素との間の水平オフセットを2つの輝度サンプルの単位で指定する。scaled_base_right_offsetが存在しない場合、scaled_base_right_offsetが0に等しいと推定されるものとする。
ScaledBaseTopOffsetC = ScaledBaseTopOffset / SubHeightC (F-43)
scaled_base_right_offset specifies the horizontal offset between the lower right pixel of the upsampled base layer picture and the lower right pixel of the current layer picture in units of two luminance samples. When scaled_base_right_offset does not exist, it is assumed that scaled_base_right_offset is equal to 0.

変数ScaledBaseRightOffsetは、次のように規定される。   The variable ScaledBaseRightOffset is defined as follows.

ScaledBaseRightOffset=2*scaled_base_right_offset (F−44)
変数ScaledBaseWidthは、次のように規定される:
ScaledBaseWidth
=PicWidthInMbs*16-ScaledBaseLeftOffset-ScaledBaseRightOffset (F-45)
変数ScaledBaseWidthCは、次のように規定される:
ScaledBaseWidthC=ScaledBaseWidth/SubWidthC (F−46)
scaled_base_bottom_offsetは、アップサンプリングされた基本レイヤのピクチャの右下画素と現レイヤのピクチャの右下画素との間の垂直オフセットを2つの輝度サンプルの単位で指定する。scaled_base_bottom_offsetが存在しない場合、scaled_base_bottom_offsetが0に等しいと推定されるものとする。
ScaledBaseRightOffset = 2 * scaled_base_right_offset (F-44)
The variable ScaledBaseWidth is defined as follows:
ScaledBaseWidth
= PicWidthInMbs * 16-ScaledBaseLeftOffset-ScaledBaseRightOffset (F-45)
The variable ScaledBaseWidthC is defined as follows:
ScaledBaseWidthC = ScaledBaseWidth / SubWidthC (F-46)
scaled_base_bottom_offset specifies the vertical offset between the lower right pixel of the up-sampled base layer picture and the lower right pixel of the current layer picture in units of two luminance samples. When scaled_base_bottom_offset does not exist, it is assumed that scaled_base_bottom_offset is equal to 0.

変数ScaledBaseBottomOffsetは、次のように規定される。   The variable ScaledBaseBottomOffset is specified as follows.

ScaledBaseBottomOffset=2*scaled_base_bottom_offset (F−47)
変数ScaledBaseHeightは、次のように規定される。
ScaledBaseBottomOffset = 2 * scaled_base_bottom_offset (F-47)
The variable ScaledBaseHeight is defined as follows.

ScaledBaseHeight
=PicHeightInMbs*16-ScaledBaseTopOffset-ScaledBaseBottomOffset (F-48)
変数ScaledBaseHeightCは、次のように規定される。
ScaledBaseHeight
= PicHeightInMbs * 16-ScaledBaseTopOffset-ScaledBaseBottomOffset (F-48)
The variable ScaledBaseHeightC is defined as follows.

ScaledBaseHeightC=ScaledBaseHeight/SubHeightC (F−49)
chroma_phase_x_plus1は、現レイヤのピクチャの水平方向のサンプリング・スペースの4分の1の単位で色差成分の水平方向位相シフトを指定する。chroma_phase_x_plus1が存在しない場合、chroma_phase_x_plus1が0に等しいと推定されるものとする。chroma_phase_x_plus1は、0〜1の範囲内にある、2および3の値は未使用である。
ScaledBaseHeightC = ScaledBaseHeight / SubHeightC (F-49)
chroma_phase_x_plus1 specifies the horizontal phase shift of the chrominance component in a unit of a quarter of the horizontal sampling space of the current layer picture. When chroma_phase_x_plus1 does not exist, it is assumed that chroma_phase_x_plus1 is equal to 0. chroma_phase_x_plus1 is in the range of 0 to 1, and the values 2 and 3 are unused.

chroma_phase_y_plus1は、現レイヤのピクチャの垂直方向のサンプリング・スペースの4分の1の単位で色差成分の垂直方向位相シフトを指定する。chroma_phase_y_plus1が存在しない場合、chroma_phase_y_plus1が等しいと推定されるものとする。chroma_phase_y_plus1は、0〜2の範囲内にあり、3の値は未使用である。注:vui_parameters中で指定された色種類(chroma type)は、同じsequence_parameter_set中の色相(chroma phase)パラメータchroma_phase_x_plus1およびchroma_phase_y_plus1と一致していなければならない。   chroma_phase_y_plus1 specifies the vertical phase shift of the chrominance component in a unit of a quarter of the vertical sampling space of the current layer picture. When chroma_phase_y_plus1 does not exist, it is assumed that chroma_phase_y_plus1 is equal. chroma_phase_y_plus1 is in the range of 0 to 2, and the value of 3 is unused. Note: The chroma type specified in vui_parameters must match the chroma phase parameters chroma_phase_x_plus1 and chroma_phase_y_plus1 in the same sequence_parameter_set.

avc_rewrite_flagは、エントロピー符号の復号および符号化と変換係数のスケーリングとだけによって、伝送されたシーケンスを劣化なしにAVCビットストリームとして書き換えることができることを示す。IntraBLブロックには代替の方法が使用され、エンコーダによる変換サイズの選択に制限がかけられる。   avc_rewrite_flag indicates that the transmitted sequence can be rewritten as an AVC bit stream without deterioration only by decoding and encoding of the entropy code and scaling of the transform coefficient. An alternative method is used for IntraBL blocks, which limits the choice of transform size by the encoder.

avc_adaptive_rewrite_flagは、avc_rewrite_flagがスライス・ヘッダ中で送られることを示す。   avc_adaptive_rewrite_flag indicates that avc_rewrite_flag is sent in the slice header.

本発明の一部の実施形態は、量子化された変換係数を「非量子化された」バージョンまたは代替の量子化領域のいずれかにマッピングするスケーリング・プロセスを含んでいる。一部の実施形態では、avc_rewrite_flagが上述したようにこれらのプロセスが無効にされていることを情報伝達する場合、現行のH.264/AVCビデオ符号化規格で規定されたプロセスに従って、全てのレイヤ中の復号された変換係数を「非量子化する」ことができる。しかしながら、これらの実施形態が有効にされていることをavc_rewrite_flagが情報伝達する場合、所望の拡張レイヤに先行する複数のレイヤ中において、復号された、量子化された変換係数またはインデックスが「非量子化され」ない。それに代えて、量子化された係数またはインデックスが、下位レイヤ(特に、所望の拡張レイヤに依存する(depend on)レイヤ)から次に上位のレイヤ(特に、前述した下位レイヤに明示的に依存するレイヤであって、依存の順序において、所望の拡張レイヤにより近いレイヤ)へマッピングされる。   Some embodiments of the invention include a scaling process that maps quantized transform coefficients to either an “unquantized” version or an alternative quantization domain. In some embodiments, if the avc_rewrite_flag signals that these processes have been disabled as described above, the current H.264 standard. The decoded transform coefficients in all layers can be “dequantized” according to the process defined in the H.264 / AVC video coding standard. However, if the avc_rewrite_flag communicates that these embodiments are enabled, the decoded transform coefficient or index decoded in multiple layers preceding the desired enhancement layer is “non-quantum”. It's not. Instead, the quantized coefficient or index explicitly depends on the next higher layer (especially the previously mentioned lower layer) from the lower layer (especially the layer that depends on the desired enhancement layer). To a layer closer to the desired enhancement layer in the order of dependency.

本発明の一部の実施形態について図5および図12を参照して説明する。これらの実施形態に係るシステムは、第1のパラメータ決定器211、第2のパラメータ決定器212、およびスケーラ213を含む。これらの実施形態では、マッピング・プロセスは以下のように動作しうる。初めに、第1のパラメータ決定器211が、下位レイヤのビットストリーム中における量子化パラメータ、すなわちQp値を決定する(50)。次いで、第2のパラメータ決定器212が、上位レイヤ中における量子化パラメータ、すなわちQp値を決定する(51)。次に、スケーラ213で、下位レイヤの係数(第1レイヤの変換係数)を、量子化パラメータに基づいた率だけスケーリングすることができる(52)。   Some embodiments of the present invention will be described with reference to FIGS. The system according to these embodiments includes a first parameter determiner 211, a second parameter determiner 212, and a scaler 213. In these embodiments, the mapping process may operate as follows. First, the first parameter determiner 211 determines a quantization parameter, ie, a Qp value, in the lower layer bitstream (50). Next, the second parameter determiner 212 determines the quantization parameter in the upper layer, that is, the Qp value (51). The scaler 213 can then scale the lower layer coefficients (first layer transform coefficients) by a rate based on the quantization parameter (52).

一部の実施形態では、下位レイヤのQp値と上位レイヤのQp値との差を計算することができる。一部の実施形態では、変換係数を次のプロセスでスケーリングすることができる。   In some embodiments, the difference between the lower layer Qp value and the upper layer Qp value may be calculated. In some embodiments, the transform coefficients can be scaled by the following process.

Figure 2009543501
Figure 2009543501

(ここで、THigherLayerおよびTLowerLayerはそれぞれ上位レイヤおよび下位レイヤにおける変換係数を示し、nは整数であり、Qp_LowerLayerおよびQp_HigherLayerはそれぞれ下位レイヤおよび上位レイヤのための量子化パラメータである)
マッピング・プロセスの計算は、多くの計算を単純化する方法で実施することができる。例えば、次のシステムが同等である。
(Here, THigherLayer and TLowerLayer are transform coefficients in the upper layer and the lower layer, respectively, n is an integer, and Qp_LowerLayer and Qp_HigherLayer are quantization parameters for the lower layer and the upper layer, respectively)
The calculation of the mapping process can be performed in a way that simplifies many calculations. For example, the following systems are equivalent:

Figure 2009543501
Figure 2009543501

(ここで、//が整数除算を示し、%はモジュロ演算を示し、MおよびScaleMatrixは予め定められた定数である)
これらの予め定められた値の一具体例は、次の通りである。
(Where // indicates integer division,% indicates modulo operation, and M and ScaleMatrix are predetermined constants)
A specific example of these predetermined values is as follows.

ScaleMatrix=[512 573 642 719 806 902]
M=512
しかしながら、MおよびScaleMatrixについて他の値を用いてもよいことが容易に理解できるはずである。
ScaleMatrix = [512 573 642 719 806 902]
M = 512
However, it should be readily understood that other values for M and ScaleMatrix may be used.

単純化された上記の例は、Qp_Diffの値が常に0より大きいとみなす。従って、一部の実施形態では、アプリケーションが、スケーリング演算を行う前にQp_Diffの値をチェックすることができる。Qp_Diffの値が0より小さい場合、さらなる処理に先立って0の値をそれに再割り当てすることができる。一部の実施形態では、Qp_LowerLayerがQp_HigherLayer以上であるとみなすことができる。   The simplified example above assumes that the value of Qp_Diff is always greater than zero. Thus, in some embodiments, the application can check the value of Qp_Diff before performing the scaling operation. If the value of Qp_Diff is less than 0, a value of 0 can be reassigned to it prior to further processing. In some embodiments, Qp_LowerLayer can be considered to be greater than or equal to Qp_HigherLayer.

一部の代替の実施形態では、次のシステムを実施することができる。   In some alternative embodiments, the following system may be implemented.

Figure 2009543501
Figure 2009543501

典型的な実施形態では、予め定められた値を次のように選択することができる。   In an exemplary embodiment, the predetermined value can be selected as follows.

ScaleMatrix=[291 325 364 408 457 512 573 642 719 806 902]
M=512
一部の実施形態では、変換係数を下位レイヤから上位レイヤにマッピングした後、上述のプロセスを利用する一部の場合において、係数を微調整していてもよい。微調整の後、第2のスケーリング演算を使用することができる。このスケーリング演算は、変換係数を「非量子化する(de-quantize)」ものとすることができる。
ScaleMatrix = [291 325 364 408 457 512 573 642 719 806 902]
M = 512
In some embodiments, after mapping transform coefficients from lower layers to higher layers, the coefficients may be fine-tuned in some cases using the process described above. After fine tuning, a second scaling operation can be used. This scaling operation may “de-quantize” the transform coefficients.

上述した一部の実施形態は1つの下位レイヤおよび1つの上位レイヤについてしか記述していなかったが、一部の実施形態は2つより多くのレイヤを含んでいてもよい。例えば、典型的な3つのレイヤの場合は、次のように機能することができる。最初に、最下位レイヤを復号することができる。その後、上述の方法によって変換係数を第2レイヤにマッピングすることができる。その後、マッピングされた変換係数を微調整することができる。次に、上述の方法を用いてこれらの変換係数を第3レイヤにマッピングすることができる。その後、これらの変換係数を微調整することができ、その結果として得られる係数を、AVC/H.264ビデオ符号化標準によって規定されたスケーリング演算などのようなスケーリング演算によって「非量子化する」ことができる。   While some embodiments described above described only one lower layer and one upper layer, some embodiments may include more than two layers. For example, the typical three layers can function as follows. Initially, the lowest layer can be decoded. Thereafter, the transform coefficient can be mapped to the second layer by the method described above. Thereafter, the mapped transform coefficients can be fine tuned. These transform coefficients can then be mapped to the third layer using the method described above. These transform coefficients can then be fine tuned and the resulting coefficients are calculated as AVC / H. It can be “dequantized” by a scaling operation, such as a scaling operation defined by the H.264 video coding standard.

本発明の一部の実施形態について図6および図13を参照して説明する。これらの実施形態に係るシステムは、第1の識別器221、第2の識別器222、第1の指標決定器223、第2の指標決定器224、および値決定器225を含んでいる。これらの実施形態では、隣接するマクロブロックに関連付けられた情報を用いて、対象ブロックまたはマクロブロックのための符号化演算または復号演算を通知することができる。一部の実施形態では、第1の隣接マクロブロックが第1の識別器221によって識別され(60)、第2の隣接マクロブロックが第2の識別器222によって識別される(61)。その後、第1の指標決定器223が第1の隣接マクロブロック指標を決定し(62)、第2の指標決定器224が第2の隣接マクロブロック指標を決定する(63)。その後、値決定器225が、これらの隣接マクロブロック指標に基づいてエントロピー・エンコーダ制御値を決定することができる(64)。   Some embodiments of the present invention will be described with reference to FIGS. The system according to these embodiments includes a first discriminator 221, a second discriminator 222, a first indicator determiner 223, a second indicator determiner 224, and a value determiner 225. In these embodiments, it is possible to notify the encoding operation or the decoding operation for the target block or the macroblock using information associated with the adjacent macroblock. In some embodiments, the first adjacent macroblock is identified by the first identifier 221 (60) and the second adjacent macroblock is identified by the second identifier 222 (61). Thereafter, the first index determiner 223 determines the first adjacent macroblock index (62), and the second index determiner 224 determines the second adjacent macroblock index (63). The value determiner 225 can then determine entropy encoder control values based on these neighboring macroblock indices (64).

本発明の一部の実施形態について図7を参照して説明する。これらの実施形態では、第1の隣接マクロブロックを識別し(71)、第2の隣接マクロブロックを識別する(72)。その後、第1の隣接マクロブロックの属性を調べて、第1のマクロブロックが予め規定された条件を満たすかを判定することができる(73)。さらにまた、第2の隣接マクロブロックを条件も調べて、予め規定された条件が満たされているかを判定することができる(74)。一部の実施形態では、これらの条件は、「マクロブロックが利用可能であるか」、「マクロブロックがレイヤ間予測モードで符号化されているか」、「マクロブロックが空間領域において符号化されているか」、「マクロブロックがDC予測でイントラ予測されているか」、および「マクロブロックが別の時間的に一致するレイヤを参照して符号化されているか」という条件を含みうる。第1のマクロブロック75について上記条件の何れかが満たされている場合、第1のマクロブロック・フラグが、準拠を示すようにセットされる(80)。何れの条件も満たされていない場合、上記フラグは、不準拠を示すようにセットされる(76)。一部の実施形態では、何れかの条件が満たされた場合(80)、フラグを「0」にセットし、何れの条件も満たされていない場合(76)、フラグを「1」にセットすることができる。第2の隣接マクロブロックについて同じプロセス74、79を続けることができる。そのプロセスでは、条件が満たされていない場合(78)、フラグを1つの値にセットし、条件が満たされている(81)場合、フラグを別の値にセットすることができる。両方の隣接マクロブロックが調べられ、かつ関連付けられた2つのフラグがセットされている場合、これらのフラグを加算することができる(82)。その後、加算結果の値をエントロピー・エンコーダ制御値として使用することができる。   Some embodiments of the present invention will be described with reference to FIG. In these embodiments, a first neighboring macroblock is identified (71) and a second neighboring macroblock is identified (72). Thereafter, the attributes of the first adjacent macroblock can be examined to determine whether the first macroblock satisfies a predefined condition (73). Furthermore, the condition of the second adjacent macroblock can also be checked to determine whether a predefined condition is satisfied (74). In some embodiments, these conditions may include: "A macroblock is available", "A macroblock is encoded in inter-layer prediction mode", "A macroblock is encoded in the spatial domain. Or “whether the macroblock is intra-predicted by DC prediction” and “whether the macroblock is coded with reference to another temporally matching layer”. If any of the above conditions are met for the first macroblock 75, the first macroblock flag is set to indicate compliance (80). If neither condition is met, the flag is set to indicate non-compliance (76). In some embodiments, if any condition is met (80), the flag is set to “0”, and if neither condition is met (76), the flag is set to “1”. be able to. The same process 74, 79 can continue for the second adjacent macroblock. In that process, if the condition is not met (78), the flag can be set to one value, and if the condition is met (81), the flag can be set to another value. If both neighboring macroblocks have been examined and the two associated flags are set, these flags can be added (82). Thereafter, the value of the addition result can be used as the entropy encoder control value.

本発明の一部の実施形態について図8を参照して説明する。これらの実施形態では、第1の隣接マクロブロックは識別され(90)、第2の隣接マクロブロックが識別される(91)。その後、第1の隣接マクロブロックおよび第2の隣接マクロブロックの属性を調べて、マクロブロックが予め規定された条件を満たしているかを判定する(92)。一部の実施形態では、これらの条件は、「マクロブロックは利用可能であるか」、「マクロブロックがレイヤ間予測モードで符号化されているか」、および「マクロブロックが別のレイヤを参照して符号化されているか」という条件を含みうる。何れかのマクロブロックについて上記条件の何れかが満たされている場合(94)、推定された予測モードを、予め定められたモードにセットする。一部の実施形態では、予め定められたモードをDC予測モードとすることができる。   Some embodiments of the present invention will be described with reference to FIG. In these embodiments, the first neighboring macroblock is identified (90) and the second neighboring macroblock is identified (91). Thereafter, the attributes of the first adjacent macroblock and the second adjacent macroblock are checked to determine whether the macroblock satisfies a predetermined condition (92). In some embodiments, these conditions may include: “Are macroblocks available?”, “Is the macroblock encoded in inter-layer prediction mode”, and “A macroblock refers to another layer?” It is possible to include a condition of “is it encoded?”. If any of the above conditions is satisfied for any macroblock (94), the estimated prediction mode is set to a predetermined mode. In some embodiments, the predetermined mode may be a DC prediction mode.

これらの実施形態では、さらに、実際の予測モードを特定することもできる。実際の予測モードは、画像の内容に基づくものとすることができる。最小のエラーまたは低減されたエラーを生じる方法を用いて、予測モードを決定することができる。実際の予測モードが推定された予測モードと同じである場合(94)、推定された予測モードの使用を示すようにビットストリームを符号化することができる。デコーダ側で、同じプロセスを続けて、ビットストリームを復号する時に、推定されたモードを選択することができる。実際の予測モードが推定された予測モードと同じでない場合(94)、実際のモードおよびその選択を示すようにメッセージを送ることができる(95)。推定された予測モードおよび実際の予測モードの情報伝達に関する詳細は、JVT AVC規格書で知ることができる。JVT AVC規格書は参照によって本明細書に組み込まれるものとする。   In these embodiments, the actual prediction mode can also be specified. The actual prediction mode can be based on the content of the image. The prediction mode can be determined using the method that produces the least error or reduced error. If the actual prediction mode is the same as the estimated prediction mode (94), the bitstream can be encoded to indicate use of the estimated prediction mode. On the decoder side, the same process can be continued to select the estimated mode when decoding the bitstream. If the actual prediction mode is not the same as the estimated prediction mode (94), a message can be sent to indicate the actual mode and its selection (95). Details regarding the information transmission of the estimated prediction mode and the actual prediction mode can be found in the JVT AVC standard. The JVT AVC standard is incorporated herein by reference.

本発明の一部の実施形態は、イントラ符号化されたブロック中の輝度情報および色情報のための、イントラ予測モードの符号化を含んでいてもよい。伝統的に、これらのモードを、コンテキスト適応的な方法で情報伝達し、空間的隣接部の予測モードに依存する方法で符号化する。本発明の一部の実施形態では、条件付きのプロセスを用いてもよい。これらの実施形態では、隣接部がレイヤ間予測を利用しない場合、隣接部から予測モードを予測することができる。レイヤ間予測を利用するブロックは、次の方法の1つで処理することができる。一部の典型的な実施形態では、ブロックを、それが最も可能性の高い予測モードを有するかのように処理することができる。H.264/AVC関連の実施形態では、これは、輝度予測の場合についてDC予測モード(モード2)とすることができる。   Some embodiments of the invention may include intra prediction mode encoding for luminance and color information in intra-coded blocks. Traditionally, these modes are signaled in a context-adaptive manner and encoded in a manner that depends on the prediction mode of spatial neighbors. In some embodiments of the invention, a conditional process may be used. In these embodiments, when the adjacent unit does not use inter-layer prediction, the prediction mode can be predicted from the adjacent unit. Blocks that utilize inter-layer prediction can be processed in one of the following ways. In some exemplary embodiments, a block can be processed as if it had the most likely prediction mode. H. In H.264 / AVC related embodiments, this can be a DC prediction mode (mode 2) for the case of luminance prediction.

一部の代替の実施形態では、ブロックを、それがインター符号化されたブロックであり、かつ予測領域のOUTSIDE(「外部」)であるかのように、処理してもよい。これらの実施形態では、OUTSIDEは、JVT SVCプロジェクト・グループの中でテストするのに利用されたソフトウェアを含む特定のコンテキストを有している。このソフトウェアは、JSVMとして一般に知られている。   In some alternative embodiments, the block may be processed as if it were an inter-coded block and OUTSIDE (“external”) of the prediction region. In these embodiments, OUTSIDE has a specific context that includes the software used to test within the JVT SVC project group. This software is commonly known as JSVM.

一部の環境では、符号化されたモードを情報伝達するための、予測モードの符号化およびコンテキストの選択は、別々のプロセスとしてもよい。これら2つのプロセスに異なる予測方法を用いてもよい。例えば、レイヤ間予測を使用するブロックを含む、全てのイントラ符号化されたブロックについて、実際の予測モードを用いて予測モードを符号化してもよい。しかしながら、これらの同じブロックは、上述した規則の1つなどのような別の規則を利用して、符号化値を符号化するためのコンテキストを取得してもよい。例えば、上記コンテキストは、レイヤ間予測を利用するイントラ・ブロックが、最も可能性の高い予測モードを有しているものと仮定することができる。これらの実施形態の一部は、異なる複数のレイヤに対応する複数のビットストリームを独立して処理することを可能にする。   In some environments, prediction mode encoding and context selection to communicate the encoded mode may be separate processes. Different prediction methods may be used for these two processes. For example, for all intra-coded blocks, including blocks that use inter-layer prediction, the prediction mode may be encoded using the actual prediction mode. However, these same blocks may use another rule, such as one of the rules described above, to obtain the context for encoding the encoded value. For example, the context can assume that an intra block that utilizes inter-layer prediction has the most likely prediction mode. Some of these embodiments allow multiple bitstreams corresponding to different layers to be processed independently.

本発明の一部の実施形態は、JVT SVC標準(これは参照によって本明細書に含まれるものとする)の中で規定されている、「符号化ブロック・パターン」情報、すなわちCbpの保守を含んでいる。この情報は、画像(またはマクロブロック)内における、残差情報を含むサブ領域を規定する。一部の場合には、ビットストリーム・デコーダは、最初にCbpを復号し、次に情報を利用してビットストリームの残りを解析するので、その情報がビットストリームを復号するために必要となりうる。(例えば、Cbpは、存在しうる変換係数リストの数を規定することができる。)多くのデコーダでは、Cbpは、復号されたフレームを再構成するためにも利用される。例えば、Cbpが残差情報を示す場合、デコーダは、逆変換を計算することだけが必要である。一部の実施形態では、ビットストリーム中で伝送されたCbpは、解析プロセスが変換係数を抽出するために利用することができる。しかしながら、それは再構成プロセスにはもはや有用ではないかもしれない。なぜならサブ領域が前のレイヤからの残差情報を含みうるからである。   Some embodiments of the present invention maintain the “encoded block pattern” information, ie Cbp, as defined in the JVT SVC standard (which is hereby incorporated by reference). Contains. This information defines a sub-region containing residual information in the image (or macroblock). In some cases, the bitstream decoder first decodes Cbp and then uses the information to analyze the rest of the bitstream, so that information may be needed to decode the bitstream. (For example, Cbp can specify the number of transform coefficient lists that can exist.) In many decoders, Cbp is also used to reconstruct the decoded frame. For example, if Cbp indicates residual information, the decoder need only calculate the inverse transform. In some embodiments, Cbp transmitted in the bitstream can be utilized by the analysis process to extract transform coefficients. However, it may no longer be useful for the reconstruction process. This is because the sub-region can include residual information from the previous layer.

従って、本発明の実施形態のデコーダは、(1)再構成プロセス内のCbp情報を利用しないものであってもよく、(2)ビットストリームを解析した後にCbpを再計算しないものであってもよい。再計算プロセスの例は、残差情報を含むサブ領域を識別するために全ての係数リストを走査すること、あるいは、それに代えて、伝送されたCbpとCbp(これらは下位レイヤデータを再構成するために利用される)との間の2進論理和演算の計算によって新しいCbpを生成することを含んでいる。この場合、「下位レイヤデータ」は、レイヤ間予測プロセス中に利用されるレイヤを意味する。   Therefore, the decoder according to the embodiment of the present invention may (1) not use the Cbp information in the reconstruction process, or (2) do not recalculate Cbp after analyzing the bitstream. Good. An example of a recalculation process is to scan the entire coefficient list to identify sub-regions containing residual information, or alternatively, transmitted Cbp and Cbp (which reconstruct lower layer data) Generating a new Cbp by calculation of a binary logical OR operation. In this case, “lower layer data” means a layer used during the inter-layer prediction process.

本発明の一部の実施形態について図9および図14を参照して説明する。これらの実施形態に係るシステムは、受信機231、デコーダ232、解析器233、スケーラ234、加算器235、および計算器236を含んでいる。これらの実施形態では、受信機231が、Cbp情報および符号化画像データを含むビットストリームを受け取る(100)。デコーダ232がCbp情報を復号し(101)、Cbp情報を用いてビットストリームのどの部分が変換係数データを含むかを判定することができる。その後、解析器233が、Cbp情報を用いてビットストリームを解析して、基本レイヤおよび全ての拡張レイヤ中における、量子化されたインデックスまたは非量子化された変換係数を識別することができる(102)。その後、スケーラ234が、基本レイヤまたは下位レイヤのインデックスまたは係数を拡張レイヤと整合するようにスケーリングすることができる(103)。その後、加算器235が、スケーリングされたインデックスまたは係数を拡張レイヤに加算する(すなわち拡張レイヤと統合する)して、統合されたレイヤを形成することができる(104)。その後、計算器236が、元の基本レイヤまたは下位レイヤと新しい統合されたレイヤとの間での係数位置の変化を反映するように、Cbp情報を再計算または更新することができる(105)。その後、新しい統合したCbp情報は、その後に続く、統合したレイヤ、あるいは結果として得られた再構成された画像を処理することに使用できる。一部の実施形態では、統合されたCbp情報を、AVC規格書で規定されたループ・フィルタ演算に利用できる。   Some embodiments of the present invention will be described with reference to FIGS. The system according to these embodiments includes a receiver 231, a decoder 232, an analyzer 233, a scaler 234, an adder 235, and a calculator 236. In these embodiments, receiver 231 receives a bitstream that includes Cbp information and encoded image data (100). The decoder 232 can decode the Cbp information (101), and use the Cbp information to determine which part of the bitstream includes transform coefficient data. The analyzer 233 can then analyze the bitstream using the Cbp information to identify quantized indexes or non-quantized transform coefficients in the base layer and all enhancement layers (102). ). Scaler 234 may then scale the base layer or lower layer index or coefficient to match the enhancement layer (103). An adder 235 may then add the scaled index or coefficient to the enhancement layer (ie, merge with the enhancement layer) to form a unified layer (104). The calculator 236 can then recalculate or update the Cbp information to reflect the change in coefficient position between the original base layer or lower layers and the new integrated layer (105). The new merged Cbp information can then be used to process subsequent merged layers or resulting reconstructed images. In some embodiments, the integrated Cbp information can be used for loop filter operations defined in the AVC standard.

本発明の一部の実施形態は、8×8変換を有効にするフラグを処理するための方法およびシステムを含んでいる。これらの実施形態は、JVT SVC標準に関連しうる。これらの実施形態では、ブロックが、レイヤ間予測でイントラ符号化されており、かつ残差データを含んでいない場合、このフラグを伝送する必要がない。一部の実施形態では、フレーム間予測が指定サイズ(例えば8×8など)より小さなブロックを利用している場合、フラグを伝送する必要がない。これらの実施形態は、1つまたは複数の下位レイヤの中で伝送された変換フラグをコピーし、このフラグを再構成プロセス中に使用することができる。   Some embodiments of the present invention include a method and system for processing a flag that enables an 8 × 8 transform. These embodiments may relate to the JVT SVC standard. In these embodiments, it is not necessary to transmit this flag if the block is intra-coded with inter-layer prediction and does not contain residual data. In some embodiments, the flag need not be transmitted if the inter-frame prediction utilizes a block that is smaller than a specified size (eg, 8 × 8, etc.). These embodiments may copy the conversion flag transmitted in one or more lower layers and use this flag during the reconstruction process.

本発明の一部の実施形態は、8×8変換を有効にするフラグを処理するための代替の方法およびシステムを含んでいる。これらの実施形態では、ブロックが残差データを含んでいない場合、このフラグを伝送する必要がない。この場合がレイヤ間予測に利用される下位レイヤに生じたのであれば、上位レイヤは、残差データを送る時に8×8変換を有効にすることを選択することができる。これは、伝送されないが8×8変換を無効にするような、フラグのデフォルト値であってもよい。一部の実施形態では、この特別な場合において、デコーダは、下位レイヤおよび上位レイヤが異なる変換を使用できるようにすることができる。   Some embodiments of the present invention include an alternative method and system for processing a flag that enables an 8x8 transform. In these embodiments, it is not necessary to transmit this flag if the block does not contain residual data. If this case occurs in the lower layer used for inter-layer prediction, the upper layer can choose to enable the 8 × 8 transform when sending residual data. This may be the default value of the flag that is not transmitted but disables the 8x8 conversion. In some embodiments, in this special case, the decoder may allow lower and upper layers to use different transforms.

本発明の一部の実施形態は、量子化行列を処理するための方法およびシステムを含んでいる。量子化行列は、当該技術分野の専門家には、重み行列またはスケーリング行列としても知られている。これらの行列は、「非量子化」プロセスを変化させ、エンコーダおよびデコーダが周波数依存の(または変換係数依存の)量子化を適用することを可能にしうる。これらの実施形態では、スケーリング行列の存在は、上述のマッピング・プロセスで記述されたスケーリング・プロセスを変更する。一部の実施形態では、マッピング手順は、次のように記述できる。   Some embodiments of the present invention include methods and systems for processing quantization matrices. Quantization matrices are also known to those skilled in the art as weight matrices or scaling matrices. These matrices may change the “non-quantization” process and allow the encoder and decoder to apply frequency-dependent (or transform coefficient-dependent) quantization. In these embodiments, the presence of the scaling matrix alters the scaling process described in the mapping process described above. In some embodiments, the mapping procedure can be written as follows:

Figure 2009543501
Figure 2009543501

(ここで、THigherLayerおよびTLowerLayerはそれぞれ上位レイヤおよび下位レイヤにおける変換係数を示し、nは整数であり、Qp_LowerLayerおよびQp_HigherLayerはそれぞれ下位レイヤと上位レイヤのための量子化パラメータであり、S_LおよびS_Hはそれぞれ下位レイヤおよび上位レイヤのためのスケーリング率である)
重み行列を調整するために、一部の実施形態は、前記マッピング・プロセス中で示したアルゴリズムの修正版を利用できる。このアルゴリズムの修正版は、上記の説明を参照して以下のように規定できる。
(Here, THigherLayer and TLowerLayer are transform coefficients in the upper layer and the lower layer, n is an integer, Qp_LowerLayer and Qp_HigherLayer are quantization parameters for the lower layer and the upper layer, respectively, and S_L and S_H are respectively (Scaling rate for lower and upper layers)
To adjust the weight matrix, some embodiments can utilize a modified version of the algorithm shown in the mapping process. A modified version of this algorithm can be defined as follows with reference to the above description.

Figure 2009543501
Figure 2009543501

(ここで、S_L[n]およびS_H[n]は、明示的に存在してもよく、それに代えてビットストリームから取得されてもよい)
重み行列を調整する代替の実施形態では、追加の重み行列をビットストリーム中で送ることができる。この追加の重み行列は、下位レイヤからレイヤを予測するのに必要な周波数の重みを明示的に規定することができる。例えば、重み行列は次のように使用できる。
(Here, S_L [n] and S_H [n] may be explicitly present, or may be obtained from the bitstream instead)
In an alternative embodiment of adjusting the weight matrix, an additional weight matrix can be sent in the bitstream. This additional weight matrix can explicitly define the frequency weights necessary to predict a layer from a lower layer. For example, the weight matrix can be used as follows.

Figure 2009543501
Figure 2009543501

(ここで、W1およびW2は、ビットストリームに含まれる重み行列である)
一部の実施形態では、W1またはW2の何れかが伝送されなくてもよい。これらの実施形態では、伝送されない行列は0に等しい要素を有するものとみなすことができる。
(W1 and W2 are weight matrices included in the bit stream)
In some embodiments, either W1 or W2 may not be transmitted. In these embodiments, a non-transmitted matrix can be considered as having elements equal to zero.

本発明の実施形態は、スケーラブルなビデオコーデックを、変更、作成および/または適用するための方法およびシステムを含んでいる。一部の実施形態は、より少数のレイヤを有するビットストリームへの、マルチレイヤ・ビットストリームの高速変換を可能にする。一部の実施形態は、マルチレイヤのビットストリームから単一レイヤのビットストリームへの変換を含んでいる。一部の典型的な実施形態は、AVCビットストリームからSVCビットストリームへの変換を含んでいる。   Embodiments of the present invention include methods and systems for modifying, creating and / or applying scalable video codecs. Some embodiments allow for fast conversion of a multi-layer bitstream to a bitstream with fewer layers. Some embodiments include conversion from a multi-layer bitstream to a single-layer bitstream. Some exemplary embodiments include conversion from an AVC bitstream to an SVC bitstream.

本発明の実施形態は、残差予測に関する。これらの実施形態は、変換領域内および空間領域内の両方で演算を行う残差予測プロセスを含むことができる。典型的な実施形態では、ビットストリーム中の上位レイヤがビットストリーム中の下位レイヤを参照し、かつ両レイヤが同じ空間解像度を含む場合、残差予測プロセスは、残差の変換係数を下位レイヤから上位レイヤへマッピングするステップを含むことができる。このマッピング・プロセスは、スケーリングされた変換係数または(スケーリングされていない)変換係数のレベルに有効である。一部の実施形態では、スケーリングされた変換係数の残差予測のプロセスは、次段落のように定めることができる。   Embodiments of the present invention relate to residual prediction. These embodiments may include a residual prediction process that operates in both the transform domain and the spatial domain. In an exemplary embodiment, if an upper layer in the bitstream refers to a lower layer in the bitstream, and both layers contain the same spatial resolution, the residual prediction process extracts the residual transform coefficients from the lower layer. Mapping to higher layers can be included. This mapping process is useful for scaled transform coefficients or levels of (unscaled) transform coefficients. In some embodiments, the scaled transform coefficient residual prediction process may be defined as in the next paragraph.

A.8.11.4.1 スケーリングされた変換係数のための残差累算プロセス
このプロセスへの入力は、
マクロブロックがフィールドまたはフレームのマクロブロックであるかを示す変数fieldMb
輝度変換のタイプを示す変数lumaTrafo
256+2*MbWidthC*MbHeightCの要素を持つスケーリングされた変換係数値のリストsTCoeff
であり、
このプロセスの出力は、スケーリングされた変換係数値sTCoeffの修正版を含んでいる。
A.8.11.4.1 Residual accumulation process for scaled transform coefficients The input to this process is
The variable fieldMb that indicates whether the macroblock is a field or frame macroblock
The variable lumaTrafo indicating the type of luminance conversion
List of scaled transform coefficient values with elements 256 + 2 * MbWidthC * MbHeightC sTCoeff
And
The output of this process includes a modified version of the scaled transform coefficient value sTCoeff.

サブ節G.8.11.3(これは、本明細書に含まれるものとするSVC規格で規定されている)に記載されたスケーリングされた変換係数のための進歩的な微調整プロセスは、fieldMb、lumaTrafo、およびsTCoeffを入力とし、sTCoeffの修正版を出力として、起動させることができる。   The progressive fine-tuning process for scaled transform coefficients described in subsection G.8.11.3 (as defined in the SVC standard, which is included herein) is fieldMb, You can start with lumaTrafo and sTCoeff as inputs and a modified version of sTCoeff as output.

反対に、一部の実施形態では、拡張レイヤが、異なる空間解像度を含む下位レイヤをレイヤ間予測に利用する場合に、空間領域内で残差予測プロセスを行ってもよい。これらの実施形態では、参照されたレイヤからの残差は、強度領域内で再構成され、拡張レイヤの解像度に補間される。代替シナリオにおいて、参照レイヤからの残差は、空間領域内で参照レイヤから導かれた予測に加算される。その後、この加算の結果が拡張レイヤに補間される。   Conversely, in some embodiments, the enhancement layer may perform a residual prediction process in the spatial domain when a lower layer that includes a different spatial resolution is utilized for inter-layer prediction. In these embodiments, the residual from the referenced layer is reconstructed in the intensity domain and interpolated to the enhancement layer resolution. In an alternative scenario, the residual from the reference layer is added to the prediction derived from the reference layer in the spatial domain. Thereafter, the result of this addition is interpolated into the enhancement layer.

本発明の一部の実施形態について図10および図15を参照して説明する。これらの実施形態に係るシステムは、解像度決定器241、比較器242、コントローラ243、係数スケーラ244、係数統合器245、逆変換器246、および空間領域統合器247を含んでいる。これらの実施形態では、現レイヤを調べて、現レイヤが残差予測を使用しているかを判定することができる(110)。残差予測が使用されていない場合、累算は必要ではない(111)。残差予測が使用されている場合(110)、解像度決定器241が現レイヤおよび参照レイヤの空間解像度を決定する(112、113)。その後、比較器242が、現レイヤの空間解像度を参照レイヤの空間解像度と比較する(114)。コントローラ243は、これら空間解像度が同じである場合に、係数スケーラ244および係数統合器245がステップ116および117を行うことを選択的に許容する。すなわち、これらの空間解像度が同じである場合(114)、参照レイヤ(これから現レイヤが予測される)の係数またはインデックスを、係数スケーラ244がスケーリングし(116)、係数統合器245が現レイヤのインデックスまたは係数と統合する(117)ことができる。コントローラ243は、これらの空間解像度が同じでない場合に、逆変換器246および空間領域統合器247がステップ115、118、および120を行うことを選択的に許容する。すなわち、空間解像度が同じでない場合(114)、現レイヤおよび参照レイヤのインデックスを非量子化し、結果として得られた係数を逆変換することができる(115,118)。その後、空間領域統合器247が、現レイヤおよび参照レイヤ中の得られた空間領域値を統合して、再構成された画像を形成することができる(120)。   Some embodiments of the present invention will be described with reference to FIGS. The system according to these embodiments includes a resolution determiner 241, a comparator 242, a controller 243, a coefficient scaler 244, a coefficient integrator 245, an inverse transformer 246, and a spatial domain integrator 247. In these embodiments, the current layer may be examined to determine if the current layer is using residual prediction (110). If residual prediction is not used, no accumulation is required (111). If residual prediction is used (110), the resolution determiner 241 determines the spatial resolution of the current layer and the reference layer (112, 113). Thereafter, the comparator 242 compares the spatial resolution of the current layer with the spatial resolution of the reference layer (114). Controller 243 selectively allows coefficient scaler 244 and coefficient integrator 245 to perform steps 116 and 117 when these spatial resolutions are the same. That is, if these spatial resolutions are the same (114), the coefficient or index of the reference layer (from which the current layer will be predicted) is scaled by the coefficient scaler 244 (116) and the coefficient integrator 245 It can be integrated (117) with an index or coefficient. The controller 243 selectively allows the inverse transformer 246 and the spatial domain integrator 247 to perform steps 115, 118, and 120 if these spatial resolutions are not the same. That is, if the spatial resolutions are not the same (114), the current layer and reference layer indices can be dequantized and the resulting coefficients can be inverse transformed (115, 118). A spatial domain integrator 247 can then integrate the obtained spatial domain values in the current layer and the reference layer to form a reconstructed image (120).

上記の説明から容易に分かるように、残差予測の方法は、予測のために参照された、列挙された上位レイヤおよび列挙された下位レイヤの解像度に依存する。不運にも、空間領域内における残差情報の累算は、変換領域内における残差の累算およびそれに続く空間領域への変換とは等しくないかもしれないので、これは問題である。標準化された復号プロセスの場合、これは、エンコーダおよびデコーダとの間での誤差、および符号化効率の減少をもたらしうる。   As can be readily seen from the above description, the method of residual prediction depends on the resolution of the enumerated upper layers and enumerated lower layers referenced for prediction. Unfortunately, this is a problem because the accumulation of residual information in the spatial domain may not be equal to the accumulation of residuals in the transform domain and subsequent conversion to the spatial domain. In the case of a standardized decoding process, this can lead to errors between the encoder and decoder and a reduction in coding efficiency.

現行のSVCシステムは、空間領域内でのみ残差予測を行うことで、この問題を解決しようとしている。しかしながら、本発明の一部の実施形態は、両方の領域内で残差予測を行う復号プロセスを含んでいる。より詳細には、残差予測が有効にされ、かつ拡張レイヤとレイヤ間予測のために参照されたレイヤとが同じ解像度である場合、変換領域内で残差が累算される。しかしながら、残差予測が有効にされ、かつ拡張レイヤとレイヤ間予測のために参照されたレイヤとが異なる解像度である場合、空間領域内で残差が累算される。   Current SVC systems attempt to solve this problem by performing residual prediction only in the spatial domain. However, some embodiments of the invention include a decoding process that performs residual prediction in both regions. More specifically, if residual prediction is enabled and the enhancement layer and the layer referenced for inter-layer prediction are the same resolution, the residual is accumulated in the transform domain. However, if residual prediction is enabled and the enhancement layer and the layer referenced for inter-layer prediction have different resolutions, the residual is accumulated in the spatial domain.

典型的な復号プロセスは、次のように記述される。   A typical decoding process is described as follows.

Figure 2009543501
Figure 2009543501

Figure 2009543501
Figure 2009543501

Figure 2009543501
Figure 2009543501

上記の擬似コードには明示的に記述されていないが、他の典型的な実施形態は、規定された復号プロセスに対する他の拡張を含んでいる。一部の実施形態では、イントラ・レイヤ予測を、スケーラブルなビットストリーム中の複数のレイヤで行ってもよい。これがビデオ符号化規格の中で許容される場合、全ての処理に先立って関数GenerateIntraLayerPredictionを呼び出してもよい。この関数の出力は、アレイrYCCに加算することができる。さらに、一部の実施形態では、関数GenerateIntraLayerPredictionを上記の擬似コード中で呼び出さない。代わりに、outYCC=GeneateIntraLayerPrediction(layerID)+rYCCの行がoutYCC=rYCCに置き換えられるであろう。   Although not explicitly described in the above pseudocode, other exemplary embodiments include other extensions to the defined decoding process. In some embodiments, intra layer prediction may be performed at multiple layers in a scalable bitstream. If this is allowed in the video coding standard, the function GenerateIntraLayerPrediction may be called prior to all processing. The output of this function can be added to the array rYCC. Furthermore, in some embodiments, the function GenerateIntraLayerPrediction is not called in the above pseudo code. Instead, the line outYCC = GeneateIntraLayerPrediction (layerID) + rYCC will be replaced with outYCC = rYCC.

本発明の一部の実施形態では、残差の累算プロセスを、スケーリングされていない変換係数について行ってもよい。この場合、スケーリングされた変換係数を構成する前にレイヤ間予測プロセスを行うことができる。一部の実施形態の態様は、「画像スケーラビリティのための方法およびシステム」("Methods and Systems for Image Scalability")というタイトルが付けられ、2006年7月10日に出願され、C.アンドリュー・セガル(C. Andrew Segall)によって発明された米国仮特許出願第60/806,930号に記載されている。一部の実施形態の態様は、「粗粒度スケーラビリティのためにビットストリームを書き換えるためのシステムおよび方法」("Systems and Methods for Bit-Stream Rewriting for Coarse Grain Scalability")というタイトルがつけられ、2006年10月6日に出願され、C.アンドリュー・セガルによって発明された米国仮特許出願第60/828,618号に記載されている。   In some embodiments of the present invention, the residual accumulation process may be performed on unscaled transform coefficients. In this case, an inter-layer prediction process can be performed before constructing the scaled transform coefficients. An aspect of some embodiments is entitled “Methods and Systems for Image Scalability” and is filed on July 10, 2006, C.I. It is described in US Provisional Patent Application No. 60 / 806,930, invented by C. Andrew Segall. An aspect of some embodiments is entitled “Systems and Methods for Bit-Stream Rewriting for Coarse Grain Scalability”, 2006. Filed on October 6th, C.I. U.S. Provisional Patent Application No. 60 / 828,618 invented by Andrew Segal.

典型的な手順のための擬似コードは、以下の通りである。   The pseudo code for a typical procedure is as follows:

Figure 2009543501
Figure 2009543501

Figure 2009543501
Figure 2009543501

Figure 2009543501
Figure 2009543501

本発明の一部の実施形態は、スケーラブルなビットストリームを入力として取り込み、再構成された画像シーケンスを生成するデコーダを含んでいる。上記のスケーラブルなビットストリームは、ビットストリームの列挙された下位レイヤからビットストリームの列挙された上位レイヤへ情報を投影するためにレイヤ間予測プロセスを用いる。   Some embodiments of the present invention include a decoder that takes a scalable bitstream as input and generates a reconstructed image sequence. The scalable bitstream uses an inter-layer prediction process to project information from the enumerated lower layers of the bitstream to the enumerated upper layers of the bitstream.

本発明の一部の実施形態は、変換領域内および空間領域内の両方で残差情報を累算するような復号プロセスを含んでいる。ビットストリーム中の列挙されたレイヤが同じ解像度を持つ画像シーケンスを記述している場合、ビットストリーム中の列挙されたレイヤ間で変換領域内の累算が行われる。   Some embodiments of the present invention include a decoding process that accumulates residual information both in the transform domain and in the spatial domain. If the enumerated layers in the bitstream describe image sequences having the same resolution, accumulation within the transform domain is performed between the enumerated layers in the bitstream.

本発明の一部の実施形態は、レイヤ間予測に利用されるレイヤとは異なる空間解像度を持つ現レイヤを処理する場合だけ、累算された変換係数を空間領域に変換するような復号プロセスを含んでいる。変換係数は、空間領域に変換され、続いてアップサンプリング(すなわち補間)される。その後、変換係数リストは、0に等しくなるようセットされる。   Some embodiments of the present invention provide a decoding process that transforms the accumulated transform coefficients into the spatial domain only when processing a current layer that has a different spatial resolution than the layer used for inter-layer prediction. Contains. The transform coefficients are transformed into the spatial domain and subsequently upsampled (ie, interpolated). Thereafter, the transform coefficient list is set equal to zero.

本発明の一部の実施形態は、現在の復号レイヤとレイヤ間予測のために利用されるレイヤとの間で解像度が異なるようになるまで、変換領域内で残差を累算するような復号プロセスを含んでいる。その後、変換係数リストを0にセットし、続く同じ空間解像度を持つレイヤを参照するレイヤの処理では、変換領域内で累算を行う。   Some embodiments of the present invention may decode such that the residual accumulates in the transform domain until the resolution is different between the current decoding layer and the layer used for inter-layer prediction. Includes processes. Thereafter, the transform coefficient list is set to 0, and in the processing of the layer referring to the subsequent layer having the same spatial resolution, accumulation is performed in the transform region.

本発明の一部の実施形態は、イントラ・レイヤ予測を行うこと、スケーリングされた変換係数に基づいて逆変換の計算を行うこと、0でない可能性がある残差の信号に対して逆変換演算の出力を加算すること、およびこの前の加算の結果をイントラ・レイヤ予測プロセスの出力と加算することによって、出力ビットストリームを生成するような、復号プロセスを含んでいる。   Some embodiments of the present invention perform intra layer prediction, perform inverse transform calculations based on scaled transform coefficients, and perform inverse transform operations on residual signals that may be non-zero. And a decoding process, such as generating an output bitstream by adding the result of the previous addition with the output of the intra layer prediction process.

本発明の一部の実施形態は、スケーリングされていない変換係数または変換係数レベルに基づいてレイヤ間予測を行うことをさらに可能にする復号プロセスを含む。   Some embodiments of the present invention include a decoding process that further enables inter-layer prediction based on unscaled transform coefficients or transform coefficient levels.

本発明の一部の実施形態は、出力のために再構成されないビットストリームのレイヤ内でイントラ・レイヤ予測を行うことをさらに可能にする復号プロセスを含む。このイントラ・レイヤ予測の結果は、累算された空間残差に加算される。   Some embodiments of the invention include a decoding process that further enables intra-layer prediction within a layer of the bitstream that is not reconstructed for output. The result of this intra layer prediction is added to the accumulated spatial residual.

本発明の一部の実施形態は、残差予測プロセス中にクリッピングを行うような復号プロセスを含んでいる。   Some embodiments of the present invention include a decoding process that performs clipping during the residual prediction process.

以上の明細書中で使用した用語および表現は、ここでは制限の用語としてではなく説明の用語として使用したものであり、そのような用語および表現の使用には図示および説明した特徴およびその一部の均等物を除外しようとする意図はなく、本発明の範囲は次に記載する請求項によってのみ規定され制限されるものと認識されるべきである。   The terms and expressions used in the foregoing specification have been used herein as descriptive terms, not as restrictive terms, and the use of such terms and expressions includes the features and portions thereof illustrated and described. It should be recognized that the equivalents of the invention are not intended to be excluded and the scope of the present invention is defined and limited only by the claims that follow.

本発明の実施形態のシステムの各要素は、次のようにCPUを用いてソフトウェアによって実現してもよい。   Each element of the system of the embodiment of the present invention may be realized by software using a CPU as follows.

すなわち、上記システムは、各機能を実現する制御プログラムの命令を実行するCPU(Central Processing Unit;中央処理装置)、プログラムを記録したROM(Read Only Memory;読み取り専用メモリ)、プログラムがその上で実行されるRAM(Random Access Memory;ランダムアクセスメモリ)、上記プログラムおよび各種のデータを格納するメモリ等の記憶装置(記録媒体)などの構成要素を含むことができる。本発明の目的は、上記各機能を実現するためのソフトウェアである上記システムの制御プログラムのプログラムコード(例えば、実行可能コードプログラム、中間コードプログラム、ソースプログラムなど)をコンピュータで読み取り可能な形で記録媒体上に記録し、この記録媒体を上記システムに供給し、そのコンピュータ(もしくはCPUまたはMPU)が上記記録媒体から上記プログラムコードを読み出して上記プログラムを実行する形でも、達成可能である。。   In other words, the above system includes a CPU (Central Processing Unit) that executes instructions of a control program that realizes each function, a ROM (Read Only Memory) that stores the program, and a program that is executed on the CPU It may include components such as a RAM (Random Access Memory), a storage device (recording medium) such as a memory for storing the program and various data. The object of the present invention is to record the program code (for example, an executable code program, an intermediate code program, a source program, etc.) of the control program of the system, which is software for realizing each function, in a computer-readable form. It can also be achieved by recording on a medium, supplying the recording medium to the system, and reading the program code from the recording medium by the computer (or CPU or MPU) and executing the program. .

そのような記録媒体の例は、磁気テープおよびカセットテープ等のテープ;フレキシブルディスクおよびハードディスク等の磁気ディスク;CD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク;ICカード(メモリカードを含む)等のカード;マスクROM、EPROM(Erasable Programmable Read Only Memory;および、消去可能プログラマブルROM)、EEPROM(Electrically Erasable Programmable Read Only Memory;電気的消去可能プログラマブルROM)、またはフラッシュROM等の半導体メモリを含んでいる。   Examples of such recording media are: tapes such as magnetic tape and cassette tape; magnetic disks such as flexible disks and hard disks; disks including optical disks such as CD-ROM / MO / MD / DVD / CD-R; IC cards ( Cards such as memory cards); mask ROM, EPROM (Erasable Programmable Read Only Memory; and erasable programmable ROM), EEPROM (Electrically Erasable Programmable Read Only Memory), flash ROM, etc. Includes semiconductor memory.

それに代えて、上記システムを通信網に接続して、プログラムコードを通信ネットワーク経由で供給可能としてもよい。通信ネットワークの制限されない例は、インターネット、イントラネット、エクストラネット、LAN、ISDN、VAN、CATV網、仮想専用網(virtual private network)、電話回線網、移動体通信網、および衛星通信網を含んでいる。通信ネットワークを構成する伝送媒体の制限されない例は、IEEE1394、USB、電力線通信、ケーブルテレビ回線、電話回線、およびADSL回線等のような有線媒体;IrDAおよびリモートコントローラ等の赤外線;Bluetooth(登録商標)、IEEE802.11、HDR、携帯電話網、衛星回線および地上波デジタル放送網等の電波からなる。なお、本発明は、プログラムコードの電子的な伝送によって具現化された、搬送波によって、あるいはデータ信号列として、実現され得る。   Alternatively, the system may be connected to a communication network so that the program code can be supplied via the communication network. Non-limiting examples of communication networks include the Internet, Intranet, Extranet, LAN, ISDN, VAN, CATV network, virtual private network, telephone line network, mobile communication network, and satellite communication network . Non-limiting examples of transmission media that make up a communication network include: wired media such as IEEE 1394, USB, power line communications, cable TV lines, telephone lines, and ADSL lines; infrared such as IrDA and remote controllers; Bluetooth® , IEEE802.11, HDR, mobile phone network, satellite line and terrestrial digital broadcasting network. Note that the present invention can be realized by a carrier wave or a data signal sequence embodied by electronic transmission of a program code.

Claims (20)

マルチレイヤ・ビットストリーム中の複数のレイヤを統合する方法であって、
a)第1レイヤの量子化された変換係数を逆量子化し、それによって第1レイヤの変換係数を作成するステップ;
b)第1レイヤの変換係数を第2レイヤの特性と整合するようにスケーリングし、それによって第1レイヤのスケーリングされた変換係数を作成するステップ;
c)第2レイヤの量子化された変換係数を逆量子化し、それによって第2レイヤの変換係数を作成するステップ;および
d)第1レイヤのスケーリングされた変換係数を第2レイヤの変換係数と統合して、統合された係数を形成するステップを含む方法。
A method for integrating multiple layers in a multi-layer bitstream comprising:
a) dequantizing the quantized transform coefficients of the first layer, thereby creating the transform coefficients of the first layer;
b) scaling the first layer transform coefficients to match the characteristics of the second layer, thereby creating scaled transform coefficients for the first layer;
c) dequantizing the quantized transform coefficients of the second layer, thereby creating a transform coefficient of the second layer; and d) converting the scaled transform coefficients of the first layer with the transform coefficients of the second layer. Integrating the method to form an integrated coefficient.
マルチレイヤ・ビットストリーム中の複数のレイヤを統合するためのシステムであって、
a)第1レイヤの量子化された変換係数を逆量子化し、それによって第1レイヤの変換係数を作成するための第1の逆量子化器;
b)上記の第1レイヤの変換係数を第2レイヤの特性と整合するようにスケーリングし、それによって第1レイヤのスケーリングされた変換係数を作成するためのスケーラ;
c)第2レイヤの量子化された変換係数を逆量子化し、それによって第2レイヤの変換係数を作成するための第2の逆量子化器;および
d)第1レイヤのスケーリングされた変換係数を第2レイヤの変換係数と統合して、統合された係数を形成するための係数統合器を含むシステム。
A system for integrating multiple layers in a multi-layer bitstream,
a) a first dequantizer for dequantizing the quantized transform coefficients of the first layer, thereby creating the transform coefficients of the first layer;
b) a scaler for scaling the first layer transform coefficients to match the characteristics of the second layer, thereby creating scaled transform coefficients for the first layer;
c) a second inverse quantizer for inversely quantizing the second layer quantized transform coefficients, thereby creating a second layer transform coefficient; and d) a scaled transform coefficient for the first layer. Including a coefficient integrator for integrating the second layer transform coefficients to form an integrated coefficient.
SVC準拠のビットストリームをAVC準拠のデータに変換するための方法であって、
a)予測データと、基本レイヤの残差データと、拡張レイヤの残差データとを含むSVC準拠のビットストリームを受け取るステップ;
b)上記基本レイヤの残差データを逆量子化し、それによって基本レイヤの変換係数を作成するステップ;
c)上記拡張レイヤの残差データを逆量子化し、それによって拡張レイヤの変換係数を作成するステップ;
d)上記基本レイヤの変換係数を上記拡張レイヤの量子化特性と整合するようにスケーリングし、それによって基本レイヤのスケーリングされた変換係数を作成するステップ;および
e)基本レイヤのスケーリングされた変換係数を拡張レイヤの変換係数と統合して、統合された係数を形成するステップを含む方法。
A method for converting an SVC compliant bitstream into AVC compliant data,
a) receiving an SVC-compliant bitstream including prediction data, base layer residual data, and enhancement layer residual data;
b) dequantizing the base layer residual data, thereby creating base layer transform coefficients;
c) dequantizing the enhancement layer residual data, thereby creating enhancement layer transform coefficients;
d) scaling the base layer transform coefficients to match the enhancement layer quantization characteristics, thereby creating base layer scaled transform coefficients; and e) base layer scaled transform coefficients. Integrating the enhancement layer transform coefficients to form an integrated coefficient.
マルチレイヤ・ビットストリーム中の複数のレイヤを統合する方法であって、
a)第1レイヤの量子化された変換係数を受け取るステップ;
b)第1レイヤの量子化された変換係数を第2レイヤの特性と整合するようにスケーリングし、それによって第1レイヤの量子化されスケーリングされた変換係数を作成するステップ;
c)第2レイヤの量子化された変換係数を受け取るステップ;および
d)第1レイヤのスケーリングされた変換係数を第2レイヤの量子化された変換係数と統合して、量子化され統合された係数を形成するステップを含む方法。
A method for integrating multiple layers in a multi-layer bitstream comprising:
a) receiving the quantized transform coefficients of the first layer;
b) scaling the quantized transform coefficients of the first layer to match the characteristics of the second layer, thereby creating a quantized scaled transform coefficient of the first layer;
c) receiving the quantized transform coefficients of the second layer; and d) integrating the scaled transform coefficients of the first layer with the quantized transform coefficients of the second layer to quantize and integrate A method comprising the step of forming a coefficient.
マルチレイヤ・ビットストリーム中の複数のレイヤを条件付きで統合する方法であって、
a)第1レイヤの量子化された変換係数を受け取るステップ;
b)第2レイヤの量子化された変換係数を受け取るステップ;
c)レイヤ統合指標を受け取るステップ;
d)上記レイヤ統合指標が変換領域累算を示している場合に、第1レイヤの量子化された変換係数を第2レイヤの特性と整合するようにスケーリングし、それによって、第1レイヤの量子化されスケーリングされた変換係数を作成するステップ;および
e)上記レイヤ統合指標が変換領域累算を示している場合に、第1レイヤのスケーリングされた変換係数を第2レイヤの量子化された変換係数と統合して、量子化され統合された係数を形成するステップを含む方法。
A method for conditionally integrating multiple layers in a multi-layer bitstream,
a) receiving the quantized transform coefficients of the first layer;
b) receiving the quantized transform coefficients of the second layer;
c) receiving a layer integration indicator;
d) when the layer integration indicator indicates transform domain accumulation, the quantized transform coefficients of the first layer are scaled to match the characteristics of the second layer, and thereby the first layer quantum Creating a normalized and scaled transform coefficient; and e) a quantized transform of the second layer to the scaled transform coefficient of the first layer if the layer integration indicator indicates transform domain accumulation Integrating the coefficients to form a quantized integrated coefficient.
マルチレイヤ・ビットストリームから拡張レイヤを再構成する方法であって、
a)第1レイヤのイントラ予測モードを受け取るステップ;
b)第1レイヤの予測モードが第2レイヤの予測に使用されることを示す、第2レイヤのビットストリーム予測指標を受け取るステップ;
c)第1レイヤの予測モードを用いて、第2レイヤ中の隣接するブロック・データに基づく第2レイヤ予測を構成するステップ;および
d)上記第2レイヤ予測を残差情報と統合し、それによって、再構成された第2レイヤを作成するステップを含む方法。
A method for reconstructing an enhancement layer from a multi-layer bitstream, comprising:
a) receiving a first layer intra prediction mode;
b) receiving a second layer bitstream prediction indicator indicating that the first layer prediction mode is used for second layer prediction;
c) configuring a second layer prediction based on adjacent block data in the second layer using the prediction mode of the first layer; and d) integrating the second layer prediction with residual information; Creating a reconstructed second layer by:
マルチレイヤ・ビットストリーム中の複数のレイヤを統合する方法であって、
a)マルチレイヤ画像の第1レイヤの第1の空間解像度を決定するステップ;
b)上記マルチレイヤ画像の第2レイヤの第2の空間解像度を決定するステップ;
c)上記第1の空間解像度を上記第2の空間解像度と比較するステップ;
d)上記第1の空間解像度が上記第2の空間解像度と実質的に等しい場合に、ステップe)〜f)を実行するステップ;
e)第1レイヤの変換係数を第2レイヤの特性と整合するようにスケーリングし、それによって、第1レイヤのスケーリングされた変換係数を作成するステップ;
f)第1レイヤのスケーリングされた変換係数を第2レイヤの変換係数と統合して、統合された係数を形成するステップ;
g)第1レイヤの空間解像度が第2レイヤの空間解像度と実質的に等しくない場合に、ステップh)〜k)を実行するステップ;
h)第1レイヤの変換係数を逆変換し、それによって第1レイヤの空間領域値を生成するステップ;
i)第2レイヤの変換係数を逆変換し、それによって第2レイヤの空間領域値を生成するステップ;
j)第1レイヤの空間領域値を第2レイヤの解像度と整合するようにスケーリングし、それによって、第1レイヤのスケーリングされた空間領域値を生成するステップ;および
k)第1レイヤのスケーリングされた空間領域値を第2レイヤの空間領域値と統合し、それによって、統合された空間領域残差値を生成するステップを含む方法。
A method for integrating multiple layers in a multi-layer bitstream comprising:
a) determining a first spatial resolution of the first layer of the multi-layer image;
b) determining a second spatial resolution of the second layer of the multi-layer image;
c) comparing the first spatial resolution with the second spatial resolution;
d) performing steps e) to f) when the first spatial resolution is substantially equal to the second spatial resolution;
e) scaling the first layer transform coefficients to match the characteristics of the second layer, thereby creating scaled transform coefficients for the first layer;
f) integrating the scaled transform coefficients of the first layer with the transform coefficients of the second layer to form an integrated coefficient;
g) performing steps h) to k) if the spatial resolution of the first layer is not substantially equal to the spatial resolution of the second layer;
h) inverse transforming the transform coefficients of the first layer, thereby generating a spatial domain value of the first layer;
i) inverse transforming the transform coefficients of the second layer, thereby generating a spatial domain value of the second layer;
j) scaling the spatial domain value of the first layer to match the resolution of the second layer, thereby generating a scaled spatial domain value of the first layer; and k) scaled of the first layer. Integrating the spatial region value with the spatial region value of the second layer, thereby generating an integrated spatial region residual value.
マルチレイヤ・ビットストリーム中の複数のレイヤを統合するためのシステムであって、
a)マルチレイヤ画像の第1レイヤの第1の空間解像度を決定すると共に、上記マルチレイヤ画像の第2レイヤの第2の空間解像度を決定するための解像度決定器;
b)上記第1の空間解像度を上記第2の空間解像度と比較するための比較器;
c)上記第1の空間解像度が上記第2の空間解像度と実質的に等しい場合に、ステップe)〜f)を実行するためのコントローラ;
d)第2レイヤの特性と整合するように第1レイヤの変換係数をスケーリングし、それによって、第1レイヤのスケーリングされた変換係数を作成するための係数スケーラ;
e)第1レイヤのスケーリングされた変換係数を第2レイヤの変換係数と統合して、統合された係数を形成するための係数統合器;
f)第1レイヤの空間解像度が第2レイヤの空間解像度と実質的に等しくない場合に、ステップg)〜i)を選択的に実行するコントローラ;
g)第1レイヤの変換係数を逆変換し、それによって第1レイヤの空間領域値を生成すると共に、第2レイヤの変換係数を逆変換し、それによって第2レイヤの空間領域値を生成するための逆変換器;
h)第1レイヤの空間領域値を第2レイヤの解像度と整合するようにスケーリングして、それによって第1レイヤのスケーリングされた空間領域値を生成するための空間領域スケーラ;および
i)第1レイヤのスケーリングされた空間領域値を第2レイヤの空間領域値と統合し、それによって、統合された空間領域残差値を生成するための空間領域統合器を含むシステム。
A system for integrating multiple layers in a multi-layer bitstream,
a) a resolution determiner for determining a first spatial resolution of the first layer of the multi-layer image and for determining a second spatial resolution of the second layer of the multi-layer image;
b) a comparator for comparing the first spatial resolution with the second spatial resolution;
c) a controller for performing steps e) to f) when the first spatial resolution is substantially equal to the second spatial resolution;
d) a coefficient scaler for scaling the first layer transform coefficients to match the characteristics of the second layer, thereby creating a scaled transform coefficient for the first layer;
e) a coefficient integrator for integrating the scaled transform coefficients of the first layer with the transform coefficients of the second layer to form an integrated coefficient;
f) a controller that selectively performs steps g) -i) when the spatial resolution of the first layer is not substantially equal to the spatial resolution of the second layer;
g) Inversely transform the first layer transform coefficients, thereby generating the first layer spatial domain values, and inverse transform the second layer transform coefficients, thereby generating the second layer spatial domain values Inverse converter for;
h) a spatial domain scaler for scaling the spatial domain value of the first layer to match the resolution of the second layer, thereby generating a scaled spatial domain value of the first layer; and i) first A system including a spatial domain integrator for integrating the scaled spatial domain value of a layer with the spatial domain value of a second layer, thereby generating an integrated spatial domain residual value.
マルチレイヤ・ビットストリーム中の複数のレイヤを統合する方法であって、
a)第1の空間解像度を持つ第1レイヤのための非量子化された変換係数を受け取るステップ;
b)第1の空間解像度を持つ第2レイヤのための非量子化された変換係数を受け取るステップ;
c)第1レイヤの変換係数をスケーリングし、それによって、第1レイヤのスケーリングされた変換係数を作成するステップ;
d)第1レイヤのスケーリングされた変換係数を第2レイヤの変換係数と統合し、それによって、統合された変換係数を作成するステップ;
e)統合された変換係数を逆変換し、それによって、統合された空間領域残差値を作成するステップ;
f)第2の空間解像度を持つ第3レイヤのための非量子化された変換係数を受け取るステップ;
g)統合された空間領域残差値を第2の空間解像度へリサンプリングし、それによって統合されリサンプリングされた空間領域値を作成するステップ;
h)第3レイヤの変換係数を逆変換し、それによって第3レイヤの空間領域値を作成するステップ;および
i)統合されリサンプリングされた空間領域値を第3レイヤの空間領域値と統合するステップを含む方法。
A method for integrating multiple layers in a multi-layer bitstream comprising:
a) receiving unquantized transform coefficients for a first layer having a first spatial resolution;
b) receiving unquantized transform coefficients for the second layer having the first spatial resolution;
c) scaling the first layer transform coefficients, thereby creating the first layer scaled transform coefficients;
d) integrating the scaled transform coefficients of the first layer with the transform coefficients of the second layer, thereby creating an integrated transform coefficient;
e) inverse transforming the integrated transform coefficients, thereby creating an integrated spatial domain residual value;
f) receiving unquantized transform coefficients for a third layer having a second spatial resolution;
g) resampling the merged spatial domain residual value to a second spatial resolution, thereby creating a consolidated and resampled spatial domain value;
h) inverse transforming the third layer transform coefficients, thereby creating a third layer spatial domain value; and i) integrating the integrated and resampled spatial domain value with the third layer spatial domain value. A method comprising steps.
マルチレイヤ・ビットストリーム中の複数のレイヤを統合する方法であって、
a)第1の空間解像度を持つ第1レイヤのための量子化された変換係数を受け取るステップ;
b)上記第1の空間解像度を持つ第2レイヤのための量子化された変換係数を受け取るステップ;
c)第1レイヤの量子化された変換係数をスケーリングし、それによって第1レイヤの量子化されスケーリングされた変換係数を作成するステップ;
d)第1レイヤの量子化されスケーリングされた変換係数を第2レイヤの量子化された変換係数と統合し、それによって、量子化され統合された変換係数を作成するステップ;
e)量子化され統合された変換係数を逆量子化し、それによって、統合された変換係数を作成するステップ;
f)統合された変換係数を逆変換し、それによって、統合された残差空間領域値を作成するステップ;
g)第2の空間解像度を持つ第3レイヤのための量子化された変換係数を受け取るステップ;
h)統合された残差空間領域値を第2の空間解像度へリサンプリングし、それによって、統合されリサンプリングされた空間領域値を作成するステップ;
i)第3レイヤの量子化された変換係数を逆量子化し、それによって第3レイヤの変換係数を作成するステップ;
j)第3レイヤの変換係数を逆変換し、それによって第3レイヤの空間領域値を作成するステップ;および
k)統合されリサンプリングされた空間領域値を第3レイヤの空間領域値と統合するステップを含む方法。
A method for integrating multiple layers in a multi-layer bitstream comprising:
a) receiving quantized transform coefficients for a first layer having a first spatial resolution;
b) receiving quantized transform coefficients for a second layer having the first spatial resolution;
c) scaling the first layer quantized transform coefficients, thereby creating the first layer quantized scaled transform coefficients;
d) integrating the quantized scaled transform coefficients of the first layer with the quantized transform coefficients of the second layer, thereby creating a quantized and unified transform coefficient;
e) dequantizing the quantized and integrated transform coefficients, thereby creating an integrated transform coefficient;
f) inverse transforming the integrated transform coefficients, thereby creating an integrated residual space domain value;
g) receiving quantized transform coefficients for a third layer having a second spatial resolution;
h) resampling the integrated residual spatial domain value to a second spatial resolution, thereby creating an integrated resampled spatial domain value;
i) dequantizing the quantized transform coefficients of the third layer, thereby creating the transform coefficients of the third layer;
j) inverse transforming the third layer transform coefficients, thereby creating a third layer spatial domain value; and k) integrating the integrated and resampled spatial domain value with the third layer spatial domain value. A method comprising steps.
マルチレイヤ・ビットストリーム中の複数のレイヤを統合する方法であって、
a)第1の空間解像度を持つ第1レイヤのための非量子化された変換係数を受け取るステップ;
b)第1レイヤの非量子化された変換係数を逆変換し、それによって第1レイヤの空間領域値を生成するステップ;
c)上記第1の空間解像度より高い第2の空間解像度を持つ第2レイヤのための非量子化された変換係数を受け取るステップ;
d)第2の空間解像度を持つ第3レイヤのための非量子化された変換係数を受け取るステップ;
e)第1レイヤの空間領域値を第2の空間解像度へアップサンプリングし、それによって第1レイヤのアップサンプリングされた空間領域値を生成するステップ;
f)第2レイヤの非量子化された変換係数を第3レイヤの非量子化された変換係数と統合し、それによって、統合された変換係数を作成するステップ;
g)統合された変換係数を逆変換し、それによって第1の統合された空間領域残差値を作成するステップ;および
h)第1レイヤのアップサンプリングされた空間領域値を第1の統合された空間領域残差値と統合するステップを含む方法。
A method for integrating multiple layers in a multi-layer bitstream comprising:
a) receiving unquantized transform coefficients for a first layer having a first spatial resolution;
b) inverse transforming the unquantized transform coefficients of the first layer, thereby generating a spatial domain value of the first layer;
c) receiving unquantized transform coefficients for a second layer having a second spatial resolution higher than the first spatial resolution;
d) receiving unquantized transform coefficients for a third layer having a second spatial resolution;
e) up-sampling the spatial domain value of the first layer to a second spatial resolution, thereby generating the up-sampled spatial domain value of the first layer;
f) integrating the non-quantized transform coefficients of the second layer with the non-quantized transform coefficients of the third layer, thereby creating an integrated transform coefficient;
g) inverse transforming the integrated transform coefficients, thereby creating a first integrated spatial domain residual value; and h) a first integrated upsampled spatial domain value of the first layer. Including integrating with a spatial domain residual value.
マルチレイヤ・ビットストリーム中の複数のレイヤを統合する方法であって、
a)第1の空間解像度を持つ第1レイヤのための量子化された変換係数を受け取るステップ;
b)第1の空間解像度を持つ第2レイヤのための量子化された変換係数を受け取るステップ;
c)第1の空間解像度を持つ第3レイヤのための量子化された変換係数を受け取るステップ;
d)第1レイヤの量子化された変換係数を第2レイヤの特性整合するようにスケーリングし、それによって第1レイヤの量子化されスケーリングされた変換係数を作成するステップ;
e)第1レイヤの量子化されスケーリングされた変換係数を第2レイヤの量子化された変換係数と統合し、それによって、量子化され統合された変換係数を作成するステップ;
f)量子化され統合された変換係数を逆量子化し、それによって、統合された変換係数を作成するステップ;
g)第3レイヤの量子化された変換係数を逆量子化し、それによって第3レイヤの非量子化された変換係数を作成するステップ;
h)統合された変換係数を第3レイヤの非量子化された変換係数と統合し、それによって3つのレイヤの統合された変換係数を作成するステップ;および
i)3つのレイヤの統合された変換係数を逆変換し、それによって、統合された空間領域値を作成するステップを含む方法。
A method for integrating multiple layers in a multi-layer bitstream comprising:
a) receiving quantized transform coefficients for a first layer having a first spatial resolution;
b) receiving quantized transform coefficients for a second layer having a first spatial resolution;
c) receiving quantized transform coefficients for a third layer having a first spatial resolution;
d) scaling the quantized transform coefficients of the first layer to match the characteristics of the second layer, thereby creating a quantized scaled transform coefficient of the first layer;
e) integrating the quantized scaled transform coefficients of the first layer with the quantized transform coefficients of the second layer, thereby creating a quantized and unified transform coefficient;
f) dequantizing the quantized and integrated transform coefficients, thereby creating an integrated transform coefficient;
g) dequantizing the quantized transform coefficients of the third layer, thereby creating a non-quantized transform coefficient of the third layer;
h) integrating the integrated transform coefficients with the non-quantized transform coefficients of the third layer, thereby creating an integrated transform coefficient of the three layers; and i) an integrated transform of the three layers A method comprising the step of inverse transforming the coefficients, thereby creating an integrated spatial domain value.
マルチレイヤ・ビットストリーム中の複数のレイヤを統合する方法であって、
i)マルチレイヤ画像の第2レイヤが残差予測を使用しているかを判定するステップ;
ii)第2レイヤが残差予測を使用している場合のみ、以降の各ステップを実行するステップ;
iii)マルチレイヤ画像の第1レイヤの第1の空間解像度を決定するステップ;
iv)第2レイヤの第2の空間解像度を決定するステップ;
v)上記第1の空間解像度を上記第2の空間解像度と比較するステップ;
vi)第1の空間解像度が第2の空間解像度と実質的に等しい場合に、ステップvii)〜viii)を実行するステップ;
vii)第1レイヤの変換係数を第2レイヤの特性と整合するようにスケーリングし、それによって、第1レイヤのスケーリングされた変換係数を作成するステップ;
viii)第1レイヤのスケーリングされた変換係数を第2レイヤの変換係数と統合して、統合された係数を形成するステップ;
ix)第1レイヤの空間解像度が第2レイヤの空間解像度と実質的に等しくない場合に、ステップx)〜xiii)を実行するステップ;
x)第1レイヤの変換係数を逆変換し、それによって第1レイヤの空間領域値を生成するステップ;
xi)第2レイヤの変換係数を逆変換し、それによって第2レイヤの空間領域値を生成するステップ;
xii)第1レイヤの空間領域値を第2レイヤの解像度と整合するようにスケーリングして、それによって第1レイヤのスケーリングされた空間領域値を生成するステップ;および
xiii)第1レイヤのスケーリングされた空間領域値を第2レイヤの空間領域値と統合し、それによって、統合された空間領域値を生成するステップを含む方法。
A method for integrating multiple layers in a multi-layer bitstream comprising:
i) determining whether the second layer of the multi-layer image uses residual prediction;
ii) performing the subsequent steps only if the second layer uses residual prediction;
iii) determining a first spatial resolution of the first layer of the multi-layer image;
iv) determining a second spatial resolution of the second layer;
v) comparing the first spatial resolution with the second spatial resolution;
vi) performing steps vii) -viii) if the first spatial resolution is substantially equal to the second spatial resolution;
vii) scaling the first layer transform coefficients to match the characteristics of the second layer, thereby creating scaled transform coefficients for the first layer;
viii) integrating the scaled transform coefficients of the first layer with the transform coefficients of the second layer to form an integrated coefficient;
ix) performing steps x) to xiii) if the spatial resolution of the first layer is not substantially equal to the spatial resolution of the second layer;
x) inverse transforming the transform coefficients of the first layer, thereby generating the spatial domain values of the first layer;
xi) inverse transforming the transform coefficients of the second layer, thereby generating a spatial domain value of the second layer;
xii) scaling the spatial domain value of the first layer to match the resolution of the second layer, thereby generating a scaled spatial domain value of the first layer;
xiii) integrating the scaled spatial domain value of the first layer with the spatial domain value of the second layer, thereby generating an integrated spatial domain value.
マルチレイヤ・ビットストリーム中の変換係数をスケーリングする方法であって、
上記マルチレイヤ・ビットストリームに基づいて第1レイヤの量子化パラメータを決定するステップ;
上記マルチレイヤ・ビットストリームに基づいて第2レイヤの量子化パラメータを決定するステップ;および
第1レイヤの量子化パラメータおよび第2レイヤの量子化パラメータに基づいて第1レイヤの変換係数をスケーリングするステップを含む方法。
A method for scaling transform coefficients in a multi-layer bitstream, comprising:
Determining a first layer quantization parameter based on the multi-layer bitstream;
Determining a second layer quantization parameter based on the multi-layer bitstream; and scaling a first layer transform coefficient based on the first layer quantization parameter and the second layer quantization parameter. Including methods.
エントロピー符号化プロセスを制御するための方法であって、
a)対象マクロブロックに隣接する第1の隣接マクロブロックを識別するステップ;
b)対象マクロブロックに隣接する第2の隣接マクロブロックを識別するステップ;
c)第1の隣接マクロブロックが別のレイヤを参照して符号化されているかを示す第1のマクロブロック指標を決定するステップ;
d)第2の隣接マクロブロックが別のレイヤを参照して符号化されているかを示す第2のマクロブロック指標を決定するステップ;および
e)第1のマクロブロック指標および第2のマクロブロック指標に基づいてエントロピー符号化制御値を決定するステップを含む方法。
A method for controlling an entropy encoding process comprising:
a) identifying a first neighboring macroblock adjacent to the target macroblock;
b) identifying a second adjacent macroblock adjacent to the target macroblock;
c) determining a first macroblock index indicating whether the first neighboring macroblock is encoded with reference to another layer;
d) determining a second macroblock index indicating whether the second neighboring macroblock is coded with reference to another layer; and e) a first macroblock index and a second macroblock index. Determining an entropy encoding control value based on the method.
エントロピー符号化プロセスを制御するための方法であって、
a)対象マクロブロックに隣接する第1の隣接マクロブロックを識別するステップ;
b)対象マクロブロックに隣接する第2の隣接マクロブロックを識別するステップ;
c)上記第1の隣接マクロブロックが利用可能であるかを判定するステップ;
d)上記第1の隣接マクロブロックがレイヤ間予測モードで符号化されているかを判定するステップ;
e)上記第1の隣接マクロブロックが空間領域で符号化されているかを判定するステップ;
f)上記第1の隣接マクロブロックがDC予測モードでイントラ予測されているかを判定するステップ;
g)上記第1の隣接マクロブロックが別のレイヤを参照して符号化されているかを判定するステップ;
h)ステップc)〜g)の何れかが真であれば、第1の隣接ブロック・フラグを1にセットするステップ;
i)上記第2の隣接マクロブロックが利用可能かを判定するステップ;
j)上記第2の隣接マクロブロックがレイヤ間予測モードで符号化されているかを判定するステップ;
k)上記第2の隣接マクロブロックが空間領域で符号化されているかを判定するステップ;
l)上記第2の隣接マクロブロックがDC予測モードでイントラ予測されているかを判定するステップ;
m)上記第2の隣接マクロブロックが別のレイヤを参照して符号化されているかを判定するステップ;
n)ステップi)〜m)の何れかが真であれば、第2の隣接ブロック・フラグ値を1にセットするステップ;および
o)上記第1の隣接ブロック・フラグ値と上記第2の隣接ブロック・フラグ値とを加算してエントロピー符号化制御値を生成するステップを含む方法。
A method for controlling an entropy encoding process comprising:
a) identifying a first neighboring macroblock adjacent to the target macroblock;
b) identifying a second adjacent macroblock adjacent to the target macroblock;
c) determining whether the first neighboring macroblock is available;
d) determining whether the first neighboring macroblock is encoded in inter-layer prediction mode;
e) determining whether the first neighboring macroblock is encoded in the spatial domain;
f) determining whether the first neighboring macroblock is intra predicted in DC prediction mode;
g) determining whether the first neighboring macroblock is encoded with reference to another layer;
h) if any of steps c) -g) is true, setting the first adjacent block flag to 1;
i) determining whether the second neighboring macroblock is available;
j) determining whether the second adjacent macroblock is encoded in inter-layer prediction mode;
k) determining whether the second neighboring macroblock is encoded in the spatial domain;
l) determining whether the second neighboring macroblock is intra predicted in DC prediction mode;
m) determining whether the second neighboring macroblock is encoded with reference to another layer;
n) if any of steps i) to m) is true, setting a second adjacent block flag value to 1; and o) the first adjacent block flag value and the second adjacent Adding the block flag value to generate an entropy encoding control value.
予測モードを決定するための方法であって、
a)対象マクロブロックに隣接する第1の隣接マクロブロックを識別するステップ;
b)対象マクロブロックに隣接する第2の隣接マクロブロックを識別するステップ;および
c)以下の条件i)〜vi):
i)第1の隣接マクロブロックが利用可能である;
ii)第1の隣接マクロブロックがレイヤ間予測モードで符号化されている;
iii)第1の隣接マクロブロックが別のレイヤを参照して符号化されている;
iv)第2の隣接マクロブロックが利用可能である;
v)第2の隣接マクロブロックがレイヤ間予測モードで符号化されている;
vi)第2の隣接マクロブロックが別のレイヤを参照して符号化されている;
の何れかが真であれば、対象ブロックの推定された予測モードを予め定められたモードにセットするステップを含む方法。
A method for determining a prediction mode, comprising:
a) identifying a first neighboring macroblock adjacent to the target macroblock;
b) identifying a second neighboring macroblock adjacent to the target macroblock; and c) the following conditions i) to vi):
i) the first neighboring macroblock is available;
ii) the first neighboring macroblock is coded in inter-layer prediction mode;
iii) the first neighboring macroblock is encoded with reference to another layer;
iv) a second neighboring macroblock is available;
v) the second neighboring macroblock is coded in inter-layer prediction mode;
vi) the second neighboring macroblock is encoded with reference to another layer;
If any of the above is true, the method includes the step of setting the estimated prediction mode of the target block to a predetermined mode.
マルチレイヤ・ビットストリーム中の複数のレイヤを統合する方法であって、
a)符号化画像係数と符号化ブロック・パターン(Cbp)情報とを含むビットストリームであって、上記Cbp情報がビットストリーム中における変換係数を含む領域を識別するビットストリームを受け取るステップ;
b)上記Cbp情報を復号するステップ;
c)Cbp情報を用いて変換係数を含むビットストリーム領域を識別することによって、ビットストリームを解析するステップ;
d)ビットストリーム中の第1レイヤの変換係数をビットストリーム中の第2レイヤの特性と整合するようにスケーリングするステップ;
e)第1レイヤのスケーリングされた変換係数を第2レイヤの変換係数に加算して、統合されたレイヤ中の統合された係数を形成するステップ;および
f)統合されたレイヤ中における変換係数を含む領域を識別する情報である、統合されたレイヤのための統合されたCbp情報を計算するステップを含む方法。
A method for integrating multiple layers in a multi-layer bitstream comprising:
a) receiving a bitstream that includes encoded image coefficients and encoded block pattern (Cbp) information, wherein the Cbp information identifies an area that includes transform coefficients in the bitstream;
b) decoding the Cbp information;
c) analyzing the bitstream by identifying the bitstream region containing the transform coefficients using the Cbp information;
d) scaling the transform coefficients of the first layer in the bitstream to match the characteristics of the second layer in the bitstream;
e) adding the scaled transform coefficients of the first layer to the transform coefficients of the second layer to form the merged coefficients in the merged layer; and f) transform coefficients in the merged layer A method comprising calculating integrated Cbp information for an integrated layer, which is information identifying a region to include.
マルチレイヤ・ビットストリーム中の複数のレイヤを統合するためのシステムであって、
g)符号化画像係数と符号化ブロック・パターン(Cbp)情報とを含むビットストリームであって、上記Cbp情報がビットストリーム中における変換係数を含む領域を識別するものであるビットストリームを受け取るための受信機;
h)Cbp情報を復号するためのデコーダ;
i)Cbp情報を用いて変換係数を含むビットストリーム領域を識別することによって、ビットストリームを解析するためのパーサ;
j)ビットストリーム中の第1レイヤの変換係数をビットストリー中の第2レイヤの特性と整合するようにスケーリングするためのスケーラ;
k)第1レイヤのスケーリングされた変換係数を第2レイヤの変換係数に加算して、統合されたレイヤ中の統合された係数を形成するための加算器;および
l)統合されたレイヤ中における変換係数を含む領域を識別する情報である、統合されたレイヤのための統合されたCbp情報を計算するための計算器を含むシステム。
A system for integrating multiple layers in a multi-layer bitstream,
g) for receiving a bitstream including encoded image coefficients and encoded block pattern (Cbp) information, wherein the Cbp information identifies an area including a transform coefficient in the bitstream. Receiving machine;
h) a decoder for decoding Cbp information;
i) a parser for analyzing the bitstream by identifying the bitstream region containing the transform coefficients using Cbp information;
j) a scaler for scaling the first layer transform coefficients in the bitstream to match the characteristics of the second layer in the bitstream;
k) an adder for adding the scaled transform coefficients of the first layer to the transform coefficients of the second layer to form a merged coefficient in the merged layer; and l) in the merged layer A system including a calculator for calculating integrated Cbp information for an integrated layer, which is information identifying a region containing transform coefficients.
変換サイズが拡張レイヤ中で示されていない場合に、再構成変換サイズを選択するための方法であって、
a)下位レイヤの変換サイズを決定するステップ;
b)下位レイヤの変換サイズが予め定められた変換サイズに実質的に類似しているかを判断するステップ;
c)下位レイヤの変換サイズが予め定められた変換サイズに実質的に類似している場合に、予め定められた変換サイズの逆変換を再構成変換として選択するステップ;および
d)下位レイヤの変換サイズが予め定められた変換サイズに実質的に類似していない場合に、デフォルト変換サイズの逆変換を再構成変換として選択するステップを含む方法。
A method for selecting a reconstructed transform size when the transform size is not indicated in the enhancement layer,
a) determining the transform size of the lower layer;
b) determining whether the transformation size of the lower layer is substantially similar to a predetermined transformation size;
c) selecting the inverse transform of the predetermined transform size as the reconstruction transform if the transform size of the lower layer is substantially similar to the predetermined transform size; and d) transforming the lower layer Selecting the inverse transform of the default transform size as the reconstruction transform if the size is not substantially similar to the predetermined transform size.
JP2009519132A 2006-07-10 2007-07-09 Method and system for integrating multiple layers in a multi-layer bitstream Pending JP2009543501A (en)

Applications Claiming Priority (11)

Application Number Priority Date Filing Date Title
US80693006P 2006-07-10 2006-07-10
US82861806P 2006-10-06 2006-10-06
US88849907P 2007-02-06 2007-02-06
US89414807P 2007-03-09 2007-03-09
US11/694,955 US8130822B2 (en) 2006-07-10 2007-03-31 Methods and systems for conditional transform-domain residual accumulation
US11/694,956 US8059714B2 (en) 2006-07-10 2007-03-31 Methods and systems for residual layer scaling
US11/694,959 US8422548B2 (en) 2006-07-10 2007-03-31 Methods and systems for transform selection and management
US11/694,954 US8532176B2 (en) 2006-07-10 2007-03-31 Methods and systems for combining layers in a multi-layer bitstream
US11/694,958 US7885471B2 (en) 2006-07-10 2007-03-31 Methods and systems for maintenance and use of coded block pattern information
US11/694,957 US7840078B2 (en) 2006-07-10 2007-03-31 Methods and systems for image processing control based on adjacent block characteristics
PCT/JP2007/064040 WO2008007792A1 (en) 2006-07-10 2007-07-09 Methods and systems for combining layers in a multi-layer bitstream

Publications (2)

Publication Number Publication Date
JP2009543501A true JP2009543501A (en) 2009-12-03
JP2009543501A5 JP2009543501A5 (en) 2011-05-19

Family

ID=38923347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009519132A Pending JP2009543501A (en) 2006-07-10 2007-07-09 Method and system for integrating multiple layers in a multi-layer bitstream

Country Status (4)

Country Link
EP (1) EP2044773A4 (en)
JP (1) JP2009543501A (en)
CN (2) CN102685496B (en)
WO (1) WO2008007792A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014511654A (en) * 2011-03-10 2014-05-15 ヴィディオ・インコーポレーテッド Dependency parameter set for scalable video coding
JP2015527811A (en) * 2012-07-10 2015-09-17 クゥアルコム・インコーポレイテッドQualcomm Incorporated Generalized residual prediction for scalable video coding and 3D video coding
JP2019062570A (en) * 2013-04-15 2019-04-18 ロッサト、ルカ Method for decoding hybrid upward compatible data stream

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8289370B2 (en) 2005-07-20 2012-10-16 Vidyo, Inc. System and method for scalable and low-delay videoconferencing using scalable video coding
KR101505195B1 (en) 2008-02-20 2015-03-24 삼성전자주식회사 Method for direct mode encoding and decoding
JP5169978B2 (en) * 2009-04-24 2013-03-27 ソニー株式会社 Image processing apparatus and method
DE102009039095A1 (en) * 2009-08-27 2011-03-10 Siemens Aktiengesellschaft Method and apparatus for generating, decoding and transcoding a coded video data stream
US20120257675A1 (en) * 2011-04-11 2012-10-11 Vixs Systems, Inc. Scalable video codec encoder device and methods thereof
US20130083856A1 (en) * 2011-06-29 2013-04-04 Qualcomm Incorporated Contexts for coefficient level coding in video compression
US9313486B2 (en) 2012-06-20 2016-04-12 Vidyo, Inc. Hybrid video coding techniques
CN102790905B (en) * 2012-08-03 2016-08-17 重庆大学 The code-transferring method H.264/SVC arrived H.264/AVC based on P2PVoD video on-demand system
EP2904803A1 (en) 2012-10-01 2015-08-12 GE Video Compression, LLC Scalable video coding using derivation of subblock subdivision for prediction from base layer
CN104813667B (en) * 2012-11-15 2018-03-16 联发科技股份有限公司 Interframe layer prediction method and device for scalable video
CN109068136B (en) * 2012-12-18 2022-07-19 索尼公司 Image processing apparatus, image processing method, and computer-readable storage medium
TWI597968B (en) 2012-12-21 2017-09-01 杜比實驗室特許公司 High precision up-sampling in scalable coding of high bit-depth video
KR20140138538A (en) 2013-05-24 2014-12-04 주식회사 케이티 Method and apparatus for multi-layer video coding
CN106105213B (en) 2014-03-24 2019-09-10 株式会社Kt Multi-layer video signal encoding/decoding method and apparatus

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004112808A (en) * 2002-09-17 2004-04-08 Lg Electronics Inc Micro unit expansion and shrinkage encoding/decoding apparatus and its method
JP2006157881A (en) * 2004-11-08 2006-06-15 Toshiba Corp Variable-length coding device and method of same

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2697393A1 (en) * 1992-10-28 1994-04-29 Philips Electronique Lab Device for coding digital signals representative of images, and corresponding decoding device.
US6795501B1 (en) * 1997-11-05 2004-09-21 Intel Corporation Multi-layer coder/decoder for producing quantization error signal samples
JP3561485B2 (en) * 2000-08-18 2004-09-02 株式会社メディアグルー Coded signal separation / synthesis device, difference coded signal generation device, coded signal separation / synthesis method, difference coded signal generation method, medium recording coded signal separation / synthesis program, and difference coded signal generation program recorded Medium
US6925120B2 (en) * 2001-09-24 2005-08-02 Mitsubishi Electric Research Labs, Inc. Transcoder for scalable multi-layer constant quality video bitstreams
US7263124B2 (en) * 2001-09-26 2007-08-28 Intel Corporation Scalable coding scheme for low latency applications
JP2004363931A (en) * 2003-06-04 2004-12-24 Nippon Telegr & Teleph Corp <Ntt> Method and apparatus for re-encoding hierarchically encoded bit stream
JP4068537B2 (en) * 2003-09-03 2008-03-26 日本電信電話株式会社 Hierarchical coded bitstream requantization method and apparatus, hierarchical coded bitstream requantization program, and recording medium recording the program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004112808A (en) * 2002-09-17 2004-04-08 Lg Electronics Inc Micro unit expansion and shrinkage encoding/decoding apparatus and its method
JP2006157881A (en) * 2004-11-08 2006-06-15 Toshiba Corp Variable-length coding device and method of same

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6012043844; Mei KODAMA and Shunya SUZUKI: 'Scalable video transcoding method with spatial updatable scalability' The 2004 47th Midwest Symposium on Circuits and Systems, 2004. MWSCAS '04. vol.1, 20040725, p. I-257- I-260 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014511654A (en) * 2011-03-10 2014-05-15 ヴィディオ・インコーポレーテッド Dependency parameter set for scalable video coding
JP2015527811A (en) * 2012-07-10 2015-09-17 クゥアルコム・インコーポレイテッドQualcomm Incorporated Generalized residual prediction for scalable video coding and 3D video coding
US9843801B2 (en) 2012-07-10 2017-12-12 Qualcomm Incorporated Generalized residual prediction for scalable video coding and 3D video coding
JP2019062570A (en) * 2013-04-15 2019-04-18 ロッサト、ルカ Method for decoding hybrid upward compatible data stream

Also Published As

Publication number Publication date
CN101507282B (en) 2012-06-27
CN101507282A (en) 2009-08-12
EP2044773A4 (en) 2011-10-12
EP2044773A1 (en) 2009-04-08
CN102685496B (en) 2014-11-05
CN102685496A (en) 2012-09-19
WO2008007792A1 (en) 2008-01-17

Similar Documents

Publication Publication Date Title
JP5179484B2 (en) Method and system for communicating multi-layer bitstream data
JP2009543501A (en) Method and system for integrating multiple layers in a multi-layer bitstream
US7885471B2 (en) Methods and systems for maintenance and use of coded block pattern information
KR102020838B1 (en) Methods And Apparatuses For Encoding and Decoding Quantization marix
US8532176B2 (en) Methods and systems for combining layers in a multi-layer bitstream
US10334261B2 (en) Method and arrangement for transcoding a video bitstream
US7840078B2 (en) Methods and systems for image processing control based on adjacent block characteristics
US8059714B2 (en) Methods and systems for residual layer scaling
JP5095750B2 (en) Image bitstream processing method
US8422548B2 (en) Methods and systems for transform selection and management
US8351502B2 (en) Method and apparatus for adaptively selecting context model for entropy coding
TWI528831B (en) Methods and apparatus for inter-layer residue prediction for scalable video
US8155181B2 (en) Multilayer-based video encoding method and apparatus thereof
US8130822B2 (en) Methods and systems for conditional transform-domain residual accumulation
TWI617180B (en) Method and apparatus for scalable video encoding based on coding units of tree structure, method and apparatus for scalable video decoding based on coding units of tree structure
KR20170139016A (en) Dynamic range adjustment for high dynamic range and wide color gamut video coding
CA2543947A1 (en) Method and apparatus for adaptively selecting context model for entropy coding
US9521412B2 (en) Method and device for determining residual data for encoding or decoding at least part of an image
GB2499865A (en) Method and Devices for Encoding/Decoding an Enhancement Layer Intra Image in a Scalable Video Bit-stream

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110401

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120321

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121225

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130507