JP5456907B2 - Texture pattern adaptive division block transform - Google Patents

Texture pattern adaptive division block transform Download PDF

Info

Publication number
JP5456907B2
JP5456907B2 JP2012541293A JP2012541293A JP5456907B2 JP 5456907 B2 JP5456907 B2 JP 5456907B2 JP 2012541293 A JP2012541293 A JP 2012541293A JP 2012541293 A JP2012541293 A JP 2012541293A JP 5456907 B2 JP5456907 B2 JP 5456907B2
Authority
JP
Japan
Prior art keywords
texture pattern
pixels
sequence
pixel
coefficient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012541293A
Other languages
Japanese (ja)
Other versions
JP2013512627A (en
Inventor
チェン,ジ・ボ
スー,シャオチョン
チェン,クチン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2013512627A publication Critical patent/JP2013512627A/en
Application granted granted Critical
Publication of JP5456907B2 publication Critical patent/JP5456907B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Description

本発明は画像のエンコードの技術分野でなされるものである。より詳細には、本発明は分割ブロック変換(partitioned block transform)を使って画像の画像ブロックをエンコードすることに関する。   The present invention is made in the technical field of image encoding. More particularly, the present invention relates to encoding an image block of an image using a partitioned block transform.

画像をエンコードするためには、離散コサイン変換(DCT: discrete cosine transforms)または離散ウェーブレット変換(DWT: discrete wavelet transform)を使って画像の画像ブロックを変換することが当技術分野においてよく知られている。   To encode an image, it is well known in the art to transform image blocks of an image using discrete cosine transforms (DCT) or discrete wavelet transforms (DWT). .

たとえば、ハイブリッド・ビデオ符号化において一般的に使われるDCTは、空間領域における冗長性を活用し、相関の高い信号について優れたエネルギー圧縮を示すとともに、分離可能(separable)、対称的(symmetric)かつ直交(orthogonal)という属性を示す。   For example, DCT, commonly used in hybrid video coding, exploits redundancy in the spatial domain, exhibits excellent energy compression for highly correlated signals, is separable, symmetric and Indicates an attribute called orthogonal.

現行の画像/ビデオ符号化規格は通例二次元の分離可能なDCTまたはDWTを符号化に使い、その基底関数は水平配向の1D基底関数に垂直配向の同じ関数の集合をかけることによって生成できる。   Current image / video coding standards typically use a two-dimensional separable DCT or DWT for coding, whose basis functions can be generated by multiplying a horizontally oriented 1D basis function by the same set of vertically oriented functions.

たとえば、例示的なN×Nブロックについて、第一に、N個のN点1D DCT演算(第一の1D変換)がもとのピクセルに対して縦方向に実行されてN×Nの中間係数を生成し;第二に、N個のN点1D DCT演算(第二の1D変換)が中間係数に対して横方向に実行されて、さらに変換された係数を生成する。この種の方式は厳密に水平方向または垂直方向に配向された画像テクスチャー詳細についてはよく機能する傾向がある一方、他のエッジ配向のまわりにはリンギング・アーチファクトが現れる傾向がある。これは視覚的な品質を有意に劣化させる。   For example, for an exemplary N × N block, first, N N-point 1D DCT operations (first 1D transform) are performed on the original pixel in the vertical direction and N × N intermediate coefficients Second, N N-point 1D DCT operations (second 1D transform) are performed laterally on the intermediate coefficients to produce further transformed coefficients. While this type of approach tends to work well for image texture details that are strictly oriented in the horizontal or vertical direction, there is a tendency for ringing artifacts to appear around other edge orientations. This significantly degrades visual quality.

この問題は、非特許文献1によって識別され、対処されている。この論文において、著者らは方向適応式の分割ブロック変換(DA-PBT: direction-adaptive partitioned block transform)を提案している。それによれば、画像ブロックは方向性のパーティションに分割される。パーティション境界は第一の1D変換の方向に揃えられ、第二の1D変換の長さはパーティション境界をまたいで延在しないよう制限される。これにより、1D変換の必要とされる最大長さはNに等しくなることが保証される。   This problem is identified and addressed by Non-Patent Document 1. In this paper, the authors propose a direction-adaptive partitioned block transform (DA-PBT). According to this, the image block is divided into directional partitions. The partition boundary is aligned with the direction of the first 1D transformation, and the length of the second 1D transformation is limited so that it does not extend across the partition boundary. This ensures that the required maximum length for 1D conversion is equal to N.

C. L. Chang and B. Girod, "Directional-Adaptive Partitioned Block Transform for Image Coding", ICIP 2008C. L. Chang and B. Girod, "Directional-Adaptive Partitioned Block Transform for Image Coding", ICIP 2008

1D変換の必要とされる最大長さを制限するものの、非特許文献1によって提案されるDA-PBTは、N個より多くの第一の1D変換またはN個より多くの第二の1D変換を必要とすることがある。さらに、DA-PBTの適用のためには、画像ブロック中に方向が存在する必要がある。   Although the maximum length required for 1D conversion is limited, DA-PBT proposed by Non-Patent Document 1 can perform more than N first 1D conversions or more than N second 1D conversions. You may need it. Furthermore, for application of DA-PBT, a direction needs to exist in an image block.

本発明の発明者は、第一のパーティションのピクセルにテクスチャー・パターンに関連した反転可能な(invertible)マッピングを適用することによって画像ブロックの少なくとも一部分の前記第一のパーティションのピクセルを累積し、前記第一のパーティションは前記画像ブロックを、前記テクスチャー・パターンに関連した反転可能なマッピングが関連している現在テクスチャー・パターンに従って分割することから帰結するものとすることによって、必要とされる第一の1D変換の最大数をNに制限するとともに、必要とされる第二の1D変換の最大数もNに制限することができることを認識した。   The inventor of the present invention accumulates the pixels of the first partition of at least a portion of the image block by applying an invertible mapping associated with the texture pattern to the pixels of the first partition, A first partition is required by partitioning the image block according to a current texture pattern to which an invertible mapping associated with the texture pattern is associated. It was recognized that the maximum number of 1D conversions can be limited to N, and the maximum number of required second 1D conversions can also be limited to N.

この最大の必要とされる1D変換の限定はハードウェア上でのより効率的な実装および改善されたエンコード・パフォーマンスを可能にするが、ピクセルの累積はこの限定を達成するのみならず、複数ストリップ、高度に非対称的なピクセル分布をもつテクスチャー・パターンおよび非方向性のテクスチャー・パターンのうちの少なくとも一つを有するテクスチャー・パターンに基づくさらなるパーティションをも許容する。   This maximum required 1D conversion limitation allows more efficient implementation on hardware and improved encoding performance, but pixel accumulation not only achieves this limitation, but also multiple strips Further partitioning based on a texture pattern having at least one of a texture pattern with a highly asymmetric pixel distribution and a non-directional texture pattern is also allowed.

したがって、画像の画像ブロックをエンコードする方法および装置が提案される。本方法は、第一のパーティションのピクセルにテクスチャー・パターンに関連した反転可能なマッピングを適用することによって画像ブロックの少なくとも一部分の前記第一のパーティションのピクセルを累積し、前記第一のパーティションは前記画像ブロックを、前記テクスチャー・パターンに関連した反転可能なマッピングが関連している現在テクスチャー・パターンに従って分割することから帰結するものであり、前記現在テクスチャー・パターンの再構成または取得を許容するデータのエントロピー・エンコードを行う段階を含む。   Accordingly, a method and apparatus for encoding an image block of an image is proposed. The method accumulates pixels of the first partition of at least a portion of an image block by applying a reversible mapping associated with a texture pattern to the pixels of the first partition, wherein the first partition is the Resulting from partitioning the image block according to the current texture pattern to which the invertible mapping associated with the texture pattern is associated, and for allowing data to be reconstructed or obtained from the current texture pattern Including entropy encoding.

前記画像ブロックがNかけるMのピクセルを含み、NはM以上である実施形態では、提案されるエンコード方法は、前記画像ブロックの前記少なくとも一部分を、現在テクスチャー・パターンに関連する現在テクスチャー・パターン適応パーティションに従って、第一の部分集合のピクセルおよび少なくとも第二の部分集合のピクセルにパーティション分割する段階と、テクスチャー・パターンに関連するスキャン順を使って前記第一の部分集合のピクセルを、ピクセル・シーケンスのメタシーケンスに配列する段階であって、前記テクスチャー・パターンに関連するスキャン順は前記現在テクスチャー・パターンに関連し、前記ピクセル・シーケンスのそれぞれは高々N個のピクセルを含む、段階と、高々M個のさらなるピクセル・シーケンスのさらなるメタシーケンスを生成する段階であって、前記さらなるピクセル・シーケンスのそれぞれは前記ピクセル・シーケンスの一つまたは前記メタシーケンスのサブシーケンスのピクセル・シーケンスを連結したもののいずれかを含み、前記さらなるピクセル・シーケンスのそれぞれは高々N個のピクセルを含む、段階と、前記さらなるピクセル・シーケンスを変換することによって係数シーケンスを生成する段階と、前記係数シーケンスを横断する一次元変換によりさらなる係数シーケンスを生成する段階と、前記さらなる係数シーケンスに含まれる係数を量子化およびスキャンすることによって一層さらなる係数シーケンスを生成する段階であって、スキャンはエンコード・スキャン順に従って行われる、段階と前記一層さらなる係数シーケンスをエントロピー・エンコードする段階と、前記現在テクスチャー・パターンに関連する指標をエントロピー・エンコードする段階であって、前記指標は前記現在テクスチャー・パターンの取得または再構成を許容する参照である、段階とを含む。   In an embodiment where the image block includes N times M pixels, where N is greater than or equal to M, the proposed encoding method uses the at least a portion of the image block as a current texture pattern adaptation associated with a current texture pattern. Partitioning the first subset of pixels according to the partition into a first subset of pixels and at least a second subset of pixels using a scan order associated with the texture pattern; A scan sequence associated with the texture pattern is associated with the current texture pattern, and each of the pixel sequences includes at most N pixels, and at most M More additional pixel sequences Each of said further pixel sequences comprises either one of said pixel sequences or a concatenation of pixel sequences of sub-sequences of said metasequence, and said further pixel sequence Each of the sequences includes at most N pixels, generating a coefficient sequence by transforming the further pixel sequence, and generating a further coefficient sequence by a one-dimensional transformation across the coefficient sequence Generating a further coefficient sequence by quantizing and scanning the coefficients contained in the further coefficient sequence, wherein the scanning is performed according to an encoding scan order; Entropy encoding a process, and entropy encoding an index associated with the current texture pattern, the index being a reference that allows acquisition or reconstruction of the current texture pattern; and including.

前記例示的な実施形態において、本方法は、前記現在テクスチャー・パターン適応パーティションが複数ストリップ、非対称的なテクスチャー・パターンまたは非方向性のテクスチャーを含むテクスチャー・パターンに関連していてもよいよう適応される。   In the exemplary embodiment, the method is adapted such that the current texture pattern adaptive partition may be associated with a texture pattern that includes multiple strips, asymmetric texture patterns, or non-directional textures. The

前記少なくとも第二の部分集合のピクセルは、前記第一の部分集合のピクセルと同様に扱われてもよいが、エンコード・スキャン順は異なっていてもよい。さらに、前記第一の部分集合と前記少なくとも第二の部分集合の間の係数予測が適用されてもよい。   The at least second subset of pixels may be treated in the same manner as the first subset of pixels, but the encoding scan order may be different. Further, coefficient prediction between the first subset and the at least second subset may be applied.

前記パーティション分割が行われる前記少なくとも一部分は、エッジ検出、セグメンテーションまたは強度分布分類の結果であってもよい。   The at least part of the partitioning may be a result of edge detection, segmentation or intensity distribution classification.

本発明はさらに、画像のエンコードされた画像ブロックをデコードする方法を提案する。前記画像ブロックはNかけるMのピクセルを含み、NはM以上である。本方法は、前記画像ブロックの少なくとも一部分の第一の部分集合をデコードすることを、(a)第一の係数のエンコードされたシーケンスをエントロピー・デコードし、(b)現在テクスチャー・パターンに関連するエンコードされた指標をエントロピー・デコードし、該指標を使って、該指標に基づくメモリからの取得または再構成のいずれかによって前記現在テクスチャー・パターンを生成し、(c)デコード・スキャン順を使って前記第一の係数を、高々M個の係数シーケンスのメタシーケンスに配列し、前記高々M個の係数シーケンスのそれぞれは高々N個の第一の係数を含み、(d)ステップ(c)において前記第一の係数を配列する前、配列している間または配列したあとに、前記第一の係数を逆量子化し、(e)前記高々M個の逆量子化された係数シーケンスを横断する一次元変換によって高々M個のさらなる係数シーケンスを生成し、(f)前記高々M個のさらなる係数シーケンスを変換することによって高々M個の第一のピクセル・シーケンスを生成し、(g)前記現在テクスチャー・パターンに関連する分布パターンを使って前記画像ブロックに前記生成されたピクセルを分布させるステップを実行することによって行う。   The invention further proposes a method for decoding an encoded image block of an image. The image block includes N times M pixels, where N is greater than or equal to M. The method decodes a first subset of at least a portion of the image block, (a) entropy decodes an encoded sequence of first coefficients, and (b) relates to a current texture pattern. Entropy-decode the encoded index, and use the index to generate the current texture pattern either by acquisition from memory or reconstruction based on the index, and (c) using the decode scan order Arranging the first coefficients in a meta-sequence of at most M coefficient sequences, each of the at most M coefficient sequences including at most N first coefficients; (d) in step (c) Dequantizing the first coefficient before, during or after arranging the first coefficient, and (e) at most M inverses Generating at most M further coefficient sequences by a one-dimensional transformation across the quantized coefficient sequences; and (f) at most M first pixel sequences by transforming the at most M further coefficient sequences. And (g) distributing the generated pixels in the image block using a distribution pattern associated with the current texture pattern.

ある実施形態では、前記デコード方法はさらに、第二の係数のシーケンスにステップ(a)、(b)、(c)、(d)、(e)および(f)を適用することを通じて高々M個の第二のピクセル・シーケンスを生成することによって、前記エンコードされた画像ブロックの前記少なくとも一部分の第二の部分集合をデコードし、前記分布パターンを使って、前記画像ブロックの前記少なくとも一部分の残りを、前記高々M個の生成された第二のピクセル・シーケンスのピクセルで充填することを含む。前記残りは、前記第一の部分集合の生成後に、前記画像ブロックの前記少なくとも一部分の、空の残っている部分である。   In one embodiment, the decoding method further includes at most M by applying steps (a), (b), (c), (d), (e) and (f) to the second sequence of coefficients. Decoding a second subset of the at least portion of the encoded image block by generating a second pixel sequence of the encoded image block and using the distribution pattern to determine the remainder of the at least portion of the image block. Filling with at most M generated pixels of the second pixel sequence. The remainder is an empty remaining portion of the at least part of the image block after generation of the first subset.

そして、画像のエンコードされた画像ブロックの少なくとも一部分の第一の部分集合をデコードする対応する装置が提案される。前記少なくとも一部分は、テクスチャー・パターン適応式分割ブロック変換を使ってエンコードされており、前記画像ブロックはNかけるMのピクセルを含み、NはM以上である。本デコード装置は、第一の係数のエンコードされたシーケンスをエントロピー・デコードするデコード手段であって、前記デコード手段は、現在テクスチャー・パターンに関連するエンコードされた指標をエントロピー・デコードし、該指標を使って、該指標に基づくメモリからの取得または再構成のいずれかによって前記現在テクスチャー・パターンを生成するよう適応されている、手段と、デコード・スキャン順を使って前記第一の係数を、高々M個の係数シーケンスのメタシーケンスに配列するよう適応された第一配列手段であって、前記高々M個の係数シーケンスのそれぞれは高々N個の第一の係数を含む、手段と、前記第一の係数を逆量子化する逆量子化手段と、前記高々M個の逆量子化された係数シーケンスを通じて一次元変換によって高々M個のさらなる係数シーケンスを生成する手段と、前記高々M個のさらなる係数シーケンスを変換することによって高々M個の第一のピクセル・シーケンスを生成する手段と、前記現在テクスチャー・パターンに関連する分布パターンを使って前記画像ブロックに前記生成された第一のピクセル・シーケンスのピクセルを分布させることによって、前記画像ブロックの前記少なくとも一部分に含まれるピクセルの部分集合を生成する第二配列手段とを有する。   A corresponding device for decoding a first subset of at least a portion of the encoded image block of the image is then proposed. The at least part is encoded using a texture pattern adaptive split block transform, the image block including N times M pixels, where N is greater than or equal to M. The decoding apparatus is decoding means for entropy decoding the encoded sequence of the first coefficient, and the decoding means entropy decodes the encoded index related to the current texture pattern, and Using means adapted to generate the current texture pattern either by acquisition from memory or reconstruction based on the index, and using the decode scan order, the first coefficient at most First arrangement means adapted to arrange into a metasequence of M coefficient sequences, wherein each of the at most M coefficient sequences includes at most N first coefficients; and Through a one-dimensional transformation through inverse quantization means for inversely quantizing the coefficients of the image and at most M dequantized coefficient sequences. Means for generating at most M further coefficient sequences, means for generating at most M first pixel sequences by transforming said at most M further coefficient sequences, and relating to said current texture pattern Second array means for generating a subset of pixels included in the at least a portion of the image block by distributing pixels of the generated first pixel sequence to the image block using a distribution pattern Have

本発明はさらに、エンコードされた係数およびエンコードされたマスク情報を含むビットストリームを担持する、光ディスク、半導体メモリまたはハードディスクのような物理的な記憶媒体であって、前記エンコードされた係数からは、デコードおよび逆変換によってピクセル・シーケンスが生成でき、前記マスク情報は画像ブロックのピクセルを選択するために使われるマスクを再構成することおよび該マスクに関連する分布パターンを決定することを許容し、前記分布パターンは前記画像ブロック上にピクセル・シーケンスのピクセルを分配することを許容する、記憶媒体を提案する。   The present invention further provides a physical storage medium, such as an optical disc, a semiconductor memory or a hard disk, carrying a bitstream containing encoded coefficients and encoded mask information, from which the encoded coefficients are decoded. And a pixel sequence can be generated by inverse transformation, wherein the mask information allows to reconstruct a mask used to select pixels of an image block and to determine a distribution pattern associated with the mask; A pattern suggests a storage medium that allows a pixel sequence of pixels to be distributed over the image block.

さらなる有利な実施形態の特徴は従属請求項において特定される。   Further advantageous embodiment features are specified in the dependent claims.

本発明の例示的な実施形態は、図面に示され、以下の記述においてより詳細に説明される。例示的な実施形態は本発明を解き明かすために説明されるのみであって、請求項において定義される本発明の開示、範囲または精神を限定するためではない。
テクスチャー・パターンを示す例示的な画像ブロックを示す図である。 例示的な二値パーティション・マスクを示す図である。 ブロックのサブブロックへのパーティション分割および該サブブロックのピクセルを累積する(accumulating)ことによる該サブブロックの修正の第一の例を示す図である。 ブロックのサブブロックへのパーティション分割および該サブブロックのピクセルを累積することによる該サブブロックの修正の異なる第二の例を示す図である。 4a〜4cは、反転可能な二段階のテクスチャー・パターン依存のマッピングを使った、ブロックの部分集合のピクセルの累積の第一の例を示す図である。 5a〜5cは、反転可能な二段階のテクスチャー・パターン依存のマッピングを使った、ブロックの部分集合のピクセルの累積の異なる第二の例を示す図である。 テクスチャー・パターンに関連するスキャン原理の例示的な実施形態を示す図である。 第一および第二の変換後のDC係数(単数または複数)が四角によって示される、変換手順の例を示す図である。 エンコードおよびデコード・プロセスにおける情報の流れの例を、両プロセスにおける対応マッピングを示しつつ、示す図である。 例示的な二値マスクを使って例示的な画像ブロックが分割された例示的な二つのパーティションについて異なっている、例示的なエンコード・スキャン順を示す図である。 エンコーダ側でのエンコードのための例示的なテクスチャー・パターン適応式分割ブロック変換を使ったエンコードを示す図である。 デコーダ側での対応する画像ブロック・デコードの例示的なフローチャートである。
Exemplary embodiments of the invention are illustrated in the drawings and are explained in more detail in the following description. The illustrative embodiments are set forth only to illustrate the invention, not to limit the disclosure, scope, or spirit of the invention as defined in the claims.
FIG. 3 illustrates an example image block showing a texture pattern. FIG. 6 illustrates an exemplary binary partition mask. FIG. 5 is a diagram illustrating a first example of partitioning a block into subblocks and modifying the subblock by accumulating the pixels of the subblock. FIG. 6 is a diagram illustrating a second different example of partitioning a block into subblocks and modifying the subblock by accumulating pixels of the subblock. 4a-4c are diagrams illustrating a first example of pixel accumulation of a subset of blocks using a two-step texture pattern dependent mapping that can be reversed. FIGS. 5a to 5c are diagrams illustrating a second example in which the accumulation of pixels of a subset of blocks is different using a two-step texture pattern-dependent mapping that can be reversed. FIG. 6 illustrates an exemplary embodiment of a scan principle associated with a texture pattern. It is a figure which shows the example of the conversion procedure by which the DC coefficient (s) after 1st and 2nd conversion is shown by the square. It is a figure which shows the example of the flow of information in an encoding and decoding process, showing the corresponding mapping in both processes. FIG. 6 illustrates an exemplary encoding scan order that is different for two exemplary partitions into which an exemplary image block has been partitioned using an exemplary binary mask. FIG. 4 is a diagram illustrating encoding using an exemplary texture pattern adaptive split block transform for encoding at the encoder side. FIG. 5 is an exemplary flowchart of corresponding image block decoding at the decoder side. FIG.

本発明は、相応して適応された処理装置を有する任意の電子装置で実現されうる。たとえば、本発明は、テレビジョン、携帯電話、パーソナル・コンピュータ、デジタル・スチール・カメラまたはデジタル・ビデオ・カメラにおいて実現されてもよい。   The present invention can be implemented in any electronic device having a correspondingly adapted processing device. For example, the present invention may be implemented in a television, a mobile phone, a personal computer, a digital still camera, or a digital video camera.

画像の画像ブロックをエンコードする方法の例示的な実施形態において、画像ブロックはある数の行とある数の列を有し、当該方法は、前記画像ブロックの少なくとも一部分を、現在テクスチャー・パターンに関連する現在テクスチャー・パターン適応式パーティションに従って第一の部分集合のピクセルおよび少なくとも第二の部分集合のピクセルに分割した結果として生じる前記第一の部分集合のピクセルをエンコードするステップを含む。前記例示的な実施形態では、前記第一の部分集合をエンコードするステップは、第一および第二の、テクスチャー・パターンに関連する反転可能なマッピングを使って、複数のピクセル・シーケンスからなるメタシーケンスを生成することを含む。ここで、前記メタシーケンス中のピクセル・シーケンスの数は前記行の数を超えず、各ピクセル・シーケンスにおいてピクセルの数は前記列の数を超えない、あるいは、前記メタシーケンス中のピクセル・シーケンスの数は前記列の数を超えず、各ピクセル・シーケンスにおいてピクセルの数は前記行の数を超えない。前記第一の部分集合をエンコードするステップはまた、第一のおよび第二の一次元変換を生成されたピクセル・シーケンスに適用して、係数のシーケンスを生成し、係数のシーケンスに含まれる係数を量子化およびスキャンし、スキャンはエントロピー・スキャン順に行われ、量子化およびスキャンされた係数をエントロピー・エンコードし、現在テクスチャー・パターンの再構成または取得を許容するデータをエントロピー・エンコードすることを含む。前記第一のテクスチャー・パターンに関連する反転可能なマッピングおよび第二のテクスチャー・パターンに関連する反転可能なマッピングは、前記現在テクスチャー・パターンに関連付けられている。   In an exemplary embodiment of a method for encoding an image block of an image, the image block has a number of rows and a number of columns, wherein the method relates at least a portion of the image block to a current texture pattern. Encoding the first subset of pixels resulting from dividing into a first subset of pixels and at least a second subset of pixels according to a current texture pattern adaptive partition. In the exemplary embodiment, encoding the first subset comprises first and second metasequences comprising a plurality of pixel sequences using invertible mappings associated with texture patterns. Generating. Here, the number of pixel sequences in the metasequence does not exceed the number of rows, the number of pixels in each pixel sequence does not exceed the number of columns, or the number of pixel sequences in the metasequence The number does not exceed the number of columns and the number of pixels in each pixel sequence does not exceed the number of rows. The step of encoding the first subset also applies first and second one-dimensional transforms to the generated pixel sequence to generate a sequence of coefficients, and the coefficients included in the sequence of coefficients are Quantization and scanning, scanning is performed in entropy scan order, including entropy encoding of the quantized and scanned coefficients and entropy encoding of data that allows reconstruction or acquisition of the current texture pattern. The reversible mapping associated with the first texture pattern and the reversible mapping associated with the second texture pattern are associated with the current texture pattern.

より詳細には、ピクチャ中の例示的な長方形のブロックは、いくつかのビデオ・オブジェクトまたは何らかのテクスチャーを含んでいてもよい。この現象は、特に垂直/水平以外の方向に沿って複数のストリップまたはエッジをもって現れるとき、伝統的なDCT変換後に多数の0でない係数を生じさせる。よって、符号化効率は低い。複数のストリップをもつ方向性のテクスチャーの典型例が図1に示されている。   More particularly, an exemplary rectangular block in a picture may include several video objects or some texture. This phenomenon results in a large number of non-zero coefficients after the traditional DCT transform, especially when it appears with multiple strips or edges along directions other than vertical / horizontal. Therefore, encoding efficiency is low. A typical example of a directional texture with multiple strips is shown in FIG.

パーティション規則が与えられると、例示的な画像ブロックにおける各ピクセルは二つ以上のサブグループのうちの一つに割り当てられる。以下では、サブグループの数は例示的に2に設定されるが、当業者は、パーティションが二つより多くのサブグループを許容する場合にパーティションおよび累積の原理をいかにして拡張するかをすぐ理解するであろう。   Given the partitioning rules, each pixel in the exemplary image block is assigned to one of two or more subgroups. In the following, the number of subgroups is illustratively set to 2, but those skilled in the art will readily see how to extend the partition and accumulation principle when a partition allows more than two subgroups. You will understand.

パーティション分割手順は、ブロックと同じサイズをもつ一つまたは複数の二値マスクによって実現されてもよい。たとえば、図2におけるマスクは、ブロックの上半分の部分のピクセルが一方のパーティションに属し、下半分のピクセルが他のパーティションに属することを意味する。すると、したがって、n個のサブグループを許容するパーティション規則は、n値マスクと一対一のマッピング関係をもつ。よって、以下で論じる例示的な二値パーティション規則は二値マスクと一対一のマッピング関係をもつ。2より大きなnについて、n値マスクは一組の二値マスクによって表現されてもよい。   The partitioning procedure may be implemented by one or more binary masks having the same size as the block. For example, the mask in FIG. 2 means that pixels in the upper half of the block belong to one partition and pixels in the lower half belong to the other partition. Thus, a partition rule that allows n subgroups has a one-to-one mapping relationship with an n-value mask. Thus, the exemplary binary partition rule discussed below has a one-to-one mapping relationship with a binary mask. For n greater than 2, the n-value mask may be represented by a set of binary masks.

各パーティション(サブブロック)におけるピクセルの数は等しくなくてもよい。これは、非対称的なパーティション分割が許容されることを意味する。そうすることによって、ブロック内のパーティション境界がより正確に検出でき、各パーティション(サブブロック)内でのエネルギー集中(concentration)を改善できる。   The number of pixels in each partition (sub-block) may not be equal. This means that asymmetric partitioning is allowed. By doing so, partition boundaries within a block can be detected more accurately and energy concentration within each partition (sub-block) can be improved.

ある例示的な実施形態では、マスクはエンコーダにおいておよびデコーダ側においてあらかじめ定義されている。たとえば、本稿末尾の表に含まれる例示的な二値マスクは、一つまたは複数のストリップをもつ、水平方向、垂直方向、対角線方向および他のパターン配向の考慮を表現しており、エンコードから帰結するエンコードされたデータにおいて、たとえばエンコードされたマスク番号によって参照されてもよい。   In an exemplary embodiment, the mask is predefined at the encoder and at the decoder side. For example, the example binary mask included in the table at the end of this article represents considerations for horizontal, vertical, diagonal, and other pattern orientations with one or more strips, resulting from encoding. In the encoded data, for example, it may be referred to by an encoded mask number.

さらに、ブロック内のパターンを解析することによって新しいマスクが導出されてもよい。可能な方法は、これに限られないが、エッジ検出、統計解析、変換領域解析などを含む。次いで、そのようにして導出された新しいマスクが、初めて使われるときにエンコードされ、その後、該新しいマスクに割り当てられた新しい参照符号または参照番号によって指定されうる。   Furthermore, a new mask may be derived by analyzing the pattern in the block. Possible methods include, but are not limited to, edge detection, statistical analysis, transform domain analysis, and the like. The new mask so derived can then be encoded the first time it is used and then specified by a new reference number or reference number assigned to the new mask.

あらかじめ定義されたパターンのリストからのインデックス指定によるか、画像属性の局所的な解析から得られるマスク情報は、記憶され、正しいデコードのためにデコーダに伝送されるべきである。前者のアプローチについては、マスクのインデックスを送るだけでよい。後者については、少なくとも初めて使われる場合には、採用されるマスクの形自身も伝送されるべきである。これら二つのアプローチは図8において簡単に説明される。   Mask information obtained by indexing from a predefined list of patterns or obtained from local analysis of image attributes should be stored and transmitted to the decoder for correct decoding. For the former approach, you only need to send the mask index. For the latter, at least when used for the first time, the mask shape itself should be transmitted. These two approaches are briefly described in FIG.

パーティション分割後、各サブグループ中のピクセルは、シフトされて、それにより累積される。それにより、その後の変換は、0でない係数の数が減る点で恩恵を受ける。シフトは、適用されるパーティション規則に固有であってもよいし、あるいは適用されるパーティション規則とは独立なデフォルトの反転可能なマッピングであってもよい反転可能なマッピングによって達成される。たとえば、各サブパーティション(サブグループ)内のピクセルはブロックの上限に向けてシフトされる(空の列はスキップされる)。これを行うことにより、ブロック内のパターンはある程度除去され、同様の強度をもつピクセルが一緒にマージされる。これは、エネルギー集中のためによい。ブロック・マージの例が図3aおよび図3bに示されている。   After partitioning, the pixels in each subgroup are shifted and thereby accumulated. Thereby, subsequent conversions benefit in that the number of non-zero coefficients is reduced. The shift is accomplished by an invertible mapping that may be specific to the applied partition rule or may be a default invertible mapping independent of the applied partition rule. For example, the pixels in each subpartition (subgroup) are shifted towards the upper limit of the block (empty columns are skipped). By doing this, the pattern in the block is removed to some extent and pixels with similar intensities are merged together. This is good for energy concentration. An example of block merging is shown in FIGS. 3a and 3b.

ここで例示的に記載されるパーティション分割およびマージ動作は、より一般的な枠組みであり、実際に単一のブロックから二つ以上の補助(adjuvant)ブロックを生成し、各補助ブロック内部ではピクセル強度分布がより均一になる。   The partitioning and merging operations described here by way of example are a more general framework and actually generate more than one adjunct block from a single block, with pixel intensity within each auxiliary block. Distribution is more uniform.

以下では、パーティション規則固有の反転可能なマッピングの例が記載される。この例は、二つのステップを含み、ある配向または方向(垂直、水平、対角線、曲がった、など)を示すテクスチャー・パターンに関係するすべてのパーティションまたはマスクに適用可能である。   In the following, examples of partition rules specific flippable mappings are described. This example includes two steps and is applicable to any partition or mask related to a texture pattern that exhibits a certain orientation or direction (vertical, horizontal, diagonal, bent, etc.).

例示的な、非デフォルト反転可能マッピングの第一ステップでは、サブブロック中のピクセルが、マスクのパターン配向によって示される方向に沿ってシフトされる。このステップの例は、図4のaおよび図5のaにおいて与えられる。マスクの方向は垂直方向、水平方向、対角線方向またはその他であってもよい。   In a first step of an exemplary, non-default invertible mapping, the pixels in the sub-block are shifted along the direction indicated by the mask pattern orientation. An example of this step is given in Fig. 4a and Fig. 5a. The direction of the mask may be vertical, horizontal, diagonal, or others.

前記第一ステップ後、一連のパターン・ストリップ(互いに長さが異なっていてもよい)の系列が取得され、図4のbおよび図5のbに示されるように、中間アレイにおいて組織化される。所与のマスクについて、中間アレイの列におけるそれらのストリップの順序(左から右)は、固定パターン・スキャン原理によって決定される(たとえば、平均で最小のx座標によって示されるパターンの最も左側のストリップから最も右側のストリップへ;加えて、平均で最も小さなy座標によって示されるパターンの最も上のストリップから最も下のストリップへ)。スキャン原理の例は図6に示される。   After the first step, a series of pattern strips (which may be different in length from one another) are acquired and organized in an intermediate array as shown in FIGS. 4b and 5b. . For a given mask, the order of those strips (left to right) in the rows of the intermediate array is determined by the fixed pattern scanning principle (eg, the leftmost strip of the pattern indicated by the smallest x coordinate on average) To the rightmost strip; in addition, on average, from the top strip to the bottom strip of the pattern indicated by the smallest y coordinate). An example of the scanning principle is shown in FIG.

例示的な非デフォルト反転可能マッピングのこの第一ステップの結果として、一連の中間ピクセル・シーケンス(ストリップの中間アレイとも呼ばれる)が生じる。各中間ピクセル・シーケンスまたはストリップは――画像ブロックがN×Nのピクセルを含む場合――高々N個のピクセルを含むが、上記系列(中間アレイ)に含まれる中間ピクセル・シーケンス(ストリップ)の数は必ずしも高々Nには制限されない。   This first step of an exemplary non-default invertible mapping results in a series of intermediate pixel sequences (also referred to as an intermediate array of strips). Each intermediate pixel sequence or strip-if the image block contains N x N pixels-contains at most N pixels, but the number of intermediate pixel sequences (strips) included in the sequence (intermediate array) Is not necessarily limited to N at most.

したがって、例示的な非デフォルト反転可能マッピングは、第二のステップを含み、該第二のステップ後に、前記第二のステップの結果として生じるさらなる系列に含まれるピクセル・シーケンスの数がNより大きくないことが保証される。   Thus, an exemplary non-default invertible mapping includes a second step, after which the number of pixel sequences included in the further sequence resulting from the second step is not greater than N It is guaranteed.

前記第二のステップ内では、前記系列に含まれる中間ピクセル・シーケンスの部分系列が、前記部分系列に含まれる中間ピクセル・シーケンスの連結によって一緒にマージされる。連結は、該連結の結果として生じる各ピクセル・シーケンスが相変わらずN個より多くのピクセルを含まないという制約のもとで行われる。換言すれば、前記第二のステップでは、前記中間アレイの一方の側から他の側へ、前記中間アレイにおける各ストリップが、一つの列中に逐次的に挿入される。次のストリップを現在の列のシーケンスの末尾に加えたらのシーケンスの長さがNより大きくなる場合には、このストリップは新しい列を開始するために使われる。次いで、その後のストリップは再びこの新しい列の末尾に逐次的に追加されることが、さらなるその後のストリップを追加すればこの新しい列に含まれるピクセルの数がNより大きくなってしまうようになるまで行われる。この動作は、中間アレイにおけるすべてのストリップが充填されるまで継続する。この動作の出力は、高々Nの列長をもつ2Dブロックである。第二ステップの結果の例が図4のcおよび図5のcに示されている。   Within the second step, partial sequences of intermediate pixel sequences included in the sequence are merged together by concatenation of intermediate pixel sequences included in the partial sequence. The concatenation is performed under the constraint that each resulting pixel sequence does not contain more than N pixels. In other words, in the second step, each strip in the intermediate array is sequentially inserted into one column from one side of the intermediate array to the other. If the length of the sequence after adding the next strip to the end of the current sequence is greater than N, this strip is used to start a new sequence. Subsequent strips are then sequentially added again to the end of this new column until adding further subsequent strips causes the number of pixels in this new column to be greater than N. Done. This operation continues until all strips in the intermediate array are filled. The output of this operation is a 2D block with at most N column lengths. An example of the result of the second step is shown in FIG. 4c and FIG. 5c.

パーティション分割の結果生じるすべてのサブブロックが少なくともN×N/4個のピクセルを含むことを保証するパーティション規則については、第二ステップの結果として高々N個のピクセル・シーケンスを含むさらなる系列が生じ、前記N個のピクセル・シーケンスのそれぞれが高々N個の再配列されたピクセルを含むことを保証できる。   For partitioning rules that ensure that all sub-blocks resulting from partitioning contain at least N × N / 4 pixels, the second step results in a further sequence containing at most N pixel sequences, It can be ensured that each of the N pixel sequences includes at most N rearranged pixels.

マスク中に明瞭な方向がない場合には、デフォルトのシフト動作(上限に向かうシフト)が実行される。   If there is no clear direction in the mask, a default shift operation (shift towards the upper limit) is performed.

ブロック集積(block assembling)動作後、2D変換、たとえば2D DCT変換が集積された諸サブブロックに別個に適用される。2D変換の第一の1D変換は垂直方向に実行される。これは、第一の1D変換がパターン方向に沿って実行されることに対応する。ピクセル集積(pixel assembling)の第一ステップのシフト動作がパターン方向に従って行われるからである。第一の1D変換後、結果として得られる中間係数がブロックの左側に向けてシフトされ、次いで第二の1D変換が水平方向に実行される。変換手順の例が図7に示されている。図7では、第一および第二の変換後のDC係数(単数または複数)が、別個に、四角によって示されている。   After a block assembling operation, a 2D transform, for example a 2D DCT transform, is applied separately to the integrated sub-blocks. The first 1D conversion of 2D conversion is performed in the vertical direction. This corresponds to the first 1D conversion being performed along the pattern direction. This is because the shift operation of the first step of pixel assembling is performed according to the pattern direction. After the first 1D transformation, the resulting intermediate coefficients are shifted towards the left side of the block, and then the second 1D transformation is performed in the horizontal direction. An example of the conversion procedure is shown in FIG. In FIG. 7, the DC coefficient (s) after the first and second transformations are separately indicated by squares.

二段階変換後のこれら二つのサブブロック間の相関をさらに探求するため、該サブブロック間のDC(AC)係数予測が使用されてもよい。すなわち、第一のパーティションの係数値が第二のパーティションにおける同様の位置における係数値のための予測として使われてもよく、第一のパーティションの前記予測に対する第二のパーティションの残差がさらに処理される、たとえば量子化され、ジグザグ・スキャンされ、エントロピー・エンコードされる。   To further explore the correlation between these two sub-blocks after the two-stage transform, DC (AC) coefficient prediction between the sub-blocks may be used. That is, the coefficient value of the first partition may be used as a prediction for coefficient values at similar positions in the second partition, and the residual of the second partition relative to the prediction of the first partition is further processed. For example quantized, zigzag scanned and entropy encoded.

ジグザグ・スキャンおよびエントロピー符号化は、別個に、諸サブブロック――または諸残差――において処理される。たとえば、図9におけるマスクが使用される場合、パーティション1および2における変換された係数のためのスキャン順は、図9に示されるように異なる仕方で設計されることができる。これら二つのパーティションに対するエントロピー符号化方法は、これに限られないが、たとえばハフマン符号化、CAVLC、CABACなどの任意のエントロピー符号化方式を含み、結果として出力ビットストリームを与え、それが物理的な記憶媒体、たとえばDVDもしくはBDのような光ディスク、フラッシュのような半導体記憶媒体またはハードディスク・ドライブに記録され、無線または有線で送信もしくは放送される。出力ビットストリームは、あらかじめ定義されたパーティション規則もしくはパーティション・マスクの再構成を許容するデータと、集積ステップにおける累積のために使われた反転可能なマッピングの対応する逆マッピングを参照するデータのコードを含む。   Zigzag scanning and entropy coding are processed separately in sub-blocks—or residuals. For example, if the mask in FIG. 9 is used, the scan order for the transformed coefficients in partitions 1 and 2 can be designed differently as shown in FIG. The entropy coding method for these two partitions is not limited to this, but includes any entropy coding scheme such as Huffman coding, CAVLC, CABAC, etc., resulting in an output bitstream that is physically It is recorded on a storage medium, for example, an optical disk such as DVD or BD, a semiconductor storage medium such as flash, or a hard disk drive, and transmitted or broadcasted wirelessly or by wire. The output bitstream contains a code for data that allows the reconfiguration of predefined partition rules or partition masks and data that references the corresponding inverse mapping of the invertible mapping used for accumulation in the integration step. Including.

集積動作および変換およびそれらの逆動作のフローチャートが図11に示されている。デコード・プロセスは次のセクションにおいて述べる。   A flow chart of the integration operation and conversion and their reverse operation is shown in FIG. The decoding process is described in the next section.

このステップへの入力は圧縮されたビットストリームである。このステップからの出力はスキャンされ、量子化された係数、マスク・インデックス(あらかじめ定義されたパターンを使う場合)/マスク(局所的解析を使う場合)および他の副情報を含む。   The input to this step is a compressed bitstream. The output from this step is scanned and includes quantized coefficients, mask index (if using a predefined pattern) / mask (if using local analysis) and other sub-information.

デコードのために、デコード装置は、入力ビットストリームを、光記憶媒体から読むことによって、あるいは無線もしくは有線で受信することによって、受け取る。受け取られた入力ビットストリームから、パーティション・マスクおよび反転可能なマッピングの対応する逆マッピングの再構成もしくは取得を許容するデータのコードが分離され、デコードされる。受け取られたビットストリームの残りは逆スキャンされ(reverse scanned)、逆量子化されて、逆変換の準備ができた累積された係数サブブロックを達成する。逆1D変換が水平方向に適用され、結果として得られる中間係数が次いで右にシフトされてもよい。ここで、直接係数のどれがどのくらいシフトされるかは、パーティション・マスク情報を使って決定される。   For decoding, the decoding device receives an input bitstream by reading from an optical storage medium or by receiving it wirelessly or wired. From the received input bitstream, the code of the data that allows the reconstruction or acquisition of the corresponding inverse mapping of the partition mask and the invertible mapping is separated and decoded. The rest of the received bitstream is reverse scanned and inverse quantized to achieve an accumulated coefficient sub-block ready for inverse transformation. An inverse 1D transform may be applied in the horizontal direction and the resulting intermediate coefficients may then be shifted to the right. Here, how much of the direct coefficient is shifted is determined using the partition mask information.

次いで、前記直接係数が垂直方向に逆1D変換され、結果として、サブブロックの一つのエッジにおいて累積されたピクセルのサブブロックを生じる。   The direct coefficients are then inversely 1D transformed in the vertical direction, resulting in a sub-block of pixels accumulated at one edge of the sub-block.

マスク情報を使って、累積されたピクセルのそれぞれのもとの位置が決定できる。すなわち、第一ステップの集積に関連する固定したパターンのスキャン原理を使って、サブブロックにおいて累積されているピクセルを、ブロック中に再分配することができ、その後、それぞれのパーティションが復元される。同様にして、他のパーティション(一つまたは複数)を復元することができ、すべてのパーティションを組み合わせて画像ブロック全体を再現することができる。   Using the mask information, the original position of each of the accumulated pixels can be determined. That is, using the fixed pattern scan principle associated with the first step accumulation, the pixels accumulated in the sub-block can be redistributed into the block, after which each partition is restored. Similarly, other partition (s) can be restored and all partitions can be combined to reproduce the entire image block.

マスク情報に従って、もとのピクセルと第一の変換のためのピクセルの一対一マッピングが確立されることができる(マッピング1と称される)。第一の変換後の中間係数は、第二の変換のために左側にシフトされる。次いで、第一の変換後の中間係数から第二の変換のための中間係数へのもう一つの一対一マッピングが確立されることができる(マッピング2と称される)。これら二つのマッピング関係は、ひとたびデコーダがマスク情報を知れば、取得できる。二つのマッピング動作は反転可能なので、デコーダは逆マッピング・プロセスを実装して再構成されたピクセルと変換された係数の間の位置関係を確立することができる。デコーダにおける逆マッピング動作のフローチャートは図8に示されている。   According to the mask information, a one-to-one mapping between the original pixel and the pixel for the first transformation can be established (referred to as mapping 1). The intermediate coefficients after the first conversion are shifted to the left for the second conversion. Then, another one-to-one mapping from the first transformed intermediate coefficient to the intermediate coefficient for the second transformation can be established (referred to as mapping 2). These two mapping relationships can be obtained once the decoder knows the mask information. Since the two mapping operations can be reversed, the decoder can implement an inverse mapping process to establish a positional relationship between the reconstructed pixels and the transformed coefficients. A flowchart of the inverse mapping operation in the decoder is shown in FIG.

本発明のテクスチャー・パターン適応式分割ブロック変換の図およびエンコード・フレームワークが図10に示されている。「マスク生成」モジュールにおいて、マスクが、付録が記載するようなあらかじめ定義されたパターンによって生成されることができる。マスクは局所的な内容解析結果によって生成されることもできる。たとえば、あるブロック内のピクセルは、強度分布に従って二つ(またはそれ以上)のクラスに分類されることができ、あるいはエッジまたはセグメンテーション検出結果に基づいて分類されることができる。   A texture pattern adaptive split block transform diagram and encoding framework of the present invention is shown in FIG. In the “Mask Generation” module, a mask can be generated with a predefined pattern as described in the appendix. The mask can also be generated by a local content analysis result. For example, pixels within a block can be classified into two (or more) classes according to the intensity distribution, or can be classified based on edge or segmentation detection results.

Figure 0005456907
Figure 0005456907
Figure 0005456907
Figure 0005456907
Figure 0005456907
Figure 0005456907
Figure 0005456907
Figure 0005456907
Figure 0005456907
Figure 0005456907

Claims (9)

テクスチャー・パターン適応式の分割ブロック変換を使って画像の画像ブロックをエンコードする方法であって、前記画像ブロックがNかけるMのピクセルを含み、NはM以上であり、当該方法は、
a)前記画像ブロックを、現在テクスチャー・パターンに関連する現在テクスチャー・パターン適応パーティションに従って、第一の部分集合のピクセルおよび少なくとも第二の部分集合のピクセルにパーティション分割する段階と、
b)テクスチャー・パターンに関連するスキャン順を使って前記第一の部分集合のピクセルを、ピクセル・シーケンスのメタシーケンスに配列する段階であって、前記テクスチャー・パターンに関連するスキャン順は前記現在テクスチャー・パターンに関連し、前記ピクセル・シーケンスのそれぞれは高々N個のピクセルを含む、段階と、
c)高々M個のさらなるピクセル・シーケンスのさらなるメタシーケンスを生成する段階であって、前記さらなるピクセル・シーケンスのそれぞれは前記ピクセル・シーケンスの一つまたは前記メタシーケンスのサブシーケンスのピクセル・シーケンスを連結したもののいずれかを含み、前記さらなるピクセル・シーケンスのそれぞれは高々N個のピクセルを含む、段階と、
d)前記さらなるピクセル・シーケンスを変換することによって係数シーケンスを生成する段階と、
e)前記係数シーケンスを横断する一次元変換によりさらなる係数シーケンスを生成する段階と、
f)前記さらなる係数シーケンスに含まれる係数を量子化およびスキャンすることによって一層さらなる係数シーケンスを生成する段階であって、スキャンはエンコード・スキャン順に従って行われる、段階と、
g)前記一層さらなる係数シーケンスをエントロピー・エンコードする段階と、
h)前記現在テクスチャー・パターンに関連する指標をエントロピー・エンコードする段階とを含む、
方法。
A method of encoding an image block of an image using a texture pattern adaptive split block transform, wherein the image block includes N times M pixels, where N is greater than or equal to M, and the method includes:
a) partitioning the image block into a first subset of pixels and at least a second subset of pixels according to a current texture pattern adaptive partition associated with a current texture pattern;
b) arranging the first subset of pixels into a metasequence of a pixel sequence using a scan order associated with a texture pattern, wherein the scan order associated with the texture pattern is the current texture In relation to a pattern, each of the pixel sequences comprising at most N pixels;
c) generating further metasequences of at most M further pixel sequences, each of said further pixel sequences concatenating one of said pixel sequences or a pixel sequence of a subsequence of said metasequence And each of the further pixel sequences includes at most N pixels;
d) generating a coefficient sequence by transforming the further pixel sequence;
e) generating a further coefficient sequence by a one-dimensional transformation across the coefficient sequence;
f) generating a still further coefficient sequence by quantizing and scanning the coefficients contained in the further coefficient sequence, wherein the scanning is performed according to an encoding scan order;
g) entropy encoding the further coefficient sequence;
h) entropy encoding an indicator associated with the current texture pattern;
Method.
前記現在テクスチャー・パターン適応パーティションが、
・複数ストリップを含むテクスチャー・パターン、
・非対称的なテクスチャー・パターンおよび
・非方向性のテクスチャーを含むテクスチャーのあるパターン
のうちの一つに関連する、請求項1記載の方法。
The current texture pattern adaptive partition is
A texture pattern containing multiple strips,
The method of claim 1, wherein the method is associated with one of a textured pattern including an asymmetric texture pattern and a non-directional texture.
段階b)、c)、d)、e)、f)およびg)を前記少なくとも第二の部分集合のピクセルに適用することをさらに含む、請求項1または2記載の方法。   The method of claim 1 or 2, further comprising applying steps b), c), d), e), f) and g) to the at least second subset of pixels. 前記少なくとも第二の部分集合について、段階f)において、異なるさらなるエンコード・スキャン順が使われる、請求項3記載の方法。   4. The method of claim 3, wherein for the at least second subset, a different further encoding scan order is used in step f). 前記第一の部分集合と前記少なくとも第二の部分集合との間の係数予測をさらに含む、請求項3または4記載の方法。   5. A method according to claim 3 or 4, further comprising coefficient prediction between the first subset and the at least second subset. テクスチャー・パターン適応式の分割ブロック変換を使って画像の画像ブロックをエンコードする装置であって、前記画像ブロックがNかけるMのピクセルを含み、NはM以上であり、当該装置は、
前記画像ブロックを、現在テクスチャー・パターンに関連する現在テクスチャー・パターン適応パーティションに従って、第一の部分集合のピクセルおよび少なくとも第二の部分集合のピクセルにパーティション分割する手段と、
テクスチャー・パターンに関連するスキャン順を使って前記第一の部分集合のピクセルを、ピクセル・シーケンスのメタシーケンスに配列する段階であって、前記テクスチャー・パターンに関連するスキャン順は前記現在テクスチャー・パターンに関連し、前記ピクセル・シーケンスのそれぞれは高々N個のピクセルを含む、段階と、
高々M個のさらなるピクセル・シーケンスのさらなるメタシーケンスを生成する手段であって、前記さらなるピクセル・シーケンスのそれぞれは前記ピクセル・シーケンスの一つまたは前記メタシーケンスのサブシーケンスのピクセル・シーケンスを連結したもののいずれかを含み、前記さらなるピクセル・シーケンスのそれぞれは高々N個のピクセルを含む、手段と、
前記さらなるピクセル・シーケンスを変換することによって係数シーケンスを生成する手段と、
前記係数シーケンスを横断する一次元変換によりさらなる係数シーケンスを生成する手段と、
前記さらなる係数シーケンスに含まれる係数を量子化およびスキャンすることによって一層さらなる係数シーケンスを生成する手段であって、スキャンはエンコード・スキャン順に従って行われる、手段と、
前記一層さらなる係数シーケンスをエントロピー・エンコードする手段と、
前記現在テクスチャー・パターンに関連する指標をエントロピー・エンコードする手段とを有する、
装置。
An apparatus for encoding an image block of an image using a texture pattern adaptive split block transform, wherein the image block includes N times M pixels, where N is greater than or equal to M;
Means for partitioning the image block into a first subset of pixels and at least a second subset of pixels according to a current texture pattern adaptive partition associated with a current texture pattern;
Arranging the first subset of pixels in a metasequence of a pixel sequence using a scan order associated with a texture pattern, wherein the scan order associated with the texture pattern is the current texture pattern And wherein each of the pixel sequences includes at most N pixels;
Means for generating further metasequences of at most M further pixel sequences, each of said further pixel sequences concatenating one of said pixel sequences or a pixel sequence of a subsequence of said metasequence Means, each of said further pixel sequences comprising at most N pixels;
Means for generating a coefficient sequence by transforming the further pixel sequence;
Means for generating further coefficient sequences by a one-dimensional transformation across the coefficient sequences;
Means for generating still further coefficient sequences by quantizing and scanning coefficients contained in said further coefficient sequence, wherein the scanning is performed according to an encoding scan order;
Means for entropy encoding the further coefficient sequence;
Means for entropy encoding an indicator associated with the current texture pattern;
apparatus.
画像のエンコードされた画像ブロックを表すビットストリームをデコードする方法であって、前記画像ブロックは、テクスチャー・パターン適応式の分割ブロック変換を使ってエンコードされており、NかけるMのピクセルを含み、NはM以上であり、当該方法は、
a)前記ビットストリームに含まれる第一の係数シーケンスをエントロピー・デコードし、
b)現在テクスチャー・パターンに関連する、前記ビットストリームに含まれる指標をエントロピー・デコードし、前記現在テキスト・パターンに関連する逆テクスチャー・パターン適応スキャン順を決定し、
c)前記第一の係数シーケンスの係数を逆量子化し、
d)逆エンコード・スキャン順を使って、逆量子化された第一の係数を、二つ以上のさらなる第一の係数シーケンスに配列し、
e)前記さらなる第一の係数シーケンスを横断する逆一次元変換によって一層さらなる第一の係数シーケンスを生成し、
f)前記一層さらなる第一の係数シーケンスの逆変換によってピクセル・シーケンスを生成し、
g)前記決定された逆テクスチャー・パターン適応スキャン順を使って、前記画像ブロックにわたって前記ピクセル・シーケンスのピクセルを分配する段階を含む、
方法。
A method of decoding a bitstream representing an encoded image block of an image, wherein the image block is encoded using a texture pattern adaptive split block transform, comprising N times M pixels, N Is greater than or equal to M and the method is
a) entropy decoding the first coefficient sequence included in the bitstream;
b) entropy-decode the index included in the bitstream associated with the current texture pattern to determine an inverse texture pattern adaptive scan order associated with the current text pattern;
c) inverse quantize the coefficients of the first coefficient sequence;
d) using inverse encoding scan order to arrange the dequantized first coefficients into two or more further first coefficient sequences;
e) generating a further first coefficient sequence by an inverse one-dimensional transformation across the further first coefficient sequence;
f) generating a pixel sequence by inverse transformation of said further first coefficient sequence;
g) distributing the pixels of the pixel sequence across the image block using the determined inverse texture pattern adaptive scan order;
Method.
前記ビットストリームに含まれる第二の係数シーケンスをエントロピー・デコードし、前記第二の係数シーケンスに段階c)、d)、e)、f)およびg)を適用することをさらに含む、請求項7記載の方法。   The method further comprises entropy decoding a second coefficient sequence included in the bitstream and applying steps c), d), e), f) and g) to the second coefficient sequence. The method described. 画像のエンコードされた画像ブロックを表すビットストリームをデコードする装置であって、前記画像ブロックは、テクスチャー・パターン適応式の分割ブロック変換を使ってエンコードされており、NかけるMのピクセルを含み、NはM以上であり、当該装置は、
前記ビットストリームに含まれる係数シーケンスをエントロピー・デコードする手段と、
現在テクスチャー・パターンに関連する、前記ビットストリームに含まれる指標をエントロピー・デコードし、前記現在テキスト・パターンに関連する逆テクスチャー・パターン適応スキャン順を決定する手段と、
前記第一の係数シーケンスの係数を逆量子化する手段と、
逆エンコード・スキャン順を使って、逆量子化された第一の係数を、二つ以上のさらなる係数シーケンスに配列する手段と、
前記さらなる第一の係数シーケンスを横断する逆一次元変換によって一層さらなる第一の係数シーケンスを生成する手段と、
前記一層さらなる第一の係数シーケンスの逆変換によってピクセル・シーケンスを生成する手段と、
前記決定された逆テクスチャー・パターン適応スキャン順を使って、前記画像ブロックにわたって前記ピクセル・シーケンスのピクセルを分配する手段とを有する、
装置。
An apparatus for decoding a bitstream representing an encoded image block of an image, wherein the image block is encoded using a texture pattern adaptive split block transform and includes N times M pixels, N Is greater than or equal to M and the device is
Means for entropy decoding a coefficient sequence included in the bitstream;
Means for entropy decoding an indicator included in the bitstream associated with a current texture pattern to determine an inverse texture pattern adaptive scan order associated with the current text pattern;
Means for dequantizing the coefficients of the first coefficient sequence;
Means for arranging the dequantized first coefficients into two or more further coefficient sequences using inverse encoding scan order;
Means for generating a still further first coefficient sequence by an inverse one-dimensional transformation across the further first coefficient sequence;
Means for generating a pixel sequence by inverse transformation of said further first coefficient sequence;
Means for distributing pixels of the pixel sequence across the image block using the determined inverse texture pattern adaptive scan order;
apparatus.
JP2012541293A 2009-12-04 2009-12-04 Texture pattern adaptive division block transform Expired - Fee Related JP5456907B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2009/001369 WO2011066672A1 (en) 2009-12-04 2009-12-04 Texture-pattern-adaptive partitioned block transform

Publications (2)

Publication Number Publication Date
JP2013512627A JP2013512627A (en) 2013-04-11
JP5456907B2 true JP5456907B2 (en) 2014-04-02

Family

ID=44114588

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012541293A Expired - Fee Related JP5456907B2 (en) 2009-12-04 2009-12-04 Texture pattern adaptive division block transform

Country Status (7)

Country Link
US (1) US8666177B2 (en)
EP (1) EP2508001A4 (en)
JP (1) JP5456907B2 (en)
KR (1) KR101630006B1 (en)
CN (1) CN102640498B (en)
BR (1) BR112012013479A2 (en)
WO (1) WO2011066672A1 (en)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105959688B (en) * 2009-12-01 2019-01-29 数码士有限公司 Method for decoding high resolution image
GB2491688B (en) 2011-05-05 2014-08-27 Advanced Risc Mach Ltd Method of and apparatus for encoding and decoding data
WO2013009224A1 (en) * 2011-07-08 2013-01-17 Telefonaktiebolaget L M Ericsson (Publ) Multi-mode processing of texture blocks
GB2495301B (en) * 2011-09-30 2018-01-17 Advanced Risc Mach Ltd Method of and apparatus for encoding data
KR101663394B1 (en) * 2011-11-11 2016-10-06 지이 비디오 컴프레션, 엘엘씨 Adaptive partition coding
EP2777286B1 (en) 2011-11-11 2017-01-04 GE Video Compression, LLC Effective wedgelet partition coding
US9066025B2 (en) * 2013-03-15 2015-06-23 Samsung Electronics Co., Ltd. Control of frequency lifting super-resolution with image features
US9305332B2 (en) 2013-03-15 2016-04-05 Samsung Electronics Company, Ltd. Creating details in an image with frequency lifting
US9349188B2 (en) 2013-03-15 2016-05-24 Samsung Electronics Co., Ltd. Creating details in an image with adaptive frequency strength controlled transform
US9536288B2 (en) 2013-03-15 2017-01-03 Samsung Electronics Co., Ltd. Creating details in an image with adaptive frequency lifting
US9161040B2 (en) 2014-01-10 2015-10-13 Sony Corporation Adaptive block partitioning with shared bit-budget
WO2016074746A1 (en) * 2014-11-14 2016-05-19 Huawei Technologies Co., Ltd. Systems and methods for mask based processing of a block of a digital image
JP6443869B2 (en) * 2014-11-14 2018-12-26 ホアウェイ・テクノロジーズ・カンパニー・リミテッド System and method for processing digital images
WO2016074745A1 (en) * 2014-11-14 2016-05-19 Huawei Technologies Co., Ltd. Systems and methods for processing a block of a digital image
US9652829B2 (en) 2015-01-22 2017-05-16 Samsung Electronics Co., Ltd. Video super-resolution by fast video segmentation for boundary accuracy control
CN112135147B (en) * 2019-06-24 2023-02-28 杭州海康威视数字技术股份有限公司 Encoding method, decoding method and device
CN114240975A (en) * 2022-02-28 2022-03-25 安翰科技(武汉)股份有限公司 Image processing method and image processing apparatus

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10511531A (en) 1995-10-18 1998-11-04 フィリップス エレクトロニクス ネムローゼ フェンノートシャップ Region-based texture coding and decoding methods and corresponding systems
EP0797894B1 (en) * 1995-10-18 2002-02-06 Koninklijke Philips Electronics N.V. Region-based texture coding and decoding method, and corresponding systems
EP0914004A1 (en) * 1997-10-29 1999-05-06 Ntec Media GmbH Coding system and method for lossless and lossy compression of still and motion images
KR100382516B1 (en) * 1999-01-15 2003-05-01 주식회사 팬택앤큐리텔 Object-based image signal coding/decoding apparatus and method
TW508940B (en) * 2000-03-28 2002-11-01 Omnivision Tech Inc Method and apparatus for color image date processing and compression
US9418450B2 (en) * 2006-08-31 2016-08-16 Ati Technologies Ulc Texture compression techniques
US7885476B2 (en) 2006-12-14 2011-02-08 Sony Corporation System and method for effectively performing an adaptive encoding procedure
CN101325707B (en) * 2007-06-12 2012-04-18 浙江大学 System for encoding and decoding texture self-adaption video

Also Published As

Publication number Publication date
KR101630006B1 (en) 2016-06-13
CN102640498B (en) 2015-04-29
CN102640498A (en) 2012-08-15
US8666177B2 (en) 2014-03-04
WO2011066672A1 (en) 2011-06-09
BR112012013479A2 (en) 2016-05-24
US20120288210A1 (en) 2012-11-15
KR20120124058A (en) 2012-11-12
WO2011066672A8 (en) 2012-06-28
EP2508001A4 (en) 2016-07-20
EP2508001A1 (en) 2012-10-10
JP2013512627A (en) 2013-04-11

Similar Documents

Publication Publication Date Title
JP5456907B2 (en) Texture pattern adaptive division block transform
CN111699694B (en) Image encoding method and apparatus using transform skip flag
CN108259900B (en) Transform coefficient coding for context adaptive binary entropy coding of video
CN109151485B (en) Apparatus for decoding significance map
CN107071412B (en) Intra prediction method performed by encoding apparatus and decoding apparatus
US10645410B2 (en) Video decoding apparatus
KR101758954B1 (en) Decoder and method
KR20110114524A (en) Device, method and program for image prediction encoding, device, method and program for image prediction decoding, and encoding/decoding system and method
US8295618B2 (en) Image processing apparatus, image processing method, and computer program product
KR101407755B1 (en) Multi-level significance maps for encoding and decoding
US20090304292A1 (en) Encoding and decoding methods, devices implementing said methods and bitstream
CN111164975A (en) Image data encoding and decoding
JP2006340163A (en) Image compression apparatus
KR20090046791A (en) Methods for encoding a sequence of pictures and device implementing said method
Lee et al. Efficient Color Image Compression with Category-Based Entropy Coder

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140108

R150 Certificate of patent or registration of utility model

Ref document number: 5456907

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees