JP4219303B2 - Encoding apparatus, encoding control method, program, and recording medium - Google Patents
Encoding apparatus, encoding control method, program, and recording medium Download PDFInfo
- Publication number
- JP4219303B2 JP4219303B2 JP2004173495A JP2004173495A JP4219303B2 JP 4219303 B2 JP4219303 B2 JP 4219303B2 JP 2004173495 A JP2004173495 A JP 2004173495A JP 2004173495 A JP2004173495 A JP 2004173495A JP 4219303 B2 JP4219303 B2 JP 4219303B2
- Authority
- JP
- Japan
- Prior art keywords
- encoding
- quantization
- amount
- subband
- truncation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
本発明は、動画像の符号化に係り、特に、インターレース画像のフレームベース符号化に関する。 The present invention relates to encoding of moving images, and more particularly to frame-based encoding of interlaced images.
ビデオカメラ等の動画撮影機器においては、一般に、1/60秒間隔でインターレース走査により動画を撮影している。このようなビデオカメラ等で撮影された動画データの符号化方法として、個々のインターレース画像(フィールド)をそのまま符号化するフィールドベース符号化と、相前後する2枚のインターレース画像から合成したノンインターレース画像(フレーム)を符号化するフレームベース符号化がある。 In a moving image photographing device such as a video camera, generally, a moving image is photographed by interlace scanning at intervals of 1/60 seconds. As a method of encoding moving image data shot by such a video camera, a non-interlaced image synthesized from field-based encoding in which individual interlaced images (fields) are directly encoded and two adjacent interlaced images is used. There is frame-based encoding that encodes (frame).
各フィールドの画像は走査線が飛び飛びであるので、走査線が連続したフレームの画像に比べ垂直方向の画素相関が弱いため、圧縮効率の面ではフレームベース符号化が一般的に有利である。しかし、フレームベース符号化においては、フレームを構成するフィールド間の動き量が大きい場合に、圧縮効率が低下する問題と、不自然な画質劣化を生じやすいという問題がある。 Since the scanning lines are skipped in the image of each field, the pixel correlation in the vertical direction is weaker than the image of the frame in which the scanning lines are continuous. Therefore, frame-based encoding is generally advantageous in terms of compression efficiency. However, the frame-based coding has a problem that the compression efficiency is lowered when the amount of motion between fields constituting the frame is large, and an unnatural image quality deterioration is likely to occur.
上記圧縮効率の低下の問題を解決するために、フレーム符号化とフィールド符号化をブロック単位で適応的に切り替える符号化装置の発明が特許文献1に記載されている。この発明に係る符号化装置においては、相前後する2フィールドのインターレース画像からフレームのノンインターレース画像を合成し、それをブロックに分割し、垂直方向に並んだ2ブロックについて垂直方向の画素相関(1)を調べる。また、この2ブロックをインターレース画像に再変換し、その画像についても同様の画素相関(2)を調べる。そして、画素相関(1)と画素相関(2)の強さを比較し、画素相関(1)の方が強い場合には2ブロックのノンインターレース画像を符号化するが、画素相関(2)の方が強い場合には、2ブロックのインターレース画像を符号化する。各ブロックの符号には、どちらの方法で符号化されたかの識別のための情報が付加される。
In order to solve the above-described problem of reduction in compression efficiency,
次に、上記のもう1つの問題について説明する。図1の(a)は第(n)フィールドのインターレース画像、(b)はその1/60秒後の第(n+1)フィールドのインターレース画像、(c)はこの2フィールドのインターレース画像を合成して得られるフレームのノンインターレース画像の例をそれぞれ示している。2イールド間で被写体が図示のように右方向へ移動した場合、フレーム画像上で被写体の左右エッジ部分が走査線毎に複数画素分だけ櫛形にずれる。(d)は櫛形のエッジ部分を拡大したもので、Lがフィールド間の動き量に相当する。 Next, another problem will be described. (A) in FIG. 1 is an interlaced image of the (n) field, (b) is an interlaced image of the (n + 1) field after 1/60 seconds, and (c) is a composite of the interlaced images of these two fields. Examples of non-interlaced images of the obtained frames are shown. When the subject moves to the right as shown in the drawing between two yields, the left and right edge portions of the subject are shifted in a comb shape by a plurality of pixels for each scanning line. (D) is an enlargement of the comb-shaped edge portion, and L corresponds to the amount of motion between fields.
フレームベース符号化において、上記”櫛形”が、符号化効率を低下させる原因であると同時に、特有の不自然な画質劣化を生じさせる原因である。 In the frame-based encoding, the “comb” is a cause of lowering the encoding efficiency and a cause of peculiar unnatural image quality degradation.
この不自然な画質劣化について、図2を参照しさらに説明する。第(n)フィールドでは図2(a)に示す位置にあった縦線が、次の第(n+1)フィールドでは(b)に示す位置に移動した場合、両フィールドから合成されたフレーム上では、その縦線は(c)に示すような2本の点線となる。このフレームをフレームベース符号化した後に復号すると、符号化の際の量子化(後述のトランケーションも含む)の影響により、復号されたフレーム上では、(d)に示すように点線の点と点の間が淡い色でつながった様になる。したがって、復号されたフレームから分解した各フィールドでは(e)及び(f)に示すような2本の点線が表れる。その結果、復号されたフレームをフィールド分解してテレビジョン受像機等でインターレース表示すると、各フィールドに本来の縦線とその”残像”の如き縦線が表れ、本来は1本の縦線であったものが2本の縦線の如く見えてしまう。図2では縦線が移動した例であったが、線でなく面が移動した場合には、面が二重に見えたり、左右にぶれて見えることになる。このような現象を、本明細書では”残像現象”と呼ぶことがある。 This unnatural image quality degradation will be further described with reference to FIG. When the vertical line that was in the position shown in FIG. 2A in the (n) field has moved to the position shown in (b) in the next (n + 1) field, on the frame synthesized from both fields, The vertical lines are two dotted lines as shown in (c). When this frame is decoded after frame-based encoding, due to the influence of quantization (including truncation described later) at the time of encoding, on the decoded frame, as shown in FIG. It seems that the space is connected with a pale color. Therefore, in each field decomposed from the decoded frame, two dotted lines as shown in (e) and (f) appear. As a result, when the decoded frame is field-decomposed and interlaced on a television receiver or the like, an original vertical line and a vertical line such as an “afterimage” appear in each field, which is originally a single vertical line. Will look like two vertical lines. Although FIG. 2 shows an example in which the vertical line is moved, when the surface is moved instead of the line, the surface appears to be doubled or to the left and right. Such a phenomenon may be referred to as an “afterimage phenomenon” in this specification.
なお、2次元ウェーブレット変換を用いるフレームベース符号化に関する発明が特許文献2に記載されている。その概要は、画像のブロック領域毎に画質を制御するために、フレーム間差分によって動き量を検出し、検出した動き量とサブバンドの種類に応じて決定した重み係数を、量子化後のウェーブレット係数に乗じるというものである。
An invention related to frame-based encoding using two-dimensional wavelet transform is described in
よって、本発明の目的は、インターレース画像のフレームベース符号化において、前述のような不自然な画質劣化を抑制すると同時に画質の向上を達成することにある。 Therefore, an object of the present invention is to suppress the above-mentioned unnatural image quality degradation and achieve an improvement in image quality in frame-based encoding of interlaced images.
なお、本出願人は、本発明と関連する発明を特願2002-289807号、特願2002-300468号、特願2002-300476号、及び、特願2002-360809号により特許出願している。各特許出願に係る発明の概要は次の通りである。 The applicant has applied for patents related to the present invention in Japanese Patent Application Nos. 2002-289807, 2002-300468, 2002-300476, and 2002-360809. The outline of the invention relating to each patent application is as follows.
特願2002-289807号:インターレース画像(フィールド)のフレームベース符号化において、フレーム(ノンインターレース)画像の2次元ウェーブレット変換を行う。1LHサブバンド係数にフィールド間の動きによる櫛形の影響が強く表れることに着目し、少なくとも1LHサブバンドの係数値、又は、少なくとも1LHサブバンド係数の符号量に基づいて、フィールド間の動き量(移動速度)を判定する。 Japanese Patent Application No. 2002-289807: In frame-based encoding of an interlaced image (field), two-dimensional wavelet transform of the frame (non-interlaced) image is performed. Focusing on the fact that the comb-like effect due to the motion between fields appears strongly in the 1LH subband coefficient, the motion amount (movement) between the fields is based on the coefficient value of at least 1LH subband or the code amount of at least 1LH subband coefficient. Speed).
特願2002-300468号:インターレース画像のフレームベース符号化において、フレーム画像の2次元ウェーブレット変換を行う。動き量は大きいが動いている物体が小さい場合でも、フィールド間の動き量を的確に判定するため、画像をサブブロック(例えばコードブロック)に分割し、各サブブロックの少なくとも1LHサブバンドの係数値又は符号量に基づいて、画像全体としてのフィールド間の動き量を判定する。 Japanese Patent Application No. 2002-300468: In frame-based encoding of interlaced images, two-dimensional wavelet transform of frame images is performed. Even when the amount of motion is large but the moving object is small, in order to accurately determine the amount of motion between fields, the image is divided into sub-blocks (for example, code blocks), and the coefficient value of at least 1 LH sub-band of each sub-block Alternatively, the amount of motion between fields of the entire image is determined based on the code amount.
特願2002-300476号:インターレース画像のフレームベース符号化において、フレーム画像の2次元ウェーブレット変換を行う。画像をサブブロックに分割し、各サブブロック単位で、少なくとも1LHサブバンドの係数値又は符号量に基づきフィールド間の動き量を判定する。動画を撮影するカメラが静止していれば、画像内に、動く部分(さらには高速で動く部分と低速で動く部分)と動かない部分があるが、サブブロック毎の判定により、そのような各部分の移動量判定が可能である。 Japanese Patent Application No. 2002-300476: In frame-based encoding of interlaced images, two-dimensional wavelet transform of frame images is performed. The image is divided into sub-blocks, and the amount of motion between fields is determined for each sub-block unit based on the coefficient value or code amount of at least 1 LH sub-band. If the camera that shoots the video is stationary, there are moving parts (and moving parts at high speed and moving parts at low speed) and non-moving parts in the image. The amount of movement of the part can be determined.
特願2002-360809号:インターレース画像のフレームベース符号化において、フレーム画像の周波数変換(例えばウェーブレット変換)により得られる周波数係数の量子化、量子化後の周波数係数のトランケーション、又は、符号のトランケーションを、フィールド間の動き量に応じて制御することにより、不自然な画質劣化を抑制する。 Japanese Patent Application No. 2002-360809: In frame-based encoding of interlaced images, frequency coefficient quantization obtained by frequency conversion (for example, wavelet conversion) of frame images, frequency coefficient truncation after quantization, or code truncation By controlling according to the amount of motion between fields, unnatural image quality deterioration is suppressed.
一般に画像の符号化(圧縮)は、
(A)画像データの周波数領域の係数への変換 → 周波数毎の係数の量子化
→ 量子化後の係数のエントロピー符号化
又は、
(B)画像データの周波数領域の係数への変換 → 周波数毎の係数の量子化
→ 量子化後の係数の、最終的に必要な部分(例;必要なビットプレーン又はサブビットプレーン)だけをエントロピー符号化
又は、
(C)画像データの周波数領域の係数への変換 → 周波数毎の係数の量子化
→ 量子化後の係数のエントロピー符号化 → 最終的に不要なエントロピー符号の破棄(トランケーション)
という処理フローをとることが多い。処理フロー(C)におけるエントロピー符号のトランケーションはポスト量子化とも呼ばれる。処理フロー(B)において、エントロピー符号化の対象とならなかった係数のビットプレーン又はサブビットプレーンは破棄されたことと等価である。すなわち係数状態でのトランケーションが行われるということである。
In general, image encoding (compression)
(A) Conversion of image data into frequency domain coefficients → Quantization of coefficients for each frequency → Entropy coding of coefficients after quantization or
(B) Conversion of image data into frequency domain coefficients → Quantization of coefficients for each frequency → Entropy only the final required part (eg, required bit plane or sub bit plane) of the quantized coefficient Encoding or
(C) Conversion of image data into frequency domain coefficients → Quantization of coefficients for each frequency → Entropy coding of coefficients after quantization → Discarding unnecessary entropy codes (truncation)
The processing flow is often taken. The truncation of the entropy code in the processing flow (C) is also called post-quantization. In the processing flow (B), it is equivalent to discarding the bit plane or sub bit plane of the coefficient that is not the target of entropy coding. That is, truncation is performed in the coefficient state.
本発明にあっては、前述の”残像現象”のような不自然な画質劣化を抑制し、かつ、良好な画質を得るために、インターレース画像のフレームベース符号化のフロー(例えば、上記(A)(B)(C)の如きフロー)の中で、フィールド間の動きによる櫛形を残すような最適な量子化、又は、トランケーションの制御を行う。 In the present invention, in order to suppress unnatural image quality degradation such as the above-mentioned “afterimage phenomenon” and to obtain good image quality, a flow of frame-based encoding of an interlaced image (for example, (A ) (B) (Flow as in (C)) Optimal quantization or truncation control is performed so as to leave a comb shape due to movement between fields.
非特許文献1に記載されているように、量子化やトランケーションの最適な方法は、量子化誤差や圧縮率に依存することが知られている(圧縮率と量子化誤差は異なるものであるが、前記最適な方法に対しては類似の影響を与える)。
As described in Non-Patent
一般に、量子化誤差や圧縮率が小さくて画質劣化がわかりにくい場合には、観察距離で決定される特定の視覚感度(後述する周波数に対する人間のコントラスト感度)に基づいた重みを用いた量子化が好ましい。しかし、圧縮率や量子化誤差が大きくなって画質劣化が目立つようになると、好ましい画質を得るためには、前記重みとは異なった重みを用いる必要がある。これは、周波数毎の誤差に対する人間の感度が、誤差量自体の関数になっているからだと考えられる。概ね、誤差量自体が大きいほど低域の周波数係数の量子化を控え、高域の周波数係数をより多く量子化するのが良いとされており、ウェーブレット変換を利用した符号化においては、これを簡単に実験で確かめることができる(前述の様に、量子化誤差と圧縮率は異なるものであるが、通常、誤差量自体が大きい場合は圧縮率も大きくなるため、簡単のために、誤差量を圧縮率で代替することも可能である)。 In general, when the quantization error and compression ratio are small and image quality degradation is difficult to understand, quantization using weights based on specific visual sensitivity (human contrast sensitivity to the frequency described later) determined by the observation distance is performed. preferable. However, when the compression ratio and quantization error become large and image quality deterioration becomes conspicuous, it is necessary to use a weight different from the weight in order to obtain a preferable image quality. This is thought to be because human sensitivity to errors at each frequency is a function of the error amount itself. In general, it is said that it is better to refrain from quantizing low frequency coefficients as the error amount itself is larger, and to quantize more high frequency coefficients, and in coding using wavelet transform, It can be easily confirmed by experiment. (As mentioned above, the quantization error and the compression rate are different, but usually the compression rate increases when the error amount itself is large. Can be replaced with a compression ratio).
よって、インターレース画像のフレームベース符号化において、フレームを構成するフィールド間の動き量と、圧縮率又は量子化誤差の両方を反映した量子化やトランケーションを行うことが有効なのである。 Therefore, in frame-based encoding of an interlaced image, it is effective to perform quantization or truncation that reflects both the amount of motion between fields constituting a frame and the compression rate or quantization error.
以下、本発明の特徴について順次説明する。
請求項1の発明は、インターレース画像のフレームベース符号化処理を行う符号化処理手段と、フレームを構成するフィールド間の動き量を検出し、該動き量、及び、圧縮率又は量子化誤差に基づいて、前記符号化処理手段における周波数係数の量子化を制御する符号化制御手段を有することを特徴とする符号化装置であって、
前記フレームベース符号化処理でウェーブレット変換を使用し、
前記フィールド間の動き量として、
輝度コンポーネントに関し、1LHサブバンドの係数の絶対値の平均値1LHmean、1HLサブバンドの係数の絶対値の平均値1HLmean、2LHサブバンドの係数の絶対値の平均値2LHmean、2HLサブバンドの係数の絶対値の平均値2HLmeanについての
(1LHmean/1HLmean)/(2LHmean/2HLmean)なる比、または、
輝度コンポーネントに関し、1LH,1HL,2LH,2HLサブバンドのエントロピー符号化した時のそれぞれの符号量1LHcode,1HLcode,2LHcode,2HLcodeについての
(1LHcode/1HLcode)/(2LHcode/2HLcode)なる比
を算出する手段を有することを特徴とする符号化装置である。
かかる構成によれば、フィールド間の動き量、及び、圧縮率又は量子化誤差に応じた適切な量子化を行い、フィールド間に動きがある場合においても不自然な画質劣化を抑制し、同時に良好な画質を得ることができる。
Hereinafter, features of the present invention will be sequentially described.
According to the first aspect of the present invention, an encoding processing means for performing frame-based encoding processing of an interlaced image and a motion amount between fields constituting the frame are detected, and based on the motion amount and a compression rate or a quantization error. And an encoding control means for controlling quantization of frequency coefficients in the encoding processing means ,
Using wavelet transform in the frame-based encoding process,
As the amount of movement between the fields,
1LHmean, 1HL subband coefficient absolute value 1HLmean, 2LH subband coefficient absolute value 2LHmean, 2HL subband coefficient absolute value Average value of 2HLmean
(1LHmean / 1HLmean) / (2LHmean / 2HLmean) ratio, or
Regarding the luminance component, when the entropy coding of 1LH, 1HL, 2LH, and 2HL subbands is performed, the respective code amounts of 1LHcode, 1HLcode, 2LHcode, and 2HLcode
Ratio of (1LHcode / 1HLcode) / (2LHcode / 2HLcode)
It is a coding apparatus characterized by having a means to calculate.
According to this configuration, appropriate quantization is performed according to the amount of motion between fields and the compression rate or quantization error, and even when there is motion between fields, unnatural image quality degradation is suppressed, and at the same time good Image quality can be obtained.
請求項2の発明は、インターレース画像のフレームベース符号化処理を行う符号化処理手段と、フレームを構成するフィールド間の動き量を検出し、該動き量、及び、圧縮率又は量子化誤差に基づいて、前記符号化処理手段における周波数係数又は符号のトランケーションを制御する符号化制御手段を有することを特徴とする符号化装置であって、
前記フレームベース符号化処理でウェーブレット変換を使用し、
前記フィールド間の動き量として、
輝度コンポーネントに関し、1LHサブバンドの係数の絶対値の平均値1LHmean、1HLサブバンドの係数の絶対値の平均値1HLmean、2LHサブバンドの係数の絶対値の平均値2LHmean、2HLサブバンドの係数の絶対値の平均値2HLmeanについての
(1LHmean/1HLmean)/(2LHmean/2HLmean)なる比、または、
輝度コンポーネントに関し、1LH,1HL,2LH,2HLサブバンドのエントロピー符号化した時のそれぞれの符号量1LHcode,1HLcode,2LHcode,2HLcodeについての
(1LHcode/1HLcode)/(2LHcode/2HLcode)なる比
を算出する手段を有することを特徴とする符号化装置である。
かかる構成によれば、フィールド間の動き量、及び、圧縮率又は量子化誤差に応じた適切な周波数係数(ウェーブレット係数)又は符号のトランケーションを行い、フィールド間に動きがある場合においても不自然な画質劣化を抑制し、同時に良好な画質を得ることができる。
According to a second aspect of the present invention, an encoding processing means for performing frame-based encoding processing of an interlaced image and a motion amount between fields constituting the frame are detected, and based on the motion amount and a compression rate or a quantization error. An encoding control means for controlling frequency coefficient or code truncation in the encoding processing means ,
Using wavelet transform in the frame-based encoding process,
As the amount of movement between the fields,
1LHmean, 1HL subband coefficient absolute value 1HLmean, 2LH subband coefficient absolute value 2LHmean, 2HL subband coefficient absolute value Average value of 2HLmean
(1LHmean / 1HLmean) / (2LHmean / 2HLmean) ratio, or
Regarding the luminance component, when the entropy coding of 1LH, 1HL, 2LH, and 2HL subbands is performed, the respective code amounts of 1LHcode, 1HLcode, 2LHcode, and 2HLcode
Ratio of (1LHcode / 1HLcode) / (2LHcode / 2HLcode)
It is a coding apparatus characterized by having a means to calculate.
According to such a configuration, truncation of an appropriate frequency coefficient (wavelet coefficient) or code corresponding to the amount of motion between fields and the compression rate or quantization error is performed, and it is unnatural even when there is motion between fields. It is possible to suppress image quality deterioration and obtain good image quality at the same time.
量子化やトランケーションは画質制御のために行われるものであるが、その制御を最も精密に行いたい場合には、量子化やトランケーションを、適用可能な最小単位毎に制御するのが適当である。本明細書においては、この最小単位を画質制御単位という。 Quantization and truncation are performed for image quality control. However, when it is desired to perform the most precise control, it is appropriate to control quantization and truncation for each applicable minimum unit. In the present specification, this minimum unit is referred to as an image quality control unit.
画質制御単位は、周波数係数そのもの(例えば、JPEGならばDCT係数、JPEG2000ならばウェーブレット変換係数)、所定サイズの矩形ブロック(例えば、JPEGならばDCT係数、JPEG2000ならばコードブロック)などである。 The image quality control unit is a frequency coefficient itself (for example, DCT coefficient for JPEG, wavelet transform coefficient for JPEG2000), a rectangular block of a predetermined size (for example, DCT coefficient for JPEG, code block for JPEG2000), and the like.
よって、本発明の一態様は、請求項1の発明の符号化装置において、符号化制御手段が画質制御単位毎に量子化を制御することを特徴とするものである。
画質制御毎の量子化の制御によって、より精密かつ最適な画質制御が可能である。
Therefore, one aspect of the present invention is characterized in that, in the encoding apparatus according to the first aspect of the present invention , the encoding control means controls the quantization for each image quality control unit.
By controlling quantization for each image quality control, more precise and optimum image quality control is possible.
なお、前記特願2002-300476号に係る発明によれば、このような画質制御単位のフィールド間動き量(櫛形量)の検出が可能である。 Note that according to the invention of Japanese Patent Application No. 2002-300476, it is possible to detect the inter-field motion amount (comb amount) in such an image quality control unit.
また、本発明の一態様は、請求項2の発明の符号化装置において、符号化制御手段が画質制御単位毎にトランケーションを制御することを特徴とするものである。
画質制御単位毎のトランケーションの制御によって、より精密かつ最適な画質制御が可能である。
According to an aspect of the present invention, in the encoding device according to the second aspect of the present invention , the encoding control means controls truncation for each image quality control unit.
By controlling truncation for each image quality control unit, more precise and optimum image quality control is possible.
一方、画質制御を高速・簡易に行いたい場合や実装上の制約がある場合には、量子化又はトランケーションの制御を、画質制御単位よりも大きな単位毎に、例えば、周波数変換係数の周波数帯域毎に行うのが便利である。 On the other hand, when it is desired to perform image quality control at high speed and simply or when there are implementation restrictions, quantization or truncation control is performed for each unit larger than the image quality control unit, for example, for each frequency band of the frequency conversion coefficient. It is convenient to do.
よって、本発明の一態様は、請求項1の発明の符号化装置において、符号化制御手段が周波数係数の周波数帯域毎に量子化を制御することを特徴とするものである。
このように量子化の制御の単位を周波数帯域とすれば、量子化の制御が簡易になり、画質制御の高速化が可能である。
この場合、フィールド間の動き量検出は、画像全体について行えばよい。このような検出は、前記特願2002-289807号又は特願2002-300468号に係る発明により行うことができる。
Therefore, one aspect of the present invention is characterized in that, in the encoding device of the invention of
Thus, if the unit of quantization control is a frequency band, the quantization control is simplified, and the image quality control can be speeded up.
In this case, the motion amount detection between fields may be performed on the entire image. Such detection can be performed by the invention according to Japanese Patent Application No. 2002-289807 or Japanese Patent Application No. 2002-300468.
また、本発明の一態様は、請求項2の発明の符号化装置において、符号化制御手段が周波数係数の周波数帯域毎にトランケーションを制御することを特徴とするものである。
このようにトランケーションの制御の単位を周波数帯域とすれば、トランケーションの制御が簡易になり、画質制御の高速化が可能である。
この場合、フィールド間の動き量検出は、画像全体について行えばよい。
According to another aspect of the present invention, in the encoding device according to the second aspect of the present invention , the encoding control means controls truncation for each frequency band of the frequency coefficient.
Thus, if the truncation control unit is a frequency band, truncation control is simplified and image quality control can be speeded up.
In this case, the motion amount detection between fields may be performed on the entire image.
近年、符号化において、前記JPEG(Joint Photographic Coding Experts Group)で採用されているDCT(離散コサイン変換)に代わる周波数変換として、ウェーブレット変換(DWT;離散ウェーブレットフレット変換)の採用が増加している。その代表例は、2001年に国際標準になった、JPEG後継の画像圧縮伸長方式JPEG2000である。 In recent years, the use of wavelet transform (DWT: discrete wavelet fret transform) is increasing as a frequency transform in place of DCT (discrete cosine transform) employed in the JPEG (Joint Photographic Coding Experts Group). A representative example is JPEG2000, an image compression / decompression method succeeding JPEG, which became an international standard in 2001.
DCTの場合には個々のDCT係数が各周波数帯域を有する。ウェーブレット変換の場合には、周波数係数の周波数帯域とは各デコンポジションレベルを意味し、デコンポジションレベルが小さい程周波数が高いことになる。 In the case of DCT, each DCT coefficient has a frequency band. In the case of wavelet transform, the frequency band of the frequency coefficient means each decomposition level, and the smaller the decomposition level, the higher the frequency.
そして、前述の「櫛形を残すような量子化またはトランケーション」とは、高い周波数帯域の係数の量子化またはトランケーションを控えることを意味する。これは、図2から明らかなように、櫛形は、1画素毎に画素値が大きく変わるために生じ、最も高い周波数をとるからである。 The above-mentioned “quantization or truncation that leaves a comb shape” means to refrain from quantization or truncation of high frequency band coefficients. This is because, as is apparent from FIG. 2, the comb shape occurs because the pixel value changes greatly for each pixel, and takes the highest frequency.
ここで、ウェーブレット変換の手順と、デコンポジションレベル、解像度レベル、サブバンドの定義について説明する。 Here, the procedure of wavelet transform and the definition of the composition level, resolution level, and subband will be described.
JPEG2000では、5×3変換と呼ばれるウェーブレット変換と、9×7変換と呼ばれるウェーブレット変換が採用されている。それぞれの順変換式と逆変換式を次に示す。 JPEG2000 employs wavelet transformation called 5 × 3 transformation and wavelet transformation called 9 × 7 transformation. Each forward conversion formula and reverse conversion formula are shown below.
5×3変換
(順変換)
C(2i+1)=P(2i+1)−floor((P(2i)+P(2i+2))/2) [step1]
C(2i)=P(2i)+floor(((C(2i-1)+C(2i+1)+2)/4)| [step2] (1)
(逆変換)
P(2i)=C(2i)−floor((C(2i-1)+C(2i+1)+2)/4) [step1]
P(2i+1)=C(2i+1)+floor((P(2i)+P(2i+2))/2) [step2] (2)
ただし、floor(x)はxのフロア関数(実数xを、xを越えず、かつ、xに最も近い整数に置換する関数)を示している。
5 × 3 conversion (forward conversion)
C (2i + 1) = P (2i + 1) −floor ((P (2i) + P (2i + 2)) / 2) [step1]
C (2i) = P (2i) + floor (((C (2i-1) + C (2i + 1) +2) / 4) | [step2] (1)
(Inverse transformation)
P (2i) = C (2i) −floor ((C (2i-1) + C (2i + 1) +2) / 4) [step1]
P (2i + 1) = C (2i + 1) + floor ((P (2i) + P (2i + 2)) / 2) [step2] (2)
Here, floor (x) represents a floor function of x (a function that replaces the real number x with an integer that does not exceed x and is closest to x).
9×7変換
(順変換)
C(2n+1)=P(2n+1)+α*(P(2n)+P(2n+2)) [step1]
C(2n)=P(2n)+β*(C(2n-1)+C(2n+1)) [step2]
C(2n+1)=C(2n+1)+γ*(C(2n)+C(2n+2)) [step3]
C(2n)=C(2n)+δ*(C(2n-1)+C(2n+1)) [step4]
C(2n+1)=K*C(2n+1) [step5]
C(2n)=(1/K)*C(2n) [step6] (3)
(逆変換)
P(2n)=K*C(2n) [step1]
P(2n+1)=(1/K)*C(2n+1) [step2]
P(2n)=X(2n)-δ*(P(2n-1)+P(2n+1)) [step3]
P(2n+1)=P(2n+1)-γ*(P(2n)+P(2n+2)) [step4]
P(2n)=P(2n)-β*(P(2n-1)+P(2n+2)) [step5]
P(2n)=P(2n+1)-α*(P(2n)+P(2n+2)) [step6] (4)
ただし、α=-1.586134342059924
β=-0.052980118572961
γ=0.882911075530934
δ=0.443506852043971
K=1.230174104914001
9x7 conversion (forward conversion)
C (2n + 1) = P (2n + 1) + α * (P (2n) + P (2n + 2)) [step1]
C (2n) = P (2n) + β * (C (2n-1) + C (2n + 1)) [step2]
C (2n + 1) = C (2n + 1) + γ * (C (2n) + C (2n + 2)) [step3]
C (2n) = C (2n) + δ * (C (2n-1) + C (2n + 1)) [step4]
C (2n + 1) = K * C (2n + 1) [step5]
C (2n) = (1 / K) * C (2n) [step6] (3)
(Inverse transformation)
P (2n) = K * C (2n) [step1]
P (2n + 1) = (1 / K) * C (2n + 1) [step2]
P (2n) = X (2n) -δ * (P (2n-1) + P (2n + 1)) [step3]
P (2n + 1) = P (2n + 1) -γ * (P (2n) + P (2n + 2)) [step4]
P (2n) = P (2n) -β * (P (2n-1) + P (2n + 2)) [step5]
P (2n) = P (2n + 1) -α * (P (2n) + P (2n + 2)) [step6] (4)
However, α = -1.586134342059924
β = -0.052980118572961
γ = 0.882911075530934
δ = 0.443506852043971
K = 1.230174104914001
図3乃至図7により、16×16画素のモノクロの画像に対して、5x3変換と呼ばれるウェーブレット変換を2次元(垂直方向及び水平方向)で施す過程について説明する。 A process of performing wavelet transform called 5 × 3 transform in two dimensions (vertical direction and horizontal direction) on a monochrome image of 16 × 16 pixels will be described with reference to FIGS.
図3のようにXY座標をとり、あるX座標について、Y座標がyである画素の画素値をP(y)(0≦y≦15)と表す。JPEG2000では、まず垂直方向(Y座標方向)に、Y座標が奇数(y=2i+1)の画素を中心にハイパスフィルタを施して係数C(2i+1)を得る。次に、Y座標が偶数(y=2i)の画素を中心にローパスフィルタを施して係数C(2i)を得る(これを全てのX座標について行う)。前記順変換(1)式中のstep1の式がハイパスフィルタを表し、step2の式がローパスフィルタを表す。
As shown in FIG. 3, the XY coordinates are taken, and the pixel value of a pixel whose Y coordinate is y is expressed as P (y) (0 ≦ y ≦ 15) for a certain X coordinate. In JPEG2000, a coefficient C (2i + 1) is obtained by first applying a high-pass filter in the vertical direction (Y-coordinate direction) around an odd-numbered pixel (y = 2i + 1). Next, a low-pass filter is applied around the pixel whose Y coordinate is an even number (y = 2i) to obtain a coefficient C (2i) (this is performed for all X coordinates).
なお、画像の端部においては、中心となる画素に対して隣接画素が存在しない場合があり、この場合には所定ルールによって画素値を補うことになるが、本発明とは本質的には関係しないため詳述しない。 Note that there may be no adjacent pixel at the center of the image at the edge of the image. In this case, the pixel value is supplemented by a predetermined rule. It will not be described in detail.
簡単のため、ハイパスフィルタで得られる係数をH、ローパスフィルタで得られる係数をL、と表記すれば、前記垂直方向の変換によって図3の画像は図4のようなL係数とH係数の配列へと変換される。 For the sake of simplicity, if the coefficient obtained by the high-pass filter is denoted by H and the coefficient obtained by the low-pass filter is denoted by L, the image in FIG. 3 is arranged as shown in FIG. Is converted to
続いて、図3の係数配列に対して、水平方向に、X座標が奇数(x=2i+1)の係数を中心にハイパスフィルタを施し,次にX座標が偶数(x=2i)の係数を中心にローパスフィルタを施す(これを全てのyについて行う。この場合、式(1)中のP(2i)等は係数値を表すものと読み替える)。 Subsequently, a high-pass filter is applied to the coefficient array shown in FIG. 3 in the horizontal direction centering on an odd-numbered (x = 2i + 1) coefficient, and then an even-numbered (x = 2i) coefficient. (This is performed for all y. In this case, P (2i) etc. in the equation (1) is read as a coefficient value).
簡単のため、前記L係数を中心にローパスフィルタを施して得られる係数をLL、前記L係数を中心にハイパスフィルタを施して得られる係数をHL、前記H係数を中心にローパスフィルタを施して得られる係数をLH、前記H係数を中心にハイパスフィルタを施して得られる係数をHH、と表記すれば、図4の係数配列は、図5の様な係数配列へと変換される。ここで同一の記号を付した係数群はサブバンドと呼ばれ、図5は4つのサブバンドで構成される。 For simplicity, LL is obtained by applying a low-pass filter centered on the L coefficient, HL is obtained by applying a high-pass filter centered on the L coefficient, and is obtained by applying a low-pass filter centered on the H coefficient. 4 is converted into a coefficient array as shown in FIG. 5, if the coefficient obtained is expressed as LH and the coefficient obtained by applying a high-pass filter around the H coefficient as HH. Here, the coefficient group with the same symbol is called a subband, and FIG. 5 includes four subbands.
以上で、1回のウェーブレット変換(1回のデコンポジション(分解))が終了し、LL係数だけを集めると(図6の様にサブバンド毎に集め、LLサブバンドだけ取り出すと)、ちょうど原画像の1/2の解像度の“画像”が得られる(このように、サブバンド毎に分類することをデインターリーブと呼び、図5のような状態に配置することをインターリーブするという)。 With the above, one wavelet transform (one decomposition (decomposition)) is completed, and only the LL coefficients are collected (collected for each subband as shown in FIG. 6 and only the LL subband is taken out). An “image” having half the resolution of the image is obtained (in this way, classification for each subband is referred to as deinterleaving, and arrangement in the state shown in FIG. 5 is referred to as interleaving).
2回目のウェーブレット変換は、LLサブバンドを原画像と見なして、上記と同様の変換を行えばよい。2回目のウェーブレット変換を行い、係数を並べ替えると、模式的な図7が得られる.
ここで、図6,図7において、係数の接頭の1や2は、何回のウェーブレット変換で該係数が得られたかを示しており、デコンポジションレベルと呼ばれる。ウェーブレット変換においては、このデコンポジションレベルが周波数帯域に相当する。また、デコンポジションレベルとほぼ逆の関係にある解像度レベルの定義を図8に示す。
In the second wavelet transform, the LL subband may be regarded as an original image and the same transformation as described above may be performed. When the second wavelet transform is performed and the coefficients are rearranged, a schematic diagram 7 is obtained.
Here, in FIGS. 6 and 7, the
なお、以上の議論において、1次元のみのウェーブレット変換をしたい場合には、垂直又は水平いずれかの方向だけの処理を行えばよい。 In the above discussion, when only one-dimensional wavelet transform is desired, processing in only the vertical or horizontal direction may be performed.
このような5×3ウェーブレット変換の逆変換においては、図5の様なインターリーブされた係数の配列に対して、まず水平方向に、X座標が偶数(x=2i)の係数を中心に逆ローパスフィルタを施し、次に、X座標が奇数(x=2i+1)の係数を中心に逆ハイパスフィルタを施す(これを全てのyについて行う)。前記逆変換式(2)中のstep1の式が逆ローパスフィルタを表し、step2の式が逆ハイパスフィルタを表す。順変換の場合と同様、画像の端部においては中心となる係数に対して隣接係数が存在しないことがあり、この場合は所定ルールによって適宜係数値を補うことになるが、その説明は割愛する。
In such inverse transformation of 5 × 3 wavelet transform, an inverse low-pass operation is first performed on the interleaved coefficient array as shown in FIG. 5 centering on a coefficient whose X coordinate is an even number (x = 2i). Apply a filter, and then apply an inverse high-pass filter centered on a coefficient whose X coordinate is an odd number (x = 2i + 1) (this is performed for all y). The expression of
これにより、図5の係数配列は図4のような係数配列に変換(逆変換)される。続いて、垂直方向に、Y座標が偶数(y=2i)の係数を中心に逆ローパスフィルタを施し、次にY座標が奇数(y=2i+1)の係数を中心に逆ハイパスフィルタを施せば(これを全てのX座標について行う)、1回のウェーブレット逆変換が終了し、図3の画像に戻る(再構成される)ことになる。なお、ウェーブレット変換が複数回施されている場合は、図3をLLサブバンドとみなし、HL等の他の係数を利用して同様の逆変換を繰り返せばよい。 As a result, the coefficient array in FIG. 5 is converted (inversely converted) into a coefficient array as shown in FIG. Next, in the vertical direction, apply an inverse low-pass filter centered on the coefficient whose Y coordinate is an even number (y = 2i), and then apply an inverse high-pass filter centered on the coefficient whose Y coordinate is an odd number (y = 2i + 1). If this is done (for all X coordinates), one wavelet inverse transformation is completed, and the image of FIG. 3 is returned (reconstructed). If wavelet transformation is performed a plurality of times, FIG. 3 is regarded as an LL subband, and similar inverse transformation may be repeated using other coefficients such as HL.
以上説明したように、5×3ウェーブレット変換は、5画素を用いて1つのローパスフィルタの出力(ローパス係数)が得られ、3画素を用いて1つのハイパスフィルタの出力(ハイパス係数)が得られる変換である。これに対し、9×7ウェーブレット変換は、9画素を用いて1つのローパスフィルタの出力(ローパス係数)が得られ、7画素を用いて1つのハイパスフィルタの出力(ハイパス係数)が得られる変換である。このように、5×3変換と9×7変換の主な違いは、フィルタの範囲の違いであり、偶数位置中心にローパスフィルタが、奇数位置中心にハイパスフィルタが施されるのは同様である。したがって、図4乃至図7は、9×7変換にも同様に当てはまる。 As described above, in the 5 × 3 wavelet transform, one low-pass filter output (low-pass coefficient) is obtained using five pixels, and one high-pass filter output (high-pass coefficient) is obtained using three pixels. It is a conversion. On the other hand, the 9 × 7 wavelet transform is a conversion in which 9 pixels are used to obtain one low-pass filter output (low-pass coefficient), and 7 pixels are used to obtain one high-pass filter output (high-pass coefficient). is there. As described above, the main difference between the 5 × 3 conversion and the 9 × 7 conversion is the difference in the filter range, and the low pass filter is applied to the center of the even position and the high pass filter is applied to the center of the odd position. . Therefore, FIGS. 4 to 7 apply to the 9 × 7 conversion as well.
よって、本発明の一態様は、請求項1の発明の符号化装置において、符号化制御手段がウェーブレット変換のデコンポジションレベル毎に量子化を制御することを特徴とするものである。
このように量子化の制御をデコンポジションレベル毎に行えば、ウェーブレット変換を用いる場合の量子化制御が簡易になり、画質制御の高速化が可能である。
Therefore, one aspect of the present invention is characterized in that, in the encoding apparatus according to the first aspect of the present invention , the encoding control means controls the quantization for each decomposition level of the wavelet transform.
If the quantization control is performed for each decomposition level in this way, the quantization control when using the wavelet transform is simplified, and the image quality control can be speeded up.
また、本発明の一態様は、請求項2の発明の符号化装置において、符号化制御手段がウェーブレット変換のデコンポジションレベル毎にトランケーションを制御することを特徴とするものである。 According to another aspect of the present invention, in the encoding device according to the second aspect of the present invention , the encoding control means controls truncation for each decomposition level of the wavelet transform.
このようにトランケーションの制御をデコンポジションレベル毎に行えば、ウェーブレット変換を用いる場合のトランケーション制御が簡易になり、高速の画質制御が可能である。 If truncation control is performed for each decomposition level in this way, truncation control when using wavelet transform is simplified, and high-speed image quality control is possible.
さて、フィールド間の動きにより生じる”櫛形”は、1画素ごとに垂直方向に画素値が大きく変わるが、水平方向には画素値が大きく変わるとは限らない(櫛の端部でしか画素値は変わらない)ものである。すなわち、”櫛形”は、垂直方向の高周波成分である。図1(d)を参照すれば、動き量が大きいと”櫛形”の横エッジの長さが増加するのに対し、縦エッジは略一定である。横エッジ成分は垂直方向の高周波成分であるから、動き量が大きくなるほど(櫛形が顕著になるほど)縦方向の高周波数成分が増加するわけである。 Now, the “comb shape” generated by the movement between fields changes the pixel value greatly in the vertical direction for each pixel, but the pixel value does not always change in the horizontal direction (the pixel value is changed only at the end of the comb). (It does not change). That is, the “comb” is a high-frequency component in the vertical direction. Referring to FIG. 1D, when the amount of movement is large, the length of the “comb” horizontal edge increases, whereas the vertical edge is substantially constant. Since the horizontal edge component is a high-frequency component in the vertical direction, the higher the amount of motion (the more conspicuous the comb shape), the higher the high-frequency component in the vertical direction.
したがって、”櫛形”が生じた場合、ウェーブレット変換係数の中で、1LH係数(デコンポジションレベル1、垂直方向高周波、水平方向低周波の係数)が最も大きな値をとり、1HH係数(デコンポジションレベル1,垂直方向高周波,水平方向高周波の係数)が次に大きな値をとり、1HL係数(デコンポジションレベル1,垂直方向低周波,水平方向高周波の係数)が最も小さな値をとる。このように、同じ周波数帯域(デコンポジションレベル)でもサブバンド毎に”櫛形”の反映の度合いが異なるのである。
Therefore, when a “comb” is generated, 1LH coefficient (
よって、請求項3の発明は、請求項1の発明の符号化装置において、符号化制御手段がウェーブレット変換のサブバンド毎に量子化を制御することを特徴とするものである。
Therefore, the invention of
サブバンド毎に量子化を制御するということは、周波数帯域及び方向の両方を加味して量子化を制御するということであるため、量子化の簡易な制御によって高精度かつ高速の画質制御が可能である。 Controlling the quantization for each subband means controlling the quantization taking into account both the frequency band and direction, so high-accuracy and high-speed image quality control is possible with simple control of quantization. It is.
また、請求項4の発明は、請求項2の発明の符号化装置において、符号化制御手段がウェーブレット変換のサブバンド毎にトランケーションを制御することを特徴とするものである。
このようなサブバンド毎にトランケーションを制御するということは、周波数帯域及び方向の両方を加味してトランケーションを制御するということであるため、トランケーションの簡易な制御によって高精度かつ高速の画質制御が可能である。
According to a fourth aspect of the present invention, in the encoding device according to the second aspect of the present invention, the encoding control means controls truncation for each subband of the wavelet transform.
Controlling truncation for each subband means that truncation is controlled by taking both the frequency band and direction into consideration, so high-precision and high-speed image quality control is possible with simple truncation control. It is.
また、請求項5の発明は、請求項3の発明の符号化装置において、符号化制御手段が同一解像度レベル中のサブバンドに関し、LHサブバンドの量子化を最も控えるように制御することを特徴とするものである。
The invention according to
LHサブバンドは垂直方向の高周波成分であり、その損失が大きいと、図2で説明したような”残像”が生じやすい。したがって、LHサブバンドの量子化を最も控えることにより、垂直方向の高周波成分が優先的に保存されるため、不自然な画質劣化である”残像現象”が効果的に抑制される。 The LH subband is a high-frequency component in the vertical direction, and if the loss is large, the “afterimage” described with reference to FIG. 2 is likely to occur. Therefore, since the high frequency components in the vertical direction are preferentially preserved by leastly quantizing the LH subband, the “afterimage phenomenon” that is an unnatural image quality degradation is effectively suppressed.
また、請求項6に係る発明は、請求項4の発明の符号化装置において、符号化制御手段が同一解像度レベル中のサブバンドに関し、LHサブバンドのトランケーションを最も控えるように制御することを特徴とするものである。
The invention according to
LHサブバンドのトランケーションを最も控えるということは、LHサブバンドの量子化を最も控えることと等価であるから、不自然な画質劣化である”残像現象”が効果的に抑制される。 Reducing the truncation of the LH subband is equivalent to repressing the quantization of the LH subband the most, so that the “afterimage phenomenon”, which is an unnatural image degradation, is effectively suppressed.
以上の説明から理解されるように、”櫛形”の影響はデコンポジションレベル1に最も大きく現れ、デコンポジションレベルが上がるにつれてその影響は小さくなる。本出願人の実験によれば、デコンポジションレベル2までの量子化又はトランケーションを適切に制御すれば、十分な効果が得られることが確認された。
As can be understood from the above description, the effect of the “comb” appears most at the
よって、請求項7の発明は、請求項3又は5の発明の符号化装置において、符号化制御手段が、デコンポジションレベル1及びデコンポジションレベル2のみに関し、量子化を制御することを特徴とするものである。
また、請求項8の発明は、請求項4又は6の発明の符号化装置において、符号化制御手段は、デコンポジションレベル1及びデコンポジションレベル2のみに関し、トランケーションを制御することを特徴とするものである。
このように、量子化又はトランケーションの制御の対象をデコンポジションレベル2以下に制限することにより、その制御が簡易、高速になり、かつ、その十分な効果を得ることができる。
Therefore, a seventh aspect of the invention is characterized in that, in the encoding device of the third or fifth aspect of the invention, the encoding control means controls the quantization only for the
According to an eighth aspect of the present invention, in the encoding device according to the fourth or sixth aspect of the present invention, the encoding control means controls truncation only for the
Thus, by limiting the object of quantization or truncation control to the
ここで、JPEG2000における量子化、トランケーション及び画質制御についてさらに説明する。JPEG2000の符号化処理は概ね図9に示すような流れに従って行われる。また、図10は、画像、タイル、サブバンド、プリシンクト、コードブロックの関係を示す模式図である。 Here, the quantization, truncation, and image quality control in JPEG2000 will be further described. JPEG2000 encoding processing is generally performed according to the flow shown in FIG. FIG. 10 is a schematic diagram showing the relationship between images, tiles, subbands, precincts, and code blocks.
タイルとは、画像を矩形に分割したものであり、分割数=1のときは画像とタイルは同一のものとなる。個々のタイルを独立した1つの画像と見なし、ウェーブレット変換がなされ、サブバンドが生成される。JPEG2000の基本仕様では、ウェーブレット変換として9×7変換を用いる場合には、同一のサブバンドに含まれる係数を同一の数で除算し、線形に量子化することができる。したがって、線形量子化による画質制御はサブバンド単位で可能である(すなわち、線形量子化による画質制御単位はサブバンドである)。 A tile is an image divided into rectangles. When the number of divisions = 1, the image and the tile are the same. Each tile is regarded as an independent image, wavelet transformation is performed, and subbands are generated. In the basic specification of JPEG2000, when 9 × 7 conversion is used as wavelet conversion, coefficients included in the same subband can be divided by the same number and linearly quantized. Therefore, image quality control by linear quantization is possible in subband units (that is, image quality control units by linear quantization are subbands).
プリシンクトとは、サブバンドを(ユーザが指定可能なサイズの)矩形に分割したもので、画像中の大まかな場所(position)を表すものである。HL,LH,HHの各サブバンドを分割したプリシンクトについては、各サブバンドの対応位置のプリシンクト(合計3個)がひとまとまりとして扱われる。ただし、LLサブバンドを分割したプリシンクトは、1つでひとまとまりとして扱われる。プリシンクトはサブバンドと同じサイズにすることもできる。プリシンクトを(ユーザが指定可能なサイズの)矩形に分割したものが、コードブロックである。図10には、デコンポジションレベル3の場合のタイル、サブバンド、プリシンクト、コードブロックの関係が示されている。
The precinct is a subband divided into rectangles (of a size that can be designated by the user) and represents a rough position in the image. With respect to the precinct obtained by dividing the HL, LH, and HH subbands, precincts (a total of three) at the corresponding positions of the subbands are handled as a group. However, one precinct obtained by dividing the LL subband is handled as one group. The precinct can be the same size as the subband. A code block is obtained by dividing a precinct into rectangles (of a size that can be specified by the user). FIG. 10 shows the relationship among tiles, subbands, precincts, and code blocks in the case of
量子化後のサブバンドの係数は、コードブロック単位でビットプレーン符号化される(1つのビットプレーンは3つのサブビットプレーンに分解されて符号化される)。プリシンクトに含まれる全てのコードブロックから、符号の一部を取り出して集めたもの(例えば、全てのコードブロックのMSBから3枚目までのビットプレーンの符号を集めたもの)がパケットである。上記“一部”は“空”(から)でもいいので、パケットの中身が符号的には“空”(から)ということもある。 The subband coefficients after quantization are bit-plane encoded in units of code blocks (one bit plane is decomposed into three sub-bit planes and encoded). A packet is obtained by extracting and collecting a part of codes from all code blocks included in the precinct (for example, collecting codes of MSBs of all code blocks to the third bit plane). Since the “part” may be “empty” (from), the content of the packet may be “empty” (from) in terms of code.
全てのプリシンクト(=全てのコードブロック=全てのサブバンド)のパケットを集めると、画像全域の符号の一部(例えば、画像全域のウェーブレット係数の、MSBから3枚目までのビットプレーンの符号)ができるが、これをレイヤーと呼ぶ。レイヤーは、大まかには画像全体のビットプレーンの符号の一部であるから、復号されるレイヤー数が増えれば画質は上がる。したがって、レイヤーは画質の単位である。すべてのレイヤーを集めると、画像全域の全てのビットプレーンの符号になる。 Collecting packets of all precincts (= all code blocks = all subbands), a part of the code of the entire image (for example, the code of the MSB to the third bit plane of the wavelet coefficients of the entire image) This is called a layer. Since the layer is roughly a part of the code of the bit plane of the entire image, the image quality increases as the number of layers to be decoded increases. Therefore, a layer is a unit of image quality. If all the layers are collected, it becomes the sign of all the bit planes throughout the image.
ウェーブレット変換の階層数(デコンポジションレベル)=2、プリシンクトサイズ=サブバンドサイズ、としたときのレイヤー構成の例を図11に示す。また、その各レイヤに含まれるパケットの例を、図12に太線で囲んで示す。 FIG. 11 shows an example of the layer configuration when the number of wavelet transform layers (decomposition level) = 2 and the precinct size = subband size. In addition, examples of packets included in each layer are shown in FIG.
この例の場合、プリシンクトサイズ=サブバンドサイズであり、また、プリンシンクトの大きさと同じ大きさのコードブロックを採用しているため、デコンポジションレベル2のサブバンドは4つのコードブロックに、デコンポジションレベル1のサブバンドは9個のコードブロックに分割されている。パケットはプリシンクトを単位とするものであるから、プリシンクト=サブバンドとした場合、パケットはHL〜HHサブバンドを跨いだものとなる。
In this example, the precinct size is equal to the subband size, and since the code block having the same size as the size of the printinct is adopted, the subband at the
ここで、パケットは「コードブロックの符号の一部を取り出して集めたもの」であり、不要な符号はパケットとして生成する必要はない。例えば、図11のレイヤー9に含まれる様な下位ビットプレーンの符号は破棄(トランケート)されるのが通常である。
Here, the packet is “a collection of code blocks extracted and collected”, and unnecessary codes need not be generated as packets. For example, the code of the lower bit plane as contained in the
したがって、トランケーションによる画質制御は、コードブロック単位(かつサブビットプレーン単位)で可能である。つまり、トランケーションによる画質制御単位はコードブロックである。なお、パケットの並びをプログレッション順序と呼ぶ。 Therefore, image quality control by truncation is possible in units of code blocks (and units of sub-bit planes). That is, the image quality control unit by truncation is a code block. Note that the sequence of packets is called a progression order.
さて、サブバンド単位での線形量子化を行う場合、主観画質をよくするためには、量子化ステップ数(線形量子化時の除算の分母)は、
量子化ステップ数
=PSNRを最大にするための正規化で決まる数/視覚重み(通称Visual Weight)
(ア)
とするのが通常である。各係数が逆周波数変換(JPEG2000なら逆ウェーブレット変換)されてRGB値にもどされる場合、各係数に生じた量子化誤差が最終的なRGB値へ与える影響は周波数帯域毎(ウェーブレット変換ならサブバンド毎)に異なり、その比は逆周波数変換(JPEG2000なら逆ウェーブレット変換)時の定数(いわゆるサブバンドゲイン)で決まる。
Now, when performing linear quantization on a subband basis, in order to improve the subjective image quality, the number of quantization steps (the denominator of division during linear quantization) is:
Number of quantization steps = Number determined by normalization to maximize PSNR / Visual weight (commonly called Visual Weight)
(A)
It is normal. When each coefficient is inverse frequency transformed (inverse wavelet transform for JPEG2000) and returned to the RGB value, the influence of the quantization error generated in each coefficient on the final RGB value is the frequency band (for wavelet transform, subband) The ratio is determined by a constant (so-called subband gain) at the time of inverse frequency conversion (inverse wavelet conversion in JPEG2000).
PSNRをよくするためには、該影響をサブバンド間で均一にする必要があり、その均一化のためにサブバンド毎にサブバンドゲインをキャンセルするような量子化が行われる。その詳細は非特許文献2に記載されている。要するに、ある圧縮率において、逆変換後の信号(=複数の信号値で構成される)に生じた誤差の二乗平均を最小にする(=PSNRを最大にする)ためには、各サブバンドをサブバンドゲインの平方根の逆数(の定数倍の値)で線形量子化するのが一般的である。本明細書において、この「PSNRを最大にするための正規化で決まる数」を「基本量子化ステップ数」と呼ぶ。
In order to improve the PSNR, it is necessary to make the influence uniform between subbands, and quantization is performed so as to cancel the subband gain for each subband in order to make the influence uniform. The details are described in
ただし、PSNRは主観画質とは一致しないため、前記式(ア)の様に、基本量子化ステップ数をさらに視覚的な重み(visual Weight)で除算したものを量子化ステップ数とするのが一般的である。 However, since PSNR does not match the subjective image quality, the number of basic quantization steps divided by the visual weight (visual weight) is generally used as the number of quantization steps, as in equation (a) above. Is.
図13に、非特許文献3に記載の視覚感度の測定例を示す。横軸は縞の周波数(cycle/degree)であり、縦軸は、その周波数で人間が関知する最小のコントラストの逆数、すなわちコントラストに対する感度(相対値)である。輝度Y,色差Cb,色差Crの各々の縞について測定されたコントラストに対する感度が、図13に示されている。図13から、人間の視覚が低い空間周波数でコントラストの変化に対し敏感で、高域で鈍感であること、Yコンポ−ネントに対して最も敏感で、Cbコンポ−ネントに対して最も鈍感であることが分かる。
FIG. 13 shows a measurement example of visual sensitivity described in
JPEG2000の標準書に、この視覚感度に基づき、後述する重みが例示されている。各サブバンドの重みは、当該サブバンドが占める周波数帯域における前記視覚感度曲線の積分値として求められ、その詳細は非特許文献4に記載されている。低域のサブバンドでは大きな重み、高域のサブバンドでは小さな重みが与えられる。かかる視覚重みは、本来、視覚感度から求められるものを用いるべきものであるが、その値を意識的に操作して所望の画質を得ることも可能である。例えば、視覚感度上は、1LHの重み=1HLの重み、であるが、
1LHの重み>1HLの重み、
とすることによって、1LHの量子化を1HLの量子化よりも控えることが可能となる。
Based on this visual sensitivity, JPEG2000 standard books illustrate weights described later. The weight of each subband is obtained as an integral value of the visual sensitivity curve in the frequency band occupied by the subband, and details thereof are described in
1LH weight> 1HL weight,
By doing so, it becomes possible to refrain from quantization of 1 LH than quantization of 1 HL.
よって、請求項9の発明は、請求項1,3,5又は7の発明の符号化装置において、符号化制御手段が量子化の制御においてサブバンド毎の視覚重みを変えることを特徴とするものである。
このように量子化の制御においてサブバンド毎の視覚重みを変えることによって、より高精度の画質制御が可能である。
Accordingly, the invention of
Thus I by the altering the visual weighting for each sub-band in the control of the quantization, it is possible to image quality control more accurate.
トランケーションに関しても同様に、符号の重要度として、前記視覚重みを加味することができる。一般に、符号の価値は、「その符号を破棄した場合の量子化誤差の増分/その符号量」で評価され、この値が小さい符号(その破棄による符号量の減少に比べて、誤差の増加が少ない符号)から順に破棄される。そして、主観画質をよくするためには、符号の価値を
「その符号を破棄した場合の量子化誤差の増分×視覚重み/その符号量」
で評価するのが通常である。
Similarly for truncation, the visual weight can be added as the importance of the code. In general, the value of a code is evaluated by “increase in quantization error when the code is discarded / the amount of code”, and a code with a small value (an increase in error compared to a decrease in code amount due to the discard). Discarded in order starting from the few codes. In order to improve subjective image quality, the value of a code is expressed as “increment of quantization error when the code is discarded × visual weight / the amount of code”
It is normal to evaluate with.
よって、請求項10の発明は、請求項2,4,6又は8の発明の符号化装置において、符号化制御手段はトランケーションの制御においてサブバンド毎の視覚重みを変えることを特徴とするものである。
このようにトランケーションの制御においてサブバンド毎の視覚重みを変えることによって、より高精度の画質制御が可能である。
Accordingly, the invention of
Thus, by changing the visual weight for each subband in the truncation control, it is possible to control the image quality with higher accuracy.
さて、以上に述べた「重み」はサブバンドを単位とするものであるが、この重みに、サブバンドを分割したサブブロック(JPEG2000ではコードブロック)の特性を乗じることもよく行われている。人間の視覚は、周波数と同時にコントラスト強度自体の関数でもあり、同じ周波数帯域であっても、コントラストが高いほど、コントラストの誤差(変化)に鈍感なのである。これは、コントラストの誤差を人間が感じるか感じないの閾値が、誤差の絶対値ではなく、誤差の相対的な大きさ(誤差の値/原値という比率)に依存することによる(所謂Weberの法則である)。このように、原値(オリジナルの値)が大きい場合に誤差が目立たなくなる効果を一般に「マスキング」という。 The “weight” described above is in units of subbands, and this weight is often multiplied by the characteristics of a subblock (code block in JPEG2000) obtained by dividing the subband. Human vision is a function of the contrast intensity itself as well as the frequency. The higher the contrast, the less sensitive the contrast error (change), even in the same frequency band. This is because the threshold of whether or not a human feels or feels the contrast error depends not on the absolute value of the error but on the relative size of the error (ratio of error value / original value) (so-called Weber's Is the law). In this way, the effect of making the error less noticeable when the original value (original value) is large is generally referred to as “masking”.
ここで、周波数変換した係数は、一般に原画像のコントラストを反映したものとなるため、係数値の大小をコントラストの大小と見なし得る。そこで、サブブロックに含まれる係数の値が大きいか小さいかを示す指標を、本明細書では”マスキング指標”と呼ぶものとすると、符号の重要度を、
「その符号を破棄した場合の量子化誤差の増分×視覚重み/(マスキング指標×その符号量)」
により評価することが可能である。
Here, since the frequency-converted coefficient generally reflects the contrast of the original image, the magnitude of the coefficient value can be regarded as the magnitude of the contrast. Therefore, if an index indicating whether the value of the coefficient included in the sub-block is large or small is called a “masking index” in this specification, the importance of the code is
"Increment of quantization error when discarding the code x visual weight / (masking index x number of codes)"
Can be evaluated.
よって、請求項11に係る発明は、請求項2,4,6又は8に記載の符号化装置において、
(画質制御単位に含まれるウェーブレット係数の絶対値の和)/((画質制御単位に含まれるウェーブレット係数の数)^α)) (ここで0<α≦1)
なるマスキング指標を算出する手段を有し、該マスキング指標を用いて符号化制御手段がトランケーションの制御に画質制御単位毎のマスキングを反映させることを特徴とするものである。
このようにトランケーションの制御において、画質制御単位後のマスキングを反映させることによって、より高精度の画質制御が可能である。
Therefore, the invention according to
(Sum of absolute values of wavelet coefficients included in image quality control unit) / ((number of wavelet coefficients included in image quality control unit) ^ α)) (where 0 <α ≦ 1)
And a coding control means that reflects the masking for each image quality control unit in the truncation control using the masking index .
Thus, in the truncation control, the image quality control with higher accuracy can be performed by reflecting the masking after the image quality control unit.
さて同様に、サブバンド単位で「重み」変えるのではなく、あるいはサブバンド単位で重み変えると同時に、各サブバンドを分割したサブブロック毎に櫛形の多寡を求め、各サブブロックに適用する重みを、該サブブロックでの櫛形の多寡によってモディファイすることもできる。重みは、本来、視覚の周波数特性より導出されたものであるから同一サブバンド(=同一周波数帯域)内では同じ値であるところ、上記モディファイによって、いわば、サブブロック毎に重みを変えるわけである。前述した通り、サブブロック(JPEG2000ならコードブロック)毎に櫛形の多寡を検出できるので、例えば、櫛形の多寡をサブバンド毎の重みに乗じれば、各サブブロック毎に異なる重みを適用可能である。 Similarly, instead of changing the “weight” in units of subbands, or changing the weight in units of subbands, a comb-shaped polygon is obtained for each subblock into which each subband is divided, and the weight applied to each subblock is determined. It is also possible to modify by a comb-like shape in the sub-block. Since the weight is originally derived from the visual frequency characteristics, it is the same value in the same subband (= same frequency band), but by the above modification, the weight is changed for each subblock. . As described above, comb-shaped multiples can be detected for each sub-block (code block in JPEG2000). For example, if the comb-shaped multiple is multiplied by the weight for each sub-band, a different weight can be applied to each sub-block. .
よって、請求項12の発明は、請求項2,4,6,8又は10の発明の符号化装置において、符号化制御手段がトランケーションの制御において画質制御単位毎に視覚重みを変更することを特徴とするものである。
Therefore, the invention of
また、請求項13の発明は、ウェーブレット変換を使用する、インターレース画像のフレームベース符号化処理におけるウェーブレット係数の量子化を制御する制御工程と、フレームを構成するフィールド間の動き量を検出する検出工程とを有し、
前記制御工程は、前記検出工程で検出された動き量、及び、圧縮率又は量子化誤差に基づいて量子化を制御し、
前記検出工程では、前記動き量として、
輝度コンポーネントに関し、1LHサブバンドの係数の絶対値の平均値1LHmean、1HLサブバンドの係数の絶対値の平均値1HLmean、2LHサブバンドの係数の絶対値の平均値2LHmean、2HLサブバンドの係数の絶対値の平均値2HLmeanについての
(1LHmean/1HLmean)/(2LHmean/2HLmean)なる比、または、
輝度コンポーネントに関し、1LH,1HL,2LH,2HLサブバンドのエントロピー符号化した時のそれぞれの符号量1LHcode,1HLcode,2LHcode,2HLcodeについての
(1LHcode/1HLcode)/(2LHcode/2HLcode)なる比
を算出することを特徴とする符号化制御方法である。
According to a thirteenth aspect of the present invention, there is provided a control step for controlling wavelet coefficient quantization in a frame-based encoding process of an interlaced image using wavelet transform, and a detection step for detecting a motion amount between fields constituting a frame. And
The control step controls the quantization based on the amount of motion detected in the detection step and the compression rate or quantization error,
In the detection step, as the amount of movement,
1LHmean, 1HL subband coefficient absolute value 1HLmean, 2LH subband coefficient absolute value 2LHmean, 2HL subband coefficient absolute value Average value of 2HLmean
(1LHmean / 1HLmean) / (2LHmean / 2HLmean) ratio, or
Regarding the luminance component, when the entropy coding of 1LH, 1HL, 2LH, and 2HL subbands is performed, the respective code amounts of 1LHcode, 1HLcode, 2LHcode, and 2HLcode
Ratio of (1LHcode / 1HLcode) / (2LHcode / 2HLcode)
This is a coding control method characterized by calculating .
また、請求項14の発明は、ウェーブレット変換を使用する、インターレース画像のフレームベース符号化処理におけるウェーブレット係数又は符号のトランケーションを制御する制御工程と、フレームを構成するフィールド間の動き量を検出する検出工程とを有し、
前記制御工程は前記検出工程で検出された動き量、及び、圧縮率又は量子化誤差に基づいてトランケーションを制御し、
前記検出工程では、前記動き量として、
輝度コンポーネントに関し、1LHサブバンドの係数の絶対値の平均値1LHmean、1HLサブバンドの係数の絶対値の平均値1HLmean、2LHサブバンドの係数の絶対値の平均値2LHmean、2HLサブバンドの係数の絶対値の平均値2HLmeanについての
(1LHmean/1HLmean)/(2LHmean/2HLmean)なる比、または、
輝度コンポーネントに関し、1LH,1HL,2LH,2HLサブバンドのエントロピー符号化した時のそれぞれの符号量1LHcode,1HLcode,2LHcode,2HLcodeについての
(1LHcode/1HLcode)/(2LHcode/2HLcode)なる比
を算出することを特徴とする符号化制御方法である。
According to the fourteenth aspect of the present invention, there is provided a control step for controlling truncation of wavelet coefficients or codes in frame-based coding processing of interlaced images using wavelet transform, and detection for detecting a motion amount between fields constituting a frame. A process,
The control step controls truncation based on the amount of motion detected in the detection step and the compression rate or quantization error,
In the detection step, as the amount of movement,
1LHmean, 1HL subband coefficient absolute value 1HLmean, 2LH subband coefficient absolute value 2LHmean, 2HL subband coefficient absolute value Average value of 2HLmean
(1LHmean / 1HLmean) / (2LHmean / 2HLmean) ratio, or
Regarding the luminance component, when the entropy coding of 1LH, 1HL, 2LH, and 2HL subbands is performed, the respective code amounts of 1LHcode, 1HLcode, 2LHcode, and 2HLcode
Ratio of (1LHcode / 1HLcode) / (2LHcode / 2HLcode)
This is a coding control method characterized by calculating .
請求項15の発明は、請求項13又は14の発明の符号化制御方法における制御工程及び検出工程をコンピュータに実行させるプログラムである。 A fifteenth aspect of the invention is a program that causes a computer to execute a control step and a detection step in the encoding control method of the thirteenth or fourteenth aspect of the invention .
また、請求項16の発明は、請求項13又は14の発明の符号化制御方法における制御工程及び検出工程をコンピュータに実行させるプログラムが記録された、コンピュータが読み取り可能な記録媒体である。
The invention of
以上の説明から理解されるように、
(1)請求項1乃至14の発明によれば、フィールド間の動きによる不自然な画質劣化の抑制と画質の向上を同時に達成可能である。
(2)請求項3,4の発明によれば、量子化又はトランケーションの制御が簡易であるため、より高速の画質制御が可能である。
(3)請求項5,6の発明によれば、垂直方向の高周波を保存することにより、垂直方向の高周波成分が優先的に保存されるため、フィールド間の動きにより不自然な画質劣化を効果的に抑制することができる。
(4)請求項7,8の発明によれば、量子化又はトランケーションの制御が簡易になり、より高速な画質制御が可能になる。請求項9乃至12の発明によれば、より高精度な画質制御が可能である。
(5)請求項15,16の発明によれば、インターレース画像のフレームベース符号化における不自然な画質劣化の抑制と画質向上とを同時に達成するための符号化制御を、コンピュータを利用して容易に実施することができる。
等々の効果を得られる。
As can be understood from the above description,
(1) According to the first to fourteenth aspects of the present invention, it is possible to simultaneously achieve suppression of unnatural image quality deterioration due to movement between fields and improvement of image quality.
(2) According to the third and fourth aspects of the invention, since quantization or truncation is easily controlled, higher-speed image quality control is possible.
(3) According to the inventions of
(4) According to the
(5) According to the inventions of
And so on.
本発明の実施の形態に係る符号化装置の構成を図14に示す。ここに示す符号化装置は、インターレース画像のフレームベース符号化を行うものであるが、ここでは相前後する2フィールド(インターレース画像)から合成されたフレーム(ノンインターレース画像)が入力されるものとする。ただし、フィールドからフレームを合成する手段を符号化装置の内部に備える形態を排除するものではない。この符号化装置は、フレームベース符号化処理を行う符号化処理手段100と、フレームを構成する2フィールド間の動き量を検出し、その動き量と、所望の圧縮率又は量子化誤差とに基づいて、符号化処理手段100における周波数係数の量子化を制御し、あるいは、符号化処理手段100における周波数係数又は符号のトランケーションを制御する符号化制御手段101とから構成される。
FIG. 14 shows the configuration of the encoding apparatus according to the embodiment of the present invention. The encoding apparatus shown here performs frame-based encoding of an interlaced image. Here, a frame (non-interlaced image) synthesized from two consecutive fields (interlaced image) is input. . However, this does not exclude a mode in which means for synthesizing a frame from a field is provided inside the encoding apparatus. This encoding apparatus detects an amount of motion between two fields constituting a frame by using an
ここでは、符号化処理手段100において、JPEG2000のアルゴリズムにより符号化処理が行われるものとする(ただし、JPEG2000のみに限定されるものではない)。また、ウェーブレット変換として9×7変換が用いられるものとする。また、フレーム画像はRGBの3コンポーネントからなるものとする。動き量の検出と、量子化又はトランケーションの制御の具体的内容については、後記実施例に関連して説明する。
Here, it is assumed that the
このような符号化装置における移動量検出と量子化又はトランケーションの制御の内容は、本発明の符号化制御方法の内容でもある。したがって、本発明の符号化装置に関する説明は、本発明の符号化制御方法の説明でもある。 The content of movement amount detection and quantization or truncation control in such an encoding device is also the content of the encoding control method of the present invention. Therefore, the description related to the encoding apparatus of the present invention is also the description of the encoding control method of the present invention.
図14に示すような符号化装置は、その全体、あるいは、符号化制御手段101の機能を、パソコンやマイクロコンピュータなどのコンピュータを利用し、プログラムにより実現することも可能である。換言すれば、本発明の符号化制御方法の手順は、コンピュータ上でプログラムにより実行し得る。そのようなプログラムと、それが記録されたコンピュータが読み取り可能な磁気ディスク、光ディスク、光磁気ディスク、半導体記憶素子などの各種の記録(記憶)媒体も本発明に包含される。 The coding apparatus as shown in FIG. 14 can also implement the whole or the function of the coding control means 101 by a program using a computer such as a personal computer or a microcomputer. In other words, the procedure of the encoding control method of the present invention can be executed by a program on a computer. Such a program and various recording (storage) media such as a magnetic disk, an optical disk, a magneto-optical disk, and a semiconductor storage element that can be read by a computer on which the program is recorded are also included in the present invention.
コンピュータを利用して本発明を実施する形態について、図15を参照し簡単に説明する。図15において、110は中央演算処理装置(CPU)、111はデータやプログラム等を一時的に記憶するためのメモリ、112は補助記憶としてのハードディスク装置、113はシステムバスである。符号化の対象となる動画のデータは、フィールドからフレームが構成された形でハードディスク装置112に格納されているものとする。
An embodiment in which the present invention is implemented using a computer will be briefly described with reference to FIG. In FIG. 15, 110 is a central processing unit (CPU), 111 is a memory for temporarily storing data, programs, etc., 112 is a hard disk device as auxiliary storage, and 113 is a system bus. It is assumed that moving image data to be encoded is stored in the
処理の流れの概略は以下の通りである。まず、CPU110からの命令により、ハードディスク装置112から動画の1つのフレームがメモリ111に読み込まれる(1)。CPU110は、メモリ111上のフレームを読み込み、JPEG2000の符号化処理を実行するが、その際に、フィールド間の動き量(櫛形量)の検出、量子化又はトランケーションの制御を行う(2)。CPU110は、符号化データをメモリ111上の別の領域に書き込む(3)。1フレーム分の処理が終わると、CPU110からの命令によって、符号化データがハードディスク装置112に記録される(4)。以上の(1)〜(4)の処理が動画のフレーム数だけ繰り返される。
The outline of the flow of processing is as follows. First, one frame of a moving image is read from the
実施例の説明に先立って、JPEG2000について説明を補充する。 Prior to the description of the embodiment, the description of JPEG2000 will be supplemented.
前述のように、JPEG2000の圧縮・伸張の処理の基本的な流れは図9に示す通りである。RGB3コンポ−ネントで構成されるカラー画像の圧縮時には、DCレベルシフトと輝度・色差コンポ−ネントへのコンポ−ネント変換(色変換)の後に、ウェーブレット変換がなされる。ウェーブレット係数は、必要に応じて量子化された後、ビットプレーンを単位としたエントロピー符号化がなされる(正確には、ビットプレーンは3つのサブビットプレーンに細分化されて符号化される)。 As described above, the basic flow of JPEG2000 compression / decompression processing is as shown in FIG. When a color image composed of RGB3 components is compressed, wavelet conversion is performed after DC level shift and component conversion (color conversion) to luminance / color difference components. The wavelet coefficients are quantized as necessary, and then entropy-coded in units of bit planes (precisely, the bit plane is subdivided into three sub-bit planes and encoded).
伸長時には、ビットプレーン単位でのエントロピー復号により復元されたウェーブレット係数は、必要に応じて逆量子化される。得られたコンポ−ネント毎のウェーブレット係数に対し、逆ウェーブレット変換が施され、得られた各コンポーネントの画素値に逆コンポーネント変換がなされることにより、RGBの画素値に戻される。 At the time of decompression, the wavelet coefficients restored by entropy decoding in bit plane units are inversely quantized as necessary. The obtained wavelet coefficients for each component are subjected to inverse wavelet transformation, and the obtained pixel values of each component are subjected to inverse component transformation, thereby returning to RGB pixel values.
JPEG2000のDCレベルシフトの変換式は次の通りである。 The conversion formula for the DC level shift of JPEG2000 is as follows.
I(x,y) ← I(x,y)−2Ssiz(i) 順変換
I(x,y) ← I(x,y)+2Ssiz(i) 逆変換 (5)
ただし、Ssiz(i)は原画像の各コンポーネントi(RGB画像ならi0,1,2)のビット深さである。
I (x, y) ← I (x, y) -2 Ssiz (i) forward conversion
I (x, y) ← I (x, y) +2 Ssiz (i) Inverse transformation (5)
Here, Ssiz (i) is the bit depth of each component i of the original image (i0, 1, 2 for RGB images).
このDCレベルシフトは、RGB信号値のような正の数である場合に、順変換では各信号値から信号のダイナミックレンジの半分を減算するレベルシフトを、逆変換では各信号値に信号のダイナミックレンジの半分を加算するレベルシフトを行うものである。ただし、このレベルシフトはYCbCr信号のCb,Cr信号のような符号付き整数には適用されない。 When this DC level shift is a positive number such as an RGB signal value, the forward conversion subtracts half of the dynamic range of the signal from each signal value, and the inverse conversion uses the signal dynamics for each signal value. A level shift that adds half the range is performed. However, this level shift is not applied to signed integers such as Cb and Cr signals of YCbCr signals.
JPEG2000では、コンポ−ネント変換として、可逆変換(RCT;Reversible multiple component transformation)と非可逆変換(ICT;Irreversible multiple component transformation)が定義されている。 In JPEG 2000, reversible transformation (RCT) and irreversible multiple component transformation (ICT) are defined as component transformations.
RCTの順変換と逆変換は次式で表される。
順変換
Y0(x,y)=floor((I0(x,y)+2*(I1(x,y)+I2(x,y))/4)
Y1(x,y)=I2(x,y)-I1(x,y)
Y2(x,y)=I0(x,y)-I1(x,y)
逆変換
I1(x,y)=Y0(x,y)-floor((Y2(x,y)+Y1(x,y))/4)
I0(x,y)=Y2(x,y)+I1(x,y)
I2(x,y)=Y1(x,y)+I1(x,y) (6)
式中のIは原信号、Yは変換後の信号を示す。RGB信号ならば、I信号において0=R,1=G,2=B、Y信号において0=Y,1=Cb,2=Crと表される。
RCT forward and inverse transforms are expressed by the following equations.
Forward conversion
Y 0 (x, y) = floor ((I 0 (x, y) + 2 * (I 1 (x, y) + I 2 (x, y)) / 4)
Y 1 (x, y) = I 2 (x, y) -I 1 (x, y)
Y 2 (x, y) = I 0 (x, y) -I 1 (x, y)
Reverse transformation
I 1 (x, y) = Y 0 (x, y) -floor ((Y 2 (x, y) + Y 1 (x, y)) / 4)
I 0 (x, y) = Y 2 (x, y) + I 1 (x, y)
I 2 (x, y) = Y 1 (x, y) + I 1 (x, y) (6)
In the equation, I represents an original signal, and Y represents a signal after conversion. In the case of the RGB signal, 0 = R, 1 = G, 2 = B in the I signal, and 0 = Y, 1 = Cb, 2 = Cr in the Y signal.
ICTの順変換と逆変換は次式で表される。
順変換
Y0(x,y)=0.299*I0(x,y)+0.587*I1(x,y)+0.144*I2(x,y)
Y1(x,y)=-0.16875*I0(x,y)-0.33126*I1(x,y)+0.5*I2(x,y)
Y2(x,y)=0.5*I0(x,y)-0.41869*I1(x,y)-0.08131*I2(x,y)
逆変換
I0(x,y)=Y0(x,y)+1.402*Y2(x,y)
I1(x,y)=Y0(x,y)-0.34413*Y1(x,y)-0.71414*Y2(x,y)
I2(x,y)=Y0(x,y)+1.772*Y1(x,y) (7)
式中のIは原信号、Yは変換後の信号を示す。RGB信号ならば、I信号において0=R,1=G,2=B、Y信号において0=Y,1=Cb,2=Crと表される。
The forward conversion and the reverse conversion of ICT are expressed by the following equations.
Forward conversion
Y 0 (x, y) = 0.299 * I 0 (x, y) + 0.587 * I 1 (x, y) + 0.144 * I 2 (x, y)
Y 1 (x, y) =-0.16875 * I 0 (x, y) -0.33126 * I 1 (x, y) + 0.5 * I 2 (x, y)
Y 2 (x, y) = 0.5 * I 0 (x, y) -0.41869 * I 1 (x, y) -0.08131 * I 2 (x, y)
Reverse transformation
I 0 (x, y) = Y 0 (x, y) + 1.402 * Y 2 (x, y)
I 1 (x, y) = Y 0 (x, y) -0.34413 * Y 1 (x, y) -0.71414 * Y 2 (x, y)
I 2 (x, y) = Y 0 (x, y) + 1.772 * Y 1 (x, y) (7)
In the equation, I represents an original signal, and Y represents a signal after conversion. In the case of the RGB signal, 0 = R, 1 = G, 2 = B in the I signal, and 0 = Y, 1 = Cb, 2 = Cr in the Y signal.
前述のように、JPEG2000で9×7ウェーブレット変換を選択した場合には、各サブバンド毎に、ウェーブレット係数を線形(スカラー)量子化することができる。同一のサブバンド内では共通の量子化ステップ数が用いられる。量子化式を(8)式に、量子化ステップ数(Δb)を(9)式にそれぞれ示す。 As described above, when the 9 × 7 wavelet transform is selected in JPEG2000, the wavelet coefficients can be linearly (scalar) quantized for each subband. A common number of quantization steps is used in the same subband. The quantization equation is shown in equation (8), and the number of quantization steps (Δb) is shown in equation (9).
qb(u,v)=sign(ab(u,v))*floor(|ab(u,v)|/Δb) (8)
ただし、 ab(u,v)はサブバンドbにおける係数
qb(u,v)はサブバンドbにおける係数
Δbはサブバンドbにおける量子化ステップ
Δb=2Rb−εb*floor(1+μb/211) (9)
ただし、 Rbはサブバンドbにおけるダイナミックレンジ
εbはサブバンドbにおける量子化の指数
μbはサブバンドbにおける量子化の仮数
q b (u, v) = sign (a b (u, v)) * floor (| a b (u, v) | / Δb) (8)
Where a b (u, v) is the coefficient in subband b
q b (u, v) is the coefficient in subband b
Δb is the quantization step in subband b Δb = 2 Rb−εb * floor (1 + μb / 2 11 ) (9)
Where Rb is the dynamic range in subband b
εb is the quantization index in subband b
μb is the mantissa of quantization in subband b
指数εbと仮数μbは、各デコンポジションレベルにおけるすべてのサブバンドを規定する方式と、最下位のデコンポジションレベルにおけるLLサブバンドのみ規定し、残りのサブバンドは予め定められている式を用いて規定する方式の2種類がある。前者を明示的な量子化(expounded quantizationもしくはexplicit quantization)、後者を暗黙的な量子化(derived quantizationもしくはimplicit quantization)と呼ぶ。暗黙的な量子化の指数と仮数の組(εb,μb)は(10)式で決定される。 The exponent εb and mantissa μb define all subbands at each decomposition level, only the LL subband at the lowest decomposition level, and the remaining subbands using a predetermined formula There are two types of methods to specify. The former is called explicit quantization or explicit quantization, and the latter is called implicit quantization (derived quantization or implicit quantization). The implicit quantization exponent and mantissa pair (εb, μb) is determined by equation (10).
(εb,μb)=(ε0-NL+nb,μ0) (10)
ただし、nbはデコンポジションレベル数
(ε b , μ b ) = (ε 0 -N L + n b, μ 0 ) (10)
Where n b is the number of decomposition levels
逆量子化式を(11)式に示す。
Rqb(u,v)=(qb(u,v)+r*2Mb−Nb(u,v))*Δb qb(u,v)>0のとき
=(qb(u,v)-r*2Mb−Nb(u,v))*Δb qb(u,v)<0のとき
= 0 qb(u,v)=0のとき (11)
The inverse quantization equation is shown in equation (11).
Rq b (u, v) = (q b (u, v) + r * 2Mb-Nb (u, v)) * Δb q b (u, v)> time of 0
= (q b (u, v ) -r * 2 Mb-Nb (u, v)) * Δb q b (u, v) < 0 When
= 0 q b (u, v) = 0 (11)
なお、5×3ウェーブレット変換が用いられる場合、量子化ステップ(Δb)は常に1である。これは量子化しないことを意味する。 When the 5 × 3 wavelet transform is used, the quantization step (Δb) is always 1. This means no quantization.
JPEG2000においては、ウェーブレット係数を符号化後に不要な下位ビットプレーンの符号を破棄することにより実質的な量子化(ポスト量子化)が可能である。さらに、不要な下位ビットプレーンを初めから符号化しない(つまり、係数状態で破棄する)ことによっても、同様の効果を得ることができる。本明細書中では、このような符号化の前の破棄と符号化の後の破棄のいずれもトランケーションと総称する。 In JPEG2000, substantial quantization (post-quantization) is possible by discarding unnecessary lower bitplane codes after encoding wavelet coefficients. Further, the same effect can be obtained by not encoding unnecessary lower bit planes from the beginning (that is, discarding them in the coefficient state). In this specification, both the discard before encoding and the discard after encoding are collectively referred to as truncation.
この実施例は、ウェーブレット変換係数の線形量子化を、動き量(櫛形量)と、圧縮率又は量子化誤差とに基づいて制御するもので、その処理フローを図16に示す。図16中のステップS100,S101,S104,S105は図14の符号化処理手段100の処理ステップである。ステップS102は図14の符号化制御手段101の処理ステップである。ステップS103は、符号化処理手段100と符号化制御手段101の両方に関わる処理ステップである。すなわち、線形量子化そのものは符号化処理手段100で実行されるものであるが、動き量の検出と線形量子化の制御は制御手段101により実行されるものである。図16中のステップS103のより詳細な処理フローを図17に示す。処理ステップの内容について順に説明する。
In this embodiment, the linear quantization of wavelet transform coefficients is controlled based on the amount of motion (comb amount) and the compression rate or quantization error, and the processing flow is shown in FIG. Steps S100, S101, S104, and S105 in FIG. 16 are processing steps of the encoding processing means 100 in FIG. Step S102 is a processing step of the encoding control means 101 of FIG. Step S <b> 103 is a processing step related to both the
《ステップS100》
各フレームに対し、前述のDCレベルシフトとコンポーネント変換が実行される。したがって、この処理ステップ後のフレームは輝度Y、色差Cb,Crの3コンポーネントからなる。
<< Step S100 >>
The DC level shift and component conversion described above are executed for each frame. Therefore, the frame after this processing step consists of three components of luminance Y and color differences Cb and Cr.
《ステップS101》
フレームの各コンポーネントに2次元のウェーブレット変換が適用される。ここでは、前述したように9×7ウェーブレット変換である。また、ここではデコンポジションレベル4までの変換が行われるものとするが、これに限られるものではない。
<< Step S101 >>
A two-dimensional wavelet transform is applied to each component of the frame. Here, the 9 × 7 wavelet transform is used as described above. In addition, although conversion up to
《ステップS102》
フィールド間の動き量(櫛形量)が検出される。ここでは、本出願人の先願である特願2002-289807号に係る発明と同様に、1LHサブバンド係数に着目して画像全体についてのフィールド間の動き量(櫛形量)を検出するが、原画像にもともと櫛形以外の垂直方向の高周波が多く含まれる場合にも的確な検出を可能にするため、次のような方法が用いられる。
<< Step S102 >>
The amount of motion between the fields (comb amount) is detected. Here, as in the invention according to Japanese Patent Application No. 2002-289807 which is the prior application of the present applicant, focusing on the 1LH subband coefficient, the amount of motion between the fields for the entire image (comb amount) is detected. The following method is used to enable accurate detection even when the original image contains many high-frequency waves in the vertical direction other than the comb shape.
すなわち,輝度コンポーネントのウェーブレット係数に関し、1LHサブバンドの係数の絶対値の平均値(1LHmean)、1HLサブバンドの係数の絶対値の平均値(1HLmean)、2LHサブバンドの係数の絶対値の平均値(2LHmean)、2HLサブバンドの係数の絶対値の平均値(2HLmean)を求め、動き量(櫛形量)の評価値として
(1Lhmean/1HLmean)/(2Lhmean/2HLmean)
なる「係数比」を算出する。
That is, regarding the wavelet coefficients of the luminance component, the average value of the absolute values of the coefficients of the 1LH subband (1LHmean), the average value of the absolute values of the coefficients of the 1HL subband (1HLmean), and the average value of the absolute values of the coefficients of the 2LH subband (2LHmean), find the average value (2HLmean) of the absolute values of the coefficients of the 2HL subband, and use it as an evaluation value for the amount of movement (comb amount)
(1Lhmean / 1HLmean) / (2Lhmean / 2HLmean)
The “coefficient ratio” is calculated.
前述の通り、1Lhmean/1HLmeanの大きさは櫛形の多寡を反映する。しかし、原画像にもともと櫛形以外の垂直方向の高周波が多く含まれる場合にも、この比が大きくなってしまう。一方、デコンポジションレベル2では、櫛形がウェーブレット係数に与える影響は小さくなり、原画像に含まれる櫛形以外の高周波の影響の方が顕著となる。よって、原画像に含まれる櫛形以外の高周波の,垂直・水平方向の割合(2Lhmean/2HLmean)で、1Lhmean/1HLmeanを正規化するならば、櫛形量を正確に検出することが可能である。
As described above, the size of 1Lhmean / 1HLmean reflects the comb shape. However, this ratio also increases when the original image originally contains many high frequencies in the vertical direction other than the comb shape. On the other hand, at the
なお、ウェーブレット係数の絶対値の平均値の大小は、概ねエントロピー符号化後の符号量の大小に反映されるので、特願2002-289807号に係る発明と同様に必要なサブバンドの係数についてエントロピー符号化を行い、その符号量を用いることもできる。 Note that the magnitude of the average value of the absolute values of the wavelet coefficients is generally reflected in the magnitude of the code amount after entropy coding. Therefore, similar to the invention according to Japanese Patent Application No. 2002-289807, the necessary subband coefficients are entropy. It is also possible to perform encoding and use the code amount.
すなわち、輝度コンポーネントの1LH,1HL,2LH,2HLサブバンドについてエントロピー符号化を行い、それぞれの符号量1Lhcode,1Hlcode,2Lhcode,2HLcodeを求め、
(1Lhcode/1HLcode)/(2Lhcode/2HLcode)
なる「符号量比」を動き量(櫛形量)の評価値として算出することもできる。このような符号量比を算出する態様も本実施例に包含される。
That is, entropy coding is performed on the luminance components 1LH, 1HL, 2LH, and 2HL subbands to obtain respective code amounts 1Lhcode, 1Hlcode, 2Lhcode, and 2HLcode,
(1Lhcode / 1HLcode) / (2Lhcode / 2HLcode)
The “code amount ratio” can be calculated as an evaluation value of the motion amount (comb amount). A mode of calculating such a code amount ratio is also included in the present embodiment.
そして、本実施例においては、前記係数比(又は符号量比)と所定の閾値A,B(ただしA<B、係数比の場合と符号量比の場合とでA,Bの値は異なる)との比較判定により、動き量は「小」(A未満)、「中」(A以上、B未満)、「大」(B以上)の3段階に評価される。ただし、この評価は、ステップS103で行うことも可能であり、かかる態様も本実施例に包含される。 In this embodiment, the coefficient ratio (or code amount ratio) and predetermined thresholds A and B (where A <B, the values of A and B differ depending on the coefficient ratio and the code amount ratio). The amount of motion is evaluated in three stages: “small” (less than A), “medium” (A or more, less than B), and “large” (B or more). However, this evaluation can also be performed in step S103, and this aspect is also included in this embodiment.
《ステップS103》
このステップの処理の全体については図17を参照して後述することとし、ここでは、各コンポーネントの各サブバンドに対する量子化ステップ数の決定方法について説明する。この決定のプロセスは図14中の符号化制御手段101に関わるものである。
<< Step S103 >>
The entire processing in this step will be described later with reference to FIG. 17, and here, a method for determining the number of quantization steps for each subband of each component will be described. This determination process is related to the encoding control means 101 in FIG.
所望の圧縮率(又は符号化時に見積もられる量子化誤差)と、所定の閾値X,Y(ただし、X<Y、圧縮率の場合と量子化誤差の場合とではX,Yの値は異なる)との比較により、圧縮率(又は量子化誤差)を「低」(X未満)、「中」(X以上、Y未満)、「高」(Y以上)の3段階に評価する。 Desired compression ratio (or quantization error estimated at the time of encoding) and predetermined threshold values X and Y (where X <Y, the values of X and Y are different between the compression ratio and the quantization error) , The compression ratio (or quantization error) is evaluated in three stages: “low” (less than X), “medium” (X or more, less than Y), and “high” (Y or more).
より簡単には、「(相対的な)圧縮率低、圧縮率中、圧縮率高」の3つの選択肢の中から1つをユーザに指定させてもよい。かかる態様も本実施例に包含される。 More simply, the user may designate one of the three options “low (relative) compression ratio, medium compression ratio, high compression ratio”. Such an embodiment is also included in the present embodiment.
そして、動き量の評価と、圧縮率(又は量子化誤差)の評価とから、図18に示した9通りの視覚重み1〜9の1つを決定する。ただし、本実施例においては、9種類の視覚重みではなく、図19に示した5通りの視覚重みA〜Eを使い分けるものとする。
Then, one of the nine
図20に、視覚重みA〜Eの具体的数値例を図19に対応させた配置で示す。この例では、
視覚重みA<視覚重みB<視覚重みC
の順で、低域のデコンポジションレベル及びサブバンドに対する重みを大きくし、圧縮率の高さ(又は量子化誤差の大ささ)に対応して好ましい画質が得られるようにしている。また、
視覚重みA<視覚重みD<視覚重みE
の順で、高域のデコンポジションレベル及びサブバンドに対する重みを大きくし、動き量の大きい画像ほど櫛形の量子化(又はトランケーション)が控えられるようにしている。
FIG. 20 shows a specific numerical example of the visual weights A to E in an arrangement corresponding to FIG. In this example,
Visual weight A <visual weight B <visual weight C
In this order, the weights for the low-decomposition level and subband are increased so that a desirable image quality can be obtained corresponding to the high compression rate (or the magnitude of the quantization error). Also,
Visual weight A <visual weight D <visual weight E
In this order, the weights for the high-frequency composition level and the sub-band are increased so that comb-shaped quantization (or truncation) is suppressed for images with a large amount of motion.
図21に、視覚重みA〜Eの別の数値例を図19に対応させた配置で示す。ここに示す視覚重みを適用すれば、圧縮率の高さ(又は量子化誤差の大ささ)に対応して好ましい画質が得られると同時に、デコンポジションレベル2までのLHサブバンド係数が優遇され、櫛形の量子化(又はトランケーション)が控えられるようになっている。
FIG. 21 shows another numerical example of the visual weights A to E in an arrangement corresponding to FIG. By applying the visual weight shown here, a favorable image quality can be obtained corresponding to the high compression rate (or the magnitude of quantization error), and at the same time, the LH subband coefficients up to
上のようにして決定された視覚重みを用いて、各コンポーネントの各デコンポジションレベルの各サブバンドの量子化に適用される量子化ステップ数を次式により求める。 Using the visual weight determined as described above, the number of quantization steps applied to the quantization of each subband of each decomposition level of each component is obtained by the following equation.
量子化ステップ数(線形量子化時の除算の分母)
=定数×基本量子化ステップ数/視覚重み (12)
Number of quantization steps (Denominator of division during linear quantization)
= Constant x number of basic quantization steps / visual weight (12)
ここで、基本量子化ステップ数として図22に示す値を使用する。なお、量子化がダイナミックレンジの削減を意図していない場合は、量子化ステップ数が1より小さいことも珍しくない。 Here, the value shown in FIG. 22 is used as the number of basic quantization steps. Note that it is not uncommon for the number of quantization steps to be smaller than 1 when quantization is not intended to reduce the dynamic range.
このような圧縮率(又は量子化誤差)及び動き量を反映した視覚重み、を反映した量子化ステップ数を用いることにより、量子化誤差と櫛形の多寡を反映した量子化が可能となる。 By using such a compression step (or quantization error) and the number of quantization steps reflecting the amount of motion that reflects the amount of motion, it is possible to perform quantization that reflects the quantization error and the comb shape.
前記(12)式中の「定数」は、積極的にダイナミックレンジを削減するためのもので、その大きさによって圧縮率や量子化誤差の量が制御されることになる。この定数の値は適宜指定されるべきものであり、もちろん1とすることもできる。 The “constant” in the equation (12) is for actively reducing the dynamic range, and the compression rate and the amount of quantization error are controlled according to the size. The value of this constant should be specified as appropriate, and of course can be 1.
図20に示した視覚重みの値を用いて算出された量子化ステップ数の値を、図19に対応させた形で図23に示す。また、図21に示した視覚重みの値を用いて算出された量子化ステップ数の値を図19に対応させた形で図24に示す。 FIG. 23 shows the value of the number of quantization steps calculated using the visual weight value shown in FIG. 20 in a form corresponding to FIG. 24 shows the quantization step number value calculated using the visual weight value shown in FIG. 21 in a form corresponding to FIG.
なお、線形量子化の場合、通常な数学的量子化誤差は「量子化ステップ数の1/2×サブバンドゲインの平方根」の、全ての係数についての総和となるため、ユーザにより選択された、又は見積もられた量子化誤差の大小は、量子化ステップ数の大小として反映させることができる(誤差量の指標として視覚的な量子化誤差を用いる場合は、前記「量子化ステップ数の1/2×サブバンドゲインの平方根」に、そのサブバンドで適用する視覚重みを乗じて、全ての係数について総和をとればよい。ただし、前述のように、視覚重み自体が誤差の関数であるため、視覚重み自体は適宜選択する必要がある)。 In the case of linear quantization, the normal mathematical quantization error is the sum of all the coefficients of “1/2 of the number of quantization steps × the square root of the subband gain”. Alternatively, the estimated magnitude of the quantization error can be reflected as the magnitude of the number of quantization steps (when visual quantization error is used as an error amount index, Multiply the 2 × subband gain square root by the visual weight to be applied in that subband to get the sum of all coefficients, as mentioned above, since the visual weight itself is a function of error, The visual weight itself must be selected accordingly).
次に、ステップS103の処理全体について、図17を参照し説明する。 Next, the entire process of step S103 will be described with reference to FIG.
まず、動き量と、圧縮率(又は量子化誤差)とに基づいて、前述のようにして図20又は図21に示す視覚重みを選択する(ステップS110)。 First, based on the amount of motion and the compression rate (or quantization error), the visual weight shown in FIG. 20 or FIG. 21 is selected as described above (step S110).
1つのコンポーネントを選択し(ステップS111)、選択されたコンポーネントの1つのデコンポジションレベルを選択し(ステップS113)、そして、選択されたコンポーネントの選択されたデコンポジションレベルのサブバンドを1つ選択する(ステップS115)。そして、当該サブバンドに適用される量子化ステップ数を決定し(ステップS117)、当該サブバンドの全ての係数を線形量子化する(ステップS118)。 One component is selected (step S111), one composition level of the selected component is selected (step S113), and one subband of the selected composition level of the selected component is selected. (Step S115). Then, the number of quantization steps applied to the subband is determined (step S117), and all the coefficients of the subband are linearly quantized (step S118).
ステップS115に戻り、別の1つのサブバンドを選択し、それに対する量子化ステップ数を決定して当該サブバンドの全係数を線形量子化する(ステップS117,S118)。 Returning to step S115, another subband is selected, the number of quantization steps for it is determined, and all the coefficients of the subband are linearly quantized (steps S117 and S118).
選択されたコンポーネント及びデコンポジションレベルの全てのサブバンドに対する線形量子化が終わると(ステップS116,Yes)、ステップS113に戻り、別の1つのデコンポジションレベルを選択し、そのデコンポジションレベルの全てのサブバンドに対する線形量子化のための処理を繰り返す(ステップS113〜S118)。 When the linear quantization for all subbands of the selected component and decomposition level is completed (step S116, Yes), the process returns to step S113, and another one of the decomposition levels is selected and all of the decomposition levels are selected. The process for linear quantization on the subband is repeated (steps S113 to S118).
選択されたコンポーネントの全てのデコンポジションレベルの全てのサブバンドに対する線形量子化を終了すると(ステップS114,Yes)、ステップS111に戻り、別の1つのコンポーネントを選択し、そのコンポーネントの全てのデコンポジションレベルの全てのサブバンドの線形量子化のための処理を繰り返す(ステップS113〜S118)。 When the linear quantization for all subbands of all the decomposition levels of the selected component is completed (step S114, Yes), the process returns to step S111 to select another component and all the decompositions of the component. The process for linear quantization of all subbands of the level is repeated (steps S113 to S118).
全てのコンポーネントについて線形量子化が終了すると(ステップS112,Yes)、図16のステップS103を終了する。 When linear quantization has been completed for all components (step S112, Yes), step S103 in FIG. 16 is terminated.
図16のフローに戻って説明する。 Returning to the flowchart of FIG.
《ステップS104》
線形量子化されたウェーブレット係数に対し、サブバンド毎にエントロピー符号化が行われる。JPEG2000においては、サブバンド毎に、係数が上位ビット(MSB)から下位ビット(LSB)まで、ビットプレーン単位で符号化される。
<< Step S104 >>
Entropy coding is performed for each subband on the linearly quantized wavelet coefficients. In JPEG2000, for each subband, coefficients are encoded in bit plane units from upper bits (MSB) to lower bits (LSB).
簡単のために、デコンポジションレベル=2として一般的な説明を行う。図7の2LLサブバンドの係数が図25のような値をとったとする。これらの値を2進数で表現し、各ビット毎に分けたものがビットプレーンであり、図25の係数は図26のような4枚のビットプレーンに分けることができる。10進数の15の2進表現は”1111”であるから、図25の値15の係数に対応する位置では全てのビットプレーンに”1”が立つことになる。
For simplicity, a general description will be given assuming that the composition level = 2. Assume that the coefficients of the 2LL subband in FIG. 7 have values as shown in FIG. These values are expressed in binary numbers, and each bit is divided into bit planes. The coefficients in FIG. 25 can be divided into four bit planes as shown in FIG. Since the binary representation of the
そして、JPEG2000では、これらのビットプレーンを個々にエントロピー符号化する。より詳細には、各ビットプレーンを3つのサブビットプレーンに分割して、各サブビットプレーンごとにエントロピー符号化を行う。エントロピー符号化にはMQコーダと呼ばれる算術符号器が使用されるが、その説明は省略する。 In JPEG 2000, these bit planes are individually entropy encoded. More specifically, each bit plane is divided into three sub bit planes, and entropy encoding is performed for each sub bit plane. An entropy coding uses an arithmetic coder called MQ coder, but the description thereof is omitted.
《ステップS105》
エントロピー符号からパケットが生成され、それを所定のプログレッション順に並べ、必要なヘッダなどを付加した所定フォーマットの符号が形成される。
<< Step S105 >>
A packet is generated from the entropy code, arranged in a predetermined progression order, and a code of a predetermined format to which a necessary header is added is formed.
デコンポジションレベル=2の場合は、例えば図27のような構成の符号の形成が可能である。この例では、符号が2LLサブバンドから始まって1HHサブバンドで終わることを示している。また、各ビットプレーンは最上位bitから順に符号化されている。 In the case of the composition level = 2, for example, a code having a configuration as shown in FIG. 27 can be formed. This example shows that the code starts with the 2LL subband and ends with the 1HH subband. Each bit plane is encoded in order from the most significant bit.
この実施例は、エントロピー符号化段階におけるトランケーション、すなわち、ウェーブレット変換係数の破棄を、動き量(櫛形量)と圧縮率又は量子化誤差とに基づいて制御するるもので、その処理フローを図28に示す。図28中のステップS200,S201,S202,S206,S207は図14の符号化処理手段100の処理ステップである。ステップS203,S204,S205は符号化制御手段101の処理ステップである。各処理ステップの内容について順に説明する。 In this embodiment, truncation in the entropy coding stage, that is, discarding of wavelet transform coefficients is controlled based on the motion amount (comb amount) and the compression rate or quantization error, and the processing flow is shown in FIG. Shown in Steps S200, S201, S202, S206, and S207 in FIG. 28 are processing steps of the encoding processing means 100 in FIG. Steps S203, S204, and S205 are processing steps of the encoding control means 101. The contents of each processing step will be described in order.
《ステップS200》
各フレームに対し、前述のDCレベルシフトとコンポーネント変換が実行される。
<< Step S200 >>
The DC level shift and component conversion described above are executed for each frame.
《ステップS201》
フレームの各コンポーネントに2次元のウェーブレット変換が適用される。ここでは、前述したように9×7ウェーブレット変換である。また、ここではデコンポジションレベル4までの変換が行われるものとする。
<< Step S201 >>
A two-dimensional wavelet transform is applied to each component of the frame. Here, the 9 × 7 wavelet transform is used as described above. Here, it is assumed that conversion up to
《ステップS202》
ウェーブレット係数は、サブバンド毎に、図22に示した基本量子化ステップ数を用いて量子化(正規化)される。
<< Step S202 >>
The wavelet coefficients are quantized (normalized) for each subband using the basic quantization step number shown in FIG.
《ステップS203》
前記実施例1におけるステップS102と同様に、フィールド間の動き量(櫛形量)として「係数比」が求められ、この係数比を2つの所定の閾値と比較することにより、動き量が「小」「中」「大」の3段階に評価される。
<< Step S203 >>
As in step S102 in the first embodiment, a “coefficient ratio” is obtained as the amount of motion between the fields (comb-shaped amount). By comparing this coefficient ratio with two predetermined thresholds, the amount of motion is “small”. It is evaluated in three levels, “medium” and “large”.
《ステップS204》
前記実施例1のステップS103に関連して説明したところと同様に、圧縮率(又は量子化誤差)と、動き量とに基づいて図19に示す視覚重みA〜Eの1つを選択する。具体的には、図20又は図21に示した、いずれかの視覚重みの数値を選択する。
<< Step S204 >>
As described with reference to step S103 of the first embodiment, one of visual weights A to E shown in FIG. 19 is selected based on the compression rate (or quantization error) and the amount of motion. Specifically, one of the visual weight values shown in FIG. 20 or FIG. 21 is selected.
《ステップS205》
各サブバンドに関するトランケーション量を次式により算出する。ただし、四捨五入により整数化される。
<< Step S205 >>
The truncation amount for each subband is calculated by the following equation. However, it is converted to an integer by rounding off.
トランケーション量=log2(定数×1/当該サブバンドの視覚重み) (13)
Truncation amount = log2 (
上式の「定数」は、前述のように量子化誤差が大きいほど大きな値となり(係数を破棄するほど量子化誤差が増大するため)、ここでは、16,32,64の3つの値を使用している。図20の視覚重み値を用いて計算したトランケーション量と、図21の視覚重み値を用いて計算したトランケーション量を、図19に対応させた形で、図29と図30に示す。したがって、このステップでは、実際的には、図29又は図30のテーブルより対応するトランケーション量の数値を選択する。 As described above, the “constant” in the above equation becomes larger as the quantization error is larger (because the quantization error increases as the coefficient is discarded). Here, three values of 16, 32, and 64 are used. is doing. FIG. 29 and FIG. 30 show the truncation amount calculated using the visual weight value of FIG. 20 and the truncation amount calculated using the visual weight value of FIG. 21 in a form corresponding to FIG. Therefore, in this step, the corresponding truncation value is actually selected from the table of FIG. 29 or FIG.
《ステップS206》
各サブバンド毎に、当該サブバンドに関して決定されたトランケーション量(図29又は図30)に対応した下位サブビットプレーンを除いた、上位ビットプレーンのみがエントロピー符号化される。ここではビットプレーン単位で係数のトランケーションを行うが、サブビットプレーン単位でのトランケーションも可能である。
<< Step S206 >>
For each subband, only the upper bitplanes are entropy-encoded except for the lower subbitplane corresponding to the truncation amount (FIG. 29 or FIG. 30) determined for the subband. Here, truncation of coefficients is performed in units of bit planes, but truncation in units of sub-bit planes is also possible.
《ステップS207》
エントロピー符号からパケットが生成され、パケットを所定のプログレッション順に並べた符号が形成される。
<< Step S207 >>
A packet is generated from the entropy code, and a code in which the packets are arranged in a predetermined progression order is formed.
この実施例は、エントロピー符号化後に、符号のトランケーションをコードブロック単位で制御するものである。本実施例においては、前記各実施例と同様のサブバンド毎の視覚重みに加え、
(A)デコンポジションレベル1に関し、コードブロック単位での”櫛形指標”
(B)コードブロック毎の”マスキング指標”
の2つを考慮して、コードブロック毎のトランケーションを制御し、圧縮率を所望値付近に精密に制御する。コードブロックは、JPEG2000のトランケーションにおける画質制御単位である。
In this embodiment, after entropy coding, truncation of codes is controlled in units of code blocks. In this embodiment, in addition to the visual weight for each subband similar to the above embodiments,
(A) “
(B) “Masking index” for each code block
The truncation for each code block is controlled in consideration of the above two, and the compression rate is precisely controlled near the desired value. The code block is an image quality control unit in JPEG2000 truncation.
本実施例の処理フローを図31に示す。ステップS300,S301,S302,S304,S309,S310は図14の符号化処理手段100により実行されるステップであり、ステップS303,S305,S306,S307,S308は図14の符号化制御手段101により実行されるステップである。ステップ308のより詳細なフローを、図32に示す。以下、処理内容を順に説明する。 A processing flow of this embodiment is shown in FIG. Steps S300, S301, S302, S304, S309, and S310 are steps executed by the encoding processing means 100 in FIG. 14, and steps S303, S305, S306, S307, and S308 are executed by the encoding control means 101 in FIG. Are the steps A more detailed flow of step 308 is shown in FIG. Hereinafter, processing contents will be described in order.
《ステップS300》
各フレームに対し、前述のDCレベルシフトとコンポーネント変換が実行される。
<< Step S300 >>
The DC level shift and component conversion described above are executed for each frame.
《ステップS301》
フレームの各コンポーネントに2次元のウェーブレット変換が適用される。ここでは、前述したように9×7ウェーブレット変換である。また、ここではデコンポジションレベル4までの変換が行われるものとする。
<< Step S301 >>
A two-dimensional wavelet transform is applied to each component of the frame. Here, the 9 × 7 wavelet transform is used as described above. Here, it is assumed that conversion up to
《ステップS302》
ウェーブレット係数は、サブバンド毎に、図22に示した基本量子化ステップ数を用いて量子化(正規化)される。
<< Step S302 >>
The wavelet coefficients are quantized (normalized) for each subband using the basic quantization step number shown in FIG.
《ステップS303》
コードブロック毎のマスキング指標が算出される。
<< Step S303 >>
A masking index for each code block is calculated.
前述の通り、人間の視覚は、コントラスト強度自体の関数でもあり、同じ周波数帯域でも、コントラストが高いほど、コントラストの誤差(変化)に鈍感である。これは、コントラストの誤差を人間が感じる・感じないの閾値が、その誤差の絶対値ではなく相対的な大きさ(=誤差の値/原値という比率)に依存すること(所謂Weberの法則)によるものであり、その効果を”マスキング”という。あるコードブロックに含まれる係数の値(周波数変換した係数は、一般に原画像のコントラストを反映したものになるため、係数値の大小をコントラストの大小と見なせる)が大きいか小さいかを示す指標を、本明細書においては“マスキング指標”と呼ぶ。 As described above, human vision is a function of the contrast intensity itself, and even in the same frequency band, the higher the contrast, the less sensitive to the contrast error (change). This is because the threshold of whether or not a human feels or feels a contrast error depends on the relative magnitude (the ratio of error value / original value) rather than the absolute value of the error (so-called Weber's law) The effect is called "masking". An index indicating whether the value of the coefficient included in a code block (the coefficient whose frequency has been converted generally reflects the contrast of the original image, so that the magnitude of the coefficient value can be regarded as the magnitude of the contrast) is large or small, In this specification, it is called a “masking index”.
一般に、典型的な“マスキング指標“として、
(コードブロックに含まれる係数の絶対値の和)/((コードブロックに含まれる係数の数)^α)
なる比が用いられる。実験的に、0<α≦1であると言われているので、本実施例においては、α=1に選ばれ、
各コードブロックのマスキング指標は、
マスキング指標
=(コードブロックに含まれる係数の絶対値の和)/(コードブロックに含まれる係数の数) (14)
により計算される。各コードブロック毎のマスキング指標は保持される。
In general, as a typical “masking index”
(Sum of absolute values of coefficients included in code block) / ((Number of coefficients included in code block) ^ α)
A ratio is used. Experimentally, it is said that 0 <α ≦ 1, so in this example, α = 1 was selected,
The masking index for each code block is
Masking index = (sum of absolute values of coefficients included in code block) / (number of coefficients included in code block) (14)
Is calculated by The masking index for each code block is retained.
《ステップS304》
全てのサブバンドの全てのビットプレーンについて、エントロピー符号化が行われる。この際に、各コードブロックの各ビットプレーンの符号量が保持される。また、各コードブロックの各ビットプレーン毎に、その符号が破棄された場合の量子化誤差量も計算されて保存される。
<< Step S304 >>
Entropy coding is performed for all bit planes of all subbands. At this time, the code amount of each bit plane of each code block is held. In addition, for each bit plane of each code block, the quantization error amount when the code is discarded is also calculated and stored.
《ステップS305》
輝度コンポーネントの1LH,1HL,2LH,2HLサブバンドの符号量1Lhcode,1Hlcode,2Lhcode,2HLcodeから「符号量比」
(1Lhcode/1HLcode)/(2Lhcode/2HLcode)
を算出する。そして、「符号量比」と所定の閾値A,B(ただしA<B)との比較判定により、動き量は「小」(A未満)、「中」(A以上、B未満)、「大」(B以上)の3段階に評価される。
<< Step S305 >>
"Large code ratio" from the 1LH, 1HL, 2LH, and 2HL subband code amounts 1Lhcode, 1Hlcode, 2Lhcode, and 2HLcode of the luminance component
(1Lhcode / 1HLcode) / (2Lhcode / 2HLcode)
Is calculated. The amount of motion is “small” (less than A), “medium” (A or more, less than B), “large” by comparing and determining the “code amount ratio” and predetermined thresholds A and B (A <B). ”(B or higher).
なお、この符号量比は画像全体としての動き量(櫛形量)の評価値であるので、本実施例においては、後述のように、コードブロック毎の「櫛形符号量指標」を求め、これを「符号量比」に基づいて決定された視覚重みに乗じることによって、コードブロック単位の動き量の微調整が行われる(ステップS307,S308参照)。 Since this code amount ratio is an evaluation value of the motion amount (comb amount) of the entire image, in this embodiment, as will be described later, a “comb code amount index” for each code block is obtained and this is calculated. By multiplying the visual weight determined based on the “code amount ratio”, fine adjustment of the motion amount in units of code blocks is performed (see steps S307 and S308).
《ステップS306》
前記実施例1のステップS103に関連して説明したところと同様に、圧縮率(又は量子化誤差)と、動き量(=符号量比)とに基づいて図19に示す視覚重みA〜Eの1つを選択する。具体的には、図20又は図21に示した、いずれかの視覚重みの数値を選択する。
<< Step S306 >>
In the same manner as described in relation to step S103 of the first embodiment, the visual weights A to E shown in FIG. 19 are based on the compression rate (or quantization error) and the motion amount (= code amount ratio). Select one. Specifically, one of the visual weight values shown in FIG. 20 or FIG. 21 is selected.
《ステップS307》
図10に関連したように、プリシンクトは原画像の同じ位置に対応した係数からなる3つの矩形であり、また、コードブロックはプリシンクトを分割したものであるため、「原画像の同じ位置に対応したコードブロック」が1HL,1LH,1HHサブバンド内に各々1つずつ存在する。よって、これらのコードブロックに含まれるウェーブレット係数や符号量は、原画像内での同じ位置に関するものとなる。
<< Step S307 >>
As related to FIG. 10, the precinct is three rectangles composed of coefficients corresponding to the same position of the original image, and the code block is obtained by dividing the precinct. There is one “code block” in each of the 1HL, 1LH, and 1HH subbands. Therefore, wavelet coefficients and code amounts included in these code blocks are related to the same position in the original image.
したがって、本出願人の先願である特願2002-300476号に係る発明の教えるように、コードブロック毎の櫛形の多寡を次の比
(当該コードブロックに含まれるLH係数の符号量)/(原画中で同じ位置のコードブロックに含まれるHL係数の符号量)
で評価することができる。
Therefore, as taught by the invention of Japanese Patent Application No. 2002-300476, which is the prior application of the present applicant, the comb-shaped multiples for each code block are
(Code amount of LH coefficient included in the code block) / (Code amount of HL coefficient included in the code block at the same position in the original image)
Can be evaluated.
そこで、本実施例においては、各コードブロック毎の櫛形の多寡の指標として次の「櫛形符号量指標」を計算する。
櫛形符号量指標=((当該コードブロックに含まれる1LH係数の符号量)/(同じ位置のコードブロックに含まれる1HL係数の符号量))/((1LHサブバンドの全符号量)/(1HLサブバンドの全符号量)) (15)
Therefore, in the present embodiment, the following “comb code amount index” is calculated as a comb-shaped index for each code block.
Comb code amount index = ((Code amount of 1LH coefficient included in the code block) / (Code amount of 1HL coefficient included in the code block at the same position)) / ((Total code amount of 1LH subband) / (1HL Total code amount of subband)) (15)
なお、この櫛形符号量指標は、原画像中で同じ位置にある3つのコードブロックについては同じ値として扱う。 The comb code amount index is treated as the same value for three code blocks located at the same position in the original image.
次のステップS308において、サブバンド全体の符号量比と圧縮率(又は量子化誤差)に基づいて決定された視覚重みに「櫛形符号量指標」が乗じられる。これにより、あるコードブロック位置の動き量がサブバンド全体の動き量より大きければ、そのコードブロックに関する重みの値は、その分だけ大きくなるように調整されるのである。言い換えれば、コード単位で動き量の微調整が行われるということである。 In the next step S308, the “comb code amount index” is multiplied by the visual weight determined based on the code amount ratio and the compression ratio (or quantization error) of the entire subband. As a result, if the amount of motion at a certain code block position is larger than the amount of motion of the entire subband, the value of the weight for that code block is adjusted so as to be increased accordingly. In other words, the amount of movement is finely adjusted in code units.
《ステップS307》
コードブロックの全てのビットプレーンをエントロピー符号化したときの、符号の基本的な重要度は
「その符号を破棄した場合の量子化誤差の増分×視覚重み/その符号量」
で評価される。
<< Step S307 >>
When entropy coding is performed on all bit planes of a code block, the basic importance of the code is “increment of quantization error when the code is discarded × visual weight / the amount of code”
It is evaluated with.
本実施例では、このステップにおいて、ある1つのビットプレーンの、ある1つのコードブロックの符号の重要度を次式により求める。 In this embodiment, in this step, the importance of the sign of a certain code block of a certain bit plane is obtained by the following equation.
重要度=((その符号を破棄した場合の量子化誤差の増分)×視覚重み×櫛形符号量指標))/(マスキング指標×その符号量) (16) Importance = ((Increment of quantization error when the code is discarded) × Visual weight × Comb code amount index)) / (Masking index × its code amount) (16)
視覚重みは,同一サブバンド内で共通であるが、櫛形符号量指標やマスキング指標はコードブロックによって異なるため、上式により計算される重みにより、コードブロック単位での符号の差別化が可能なのである。 The visual weight is common within the same subband, but since the comb code amount index and the masking index are different for each code block, the code can be differentiated for each code block by the weight calculated by the above formula. .
そして、全コンポーネントのコードブロックの重要度を低い順にソートすることにより、どのコンポーネントの、どのコードブロックのビットプレーンの符号から破棄すべきか、その序列を求める。 Then, by sorting the importance of the code blocks of all components in ascending order, the order of which component and which code block bit plane code should be discarded is obtained.
なお、「その符号を破棄した場合の量子化誤差の増分」の求め方は種々存在し、数学的に厳密な方法は例えば非特許文献5に記載されている。
There are various ways of obtaining “increment of quantization error when the code is discarded”, and a mathematically exact method is described in
本実施例では、処理を簡易にするため、
「LSB(最下位ビット)から数えてn(n>0)枚目のビットプレーンの符号を破棄した場合の、1ウェーブレット係数あたりの量子化誤差」=2^(n−1)」
と見なす。ビットプレーンを下から1枚破棄するということは、誤差的観点からは係数を2で割ることと等価であり、その誤差は確率的には2^0=1だからである。そして、ウェーブレット係数は誤差的観点から正規化されているため、1ウェーブレット係数あたりの量子化誤差=RGB値の誤差として扱うことができる。よってこの場合、「コードブロックのLSBから数えてn枚目のビットプレーンの符号を破棄した場合の量子化誤差の増分」は次式により求められる。
In this embodiment, in order to simplify the process,
“Quantization error per wavelet coefficient when the code of the n (n> 0) th bit plane counted from the least significant bit (LSB) is discarded” = 2 ^ (n−1) ”
Is considered. Discarding one bit plane from the bottom is equivalent to dividing the coefficient by 2 from an error point of view, and the error is 2 ^ 0 = 1 stochastically. Since the wavelet coefficients are normalized from the viewpoint of errors, the quantization error per wavelet coefficient can be treated as an RGB value error. Therefore, in this case, “the increment of the quantization error when the code of the nth bit plane counted from the LSB of the code block is discarded” is obtained by the following equation.
量子化誤差の増分=
((2^(n−1)−2^(n−2))×当該コードブロックに含まれる係数の数 (17)
Quantization error increment =
((2 ^ (n-1) -2 ^ (n-2)) x number of coefficients included in the code block (17)
この処理ステップについて、図32のフローに沿ってさらに説明する。1つのコンポーネントを選び(ステップS320)、選ばれたコンポーネントの1つのコードブロックを選択する(ステップS322)。 This processing step will be further described along the flow of FIG. One component is selected (step S320), and one code block of the selected component is selected (step S322).
選ばれたコードブロックについて、1つのビットプレーンを選び(ステップS324)、そのビットプレーンについて前記(16)式により重要度を計算する(ステップS326)。選ばれたコードブロックの全てのビットプレーンの重要度の計算が終わると(ステップS325,Yes)、ステップS322に戻り、選択されているコンポーネントの別の1つのコードブロックを選び、その各ビットプレーンについて重要度が計算される。 For the selected code block, one bit plane is selected (step S324), and the importance of the bit plane is calculated by the above equation (16) (step S326). When calculation of the importance of all the bit planes of the selected code block is completed (step S325, Yes), the process returns to step S322, and another code block of the selected component is selected, and for each bit plane. Importance is calculated.
選択されているコンポーネントの全てのコードブロックについて重要度計算が終わると、ステップS320に戻り、別の1つのコンポーネントが選ばれ、そのコンポーネントに関する重要度の計算が繰り返される。全てのコンポーネントに関し重要度計算が終わると(ステップS321,Yes)、重要度のソートが行われ、符号破棄の序列が決定される(処理ステップS330)。 When the importance calculation is completed for all the code blocks of the selected component, the process returns to step S320, another one component is selected, and the calculation of the importance for the component is repeated. When the importance calculation is completed for all the components (Yes in step S321), the importance is sorted and the order of code discard is determined (processing step S330).
再び、図31を参照する。 Reference is again made to FIG.
《ステップS309》
重要度より決定された序列に従って、所望の符号量(圧縮率)になるまで、符号が破棄される。ただし、JPEG2000の仕様上、各コードブロックの符号はLSB側から順に捨てる必要があるため、それと序列が矛盾する場合には、符号の破棄順を調整する。
<< Step S309 >>
The codes are discarded until the desired code amount (compression rate) is reached according to the order determined from the importance. However, according to the specification of JPEG2000, since the code of each code block needs to be discarded in order from the LSB side, if the order is inconsistent with that, the code discard order is adjusted.
例えば、デコンポジションレベル=2の場合に、上記序列の一部が図33の様であったとする(図33においては、煩雑をさけるため、一部のコードブロックの一部のビットプレーンの1〜22までの序列が示されている)。この例では、序列「19」の符号よりも序列「21」の符号の方がLSB側にあるため、「18」→「20」→「21」→「19」の順で符号を破棄することになる。 For example, when the composition level = 2, it is assumed that a part of the order is as shown in FIG. 33 (in FIG. 33, in order to avoid complication, 1 to 1 of some bit planes of some code blocks). Up to 22 ranks are shown). In this example, since the code of the order “21” is closer to the LSB side than the code of the order “19”, the codes are discarded in the order of “18” → “20” → “21” → “19”. become.
なお、LSBから順に、かつ前記序列の順で符号を破棄する、処理の実装は、前述のようにソートによってもよいが、一般的なラグランジェの未定乗数法によってもよい。JPEG2000におけるラグランジェの未定乗数法の実装法について、非特許文献5に詳しい記載がある。
The implementation of processing for discarding codes in order from the LSB and in the order of the order may be performed by sorting as described above, but may be performed by a general Lagrange's undetermined multiplier method.
本実施例の一変形例について以下に説明する。この変形例においては、ステップS305において、前記実施例1と同様の「係数比」により動き量が評価される。また、ステップS306において、「櫛形符号量指標」に代えて、次式で計算されるコードブロック毎の「櫛形係数指標」が求められる。 A modification of this embodiment will be described below. In this modified example, in step S305, the motion amount is evaluated based on the “coefficient ratio” similar to that in the first embodiment. In step S306, instead of the “comb code amount index”, a “comb coefficient index” for each code block calculated by the following equation is obtained.
櫛形係数指標=
((当該コードブロックに含まれる1LH係数の絶対値の和)/(同じ位置のコードブロックに含まれる1HL係数の絶対値の和))/((1LHサブバンドの全係数の絶対値の和)/(1HLサブバンドの全係数の絶対値の和)) (18)
Comb coefficient index =
((Sum of absolute values of 1LH coefficients included in the code block) / (sum of absolute values of 1HL coefficients included in the code block at the same position)) / ((sum of absolute values of all coefficients of 1LH subband)) / (Sum of absolute values of all coefficients of 1HL subband)) (18)
また、ステップS308において、1つのビットプレーンの1つのコードブロックの重要度は次式で計算される。 In step S308, the importance of one code block of one bit plane is calculated by the following equation.
重要度=
((その符号の破棄による量子化誤差の増分)×視覚重み×櫛形係数指標))/(マスキング指標×その符号量) (19)
Importance =
((Increment of quantization error by discarding the code) x visual weight x comb coefficient index)) / (masking index x its code amount) (19)
本変形例及び前記実施例3と同様のコードブロック単位のトランケーションの制御を、前記実施例2のようなウェーブレット係数のトランケーションの制御にも応用可能である。 The control of truncation in units of code blocks similar to the present modification and the third embodiment can be applied to the control of truncation of wavelet coefficients as in the second embodiment.
以上、本発明の実施の形態を、いくつかの実施例及び変形例に関し詳細に説明したが、本発明の実施の形態はそれのみに限定されるものではないことは明白である。 Although the embodiments of the present invention have been described in detail with respect to some examples and modifications, it is obvious that the embodiments of the present invention are not limited to them.
100 符号化処理手段
101 符号化制御手段
100 Encoding processing means 101 Encoding control means
Claims (16)
前記フレームベース符号化処理でウェーブレット変換を使用し、
前記フィールド間の動き量として、
輝度コンポーネントに関し、1LHサブバンドの係数の絶対値の平均値1LHmean、1HLサブバンドの係数の絶対値の平均値1HLmean、2LHサブバンドの係数の絶対値の平均値2LHmean、2HLサブバンドの係数の絶対値の平均値2HLmeanについての
(1LHmean/1HLmean)/(2LHmean/2HLmean)なる比、または、
輝度コンポーネントに関し、1LH,1HL,2LH,2HLサブバンドのエントロピー符号化した時のそれぞれの符号量1LHcode,1HLcode,2LHcode,2HLcodeについての
(1LHcode/1HLcode)/(2LHcode/2HLcode)なる比
を算出する手段を有することを特徴とする符号化装置。 In the encoding processing means that performs frame-based encoding processing of an interlaced image, and detects the amount of motion between fields constituting the frame, and based on the amount of motion and the compression rate or quantization error in the encoding processing means An encoding apparatus comprising an encoding control means for controlling quantization of a frequency coefficient ,
Using wavelet transform in the frame-based encoding process,
As the amount of movement between the fields,
1LHmean, 1HL subband coefficient absolute value 1HLmean, 2LH subband coefficient absolute value 2LHmean, 2HL subband coefficient absolute value Average value of 2HLmean
(1LHmean / 1HLmean) / (2LHmean / 2HLmean) ratio, or
Regarding the luminance component, when the entropy coding of 1LH, 1HL, 2LH, and 2HL subbands is performed, the respective code amounts of 1LHcode, 1HLcode, 2LHcode, and 2HLcode
Ratio of (1LHcode / 1HLcode) / (2LHcode / 2HLcode)
An encoding device comprising means for calculating
前記フレームベース符号化処理でウェーブレット変換を使用し、
前記フィールド間の動き量として、
輝度コンポーネントに関し、1LHサブバンドの係数の絶対値の平均値1LHmean、1HLサブバンドの係数の絶対値の平均値1HLmean、2LHサブバンドの係数の絶対値の平均値2LHmean、2HLサブバンドの係数の絶対値の平均値2HLmeanについての
(1LHmean/1HLmean)/(2LHmean/2HLmean)なる比、または、
輝度コンポーネントに関し、1LH,1HL,2LH,2HLサブバンドのエントロピー符号化した時のそれぞれの符号量1LHcode,1HLcode,2LHcode,2HLcodeについての
(1LHcode/1HLcode)/(2LHcode/2HLcode)なる比
を算出する手段を有することを特徴とする符号化装置。 In the encoding processing means that performs frame-based encoding processing of an interlaced image, and detects the amount of motion between fields constituting the frame, and based on the amount of motion and the compression rate or quantization error in the encoding processing means A coding apparatus comprising coding control means for controlling frequency coefficient or code truncation ,
Using wavelet transform in the frame-based encoding process,
As the amount of movement between the fields,
1LHmean, 1HL subband coefficient absolute value 1HLmean, 2LH subband coefficient absolute value average 2LHmean, 2HL subband coefficient absolute value Average value of 2HLmean
(1LHmean / 1HLmean) / (2LHmean / 2HLmean) ratio, or
Regarding the luminance component, the entropy coding of 1LH, 1HL, 2LH, and 2HL subbands for each code amount of 1LHcode, 1HLcode, 2LHcode, and 2HLcode
Ratio of (1LHcode / 1HLcode) / (2LHcode / 2HLcode)
An encoding device comprising means for calculating
(画質制御単位に含まれるウェーブレット係数の絶対値の和)/((画質制御単位に含まれるウェーブレット係数の数)^α)) (ここで0<α≦1)
なるマスキング指標を算出する手段を有し、該マスキング指標を用いて符号化制御手段がトランケーションの制御に画質制御単位毎のマスキングを反映させることを特徴とする符号化装置。 The encoding device according to claim 2, 4, 6 or 8 ,
(Sum of absolute values of wavelet coefficients included in image quality control unit) / ((number of wavelet coefficients included in image quality control unit) ^ α)) (where 0 <α ≦ 1)
A coding apparatus comprising: means for calculating a masking index, wherein the coding control means reflects masking for each image quality control unit in truncation control using the masking index .
前記制御工程は、前記検出工程で検出された動き量、及び、圧縮率又は量子化誤差に基づいて量子化を制御し、 The control step controls the quantization based on the amount of motion detected in the detection step and the compression rate or quantization error,
前記検出工程では、前記動き量として、 In the detection step, as the amount of movement,
輝度コンポーネントに関し、1LHサブバンドの係数の絶対値の平均値1LHmean、1HLサブバンドの係数の絶対値の平均値1HLmean、2LHサブバンドの係数の絶対値の平均値2LHmean、2HLサブバンドの係数の絶対値の平均値2HLmeanについての1LHmean, 1HL subband coefficient absolute value 1HLmean, 2LH subband coefficient absolute value average 2LHmean, 2HL subband coefficient absolute value Average value of 2HLmean
(1LHmean/1HLmean)/(2LHmean/2HLmean)なる比、または、(1LHmean / 1HLmean) / (2LHmean / 2HLmean) ratio, or
輝度コンポーネントに関し、1LH,1HL,2LH,2HLサブバンドのエントロピー符号化した時のそれぞれの符号量1LHcode,1HLcode,2LHcode,2HLcodeについてのRegarding the luminance component, the entropy coding of 1LH, 1HL, 2LH, and 2HL subbands for each code amount of 1LHcode, 1HLcode, 2LHcode, and 2HLcode
(1LHcode/1HLcode)/(2LHcode/2HLcode)なる比Ratio of (1LHcode / 1HLcode) / (2LHcode / 2HLcode)
を算出することを特徴とする符号化制御方法。A coding control method characterized by calculating.
前記制御工程は前記検出工程で検出された動き量、及び、圧縮率又は量子化誤差に基づいてトランケーションを制御し、 The control step controls truncation based on the amount of motion detected in the detection step and the compression rate or quantization error,
前記検出工程では、前記動き量として、 In the detection step, as the amount of movement,
輝度コンポーネントに関し、1LHサブバンドの係数の絶対値の平均値1LHmean、1HLサブバンドの係数の絶対値の平均値1HLmean、2LHサブバンドの係数の絶対値の平均値2LHmean、2HLサブバンドの係数の絶対値の平均値2HLmeanについての1LHmean, 1HL subband coefficient absolute value average 1HLmean, 2LH subband coefficient absolute value average 2LHmean, 2HL subband coefficient absolute value Average value of 2HLmean
(1LHmean/1HLmean)/(2LHmean/2HLmean)なる比、または、(1LHmean / 1HLmean) / (2LHmean / 2HLmean) ratio, or
輝度コンポーネントに関し、1LH,1HL,2LH,2HLサブバンドのエントロピー符号化した時のそれぞれの符号量1LHcode,1HLcode,2LHcode,2HLcodeについてのRegarding the luminance component, the entropy coding of 1LH, 1HL, 2LH, and 2HL subbands for each code amount of 1LHcode, 1HLcode, 2LHcode, and 2HLcode
(1LHcode/1HLcode)/(2LHcode/2HLcode)なる比Ratio of (1LHcode / 1HLcode) / (2LHcode / 2HLcode)
を算出することを特徴とする符号化制御方法。A coding control method characterized by calculating.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004173495A JP4219303B2 (en) | 2003-07-25 | 2004-06-11 | Encoding apparatus, encoding control method, program, and recording medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003201911 | 2003-07-25 | ||
JP2004173495A JP4219303B2 (en) | 2003-07-25 | 2004-06-11 | Encoding apparatus, encoding control method, program, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005065230A JP2005065230A (en) | 2005-03-10 |
JP4219303B2 true JP4219303B2 (en) | 2009-02-04 |
Family
ID=34379820
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004173495A Expired - Fee Related JP4219303B2 (en) | 2003-07-25 | 2004-06-11 | Encoding apparatus, encoding control method, program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4219303B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4737665B2 (en) * | 2005-03-31 | 2011-08-03 | 株式会社リコー | Code processing apparatus, code processing method, program, and information recording medium |
JP4934081B2 (en) * | 2008-02-28 | 2012-05-16 | 株式会社リコー | Encoding apparatus, code processing apparatus, encoding method, code processing method, computer program, and recording medium |
US8571337B2 (en) * | 2008-08-29 | 2013-10-29 | Gvbb Holdings S.A.R.L. | Encoding method, encoding device, and encoding program for encoding interlaced image |
JP5250465B2 (en) * | 2009-03-26 | 2013-07-31 | 日本放送協会 | Threshold function control type wavelet shrinkage denoising device and program |
-
2004
- 2004-06-11 JP JP2004173495A patent/JP4219303B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005065230A (en) | 2005-03-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7483575B2 (en) | Picture encoding apparatus and method, program and recording medium | |
JP4444790B2 (en) | Image compression method, image compression apparatus, image compression system, and program | |
US8000542B2 (en) | Apparatus and method for processing image data based on object movement speed within a frame | |
JP3743384B2 (en) | Image encoding apparatus and method, and image decoding apparatus and method | |
JP3702778B2 (en) | Image coding apparatus and method | |
JP2001326936A (en) | Image encoding device and method | |
JP4017112B2 (en) | Encoded data generation apparatus and method, program, and information recording medium | |
US5737448A (en) | Method and apparatus for low bit rate image compression | |
JP4229323B2 (en) | Encoding apparatus, encoding method, and program | |
JP4449400B2 (en) | Image encoding apparatus and method, program, and recording medium | |
US20050084168A1 (en) | Image encoding apparatus and method | |
JP4219303B2 (en) | Encoding apparatus, encoding control method, program, and recording medium | |
EP1322116A2 (en) | Image compression device, method for image compression, and electronic camera | |
US20030081847A1 (en) | Encoding device and method | |
WO2005043919A1 (en) | Image decoding apparatus and image decoding method | |
JP4003628B2 (en) | Image encoding apparatus and method, and program | |
JP4379869B2 (en) | Moving image processing apparatus, program, and information recording medium | |
JP4729118B2 (en) | Image data compression apparatus and decoding apparatus | |
JP4636547B2 (en) | Encoding device, program, and information recording medium | |
JP4124436B2 (en) | Motion estimation device, program, storage medium, and motion estimation method | |
JP3897253B2 (en) | Image processing method, image processing apparatus, imaging apparatus, program, and recording medium | |
JP4379527B2 (en) | Encoding apparatus and method | |
JP4396932B2 (en) | Moving image processing apparatus, program, and information recording medium | |
JP3983657B2 (en) | Image processing apparatus and image processing method | |
JP2004350034A (en) | Image encoding device and method and image decoding device and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060608 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080708 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080827 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081024 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20081110 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081111 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111121 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111121 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111121 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121121 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131121 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |