JP4636547B2 - Encoding device, program, and information recording medium - Google Patents

Encoding device, program, and information recording medium Download PDF

Info

Publication number
JP4636547B2
JP4636547B2 JP2005233926A JP2005233926A JP4636547B2 JP 4636547 B2 JP4636547 B2 JP 4636547B2 JP 2005233926 A JP2005233926 A JP 2005233926A JP 2005233926 A JP2005233926 A JP 2005233926A JP 4636547 B2 JP4636547 B2 JP 4636547B2
Authority
JP
Japan
Prior art keywords
subband
color difference
visual
frequency characteristic
frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005233926A
Other languages
Japanese (ja)
Other versions
JP2007049582A (en
Inventor
宏幸 作山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2005233926A priority Critical patent/JP4636547B2/en
Publication of JP2007049582A publication Critical patent/JP2007049582A/en
Application granted granted Critical
Publication of JP4636547B2 publication Critical patent/JP4636547B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、水平方向と垂直方向とで周波数帯域の異なる信号の符号化技術に係り、より具体的にはインターレース映像信号の符号化技術に関する。   The present invention relates to a coding technique for signals having different frequency bands in the horizontal direction and the vertical direction, and more specifically to a coding technique for interlaced video signals.

ビデオカメラ等の動画撮影機器においては、一般に、1/60秒間隔でインターレース走査により動画を撮影している。このようなビデオカメラ等で撮影されたインターレース構造の映像信号の符号化方式として、フィールデータを符号化するフィールドベースの符号化と、相前後する2枚のフィールドデータから合成したフレームデータを符号化するフレームベースの符号化とがある(図1参照)。   In a moving image photographing device such as a video camera, generally, a moving image is photographed by interlace scanning at intervals of 1/60 seconds. As an encoding method for interlaced video signals shot by such a video camera, field-based encoding for encoding field data and frame data synthesized from two adjacent field data are encoded. Frame-based encoding (see FIG. 1).

フィールドデータは、走査線が飛び飛びであるため、走査線が連続したフレームデータに比べ垂直方向の画素相関が弱い。したがって、圧縮効率の面ではフレームベースの符号化の方がフィールドベースの符号化より有利と言えそうであるが、例えば被写体の動き量が大きい場合には必ずしもそうとは言えない。フレームを構成する2つのフィールド間で被写体が移動すると、フレームデータにおいて被写体のエッジがライン単位のくし歯状(櫛形)になり、その部分の垂直方向の画素相関が極端に劣化して圧縮しにくくなるためである(以上について例えば特許文献1参照)。   In the field data, since the scanning lines are skipped, the pixel correlation in the vertical direction is weaker than the frame data in which the scanning lines are continuous. Therefore, in terms of compression efficiency, it can be said that frame-based encoding is more advantageous than field-based encoding, but this is not necessarily the case, for example, when the amount of motion of the subject is large. When the subject moves between the two fields that make up the frame, the edge of the subject in the frame data becomes a comb-like shape (comb shape) in units of lines, and the pixel correlation in the vertical direction of that portion is extremely deteriorated and is difficult to compress. (For example, refer to Patent Document 1).

このような点を考慮し、インターレース映像信号の符号化方法として、動きが大きい部分ではフィールドベースの符号化を行い、動きが小さい部分ではフレームベースの符号化を行う画像符号化方法が提案されている(例えば特許文献2参照)。   In view of these points, an image encoding method has been proposed as an interlace video signal encoding method in which field-based encoding is performed in a portion with a large amount of motion and frame-based encoding is performed in a portion with a small amount of motion. (For example, refer to Patent Document 2).

また、インターレース映像信号に対するフィールドベースのサブバンド符号化において、映像信号中の輝度信号に関し、LH、HL、HHの各サブバンド信号に対する量子化ステップ幅の大小関係をLH<HL<HHとし、また、4:2:1又は4:1:1フォーマットのインターレース映像信号中の色差信号に関し、最も高い周波数成分を含む階層のLH、HL、HHの各サブバンド信号に対する量子化ステップ幅の大小関係をHL<LH<HHとする符号化方法が提案されている(特許文献3参照)。   In addition, in the field-based subband coding for the interlaced video signal, regarding the luminance signal in the video signal, the magnitude relationship of the quantization step width for each of the LH, HL, and HH subband signals is set to LH <HL <HH, and Regarding the color difference signal in the interlaced video signal in the 4: 2: 1 or 4: 1: 1-1 format, the magnitude relationship of the quantization step width with respect to the LH, HL, and HH subband signals of the layer including the highest frequency component An encoding method that satisfies HL <LH <HH has been proposed (see Patent Document 3).

特開2002-64830号公報JP 2002-64830 A 特許第2507199号公報Japanese Patent No. 2507199 特許第3534465号公報Japanese Patent No. 3534465

さて、フィールドベースの符号化とフレームベースの符号化とでは、上に述べたような符号化特性の違いもさることながら、画質上の特性が大きく異なることに発明者は注目した。以下、これについて説明する。   The inventor has noted that field-based encoding and frame-based encoding differ greatly in image quality characteristics as well as the above-described differences in encoding characteristics. This will be described below.

一般に、サブバンド符号化と呼ばれる信号の符号化は、
原信号のサブバンドへの周波数変換(サブバンド分割)→サブバンドを構成する「周波数領域の係数」の量子化→量子化後の係数のエントロピー符号化
という手順をとる。ここで、サブバンドとは周波数帯域ごとに分類された「周波数領域の係数」の集合であり、「周波数領域の係数(以下、周波数係数とよぶ)」とは、前記周波数変換がDCTであればDCT係数、前記周波数変換がウェーブレット変換であればウェーブレット係数である。そして、前記周波数変換の基底長(DCTであればDCTをかけるブロックの水平方向、垂直方向の画素数、ウェーブレット変換であればハイパス係数、ローパス係数のタップ長)と復号画像の画質は密接な関係を有する。
In general, the encoding of a signal called subband encoding is
The procedure is as follows: frequency conversion of the original signal into subbands (subband division) → quantization of “frequency domain coefficients” constituting the subbands → entropy coding of the quantized coefficients. Here, the subband is a set of “frequency domain coefficients” classified for each frequency band. “Frequency domain coefficients (hereinafter referred to as frequency coefficients)” means that the frequency transform is DCT. If the frequency transform is a wavelet transform, it is a wavelet coefficient. The base length of the frequency transformation (the number of pixels in the horizontal direction and the vertical direction of the block to be subjected to DCT in the case of DCT, the tap length of the high pass coefficient and the low pass coefficient in the case of wavelet transformation) and the image quality of the decoded image are closely related. Have

基底長がxであるということは、符号化時には範囲x内の画素を基に低周波数係数や高周波係数が算出されることを意味し、復号時には、1つの周波数係数がx個の画素に対して影響を及ぼすことを意味する。一般に変換符号化においては、視覚的に影響の少ない高周波の係数を量子化して圧縮率を上げるのが通常であり、復号時には、主に量子化されなかった低周波の係数を基に画像が復号されると考えて良い。すると通常、基底長xの低周波係数を基に復号された画像と、その倍の基底長2xの低周波係数を基に復号された画像とでは、前者よりも後者の方が、より平滑度の高い復号画像となる。復号時、後者の1つの低周波係数は、前者の係数の2倍の範囲の画素値に影響を及ぼすが、これは、逆周波数変換時に1つの係数値の影響が局所化せず普遍化することを意味し、結果的に平滑化の効果を生じさせるからである。   A base length of x means that a low frequency coefficient or a high frequency coefficient is calculated based on pixels in the range x during encoding, and one frequency coefficient for x pixels during decoding. Means influence. In general, in transform coding, it is normal to quantize high-frequency coefficients that have little visual impact to increase the compression rate. During decoding, images are mainly decoded based on low-frequency coefficients that were not quantized. You can think of it. Then, normally, the smoothness of the latter is higher than the former in the image decoded based on the low frequency coefficient of the base length x and the image decoded based on the low frequency coefficient of the double base length 2x. The decoded image is high. At the time of decoding, the latter one low frequency coefficient affects the pixel value in the range twice as large as the former coefficient. This is because the influence of one coefficient value is not localized at the time of inverse frequency conversion and becomes universal. This is because the smoothing effect is produced as a result.

さて、インターレース画像とは、インターレース表示の対象となる画像を意味するため、フレームベース符号化された画像も、その半分の高さのサイズでフィールドベース符号化された画像も、ともに表示される場合には同じ大きさ(高さ)でインターレース表示されることに注意が必要である。つまり、フィールドベースの個々の(=奇・偶フィールドの)符号は、垂直方向に各々2倍に引き延ばされた形で(実際には飛び飛びの走査線で)表示されるのであり、これは視覚的には、個々の符号の周波数変換の基底長が走査線と垂直な方向に倍になったような効果を生じる。垂直方向について、1つの係数が影響を及ぼす画素値の範囲がCRTの表示面上で2倍になるからである。その結果、フィールドベースの符号化では、より平滑度の高い復号画像になってしまい、これが主観上、好ましくないことがあるのである。   Now, because an interlaced image means an image that is the target of interlaced display, when both a frame-based encoded image and a field-based encoded image at half the height are displayed Note that the images are interlaced with the same size (height). In other words, each field-based (= odd / even field) code is displayed in a vertically stretched form (actually with a scan line), Visually, there is an effect that the base length of the frequency conversion of each code is doubled in the direction perpendicular to the scanning line. This is because the range of pixel values affected by one coefficient in the vertical direction is doubled on the CRT display surface. As a result, field-based coding results in a decoded image with higher smoothness, which may be subjectively undesirable.

したがって、フィールドベースの符号化においては、走査線と直交する方向(垂直方向)の平滑度を制御する必要があり、その代表的な手法は基底長の制御である。また、垂直方向の平滑化を抑えるためには走査線方向(水平方向)に伸びるエッジ自体の鮮鋭度を保つことが有効であり、その代表的な方法は、水平方向に伸びるエッジ量を反映するサブバンドの係数(LH係数)の量子化を、垂直方向のエッジ量を反映するサブバンドの係数(HL係数)の量子化より控える方法である。   Therefore, in field-based encoding, it is necessary to control the smoothness in the direction orthogonal to the scanning line (vertical direction), and a typical method is control of the base length. In order to suppress vertical smoothing, it is effective to maintain the sharpness of the edge itself extending in the scanning line direction (horizontal direction), and the typical method reflects the amount of edge extending in the horizontal direction. In this method, the quantization of the subband coefficient (LH coefficient) is refrained from the quantization of the subband coefficient (HL coefficient) reflecting the vertical edge amount.

前記特許文献3の符号化方法は、このようなサブバンド間の量子化の関係を規定したものである。しかし、この符号化方法における輝度信号に関する「LH<HL<HH」という量子化ステップ幅の大小関係、及び、色差信号に関する「HL<LH<HH」という量子化ステップ幅の大小関係は、いずれも実験的知見に基づいており(特許文献3の段落(0018)〜(0028)参照)、理論的見地から導かれたものではないため、発明者の研究するところによれば必ずしも好ましい結果をもたらさないことが判明した。   The encoding method of Patent Document 3 defines such a quantization relationship between subbands. However, the magnitude relationship of the quantization step width “LH <HL <HH” related to the luminance signal in this encoding method and the magnitude relationship of the quantization step width “HL <LH <HH” related to the color difference signal are both It is based on experimental knowledge (see paragraphs (0018) to (0028) of Patent Document 3) and is not derived from a theoretical point of view. It has been found.

このことに鑑み、本発明は、インターレース映像信号(より広義には水平方向と垂直方向の周波数帯域が異なる信号)のサブバンド符号化に、理論的知見に基づいて視覚周波数特性をより的確に反映させることによって、より具体的には、サブバンド係数の量子化ステップ数、サブバンド係数又はその符号のトランケーションのためのトランケート数、あるいは、ラグランジェレート制御のためのディストーションスロープに、理論的知見に基づいて視覚周波数特性をより適切に反映させることによって、復号画質の向上を達成しようとするものである。   In view of this, the present invention more accurately reflects visual frequency characteristics based on theoretical knowledge in subband coding of interlaced video signals (in a broader sense, signals having different frequency bands in the horizontal and vertical directions). More specifically, the number of quantization steps of subband coefficients, the number of truncations for truncation of subband coefficients or their codes, or the distortion slope for Lagrangian rate control can be obtained from theoretical knowledge. Based on this, the visual frequency characteristics are more appropriately reflected to improve the decoded image quality.

本発明においては、上記目的を達成するため、サブバンドに対する最適な視覚周波数特性値(JPEG2000に規定されているVisual Weight(視覚的重み付け)に相当する値)を理論的に決定し、これをサブバンドの符号化に利用する。以下の説明においては、視覚周波数特性値の例としてVisual Weightを用いる。   In the present invention, in order to achieve the above object, an optimal visual frequency characteristic value (a value corresponding to Visual Weight (visual weight) defined in JPEG2000) for a subband is theoretically determined, and this is subtracted. Used for band coding. In the following description, Visual Weight is used as an example of the visual frequency characteristic value.

まず、Contrast Sensitivity Function(CSF)について説明する。後述するように、Visual Weightは、Contrast Sensitivity Function(CSF)の所定周波数帯域における積分値又はその積として求められるからである。   First, the contrast sensitivity function (CSF) will be described. This is because the Visual Weight is obtained as an integral value or a product of the contrast sensitivity function (CSF) in a predetermined frequency band, as will be described later.

Contrast Sensitivity Function(CSF)とは、所定観察距離において所定空間周波数の縞模様を観察した場合に、観察者が判別できる濃淡の差/和(=コントラスト)の限界値を、逆数として表示したものであり、実験で求められるものである。図2中の点線(縞がグレーとしか認識できない点を結んだ点線)がそれに相当し、具体的には図3のグラフで表されるものである(なお、逆数をとるのは、判別できるコントラストが小さいほどSensitivityとしては高くなるからである)。   Contrast Sensitivity Function (CSF) is the reciprocal of the limit value of the difference / sum (= contrast) that can be discriminated by the observer when a stripe pattern with a predetermined spatial frequency is observed at a predetermined observation distance. Yes, it is required by experiment. The dotted line in FIG. 2 (the dotted line connecting the points where the stripes can only be recognized as gray) corresponds to this, and is specifically represented by the graph of FIG. 3 (note that the reciprocal is taken can be determined. This is because the smaller the contrast, the higher the Sensitivity).

このコントラストを“原画とその圧縮伸張後の画像との差”と考えた場合、このCSFは「各周波数で、原画とその圧縮伸長後の画像との濃淡差がこれ以下なら判別できない」という限界を示したものである。そして、サブバンドの係数が原画像のコントラストを概ね反映することから、CSFは「各周波数(=各サブバンド)で、原画とその圧縮伸長後の画像のサブバンド係数の差がこれ以下なら、その係数が反映する原画と伸張後の画像の差も判別できない」という限界を示す指標と解釈されている。したがって、サブバンドの係数を「CSFの逆数の2倍以下」で量子化すれば、各係数に生じる量子化誤差はCSFの逆数以下になるので、画質劣化は認識されないはず、というのが通説である。   When this contrast is considered as “the difference between the original image and the image after compression / expansion”, this CSF has a limit that “at each frequency, the difference between the original image and the image after compression / expansion cannot be discriminated below”. Is shown. Since the subband coefficients generally reflect the contrast of the original image, the CSF is “if each frequency (= each subband) and the difference between the subband coefficients of the original image and the compressed and expanded image is less than this, It is interpreted as an index indicating a limit that the difference between the original image reflected by the coefficient and the image after expansion cannot be determined. Therefore, if the subband coefficients are quantized with “twice or less of the reciprocal of CSF”, the quantization error that occurs in each coefficient will be less than or equal to the reciprocal of the CSF, so it is a common theory that image quality degradation should not be recognized. is there.

なお、CSFはVisual Transfer Function(VTF)とも呼ばれるが、本願においては、CSF、VTFに代表される、周波数方向の視覚の感度特性を「視覚周波数特性」と総称する。   In addition, although CSF is also called Visual Transfer Function (VTF), in the present application, visual sensitivity characteristics in the frequency direction represented by CSF and VTF are collectively referred to as “visual frequency characteristics”.

以上に述べたように、CSFは「各周波数におけるサブバンド係数の許容量子化量」であるため、例えば垂直方向に1回デコンポジションして得られる1Hサブバンドの許容量子化量を考えるとする。1Hサブバンドは、ハイパスのフィルタを通過した、ある周波数以上の周波数を広く含むと考えられるが、その周波数をどう考え、CSFのグラフのどの点を読むべきかが問題となる。これに対する典型解は、以下の通りである。   As described above, since the CSF is “allowable quantization amount of subband coefficient at each frequency”, for example, let us consider an allowable quantization amount of 1H subband obtained by decomposing once in the vertical direction. . The 1H subband is considered to include a wide range of frequencies higher than a certain frequency that have passed through a high-pass filter. However, how to consider the frequency and which point of the CSF graph should be read is a problem. A typical solution for this is as follows.

まず、原画像の解像度がd[dpi]で、これを距離v[inch]から観察した場合、空間周波数fは、f=vd*tan(π/360) で近似され、これが原画像が含みうる最大の周波数になる。通常の(=最大間引きの)サブバンド分割では1回のデコンポジション毎に1/2にサブサンプリングされるため、デコンポジションレベルが1レベル上がる毎に空間周波数の最大値は半分になる。そこで、サブバンド分割に使用されるフィルタを理想的なハイパスフィルタおよびローパスフィルタであると見なし、0≦f≦fmaxの帯域が、1回のデコンポジションで0≦f<fmax/2とfmax/2≦f≦fmaxに二分されると仮定するならば、1Hサブバンド係数の帯域はfmax/2≦f≦fmax、1Lサブバンド係数の帯域は0≦f<fmax/2と見なすことができる。   First, when the resolution of the original image is d [dpi] and this is observed from the distance v [inch], the spatial frequency f is approximated by f = vd * tan (π / 360), which can be included in the original image. It becomes the maximum frequency. In normal (= maximum decimation) subband division, 1/2 sub-sampling is performed for each decomposition, so the maximum value of the spatial frequency is halved each time the decomposition level is increased by one level. Therefore, the filter used for subband division is regarded as an ideal high-pass filter and low-pass filter, and the band of 0 ≦ f ≦ fmax is 0 ≦ f <fmax / 2 and fmax / 2 in one decomposition. If it is assumed that it is divided into ≦ f ≦ fmax, the band of 1H subband coefficient can be regarded as fmax / 2 ≦ f ≦ fmax, and the band of 1L subband coefficient can be regarded as 0 ≦ f <fmax / 2.

よって、1Hサブバンド係数に対するVisual WeightとしてCSFの周波数区間fmax/2≦f≦fmaxにおける積分値又はその同区間の代表値を用いることができる。同様に1Lサブバンド係数に対するVisual Weightとしては、CSFの周波数区間0≦f<fmax/2における積分値又は同区間における代表値を用いることができる。ここで、CSFの参照周波数区間の代表値としては、同区間の積分値の平均値、同区間の中央の値、同区間の一方の端の値などを用いることができる。また、積分値の平均値とは、CSFの参照周波数区間内における積分値を同区間の幅で割った値である。なお、参照周波数区間の積分値を用いるか、その代表値を用いるか、どのような代表値を用いるかということよりも、後述のように参照周波数区間をどのように選ぶかが最も重要である。以下においては、CSFの参照周波数区間における積分値を用いるものとして説明する。   Therefore, the integrated value in the frequency interval fmax / 2 ≦ f ≦ fmax of CSF or the representative value in the same interval can be used as the Visual Weight for the 1H subband coefficient. Similarly, as the Visual Weight for the 1L subband coefficient, an integral value in the CSF frequency section 0 ≦ f <fmax / 2 or a representative value in the same section can be used. Here, as a representative value of the reference frequency section of CSF, an average value of integral values in the same section, a central value in the same section, a value at one end of the same section, or the like can be used. The average integrated value is a value obtained by dividing the integrated value in the reference frequency section of the CSF by the width of the same section. In addition, it is most important how to select the reference frequency section as described later, rather than using the integral value of the reference frequency section, its representative value, or what kind of representative value is used. . In the following description, it is assumed that an integral value in the reference frequency section of CSF is used.

そして、シーケンシャルに連結したフィルタの出力が個々のフィルタの出力の積で表わされることを根拠に、1LH係数に対するVisual Weightとしては、CSFの周波数区間fmax/2≦f≦fmaxにおける積分値と、CSFの周波数区間0≦f<fmax/2における積分値との積を用いることができる。   Then, based on the fact that the outputs of the sequentially connected filters are expressed by the product of the outputs of the individual filters, the Visual Weight for the 1LH coefficient is the integral value in the CSF frequency section fmax / 2 ≦ f ≦ fmax, and the CSF The product of the integral value in the frequency interval 0 ≦ f <fmax / 2 can be used.

図4において、100は水平方向の2LサブバンドについてのCSFの積分値、101は垂直方向の2HサブバンドについてのCSFの積分値を示し、これらの積分値の積が2LHサブバンドのVisual Weightである。   In FIG. 4, 100 indicates the integral value of the CSF for the 2L subband in the horizontal direction, 101 indicates the integral value of the CSF for the 2H subband in the vertical direction, and the product of these integral values is the Visual Weight of the 2LH subband. is there.

以上の様に、Visual Weight(視覚周波数特性値)を求めるために、CSF(視覚周波数特性)の参照周波数区間をどう設定するかが重要である。しかし、従来は、フレームベースの符号化であろうとフィールドベースの符号化であろうと、垂直方向と水平方向とでCSFの参照周波数区間を異ならせた例はなかった。   As described above, in order to obtain Visual Weight (visual frequency characteristic value), it is important how to set a reference frequency section of CSF (visual frequency characteristic). However, conventionally, there has been no example in which the reference frequency section of the CSF is different between the vertical direction and the horizontal direction, whether frame-based encoding or field-based encoding.

ここにおいて、本願の第1の趣旨は、フィールドベースの符号化の場合、垂直方向と水平方向とで、視覚周波数特性の参照周波数区間を異ならせることが必要である(垂直方向と水平方向とで視覚周波数特性の異なった周波数区間を参照して算出された視覚周波数特性値を符号化に反映されることが必要である)ということである。また、本願の第2の趣旨は、フレームベースの符号化においても、垂直方向と水平方向で異なる割合でサブサンプリングされている信号成分(後述する422フォーマットの色差成分等)に対しては、垂直方向と水平方向とで視覚周波数特性の参照周波数区間を異ならせることが必要である(垂直方向と水平方向とで視覚周波数特性の異なった周波数区間を参照して算出された視覚周波数特性値を符号化に反映させることが必要である)ということである。また、本願の第3の趣旨は、後述の”簡易”ウェーブレット変換のような場合においても、視覚周波数特性の参照周波数区間を適切に設定することが必要であること(参照周波数区間を適切に設定して算出された視覚周波数特性値を符号化に反映させることが必要である)ということである。   Here, the first gist of the present application is that in the case of field-based coding, it is necessary to make the reference frequency interval of the visual frequency characteristic different in the vertical direction and the horizontal direction (in the vertical direction and the horizontal direction). It is necessary that the visual frequency characteristic value calculated by referring to the frequency sections having different visual frequency characteristics be reflected in the encoding). Further, the second gist of the present application is that even in frame-based coding, it is vertical for signal components (such as 422 format color difference components described later) that are subsampled at different rates in the vertical and horizontal directions. It is necessary to make the reference frequency interval of the visual frequency characteristic different in the direction and the horizontal direction (the visual frequency characteristic value calculated by referring to the frequency interval in which the visual frequency characteristic is different in the vertical direction and the horizontal direction is encoded) It is necessary to reflect on Further, the third purpose of the present application is that it is necessary to appropriately set the reference frequency section of the visual frequency characteristic even in the case of “simple” wavelet transform described later (the reference frequency section is set appropriately). It is necessary to reflect the visual frequency characteristic value calculated in this way in the encoding).

さて、フィールドは、フレームを2つに分解したものであり、ある観察距離でのフレームの垂直方向の空間周波数の最大値をfmaxとすれば、フィールドのそれはfmax/2である。したがって、垂直方向に関して、フレームベースの符号化の場合とフィールドベースの符号化の場合とで、CSFの参照周波数区間は表1のように異なったものとなる。   The field is a frame divided into two. If the maximum value of the spatial frequency in the vertical direction of the frame at a certain observation distance is fmax, that of the field is fmax / 2. Therefore, with respect to the vertical direction, the reference frequency section of the CSF differs between the case of frame-based coding and the case of field-based coding as shown in Table 1.

Figure 0004636547
よって、垂直方向の各参照周波数区間のCSFの積分値を例えば図5のように定義すれば、表1に示した各参照周波数区間についてのCSFの積分値は表2のように表すことができる。
Figure 0004636547
Therefore, if the integrated value of the CSF in each reference frequency section in the vertical direction is defined as shown in FIG. 5, for example, the integrated value of the CSF in each reference frequency section shown in Table 1 can be expressed as in Table 2. .

Figure 0004636547
よってフレームの水平方向の空間周波数の最大値が垂直方向と同じfmaxであるとすれば、垂直方向と水平方向のCSFの積分値の積であるVisual Weightは表3のように表すことができる。
Figure 0004636547
Therefore, if the maximum value of the spatial frequency in the horizontal direction of the frame is the same fmax as in the vertical direction, the Visual Weight, which is the product of the integrated values of the vertical and horizontal CSFs, can be expressed as shown in Table 3.

Figure 0004636547
なお、図5は輝度信号のCSFについて示した。輝度信号の場合、図3に示すようにCSFはピークを持ち、その低域部分では該ピークよりも小さな値をとる。しかし、Visual Weightの計算にあたっては、上記低域部分でも上記ピーク値を持ち続けるものと補正した上で(すなわち、輝度のCSFも図3に示す色差Cb,CrのCSFと同様に単調減少の形状をとるものに補正した上で)積分値を算出する。これは低域成分が主観画質に及ぼす大きさ等を考慮した上での例外処理である。また最低解像度のLLサブバンドに関しても、同様な観点から、Visual Weightを最大値に補正する(通常、CSFは最大値を1に正規化して用いるのでVisual Weightの最大値は1になる)。
Figure 0004636547
FIG. 5 shows the CSF of the luminance signal. In the case of a luminance signal, the CSF has a peak as shown in FIG. 3, and takes a value smaller than the peak in the low frequency part. However, in calculating Visual Weight, it is corrected that the peak value is maintained even in the low frequency part (that is, the luminance CSF is also monotonically decreasing like the CSFs of the color differences Cb and Cr shown in FIG. The integrated value is calculated (after correcting for). This is an exceptional process in consideration of the size of the low frequency component on the subjective image quality. For the lowest resolution LL subband, from the same viewpoint, the Visual Weight is corrected to the maximum value (usually, the maximum value of the Visual Weight is 1 because the CSF is used with the maximum value normalized to 1).

一方、色差信号に関しては輝度信号とは異なる事情がある。4:2:2フォーマットとよばれる映像信号では、色差信号は水平方向に1/2に間引かれる(なお、色差信号を間引かないフォーマットは4:4:4と呼ばれる。以下簡単のため、4:2:2を422、4:4:4を444と記載することがある)。すなわち、フレームの輝度信号の水平方向の空間周波数の最大値をfmaxとすれば、422フォーマットの映像信号では、色差信号の水平方向の空間周波数の最大値はfmax/2である。したがって水平方向に関して、輝度、色差についてのCSFの参照周波数区間は表4のように表される。 On the other hand, the color difference signal is different from the luminance signal. In a video signal called 4: 2: 2 format, the color difference signal is thinned out in half in the horizontal direction (Note that the format that does not thin out the color difference signal is called 4: 4: 4. 4: 2: 2 may be described as 422 and 4: 4: 4 as 444). That is, if the maximum value of the spatial frequency in the horizontal direction of the luminance signal of the frame is fmax, the maximum value of the spatial frequency in the horizontal direction of the color difference signal is fmax / 2 in the video signal of 422 format. Therefore, with respect to the horizontal direction, the reference frequency section of the CSF for luminance and color difference is expressed as shown in Table 4.

Figure 0004636547
よって、422フォーマットの場合、水平方向の各参照周波数区間のCSFの積分値は表5のように表すことできる。
Figure 0004636547
Thus, if the 422 format, the integral value of the CSF of each reference frequency interval in the horizontal direction can be expressed as shown in Table 5.

Figure 0004636547
したがって、422フォーマットの場合、フレームの垂直方向の空間周波数の最大値が水平方向と同じfmaxであるとすれば、垂直方向と水平方向のCSFの積分値の積であるVisual Weightは表6のように表すことができる。
Figure 0004636547
Therefore, in the case of the 422 format, assuming that the maximum value of the spatial frequency in the vertical direction of the frame is the same fmax as in the horizontal direction, the Visual Weight, which is the product of the integrated values of the vertical and horizontal CSFs, is as shown in Table 6. Can be expressed as

Figure 0004636547
この表から、理論的には、フィールドベース符号化の色差の1HLサブバンドのVisual
Weightと1LHサブバンドのVisual Weightとは同一であるべきことが分かる。前記特許文献3における422フォーマットの色差信号に対する量子化ステップ幅の「HL<LH<HH」という関係は、上の理論的知見と一致せず、同文献には示されてないが何らかの追加条件を前提にした場合にのみ成立するものと考えざるを得ない。
Figure 0004636547
From this table, theoretically, the Visual Difference of 1HL subband of color difference of field-based coding.
It can be seen that the Weight and the Visual Weight of the 1LH subband should be the same. The relationship of “HL <LH <HH” of the quantization step width with respect to the 422 format color difference signal in Patent Document 3 does not agree with the above theoretical findings, and is not shown in the same document, but has some additional conditions. It must be considered that this is only true if the assumption is made.

また、一般に4:1:1あるいは4:2:0フォーマットと呼ばれる色差信号のサブサンプリングフォーマットでは、色差信号は水平方向に1/2かつ垂直方向に1/2に間引かれる(以下簡単に411あるいは420と記載する)。すなわち、フレームの輝度信号の水平および垂直方向の空間周波数の最大値をfmaxとすれば、色差信号の水平及び垂直方向の空間周波数の最大値はともにfmax/2である。よって411フォーマットの場合、以上と同様な議論から、Visual Weightは表7のように表すことができる。   Further, in the sub-sampling format of the color difference signal generally called the 4: 1: 1 or 4: 2: 0 format, the color difference signal is thinned out to 1/2 in the horizontal direction and 1/2 in the vertical direction (hereinafter simply referred to as 411). Or 420). That is, if the maximum value of the horizontal and vertical spatial frequencies of the luminance signal of the frame is fmax, the maximum value of the horizontal and vertical spatial frequencies of the color difference signal is both fmax / 2. Therefore, in the case of the 411 format, Visual Weight can be expressed as shown in Table 7 from the same discussion as above.

Figure 0004636547
ここで、発明者の計算では、DE>CFである。したがって、表7におけるフィールドベース符号化における色差信号の1LHサブバンド係数に対する量子化ステップ幅よりも1HLサブバンド係数に対する量子化ステップ幅の方を大きくすべきという結果になり、これは前記特許文献3に示された411フォーマットの場合の色差信号の量子化ステップ幅の関係「HL<LH<HH」と一致しない。この点でも、前記特許文献3における量子化ステップ幅の関係は限定された条件でのみ成立するものと考えざるを得ない。
Figure 0004636547
Here, DE> CF in the inventor's calculation. Accordingly, the result is that the quantization step width for the 1HL subband coefficient should be larger than the quantization step width for the 1LH subband coefficient of the color difference signal in the field-based encoding in Table 7. In the case of the 411 format shown in FIG. 4, the relationship between the quantization step widths of the color difference signal “HL <LH <HH” is not matched. In this respect as well, the relationship between the quantization step widths in Patent Document 3 must be considered to be established only under limited conditions.

また、色差信号がサブサンプリングされている場合、色差信号に対するサブバンド分割のための周波数変換には次の2種類がある(ここでは周波数変換としてウェーブレット変換を用いるものとして説明する)。その1つは、図6及び図7に示すように、色差信号に対し、輝度信号と同様に、水平・垂直方向に同じ回数だけウェーブレット変換(サブバンド分割)を行う方法である。これを、ここでは”通常”ウェーブレット変換と言う(一般的には”通常”周波数変換)。   In addition, when the color difference signal is subsampled, there are the following two types of frequency conversion for subband division of the color difference signal (here, description will be made assuming that wavelet conversion is used as frequency conversion). One of them is a method of performing wavelet transform (subband division) on the chrominance signal the same number of times in the horizontal and vertical directions as in the luminance signal, as shown in FIGS. This is referred to herein as “normal” wavelet transform (generally “normal” frequency transform).

もう1つは、図8及び図9に示すように、色差信号の間引かれた方向に対するウェーブレット変換を省略する方法である。これを”簡易”ウェーブレット変換と言う(一般的には”簡易”周波数変換)。”簡易”ウェーブレット変換においては、422フォーマットの場合、デコンポジションレベル1に限り、色差信号の水平方向に関してウェーブレット変換が省略される。したがって、デコンポジションレベル1では垂直方向の1Hと1Lのサブバンドしか存在しない。1Lをさらにデコンポジションすると、結局1Hしか残らない。図8及び図9には示さないが、411フォーマットの場合、デコンポジションレベル1に限り、色差信号の水平、垂直両方向についてウェーブレット変換(サブバンド分割)が省略される。   The other is a method of omitting the wavelet transform for the direction in which the color difference signal is thinned out, as shown in FIGS. This is called “simple” wavelet transformation (generally “simple” frequency transformation). In the “simple” wavelet transform, in the case of the 422 format, the wavelet transform is omitted in the horizontal direction of the color difference signal only in the decomposition level 1. Therefore, at decomposition level 1, there are only 1H and 1L subbands in the vertical direction. If 1L is further decomposed, only 1H remains after all. Although not shown in FIGS. 8 and 9, in the case of the 411 format, wavelet transform (subband division) is omitted only in the decomposition level 1 in both the horizontal and vertical directions of the color difference signal.

Visual Weightを参照するための前記視覚周波数特性の参照周波数区間は、上記の”通常”ウェーブレット変換の場合と”簡易”ウェーブレット変換の場合とで適切に選択する必要がある。しかし従来、”簡易”ウェーブレット変換に対して、かかる参照周波数区間の選択を行う例は知られていない。   The reference frequency section of the visual frequency characteristic for referring to the Visual Weight needs to be appropriately selected in the case of the “normal” wavelet transform and the case of the “simple” wavelet transform. However, conventionally, there is no known example of selecting such a reference frequency section for the “simple” wavelet transform.

以上の理論的知見に基づき、発明者は代表的な観察距離1000,1700,3000に関して、輝度Y、色差Cb、Crに関するVisual Weightを算出した(なお、観察距離(visual distance)であるが、解像度x(dpi)の画像をyインチ離れて観測した場合の観察距離はxyと定義される)。そのうちの観察距離1700について計算したVisual Weightの例を図10〜図14に示す。図10〜図12は”通常”ウェーブレット変換の場合のVisual Weightであり、図13及び図14は”簡易”ウェーブレット変換の場合のVisual Weightである。なお、図13及び図14において、”0”はそのサブバンドが存在しないことを示し、また、1LHは実際には垂直方向の1Hのことであることは前述の通りである。   Based on the above theoretical findings, the inventor calculated the Visual Weight for the luminance Y, the color difference Cb, and Cr for the typical observation distances 1000, 1700, and 3000 (note that the visual distance is the resolution) The observation distance when the image of x (dpi) is observed y inches apart is defined as xy). Examples of Visual Weight calculated for the observation distance 1700 are shown in FIGS. 10 to 12 are Visual Weights in the case of “normal” wavelet transformation, and FIGS. 13 and 14 are Visual Weights in the case of “simple” wavelet transformation. 13 and 14, “0” indicates that the subband does not exist, and 1LH is actually 1H in the vertical direction as described above.

前述したように、Visual Weightの逆数は量子化ステップ数に比例する。また、Visual Weightは、後述するビットプレーン符号化におけるビットプレーンの破棄量(トランケート数)に反比例する。また後述するが、サブバンド符号化の代表例であるJPEG2000で一般に用いられる量子化ステップ数は、同一デコンポジションレベルでは、HL=LH<HHである(図30参照)。よって、量子化ステップ数や、ビットプレーンの破棄量(そして線形量子化とビットプレーンの破棄が併用される場合はこれらを合わせた効果)をまとめて「量子化の程度」と表現するならば、本発明の理論的知見に従う、サブバンド間における量子化の程度の関係は図15のようになるべきである。 As described above, the inverse of Visual Weight is proportional to the number of quantization steps. Visual Weight is inversely proportional to the amount of bit plane discard (number of truncations) in bit plane encoding described later. As will be described later, the number of quantization steps generally used in JPEG2000, which is a representative example of subband coding, is HL = LH <HH at the same decomposition level (see FIG. 30). Therefore, if the number of quantization steps and the amount of bit plane discard (and the combined effect when linear quantization and bit plane discard are used together) are collectively expressed as "degree of quantization" according to theoretical findings of the present invention, the relationship between the degree of quantization in intersubband should be as Figure 15.

一方、前記特許文献3の特許請求の範囲に記載された量子化ステップ数の関係は図16のように示される。前記特許文献3には、そもそもビットプレーンの破棄量や簡易ウェーブレットに関する記載自体がないが、図15と図16とで一致するのは、フィールドベース符号化における輝度信号の量子化に関する点のみである。   On the other hand, the relationship between the number of quantization steps described in the claims of Patent Document 3 is shown in FIG. In Patent Document 3, there is no description regarding the bit plane discard amount or the simple wavelet in the first place, but FIG. 15 and FIG. 16 agree only with respect to the quantization of the luminance signal in the field-based coding. .

以上に述べた理論的知見は、インターレース構造の映像信号の符号化みならず、水平方向と垂直方向で周波数帯域の異なる信号の符号化に広く適用可能である。   The theoretical knowledge described above can be widely applied not only to encoding interlaced video signals but also to encoding of signals having different frequency bands in the horizontal and vertical directions.

よって、請求項1に係る発明は、インターレース映像信号をフィールドベースでサブバンド符号化する符号化装置であって、
前記インターレース映像信号の輝度信号を水平方向と垂直方向に同じ回数サブバンド分割するサブバンド分割手段と、
前記サブバンド分割手段によるサブバンド分割によって得られた前記輝度信号の各サブバンドの符号化処理を行う符号化処理手段と、
前記輝度信号の各サブバンドの符号化処理に、輝度の視覚周波数特性を基に算出されたサブバンド対応の輝度の視覚周波数特性値を反映させる手段とを有し、
前記輝度の視覚周波数特性値を算出するために参照される輝度の視覚周波数特性の周波数区間は、垂直方向について参照される周波数区間が水平方向について参照される周波数区間に対し前記サブバンド分割の1デコンポジションレベル分だけ低域側にシフトした区間として設定されることを特徴とする符号化装置である。
Therefore, the invention according to claim 1 is an encoding device that performs subband encoding on an interlace video signal on a field basis,
Subband dividing means for dividing the luminance signal of the interlaced video signal into subbands the same number of times in the horizontal and vertical directions;
Coding processing means for performing coding processing of each subband of the luminance signal obtained by subband division by the subband division means;
Means for reflecting the luminance visual frequency characteristic value corresponding to the subband calculated based on the luminance visual frequency characteristic in the encoding process of each subband of the luminance signal;
The frequency interval of the luminance visual frequency characteristic referred to for calculating the luminance visual frequency characteristic value is one of the subband divisions with respect to the frequency interval in which the frequency interval referred to in the vertical direction is referred to in the horizontal direction. The encoding apparatus is characterized in that it is set as a section shifted to the low frequency side by the decompression level.

請求項2に係る発明は、4:4:4フォーマット又は4:1:1フォーマットのインターレース映像信号をフィールドベースでサブバンド符号化する符号化装置であって、
前記インターレース映像信号中の色差信号を水平方向と垂直方向に同じ回数サブバンド分割するサブバンド分割手段と、
前記サブバンド分割手段によるサブバンド分割によって得られた前記色差信号の各サブバンドの符号化処理を行う符号化処理手段と、
前記色差信号の各サブバンドの符号化処理に、色差の視覚周波数特性を基に算出されたサブバンド対応の色差の視覚周波数特性値を反映させる手段とを有し、
前記色差の視覚周波数特性値を算出するために参照される色差の視覚周波数特性の周波数区間は、垂直方向について参照される周波数区間が水平方向について参照される周波数区間に対して前記サブバンド分割の1デコンポジションレベル分だけ低域側にシフトした区間として設定されることを特徴とする符号化装置である。
The invention according to claim 2 is an encoding device that performs subband encoding on a field basis for an interlaced video signal in 4: 4: 4 format or 4: 1: 1 format,
Subband dividing means for dividing the color difference signal in the interlaced video signal by the same number of times in the horizontal and vertical directions.
Encoding processing means for performing encoding processing of each subband of the color difference signal obtained by subband division by the subband dividing means;
Means for reflecting the visual frequency characteristic value of the color difference corresponding to the subband calculated based on the visual frequency characteristic of the color difference in the encoding process of each subband of the color difference signal;
The frequency interval of the color difference visual frequency characteristic referred to in order to calculate the color difference visual frequency characteristic value is the frequency band referred to in the vertical direction of the subband division with respect to the frequency interval referred to in the horizontal direction. The encoding apparatus is characterized in that it is set as a section shifted to the low frequency side by one decomposition level.

請求項3に係る発明は、4:2:2フォーマットのインターレース映像信号をフィールドベースでサブバンド符号化する符号化装置であって、
前記インターレース映像信号中の輝度信号及び色差信号を水平方向及び垂直方向に同じ回数サブバンド分割するサブバンド分割手段と、
前記サブバンド分割手段によるサブバンド分割によって得られた前記輝度信号及び前記色差信号の各サブバンドの符号化処理を行う符号化処理手段と、
前記輝度信号の各サブバンドの符号化処理に輝度の視覚周波数特性を基に算出されたサブバンド対応の輝度の視覚周波数特性値を反映させ、前記色差信号の各サブバンドの符号化処理に色差の視覚周波数特性を基に算出されたサブバンド対応の色差の視覚周波数特性値を反映させる手段とを有し、
前記色差の視覚周波数特性値を算出するために水平方向について参照される色差の視覚周波数特性の周波数区間が、前記輝度の視覚周波数特性値を算出するために水平方向について参照される輝度の視覚周波数特性の周波数区間に対して、前記サブバンド分割の1デコンポジションレベル分だけ低域側にシフトした区間として設定されることを特徴とする符号化装置である。
The invention according to claim 3 is an encoding device that performs sub-band encoding on a field basis for interlaced video signals in 4: 2: 2 format,
Subband dividing means for dividing the luminance signal and the color difference signal in the interlaced video signal by the same number of times in the horizontal and vertical directions.
Encoding processing means for performing encoding processing of each subband of the luminance signal and the color difference signal obtained by subband division by the subband dividing means;
The luminance frequency frequency value corresponding to the subband calculated based on the luminance visual frequency characteristic is reflected in the encoding process of each subband of the luminance signal, and the color difference is applied to the encoding process of each subband of the color difference signal. Means for reflecting the visual frequency characteristic value of the color difference corresponding to the subband calculated based on the visual frequency characteristic of
The frequency interval of the color difference visual frequency characteristic referred to in the horizontal direction to calculate the visual frequency characteristic value of the color difference is the luminance visual frequency referred to in the horizontal direction to calculate the visual frequency characteristic value of the luminance. The coding apparatus is characterized in that the characteristic frequency section is set as a section shifted to the low frequency side by one subcomposition level of the subband division.

請求項4に係る発明は、4:2:2フォーマットのインターレース映像信号をフレームベースでサブバンド符号化する符号化装置であって、
前記インターレース映像信号中の色差信号を水平方向及び垂直方向に同じ回数サブバンド分割するサブバンド分割手段と、
前記サブバンド分割手段によるサブバンド分割によって得られた前記色差信号の各サブバンドの符号化処理を行う符号化処理手段と、
前記色差信号の各サブバンドの符号化処理に、色差の視覚周波数特性を基に算出されたサブバンド対応の色差の視覚周波数特性値を反映させる手段とを有し、
前記色差の視覚周波数特性値を算出するために参照される色差の視覚周波数特性の周波数区間は、垂直方向について参照される周波数区間が水平方向について参照される周波数区間に対して前記サブバンド分割の1デコンポジションレベル分だけ高域側にシフトした区間として設定されることを特徴とする符号化装置である。
The invention according to claim 4 is an encoding device that performs sub-band encoding of interlaced video signals in 4: 2: 2 format on a frame basis,
Subband dividing means for dividing the color difference signal in the interlaced video signal by the same number of times in the horizontal and vertical directions.
Encoding processing means for performing encoding processing of each subband of the color difference signal obtained by subband division by the subband dividing means;
Means for reflecting the visual frequency characteristic value of the color difference corresponding to the subband calculated based on the visual frequency characteristic of the color difference in the encoding process of each subband of the color difference signal;
The frequency interval of the color difference visual frequency characteristic referred to in order to calculate the color difference visual frequency characteristic value is the frequency band referred to in the vertical direction of the subband division with respect to the frequency interval referred to in the horizontal direction. The encoding apparatus is set as a section shifted to a high frequency side by one decomposition level.

請求項5に係る発明は、4:1:1フォーマットのインターレース映像信号をフレームベースでサブバンド符号化する符号化装置であって、
前記インターレース映像信号中の輝度信号及び色差信号を水平方向及び垂直方向に同じ回数サブバンド分割するサブバンド分割手段と、
前記サブバンド分割手段によるサブバンド分割によって得られた前記輝度信号及び前記色差信号の各サブバンドの符号化処理を行う符号化処理手段と、
前記輝度信号の各サブバンドの符号化処理に輝度の視覚周波数特性を基に算出されたサブバンド対応の輝度の視覚周波数特性値を反映させ、前記色差信号の各サブバンドの符号化処理に色差の視覚周波数特性を基に算出されたサブバンド対応の色差の視覚周波数特性値を反映させる手段とを有し、
前記色差の視覚周波数特性値を算出するために水平方向について参照される色差の視覚周波数特性の周波数区間が、前記輝度の視覚周波数特性値を算出するために水平方向について参照される輝度の視覚周波数特性の周波数区間に対して、前記サブバンド分割の1デコンポジションレベル分だけ低域側にシフトした区間として設定されることを特徴とする符号化装置である。
The invention according to claim 5 is an encoding apparatus that performs subband encoding on a frame basis for an interlaced video signal in a 4: 1: 1 format.
Subband dividing means for dividing the luminance signal and the color difference signal in the interlaced video signal by the same number of times in the horizontal and vertical directions.
Encoding processing means for performing encoding processing of each subband of the luminance signal and the color difference signal obtained by subband division by the subband dividing means;
The luminance frequency frequency value corresponding to the subband calculated based on the luminance visual frequency characteristic is reflected in the encoding process of each subband of the luminance signal, and the color difference is applied to the encoding process of each subband of the color difference signal. Means for reflecting the visual frequency characteristic value of the color difference corresponding to the subband calculated based on the visual frequency characteristic of
The frequency interval of the color difference visual frequency characteristic referred to in the horizontal direction to calculate the visual frequency characteristic value of the color difference is the luminance visual frequency referred to in the horizontal direction to calculate the visual frequency characteristic value of the luminance. The coding apparatus is characterized in that the characteristic frequency section is set as a section shifted to the low frequency side by one subcomposition level of the subband division.

請求項6に係る発明は、4:2:2フォーマットのインターレース映像信号をフィール
ドベースでサブバンド符号化する符号化装置であって、
前記インターレース映像信号中の色差信号をデコンポジションレベル1に限り垂直方向
にのみサブバンド分割し、デコンポジションレベル2以上では水平方向及び垂直方向にサ
ブバンド分割するサブバンド分割手段と、
前記サブバンド分割手段によるサブバンド分割によって得られた前記色差信号の各サブ
バンドの符号化処理を行う符号化処理手段と、
前記色差信号の各サブバンドの符号化処理に、色差の視覚周波数特性を基に算出された
サブバンド対応の色差の視覚周波数特性値を反映させる手段とを有し、
前記色差の視覚周波数特性値を算出するために参照される色差の視覚周波数特性の周波
数区間は、垂直方向について参照される周波数区間が、水平方向について参照される周波
数区間に対して前記サブバンド分割の1デコンポジションレベル分だけ低域側にシフトし
た区間として設定されることを特徴とする符号化装置である。
The invention according to claim 6 is an encoding device that performs sub-band encoding of interlaced video signals in 4: 2: 2 format on a field basis,
Subband division means for dividing the color difference signal in the interlaced video signal into subbands only in the vertical direction only at the composition level 1, and subbanding in the horizontal direction and the vertical direction at the decomposition level 2 or higher;
Encoding processing means for performing encoding processing of each subband of the color difference signal obtained by subband division by the subband dividing means;
Means for reflecting the visual frequency characteristic value of the color difference corresponding to the subband calculated based on the visual frequency characteristic of the color difference in the encoding process of each subband of the color difference signal;
The frequency section of the color difference visual frequency characteristic referred to in order to calculate the color difference visual frequency characteristic value is a frequency section referred to in the vertical direction, and the frequency band referred to in the horizontal direction is the subband division. The encoding apparatus is characterized in that it is set as a section shifted to the low frequency side by one decomposition level.

請求項7に係る発明は、4:1:1フォーマットのインターレース映像信号をフィール
ドベースでサブバンド符号化する符号化装置であって、
前記インターレース映像信号中の輝度信号及び色差信号を水平方向及び垂直方向にサブ
バンド分割し、ただし前記色差信号に対してはデコンポジションレベル1に限りサブバン
ド分割を行なわないサブバンド分割手段と、
前記サブバンド分割手段によるサブバンド分割によって得られた前記輝度信号及び前記
色差信号の各サブバンドの符号化処理を行う符号化処理手段と、
前記輝度信号の各サブバンドの符号化処理に輝度の視覚周波数特性を基に算出されたサ
ブバンド対応の輝度の視覚周波数特性値を反映させ、前記色差信号の各サブバンドの符号
化処理に色差の視覚周波数特性を基に算出されたサブバンド対応の色差の視覚周波数特性
値を反映させる手段とを有し、
前記色差の視覚周波数特性値を算出するために参照される色差の視覚周波数特性の周波
数区間は、垂直方向について参照される周波数区間が、水平方向について参照される周波
数区間に対して前記サブバンド分割の1デコンポジションレベル分だけ低域側にシフトし
た区間として設定されることを特徴とする符号化装置である。
The invention according to claim 7 is an encoding device that performs subband encoding on a field basis for an interlaced video signal in a 4: 1: 1 format.
Subband division means for dividing a luminance signal and a color difference signal in the interlaced video signal into subbands in a horizontal direction and a vertical direction, but not subband division only for the decomposition level 1 with respect to the color difference signal;
Encoding processing means for performing encoding processing of each subband of the luminance signal and the color difference signal obtained by subband division by the subband dividing means;
The luminance frequency frequency value corresponding to the subband calculated based on the luminance visual frequency characteristic is reflected in the encoding process of each subband of the luminance signal, and the color difference is applied to the encoding process of each subband of the color difference signal. Means for reflecting the visual frequency characteristic value of the color difference corresponding to the subband calculated based on the visual frequency characteristic of
The frequency section of the color difference visual frequency characteristic referred to in order to calculate the color difference visual frequency characteristic value is a frequency section referred to in the vertical direction, and the frequency band referred to in the horizontal direction is the subband division. The encoding apparatus is characterized in that it is set as a section shifted to the low frequency side by one decomposition level.

以下の請求項8〜14に係る発明は、請求項1〜7に係る発明をコンピュータを利用し
実施可能にするものである。
The inventions according to claims 8 to 14 below enable the inventions according to claims 1 to 7 to be implemented using a computer.

すなわち、請求項8に係る発明は、インターレース映像信号をフィールドベースでサ
ブバンド符号化するため、コンピュータに、
前記インターレース映像信号中の輝度信号を水平方向と垂直方向に同じ回数サブバンド
分割するサブバンド分割工程、
前記サブバンド分割工程によるサブバンド分割によって得られた前記輝度信号の各サブ
バンドの符号化処理を行う符号化処理工程と、
前記輝度信号の各サブバンドの符号化処理に、輝度の視覚周波数特性を基に算出された
サブバンド対応の輝度の視覚周波数特性値を反映させる工程を実行させるプログラムであ
って、
前記輝度の視覚周波数特性値を算出するために参照される輝度の視覚周波数特性の周波
数区間は、垂直方向について参照される周波数区間が水平方向について参照される周波数
区間に対し前記サブバンド分割の1デコンポジションレベル分だけ低域側にシフトした区
間として設定されることを特徴とするプログラムである。
That is, the invention according to claim 8 performs interband video signal field-based subband coding, so
A subband dividing step of dividing the luminance signal in the interlaced video signal into the same number of times in the horizontal and vertical directions.
An encoding processing step for performing encoding processing of each subband of the luminance signal obtained by subband division by the subband division step;
A program for executing a step of reflecting the luminance visual frequency characteristic value corresponding to the subband calculated based on the luminance visual frequency characteristic in the encoding processing of each subband of the luminance signal,
The frequency interval of the luminance visual frequency characteristic referred to for calculating the luminance visual frequency characteristic value is one of the subband divisions with respect to the frequency interval in which the frequency interval referred to in the vertical direction is referred to in the horizontal direction. It is a program characterized in that it is set as a section shifted to the low frequency side by the decompression level.

請求項9に係る発明は、4:4:4フォーマット又は4:1:1フォーマットのイン
ターレース映像信号をフィールドベースでサブバンド符号化するため、コンピュータに、
前記インターレース映像信号中の色差信号を水平方向と垂直方向に同じ回数サブバンド
分割するサブバンド分割工程、
前記サブバンド分割工程によるサブバンド分割によって得られた前記色差信号の各サブ
バンドの符号化処理を行う符号化処理工程、
前色差信号の各サブバンドの符号化処理に、色差の視覚周波数特性を基に算出されたサ
ブバンド対応の色差の視覚周波数特性値を反映させる工程を実行させるプログラムであっ
て、
前記色差の視覚周波数特性値を算出するために参照される色差の視覚周波数特性の周波
数区間は、垂直方向について参照される周波数区間が水平方向について参照される周波数
区間に対して前記サブバンド分割の1デコンポジションレベル分だけ低域側にシフトした
区間として設定されることを特徴とするプログラムである。
According to the ninth aspect of the present invention, there is provided a computer for field-based subband encoding of interlaced video signals in 4: 4: 4 format or 4: 1: 1 format.
A subband dividing step of dividing the color difference signal in the interlaced video signal into the same number of times in the horizontal and vertical directions.
An encoding processing step for performing encoding processing of each subband of the color difference signal obtained by subband division by the subband division step;
A program for executing a step of reflecting the visual frequency characteristic value of the color difference corresponding to the subband calculated based on the visual frequency characteristic of the color difference in the encoding process of each subband of the previous color difference signal,
The frequency interval of the color difference visual frequency characteristic referred to in order to calculate the color difference visual frequency characteristic value is the frequency band referred to in the vertical direction of the subband division with respect to the frequency interval referred to in the horizontal direction. It is a program characterized in that it is set as a section shifted to the low frequency side by one decomposition level.

請求項10に係る発明は、4:2:2フォーマットのインターレース映像信号をフィー
ルドベースでサブバンド符号化するため、コンピュータに、
前記インターレース映像信号中の輝度信号及び色差信号を水平方向及び垂直方向に同じ
回数サブバンド分割するサブバンド分割工程、
前記サブバンド分割工程によるサブバンド分割によって得られた前記輝度信号及び前記
色差信号の各サブバンドの符号化処理を行う符号化処理工程、
前記輝度信号の各サブバンドの符号化処理に輝度の視覚周波数特性を基に算出されたサ
ブバンド対応の輝度の視覚周波数特性値を反映させ、前記色差信号の各サブバンドの符号
化処理に色差の視覚周波数特性を基に算出されたサブバンド対応の色差の視覚周波数特性
値を反映させる工程を実行させるプログラムであって、
前記色差の視覚周波数特性値を算出するために水平方向について参照される色差の視覚
周波数特性の周波数区間が、前記輝度の視覚周波数特性値を算出するために水平方向につ
いて参照される輝度の視覚周波数特性の周波数区間に対して、前記サブバンド分割の1デ
コンポジションレベル分だけ低域側にシフトした区間として設定されることを特徴とする
プログラムである。
According to the tenth aspect of the present invention, there is provided a computer in order to perform field-based subband encoding of a 4: 2: 2 format interlaced video signal.
A subband dividing step of dividing the luminance signal and the color difference signal in the interlaced video signal by the same number of times in the horizontal direction and the vertical direction.
An encoding process step for performing an encoding process on each subband of the luminance signal and the color difference signal obtained by subband division in the subband division step;
The luminance frequency frequency value corresponding to the subband calculated based on the luminance visual frequency characteristic is reflected in the encoding process of each subband of the luminance signal, and the color difference is applied to the encoding process of each subband of the color difference signal. A program for executing a step of reflecting the visual frequency characteristic value of the color difference corresponding to the subband calculated based on the visual frequency characteristic of
The frequency interval of the color difference visual frequency characteristic referred to in the horizontal direction to calculate the visual frequency characteristic value of the color difference is the luminance visual frequency referred to in the horizontal direction to calculate the visual frequency characteristic value of the luminance. The program is characterized in that it is set as a section shifted to the low frequency side by one decomposition level of the subband division with respect to the characteristic frequency section.

請求項11に係る発明は、4:2:2フォーマットのインターレース映像信号をフレー
ムベースでサブバンド符号化するため、コンピュータに、
前記インターレース映像信号中の色差信号を水平方向及び垂直方向に同じ回数サブバン
ド分割するサブバンド分割工程、
前記サブバンド分割工程によるサブバンド分割によって得られた前記色差信号の各サブ
バンドの符号化処理を行う符号化処理工程、
前記色差信号の各サブバンドの符号化処理に、色差の視覚周波数特性を基に算出された
サブバンド対応の色差の視覚周波数特性値を反映させる工程を実行させるプログラムであ
って、
前記色差の視覚周波数特性値を算出するために参照される色差の視覚周波数特性の周波
数区間は、垂直方向について参照される周波数区間が水平方向について参照される周波数
区間に対して前記サブバンド分割の1デコンポジションレベル分だけ高域側にシフトした
区間として設定されることを特徴とするプログラムである。
According to the eleventh aspect of the present invention, in order to subframe-encode an interlace video signal in 4: 2: 2 format on a frame basis,
A subband dividing step of dividing the color difference signal in the interlaced video signal by the same number of times in the horizontal direction and the vertical direction.
An encoding processing step for performing encoding processing of each subband of the color difference signal obtained by subband division by the subband division step;
A program for executing a process of reflecting the visual frequency characteristic value of the color difference corresponding to the subband calculated based on the visual frequency characteristic of the color difference in the encoding process of each subband of the color difference signal,
The frequency interval of the color difference visual frequency characteristic referred to in order to calculate the color difference visual frequency characteristic value is the frequency band referred to in the vertical direction of the subband division with respect to the frequency interval referred to in the horizontal direction. The program is set as a section shifted to the high frequency side by one decompression level.

請求項12に係る発明は、4:1:1フォーマットのインターレース映像信号をフレー
ムベースでサブバンド符号化するため、コンピュータに、
前記インターレース映像信号中の輝度信号及び色差信号を水平方向及び垂直方向に同じ
回数サブバンド分割するサブバンド分割工程、
前記サブバンド分割工程によるサブバンド分割によって得られた前記輝度信号及び前記
色差信号の各サブバンドの符号化処理を行う符号化処理工程、
前記輝度信号の各サブバンドの符号化処理に輝度の視覚周波数特性を基に算出されたサ
ブバンド対応の輝度の視覚周波数特性値を反映させ、前記色差信号の各サブバンドの符号
化処理に色差の視覚周波数特性を基に算出されたサブバンド対応の色差の視覚周波数特性
値を反映させる工程を実行させるプログラムであって、
前記色差の視覚周波数特性値を算出するために水平方向について参照される色差の視覚
周波数特性の周波数区間が、前記輝度の視覚周波数特性値を算出するために水平方向につ
いて参照される輝度の視覚周波数特性の周波数区間に対して、前記サブバンド分割の1デ
コンポジションレベル分だけ低域側にシフトした区間として設定されることを特徴とする
プログラムである。
In the invention according to claim 12 , in order to perform subband coding on a frame basis for an interlaced video signal in a 4: 1: 1 format,
A subband dividing step of dividing the luminance signal and the color difference signal in the interlaced video signal by the same number of times in the horizontal direction and the vertical direction.
An encoding process step for performing an encoding process on each subband of the luminance signal and the color difference signal obtained by subband division in the subband division step;
The luminance frequency frequency value corresponding to the subband calculated based on the luminance visual frequency characteristic is reflected in the encoding process of each subband of the luminance signal, and the color difference is applied to the encoding process of each subband of the color difference signal. A program for executing a step of reflecting the visual frequency characteristic value of the color difference corresponding to the subband calculated based on the visual frequency characteristic of
The frequency interval of the color difference visual frequency characteristic referred to in the horizontal direction to calculate the visual frequency characteristic value of the color difference is the luminance visual frequency referred to in the horizontal direction to calculate the visual frequency characteristic value of the luminance. The program is characterized in that it is set as a section shifted to the low frequency side by one decomposition level of the subband division with respect to the characteristic frequency section.

請求項13に係る発明は、4:2:2フォーマットのインターレース映像信号をフィー
ルドベースでサブバンド符号化するため、コンピュータに、
前記インターレース映像信号中の色差信号をデコンポジションレベル1に限り垂直方向
にのみサブバンド分割し、デコンポジションレベル2以上では水平方向及び垂直方向にサ
ブバンド分割するサブバンド分割工程、
前記サブバンド分割工程によるサブバンド分割によって得られた前記色差信号の各サブ
バンドの符号化処理を行う符号化処理工程、
前記色差信号の各サブバンドの符号化処理に、色差の視覚周波数特性を基に算出された
サブバンド対応の色差の視覚周波数特性値を反映させる工程を実行させるプログラムであ
って、
前記色差の視覚周波数特性値を算出するために参照される色差の視覚周波数特性の周波
数区間は、垂直方向について参照される周波数区間が、水平方向について参照される周波
数区間に対して前記サブバンド分割の1デコンポジションレベル分だけ低域側にシフトし
た区間として設定されることを特徴とするプログラムである。
According to the thirteenth aspect of the present invention, an interlace video signal in 4: 2: 2 format is subband encoded on a field basis.
A subband division step of dividing the color difference signal in the interlaced video signal into subbands only in the vertical direction only at the composition level 1, and subbanding in the horizontal direction and the vertical direction at the decomposition level 2 or higher;
An encoding processing step for performing encoding processing of each subband of the color difference signal obtained by subband division by the subband division step;
A program for executing a process of reflecting the visual frequency characteristic value of the color difference corresponding to the subband calculated based on the visual frequency characteristic of the color difference in the encoding process of each subband of the color difference signal,
The frequency section of the color difference visual frequency characteristic referred to in order to calculate the color difference visual frequency characteristic value is a frequency section referred to in the vertical direction, and the frequency band referred to in the horizontal direction is the subband division. This is a program characterized in that it is set as a section shifted to the low frequency side by one decompression level.

請求項14に係る発明は、4:1:1フォーマットのインターレース映像信号をフィー
ルドベースでサブバンド符号化するため、コンピュータに、
前記インターレース映像信号中の輝度信号及び色差信号を水平方向及び垂直方向にサブ
バンド分割し、ただし前記色差信号に対してはデコンポジションレベル1に限りサブバン
ド分割を行なわないサブバンド分割工程、
前記サブバンド分割工程によるサブバンド分割によって得られた前記輝度信号及び前記
色差信号の各サブバンドの符号化処理を行う符号化処理工程、
前記輝度信号の各サブバンドの符号化処理に輝度の視覚周波数特性を基に算出されたサ
ブバンド対応の輝度の視覚周波数特性値を反映させ、前記色差信号の各サブバンドの符号
化処理に色差の視覚周波数特性を基に算出されたサブバンド対応の色差の視覚周波数特性
値を反映させる工程を実行させるプログラムであって、
前記色差の視覚周波数特性値を算出するために参照される色差の視覚周波数特性の周波
数区間は、垂直方向について参照される周波数区間が、水平方向について参照される周波
数区間に対して前記サブバンド分割の1デコンポジションレベル分だけ低域側にシフトし
た区間として設定されることを特徴とするプログラムである。
According to the fourteenth aspect of the present invention, in order to perform field-based subband encoding of a 4: 1: 1 format interlaced video signal,
A subband dividing step of dividing the luminance signal and the color difference signal in the interlaced video signal in the horizontal direction and the vertical direction, but not performing the subband division on the color difference signal only at the decomposition level;
An encoding process step for performing an encoding process on each subband of the luminance signal and the color difference signal obtained by subband division in the subband division step;
The luminance frequency frequency value corresponding to the subband calculated based on the luminance visual frequency characteristic is reflected in the encoding process of each subband of the luminance signal, and the color difference is applied to the encoding process of each subband of the color difference signal. A program for executing a step of reflecting the visual frequency characteristic value of the color difference corresponding to the subband calculated based on the visual frequency characteristic of
The frequency section of the color difference visual frequency characteristic referred to in order to calculate the color difference visual frequency characteristic value is a frequency section referred to in the vertical direction, and the frequency band referred to in the horizontal direction is the subband division. This is a program characterized in that it is set as a section shifted to the low frequency side by one decompression level.

請求項15に係る発明は、請求項8乃至14のいずれか1項に係る発明のプログラム
が記録されたコンピュータが読み取り可能な情報記録媒体である。
A fifteenth aspect of the present invention is a computer-readable information recording medium on which the program according to any one of the eighth to fourteenth aspects is recorded.

請求項1に係る発明によれば、インターレース映像信号に対し、視覚周波数特性を適切に反映したフィールドベースのサブバンド符号化が可能である。 According to the first aspect of the present invention, field-based subband encoding that appropriately reflects visual frequency characteristics can be performed on an interlaced video signal.

請求項2に係る発明によれば、4:4:4フォーマット又は4:1:1フォーマットのインターレース映像信号に対し、視覚周波数特性を適切に反映したフィールドベースのサブバンド符号化が可能である。 According to the second aspect of the invention, it is possible to perform field-based subband encoding that appropriately reflects the visual frequency characteristics of an interlace video signal in 4: 4: 4 format or 4: 1: 1 format.

請求項3に係る発明によれば、4:2:2フォーマットのインターレース映像信号に対し、視覚周波数特性を適切に反映したフィールドベースのサブバンド符号化が可能である。 According to the third aspect of the present invention, field-based subband encoding that appropriately reflects visual frequency characteristics is possible for 4: 2: 2 format interlaced video signals.

請求項4に係る発明によれば、4:2:2フォーマットのインターレース映像信号に対し視覚周波数特性を適切に反映したフレームベースのサブバンド符号化が可能である。 According to the invention of claim 4, 4: 2: For 2 format interlaced video signal are possible adequately reflects frame-based subband coding and the visual frequency characteristic.

請求項5に係る発明によれば、4:1:1フォーマットのインターレース映像信号に対し視覚周波数特性を適切に反映したフレームベースのサブバンド符号化が可能である。 According to the fifth aspect of the invention, it is possible to perform frame-based subband coding that appropriately reflects the visual frequency characteristics for an interlaced video signal in the 4: 1: 1 format.

請求項6に係る発明によれば、4:2:2フォーマットのインターレース映像信号に対
し、サブバンド分割に”簡易”ウェーブレット変換などを用い、視覚周波数特性を適切に
反映したフィールドベースのサブバンド符号化が可能である。
According to the sixth aspect of the present invention, a field-based subband code that appropriately reflects the visual frequency characteristics by using a “simple” wavelet transform or the like for subband division for a 4: 2: 2 format interlaced video signal. Is possible.

請求項7に係る発明によれば、4:1:1フォーマットのインターレース映像信号に対
し、サブバンド分割に”簡易”ウェーブレット変換などを用い、視覚周波数特性を適切に
反映したフィールドベースのサブバンド符号化が可能である。
According to the seventh aspect of the present invention, a field-based subband code that appropriately reflects visual frequency characteristics by using a “simple” wavelet transform or the like for subband division with respect to an interlaced video signal of 4: 1: 1 format. Is possible.

請求項8に係る発明によれば、コンピュータを利用し、インターレース映像信号に対
し視覚周波数特性を適切に反映したフィールドベースのサブバンド符号化を実行可能であ
る。
According to the eighth aspect of the present invention, it is possible to execute field-based subband encoding that appropriately reflects the visual frequency characteristics of an interlaced video signal using a computer.

請求項9に係る発明によれば、コンピュータを利用し、4:4:4フォーマット又は
4:1:1フォーマットのインターレース映像信号に対し、視覚周波数特性を適切に反映
したフィールドベースのサブバンド符号化を実行可能である。
According to the ninth aspect of the present invention, field-based subband encoding that appropriately reflects visual frequency characteristics is applied to an interlace video signal in 4: 4: 4 format or 4: 1: 1 format using a computer. Can be executed.

請求項10に係る発明によれば、コンピュータを利用し、4:2:2フォーマットのイ
ンターレース映像信号に対し、視覚周波数特性を適切に反映したフィールドベースのサブ
バンド符号化を実行可能である。
According to the tenth aspect of the present invention, it is possible to perform field-based subband encoding that appropriately reflects the visual frequency characteristics of a 4: 2: 2 format interlaced video signal using a computer.

請求項11に係る発明によれば、コンピュータを利用し、4:2:2フォーマットのイ
ンターレース映像信号中の色差信号に対し、視覚周波数特性を適切に反映したフレームベ
ースのサブバンド符号化を実行可能である。
According to the eleventh aspect of the present invention, it is possible to execute frame-based subband encoding that appropriately reflects the visual frequency characteristics of the color difference signal in the interlaced video signal of 4: 2: 2 format using a computer. It is.

請求項12に係る発明によれば、コンピュータを利用し、4:1:1フォーマットのイ
ンターレース映像信号に対し、視覚周波数特性を適切に反映したフレームベースのサブバ
ンド符号化を実行可能である。
According to the twelfth aspect of the present invention, it is possible to execute frame-based subband encoding that appropriately reflects the visual frequency characteristics of an interlaced video signal of 4: 1: 1 format using a computer.

請求項13に係る発明によれば、コンピュータを利用し、4:2:2フォーマットのイ
ンターレース映像信号に対し、サブバンド分割に”簡易”ウェーブレット変換などを用い
、視覚周波数特性を適切に反映したフィールドベースのサブバンド符号化を実行可能であ
る。
According to the thirteenth aspect of the present invention, a field in which visual frequency characteristics are appropriately reflected using a “simple” wavelet transform or the like for subband division for a 4: 2: 2 format interlaced video signal using a computer. Base subband coding can be performed.

請求項14に係る発明によれば、コンピュータを利用し、4:1:1フォーマットのイ
ンターレース映像信号に対し、サブバンド分割に”簡易”ウェーブレット変換などを用い
、視覚周波数特性を適切に反映したフィールドベースのサブバンド符号化を実行可能であ
る。
According to the fourteenth aspect of the present invention, a field in which visual frequency characteristics are appropriately reflected using a “simple” wavelet transform or the like for subband division of a 4: 1: 1 format interlaced video signal using a computer. Base subband coding can be performed.

図17は、本発明の一実施形態に係る符号化装置のブロック図である。本実施形態に係る符号化装置は、JPEG2000の符号化アルゴリズムにより符号化処理を実行するものであり、DCレベルシフト・色変換ブロック200、ウェーブレット変換ブロック201、量子化ブロック202、エントロピー符号化フロック203、パケット生成ブロック204、符号形成ブロック205、以上の各ブロックの動作を制御する制御ブロック206を備える。   FIG. 17 is a block diagram of an encoding apparatus according to an embodiment of the present invention. The encoding apparatus according to the present embodiment executes encoding processing using a JPEG2000 encoding algorithm, and includes a DC level shift / color conversion block 200, a wavelet conversion block 201, a quantization block 202, and an entropy encoding block 203. , A packet generation block 204, a code formation block 205, and a control block 206 for controlling the operation of each of the above blocks.

DCレベルシフト・色変換ブロック200は入力映像信号の表色系によっては不要な要
素である。ウェーブレット変換ブロック201は請求項1〜16に係る発明のサブバンド
分割手段を構成する要素である。量子化ブロック202,エントロピー符号化ブロック2
03、パケット生成ブロック204及び符号形成ブロック205は、請求項1〜8に係る
発明の符号化処理手段を構成する要素である。
The DC level shift / color conversion block 200 is an unnecessary element depending on the color system of the input video signal. The wavelet transform block 201 is an element constituting the subband dividing means of the inventions according to claims 1 to 16. Quantization block 202, entropy coding block 2
03, the packet generation block 204 and the code forming block 205 are elements constituting the encoding processing means of the inventions according to claims 1 to 8 .

また、制御ブロック206は、前述した本発明に特有の制御を行うための手段も備える。この本発明に特有の制御とは、下記実施例に関連して詳細に説明するように、量子化ブロック202における線形量子化に用いられる量子化ステップ数の制御、エントロピー符号化ブロック203又はパケット生成ブロック204において係数又は符号のトランケーションが行われる場合のトランケート数(破棄されるビットプレーン数又はサブビットプレーン数)の制御、あるいは、パケット生成ブロック204においてラグランジェレート制御が行われる場合のディストーションスロープの制御である。   The control block 206 also includes means for performing the control specific to the present invention described above. The control specific to the present invention is the control of the number of quantization steps used for linear quantization in the quantization block 202, the entropy coding block 203 or the packet generation, as will be described in detail with reference to the following embodiments. Control of truncation number (number of discarded bit planes or sub bit planes) when coefficient or code truncation is performed in block 204 or distortion slope when Lagrange rate control is performed in packet generation block 204 Control.

このような本発明に特有の制御を実行するため、本実施形態に係る制御ブロック206には、図10〜図14に示したようなVisual Weightを格納したVisualWeightテーブル207と、JPEG2000の符号化装置における線形量子化に通常使用される図30に示すような量子化ステップ数(基準量子化ステップ数と呼ぶ)を格納した基準量子化ステップ数テーブル208と、量子化ステップ数制御手段209と、トランケート数制御手段210、スロープ制御手段211が含まれている。   In order to execute such control peculiar to the present invention, the control block 206 according to the present embodiment includes a VisualWeight table 207 storing Visual Weight as shown in FIGS. 10 to 14 and a JPEG2000 encoding device. 30, a reference quantization step number table 208 storing quantization step numbers (referred to as reference quantization step numbers) normally used for linear quantization, a quantization step number control means 209, and a truncate Number control means 210 and slope control means 211 are included.

量子化ステップ数制御手段209は、基準量子化ステップ数テーブル208より読み込んだ基準量子化ステップ数をそのまま量子化ブロック202に設定し、あるいは、VisualWeightテーブル207より読み込んだVisual Weightを用いて基準量子化ステップ数を修正し、修正後の量子化ステップ数を量子化ブロック202に設定する手段である。トランケート数制御手段210は、VisualWeightテーブル207より読み込んだVisual Weightをビットプレーン単位又はサブビットプレーン単位のトランケート数に換算し、そのトランケート数をエントロピー符号化ブロック203又はパケット生成ブロック204に設定する手段である。スロープ制御手段211は、エントロピー符号化ブロック203において算出されたディストーションスロープを、VisualWeightテーブル207より読み込んだVisual Weightを用いて修正し、修正後のディストーションスロープをパケット生成ブロック204に設定する手段である。 The quantization step number control means 209 sets the reference quantization step number read from the reference quantization step number table 208 in the quantization block 202 as it is, or uses the Visual Weight read from the VisualWeight table 207 as a reference quantization. This is means for correcting the number of steps and setting the corrected number of quantization steps in the quantization block 202. The truncation number control means 210 is a means for converting the Visual Weight read from the VisualWeight table 207 into a truncation number in bit plane units or sub bit plane units, and setting the truncation number in the entropy encoding block 203 or the packet generation block 204. is there. The slope control unit 211 is a unit that corrects the distortion slope calculated in the entropy encoding block 203 using the Visual Weight read from the VisualWeight table 207 and sets the corrected distortion slope in the packet generation block 204.

このような手段207,208,209,210,211は、請求項1〜7に係る発明
における「輝度信号又は色差信号のサブバンドの符号化処理にサブバンド対応の輝度又は
色差の視覚周波数特性値を反映させる手段」を構成するものである。
Such means 207, 208, 209, 210, 211 are the visual frequency characteristic values of luminance or color difference corresponding to subbands in the subband coding processing of luminance signal or color difference signal in the inventions according to claims 1 to 7. "Means for reflecting".

なお、符号化の対象となる映像信号はRGB値で与えられている場合と、輝度・色差であるYCbCr値であたえられる場合とがある。例えば「444または411フォーマットの映像信号」と明示している場合には、その映像信号はYCbCr値として与えられることを想定し、そうでない場合はRGB値、YCbCr値の両方を対象とする。JPEG2000では、入力画像がRGBデータの場合は、通常、DCレベルシフトと輝度Y・色差Cb,Crへの色変換を行ってからコンポーネント毎に処理を行い、入力画像がYCbCrデータの場合はDCレベルシフトも色変換をしないで処理を行う。   Note that the video signal to be encoded may be given as an RGB value, or may be given as a YCbCr value that is a luminance / color difference. For example, when “444 or 411 format video signal” is specified, it is assumed that the video signal is given as a YCbCr value. Otherwise, both the RGB value and the YCbCr value are targeted. In JPEG2000, when the input image is RGB data, processing is usually performed for each component after DC level shift and color conversion to luminance Y / color differences Cb and Cr. When the input image is YCbCr data, the DC level is used. Shift is also performed without color conversion.

[JPEG2000の概要]
ここで、JPEG2000の概要を説明する。例えばRGBの3コンポ−ネントで構成されるカラー画像の圧縮時には、DCレベル・色変換ブロック200においてDCレベルシフトが行われた後に輝度Yと色差Cb,Crのコンポ−ネントへの色変換(コンポーネント変換)が行われる。これら各コンポーネントに対しウェーブレット変換ブロック201でウェーブレット変換によるサブバンド分割が行われ、各サブバンド係数は、必要に応じて量子化ブロック202で線形量子化(スカラー量子化)を施された後、エントロピー符号化ブロック203でビットプレーンを単位としたエントロピー符号化がなされる(より正確にはビットプレーンは3つのサブビットプレーンに細分化されて符号化される)。JPEG2000では、このエントロピー符号化には、MQ符号化と呼ばれる算術符号化が用いられる。パケット生成ブロック204により、必要なエントロピー符号(MQ符号)をまとめたパケットが生成され、符号形成ブロック205によりパケットが所定の順番に配列されるとともに必要なタグ又はタグ情報が付加されることにより所定フォーマットのコードストリームが形成される。
[Outline of JPEG2000]
Here, an outline of JPEG2000 will be described. For example, when a color image composed of three RGB components is compressed, the DC level / color conversion block 200 performs a DC level shift, and then color conversion (components) of luminance Y and color differences Cb and Cr into components. Conversion). Each of these components is subjected to subband division by wavelet transform in the wavelet transform block 201, and each subband coefficient is subjected to linear quantization (scalar quantization) in the quantization block 202 as necessary, and then entropy. The encoding block 203 performs entropy encoding in units of bit planes (more precisely, the bit plane is subdivided into three sub-bit planes and encoded). In JPEG 2000, arithmetic coding called MQ coding is used for this entropy coding. The packet generation block 204 generates a packet in which necessary entropy codes (MQ codes) are collected, and the code formation block 205 arranges the packets in a predetermined order and adds a necessary tag or tag information. A code stream of the format is formed.

コードストリームの伸張処理は圧縮処理と丁度逆の処理となる。コードストリーム中の各コンポーネントの符号は、エントロピー復号されてウェーブレット係数に戻される。このウェーブレット係数は、必要に応じて逆量子化された後に、ウェーブレット逆変換を施されることにより各コンポーネントの画像データに戻される。この各コンポーネントの画像データは、圧縮時にDCレベルシフトと色変換が行われているときには逆色変換及び逆DCレベルシフトにより元の表色系の画像データに戻される。   The code stream decompression process is exactly the reverse of the compression process. The code of each component in the code stream is entropy decoded and returned to wavelet coefficients. The wavelet coefficients are inversely quantized as necessary and then subjected to inverse wavelet transform to be returned to the image data of each component. The image data of each component is returned to the original color system image data by reverse color conversion and reverse DC level shift when DC level shift and color conversion are performed at the time of compression.

なお、JPEG2000におけるDCレベルシフト(順変換)と逆DCレベルシフト(逆変換)は次式の通りである。
順変換 I(x,y) ← I(x,y)−2^Ssiz(i)
逆変換 I(x,y) ← I(x,y)+2^Ssiz(i)
ただし、Ssiz(i)は原画像の各コンポーネントi(RGB画像ならi=0、1、2)のビット深さから1を減じたものである。また、2^Ssiz(i)は2のSsiz(i)乗を意味しており、I(x,y)は座標(x,y)における原信号値(画素値)である。
Note that the DC level shift (forward conversion) and the reverse DC level shift (reverse conversion) in JPEG 2000 are as follows.
Forward conversion I (x, y) ← I (x, y) -2 ^ Ssiz (i)
Inverse transformation I (x, y) ← I (x, y) + 2 ^ Ssiz (i)
However, Ssiz (i) is obtained by subtracting 1 from the bit depth of each component i of the original image (i = 0, 1, 2 for RGB images). 2 ^ Ssiz (i) means 2 to the power of Ssiz (i), and I (x, y) is an original signal value (pixel value) at coordinates (x, y).

DCレベルシフトは、RGB値のような正の数をとる信号に対して適用されるもので、各信号値から信号のダイナミックレンジの半分を減算する操作である、逆DCレベルシフトは各信号値に信号のダイナミックレンジの半分を加算する操作である。YCbCr信号のCb、Cr信号のような符号付き整数にはDCレベルシフトは適用されない。   The DC level shift is applied to a signal that takes a positive number such as an RGB value, and is an operation of subtracting half of the dynamic range of the signal from each signal value. Is the operation of adding half of the dynamic range of the signal. DC level shift is not applied to signed integers such as Cb and Cr signals of YCbCr signals.

また、JPEG2000ではコンポ−ネント変換(色変換)として可逆変換(RCT)と非可逆変換(ICT)が定義されている。   JPEG2000 defines reversible conversion (RCT) and irreversible conversion (ICT) as component conversion (color conversion).

RCTの順変換と逆変換は次式で表される。
順変換
Y0(x,y)=floor((I0(x,y)+2*(I1(x,y)+I2(x,y))/4)
Y1(x,y)=I2(x,y)-I1(x,y)
Y2(x,y)=I0(x,y)-I1(x,y)
逆変換
I1(x,y)=Y0(x,y)-floor((Y2(x,y)+Y1(x,y))/4)
I0(x,y)=Y2(x,y)+I1(x,y)
I2(x,y)=Y1(x,y)+I1(x,y)
式中のIは原信号、Yは変換後の信号を示し、IやYに続く0〜2はサフィックスである。RGB信号ならばI信号においてI0=R、I1=G、I2=B、Y信号においてY0=Y、Y1=Cb、Y2=Crと表される。またfloor(X)は実数Xを、Xを越えず、かつ、Xに最も近い整数に置換する関数である。
RCT forward and inverse transforms are expressed by the following equations.
Forward conversion Y0 (x, y) = floor ((I0 (x, y) + 2 * (I1 (x, y) + I2 (x, y)) / 4)
Y1 (x, y) = I2 (x, y) -I1 (x, y)
Y2 (x, y) = I0 (x, y) -I1 (x, y)
Inverse transformation I1 (x, y) = Y0 (x, y) -floor ((Y2 (x, y) + Y1 (x, y)) / 4)
I0 (x, y) = Y2 (x, y) + I1 (x, y)
I2 (x, y) = Y1 (x, y) + I1 (x, y)
In the equation, I represents an original signal, Y represents a signal after conversion, and 0 to 2 following I and Y are suffixes. For RGB signals, I0 = R, I1 = G, I2 = B in the I signal, and Y0 = Y, Y1 = Cb, Y2 = Cr in the Y signal. Floor (X) is a function that replaces the real number X with an integer that does not exceed X and is closest to X.

ICTの順変換と逆変換は次式で表される。
順変換
Y0(x,y)=0.299*I0(x,y)+0.587*I1(x,y)+0.144*I2(x,y)
Y1(x,y)=-0.16875*I0(x,y)-0.33126*I1(x,y)+0.5*I2(x,y)
Y2(x,y)=0.5*I0(x,y)-0.41869*I1(x,y)-0.08131*I2(x,y)
逆変換
I0(x,y)=Y0(x,y)+1.402*Y2(x,y)
I1(x,y)=Y0(x,y)-0.34413*Y1(x,y)-0.71414*Y2(x,y)
I2(x,y)=Y0(x,y)+1.772*Y1(x,y)
式中のIは原信号、Yは変換後の信号を示す。RGB信号ならばI信号においてI0=R、I1=G、I2=B、Y信号においてI0=Y、I1=Cb、I2=Crと表される。
The forward conversion and the reverse conversion of ICT are expressed by the following equations.
Forward conversion Y0 (x, y) = 0.299 * I0 (x, y) + 0.587 * I1 (x, y) + 0.144 * I2 (x, y)
Y1 (x, y) =-0.16875 * I0 (x, y) -0.33126 * I1 (x, y) + 0.5 * I2 (x, y)
Y2 (x, y) = 0.5 * I0 (x, y) -0.41869 * I1 (x, y) -0.08131 * I2 (x, y)
Inverse transformation I0 (x, y) = Y0 (x, y) + 1.402 * Y2 (x, y)
I1 (x, y) = Y0 (x, y) -0.34413 * Y1 (x, y) -0.71414 * Y2 (x, y)
I2 (x, y) = Y0 (x, y) + 1.772 * Y1 (x, y)
In the equation, I represents an original signal, and Y represents a signal after conversion. For RGB signals, I0 = R, I1 = G, I2 = B in the I signal, and I0 = Y, I1 = Cb, I2 = Cr in the Y signal.

さて、JPEG2000においては、量子化とエントロピー符号化は緊密な関係にあり、量子化後に符号化する構成も、符号化後に不要なビットプレーン又はサブビットプレーンの符号を破棄する構成(あるいは必要なビットプレーン又はサブビットプレーンのみ符号化する構成)も存在する。   In JPEG2000, quantization and entropy coding are closely related, and the configuration for encoding after quantization is the configuration for discarding unnecessary bitplane or subbitplane codes after encoding (or necessary bits). There is also a configuration in which only a plane or a sub-bit plane is encoded.

線形量子化による量子化の場合は、ウェーブレット係数に公知の線形量子化を施し、量子化後の係数で構成されるビットプレーンをエントロピー符号化する。   In the case of quantization by linear quantization, publicly known linear quantization is performed on the wavelet coefficients, and a bit plane composed of the quantized coefficients is entropy encoded.

線形量子化をしない場合には、不要なビットプレーン又はサブビットプレーンの符号を破棄(トランケート)する、あるいは、必要なビットプレーン又はサブビットプレーンのみ符号化する(残りの下位のビットプレーン又はサブビットプレーンを破棄する)構成となる。本願においては、不要な(サブ)ビットプレーンを除いた必要な(サブ)ビットプレーンのみを符号化する場合と、符号化後に不要な(サブ)ビットプレーンの符号を破棄する場合をまとめてトランケーションと呼び、破棄された、あるいは不要とされたビットプレーン数(又はサブビットプレーン数)をトランケート数と呼ぶ。   Without linear quantization, discard (truncate) the code of unnecessary bitplanes or subbitplanes, or encode only the necessary bitplanes or subbitplanes (the remaining lower bitplanes or subbits) The configuration is such that the plane is discarded. In the present application, truncation includes a case where only necessary (sub) bitplanes except unnecessary (sub) bitplanes are encoded and a case where unnecessary (sub) bitplane codes are discarded after encoding. The number of bit planes (or the number of sub bit planes) called, discarded, or made unnecessary is called the number of truncations.

なお、JPEG2000では、5×3ウェーブレット変換を使用する場合は線形量子化を適用できず、トランケーションのみを行う仕様となっている。本願では、線形量子化およびトランケーションを共に量子化と呼ぶことがある。また、係数自体の非線形量子化が許容されている符号化方式の場合には、この非線形量子化も本願で言う量子化に包含されるものである。   In JPEG2000, when 5 × 3 wavelet transform is used, linear quantization cannot be applied, and only truncation is performed. In this application, both linear quantization and truncation may be referred to as quantization. In addition, in the case of an encoding method in which nonlinear quantization of the coefficient itself is allowed, this nonlinear quantization is also included in the quantization referred to in the present application.

ここで、5×3ウェーブレット変換とは、5画素を用いて1つのローパスフィルタの出力(ローパス係数)が得られ、3画素を用いて1つのハイパスフィルタの出力(ハイパス係数)が得られる変換である。JPEG2000では9×7ウェーブレット変換も規定されている。この9×7ウェーブレット変換は、9画素を用いて1つのローパスフィルタの出力(ローパス係数)が得られ、7画素を用いて1つのハイパスフィルタの出力(ハイパス係数)が得られる変換である。5×3ウェーブレット変換と9×7ウェーブレット変換の主な違いはフィルタの範囲の違いであり、偶数位置中心にローパスフィルタが、奇数位置中心にハイパスフィルタが施されることは同様である。   Here, the 5 × 3 wavelet transform is a conversion in which 5 pixels are used to obtain one low-pass filter output (low-pass coefficient), and 3 pixels are used to obtain one high-pass filter output (high-pass coefficient). is there. JPEG2000 also defines 9 × 7 wavelet transform. This 9 × 7 wavelet transform is a transform that obtains the output (low-pass coefficient) of one low-pass filter using 9 pixels, and obtains the output (high-pass coefficient) of one high-pass filter using 7 pixels. The main difference between the 5 × 3 wavelet transform and the 9 × 7 wavelet transform is the difference in the filter range, and the low pass filter is applied to the center of the even position and the high pass filter is applied to the center of the odd position.

5×3ウェーブレット変換の変換式は次の通りである。
(順変換)
[step1] C(2i+1)=P(2i+1)−floor((P(2i)+P(2i+2))/2)
[step2] C(2i)=P(2i)+floor(((C(2i-1)+C(2i+1)+2)/4)
(逆変換)
[step1] P(2i)=C(2i)−floor((C(2i-1)+C(2i+1)+2)/4)
[step2] P(2i+1)=C(2i+1)+floor((P(2i)+P(2i+2))/2)。
The conversion formula of the 5 × 3 wavelet transform is as follows.
(Forward conversion)
[step1] C (2i + 1) = P (2i + 1) −floor ((P (2i) + P (2i + 2)) / 2)
[step2] C (2i) = P (2i) + floor (((C (2i-1) + C (2i + 1) +2) / 4)
(Inverse transformation)
[step1] P (2i) = C (2i) −floor ((C (2i-1) + C (2i + 1) +2) / 4)
[step2] P (2i + 1) = C (2i + 1) + floor ((P (2i) + P (2i + 2)) / 2).

9×7ウェーブレット変換の変換式は次のとおりである。
(順変換)
[step1] C(2n+1)=P(2n+1)+α*(P(2n)+P(2n+2))
[step2] C(2n)=P(2n)+β*(C(2n-1)+C(2n+1))
[step3] C(2n+1)=C(2n+1)+γ*(C(2n)+C(2n+2))
[step4] C(2n)=C(2n)+δ*(C(2n-1)+C(2n+1))
[step5] C(2n+1)=K*C(2n+1)
[step6] C(2n)=(1/K)*C(2n)
(逆変換)
[step1] P(2n)=K*C(2n)
[step2] P(2n+1)=(1/K)*C(2n+1)
[step3] P(2n)=X(2n)-δ*(P(2n-1)+P(2n+1))
[step4] P(2n+1)=P(2n+1)-γ*(P(2n)+P(2n+2))
[step5] P(2n)=P(2n)-β*(P(2n-1)+P(2n+2))
[step6] P(2n)=P(2n+1)-α*(P(2n)+P(2n+2))
ただし、 α=-1.586134342059924
β=-0.052980118572961
γ=0.882911075530934
δ=0.443506852043971
K=1.230174104914001
次に、ウェーブレット変換の手順およびデコンポジションレベル、解像度レベル、サブバンドの定義について説明する。
The conversion formula of 9 × 7 wavelet transform is as follows.
(Forward conversion)
[step1] C (2n + 1) = P (2n + 1) + α * (P (2n) + P (2n + 2))
[step2] C (2n) = P (2n) + β * (C (2n-1) + C (2n + 1))
[step3] C (2n + 1) = C (2n + 1) + γ * (C (2n) + C (2n + 2))
[step4] C (2n) = C (2n) + δ * (C (2n-1) + C (2n + 1))
[step5] C (2n + 1) = K * C (2n + 1)
[step6] C (2n) = (1 / K) * C (2n)
(Inverse transformation)
[step1] P (2n) = K * C (2n)
[step2] P (2n + 1) = (1 / K) * C (2n + 1)
[step3] P (2n) = X (2n) -δ * (P (2n-1) + P (2n + 1))
[step4] P (2n + 1) = P (2n + 1) -γ * (P (2n) + P (2n + 2))
[step5] P (2n) = P (2n) -β * (P (2n-1) + P (2n + 2))
[step6] P (2n) = P (2n + 1) -α * (P (2n) + P (2n + 2))
However, α = -1.586134342059924
β = -0.052980118572961
γ = 0.882911075530934
δ = 0.443506852043971
K = 1.230174104914001
Next, the wavelet transform procedure and the definition of the composition level, resolution level, and subband will be described.

図18〜図21は、16×16のモノクロの画像に対して5×3ウェーブレット変換を2次元(垂直方向および水平方向)に施す過程を説明するための図である。   18 to 21 are diagrams for explaining a process of performing 5 × 3 wavelet transform in two dimensions (vertical direction and horizontal direction) on a 16 × 16 monochrome image.

図18の様にXY座標をとり、あるX座標xについて、Y座標がyである画素の画素値をP(y)(0≦y≦15)と表す。JPEG2000では、まず垂直方向(Y座標方向)に、Y座標が奇数(y=2i+1)の画素を中心にハイパスフィルタを施して係数C(2i+1)を得る。次にY座標が偶数(y=2i)の画素を中心にローパスフィルタを施して係数C(2i)を得る(これを全てのX座標について行う)。ここで、ハイパスフィルタは前記順変換の[step1]式で表され、ローパスフィルタは前記順変換の[step2]式で表される。なお、画像の端部においては中心となる画素に対して隣接画素が存在しないことがあり、この場合は所定のルールによって適宜画素値を補うことになる。   As shown in FIG. 18, XY coordinates are taken, and a pixel value of a pixel having a Y coordinate y is expressed as P (y) (0 ≦ y ≦ 15) with respect to a certain X coordinate x. In JPEG2000, a coefficient C (2i + 1) is obtained by first applying a high-pass filter in the vertical direction (Y-coordinate direction) around an odd-numbered pixel (y = 2i + 1). Next, a coefficient C (2i) is obtained by applying a low-pass filter around the pixel having an even Y coordinate (y = 2i) (this is performed for all X coordinates). Here, the high-pass filter is represented by the above-described forward conversion [step 1], and the low-pass filter is represented by the forward conversion [step 2]. Note that there may be no adjacent pixel at the edge of the image with respect to the central pixel. In this case, the pixel value is appropriately compensated according to a predetermined rule.

簡単のため、ハイパスフィルタで得られる係数をH、ローパスフィルタで得られる係数をLと表記すれば、前記垂直方向の変換によって図18の画像は図19のようなL係数、H係数の配列へと変換される。   For simplicity, if the coefficient obtained by the high-pass filter is denoted by H and the coefficient obtained by the low-pass filter is denoted by L, the image in FIG. 18 is converted into an array of L and H coefficients as shown in FIG. Is converted.

続いて、図19の係数配列に対して、水平方向に、X座標が奇数(y=2i+1)の係数を中心にハイパスフィルタを施し、次にX座標が偶数(x=2i)の係数を中心にローパスフィルタを施す(これを全てのY座標について行う。この場合、前記順変換の[step1]式、[step2]式のP(2i)等は係数値を表すものと読み替える)。   Subsequently, a high-pass filter is applied to the coefficient array in FIG. 19 around the coefficient whose X coordinate is odd (y = 2i + 1) in the horizontal direction, and then the coefficient whose X coordinate is even (x = 2i). (This is performed for all the Y coordinates. In this case, P (2i) and the like in [step 1] and [step 2] of the forward transformation are read as representing coefficient values).

簡単のため、
前記L係数を中心にローパスフィルタを施して得られる係数をLL、
前記L係数を中心にハイパスフィルタを施して得られる係数をHL、
前記H係数を中心にローパスフィルタを施して得られる係数をLH、
前記H係数を中心にハイパスフィルタを施して得られる係数をHH、
と表記すれば、図19の係数配列は図20の様な係数配列へと変換される。ここで同一の記号を付した係数群はサブバンドと呼ばれる。図20の例は4つのサブバンドで構成される。
For simplicity,
The coefficient obtained by applying a low pass filter around the L coefficient is LL,
The coefficient obtained by applying a high-pass filter around the L coefficient is HL,
The coefficient obtained by applying a low-pass filter around the H coefficient is LH,
The coefficient obtained by applying a high-pass filter around the H coefficient is HH,
19 is converted into a coefficient array as shown in FIG. Here, the coefficient group to which the same symbol is attached is called a subband. The example of FIG. 20 includes four subbands.

以上で、垂直・水平の各方向に対して各1回のウェーブレット変換(1回のデコンポジション(分解))が終了し、上記LL係数だけを集めると(図21の様にサブバンド毎に集め、LLサブバンドだけ取り出すと)、ちょうど原画像の1/2の解像度の“画像”が得られる(このように、サブバンド毎に分類することをデインターリーブと呼び、図20のような状態に配置することをインターリーブという)。   This completes one wavelet transform (one decomposition (decomposition)) for each of the vertical and horizontal directions. When only the LL coefficients are collected (collected for each subband as shown in FIG. 21). , Subtracting only the LL subband), an “image” having a resolution of 1/2 of the original image is obtained (in this way, classifying each subband is called deinterleaving, and the state shown in FIG. 20 is obtained. Placement is called interleaving).

2回目のウェーブレット変換は、上記LLサブバンドを原画像と見なして、上記と同様の変換を行えばよい。この場合、デインターリーブをすると模式的な図22が得られる。なお、図21及び図22に示した係数の接頭の数字は、水平・垂直に関し各何回のウェーブレット変換で該係数が得られたかを示しており、デコンポジションレベルと呼ばれる。また、デコンポジションレベルとほぼ逆の関係にある解像度レベルを図23に示す。   The second wavelet transform may be performed in the same manner as described above with the LL subband as the original image. In this case, when deinterleaving is performed, a schematic FIG. 22 is obtained. The prefix numbers of the coefficients shown in FIG. 21 and FIG. 22 indicate how many times the wavelet transform has been obtained with respect to the horizontal and vertical directions, and are called decomposition levels. Further, FIG. 23 shows resolution levels that are substantially opposite to the decomposition levels.

なお、以上の議論において、1次元のみのウェーブレット変換をしたい場合には、いずれかの方向だけの処理を行えばよく、いずれかの方向に関してウェーブレット変換を行った回数がデコンポジションレベルとなる。   In the above discussion, when one-dimensional wavelet transformation is desired, processing in only one direction may be performed, and the number of times wavelet transformation has been performed in any direction becomes the decomposition level.

一方、ウェーブレット逆変換は、図20の様なインターリーブされた係数の配列に対して、まず水平方向に、X座標が偶数(x=2i)の係数を中心に逆ローパスフィルタを施し、次にX座標が奇数(x=2i+1)の係数を中心に逆ハイパスフィルタを施す(これを全てのyについて行う)。ここで、逆ローパスフィルタは前記逆変換の[step1]式で表され、逆ハイパスフィルタは前記逆変換の[step2]式で表される。画像の端部においては中心となる係数に対して隣接係数が存在しないことがあるが、この場合は所定のルールによって適宜係数値を補うことになる。   On the other hand, in the wavelet inverse transform, an inverse low-pass filter is first applied to the array of interleaved coefficients as shown in FIG. 20 in the horizontal direction, centering on coefficients whose X coordinates are even (x = 2i), and then X An inverse high-pass filter is applied around the coefficient whose coordinates are odd (x = 2i + 1) (this is performed for all y). Here, the inverse low-pass filter is represented by the inverse transformation [step 1] equation, and the inverse high-pass filter is represented by the inverse transformation [step 2] equation. In the end portion of the image, there may be no adjacent coefficient for the central coefficient. In this case, the coefficient value is appropriately supplemented by a predetermined rule.

以上の水平方向の処理により、図20の係数配列は図19のような係数配列に変換(逆変換)される。続いて、垂直方向に、Y座標が偶数(y=2i)の係数を中心に逆ローパスフィルタを施し、次にY座標が奇数(y=2i+1)の係数を中心に逆ハイパスフィルタを施す。この処理を全てのX座標について行うことにより、1回の2次元ウェーブレット逆変換が終了し、図19の画像に戻る(再構成される)。なお、ウェーブレット変換が複数回施されている場合は、図18をLLサブバンドとみなし、同じデコンポジションレベルのHL等の他のサブバンドの係数を利用して同様の逆変換を繰り返すことになる。   By the above horizontal processing, the coefficient array in FIG. 20 is converted (inversely converted) into a coefficient array as shown in FIG. Subsequently, in the vertical direction, an inverse low-pass filter is applied centering on a coefficient whose Y coordinate is an even number (y = 2i), and then an inverse high-pass filter is applied centering on a coefficient whose Y coordinate is an odd number (y = 2i + 1). . By performing this process for all the X coordinates, one-time two-dimensional wavelet inverse transformation is completed, and the image of FIG. 19 is restored (reconstructed). If the wavelet transform is performed a plurality of times, FIG. 18 is regarded as an LL subband, and the same inverse transform is repeated using coefficients of other subbands such as HL of the same composition level. .

前述の様に、5×3ウェーブレット変換を利用した場合には、サブバンドを構成する係数の線形量子化は行われない。一方、9×7ウェーブレット変換の場合は、各サブバンドごとに、ウェーブレット係数を線形(スカラー)量子化することができ、この場合、同一サブバンド内では同一の量子化ステップ数を用いる。   As described above, when the 5 × 3 wavelet transform is used, linear quantization of the coefficients constituting the subband is not performed. On the other hand, in the case of 9 × 7 wavelet transform, wavelet coefficients can be linearly (scalar) quantized for each subband, and in this case, the same number of quantization steps is used in the same subband.

次に、ウェーブレット係数のエントロピー符号化に関して説明する。各サブバンドはコードブロックと呼ばれる矩形に分割され、コードブロックの単位で係数のビットプレーン符号化が行われる。JPEG2000では、サブバンドごとに、係数を上位ビット(MSB)から下位ビット(LSB)まで、サブビットプレーン単位で符号化することが可能である。   Next, entropy coding of wavelet coefficients will be described. Each subband is divided into rectangles called code blocks, and coefficient bit-plane coding is performed in units of code blocks. In JPEG2000, it is possible to encode the coefficient from the upper bit (MSB) to the lower bit (LSB) in units of subbit planes for each subband.

今、図22の2LLサブバンドの係数が図24に示す値をとったとする。これらの値を2進数で表現し、ビットごとに分けたものがビットプレーンである。図24の係数は、図25に示す4枚のビットプレーンに分けることができる。15の二進表現は”1111”であるから、全てのビットプレーンの値”15”の係数に対応する位置に”1”が立つことになる。   Assume that the coefficients of the 2LL subband in FIG. 22 have the values shown in FIG. These values are expressed in binary numbers, and each bit is divided into bit planes. The coefficients shown in FIG. 24 can be divided into four bit planes shown in FIG. Since the binary representation of 15 is “1111”, “1” stands at the position corresponding to the coefficient of the value “15” of all the bit planes.

そしてJPEG2000においては、1つのビットプレーンを3つのサブビットプレーン(コーディングパスとも言う)に分類し、各サブビットプレーン毎に符号化する。サブビットプレーン(コーディングパス)としては、significance propagation pass(有意な係数が周囲にある、有意でない係数を符号化するパス)、magnitude refinement pass(有意な係数を符号化するパス)、cleanup pass(上記2つのパスに該当しない残りのビットを符号化するパス)がある。ただし、分類の結果、1のビットプレーン内で特定のサブビットプレーン(コーディングパス)に属するビットがない場合もあり、この場合には空のサブビットプレーンが生じることになる。最上位のビットプレーンは常に、cleanup passのみとなる。よって、図25の4枚のビットプレーンは、図26の様にサブビットプレーン分解される。   In JPEG 2000, one bit plane is classified into three sub bit planes (also referred to as coding passes), and encoding is performed for each sub bit plane. Subbit planes (coding passes) include: significance propagation pass (significant coefficients around, pass coding non-significant coefficients), magnitude refinement pass (pass coding significant coefficients), cleanup pass (above There is a path for encoding the remaining bits not corresponding to the two paths). However, as a result of classification, there are cases where there is no bit belonging to a specific sub-bit plane (coding path) in one bit plane, and in this case, an empty sub-bit plane is generated. The top bit plane is always cleanup pass only. Therefore, the four bit planes in FIG. 25 are decomposed into sub bit planes as shown in FIG.

サブビットプレーンは上位から下位に向けて符号化されるため、図27に示すような構成の符号の生成が可能である。図27は、符号が2LLサブバンドから始まって、1HHサブバンドで終わることを示している。また、図27の例は全てのサブビットプレーンを符号化した場合であるが、例えば図中の着色されたサブビットプレーンの符号が不要であると判断された場合には、当該サブビットプレーンのエントロピー符号化自体を省略し、あるいは、エントロピー符号化後に当該サブビットプレーンの符号を破棄することができることは前述の通りである。このような省略や破棄の最小単位はサブビットプレーンであるが、これを簡易に行いたいときには、ビットプレーン単位での省略や破棄を選択することもできる。   Since the sub bit plane is encoded from the upper level to the lower level, it is possible to generate a code having a configuration as shown in FIG. FIG. 27 shows that the code starts with the 2LL subband and ends with the 1HH subband. Further, the example of FIG. 27 is a case where all the sub-bit planes are encoded. For example, when it is determined that the code of the colored sub-bit plane in the drawing is unnecessary, As described above, the entropy coding itself can be omitted, or the code of the sub-bit plane can be discarded after entropy coding. The minimum unit for such omission or discard is the sub bit plane. However, when it is desired to perform this easily, omission or discard in bit plane units can be selected.

以上でJPEG2000の概要についての説明を終わり、本実施形態についての説明に戻る。   This completes the description of the outline of JPEG 2000, and the description returns to the description of the present embodiment.

[実施形態の説明のつづき]
各サブバンドに対応する適切な視覚周波数特性値を算出するためには、その算出のために参照される視覚周波数特性の周波数区間を適切に設定することが重要であることは前述の通りである。本実施形態において用いられる適切な参照周波数区間(参照区間と略記することがある)の例を図28と図29に示す。なお、視覚周波数特性は前記CSFであり、視覚周波数特性値は前記Visual Weightである。図28に示した参照区間は”通常”ウェーブレット変換が用いられる場合に適切なものであり、図29に示した参照区間は”簡易”ウェーブレット変換が用いられる場合に適切なものである。
[Continuation of description of embodiment]
As described above, in order to calculate an appropriate visual frequency characteristic value corresponding to each subband, it is important to appropriately set the frequency section of the visual frequency characteristic referred to for the calculation. . Examples of appropriate reference frequency sections (sometimes abbreviated as reference sections) used in the present embodiment are shown in FIGS. The visual frequency characteristic is the CSF, and the visual frequency characteristic value is the Visual Weight. The reference interval shown in FIG. 28 is appropriate when the “normal” wavelet transform is used, and the reference interval shown in FIG. 29 is appropriate when the “simple” wavelet transform is used.

図28及び図29においては、一次元方向(垂直方向または水平方向)の最大周波数がfmaxであった場合に、当該方向に対して施した一次元のウェーブレット変換で生じた2L〜1Hサブバンドについての参照区間がfmaxとの関係で示されている。この参照区間の表現は前記表1や前記表4におけると同様である。図中の「左端」とは参照区間の左端、図中の「右端」とは参照区間の右端である。例えば、図28の(1)は、444フォーマットのインターレース映像信号に対しフレームベースの符号化を行う場合、2Lサブバンドの参照区間は「左端が0、右端が0.25」すなわち0≦f<0.25fmaxの区間であることを示している。なお、参照区間の両端の不等号に関しては、ウェーブレット変換のフィルタの帯域分割特性に対して設けた仮定や解釈の違いにより、0≦f≦0.25fmaxの様に扱うことも可能である。   In FIG. 28 and FIG. 29, when the maximum frequency in the one-dimensional direction (vertical direction or horizontal direction) is fmax, 2L to 1H subbands generated by the one-dimensional wavelet transform applied to the direction. Is shown in relation to fmax. The expression of the reference section is the same as in Table 1 and Table 4. The “left end” in the figure is the left end of the reference section, and the “right end” in the figure is the right end of the reference section. For example, in (1) of FIG. 28, when frame-based encoding is performed on an interlaced video signal in 444 format, the reference section of the 2L subband is “the left end is 0 and the right end is 0.25”, that is, 0 ≦ f <0.25 fmax. It shows that it is the section. Note that the inequality signs at both ends of the reference section can be handled as 0 ≦ f ≦ 0.25 fmax depending on the assumptions and interpretations provided for the band division characteristics of the wavelet transform filter.

前記VisualWeightテーブル207に格納されているVisual Weight、すなわち図10〜図14に示したVisual Weightは、図28と図29に示したような参照区間についてのCSFの積分値又はその積として算出されたものである。   The Visual Weight stored in the VisualWeight table 207, that is, the Visual Weight shown in FIGS. 10 to 14 was calculated as an integral value of CSF or a product thereof for the reference section as shown in FIGS. Is.

図30に示した基準量子化ステップ数は、JPEG2000の9×7ウェーブレット変換の場合にサブバンドゲインおよびコンポ−ネント変換のゲインから算出される、一般的に使用される量子化ステップ数であり、通常ウェーブレット変換を用いるフィールドベース符号化とフレームベース符号化の両方に適用可能である(ただし、図30にはデコンポジションレベル2の場合が示されている)。そして、このような基準量子化ステップ数が基準量子化ステップ数テーブル208に格納されている。   The reference quantization step number shown in FIG. 30 is a commonly used quantization step number calculated from the subband gain and the component conversion gain in the case of the 9 × 7 wavelet transform of JPEG2000. The present invention is applicable to both field-based encoding and frame-based encoding using normal wavelet transform (however, the case of decomposition level 2 is shown in FIG. 30). Such reference quantization step numbers are stored in the reference quantization step number table 208.

前記量子化ステップ数制御手段209は、VisualWeightテーブル207より必要なVisual Weightを読み出し、これで基準量子化ステップ数を除算することにより修正した量子化ステップ数を算出する。すなわち、
修正後の量子化ステップ数=基準量子化ステップ数/Visual Weight‥‥式(S)
このような修正した量子化ステップ数を用いて線形量子化を行うことにより、線形量子化に視覚周波数特性が好適に反映される。
The quantization step number control means 209 reads the necessary Visual Weight from the VisualWeight table 207, and calculates the corrected quantization step number by dividing the reference quantization step number. That is,
Number of quantization steps after correction = reference number of quantization steps / Visual Weight formula (S)
By performing linear quantization using such a modified number of quantization steps, visual frequency characteristics are favorably reflected in linear quantization.

また、線形量子化は基準量子化ステップ数を用いて行い、係数又は符号のトランケーションを、VisualWeightテーブル207より読み出したVisual Weightに対応したトランケート数分だけ行うことにより、量子化の程度にVisual Weightを反映されることもできる。トランケート数の計算方法であるが、「ビットプレーンn枚のトランケーション」は「
係数を(2のn乗)で線形量子化すること」と等価であるから、
ビットプレーン単位のトランケート数=log2(Visual Weightの逆数)‥式(BP)
により、ビットプレーン単位のトランケート数を求めることができる(式中、2はlogの底を意味する)。また、「サブビットプレーンn枚のトランケーション」は「係数を(2の1/3乗の)n乗で線形量子化すること」と等価であるから、
サブビットプレーン単位のトランケート数=3×log2(Visual Weightの逆数)
‥‥式(SBP)
によりサブビットプレーン単位のトランケート数を求めることができる(式中、2はlogの
底を意味する)。
In addition, linear quantization is performed using the reference quantization step number, and by performing the truncation of the coefficient or sign by the number of truncations corresponding to the Visual Weight read from the Visual Weight table 207, the Visual Weight is set to the degree of quantization. It can also be reflected. This is a method of calculating the number of truncations.
Since it is equivalent to “linear quantization of the coefficient by (2 to the power of n)”,
Number of truncations per bit plane = log2 (reciprocal of Visual Weight) Formula (BP)
Thus, the number of truncations per bit plane can be obtained (where 2 means the bottom of the log). In addition, “n subbit planes of truncation” is equivalent to “linearly quantizing a coefficient by (the power of 2 1/3) to the nth power”.
Number of truncations per subbit plane = 3 x log2 (reciprocal of Visual Weight)
Formula (SBP)
Can obtain the number of truncations in units of sub-bit planes (where 2 means the bottom of the log).

トランケート数制御手段210は、VisualWeightテーブル207より必要なVisual We
ightを読み出し、それを用いて前記式(BP)又は前記式(XBP)によりトランケート
数を算出し、そのトランケート数をエントロピー符号化ブロック203に設定し(係数
段階でのトランケーションを行う場合)、あるいは、そのトランケート数をパケット生成
ブロック204に設定する(符号段階でのトランケーションを行う場合)。これによって
も、符号化処理における量子化の程度に視覚周波数特性を適切に反映させることが可能で
ある。
The truncation number control means 210 is a Visual Weight required from the VisualWeight table 207.
ight is read, and the truncation number is calculated by using the equation (BP) or the equation (XBP) using the ight, and the truncation number is set in the entropy coding block 203 (when truncation is performed at the coefficient stage), or The number of truncations is set in the packet generation block 204 (when truncation is performed at the code stage). This also allows visual frequency characteristics to be appropriately reflected in the degree of quantization in the encoding process.

パケット生成ブロック204でラグランジェレート制御を行う場合には、スロープ制御手段211で、ディストーションスロープにVisual Weightを反映させるためのスロープ修正を行うが、これについては後述する。   When Lagrangian rate control is performed in the packet generation block 204, the slope control unit 211 performs slope correction for reflecting Visual Weight on the distortion slope, which will be described later.

以下、本実施形態のいくつかの実施例について説明する。   Hereinafter, some examples of the present embodiment will be described.

本実施例では、444フォーマットのインターレース映像信号(RGB値)をフィールドベースで符号化する。   In this embodiment, a 444 format interlaced video signal (RGB value) is encoded on a field basis.

図31に本実施例における処理の概略フローを示す。まず、制御ブロック206において、フィールドベースの符号化が選択される(step1)。したがって、圧縮処理のための各ブロック200〜205はフィールドベースの符号化のための動作をするように制御される。なお、フィールドベース/フレームベース符号化の別をユーザにより制御ブロック206に明示的に指定するようにしてもよいし、制御ブロック206において例えば前記特許文献2に見られるような方法により映像の動き量の大小に応じて自動的にフィールドベース/フレームベース符号化を選択するようにしてもよい。このことは後記の他の実施例においても同様である。   FIG. 31 shows a schematic flow of processing in the present embodiment. First, in the control block 206, field-based encoding is selected (step 1). Accordingly, each block 200 to 205 for compression processing is controlled to perform an operation for field-based encoding. Note that the field-based / frame-based encoding may be explicitly specified by the user in the control block 206, or the motion amount of the video may be specified in the control block 206 by a method such as that disclosed in Patent Document 2, for example. The field-based / frame-based encoding may be automatically selected according to the size of. The same applies to other examples described later.

制御ブロック206において、線形量子化のための量子化ステップ数を設定する。本実施例では、サブバンド分割に”通常”ウェーブレット変換(9×7ウェーブレット変換)を用いるものとして量子化ステップ数が設定される。すなわち、量子化ステップ数制御手段209において、図28の(2)に示した参照区間についてのCSFの積分により算出されたVisual WeightをVisualWeightテーブル207より読み出す。図28の(2)に示した参照区間を図32に再掲する。図32から分かるように、輝度の垂直方向のサブバンドについての参照区間は、輝度の水平方向のサブバンドについての参照区間に対して1デコンポジションレベル分だけ低域側にシフトされていることに注意すべきである。したがって、観察距離として1700が選ばれるものとすると、図10中の「444 field」のVisual Weightが、VisualWeightテーブル207から読み出されることになる。そして、量子化ステップ数制御手段209は、VisualWeightテーブル207から読み出したVisual Weightと、基準量子化ステップ数テーブル208から読み出した基準量子化ステップ数から、前記式(S)により各コンポーネント、各サブバンドに対する修正された量子化ステップ数を求め、これを量子化ブロック202に対し設定する。修正後の量子化ステップ数は図33に示すような値となる。以上がstep2の処理である。   In the control block 206, the number of quantization steps for linear quantization is set. In this embodiment, the number of quantization steps is set on the assumption that “normal” wavelet transform (9 × 7 wavelet transform) is used for subband division. That is, in the quantization step number control means 209, the Visual Weight calculated by the CSF integration for the reference section shown in (2) of FIG. The reference section shown in (2) of FIG. 28 is shown again in FIG. As can be seen from FIG. 32, the reference interval for the vertical subband of the luminance is shifted to the low frequency side by one decomposition level with respect to the reference interval for the horizontal subband of the luminance. You should be careful. Therefore, if 1700 is selected as the observation distance, the “444 field” Visual Weight in FIG. 10 is read from the VisualWeight table 207. Then, the quantization step number control means 209 calculates each component and each subband from the Visual Weight read from the VisualWeight table 207 and the reference quantization step number read from the reference quantization step number table 208 according to the equation (S). The modified quantization step number for is obtained and set for the quantization block 202. The corrected number of quantization steps is as shown in FIG. The above is the process of step2.

以下のstep3〜7は、入力映像信号の各フレームに対し繰り返し実行される処理ステップである。   The following steps 3 to 7 are processing steps that are repeatedly executed for each frame of the input video signal.

DCレベル・色変換ブロック200により、映像信号(RGB値)に対しDCレベルシフトと色変換(ICT)が行われる(step3)。そして、フィールド毎に、変換後のY,Cb,Crの各コンポーネントに対し、ウェーブレット変換ブロック201において
”通常”ウェーブレット変換が行われる(step4)。ここではウェーブレット変換として9×7変換が用いられるものとする。また、ウェーブレット変換はデコンポジションレベル2まで実行されるものとする。
The DC level / color conversion block 200 performs DC level shift and color conversion (ICT) on the video signal (RGB value) (step 3). Then, for each field, the “normal” wavelet transform is performed in the wavelet transform block 201 for each component of Y, Cb, and Cr after the transformation (step 4). Here, it is assumed that 9 × 7 transformation is used as the wavelet transformation. It is assumed that the wavelet transform is executed up to the decomposition level 2.

各コンポーネントの各サブバンドの係数に対し、設定された量子化ステップ数を用いた線形量子化が量子化ブロック202で実行される(step5)。JPEG2000における線形量子化は、係数を量子化ステップ数で除算してフロア関数で整数化することにより行われる。   Linear quantization using the set number of quantization steps is executed in the quantization block 202 for the coefficient of each subband of each component (step 5). Linear quantization in JPEG 2000 is performed by dividing a coefficient by the number of quantization steps and converting it to an integer using a floor function.

次にエントロピー符号化ブロック203で、線形量子化後の各コンポーネントの係数の全ビットプレーンに対しMQ符号化が行われる(step6)。そして、生成されたMQ符号はパケット生成ブロック204によりパケットにまとめられ、符号形成ブロック205によりパケットを用いてコードストリームが形成される(step7)。   Next, in the entropy coding block 203, MQ coding is performed on all bit planes of the coefficients of each component after linear quantization (step 6). The generated MQ codes are combined into packets by the packet generation block 204, and a code stream is formed by using the packets by the code formation block 205 (step 7).

以上のように、本実施例によれば、線形量子化の量子化ステップ数に(換言すれば量子化の程度に)視覚周波数特性を理論的知見に基づき適切に反映させた符号化を実施することができる。   As described above, according to the present embodiment, encoding is performed in which the visual frequency characteristic is appropriately reflected on the number of quantization steps of linear quantization (in other words, the degree of quantization) based on theoretical knowledge. be able to.

図33から明らかなとおり、全コンポーネント、全デコンポジションレベルについて、量子化ステップ数の大小関係は「LH<HL<HH」であることに注意すべきである。そして、係数のトランケーションも符号のトランケーションも行われないため、この大小関係はそのまま量子化の程度の大小関係である。   As is apparent from FIG. 33, it should be noted that the magnitude relationship of the number of quantization steps is “LH <HL <HH” for all components and all decomposition levels. Since neither truncation of the coefficient nor truncation of the code is performed, this magnitude relation is the magnitude relation of the degree of quantization as it is.

なお、予め図33に示した修正後の量子化ステップ数を格納したテーブルを制御ブロック206に用意しておき、このテーブルより量子化ステップ数を読み出して線形量子化に用いる構成とすることも可能である。   It is also possible to prepare a table storing the corrected number of quantization steps shown in FIG. 33 in advance in the control block 206 and read the number of quantization steps from this table and use it for linear quantization. It is.

ここまでの説明から明らかなように、本実施例は請求項1に係る発明の一実施例である。step4がサブバンド分割手段によるサブバンド分割の処理に相当し、step5〜7が符号化処理手段による符号化処理に相当する。そして、step2で設定される量子化ステップ数にはサブバンド対応の輝度の視覚周波数特性値であるVisual Weightが反映されており、この量子化ステップ数がstep5の線形量子化に用いられることにより、輝度信号の各サブバンドの符号化処理にサブバンド対応の輝度の視覚周波数特性値が反映されるわけである。 As is apparent from the description so far, the present embodiment is Ru embodiment der of the invention according to claim 1. Step 4 corresponds to subband division processing by the subband division means, and steps 5 to 7 correspond to encoding processing by the encoding processing means. Then, Visual Weight which is a visual frequency characteristic value of luminance corresponding to the subband is reflected in the number of quantization steps set in step 2, and this quantization step number is used for linear quantization in step 5. The luminance visual frequency characteristic value corresponding to the subband is reflected in the encoding process of each subband of the luminance signal.

本実施例では、411フォーマットのインターレース映像信号(YCbCr値)をフィールドベースで符号化する。   In this embodiment, a 411 format interlaced video signal (YCbCr value) is encoded on a field basis.

図34に本実施例における処理の概略フローを示す。まず、制御ブロック206において、フィールドベースの符号化が選択される(step11)。したがって、圧縮処理のための各ブロック200〜205はフィールドベースの符号化のための動作をするように制御される。ただし、入力映像信号はYCbCr値であるため、DCレベルシフト・色変換ブロック200ではDCレベルシフトも色変換も行われない。   FIG. 34 shows a schematic flow of processing in the present embodiment. First, in the control block 206, field-based encoding is selected (step 11). Accordingly, each block 200 to 205 for compression processing is controlled to perform an operation for field-based encoding. However, since the input video signal is a YCbCr value, the DC level shift / color conversion block 200 performs neither DC level shift nor color conversion.

制御ブロック206において、線形量子化のための量子化ステップ数の設定を行う。本実施例では、サブバンド分割に”通常”ウェーブレット変換(9×7ウェーブレット変換)を用いるものとして量子化ステップ数が設定される。すなわち、量子化ステップ数制御手段209は、図28の(6)に示した参照区間についてのCSFの積分により算出されたVisual WeightをVisualWeightテーブル207より読み出す。図28の(6)に示した参照区間を図35に再掲する。図35から分かるように、色差の垂直方向のサブバンドについての参照区間は、色差の水平方向のサブバンドについての参照区間に対して1デコンポジションレベル分だけ低域側にシフトされていることに注意すべきである。したがって、観察距離として1700が選ばれるものとすると、図12中の「411 field」のVisual Weightが、VisualWeightテーブル207から読み出されることになる。そして、量子化ステップ数制御手段209は、VisualWeightテーブル207から読み出したVisual Weightと、基準量子化ステップ数テーブル208から読み出した基準量子化ステップ数から、前記式(S)により各コンポーネント、各サブバンドに対する修正された量子化ステップ数を求め、これを量子化ブロック202に対し設定する。修正後の量子化ステップ数は図36に示すような値となる。以上はstep12の処理である。   In the control block 206, the number of quantization steps for linear quantization is set. In this embodiment, the number of quantization steps is set on the assumption that “normal” wavelet transform (9 × 7 wavelet transform) is used for subband division. That is, the quantization step number control means 209 reads the Visual Weight calculated by the CSF integration for the reference section shown in (6) of FIG. The reference section shown in (6) of FIG. 28 is shown again in FIG. As can be seen from FIG. 35, the reference interval for the vertical subband of the color difference is shifted to the low frequency side by one decomposition level with respect to the reference interval for the horizontal subband of the color difference. It should be noted. Therefore, if 1700 is selected as the observation distance, the “411 field” Visual Weight in FIG. 12 is read from the VisualWeight table 207. Then, the quantization step number control means 209 calculates each component and each subband from the Visual Weight read from the VisualWeight table 207 and the reference quantization step number read from the reference quantization step number table 208 according to the equation (S). The modified quantization step number for is obtained and set for the quantization block 202. The corrected number of quantization steps is as shown in FIG. The above is the processing of step 12.

以下のstep13〜16は、入力映像信号の各フレームに対し繰り返し実行される処理ステップである。   The following steps 13 to 16 are processing steps repeatedly executed for each frame of the input video signal.

ウェーブレット変換ブロック201において、フィールド毎に、Y,Cb,Crの各コンポーネントに対し”通常”ウェーブレット変換が行われる(step13)。ウェーブレット変換としては9×7ウェーブレット変換が用いられる。また、ウェーブレット変換はデコンポジションレベル2まで行われるものとする。   In the wavelet transform block 201, “normal” wavelet transform is performed for each of the Y, Cb, and Cr components for each field (step 13). As the wavelet transform, 9 × 7 wavelet transform is used. It is assumed that the wavelet transform is performed up to decomposition level 2.

各コンポーネント、各サブバンドの係数に対し、設定された量子化ステップ数を用いた線形量子化が量子化ブロック202で実行される(step14)。次にビットプレーン符号化ブロック203で、量子化後の係数の全ビットプレーンのMQ符号化が行われる(step15)。そして、生成されたMQ符号はパケット生成ブロック204でパケットにまとめられ、符号形成ブロック204によりパケットを用いてコードストリームが形成される(step16)。   Linear quantization using the set number of quantization steps is executed in the quantization block 202 for the coefficients of each component and each subband (step 14). Next, in the bit plane coding block 203, MQ coding of all the bit planes of the quantized coefficients is performed (step 15). The generated MQ codes are collected into packets by the packet generation block 204, and a code stream is formed by using the packets by the code formation block 204 (step 16).

図36から明らかなとおり、全コンポーネント、全デコンポジションレベルについて、量子化ステップ数の大小関係は「LH<HL<HH」であることに注意すべきである。そして、係数のトランケーションも符号のトランケーションも行われないため、この大小関係はそのまま符号化処理における量子化の程度の大小関係である。   As is apparent from FIG. 36, it should be noted that the magnitude relationship of the number of quantization steps is “LH <HL <HH” for all components and all decomposition levels. Since neither truncation of coefficients nor truncation of codes is performed, this magnitude relationship is a magnitude relationship of the degree of quantization in the encoding process as it is.

なお、予め図36に示した修正後の量子化ステップ数を格納したテーブルを制御ブロック206に用意しておき、このテーブルより量子化ステップ数を読み出して線形量子化に用いる構成とすることも可能である。   It is also possible to prepare a table storing the corrected number of quantization steps shown in FIG. 36 in advance in the control block 206 and read the number of quantization steps from this table and use it for linear quantization. It is.

ここまでの説明から明らかなように、本実施例は請求項2に係る発明の一実施例である
step13がサブバンド分割手段によるサブバンド分割の処理に相当し、step14
〜16が符号化処理手段による符号化処理に相当する。そして、step12で設定され
る量子化ステップ数にはサブバンド対応の色差の視覚周波数特性値であるVisual Weight
が反映されており、この量子化ステップ数がstep14の線形量子化に用いられること
により、色差信号の各サブバンドの符号化処理にサブバンド対応の色差の視覚周波数特性
値が反映される。また、視覚周波数特性値が反映された、輝度信号のデコンポジションレ
ベル1のLH,HL,HHサブバンドのための量子化ステップ数の大小関係は「LH<HL<
HH」であり、トランケーションは行われないため、それらサブバンドに対する符号化処理
による量子化の程度の大小関係は「LH<HL<HH」となるのである。
As is apparent from the description so far, the present embodiment is an embodiment of the invention according to claim 2.
Step 13 corresponds to subband division processing by the subband division means, and step14
˜16 corresponds to the encoding processing by the encoding processing means. The number of quantization steps set in step 12 includes Visual Weight, which is the visual frequency characteristic value of the color difference corresponding to the subband.
Is reflected, and the visual frequency characteristic value of the color difference corresponding to the subband is reflected in the encoding process of each subband of the color difference signal. Further, the magnitude relationship of the number of quantization steps for the LH, HL, and HH subbands of the luminance signal decomposition level 1 that reflects the visual frequency characteristic value is “LH <HL <
Since “HH” and truncation is not performed, the magnitude relationship of the degree of quantization by the encoding process for these subbands is “LH <HL <HH”.

本実施例では、422フォーマットのインターレース映像信号(YCbCr値)をフィールドベースで符号化する。   In this embodiment, a 422 format interlaced video signal (YCbCr value) is encoded on a field basis.

図37に本実施例における処理の概略フローを示す。まず、制御ブロック206において、フィールドベースの符号化が選択される(step21)。したがって、圧縮処理のための各ブロック200〜205はフィールドベースの符号化のための動作をするように制御される。ただし、入力映像信号はYCbCr値であるため、DCレベルシフト・色変換ブロック200はDCレベルシフトも色変換も行わない。   FIG. 37 shows a schematic flow of processing in the present embodiment. First, in the control block 206, field-based encoding is selected (step 21). Accordingly, each block 200 to 205 for compression processing is controlled to perform an operation for field-based encoding. However, since the input video signal has a YCbCr value, the DC level shift / color conversion block 200 performs neither DC level shift nor color conversion.

次に制御ブロック206は、線形量子化のための量子化ステップ数を設定する(step22)。本実施例では、量子化ステップ数制御手段209によって基準量子化ステップ数テーブル208より読み出した基準量子化ステップ数を量子化ブロック202に対し設定する。   Next, the control block 206 sets the number of quantization steps for linear quantization (step 22). In this embodiment, the reference quantization step number read from the reference quantization step number table 208 by the quantization step number control means 209 is set for the quantization block 202.

次に、制御ブロック206は、エントロピー符号化ブロック203に対しトランケート数を設定する。本実施例では、サブバンド分割に”通常”ウェーブレット変換(9×7ウェーブレット変換)を用いるものとしてトランケート数が設定される。すなわち、トランケート数制御手段210は、図28の(4)に示した参照区間についてのCSFの積分により算出されたVisual WeightをVisualWeightテーブル207より読み出す。図28の(4)に示した参照区間を図38に再掲する。図38から分かるように、色差の水平方向のサブバンドについての参照区間は、輝度の水平方向のサブバンドについての参照区間に対して1デコンポジションレベル分だけ低域側にシフトしていることに注意すべきである。したがって、観察距離として1700が選ばれるものとすると、図11中の「422 field」のVisual WeightがVisualWeightテーブル207から読み出されることになる。そして、トランケート数制御手段210は、VisualWeightテーブル207より読み出したVisual Weightを、前記式(SBP)によりサブビットプレーン単位のトランケート数に換算する。ただし、式(SBP)による算出値は実数であるため、これを四捨五入して整数化する。整数化後のトランケート数は図39に示すような値となる。このトランケート数はエントロピー符号化ブロック203に設定される。以上はstep23の処理である。   Next, the control block 206 sets the number of truncations for the entropy coding block 203. In this embodiment, the number of truncations is set on the assumption that “normal” wavelet transform (9 × 7 wavelet transform) is used for subband division. That is, the truncation number control means 210 reads the Visual Weight calculated by the CSF integration for the reference section shown in (4) of FIG. The reference section shown in (4) of FIG. 28 is shown again in FIG. As can be seen from FIG. 38, the reference interval for the horizontal subband of the color difference is shifted to the low frequency side by one decomposition level with respect to the reference interval for the horizontal subband of the luminance. You should be careful. Therefore, if 1700 is selected as the observation distance, the “422 field” Visual Weight in FIG. 11 is read from the VisualWeight table 207. Then, the truncation number control means 210 converts the Visual Weight read from the VisualWeight table 207 into the number of truncations in sub-bit plane units using the above equation (SBP). However, since the calculated value by the formula (SBP) is a real number, it is rounded to an integer. The number of truncations after conversion to an integer is a value as shown in FIG. This truncation number is set in the entropy coding block 203. The above is the processing of step 23.

以下のstep24〜27は、入力映像信号の各フレームに対し繰り返し実行される処理ステップである。   The following steps 24 to 27 are processing steps repeatedly executed for each frame of the input video signal.

ウェーブレット変換ブロック201において、フィールド毎に、Y,Cb,Crの各コンポーネントに対し”通常”ウェーブレット変換が行われる(step24)。ウェーブレット変換としては9×7ウェーブレット変換が用いられる。また、ウェーブレット変換はデコンポジションレベル2まで行われるものとする。   In the wavelet transform block 201, “normal” wavelet transform is performed for each of the Y, Cb, and Cr components for each field (step 24). As the wavelet transform, 9 × 7 wavelet transform is used. It is assumed that the wavelet transform is performed up to decomposition level 2.

各コンポーネントの各サブバンドの係数に対し、基準量子化ステップ数を用いた線形量子化が量子化ブロック202で実行される(step25)。エントロピー符号化ブロック203において、各コンポーネントの各サブバンドの量子化後の係数に対し、設定されたトランケート数分だけ下位サブビットプレーンを除外したMQ符号化を行う(step26)。そして、生成されたMQ符号はパケット生成ブロック204でパケットにまとめられ、符号形成ブロック205によりパケットを用いてコードストリームが形成される(step27)。   Linear quantization using the reference quantization step number is performed in the quantization block 202 for the coefficient of each subband of each component (step 25). In the entropy coding block 203, MQ coding is performed on the quantized coefficients of each subband of each component, excluding lower subbitplanes by the set number of truncations (step 26). The generated MQ codes are collected into packets by the packet generation block 204, and a code stream is formed by using the packets by the code formation block 205 (step 27).

ここで、エントロピー符号化ブロック203におけるトランケーションに用いられたトランケート数(図39)に「HL=LH<HH」の大小関係があることに注意すべきである。本実施例では基準量子化ステップ数(図30)を用いた線形量子化も行われるが、基準量子化ステップ数にも「HL=LH<HH」の大小関係がある。したがって、線形量子化とトランケーションの効果を総合した、符号化処理における”量子化の程度”は「HL=LH<HH」の大小関係となることに注目すべきである。   Here, it should be noted that the number of truncations used for truncation in the entropy coding block 203 (FIG. 39) has a magnitude relationship of “HL = LH <HH”. In this embodiment, linear quantization using the reference quantization step number (FIG. 30) is also performed, but the reference quantization step number also has a magnitude relationship of “HL = LH <HH”. Therefore, it should be noted that the “degree of quantization” in the encoding process, which combines the effects of linear quantization and truncation, has a magnitude relationship of “HL = LH <HH”.

なお、予め図39に示したトランケート数を格納したテーブルを制御ブロック206に用意しておき、このテーブルより読み出したトランケート数をエントロピー符号化ブロック203に設定する構成とすることも可能である。   It is also possible to prepare a table storing the number of truncations shown in FIG. 39 in advance in the control block 206 and set the number of truncations read from this table in the entropy encoding block 203.

また、本実施例ではサブビットプレーン単位でのトランケーションを行ったが、ビットプレーン単位のトランケーションを行ってもよく、この場合はVisual Weightからトランケート数への換算に前記式(BP)が用いられることなる。さらに、エントロピー符号化ブロック203ではトランケーションを行わず、パケット生成ブロック204で指定されたトランケート数分の下位サブビットプレーンの符号を破棄するようにしてもよい。   In this embodiment, truncation is performed in units of sub-bit planes, but truncation in units of bit planes may be performed, and in this case, the above formula (BP) is used for conversion from Visual Weight to the number of truncations. Become. Further, the entropy coding block 203 may not perform truncation, but may discard lower subbit plane codes corresponding to the number of truncations designated by the packet generation block 204.

以上の説明から明らかなように、本実施例は請求項3に係る発明の一実施例であるAs apparent from the above description, the present embodiment is an embodiment of the invention according to claim 3.

本実施例では、422フォーマットのインターレース映像信号(YCbCr値)をフレームベースで符号化する。   In this embodiment, a 422 format interlaced video signal (YCbCr value) is encoded on a frame basis.

図40に本実施例における処理の概略フローを示す。まず、制御ブロック206において、フレームベースの符号化が選択される(step31)。したがって、圧縮処理のための各ブロック200〜205はフレームベースの符号化のための動作をするように制御される。ただし、入力映像信号はYCbCr値であるため、DCレベルシフト・色変換ブロック200はDCレベルシフトも色変換も行わない。   FIG. 40 shows a schematic flow of processing in the present embodiment. First, in the control block 206, frame-based encoding is selected (step 31). Accordingly, each block 200 to 205 for compression processing is controlled to perform an operation for frame-based encoding. However, since the input video signal has a YCbCr value, the DC level shift / color conversion block 200 performs neither DC level shift nor color conversion.

次に、制御ブロック206において、線形量子化のための量子化ステップ数を設定する。本実施例では、サブバンド分割に”通常”ウェーブレット変換(9×7ウェーブレット変換)を用いるものとして量子化ステップ数が設定される。すなわち、量子化ステップ数制御手段209は、図28の(3)に示されている参照区間についてのCSFの積分により算出されたVisual WeightをVisualWeightテーブル207より読み出す。図28の(3)に示した参照区間を図41に再掲する。図41から分かるように、色差の垂直方向のサブバンドについての参照区間は、色差の水平方向のサブバンドについての参照区間に対して1デコンポジションレベル分だけ高域側にシフトされていることに注意すべきである。したがって、観察距離として1700が選ばれるものとすると、図11中の「422 frame」のVisual Weightが、VisualWeightテーブル207から読み出されることになる。そして、量子化ステップ数制御手段209は、VisualWeightテーブル207より読み出したVisual Weightと、基準量子化ステップ数テーブル208から読み出した基準量子化ステップ数(図30)から、前記式(S)により各コンポーネントの各サブバンドに対する修正された量子化ステップ数を求め、これを量子化ブロック202に設定する。この修正後の量子化ステップ数は図42に示すような値となる。   Next, in the control block 206, the number of quantization steps for linear quantization is set. In this embodiment, the number of quantization steps is set on the assumption that “normal” wavelet transform (9 × 7 wavelet transform) is used for subband division. That is, the quantization step number control means 209 reads the Visual Weight calculated by the CSF integration for the reference section shown in (3) of FIG. The reference section shown in (3) of FIG. 28 is shown again in FIG. As can be seen from FIG. 41, the reference interval for the vertical subband of the color difference is shifted to the high frequency side by one decomposition level with respect to the reference interval for the horizontal subband of the color difference. You should be careful. Accordingly, if 1700 is selected as the observation distance, the “422 frame” Visual Weight in FIG. 11 is read from the VisualWeight table 207. Then, the quantization step number control means 209 calculates each component from the Visual Weight read from the VisualWeight table 207 and the reference quantization step number (FIG. 30) read from the reference quantization step number table 208 according to the equation (S). Then, the corrected number of quantization steps for each subband is obtained and set in the quantization block 202. The number of quantization steps after the correction is a value as shown in FIG.

以下のstep33〜36は、入力映像信号の各フレームに対し繰り返し実行される処理ステップである。   The following steps 33 to 36 are processing steps repeatedly executed for each frame of the input video signal.

ウェーブレット変換ブロック201において、フレーム毎に、Y,Cb,Crの各コンポーネントに対し”通常”ウェーブレット変換が行われる(step33)。ウェーブレット変換として9×7ウェーブレット変換が用いられる。また、ウェーブレット変換はデコンポジションレベル2まで行われるものとする。   In the wavelet transform block 201, “normal” wavelet transform is performed for each of the Y, Cb, and Cr components for each frame (step 33). A 9 × 7 wavelet transform is used as the wavelet transform. It is assumed that the wavelet transform is performed up to decomposition level 2.

各コンポーネント、各サブバンドの係数に対する線形量子化が量子化ブロック202で実行される(step34)。次に、エントロピー符号化ブロック203により、量子化後の係数の全ビットプレーンのMQ符号化が行われる(step35)。そして、生成されたMQ符号はパケット生成ブロック204でパケット化され、符号形成ブロック205によりパケットを用いてコードストリームが形成される(step36)。   Linear quantization for the coefficients of each component and each subband is performed in the quantization block 202 (step 34). Next, the entropy coding block 203 performs MQ coding of all the bit planes of the quantized coefficients (step 35). The generated MQ code is packetized by the packet generation block 204, and a code stream is formed by using the packet by the code formation block 205 (step 36).

図42から明らかなように、Cb,Crコンポーネントについての量子化ステップ数の大小関係は「HL<LH<HH」であることに注意すべきである。そして、トランケーションは行われないため、この大小関係はそのままCb,Crコンポーネントに対する量子化の程度の大小関係である。   As is apparent from FIG. 42, it should be noted that the magnitude relationship between the number of quantization steps for the Cb and Cr components is “HL <LH <HH”. Since truncation is not performed, this magnitude relationship is directly a magnitude relationship of the degree of quantization for the Cb and Cr components.

なお、予め図42に示した修正後の量子化ステップ数を格納したテーブルを制御ブロック206に用意しておき、このテーブルより量子化ステップ数を読み出して線形量子化に用いる構成とすることも可能である。   It is also possible to prepare a table storing the corrected quantization step number shown in FIG. 42 in the control block 206 in advance, and read the quantization step number from this table and use it for linear quantization. It is.

以上の説明から明らかなように、本実施例は請求項4に係る発明の一実施例であるAs apparent from the above description, the present embodiment is an embodiment of the invention according to claim 4.

本実施例では、411フォーマットのインターレース映像信号(YCbCr値)をフレームベースで符号化する。   In this embodiment, a 411 format interlaced video signal (YCbCr value) is encoded on a frame basis.

図43に本実施例における処理の概略フローを示す。まず、制御ブロック206において、フレームベースの符号化が選択される(step41)。したがって、圧縮処理のための各ブロック200〜205はフレームベースの符号化のための動作をするように制御される。ただし、入力映像信号はYCbCr値であるため、DCレベルシフト・色変換ブロック200はDCレベルシフトも色変換も行わない。   FIG. 43 shows a schematic flow of processing in the present embodiment. First, in the control block 206, frame-based encoding is selected (step 41). Accordingly, each block 200 to 205 for compression processing is controlled to perform an operation for frame-based encoding. However, since the input video signal is a YCbCr value, the DC level shift / color conversion block 200 performs neither DC level shift nor color conversion.

次に制御ブロック206は、線形量子化のための量子化ステップ数を設定する。本実施例では、サブバンド分割に”通常”ウェーブレット変換(9×7ウェーブレット変換)を用いるものとして量子化ステップ数を設定する。すなわち、量子化ステップ数制御手段209は、図28の(5)に示されている参照区間についてのCSFの積分により算出されたVisual WeightをVisualWeightテーブル207より読み出す。図28の(5)に示した参照区間を図44に再掲する。図44から分かるように、色差のサブバンドについての参照区間は、輝度のサブバンドについての参照区間に対して1デコンポジションレベル分だけ低域側にシフトされていることに注意すべきである。したがって、観察距離として1700が選ばれるものとすると、図12中の「411 frame」のVisual WeightがVisualWeightテーブル207から読み出されることになる。そして、量子化ステップ数制御手段209は、VisualWeightテーブル207より読み出したVisual Weightと、基準量子化ステップ数テーブル208から読み出した基準量子化ステップ数(図30)から、前記式(S)により各コンポーネントの各サブバンドに対する修正された量子化ステップ数を求める。この修正後の量子化ステップ数は図45に示すような値となる。   Next, the control block 206 sets the number of quantization steps for linear quantization. In this embodiment, the number of quantization steps is set on the assumption that “normal” wavelet transform (9 × 7 wavelet transform) is used for subband division. That is, the quantization step number control means 209 reads the Visual Weight calculated by the CSF integration for the reference section shown in (5) of FIG. The reference section shown in (5) of FIG. 28 is shown again in FIG. As can be seen from FIG. 44, it should be noted that the reference interval for the color difference subband is shifted to the lower frequency side by one decomposition level with respect to the reference interval for the luminance subband. Therefore, assuming that 1700 is selected as the observation distance, the Visual Weight of “411 frame” in FIG. 12 is read from the VisualWeight table 207. Then, the quantization step number control means 209 calculates each component from the Visual Weight read from the VisualWeight table 207 and the reference quantization step number (FIG. 30) read from the reference quantization step number table 208 according to the equation (S). Determine the modified number of quantization steps for each subband. The corrected number of quantization steps is a value as shown in FIG.

以下のstep43〜46は、入力映像信号の各フレームに対し繰り返し実行される処理ステップである。ウェーブレット変換ブロック201において、フレーム毎に、Y,Cb,Crの各コンポーネントに対し”通常”ウェーブレット変換が行われる(step43)。ウェーブレット変換として9×7ウェーブレット変換が用いられる。また、ウェーブレット変換はデコンポジションレベル2まで行われるものとする。各コンポーネント、各サブバンドの係数に対する線形量子化が量子化ブロック202で実行される(step44)。次に、エントロピー符号化ブロック203により、量子化後の係数の全ビットプレーンのMQ符号化が行われる(step45)。そして、生成されたMQ符号はパケット生成ブロック204でパケット化され、符号形成ブロック205によりパケットを用いてコードストリームが形成される(step46)。   The following steps 43 to 46 are processing steps that are repeatedly executed for each frame of the input video signal. In the wavelet transform block 201, “normal” wavelet transform is performed for each component of Y, Cb, and Cr for each frame (step 43). A 9 × 7 wavelet transform is used as the wavelet transform. It is assumed that the wavelet transform is performed up to decomposition level 2. Linear quantization for the coefficients of each component and each subband is performed in the quantization block 202 (step 44). Next, the entropy coding block 203 performs MQ coding of all the bit planes of the quantized coefficients (step 45). The generated MQ code is packetized by the packet generation block 204, and a code stream is formed by using the packet by the code formation block 205 (step 46).

なお、予め図45に示した修正後の量子化ステップ数を格納したテーブルを制御ブロック206に用意しておき、このテーブルより量子化ステップ数を読み出して線形量子化に用いる構成とすることも可能である。   It is also possible to prepare a table storing the corrected quantization step number shown in FIG. 45 in the control block 206 in advance, and read the quantization step number from this table and use it for linear quantization. It is.

以上の説明から明らかなように、本実施例は請求項5に係る発明の一実施例である。 As is apparent from the above description, this embodiment is an embodiment of the invention according to claim 5 .

本実施例では、422フォーマットのインターレース映像信号(YCbCr値)をフレームベースで符号化する。   In this embodiment, a 422 format interlaced video signal (YCbCr value) is encoded on a frame basis.

図46に本実施例における処理の概略フローを示す。まず、制御ブロック206において、フレームベースの符号化が選択される(step51)。したがって、圧縮処理のための各ブロック200〜205はフレームベースの符号化のための動作をするように制御される。ただし、入力映像信号はYCbCr値であるため、DCレベルシフト・色変換ブロック200はDCレベルシフトも色変換も行わない。   FIG. 46 shows a schematic flow of processing in the present embodiment. First, in the control block 206, frame-based encoding is selected (step 51). Accordingly, each block 200 to 205 for compression processing is controlled to perform an operation for frame-based encoding. However, since the input video signal is a YCbCr value, the DC level shift / color conversion block 200 performs neither DC level shift nor color conversion.

次に制御ブロック206において、量子化ステップ数制御手段209は基準量子化ステップ数テーブル208より基準量子化ステップ数(図30)を読み出し、それをそのまま量子化ブロック202に対し設定する(step52)。   Next, in the control block 206, the quantization step number control means 209 reads the reference quantization step number (FIG. 30) from the reference quantization step number table 208, and sets it as it is to the quantization block 202 (step 52).

次に、制御ブロック206はエントロピー符号ブロック203に対しトランケート数を設定する(step53)。本実施例では、サブバンド分割に”簡易”ウェーブレット変換(9×7ウェーブレット変換)を用い、サブビットプレーン単位のトランケーションを行うものとして、トランケート数を設定する。すなわち、制御ブロック206のトランケート数制御手段210は、図29の(7)に示した参照区間についてのCSFの積分により算出されたVisual WeightをVisualWeightテーブル207より読み出す。図29の(7)に示した参照区間を図47に再掲する。図47から分かるように、デコンポジション2(以上)において、色差の垂直方向のサブバンドについての参照区間を、色差の水平方向のサブバンドについての参照区間と同一にしていることに注意すべきである。したがって、観察距離として1700が選ばれるものとすると、図13中の「422 frame」のVisual WeightがVisualWeightテーブル207から読み出されることになる。そして、トランケート数制御手段210は、VisualWeightテーブル207より読み出したVisual Weightを、前記式(BP)によりビットプレーン単位のトランケート数に換算する。ただし、式(BP)による算出値は実数であるため、これを四捨五入して整数化する。整数化後のトランケート数は図48に示すような値となる。このトランケート数はエントロピー符号化ブロック203に設定される。   Next, the control block 206 sets the number of truncations for the entropy code block 203 (step 53). In this embodiment, “simple” wavelet transform (9 × 7 wavelet transform) is used for subband division, and truncation is set on the assumption that truncation is performed in units of subbit planes. That is, the truncation number control means 210 of the control block 206 reads the Visual Weight calculated by the CSF integration for the reference section shown in (7) of FIG. The reference section shown in (7) of FIG. 29 is shown again in FIG. As can be seen from FIG. 47, it should be noted that the reference section for the color difference vertical subband is the same as the reference section for the color difference horizontal subband in decomposition 2 (or higher). is there. Therefore, if 1700 is selected as the observation distance, the “422 frame” Visual Weight in FIG. 13 is read from the VisualWeight table 207. Then, the truncation number control means 210 converts the Visual Weight read from the VisualWeight table 207 into a truncation number in bit plane units using the equation (BP). However, since the calculated value by the formula (BP) is a real number, it is rounded to an integer. The number of truncations after being converted to an integer is a value as shown in FIG. This truncation number is set in the entropy coding block 203.

以下のstep54〜57は、入力映像信号の各フレームに対し繰り返し実行される処理ステップである。   The following steps 54 to 57 are processing steps that are repeatedly executed for each frame of the input video signal.

ウェーブレット変換ブロック201において、フレーム毎に、Y,Cb,Crの各コンポーネントに対し”簡易”ウェーブレット変換が行われる(step54)。ウェーブレット変換としては9×7ウェーブレット変換が用いられる。ウェーブレット変換はデコンポジションレベル2まで行われるものとする。   In the wavelet transform block 201, “simple” wavelet transform is performed for each of the Y, Cb, and Cr components for each frame (step 54). As the wavelet transform, 9 × 7 wavelet transform is used. It is assumed that the wavelet transform is performed up to decomposition level 2.

各コンポーネントの各サブバンドの係数に対する線形量子化が量子化ブロック202で実行される(step55)。エントロピー符号化ブロック203において、各コンポーネントの各サブバンドの係数に対し、設定されたトランケート数分の下位ビットプレーンを除外してMQ符号化を行う(step56)。生成された符号はパケット生成ブロック204でパケットにまとめられ、符号形成ブロック205によりパケットを用いコードストリームが形成される(step57)。   Linear quantization for the coefficients of each subband of each component is performed in quantization block 202 (step 55). In the entropy coding block 203, MQ coding is performed on the coefficients of each subband of each component, excluding lower bit planes corresponding to the set number of truncations (step 56). The generated codes are collected into packets by the packet generation block 204, and a code stream is formed by using the packets by the code formation block 205 (step 57).

ここで、図48より分かるように、輝度についてのデコンポジションレベル1のサブバンドに対するトランケート数に「HL=LH<HH」の大小関係があることに注意すべきである。本実施例では基準量子化ステップ数(図30)を用いた線形量子化も行われるが、基準量子化ステップ数にも「HL=LH<HH」の大小関係がある。したがって、線形量子化とトランケーションの効果を総合した、符号化処理による”量子化の程度”も「HL=LH<HH」の大小関係となることに注意すべきである。   Here, as can be seen from FIG. 48, it should be noted that the number of truncations for the subband of the decomposition level 1 with respect to luminance has a magnitude relationship of “HL = LH <HH”. In this embodiment, linear quantization using the reference quantization step number (FIG. 30) is also performed, but the reference quantization step number also has a magnitude relationship of “HL = LH <HH”. Therefore, it should be noted that the “degree of quantization” by the encoding process, which combines the effects of linear quantization and truncation, also has a magnitude relationship of “HL = LH <HH”.

なお、予め図48に示したトランケート数を格納したテーブルを制御ブロック206に用意しておき、このテーブルより読み出したトランケート数をビットプレーン符号化ブロック203に供給する構成とすることも可能である。また、本実施例ではビットプレーン単位でのトランケーションを行ったが、サブビットプレーン単位のトランケーションを行ってもよく、この場合はVisual Weightからトランケート数への換算に前記式(SBP)が用いられることなる。さらに、エントロピー符号化ブロック203ではトランケーションを行わず、パケット生成ブロック204において設定されたトランケート数分の下位ビットプレーンの符号を破棄するようにしてもよい。   It is also possible to prepare a table storing the number of truncations shown in FIG. 48 in advance in the control block 206 and supply the number of truncations read from this table to the bit plane encoding block 203. In this embodiment, truncation is performed in units of bit planes, but truncation in units of sub bit planes may be performed. In this case, the above formula (SBP) is used for conversion from Visual Weight to the number of truncations. Become. Further, the entropy coding block 203 may not perform truncation, but may discard lower bit plane codes for the number of truncations set in the packet generation block 204.

ここで、線形量子化に用いる量子化ステップ数に関し説明を補足する。本実施例のように簡易ウェーブレット変換を行う場合には、復号後にどのようにして色差のRGB値を算出するかによって、線形量子化に基準量子化ステップ数を使用するか否かが決まる。本実施例においては、符号化時には”簡易”ウェーブレットを用いるが、復号時には”通常”ウェーブレット逆変換を用いることを想定している(これは符号中のフラグ操作で可能である)。つまり、復号時には、サブサンプリングされた色差の補間をウェーブレット逆変換で行うことを想定している。この様に、復号時に”通常”ウェーブレット逆変換を行う場合には、サブバンドゲインやコンポーネント変換のゲインは図30に示した基準量子化ステップ数が用いられ一般的な場合と同様であるので、符号化時の線形量子化に図30の基準量子化ステップ数を用いることができる。   Here, a supplementary explanation will be given regarding the number of quantization steps used for linear quantization. When the simple wavelet transform is performed as in the present embodiment, whether or not to use the reference quantization step number for linear quantization depends on how the RGB value of the color difference is calculated after decoding. In this embodiment, it is assumed that “simple” wavelet is used for encoding, but “normal” wavelet inverse transform is used for decoding (this is possible by flag operation in the code). That is, at the time of decoding, it is assumed that interpolation of the subsampled color difference is performed by inverse wavelet transform. In this way, when performing “normal” wavelet inverse transformation at the time of decoding, the subband gain and component transformation gain are the same as in the general case where the reference quantization step number shown in FIG. 30 is used. The reference quantization step number of FIG. 30 can be used for linear quantization at the time of encoding.

本実施例では、422フォーマットのインターレース映像信号(YCbCr値)をフィールドベースで符号化する。   In this embodiment, a 422 format interlaced video signal (YCbCr value) is encoded on a field basis.

図49に本実施例における処理の概略フローを示す。まず、制御ブロック206において、フィールドベースの符号化が選択される(step61)。したがって、圧縮処理のための各ブロック200〜205はフィールドベースの符号化のための動作をするように制御される。ただし、入力映像信号はYCbCr値であるため、DCレベルシフト・色変換ブロック200はDCレベルシフトも色変換も行わない。   FIG. 49 shows a schematic flow of processing in the present embodiment. First, in the control block 206, field-based encoding is selected (step 61). Accordingly, each block 200 to 205 for compression processing is controlled to perform an operation for field-based encoding. However, since the input video signal has a YCbCr value, the DC level shift / color conversion block 200 performs neither DC level shift nor color conversion.

次に制御ブロック206において、量子化ステップ数制御手段209は基準量子化ステップ数テーブル208より基準量子化ステップ数(図30)を読み出し、それを量子化ブロック202に対し設定する(step62)。前記実施例6に関連して説明したように、本実施例においても、復号時に”通常”ウェーブレット逆変換を用いることを想定しているわけである。   Next, in the control block 206, the quantization step number control means 209 reads the reference quantization step number (FIG. 30) from the reference quantization step number table 208, and sets it in the quantization block 202 (step 62). As described in connection with the sixth embodiment, the present embodiment also assumes that “normal” wavelet inverse transformation is used at the time of decoding.

次に、制御ブロック206はエントロピー符号ブロック203に対しトランケート数を設定する(step63)。本実施例では、サブバンド分割に”簡易”ウェーブレット変換(9×7ウェーブレット変換)を用い、サブビットプレーン単位のトランケーションを行うものとして、トランケート数を設定する。すなわち、制御ブロック206のトランケート数制御手段210は、図29の(8)に示した参照区間についてのCSFの積分により算出されたVisual WeightをVisualWeightテーブル207より読み出す。図29の(8)に示した参照区間を図50に再掲する。図50から分かるように、色差の垂直方向のサブバンドについての参照区間を、色差の水平方向のサブバンドについての参照区間に対して、1デコンポジションレベル分だけ低域側にシフトさせていることに注意すべきである。したがって、観察距離として1700が選ばれるものとすると、図13中の「422 field」のVisual WeightがVisualWeightテーブル207から読み出されることになる。そして、トランケート数制御手段210は、VisualWeightテーブル207より読み出したVisual Weightを、前記式(SBP)によりサブビットプレーン単位のトランケート数に換算する。ただし、式(SBP)による算出値は実数であるため、これを四捨五入して整数化する。整数化後のトランケート数は図51に示すような値となる。このトランケート数はエントロピー符号化ブロック203に対し設定される。   Next, the control block 206 sets the number of truncations for the entropy code block 203 (step 63). In this embodiment, “simple” wavelet transform (9 × 7 wavelet transform) is used for subband division, and truncation is set on the assumption that truncation is performed in units of subbit planes. That is, the truncation number control means 210 of the control block 206 reads the Visual Weight calculated by the CSF integration for the reference section shown in (8) of FIG. The reference section shown in (8) of FIG. 29 is shown again in FIG. As can be seen from FIG. 50, the reference interval for the vertical subband of the color difference is shifted to the low frequency side by one decomposition level with respect to the reference interval for the horizontal subband of the color difference. Should be noted. Accordingly, if 1700 is selected as the observation distance, the “422 field” Visual Weight in FIG. 13 is read from the VisualWeight table 207. Then, the truncation number control means 210 converts the Visual Weight read from the VisualWeight table 207 into the number of truncations in sub-bit plane units using the above equation (SBP). However, since the calculated value by the formula (SBP) is a real number, it is rounded to an integer. The number of truncations after the integerization is as shown in FIG. This truncation number is set for the entropy coding block 203.

以下のstep64〜67は、入力映像信号の各フレームに対し繰り返し実行される処理ステップである。   The following steps 64 to 67 are processing steps that are repeatedly executed for each frame of the input video signal.

ウェーブレット変換ブロック201において、フィールド毎に、Y,Cb,Crの各コンポーネントに対し”簡易”ウェーブレット変換が行われる(step64)。ウェーブレット変換としては9×7ウェーブレット変換が用いられる。また、ウェーブレット変換はデコンポジションレベル2まで行われるものとする。   In the wavelet transform block 201, “simple” wavelet transform is performed on each of the Y, Cb, and Cr components for each field (step 64). As the wavelet transform, 9 × 7 wavelet transform is used. It is assumed that wavelet transform is performed up to composition level 2.

基準量子化ステップ数を用いた各コンポーネントの各サブバンドの係数に対する線形量子化が量子化ブロック202で実行される(step65)。エントロピー符号化ブロック203において、各コンポーネントの各サブバンドの量子化後の係数に対し、設定されたトランケート数分の下位サブビットプレーンを除外してMQ符号化を行う(step66)。生成されたMQ符号はパケット生成ブロック204でパケットにまとめられ、符号形成ブロック205によりパケットを用いてコードストリームが形成される(step67)。   Linear quantization is performed in the quantization block 202 for each subband coefficient of each component using the reference quantization step number (step 65). In the entropy coding block 203, MQ coding is performed on the quantized coefficients of each subband of each component, excluding lower subbitplanes corresponding to the set number of truncations (step 66). The generated MQ codes are collected into packets by the packet generation block 204, and a code stream is formed using the packets by the code formation block 205 (step 67).

なお、予め図51に示したトランケート数を格納したテーブルを制御ブロック206に用意しておき、このテーブルより読み出したトランケート数をエントロピー符号化ブロック203に設定する構成とすることも可能である。また、本実施例ではサブビットプレーン単位でのトランケーションを行ったが、ビットプレーン単位のトランケーションを行ってもよく、この場合はVisual Weightからトランケート数への換算に前記式(BP)が用いられることなる。さらに、エントロピー符号化ブロック203ではトランケーションを行わず、パケット生成ブロック204において設定トランケート数分の下位サブビットプレーンの符号を破棄するようにしてもよい。   It is also possible to prepare a table storing the number of truncations shown in FIG. 51 in the control block 206 in advance and set the number of truncations read from this table in the entropy encoding block 203. In this embodiment, truncation is performed in units of sub-bit planes, but truncation in units of bit planes may be performed, and in this case, the above formula (BP) is used for conversion from Visual Weight to the number of truncations. Become. Furthermore, the entropy encoding block 203 may not perform truncation, and the packet generation block 204 may discard the codes of the lower subbit planes corresponding to the set truncation number.

以上の説明から明らかなように、本実施例は請求項6に係る発明の一実施例である。 As is apparent from the above description, this embodiment is an embodiment of the invention according to claim 6 .

本実施例では、411フォーマットのインターレース映像信号(YCbCr値)をフィールドベースで符号化する。   In this embodiment, a 411 format interlaced video signal (YCbCr value) is encoded on a field basis.

図52に本実施例における処理の概略フローを示す。まず、制御ブロック206において、フィールドベースの符号化が選択される(step71)。したがって、圧縮処理のための各ブロック200〜205はフィールドベースの符号化のための動作をするように制御される。ただし、入力映像信号はYCbCr値であるため、DCレベルシフト・色変換ブロック200はDCレベルシフトも色変換も行わない。   FIG. 52 shows a schematic flow of processing in the present embodiment. First, in the control block 206, field-based encoding is selected (step 71). Accordingly, each block 200 to 205 for compression processing is controlled to perform an operation for field-based encoding. However, since the input video signal has a YCbCr value, the DC level shift / color conversion block 200 performs neither DC level shift nor color conversion.

次に、制御ブロック206において、量子化ステップ数制御手段209は基準量子化ステップ数テーブル208より基準量子化ステップ数(図305)を読み出し、それを量子化ブロック202に対し設定する(step72)。前記実施例6に関連して説明したように、本実施例においても復号時に”通常”ウェーブレット逆変換を用いることを想定している。   Next, in the control block 206, the quantization step number control means 209 reads the reference quantization step number (FIG. 305) from the reference quantization step number table 208, and sets it for the quantization block 202 (step 72). As described in connection with the sixth embodiment, it is assumed that the “normal” wavelet inverse transform is used in decoding in this embodiment as well.

次に制御ブロック206は、トランケート数を設定する(step73)。本実施例では、サブバンド分割に”簡易”ウェーブレット変換(9×7ウェーブレット変換)を用い、サブビットプレーン単位のトランケーションを行うものとして、トランケート数を設定する。すなわち、トランケート数制御手段210は、図29の(10)に示した参照区間についてのCSFの積分により算出されたVisual WeightをVisualWeightテーブル207より読み出す。図29の(10)に示した参照区間を図53に再掲する。図53から分かるように、色差の垂直方向のサブバンドについての参照区間を、色差の水平方向のサブバンドについての参照区間に対して、1デコンポジションレベル分だけ低域側にシフトさせていることに注意すべきである。したがって、観察距離として1700が選ばれるものとすると、図14中の「411 field」のVisual WeightがVisualWeightテーブル207から読み出されることになる。そして、トランケート数制御手段210は、VisualWeightテーブル207より読み出したVisual Weightを、前記式(SBP)によりサブビットプレーン単位のトランケート数に換算する。ただし、式(SBP)による算出値は実数であるため、これを四捨五入して整数化する。整数化後のトランケート数は図54に示すような値となる。このトランケート数はエントロピー符号化ブロック203に設定される。   Next, the control block 206 sets the number of truncations (step 73). In this embodiment, “simple” wavelet transform (9 × 7 wavelet transform) is used for subband division, and truncation is set on the assumption that truncation is performed in units of subbit planes. That is, the truncation number control means 210 reads the Visual Weight calculated by the CSF integration for the reference section shown in (10) of FIG. The reference section shown in (10) of FIG. 29 is shown again in FIG. As can be seen from FIG. 53, the reference section for the vertical subband of the color difference is shifted to the low frequency side by one decomposition level with respect to the reference section for the horizontal subband of the color difference. Should be noted. Therefore, assuming that 1700 is selected as the observation distance, the Visual Weight of “411 field” in FIG. 14 is read from the VisualWeight table 207. Then, the truncation number control means 210 converts the Visual Weight read from the VisualWeight table 207 into the number of truncations in sub-bit plane units using the above equation (SBP). However, since the calculated value by the formula (SBP) is a real number, it is rounded to an integer. The number of truncations after conversion to an integer is a value as shown in FIG. This truncation number is set in the entropy coding block 203.

以下のstep74〜77は、入力映像信号の各フレームに対し繰り返し実行される処理ステップである。   The following steps 74 to 77 are processing steps repeatedly executed for each frame of the input video signal.

ウェーブレット変換ブロック201において、フィールド毎に、Y,Cb,Crの各コンポーネントに対し”簡易”ウェーブレット変換が行われる(step74)。ウェーブレット変換としては9×7ウェーブレット変換が用いられる。また、ウェーブレット変換はデコンポジションレベル2まで行われるものとする。なお、本実施例では、Cb,Crコンポーネントについては、デコンポジションレベル1に限りウェーブレット変換つまりサブバンド分割は行われないことに注意されたい。   In the wavelet transform block 201, “simple” wavelet transform is performed on each of the Y, Cb, and Cr components for each field (step 74). As the wavelet transform, 9 × 7 wavelet transform is used. It is assumed that the wavelet transform is performed up to decomposition level 2. It should be noted that in this embodiment, wavelet transform, that is, subband division is not performed for the Cb and Cr components only at the composition level 1.

基準量子化ステップ数を用いた各コンポーネントの各サブバンドの係数に対する線形量子化が量子化ブロック202で実行される(step75)。エントロピー符号化ブロック203において、各コンポーネントの各サブバンドの量子化後の係数に対し、設定されたトランケート数分の下位サブビットプレーンを除外してMQ符号化を行う(step76)。生成されたMQ符号はパケット生成ブロック204でパケットにまとめられ、符号形成ブロック205によりパケットを用いてコードストリームが形成される(step77)。   Linear quantization is performed in the quantization block 202 for each subband coefficient of each component using the reference quantization step number (step 75). In the entropy coding block 203, MQ coding is performed on the quantized coefficients of each subband of each component, excluding lower subbitplanes corresponding to the set number of truncations (step 76). The generated MQ codes are collected into packets by the packet generation block 204, and a code stream is formed using the packets by the code formation block 205 (step 77).

図30より分かるように、線形量子化に用いられる輝度についての基準量子化ステップ数には「HL=LH<HH」という大小関係がある。一方、図54に示すようにデコンポジションレベル1の輝度についてのトランケート数には「LH<HL=HH」の大小関係がある。よって、線形量子化とトランケーションの効果を総合したデコンポジションレベル1の輝度についての”量子化の程度”の大小関係は「LH<HL<HH」となる。   As can be seen from FIG. 30, the reference quantization step number for luminance used for linear quantization has a magnitude relationship of “HL = LH <HH”. On the other hand, as shown in FIG. 54, the number of truncations for the luminance at decomposition level 1 has a magnitude relationship of “LH <HL = HH”. Therefore, the magnitude relationship of “degree of quantization” with respect to the luminance at decomposition level 1 that combines the effects of linear quantization and truncation is “LH <HL <HH”.

なお、予め図54に示したトランケート数を格納したテーブルを制御ブロック206に用意しておき、このテーブルより読み出したトランケート数をエントロピー符号化ブロック203に対し設定する構成とすることも可能である。また、本実施例ではサブビットプレーン単位でのトランケーションを行ったが、ビットプレーン単位のトランケーションを行ってもよく、この場合はVisual Weightからトランケート数への換算に前記式(BP)が用いられることなる。さらに、エントロピー符号化ブロック203ではトランケーションを行わず、パケット生成ブロック204においてトランケート数分の下位サブビットプレーンの符号を破棄するようにしてもよい。   It is also possible to prepare a table storing the number of truncations shown in FIG. 54 in advance in the control block 206 and set the number of truncations read from this table for the entropy coding block 203. In this embodiment, truncation is performed in units of sub-bit planes, but truncation in units of bit planes may be performed, and in this case, the above formula (BP) is used for conversion from Visual Weight to the number of truncations. Become. Furthermore, the entropy encoding block 203 may not perform truncation, and the packet generation block 204 may discard the codes of lower subbit planes corresponding to the number of truncations.

以上の説明から明らかなように、本実施例は請求項7に係る発明の一実施例に相当する
ものである。
As is apparent from the above description, this embodiment corresponds to an embodiment of the invention according to claim 7 .

本実施例では、411フォーマットのインターレース映像信号(YCbCr値)をフレームベースで符号化する。   In this embodiment, a 411 format interlaced video signal (YCbCr value) is encoded on a frame basis.

図55に本実施例における処理の概略フローを示す。まず、制御ブロック206において、フレームベースの符号化が選択される(step81)。したがって、圧縮処理のための各ブロック200〜205はフレームベースの符号化のための動作をするように制御される。ただし、入力映像信号はYCbCr値であるため、DCレベルシフト・色変換ブロック200はDCレベルシフトも色変換も行わない。   FIG. 55 shows a schematic flow of processing in the present embodiment. First, in the control block 206, frame-based encoding is selected (step 81). Accordingly, each block 200 to 205 for compression processing is controlled to perform an operation for frame-based encoding. However, since the input video signal is a YCbCr value, the DC level shift / color conversion block 200 performs neither DC level shift nor color conversion.

次に制御ブロック206の量子化ステップ数制御手段209は、基準量子化ステップ数テーブル208より基準量子化ステップ数(図30)を読み出し、これを量子化ブロック202に対し設定する(step82)。本実施例では”簡易”ウェーブレット変換を用いるが、前記実施例6に関連して説明したように復号時に”通常”ウェーブレット逆変換を用いることを想定しているわけである。   Next, the quantization step number control means 209 of the control block 206 reads the reference quantization step number (FIG. 30) from the reference quantization step number table 208 and sets it for the quantization block 202 (step 82). In this embodiment, “simple” wavelet transform is used. However, as described in connection with the sixth embodiment, it is assumed that “normal” wavelet inverse transform is used at the time of decoding.

次に制御ブロック206は、サブバンド分割に”簡易”ウェーブレット変換(9×7ウェーブレット変換)を用い、また、サブビットプレーン単位のトランケーションを行うことを想定してトランケート数を設定する(step83)。すなわち、トランケート数制御手段210は、図29の(9)に示した参照区間についてのCSFの積分により算出されたVisual WeightをVisualWeightテーブル207より読み出す。図29の(9)に示した参照区間を図56に再掲する。図56から分かるように、デコンポジションレベル2(以上)に関し、色差のサブバンドについての参照区間を、輝度のサブバンドについての参照区間を同一としていることに注意すべきである。したがって、観察距離として1700が選ばれるものとすると、図14中の「411 frame」のVisual WeightがVisualWeightテーブル207から読み出されることになる。そして、トランケート数制御手段210は、VisualWeightテーブル207より読み出したVisual Weightを、前記式(SBP)によりサブビットプレーン単位のトランケート数に換算する。ただし、式(SBP)による算出値は実数であるため、これを四捨五入して整数化する。整数化後のトランケート数は図57に示すような値となる。このトランケート数はエントロピー符号化ブロック203に設定される。   Next, the control block 206 uses the “simple” wavelet transform (9 × 7 wavelet transform) for subband division, and sets the number of truncations on the assumption that truncation is performed in units of sub-bit planes (step 83). That is, the truncation number control means 210 reads the Visual Weight calculated by the CSF integration for the reference section shown in (9) of FIG. The reference section shown in (9) of FIG. 29 is shown again in FIG. As can be seen from FIG. 56, it should be noted that the reference interval for the color difference subband and the reference interval for the luminance subband are the same for the decomposition level 2 (or more). Therefore, assuming that 1700 is selected as the observation distance, the Visual Weight of “411 frame” in FIG. 14 is read from the VisualWeight table 207. Then, the truncation number control means 210 converts the Visual Weight read from the VisualWeight table 207 into the number of truncations in sub-bit plane units using the above equation (SBP). However, since the calculated value by the formula (SBP) is a real number, it is rounded to an integer. The number of truncations after conversion to an integer is a value as shown in FIG. This truncation number is set in the entropy coding block 203.

以下のstep84〜87は、入力映像信号の各フレームに対し繰り返し実行される処理ステップである。   The following steps 84 to 87 are processing steps repeatedly executed for each frame of the input video signal.

ウェーブレット変換ブロック201において、フレーム毎に、Y,Cb,Crの各コンポーネントに対し”簡易”ウェーブレット変換が行われる(step84)。ウェーブレット変換としては9×7ウェーブレット変換が用いられる。また、ウェーブレット変換はデコンポジションレベル2まで行われるものとする。なお、本実施例では、Cb,Crコンポーネントについては、デコンポジションレベル1に限りウェーブレット変換つまりサブバンド分割は行われないことに注意されたい。   In the wavelet transform block 201, “simple” wavelet transform is performed for each of the Y, Cb, and Cr components for each frame (step 84). As the wavelet transform, 9 × 7 wavelet transform is used. It is assumed that the wavelet transform is performed up to decomposition level 2. It should be noted that in this embodiment, wavelet transform, that is, subband division is not performed for the Cb and Cr components only at the composition level 1.

基準量子化ステップ数を用いた各コンポーネントの各サブバンドの係数に対する線形量子化が量子化ブロック202で実行される(step85)。エントロピー符号化ブロック203において、各コンポーネントの各サブバンドの量子化後の係数に対し、設定されたトランケート数分の下位サブビットプレーンを除外してMQ符号化を行う(step86)。生成されたMQ符号はパケット生成ブロック204でパケットにまとめられ、符号形成ブロック205によりパケットを用いてコードストリームが形成される(step87)。   Linear quantization is performed in the quantization block 202 for each subband coefficient of each component using the reference quantization step number (step 85). In the entropy coding block 203, MQ coding is performed on the quantized coefficients of each subband of each component, excluding lower subbitplanes corresponding to the set number of truncations (step 86). The generated MQ codes are collected into packets by the packet generation block 204, and a code stream is formed using the packets by the code formation block 205 (step 87).

図305より分かるように、線形量子化に用いられる輝度についての基準量子化ステップ数には「HL=LH<HH」という大小関係がある。また、図57に示すようにデコンポジションレベル1の輝度についてのトランケート数にも「HL=LH<HH」の大小関係がある。よって、線形量子化とトランケーションの効果を総合したデコンポジションレベル1の輝度のサブバンドについての”量子化の程度”の大小関係は「HL=LH<HH」となることに注意すべきである。   As can be seen from FIG. 305, the reference quantization step number for luminance used for linear quantization has a magnitude relationship of “HL = LH <HH”. Also, as shown in FIG. 57, the number of truncations for the luminance at decomposition level 1 also has a magnitude relationship of “HL = LH <HH”. Therefore, it should be noted that the magnitude relationship of “degree of quantization” for the luminance subband of decomposition level 1 that combines the effects of linear quantization and truncation is “HL = LH <HH”.

なお、予め図57に示したトランケート数を格納したテーブルを制御ブロック206に用意しておき、このテーブルより読み出したトランケート数をエントロピー符号化ブロック203に供給する構成とすることも可能である。また、本実施例ではサブビットプレーン単位でのトランケーションを行ったが、ビットプレーン単位のトランケーションを行ってもよく、この場合はVisual Weightからトランケート数への換算に前記式(BP)が用いられることなる。さらに、エントロピー符号化ブロック203ではトランケーションを行わず、パケット生成ブロック204においてランケート数分の下位サブビットプレーンの符号を破棄するようにしてもよい。   It is also possible to prepare a table storing the number of truncations shown in FIG. 57 in advance in the control block 206 and supply the number of truncations read from this table to the entropy coding block 203. In this embodiment, truncation is performed in units of sub-bit planes, but truncation in units of bit planes may be performed, and in this case, the above formula (BP) is used for conversion from Visual Weight to the number of truncations. Become. Furthermore, the entropy encoding block 203 may not perform truncation, and the packet generation block 204 may discard the codes of the lower sub-bit planes corresponding to the number of locates.

(他の実施例)
以上の各実施例は、線形量子化の量子化ステップ数及び/又は係数もしくは符号のトランケーションのトランケート数に、理論的知見に基づいて、視覚周波数特性を的確に反映させる構成であった。
(Other examples)
Each of the above embodiments has a configuration in which the visual frequency characteristics are accurately reflected on the number of quantization steps of linear quantization and / or the number of truncations of truncation of a coefficient or code based on theoretical knowledge.

本発明はさらに、ラグランジェレート制御を行う符号化装置にも適用することができる。これについて、図17を参照し説明する。   The present invention can also be applied to an encoding device that performs Lagrange rate control. This will be described with reference to FIG.

ラグランジェレート制御は符号化処理手段に含まれるパケット生成ブロック204で実行される。ラグランジェレート制御のためのディストーションスロープはエントロピー符号化ブロック203で算出される。制御ブロック206のスロープ制御手段211において、この算出されたディストーションスロープに、VisualWeightテーブル207より読み出したVisual Weightの二乗を乗じた新たなディストーションスロープを算出し、これをパケット生成ブロック204におけるラグランジェレート制御に利用させることにより、本発明の理論的知見に基づいて視覚周波数特性を的確に反映させたラグランジェレート制御を行わせることが可能となる。VisualWeightテーブル207より読み出すべきVisual Weightは、前記各実施例に述べたようにして選ばれる。   Lagrangian rate control is executed by a packet generation block 204 included in the encoding processing means. A distortion slope for Lagrangian rate control is calculated by the entropy coding block 203. In the slope control means 211 of the control block 206, a new distortion slope is calculated by multiplying the calculated distortion slope by the square of the Visual Weight read from the VisualWeight table 207, and this is calculated as the Lagrangian rate control in the packet generation block 204. By using this, Lagrange rate control that accurately reflects the visual frequency characteristics can be performed based on the theoretical knowledge of the present invention. The Visual Weight to be read from the VisualWeight table 207 is selected as described in the above embodiments.

さらに説明すれば、レート制御とは、単に総符号量を目的値に合わせるだけでなく、その符号量において最大のPSNR(Peak Signal−to−Noise Ratio)又は最高の画質を得るために行われる符号の取捨選択作業であり、そのために例えばJPEG2000では、コードブロック毎かつビットプレーン(正確にはサブビットプレーン)毎に符号の価値の順序づけを行う。なお、コードブロックとはサブバンドを矩形に分割したものである。   To describe further, rate control is not only to adjust the total code amount to the target value, but also to code that is performed to obtain the maximum PSNR (Peak Signal-to-Noise Ratio) or the highest image quality at that code amount. For this purpose, for example, in JPEG 2000, the code values are ordered for each code block and each bit plane (more precisely, a sub-bit plane). The code block is a subband divided into rectangles.

今、最大のPSNRを得ることを目的とした場合、各コードブロックの符号のPSNR的な価値は
「その符号を破棄した場合の量子化誤差の増分/その符号量≡ディストーションスロー
プ」
で表すことができる。その符号を捨てても誤差が増えないのであれば、それは不要な符号である。その符号を維持した場合に、誤差が減り、かつ総符号量が増えないのであれば、それは維持すべき有用な符号である。上記ディストーションスロープの分母である符号長は、エントロピー符号化の際に実データとして得られる量である。また、分子である量子化誤差の増分とは、コードブロック単位での誤差の増分であり、通常これはコードブロック単位での二乗誤差(誤差の二乗和)の増分として算出される。
Now, when aiming to obtain the maximum PSNR, the PSNR value of the code of each code block is “increment of quantization error when the code is discarded / its code amount ≡ distortion slope”.
Can be expressed as If the error does not increase even if the code is discarded, it is an unnecessary code. If the code is maintained and the error is reduced and the total code amount does not increase, it is a useful code to maintain. The code length which is the denominator of the distortion slope is an amount obtained as actual data at the time of entropy coding. The increment of quantization error, which is a numerator, is an increment of error in units of code blocks, and is usually calculated as an increment of square error (sum of squares of errors) in units of code blocks.

前記ディストーションスロープに視覚周波数特性を反映させるためには、
「その符号が属するサブバンドのVisual Weightの二乗×(その符号を破棄した場合の
量子化誤差の増分/その符号量)≡新たなディストーションスロープ」
を算出する。この際に用いるVisual Weightとして、本発明の理論的見地に従って設定された参照周波数区間についてのCSFを積分により求められたものを用いるわけである。この新たなディストーションスロープにより符号の価値付けを行い、その後に公知のラグランジェレート制御を行えば、視覚周波数特性を的確に反映させたラグランジェレート制御を実施できる。ラグランジェレート制御では、符号に価値の順序づけが付されるため、「価値の低い符号を破棄し、価値の高い符号を残す」作業を繰り返すことで、所望の符号量の符号を得ることができる。
In order to reflect visual frequency characteristics in the distortion slope,
“The square of the Visual Weight of the subband to which the code belongs × (increment of quantization error when the code is discarded / the amount of code) ≡ new distortion slope”
Is calculated. As the Visual Weight used at this time, a value obtained by integrating the CSF for the reference frequency section set according to the theoretical viewpoint of the present invention is used. If the value of the code is given with this new distortion slope and then the known Lagrange rate control is performed, the Lagrange rate control that accurately reflects the visual frequency characteristics can be performed. In Lagrange rate control, codes are ordered in value, so a code with a desired code amount can be obtained by repeating the operation of “discarding low-value codes and leaving high-value codes”. .

なお、ラグランジェレート制御自体は公知の技術であり、それに関する公知資料は「D.S.Taubman and M.W.Marcellin,”JPEG2000:Image Compression Fundamentals,Standards and Practice”(Kluwer出版,2002)」など数多い。よって、ラグランジェレート制御自体のこれ以上の詳細な説明は割愛する。   Note that Lagrange rate control itself is a well-known technique, and there are many known materials related to it, such as “D.S. Taubman and M.W. Marcellin,“ JPEG2000: Image Compression Fundamentals, Standards and Practice ”(Kluwer Publishing, 2002)”. Therefore, further detailed explanation of the Lagrange rate control itself is omitted.

なお、前記各実施例に係る符号化装置は、例えば図58に示すようなCPU301、メモリ302、ハードディスク装置303などをバス304で接続した如き一般的な構成のコンピュータを利用し実現することができる。この実現のためには、図17に示す各ブロックとしてコンピュータを機能させるプログラム、あるいは、各ブロックによる処理をコンピュータに実行させるプログラムを例えばハードディスク装置303にインストールしておき、このプログラムをメモリ302にロードし、CPU301に実行させることになる。   The encoding apparatus according to each of the above embodiments can be realized by using a computer having a general configuration such as a CPU 301, a memory 302, a hard disk device 303, and the like as shown in FIG. . In order to realize this, a program that causes the computer to function as each block shown in FIG. 17 or a program that causes the computer to execute the process according to each block is installed in, for example, the hard disk device 303, and this program is loaded into the memory 302. Then, the CPU 301 is caused to execute.

この場合、例えば次のような処理の流れとなる。ハードディスク装置303に記録されているインターレース映像信号の1フレームが、CPU301からの命令によってメモリ302に読み込まれる。このフレームに対し、CPU301により、前記実施例に関して説明したようなフィールドベース又はフレームベースの符号化処理が実行され、その結果であるコードストリームはメモリ302に書き込まれる。1フレーム分の符号化処理が終了すると、CPU301からの命令により、そのコードストリームはハードディスク装置303に記録される。以上の処理が繰り返されることにより、ハードディスク装置303上の元のインターレース映像信号の全フレームが符号される。なお、フィールドベース/フレームベースの選択をユーザから指定する場合には、例えば、図58に不図示のディスプレイ装置とマウス等のユーザ入力装置からなるグラフィカル・ユーザ・インターフェースを利用し、符号化しようとするインターレース映像信号のファイルの指定の際にフィールドベース/フレームベースの指定を行うようにすることができる。   In this case, for example, the processing flow is as follows. One frame of the interlaced video signal recorded in the hard disk device 303 is read into the memory 302 by a command from the CPU 301. The CPU 301 executes field-based or frame-based encoding processing as described with respect to the above embodiment on the frame, and the resulting code stream is written into the memory 302. When the encoding process for one frame is completed, the code stream is recorded in the hard disk device 303 according to a command from the CPU 301. By repeating the above processing, all the frames of the original interlaced video signal on the hard disk device 303 are encoded. When field-based / frame-based selection is designated by the user, for example, an attempt is made to encode using a graphical user interface comprising a display device (not shown in FIG. 58) and a user input device such as a mouse. It is possible to specify field base / frame base when specifying a file of an interlaced video signal to be performed.

前記各実施例に対応した、このようなコンピュータのプログラムは請求項8〜14
係る発明の実施例に相当する。
Such a computer program corresponding to each of the embodiments corresponds to an embodiment of the invention according to claims 8 to 14 .

すなわち、前記実施例1に係る図31に示した処理の工程をコンピュータに実行させる
プログラムは、請求項8に係る一実施例に相当する。前記実施例2に係る図34に示した
処理の工程をコンピュータに実行させるプログラムは、請求項9に係る発明の一実施例に
相当する。前記実施例3に係る図37に示した処理の工程をコンピュータに実行させるプ
ログラムは、請求項10に係る発明の一実施例に相当する。前記実施例4に係る図40に
示した処理の工程のコンピュータに実行させるプログラムは、請求項11に係る発明の一
実施例に相当する。前記実施例5に係る図43に示した処理の工程をコンピュータに実行
させるプログラムは、請求項12に係る発明の一実施例に相当する前記実施例7に係る
図49に示した処理の工程をコンピュータに実行させるプログラムは、請求項13に係る
発明の一実施例に相当する。前記実施例8に係る図52に示した処理の工程をコンピュー
タに実行させるプログラムは、請求項14に係る発明の一実施例に相当するこれら実施
例において、線形量子化又はトランケーションに代えてラグランジェレート制御に視覚周
波数特性値を反映させることも可能であることは前述の通りであり、かかる態様も請求項
8〜14に係る発明に包含されるものである。
That is, a program that causes a computer to execute the process steps shown in FIG. 31 according to the first embodiment corresponds to an embodiment according to the eighth aspect . A program for causing a computer to execute the process steps shown in FIG. 34 according to the second embodiment corresponds to an embodiment of the invention according to claim 9 . A program for causing a computer to execute the processing steps shown in FIG. 37 according to the third embodiment corresponds to an embodiment of the invention according to claim 10 . The program executed by the computer in the process steps shown in FIG. 40 according to the fourth embodiment corresponds to one embodiment of the invention according to claim 11 . A program for causing a computer to execute the processing steps shown in FIG. 43 according to the fifth embodiment corresponds to an embodiment of the invention according to claim 12 . A program for causing a computer to execute the processing steps shown in FIG. 49 according to the seventh embodiment corresponds to an embodiment of the invention according to claim 13 . A program for causing a computer to execute the processing steps shown in FIG. 52 according to the eighth embodiment corresponds to an embodiment of the invention according to claim 14 . In these embodiments, the visual frequency characteristic value can be reflected in the Lagrange rate control instead of linear quantization or truncation as described above, and this aspect is also claimed.
It is included in the invention according to 8-14 .

また、このようなプログラムが記録された磁気ディスク、光ディスク、光磁気ディスク
、半導体記憶素子のようなコンピュータが読み取り可能な各種の情報記録(記憶)媒体は
請求項15に係る発明の実施例に相当する。
Various information recording (storage) media that can be read by a computer, such as a magnetic disk, an optical disk, a magneto-optical disk, and a semiconductor storage element, on which such a program is recorded are
This corresponds to an embodiment of the invention according to claim 15 .

なお、コンピュータを利用して本発明を実施する場合において、一般的なJPEG2000符号化装置の機能(処理工程)をハードウェア又はプログラムとして実装し、それ以外の本発明に固有の機能(処理工程)を別のプログラムとして実装する形態とすることも当然に可能である。後者のプログラムとは、例えば制御ブロック206において、フィールドベース/フレームベースの選択、量子化ステップ数、トランケート数又はディストーションスロープの決定に関連する機能(処理工程)である。そして、このようなプログラム、及び同プログラムが記録されたコンピュータが読み取り可能な情報記録(記憶)媒体も本発明に包含されることは当然である。   When implementing the present invention using a computer, functions (processing steps) of a general JPEG2000 encoding apparatus are implemented as hardware or programs, and other functions (processing steps) unique to the present invention are implemented. Of course, it is also possible to adopt a form in which is implemented as a separate program. The latter program is a function (processing step) related to selection of field-based / frame-based selection, quantization step number, truncation number, or distortion slope in the control block 206, for example. Of course, the present invention includes such a program and a computer-readable information recording (storage) medium in which the program is recorded.

なお、符号化方式としてJPEG2000を用いる実施の形態について説明したが、符号化方式はJPEG2000のみに限定されるものではないことは、以上の説明から明らかである。   Although an embodiment using JPEG 2000 as an encoding method has been described, it is clear from the above description that the encoding method is not limited to JPEG 2000 alone.

フレームベースの符号化とフィールドベースの符号化を説明するための図である。It is a figure for demonstrating frame-based encoding and field-based encoding. CSFテストチャートの例を示す図である。It is a figure which shows the example of a CSF test chart. CSFの例を示すグラフである。It is a graph which shows the example of CSF. 2LHサブバンドに関するCSFの積分区間の例を示す図である。It is a figure which shows the example of the integration area of CSF regarding a 2LH subband. CSFの区間毎の積分値を説明するための図である。It is a figure for demonstrating the integral value for every area of CSF. 422フォーマットのインターレース映像信号をフレームベース符号化する場合における”通常”ウェーブレット変換の説明図である。It is explanatory drawing of the "normal" wavelet transformation in the case of carrying out frame base encoding of the 422 format interlace video signal. 422フォーマットのインターレース映像信号をフィールドベース符号化する場合における”通常”ウェーブレット変換の説明図である。It is explanatory drawing of the "normal" wavelet transform in the case of carrying out field base encoding of the 422 format interlace video signal. 422フォーマットのインターレース映像信号をフレームベース符号化する場合における”簡易”ウェーブレット変換の説明図である。It is explanatory drawing of the "simple" wavelet transform in the case of carrying out frame base encoding of the 422 format interlace video signal. 422フォーマットのインターレース映像信号をフィールドベース符号化する場合における”簡易”ウェーブレット変換の説明図である。It is explanatory drawing of the "simple" wavelet transformation in the case of carrying out field base encoding of the 422 format interlace video signal. 444フォーマットのインターレース映像信号の符号化に”通常”ウェーブレット変換が用いられる場合のVisual Weightを示す。The Visual Weight when a “normal” wavelet transform is used to encode an interlaced video signal in 444 format is shown. 422フォーマットのインターレース映像信号の符号化に”通常”ウェーブレット変換が用いられる場合のVisual Weightを示す。The Visual Weight when the “normal” wavelet transform is used to encode the interlaced video signal in the 422 format is shown. 411フォーマットのインターレース映像信号の符号化に”通常”ウェーブレット変換が用いられる場合のVisual Weightを示す。The Visual Weight when the “normal” wavelet transform is used to encode the interlaced video signal in the 411 format is shown. 422フォーマットのインターレース映像信号の符号化に”簡易”ウェーブレット変換が用いられる場合のVisual Weightを示す。The Visual Weight when the “simple” wavelet transform is used to encode the interlaced video signal in the 422 format. 411フォーマットのインターレース映像信号の符号化に”簡易”ウェーブレット変換が用いられる場合のVisual Weightを示す。The Visual Weight when the “simple” wavelet transform is used to encode the interlaced video signal in the 411 format. 本発明の理論的知見に基づいた量子化の程度の大小関係をまとめて示す。The magnitude relationship of the degree of quantization based on the theoretical knowledge of the present invention will be collectively shown. 特許文献3に記載されたフィールドベース符号化のための量子化ステップ数の大小関係を示す。The magnitude relationship of the number of quantization steps for field-based encoding described in Patent Document 3 is shown. 本発明の実施形態を説明するためのブロック図である。It is a block diagram for demonstrating embodiment of this invention. 5×3ウェーブレット変換の説明のために用いられる原画像とその座標系を示す。The original image used for description of 5x3 wavelet transform and its coordinate system are shown. 垂直方向へのフィルタリング後の係数配列を示す。The coefficient arrangement | sequence after filtering to a perpendicular direction is shown. 水平方向へのフィルタリング後の係数配列を示す。The coefficient arrangement | sequence after filtering to a horizontal direction is shown. デインターリーブした係数配列を示す。A deinterleaved coefficient array is shown. 2回のウェーブレット変換後のデインターリーブした係数配列を示す。A deinterleaved coefficient array after two wavelet transforms is shown. デコンポジションレベルと解像度レベルの関係を示す図である。It is a figure which shows the relationship between a decomposition level and a resolution level. 2LLサブバンド係数の具体的な値を例示する図である。It is a figure which illustrates the specific value of a 2LL subband coefficient. 図24に示した2LLサブバンド係数の4枚のビットプレーンを示す図である。FIG. 25 is a diagram showing four bit planes of 2LL subband coefficients shown in FIG. 24. 図25に示した各ビットプレーンのサブビットプレーンを示す図である。FIG. 26 is a diagram illustrating a sub bit plane of each bit plane illustrated in FIG. 25. JPEG2000により生成される符号構造の例を示す。The example of the code structure produced | generated by JPEG2000 is shown. ”通常”ウェーブレット変換が用いられる場合のVisual Weightを算出するためのCSFの参照区間を示す。CSF reference interval for calculating Visual Weight when “normal” wavelet transform is used. ”簡易”ウェーブレット変換が用いられる場合のVisual Weightを算出するためのCSFの参照区間を示す。CSF reference interval for calculating Visual Weight when “simple” wavelet transform is used. 基準量子化ステップ数を示す。Indicates the reference quantization step number. 本発明の実施例1における処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process in Example 1 of this invention. 実施例1において用いられるVisual Weightを算出するためのCSFの参照区間の関係を説明するための図である。It is a figure for demonstrating the relationship of the reference area of CSF for calculating Visual Weight used in Example 1. FIG. 実施例1において設定される量子化ステップ数を示す。The quantization step number set in Example 1 is shown. 本発明の実施例2における処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process in Example 2 of this invention. 実施例2において用いられるVisual Weightを算出するためのCSFの参照区間の関係を説明するための図である。It is a figure for demonstrating the relationship of the reference area of CSF for calculating Visual Weight used in Example 2. FIG. 実施例2において設定される量子化ステップ数を示す。The quantization step number set in Example 2 is shown. 本発明の実施例3における処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process in Example 3 of this invention. 実施例3において用いられるVisual Weightを算出するためのCSFの参照区間の関係を説明するための図である。It is a figure for demonstrating the relationship of the reference area of CSF for calculating Visual Weight used in Example 3. FIG. 実施例3において設定されるトランケート数を示す。The truncation number set in Example 3 is shown. 本発明の実施例4における処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process in Example 4 of this invention. 実施例4において用いられるVisual Weightを算出するためのCSFの参照区間の関係を説明するための図である。It is a figure for demonstrating the relationship of the reference area of CSF for calculating Visual Weight used in Example 4. FIG. 実施例4において設定される量子化ステップ数を示す。The quantization step number set in Example 4 is shown. 本発明の実施例5における処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process in Example 5 of this invention. 実施例5において用いられるVisual Weightを算出するためのCSFの参照区間の関係を説明する図である。It is a figure explaining the relationship of the reference area of CSF for calculating Visual Weight used in Example 5. FIG. 実施例5において設定される量子化ステップ数を示す。The quantization step number set in Example 5 is shown. 本発明の実施例6における処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process in Example 6 of this invention. 実施例6において用いられるVisual Weightを算出するためのCSFの参照区間の関係を説明するための図である。It is a figure for demonstrating the relationship of the reference area of CSF for calculating Visual Weight used in Example 6. FIG. 実施例6において設定されるトランケート数を示す。The truncation number set in Example 6 is shown. 本発明の実施例7における処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process in Example 7 of this invention. 実施例7において用いられるVisual Weightを算出するためのCSFの参照区間の関係を説明する図である。It is a figure explaining the relationship of the reference area of CSF for calculating Visual Weight used in Example 7. FIG. 実施例7において設定されるトランケート数を示す。The truncation number set in Example 7 is shown. 本発明の実施例8における処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process in Example 8 of this invention. 実施例8において用いられるVisual Weightを算出するためのCSFの参照区間の関係を説明するための図である。It is a figure for demonstrating the relationship of the reference area of CSF for calculating Visual Weight used in Example 8. FIG. 実施例8において設定されるトランケート数を示す。The truncation number set in Example 8 is shown. 本発明の実施例9における処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process in Example 9 of this invention. 実施例9において用いられるVisual Weightを算出するためのCSFの参照区間の関係を説明するための図である。It is a figure for demonstrating the relationship of the reference area of CSF for calculating Visual Weight used in Example 9. FIG. 実施例9において設定されるトランケート数を示す。The truncation number set in Example 9 is shown. コンピュータの構成例を示すブロック図である。It is a block diagram which shows the structural example of a computer.

200 DCレベルシフト・色変換ブロック
201 ウェーブレット変換ブロック
202 量子化ブロック
203 エントロピー符号化ブロック
204 パケット生成ブロック
205 符号形成ブロック
206 制御ブロック
207 VisualWeightテーブル
208 基準量子化ステップ数テーブル
209 量子化ステップ数制御手段
210 トランケート数制御手段
211 スロープ制御手段
200 DC level shift / color conversion block 201 Wavelet conversion block 202 Quantization block 203 Entropy encoding block 204 Packet generation block 205 Code formation block 206 Control block 207 VisualWeight table 208 Reference quantization step number table 209 Quantization step number control means 210 Truncation number control means 211 Slope control means

Claims (15)

インターレース映像信号をフィールドベースでサブバンド符号化する符号化装置であっ
て、
前記インターレース映像信号中の輝度信号を水平方向と垂直方向に同じ回数サブバンド
分割するサブバンド分割手段と、
前記サブバンド分割手段によるサブバンド分割によって得られた前記輝度信号の各サブ
バンドの符号化処理を行う符号化処理手段と、
前記輝度信号の各サブバンドの符号化処理に、輝度の視覚周波数特性を基に算出された
サブバンド対応の輝度の視覚周波数特性値を反映させる手段とを有し、
前記輝度の視覚周波数特性値を算出するために参照される輝度の視覚周波数特性の周波
数区間は、垂直方向について参照される周波数区間が水平方向について参照される周波数
区間に対し前記サブバンド分割の1デコンポジションレベル分だけ低域側にシフトした区
間として設定されることを特徴とする符号化装置。
An encoding device for subband encoding an interlaced video signal on a field basis,
Subband dividing means for dividing the luminance signal in the interlaced video signal into subbands the same number of times in the horizontal and vertical directions;
Encoding processing means for performing encoding processing of each subband of the luminance signal obtained by subband division by the subband dividing means;
Means for reflecting the luminance visual frequency characteristic value corresponding to the subband calculated based on the luminance visual frequency characteristic in the encoding process of each subband of the luminance signal;
The frequency interval of the luminance visual frequency characteristic referred to for calculating the luminance visual frequency characteristic value is one of the subband divisions with respect to the frequency interval in which the frequency interval referred to in the vertical direction is referred to in the horizontal direction. An encoding device, characterized in that it is set as a section shifted to the low frequency side by the decompression level.
4:4:4フォーマット又は4:1:1フォーマットのインターレース映像信号をフィ
ールドベースでサブバンド符号化する符号化装置であって、
前記インターレース映像信号中の色差信号を水平方向と垂直方向に同じ回数サブバンド
分割するサブバンド分割手段と、
前記サブバンド分割手段によるサブバンド分割によって得られた前記色差信号の各サブ
バンドの符号化処理を行う符号化処理手段と、
前記色差信号の各サブバンドの符号化処理に、色差の視覚周波数特性を基に算出された
サブバンド対応の色差の視覚周波数特性値を反映させる手段とを有し、
前記色差の視覚周波数特性値を算出するために参照される色差の視覚周波数特性の周波
数区間は、垂直方向について参照される周波数区間が水平方向について参照される周波数
区間に対して前記サブバンド分割の1デコンポジションレベル分だけ低域側にシフトした
区間として設定されることを特徴とする符号化装置。
An encoding device that performs sub-band encoding of interlaced video signals in 4: 4: 4 format or 4: 1: 1 format on a field basis,
Subband dividing means for dividing the color difference signal in the interlaced video signal by the same number of times in the horizontal and vertical directions.
Encoding processing means for performing encoding processing of each subband of the color difference signal obtained by subband division by the subband dividing means;
Means for reflecting the visual frequency characteristic value of the color difference corresponding to the subband calculated based on the visual frequency characteristic of the color difference in the encoding process of each subband of the color difference signal;
The frequency interval of the color difference visual frequency characteristic referred to in order to calculate the color difference visual frequency characteristic value is the frequency band referred to in the vertical direction of the subband division with respect to the frequency interval referred to in the horizontal direction. An encoding apparatus, characterized in that it is set as a section shifted to a low frequency side by one decomposition level.
4:2:2フォーマットのインターレース映像信号をフィールドベースでサブバンド符
号化する符号化装置であって、
前記インターレース映像信号中の輝度信号及び色差信号を水平方向及び垂直方向に同じ
回数サブバンド分割するサブバンド分割手段と、
前記サブバンド分割手段によるサブバンド分割によって得られた前記輝度信号及び前記
色差信号の各サブバンドの符号化処理を行う符号化処理手段と、
前記輝度信号の各サブバンドの符号化処理に輝度の視覚周波数特性を基に算出されたサ
ブバンド対応の輝度の視覚周波数特性値を反映させ、前記色差信号の各サブバンドの符号
化処理に色差の視覚周波数特性を基に算出されたサブバンド対応の色差の視覚周波数特性
値を反映させる手段とを有し、
前記色差の視覚周波数特性値を算出するために水平方向について参照される色差の視覚
周波数特性の周波数区間が、前記輝度の視覚周波数特性値を算出するために水平方向につ
いて参照される輝度の視覚周波数特性の周波数区間に対して、前記サブバンド分割の1デ
コンポジションレベル分だけ低域側にシフトした区間として設定されることを特徴とする
符号化装置。
A coding device for subband coding a 4: 2: 2 format interlaced video signal on a field basis,
Subband dividing means for dividing the luminance signal and the color difference signal in the interlaced video signal by the same number of times in the horizontal and vertical directions.
Encoding processing means for performing encoding processing of each subband of the luminance signal and the color difference signal obtained by subband division by the subband dividing means;
The luminance frequency frequency value corresponding to the subband calculated based on the luminance visual frequency characteristic is reflected in the encoding process of each subband of the luminance signal, and the color difference is applied to the encoding process of each subband of the color difference signal. Means for reflecting the visual frequency characteristic value of the color difference corresponding to the subband calculated based on the visual frequency characteristic of
The frequency interval of the color difference visual frequency characteristic referred to in the horizontal direction to calculate the visual frequency characteristic value of the color difference is the luminance visual frequency referred to in the horizontal direction to calculate the visual frequency characteristic value of the luminance. An encoding apparatus, wherein the characteristic frequency section is set as a section shifted to a low frequency side by one decomposition level of the subband division.
4:2:2フォーマットのインターレース映像信号をフレームベースでサブバンド符号
化する符号化装置であって、
前記インターレース映像信号中の色差信号を水平方向及び垂直方向に同じ回数サブバン
ド分割するサブバンド分割手段と、
前記サブバンド分割手段によるサブバンド分割によって得られた前記色差信号の各サブ
バンドの符号化処理を行う符号化処理手段と、
前記色差信号の各サブバンドの符号化処理に、色差の視覚周波数特性を基に算出された
サブバンド対応の色差の視覚周波数特性値を反映させる手段とを有し、
前記色差の視覚周波数特性値を算出するために参照される色差の視覚周波数特性の周波
数区間は、垂直方向について参照される周波数区間が水平方向について参照される周波数
区間に対して前記サブバンド分割の1デコンポジションレベル分だけ高域側にシフトした
区間として設定されることを特徴とする符号化装置。
An encoding device that performs subband encoding of a 4: 2: 2 format interlaced video signal on a frame basis,
Subband dividing means for dividing the color difference signal in the interlaced video signal by the same number of times in the horizontal and vertical directions.
Encoding processing means for performing encoding processing of each subband of the color difference signal obtained by subband division by the subband dividing means;
Means for reflecting the visual frequency characteristic value of the color difference corresponding to the subband calculated based on the visual frequency characteristic of the color difference in the encoding process of each subband of the color difference signal;
The frequency interval of the color difference visual frequency characteristic referred to in order to calculate the color difference visual frequency characteristic value is the frequency band referred to in the vertical direction of the subband division with respect to the frequency interval referred to in the horizontal direction. An encoding device, characterized in that it is set as a section shifted to the high frequency side by one decomposition level.
4:1:1フォーマットのインターレース映像信号をフレームベースでサブバンド符号
化する符号化装置であって、
前記インターレース映像信号中の輝度信号及び色差信号を水平方向及び垂直方向に同じ
回数サブバンド分割するサブバンド分割手段と、
前記サブバンド分割手段によるサブバンド分割によって得られた前記輝度信号及び前記
色差信号の各サブバンドの符号化処理を行う符号化処理手段と、
前記輝度信号の各サブバンドの符号化処理に輝度の視覚周波数特性を基に算出されたサ
ブバンド対応の輝度の視覚周波数特性値を反映させ、前記色差信号の各サブバンドの符号
化処理に色差の視覚周波数特性を基に算出されたサブバンド対応の色差の視覚周波数特性
値を反映させる手段とを有し、
前記色差の視覚周波数特性値を算出するために水平方向について参照される色差の視覚
周波数特性の周波数区間が、前記輝度の視覚周波数特性値を算出するために水平方向につ
いて参照される輝度の視覚周波数特性の周波数区間に対して、前記サブバンド分割の1デ
コンポジションレベル分だけ低域側にシフトした区間として設定されることを特徴とする
符号化装置。
An encoding device that performs subband encoding of a 4: 1: 1 format interlaced video signal on a frame basis,
Subband dividing means for dividing the luminance signal and the color difference signal in the interlaced video signal by the same number of times in the horizontal and vertical directions.
Encoding processing means for performing encoding processing of each subband of the luminance signal and the color difference signal obtained by subband division by the subband dividing means;
The luminance frequency frequency value corresponding to the subband calculated based on the luminance visual frequency characteristic is reflected in the encoding process of each subband of the luminance signal, and the color difference is applied to the encoding process of each subband of the color difference signal. Means for reflecting the visual frequency characteristic value of the color difference corresponding to the subband calculated based on the visual frequency characteristic of
The frequency interval of the color difference visual frequency characteristic referred to in the horizontal direction to calculate the visual frequency characteristic value of the color difference is the luminance visual frequency referred to in the horizontal direction to calculate the visual frequency characteristic value of the luminance. An encoding apparatus, wherein the characteristic frequency section is set as a section shifted to a low frequency side by one decomposition level of the subband division.
4:2:2フォーマットのインターレース映像信号をフィールドベースでサブバンド符
号化する符号化装置であって、
前記インターレース映像信号中の色差信号をデコンポジションレベル1に限り垂直方向
にのみサブバンド分割し、デコンポジションレベル2以上では水平方向及び垂直方向にサ
ブバンド分割するサブバンド分割手段と、
前記サブバンド分割手段によるサブバンド分割によって得られた前記色差信号の各サブ
バンドの符号化処理を行う符号化処理手段と、
前記色差信号の各サブバンドの符号化処理に、色差の視覚周波数特性を基に算出された
サブバンド対応の色差の視覚周波数特性値を反映させる手段とを有し、
前記色差の視覚周波数特性値を算出するために参照される色差の視覚周波数特性の周波
数区間は、垂直方向について参照される周波数区間が、水平方向について参照される周波
数区間に対して前記サブバンド分割の1デコンポジションレベル分だけ低域側にシフトし
た区間として設定されることを特徴とする符号化装置。
A coding device for subband coding a 4: 2: 2 format interlaced video signal on a field basis,
Subband division means for dividing the color difference signal in the interlaced video signal into subbands only in the vertical direction only at the composition level 1, and subbanding in the horizontal direction and the vertical direction at the decomposition level 2 or higher;
Encoding processing means for performing encoding processing of each subband of the color difference signal obtained by subband division by the subband dividing means;
Means for reflecting the visual frequency characteristic value of the color difference corresponding to the subband calculated based on the visual frequency characteristic of the color difference in the encoding process of each subband of the color difference signal;
The frequency section of the color difference visual frequency characteristic referred to in order to calculate the color difference visual frequency characteristic value is a frequency section referred to in the vertical direction, and the frequency band referred to in the horizontal direction is the subband division. The coding apparatus is set as a section shifted to the low frequency side by one decomposition level.
4:1:1フォーマットのインターレース映像信号をフィールドベースでサブバンド符
号化する符号化装置であって、
前記インターレース映像信号中の輝度信号及び色差信号を水平方向及び垂直方向にサブ
バンド分割し、ただし前記色差信号に対してはデコンポジションレベル1に限りサブバン
ド分割を行なわないサブバンド分割手段と、
前記サブバンド分割手段によるサブバンド分割によって得られた前記輝度信号及び前記
色差信号の各サブバンドの符号化処理を行う符号化処理手段と、
前記輝度信号の各サブバンドの符号化処理に輝度の視覚周波数特性を基に算出されたサ
ブバンド対応の輝度の視覚周波数特性値を反映させ、前記色差信号の各サブバンドの符号
化処理に色差の視覚周波数特性を基に算出されたサブバンド対応の色差の視覚周波数特性
値を反映させる手段とを有し、
前記色差の視覚周波数特性値を算出するために参照される色差の視覚周波数特性の周波
数区間は、垂直方向について参照される周波数区間が、水平方向について参照される周波
数区間に対して前記サブバンド分割の1デコンポジションレベル分だけ低域側にシフトし
た区間として設定されることを特徴とする符号化装置。
An encoding apparatus for subband encoding a 4: 1: 1 format interlaced video signal on a field basis,
Subband division means for dividing a luminance signal and a color difference signal in the interlaced video signal into subbands in a horizontal direction and a vertical direction, but not subband division only for the decomposition level 1 with respect to the color difference signal;
Encoding processing means for performing encoding processing of each subband of the luminance signal and the color difference signal obtained by subband division by the subband dividing means;
The luminance frequency frequency value corresponding to the subband calculated based on the luminance visual frequency characteristic is reflected in the encoding process of each subband of the luminance signal, and the color difference is applied to the encoding process of each subband of the color difference signal. Means for reflecting the visual frequency characteristic value of the color difference corresponding to the subband calculated based on the visual frequency characteristic of
The frequency section of the color difference visual frequency characteristic referred to in order to calculate the color difference visual frequency characteristic value is a frequency section referred to in the vertical direction, and the frequency band referred to in the horizontal direction is the subband division. The coding apparatus is set as a section shifted to the low frequency side by one decomposition level.
インターレース映像信号をフィールドベースでサブバンド符号化するため、コンピュー
タに、
前記インターレース映像信号中の輝度信号を水平方向と垂直方向に同じ回数サブバンド
分割するサブバンド分割工程、
前記サブバンド分割工程によるサブバンド分割によって得られた前記輝度信号の各サブ
バンドの符号化処理を行う符号化処理工程と、
前記輝度信号の各サブバンドの符号化処理に、輝度の視覚周波数特性を基に算出された
サブバンド対応の輝度の視覚周波数特性値を反映させる工程を実行させるプログラムであ
って、
前記輝度の視覚周波数特性値を算出するために参照される輝度の視覚周波数特性の周波
数区間は、垂直方向について参照される周波数区間が水平方向について参照される周波数
区間に対し前記サブバンド分割の1デコンポジションレベル分だけ低域側にシフトした区
間として設定されることを特徴とするプログラム。
In order to perform field-based subband coding of interlaced video signals,
A subband dividing step of dividing the luminance signal in the interlaced video signal into the same number of times in the horizontal and vertical directions.
An encoding processing step for performing encoding processing of each subband of the luminance signal obtained by subband division by the subband division step;
A program for executing a step of reflecting the luminance visual frequency characteristic value corresponding to the subband calculated based on the luminance visual frequency characteristic in the encoding processing of each subband of the luminance signal,
The frequency interval of the luminance visual frequency characteristic referred to for calculating the luminance visual frequency characteristic value is one of the subband divisions with respect to the frequency interval in which the frequency interval referred to in the vertical direction is referred to in the horizontal direction. A program characterized by being set as a section shifted to the low frequency side by the decompression level.
4:4:4フォーマット又は4:1:1フォーマットのインターレース映像信号をフィ
ールドベースでサブバンド符号化するため、コンピュータに、
前記インターレース映像信号中の色差信号を水平方向と垂直方向に同じ回数サブバンド
分割するサブバンド分割工程、
前記サブバンド分割工程によるサブバンド分割によって得られた前記色差信号の各サブ
バンドの符号化処理を行う符号化処理工程、
前色差信号の各サブバンドの符号化処理に、色差の視覚周波数特性を基に算出されたサ
ブバンド対応の色差の視覚周波数特性値を反映させる工程を実行させるプログラムであっ
て、
前記色差の視覚周波数特性値を算出するために参照される色差の視覚周波数特性の周波
数区間は、垂直方向について参照される周波数区間が水平方向について参照される周波数
区間に対して前記サブバンド分割の1デコンポジションレベル分だけ低域側にシフトした
区間として設定されることを特徴とするプログラム。
In order to perform field-based subband encoding of interlaced video signals in 4: 4: 4 format or 4: 1: 1 format,
A subband dividing step of dividing the color difference signal in the interlaced video signal into the same number of times in the horizontal and vertical directions.
An encoding processing step for performing encoding processing of each subband of the color difference signal obtained by subband division by the subband division step;
A program for executing a step of reflecting the visual frequency characteristic value of the color difference corresponding to the subband calculated based on the visual frequency characteristic of the color difference in the encoding process of each subband of the previous color difference signal,
The frequency interval of the color difference visual frequency characteristic referred to in order to calculate the color difference visual frequency characteristic value is the frequency band referred to in the vertical direction of the subband division with respect to the frequency interval referred to in the horizontal direction. A program characterized in that it is set as a section shifted to the low frequency side by one decomposition level.
4:2:2フォーマットのインターレース映像信号をフィールドベースでサブバンド符
号化するため、コンピュータに、
前記インターレース映像信号中の輝度信号及び色差信号を水平方向及び垂直方向に同じ
回数サブバンド分割するサブバンド分割工程、
前記サブバンド分割工程によるサブバンド分割によって得られた前記輝度信号及び前記
色差信号の各サブバンドの符号化処理を行う符号化処理工程、
前記輝度信号の各サブバンドの符号化処理に輝度の視覚周波数特性を基に算出されたサ
ブバンド対応の輝度の視覚周波数特性値を反映させ、前記色差信号の各サブバンドの符号
化処理に色差の視覚周波数特性を基に算出されたサブバンド対応の色差の視覚周波数特性
値を反映させる工程を実行させるプログラムであって、
前記色差の視覚周波数特性値を算出するために水平方向について参照される色差の視覚
周波数特性の周波数区間が、前記輝度の視覚周波数特性値を算出するために水平方向につ
いて参照される輝度の視覚周波数特性の周波数区間に対して、前記サブバンド分割の1デ
コンポジションレベル分だけ低域側にシフトした区間として設定されることを特徴とする
プログラム。
In order to perform 4: 2: 2 format interlaced video signal field-based subband coding,
A subband dividing step of dividing the luminance signal and the color difference signal in the interlaced video signal by the same number of times in the horizontal direction and the vertical direction.
An encoding process step for performing an encoding process on each subband of the luminance signal and the color difference signal obtained by subband division in the subband division step;
The luminance frequency frequency value corresponding to the subband calculated based on the luminance visual frequency characteristic is reflected in the encoding process of each subband of the luminance signal, and the color difference is applied to the encoding process of each subband of the color difference signal. A program for executing a step of reflecting the visual frequency characteristic value of the color difference corresponding to the subband calculated based on the visual frequency characteristic of
The frequency interval of the color difference visual frequency characteristic referred to in the horizontal direction to calculate the visual frequency characteristic value of the color difference is the luminance visual frequency referred to in the horizontal direction to calculate the visual frequency characteristic value of the luminance. A program characterized by being set as a section shifted to a low frequency side by one decomposition level of the subband division with respect to a characteristic frequency section.
4:2:2フォーマットのインターレース映像信号をフレームベースでサブバンド符号
化するため、コンピュータに、
前記インターレース映像信号中の色差信号を水平方向及び垂直方向に同じ回数サブバン
ド分割するサブバンド分割工程、
前記サブバンド分割工程によるサブバンド分割によって得られた前記色差信号の各サブ
バンドの符号化処理を行う符号化処理工程、
前記色差信号の各サブバンドの符号化処理に、色差の視覚周波数特性を基に算出された
サブバンド対応の色差の視覚周波数特性値を反映させる工程を実行させるプログラムであ
って、
前記色差の視覚周波数特性値を算出するために参照される色差の視覚周波数特性の周波
数区間は、垂直方向について参照される周波数区間が水平方向について参照される周波数
区間に対して前記サブバンド分割の1デコンポジションレベル分だけ高域側にシフトした
区間として設定されることを特徴とするプログラム。
In order to subframe-encode interlaced video signals in 4: 2: 2 format on a frame basis,
A subband dividing step of dividing the color difference signal in the interlaced video signal by the same number of times in the horizontal direction and the vertical direction.
An encoding processing step for performing encoding processing of each subband of the color difference signal obtained by subband division by the subband division step;
A program for executing a process of reflecting the visual frequency characteristic value of the color difference corresponding to the subband calculated based on the visual frequency characteristic of the color difference in the encoding process of each subband of the color difference signal,
The frequency interval of the color difference visual frequency characteristic referred to in order to calculate the color difference visual frequency characteristic value is the frequency band referred to in the vertical direction of the subband division with respect to the frequency interval referred to in the horizontal direction. A program characterized in that it is set as a section shifted to the high frequency side by one decompression level.
4:1:1フォーマットのインターレース映像信号をフレームベースでサブバンド符号
化するため、コンピュータに、
前記インターレース映像信号中の輝度信号及び色差信号を水平方向及び垂直方向に同じ
回数サブバンド分割するサブバンド分割工程、
前記サブバンド分割工程によるサブバンド分割によって得られた前記輝度信号及び前記
色差信号の各サブバンドの符号化処理を行う符号化処理工程、
前記輝度信号の各サブバンドの符号化処理に輝度の視覚周波数特性を基に算出されたサ
ブバンド対応の輝度の視覚周波数特性値を反映させ、前記色差信号の各サブバンドの符号
化処理に色差の視覚周波数特性を基に算出されたサブバンド対応の色差の視覚周波数特性
値を反映させる工程を実行させるプログラムであって、
前記色差の視覚周波数特性値を算出するために水平方向について参照される色差の視覚
周波数特性の周波数区間が、前記輝度の視覚周波数特性値を算出するために水平方向につ
いて参照される輝度の視覚周波数特性の周波数区間に対して、前記サブバンド分割の1デ
コンポジションレベル分だけ低域側にシフトした区間として設定されることを特徴とする
プログラム。
In order to subframe-encode interlaced video signals in 4: 1: 1 format on a frame basis,
A subband dividing step of dividing the luminance signal and the color difference signal in the interlaced video signal by the same number of times in the horizontal direction and the vertical direction.
An encoding process step for performing an encoding process on each subband of the luminance signal and the color difference signal obtained by subband division in the subband division step;
The luminance frequency frequency value corresponding to the subband calculated based on the luminance visual frequency characteristic is reflected in the encoding process of each subband of the luminance signal, and the color difference is applied to the encoding process of each subband of the color difference signal. A program for executing a step of reflecting the visual frequency characteristic value of the color difference corresponding to the subband calculated based on the visual frequency characteristic of
The frequency interval of the color difference visual frequency characteristic referred to in the horizontal direction to calculate the visual frequency characteristic value of the color difference is the luminance visual frequency referred to in the horizontal direction to calculate the visual frequency characteristic value of the luminance. A program characterized by being set as a section shifted to a low frequency side by one decomposition level of the subband division with respect to a characteristic frequency section.
4:2:2フォーマットのインターレース映像信号をフィールドベースでサブバンド符
号化するため、コンピュータに、
前記インターレース映像信号中の色差信号をデコンポジションレベル1に限り垂直方向
にのみサブバンド分割し、デコンポジションレベル2以上では水平方向及び垂直方向にサ
ブバンド分割するサブバンド分割工程、
前記サブバンド分割工程によるサブバンド分割によって得られた前記色差信号の各サブ
バンドの符号化処理を行う符号化処理工程、
前記色差信号の各サブバンドの符号化処理に、色差の視覚周波数特性を基に算出された
サブバンド対応の色差の視覚周波数特性値を反映させる工程を実行させるプログラムであ
って、
前記色差の視覚周波数特性値を算出するために参照される色差の視覚周波数特性の周波
数区間は、垂直方向について参照される周波数区間が、水平方向について参照される周波
数区間に対して前記サブバンド分割の1デコンポジションレベル分だけ低域側にシフトし
た区間として設定されることを特徴とするプログラム。
In order to perform 4: 2: 2 format interlaced video signal field-based subband coding,
A subband division step of dividing the color difference signal in the interlaced video signal into subbands only in the vertical direction only at the composition level 1, and subbanding in the horizontal direction and the vertical direction at the decomposition level 2 or higher;
An encoding processing step for performing encoding processing of each subband of the color difference signal obtained by subband division by the subband division step;
A program for executing a process of reflecting the visual frequency characteristic value of the color difference corresponding to the subband calculated based on the visual frequency characteristic of the color difference in the encoding process of each subband of the color difference signal,
The frequency section of the color difference visual frequency characteristic referred to in order to calculate the color difference visual frequency characteristic value is a frequency section referred to in the vertical direction, and the frequency band referred to in the horizontal direction is the subband division. The program is set as a section shifted to the low frequency side by one decomposition level.
4:1:1フォーマットのインターレース映像信号をフィールドベースでサブバンド符
号化するため、コンピュータに、
前記インターレース映像信号中の輝度信号及び色差信号を水平方向及び垂直方向にサブ
バンド分割し、ただし前記色差信号に対してはデコンポジションレベル1に限りサブバン
ド分割を行なわないサブバンド分割工程、
前記サブバンド分割工程によるサブバンド分割によって得られた前記輝度信号及び前記
色差信号の各サブバンドの符号化処理を行う符号化処理工程、
前記輝度信号の各サブバンドの符号化処理に輝度の視覚周波数特性を基に算出されたサ
ブバンド対応の輝度の視覚周波数特性値を反映させ、前記色差信号の各サブバンドの符号
化処理に色差の視覚周波数特性を基に算出されたサブバンド対応の色差の視覚周波数特性
値を反映させる工程を実行させるプログラムであって、
前記色差の視覚周波数特性値を算出するために参照される色差の視覚周波数特性の周波
数区間は、垂直方向について参照される周波数区間が、水平方向について参照される周波
数区間に対して前記サブバンド分割の1デコンポジションレベル分だけ低域側にシフトし
た区間として設定されることを特徴とするプログラム。
In order to perform field-based subband encoding of 4: 1: 1 format interlaced video signals,
A subband dividing step of dividing the luminance signal and the color difference signal in the interlaced video signal in the horizontal direction and the vertical direction, but not performing the subband division on the color difference signal only at the decomposition level;
An encoding process step for performing an encoding process on each subband of the luminance signal and the color difference signal obtained by subband division in the subband division step;
The luminance frequency frequency value corresponding to the subband calculated based on the luminance visual frequency characteristic is reflected in the encoding process of each subband of the luminance signal, and the color difference is applied to the encoding process of each subband of the color difference signal. A program for executing a step of reflecting the visual frequency characteristic value of the color difference corresponding to the subband calculated based on the visual frequency characteristic of
The frequency section of the color difference visual frequency characteristic referred to in order to calculate the color difference visual frequency characteristic value is a frequency section referred to in the vertical direction, and the frequency band referred to in the horizontal direction is the subband division. The program is set as a section shifted to the low frequency side by one decomposition level.
請求項8乃至14のいずれか1項に記載のプログラムが記録されたコンピュータが読み
取り可能な情報記録媒体。
15. A computer-readable information recording medium on which the program according to claim 8 is recorded.
JP2005233926A 2005-08-12 2005-08-12 Encoding device, program, and information recording medium Expired - Fee Related JP4636547B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005233926A JP4636547B2 (en) 2005-08-12 2005-08-12 Encoding device, program, and information recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005233926A JP4636547B2 (en) 2005-08-12 2005-08-12 Encoding device, program, and information recording medium

Publications (2)

Publication Number Publication Date
JP2007049582A JP2007049582A (en) 2007-02-22
JP4636547B2 true JP4636547B2 (en) 2011-02-23

Family

ID=37852029

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005233926A Expired - Fee Related JP4636547B2 (en) 2005-08-12 2005-08-12 Encoding device, program, and information recording medium

Country Status (1)

Country Link
JP (1) JP4636547B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2353294B1 (en) * 2008-08-29 2015-03-04 GVBB Holdings S.A.R.L Encoding method, encoding device, and encoding program for encoding interlaced image
CN111385884B (en) * 2018-12-29 2023-01-31 上海朗帛通信技术有限公司 Method and device used in user equipment and base station for wireless communication

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06326990A (en) * 1992-09-17 1994-11-25 Sony United Kingdom Ltd Compressing and decoding methods for video data
JPH1175184A (en) * 1997-08-28 1999-03-16 Sanyo Electric Co Ltd Image coder and image coding method
JP2002064710A (en) * 2000-05-26 2002-02-28 Eastman Kodak Co Method for generating hierarchically edited compressed digital image corresponding to increasing visual quality level, and method for controlling rate of the compressed digital image
JP2003101791A (en) * 2001-09-25 2003-04-04 Ricoh Co Ltd Picture processor, picture processing method and picture reading method
JP2005086351A (en) * 2003-09-05 2005-03-31 Ricoh Co Ltd Coding device, coding method, program and information record medium
JP2005192087A (en) * 2003-12-26 2005-07-14 Mega Chips Corp Compression-coding apparatus, compression-coding method and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06326990A (en) * 1992-09-17 1994-11-25 Sony United Kingdom Ltd Compressing and decoding methods for video data
JPH1175184A (en) * 1997-08-28 1999-03-16 Sanyo Electric Co Ltd Image coder and image coding method
JP2002064710A (en) * 2000-05-26 2002-02-28 Eastman Kodak Co Method for generating hierarchically edited compressed digital image corresponding to increasing visual quality level, and method for controlling rate of the compressed digital image
JP2003101791A (en) * 2001-09-25 2003-04-04 Ricoh Co Ltd Picture processor, picture processing method and picture reading method
JP2005086351A (en) * 2003-09-05 2005-03-31 Ricoh Co Ltd Coding device, coding method, program and information record medium
JP2005192087A (en) * 2003-12-26 2005-07-14 Mega Chips Corp Compression-coding apparatus, compression-coding method and program

Also Published As

Publication number Publication date
JP2007049582A (en) 2007-02-22

Similar Documents

Publication Publication Date Title
US7330596B2 (en) Image decoding technique for suppressing tile boundary distortion
CN1655620B (en) Image display apparatus
JP3743384B2 (en) Image encoding apparatus and method, and image decoding apparatus and method
US7577308B2 (en) Image data generation with reduced amount of processing
JP5700970B2 (en) Decoding method of encoded data stream representing image sequence and encoding method of image sequence
JP4254017B2 (en) Image coding apparatus and method
JP5359302B2 (en) Information processing apparatus and method, and program
US8098947B2 (en) Method and apparatus for processing image data by rearranging wavelet transform data
JP4656912B2 (en) Image encoding device
JP2007174569A (en) Encoding method
JP4229323B2 (en) Encoding apparatus, encoding method, and program
US7333664B2 (en) Image compression method capable of reducing tile boundary distortion
JP4449400B2 (en) Image encoding apparatus and method, program, and recording medium
WO2006046550A1 (en) Image encoding method and device, image decoding method, and device
JP4636547B2 (en) Encoding device, program, and information recording medium
JP2009044483A (en) Image-encoding apparatus
JP3973089B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP4749508B2 (en) Image decoding method
JP4219303B2 (en) Encoding apparatus, encoding control method, program, and recording medium
JP4446445B2 (en) Encoding apparatus and encoding method
JP4934081B2 (en) Encoding apparatus, code processing apparatus, encoding method, code processing method, computer program, and recording medium
JP4189956B2 (en) Image data generation apparatus and image data generation method
JP4667424B2 (en) Image decoding device
JP5843450B2 (en) Image processing apparatus and control method thereof
JP4743604B2 (en) Image processing apparatus, image processing method, program, and information recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100616

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100908

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101117

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101118

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131203

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4636547

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131203

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees