JP5482177B2 - Encoding device, program, recording medium - Google Patents

Encoding device, program, recording medium Download PDF

Info

Publication number
JP5482177B2
JP5482177B2 JP2009284416A JP2009284416A JP5482177B2 JP 5482177 B2 JP5482177 B2 JP 5482177B2 JP 2009284416 A JP2009284416 A JP 2009284416A JP 2009284416 A JP2009284416 A JP 2009284416A JP 5482177 B2 JP5482177 B2 JP 5482177B2
Authority
JP
Japan
Prior art keywords
image
frequency
quantization
color
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009284416A
Other languages
Japanese (ja)
Other versions
JP2011130026A (en
Inventor
宏幸 作山
潤一 原
純一 山形
多聞 貞末
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2009284416A priority Critical patent/JP5482177B2/en
Publication of JP2011130026A publication Critical patent/JP2011130026A/en
Application granted granted Critical
Publication of JP5482177B2 publication Critical patent/JP5482177B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Description

本発明は、符号化装置、プログラム、記録媒体に関する。   The present invention relates to an encoding device, a program, and a recording medium.

一般的に、画像は、(1)絵柄と(2)文字・線画(絵柄と異なる記号なども含む、以下では、「非絵柄」という。)と、で構成されている。近年、この画像を符号化する際には、(1)絵柄と(2)文字・線画とに分離し、各々に対して符号化を施すことが提案されている。   Generally, an image is composed of (1) a picture and (2) a character / line drawing (including a symbol different from the picture, hereinafter referred to as “non-picture”). In recent years, when encoding this image, it has been proposed to separate (1) a picture and (2) a character / line image and perform encoding on each.

例えば、特許文献1などでは、MRC(ミクストラスターコンテント)モデルとよばれる手法が提案されている。図1にMRCモデルの概念図を示す。図1の例では、原画像αは、「Buy now fastest printer」という(2)文字Aと、コピー機の(1)絵柄Bとが示されている。以下では、「Buy now」を文字A1とし、「fastest printer」を文字A2とする。そして、文字A1.文字A2をまとめて文字Aという。   For example, Patent Literature 1 proposes a method called an MRC (Mixe Straster Content) model. FIG. 1 shows a conceptual diagram of the MRC model. In the example of FIG. 1, the original image α shows (2) character A “Buy now fastest printer” and (1) picture B of the copier. In the following, “Buy now” is referred to as a character A1, and “fastest printer” is referred to as a character A2. And the characters A1. Character A2 is collectively referred to as character A.

そして、前景P(以下、「非絵柄部色画像P」という。)と、マスクQ(以下、「非絵柄部形状画像Q」という。)と、背景R(以下、「絵柄部画像R」という。)との3つに分けられる。   A foreground P (hereinafter referred to as “non-pattern part color image P”), a mask Q (hereinafter referred to as “non-pattern part shape image Q”), and a background R (hereinafter referred to as “picture part image R”). And 3).

非絵柄部色画像Pは、文字Aの色の画像を示した画像である。非絵柄部形状画像Qは文字A1の形状の画像を示した画像である。絵柄部画像Rは、背景を示した画像である。このように、MRCモデルでは3レイヤにわけ、レイヤごとに符号化を行う。   The non-design part color image P is an image showing a color A character image. The non-pattern part shape image Q is an image showing an image of the shape of the character A1. The pattern part image R is an image showing a background. As described above, the MRC model is divided into three layers, and encoding is performed for each layer.

また、特許文献2では、MRCモデルを用いてマスクを分割し、部分画像へのアクセス性を向上させる。   In Patent Document 2, a mask is divided using an MRC model to improve accessibility to partial images.

MRCモデルにおける非絵柄部色画像Pの作成手法には、大略して2つある。第1の手法として、図2に模式的に示すように、文字A1の色S(図1参照)と、文字A2の色T(図1参照)との間をグラデーション状G(図1参照)にして、ぼかして非絵柄部色画像Pを作成する手法である。なお、図2の図面の簡略化のために、色Sを黒色で示し、色Tを白色で示す。図2では、文字A1、文字A2以外の画素を非文字画素という。   There are roughly two methods for creating the non-pattern part color image P in the MRC model. As a first method, as schematically shown in FIG. 2, a gradation G (see FIG. 1) is formed between the color S (see FIG. 1) of the character A1 and the color T (see FIG. 1) of the character A2. Thus, the non-pattern part color image P is created by blurring. In order to simplify the drawing of FIG. 2, the color S is shown in black and the color T is shown in white. In FIG. 2, pixels other than the characters A1 and A2 are referred to as non-character pixels.

図2に示すように、この第1の手法は、文字A1および文字A2との間の非文字画素の色U1〜U3を、徐々に遷移させたい色(グラデーション色)とする手法である。この第1の手法を用いると、少量のエッジしか生じないために、非絵柄部色画像Pの圧縮率を上げることができる。つまり、この第1の手法では、非絵柄部色画像Pは低周波の色成分で構成される。   As shown in FIG. 2, this first method is a method in which the colors U1 to U3 of the non-character pixels between the character A1 and the character A2 are gradually changed (gradation colors). When this first method is used, only a small amount of edges are generated, so that the compression rate of the non-pattern part color image P can be increased. That is, in this first method, the non-pattern part color image P is composed of low-frequency color components.

第2の手法による、3つのレイヤに分けた場合の模式図を図3に示す。図3は図1と比較して、非絵柄部色画像P'のみが異なる。非絵柄部色画像P'中の文字A1とA2それぞれには、色S、色Tが色づけされている。そして、文字A1とA2には背景色Cが付けられている。   FIG. 3 shows a schematic diagram in the case of dividing into three layers by the second method. FIG. 3 differs from FIG. 1 only in the non-pattern part color image P ′. The letters S1 and A2 in the non-pattern part color image P ′ are colored with the colors S and T, respectively. The characters A1 and A2 are given a background color C.

図4に、第2の手法について模式的に示す。なお、図4の図面の簡略化のために、色Sを黒色で示し、色Tを白色で示す。図4に示すように、この手法は、文字A1(文字画素)および文字A2(文字画素)との間に位置し、符号量が最も少なく、非文字画素である特定画素C(例えば、黒やグレー)である。なお、特定画素Cの集合が特定画像である。従って、以下では、特定画素Cの集合を特定画像Cともいう。   FIG. 4 schematically shows the second method. For simplification of the drawing of FIG. 4, the color S is shown in black and the color T is shown in white. As shown in FIG. 4, this method is located between the character A1 (character pixel) and the character A2 (character pixel), has the smallest code amount, and is a specific pixel C (for example, black or black) that is a non-character pixel. Gray). A set of specific pixels C is a specific image. Therefore, hereinafter, the set of specific pixels C is also referred to as a specific image C.

そして、非文字画素の領域を特定画像Cで埋めて、非絵柄部色画像P'を生成する。換言すれば、非絵柄部色画像P'は、原画像αの非絵柄(文字など)の色画像(色画素の集合)および該非絵柄の色画像以外の位置に占める特定画像で構成されるものである。また、特定画素Cの集合が特定画像になる。   Then, the non-character pixel region is filled with the specific image C to generate the non-pattern part color image P ′. In other words, the non-pattern part color image P ′ is composed of a color image (a set of color pixels) of the non-pattern (characters) of the original image α and a specific image occupying a position other than the color image of the non-pattern. It is. A set of specific pixels C becomes a specific image.

つまり、文字A1の色SおよびA2の色Tに関らず、文字A1とA2との間に、符合量が少ない特定画像Cが用いられる。特定画像Cは、符号量が少ないことからこの第2の手法により、非絵柄部色画像P'の圧縮率を上げることができる。また、この第2の手法では、文字A1と文字A2との間はなめらかに遷移せず、エッジが生じる。従って、非絵柄部色画像P'は高周波を含むものとなる。   That is, regardless of the color S of the character A1 and the color T of the A2, the specific image C having a small code amount is used between the characters A1 and A2. Since the specific image C has a small code amount, the compression rate of the non-picture part color image P ′ can be increased by the second method. Further, in the second method, the transition between the character A1 and the character A2 is not smoothly performed, and an edge is generated. Therefore, the non-pattern part color image P ′ includes a high frequency.

ここで、第1の手法と第2の手法とを比べる。原稿に占める文字・線画の割合が少ない場合には、第1の手法では、文字A1と文字A2との間に広い遷移範囲E1〜E3(グラデーション領域)が生じ、非絵柄部色画像Pの符号量が増える傾向にある。一方、第2の手法であれば、符号量が少ない特定画像Cが原稿の多くを占めるため、符号量が少なくなる。   Here, the first method and the second method are compared. When the ratio of characters / line drawings in the original is small, in the first method, a wide transition range E1 to E3 (gradation area) occurs between the characters A1 and A2, and the code of the non-pattern part color image P is generated. The amount tends to increase. On the other hand, in the case of the second method, since the specific image C having a small code amount occupies most of the original, the code amount is small.

また、原稿に占める文字・線画の割合が多い場合には、第1の手法では、文字A1と文字A2との間にい遷移範囲E1〜E3が生じ、非絵柄部色画像Pの符号量が減る傾向にある。一方、第2の手法であれば、符号量が少ない特定画像が原稿の割合は少なくなり、エッジが生じるため、符号量が多くなるという問題がある。 Further, when the ratio of the character or line drawing occupying the document is large, in the first method, the narrow transitive range E1~E3 occurs between the characters A1 and character A2, the code amount of the non-picture portion color images P Tend to decrease. On the other hand, in the second method, there is a problem in that the amount of code increases because a specific image with a small code amount has a small ratio of originals and an edge is generated.

本発明の符号化装置であれば、上記第2の手法を用いた場合でも、符号量を少なくして、適切な符号化することを目的とする。   The encoding device of the present invention aims to reduce the amount of codes and perform appropriate encoding even when the second method is used.

前記目的を達成するため、原画像から、該原画像の絵柄が表示される絵柄部画像と、該原画像の非絵柄の色画像および該非絵柄の色画像以外の位置に占める特定画像が表示される非絵柄部色画像と、前記非絵柄の形状が表示されるマスク画像と、を生成する生成部と、
前記絵柄部画像および前記非絵柄部色画像を周波数変換する周波数変換部と、
前記周波数変換部により得られた前記絵柄部画像の周波数係数および前記非絵柄部色画像の周波数係数を量子化する量子化部と、
前記量子化された前記絵柄部画像の周波数係数および前記非絵柄部色画像の周波数係数を符号化する符号化部とを、有し、
前記量子化は、周波数ゲインのための正規化のための量子化を除き、
前記非絵柄部色画像の高周波帯域の周波数係数の量子化ステップ数を、前記絵柄部画像の高周波帯域の周波数係数の量子化ステップ数よりも小さくすることを特徴とする符号化装置を提供する。
In order to achieve the above object, a pattern image in which a pattern of the original image is displayed, a non-picture color image of the original image, and a specific image occupying a position other than the non-picture color image are displayed from the original image. A generating unit that generates a non- image part color image and a mask image on which the shape of the non-pattern is displayed ;
A frequency converter that converts the frequency of the pattern part image and the non-pattern part color image;
A quantization unit that quantizes the frequency coefficient of the picture part image and the frequency coefficient of the non-picture part color image obtained by the frequency conversion unit ;
An encoding unit that encodes the frequency coefficient of the quantized picture part image and the frequency coefficient of the non-picture part color image;
The quantization, except for normalization for frequency gain,
To provide an encoding apparatus, wherein the quantization step number of the frequency coefficients of the high frequency band of the non-picture portion color images, small Kusuru than the quantization step number of the frequency coefficients of the high frequency band of the picture portion image .

本発明の符号化装置であれば、上記第2の手法を用いた場合でも、符号量を少なくして、適切な符号化することができる。   With the encoding apparatus of the present invention, even when the second method is used, it is possible to reduce the amount of codes and perform appropriate encoding.

原画像を第1の手法による3つのレイヤに分けた場合を示す図。The figure which shows the case where an original image is divided into three layers by the 1st method. 第1の手法を模式的に示した図。The figure which showed the 1st method typically. 原画像を第2の手法による3つのレイヤに分けた場合を示す図。The figure which shows the case where an original image is divided into three layers by the 2nd method. 第2の手法を模式的に示した図。The figure which showed the 2nd method typically. MRC符号の構成例。An example of the configuration of an MRC code. JPM符号の構成例。The structural example of a JPM code | symbol. 本実施例の符号化装置の構成例。1 is a configuration example of an encoding apparatus according to the present embodiment. 本実施例のCPUの機能構成例を示した図。The figure which showed the function structural example of CPU of a present Example. 本実施例の符号化装置の主な処理の流れを示した図。The figure which showed the flow of the main processes of the encoding apparatus of a present Example. 原画像を5つのレイヤに分けた場合を示す図。The figure which shows the case where an original image is divided into five layers. Sobelオペレータの一例を示す図(その1)。The figure which shows an example of a Sobel operator (the 1). Sobelオペレータの一例を示す図(その2)。The figure which shows an example of a Sobel operator (the 2). DCレベルシフト後の原画像と座標系を示した図。The figure which showed the original image and coordinate system after DC level shift. 垂直方向へのフィルタリング後の係数の配列。An array of coefficients after filtering in the vertical direction. 水平方向へのフィルタリング後の係数の配列。An array of coefficients after horizontal filtering. 並べ替えた係数の配列。A sorted array of coefficients. 2回目の変換後の並べ替えた係数の配列を示した図。The figure which showed the arrangement | sequence of the rearranged coefficient after the 2nd conversion. デコンポジションレベルと解像度レベルの関係を示した図。The figure which showed the relationship between a decomposition level and a resolution level. 画像、タイル、サブバンドなどを示した図。The figure which showed the image, tile, subband, etc. Visual distance1000[dot]のVisual Weightを示した図。The figure which showed Visual Weight of Visual distance1000 [dot]. Visual distance3000[dot]のVisual Weightを示した図。The figure which showed Visual Weight of Visual distance3000 [dot]. 9*7ウェーブレット変換の周波数変換ゲインの平方根を示した図。The figure which showed the square root of the frequency conversion gain of 9 * 7 wavelet transform. 色変換のゲインの平方根を示す図。The figure which shows the square root of the gain of color conversion. 正規化のための量子化ステップ数を示す図。The figure which shows the quantization step number for normalization. 前景Pのための実質的な量子化を示す図。The figure which shows the substantial quantization for the foreground P. 背景Rのための実質的な量子化を示す図。FIG. 6 shows substantial quantization for background R. 色差Cbの実質的な量子化ステップ数/輝度Yの実質的な量子化ステップ数を示した図。The figure which showed the substantial quantization step number of the substantial quantization step number / brightness | luminance Y of color difference Cb. 色差Crの実質的な量子化ステップ数/輝度Yの実質的な量子化ステップ数を示した図。The figure which showed the substantial quantization step number of the substantial quantization step number / brightness | luminance Y of color difference Cr. 前景P'のための実質的な量子化ステップ数を示した図。The figure which showed the number of substantial quantization steps for foreground P '. 変形例1の前景P'、背景Qの輝度の実質的な量子化ステップ数を示した図。The figure which showed the substantial number of quantization steps of the brightness | luminance of the foreground P 'of the modification 1, and the background Q. 変形例1の色差Cbの実質的な量子化ステップ数/輝度Yの実質的な量子化ステップ数を示した図。The figure which showed the substantial quantization step number of the substantial quantization step number / brightness | luminance Y of the color difference Cb of the modification 1. FIG. 変形例1の色差Crの実質的な量子化ステップ数/輝度Yの実質的な量子化ステップ数を示した図。The figure which showed the substantial quantization step number of the substantial quantization step number / brightness | luminance Y of the color difference Cr of the modification 1. FIG. 変形例2の前景P'、背景Qの共通な符号化しないサブビットプレーン数を示した図。The figure which showed the number of sub bit planes which the foreground P 'of the modification 2 and the common background Q do not encode. 5*3ウェーブレット変換の周波数変換ゲインの平方根を示した図。The figure which showed the square root of the frequency conversion gain of 5 * 3 wavelet transform. 色変換のゲインを示した図。The figure which showed the gain of color conversion. 変形例3での正規化のための除数を示した図。The figure which showed the divisor for the normalization in the modification 3. FIG. 変形例3での前景P'における符号化しないビットプレーン数を示した図。The figure which showed the number of bit planes which are not encoded in the foreground P ′ in Modification 3. 変形例3での背景Qにおける符号化しないビットプレーン数を示した図。The figure which showed the bit plane number which is not encoded in the background Q in the modification 3. 本実施例におけるJPMファイルのレイアウトオブジェクトを示した図(その1)。The figure which showed the layout object of the JPM file in a present Example (the 1). 本実施例におけるJPMファイルのレイアウトオブジェクトを示した図(その2)。The figure which showed the layout object of the JPM file in a present Example (the 2). 本実施例の状態通知装置の主要構成を示すハードウェア構成図を示した図。The figure which showed the hardware block diagram which shows the main structures of the status notification apparatus of a present Example.

「発明を実施するための形態」の説明をする前に、本実施例の背景を述べる。近年、インターネット等のネットワークや公衆回線の発達および画像圧縮技術の進歩により、画像データの伝送速度は飛躍的に向上している。これに伴い、伝送可能な画像データの高解像度化、高階調化、カラー化が進んでおり、400dpi(dot per inch)のフルカラー画像も実用的な伝送対象となってきている。ところで、このようなフルカラー画像をネットワークあるいは公衆回線を通じて伝送する際には、通常、画像を圧縮する。そのときの圧縮アルゴリズムとしては、一般的にはJPEGアルゴリズムが用いられている。また、画像ファイリングなどの画像の蓄積も盛んに行なわれており、カラー画像の蓄積には同様にJPEGアルゴリズムなどを用いて圧縮されたデータが使用されている。   Prior to the description of the “DETAILED DESCRIPTION”, the background of this embodiment will be described. In recent years, with the development of networks such as the Internet and public lines and the advancement of image compression technology, the transmission speed of image data has been dramatically improved. Along with this, higher resolution, higher gradation, and colorization of image data that can be transmitted are progressing, and 400 dpi (dot per inch) full-color images are becoming practical transmission targets. By the way, when transmitting such a full-color image through a network or a public line, the image is usually compressed. As a compression algorithm at that time, the JPEG algorithm is generally used. Also, image filing and other image accumulation is actively performed, and data compressed using a JPEG algorithm or the like is similarly used for color image accumulation.

ここで、JPEGアルゴリズムについて説明する。まず、圧縮アルゴリズムについて説明する。入力された画像データは、必要ならば例えばRGB色空間からL* a* b* 色空間へというように色空間変換が施された後、8画素×8画素のブロックに分割され、ブロックごとにDCT(Discrete CosineTransform)によって周波数領域に変換され、ブロックと同じ大きさの量子化テーブルで量子化された後、ジグザグスキャンでブロックデータからラスターデータに変換され、2次元ハフマン符号化によって圧縮データとなる。伸長アルゴリズムは、圧縮アルゴリズムの逆のアルゴリズムであり、ハフマン復号、ラスタ−ブロック変換、逆量子化、IDCT(Inverse DCT)によって画像データが復元される。   Here, the JPEG algorithm will be described. First, the compression algorithm will be described. The input image data is subjected to color space conversion, for example, from RGB color space to L * a * b * color space, if necessary, and then divided into 8 × 8 pixel blocks. It is converted to the frequency domain by DCT (Discrete CosineTransform), quantized with a quantization table having the same size as the block, then converted from block data to raster data by zigzag scanning, and becomes compressed data by two-dimensional Huffman coding. . The decompression algorithm is an inverse algorithm of the compression algorithm, and image data is restored by Huffman decoding, raster-block transformation, inverse quantization, and IDCT (Inverse DCT).

しかし、上述の説明からもわかるように、JPEGアルゴリズムでは非可逆過程である量子化を行なうため、伸長された画像は圧縮前の画像データよりも画質が劣化した画像となる。通常、量子化テーブルには圧縮率を稼ぐために高周波成分ほど量子化ステップが粗くなる量子化テーブルが用いられる。そのため、特に文字や線画のように高周波成分を多く含むエッジが存在する部分で、画質の劣化が著しく、また圧縮率も低下していた。   However, as can be seen from the above description, since the JPEG algorithm performs quantization, which is an irreversible process, the decompressed image becomes an image with a degraded image quality compared to the image data before compression. Usually, a quantization table is used in which the quantization step becomes coarser as the high frequency component increases in order to increase the compression ratio. For this reason, particularly in a portion where there is an edge containing a lot of high-frequency components such as characters and line drawings, the image quality is significantly deteriorated and the compression rate is also reduced.

また、図1で説明したように、MRC方式では、1つの背景に対して、複数の「前景P(非絵柄部色画像P)+マスクQ(非絵柄部形状画像Q)」を重ねあわせていく方式が一般的である。マスクQとは前景Pを(例えば文字の形に)切り取るための形状情報を持つ。マスクQの値が前景Pの透過率(前景と背景Q(絵柄部画像Q)の混合比)を持つ場合もある。また、前景P、マスクQ、背景R、の解像度は、任意に選択できることもできる。   As described with reference to FIG. 1, in the MRC method, a plurality of “foreground P (non-pattern part color image P) + mask Q (non-pattern part shape image Q)” are superimposed on one background. It is common to go. The mask Q has shape information for cutting out the foreground P (for example, in the form of characters). In some cases, the value of the mask Q has the transmittance of the foreground P (the mixing ratio of the foreground and the background Q (the pattern portion image Q)). Further, the resolution of the foreground P, the mask Q, and the background R can be arbitrarily selected.

図5は、MRCモデルによる符号構成の説明図である。MRCを用いた符号フォーマットは、MRC符号であること等を示す全体用ヘッダと、1つの背景符号およびそのヘッダと、それに重ね合わせる1つ若しくは複数の「前景符号とマスク符号のペア」およびそのペア用のヘッダで構成されるのが典型である。   FIG. 5 is an explanatory diagram of a code configuration based on the MRC model. The code format using MRC is an overall header indicating that it is an MRC code, etc., one background code and its header, and one or more “pairs of foreground codes and mask codes” and their pairs. It is typically composed of headers for

例えば、本実施の形態では、背景、前景、およびマスクの符号化方式として、JPEG
2000を選択可能にしたJPM(JPEG2000 Multi Layer)を用いる。もちろん、JPMでは、JPEG2000以外の符号化方式としてJPEG、MMR、JBIG等も選択可能であり、そのJPM符号のフォーマットも、図5に示すような符号の構成をとる。
For example, in this embodiment, JPEG is used as the background, foreground, and mask encoding method.
JPM (JPEG2000 Multi Layer) which makes 2000 selectable is used. Of course, in JPM, JPEG, MMR, JBIG, or the like can be selected as an encoding method other than JPEG2000, and the format of the JPM code also has a code configuration as shown in FIG.

例えば、前記MRCモデルの前景、マスク、背景の圧縮方式としてJPEG2000の選択を可能にしたJPMという符号化方式が標準化されている。   For example, an encoding method called JPM that enables selection of JPEG2000 as a foreground, mask, and background compression method of the MRC model has been standardized.

図6は、JPM符号の構成例の説明図である。なお、点線部分はオプションであるの
で、実線部分を中心に簡単に説明する。図6において、「JPEG2000 Signature box」は
、当該符号がJPEG2000ファミリーに属することを示す全体のヘッダである。「Fi
le Type box」は、当該符号がJPMフォーマットであることを示す全体のヘッダである
。「Compound Image Header box」は、当該符号の全般的な情報を含む全体のヘッダであ
る。「Page Collection box」は、当該符号がマルチページからなる場合に各ページの順
番を示す目次的なものである。「Page box」は、ページの解像度等を示す全体のヘッダで
ある。ここで、ページとは、画像を順次重ねて(合成して)いくためのキャンバスであり
、合成が終った後の画像と同じ大きさを持つ。JPMの場合、ページには、前景とマスク
のペアで構成される「layout object(レイアウト・オブジェクト)」が順次描画される
。「Layout Object box」は、前景とマスクのサイズや位置等を示す、前景及びマスク用
のヘッダである。「Media Data box」や「Contiguous Codestream box」は、前景やマス
クの符号を含む部分である。なお、JPMでは、背景(BasePage)は、レイアウト・オブ
ジェクトが描画される前の初期的なページとして扱われる。
FIG. 6 is an explanatory diagram of a configuration example of a JPM code. Since the dotted line portion is an option, a simple description will be given focusing on the solid line portion. In FIG. 6, “JPEG2000 Signature box” is an entire header indicating that the code belongs to the JPEG2000 family. "Fi
“Le Type box” is an entire header indicating that the code is in JPM format. The “Compound Image Header box” is an entire header including general information of the code. “Page Collection box” is a table of contents indicating the order of each page when the code consists of multiple pages. “Page box” is an overall header indicating the resolution of the page. Here, the page is a canvas for sequentially superimposing (combining) images, and has the same size as the image after the composition is finished. In the case of JPM, “layout object (layout object)” composed of a pair of foreground and mask is sequentially drawn on the page. “Layout Object box” is a header for the foreground and the mask indicating the size and position of the foreground and the mask. The “Media Data box” and “Contiguous Codestream box” are portions including foreground and mask codes. In JPM, the background (BasePage) is handled as an initial page before the layout object is drawn.

なお、JPMでは、上述したように、背景に対して前景とマスクとのペアとして定義さ
れるレイアウト・オブジェクトを順次重ねて画像を合成する処理において、前景と背景と
を合成する方法として、
(i)前景か背景のいずれかを選択する方法
(ii)前景の値と背景の値の加重平均をとる方法
が選択可能である。(i)の場合には、マスクを2値とし、その値が1のときに前景を選
択し、0のときに背景を選択するものである。また、(ii)の場合には、マスクに8ビ
ットの正の値を持たせ、以下に示す式(1)により前景と背景の加重平均により合成するものである。
In JPM, as described above, as a method of combining the foreground and the background in the process of combining the images by sequentially overlaying the layout objects defined as the foreground and mask pairs on the background,
(I) Method for selecting either foreground or background (ii) A method for taking a weighted average of foreground values and background values can be selected. In the case of (i), the mask is binary, and when the value is 1, the foreground is selected, and when the value is 0, the background is selected. In the case of (ii), the mask has a positive value of 8 bits and is synthesized by the weighted average of the foreground and the background according to the following equation (1).

合成画像=(マスク値/255)×前景+{(255-マスク値)/255}×背景 (1)
これらのいずれの合成方法をとるかは、前景とマスクのペアごとに指定可能であり、各ペア用のヘッダに記載する。
Composite image = (mask value / 255) × foreground + {(255−mask value) / 255} × background (1)
Which of these synthesis methods is used can be specified for each pair of foreground and mask, and is described in the header for each pair.

さて、以上のMRCモデルでの符号化では、高圧縮率化のために、前景や背景を高い圧縮率(例えば1/40)で圧縮する。こうした高い圧縮率下では、量子化の巧拙が画質に大きく影響するため、前景や背景を圧縮する際に適用する量子化については、最適化の必要がある。
ここで、MRC符号の作成法としては、前景画像を減色し、前景を数色で(極端な場合には一色で)表現する方法が典型的である。こうした減色を用いれば、前景画像は人工画像的になり、人工画像用の符号化方式を用いて高い圧縮率を得ることができる。
In the encoding with the above MRC model, the foreground and the background are compressed at a high compression rate (for example, 1/40) in order to increase the compression rate. Under such a high compression rate, the skill of quantization greatly affects the image quality, so the quantization applied when compressing the foreground and background needs to be optimized.
Here, as a method of creating the MRC code, a method of reducing the foreground image and expressing the foreground in several colors (in the extreme case, one color) is typical. If such color reduction is used, the foreground image becomes an artificial image, and a high compression rate can be obtained by using an encoding method for the artificial image.

しかしながら、減色を行う方式は、減色のための処理時間を要し、かつ減色のための画質劣化を生じる。この減色による画質劣化を防ぐためには、一色で表現する領域を狭くする必要があるが、そのためには前景画像を多くの部分画像に分割する必要が生じ、いずれにしても処理時間が必要となる(そもそもMRCモデルでは、前景・背景の生成のために多くの処理時間を必要とするため、符号化にかける時間は極力少なくしたいという事情がある)。また、前景と背景の分離を完全に行うことは困難であり、本来背景であるべき部分が前景として分離された場合、これが減色されてしまうと、画像欠陥として認識されてしまうという問題もある。   However, the method of performing color reduction requires processing time for color reduction and causes image quality deterioration for color reduction. In order to prevent deterioration in image quality due to this color reduction, it is necessary to narrow the area represented by one color. For this purpose, it is necessary to divide the foreground image into many partial images, and in any case, processing time is required. (In the first place, since the MRC model requires a lot of processing time to generate the foreground / background, there is a circumstance that it is desired to reduce the time required for encoding as much as possible). In addition, it is difficult to completely separate the foreground and the background, and when a portion that should originally be the background is separated as the foreground, if the color is reduced, it is recognized as an image defect.

したがって、MRC符号を高速に作成しようと思えば、前景画像をあまり減色・分割することなく、高速かつ高い圧縮率で符号化できる方法が必要である。   Therefore, if an MRC code is to be created at high speed, there is a need for a method that can encode the foreground image at a high speed and with a high compression rate without reducing or dividing the foreground image much.

このように前景画像の減色を省略する場合には、スキャンによってノイズが重畳された状態の前景画像を圧縮する必要があるため、人工画像用の符号化方式で高い圧縮率を得ることはできない。従って減色を省略して高い圧縮率を得るためには、前景・背景の両方に、周波数変換を利用した方式(自然画像用の符号化方式)を適用することになる。   Thus, when omitting the color reduction of the foreground image, it is necessary to compress the foreground image in a state where noise is superimposed by scanning, and thus a high compression rate cannot be obtained with the coding method for artificial images. Therefore, in order to obtain a high compression ratio by omitting color reduction, a method using frequency conversion (encoding method for natural images) is applied to both the foreground and the background.

さて、減色を行わない以上(=高圧縮であるが画質・処理速度は維持したい)、前景画像の量子化については最適化を行いたいところであるが、減色を行わない理由が高速化であるため、最適化に処理時間をかけることはできない。例えば、画像の特徴量や内容を解析し、それに応じて符号化方式や量子化方式を選択する方法は知られているが、こうした解析は一般に処理量が多く、採用することは困難である。   As long as color reduction is not performed (= high compression but we want to maintain image quality and processing speed), we would like to optimize the foreground image quantization, but the reason for not performing color reduction is speeding up. The processing time cannot be spent on optimization. For example, there is known a method of analyzing feature amounts and contents of an image and selecting an encoding method or a quantization method according to the analysis. However, such analysis generally has a large processing amount and is difficult to adopt.

そこで出願人は、減色を行わない前景画像を高速かつ最適に符号化するに際し、MRCモデルの持つ構造・機能に着目した。すなわち、前景に対して周波数変換と量子化を用いた符号化を採用する場合、「前景は色」というレイヤ自体が持つ機能を考慮すると、画像の内容を解析することなしに、該機能の差を量子化に反映することができるのである。しかしながら(発明者の知る限り)これまでは、前景に対して、こうした機能を反映した量子化はなされてこなかった。   Therefore, the applicant paid attention to the structure and function of the MRC model when encoding the foreground image without color reduction at high speed and optimally. In other words, when the encoding using frequency transformation and quantization is adopted for the foreground, considering the function of the layer itself “foreground is color”, the difference between the functions is not analyzed without analyzing the contents of the image. Can be reflected in quantization. However, so far (as far as the inventors know), foreground has not been quantized to reflect these functions.

なお、ブロック図において同じ機能を持つ構成部やフローチャート図において同じ処理を行う過程には同じ番号を付し、重複説明を省略する。   In addition, the same number is attached | subjected to the process which performs the same process in the structure part and flowchart figure which have the same function in a block diagram, and duplication description is abbreviate | omitted.

また、以下の説明では、非絵柄とは、絵柄ではないもの、例えば、文字、線図、記号などを示す。
[全体的な流れ]
まず、全体的な流れについて説明する。図7は、本実施の形態にかかるPCのハードウェア構成を示すブロック図である。本実施の形態にかかるPC100は、CPU(Central Processing Unit)101、RAM(Random Access Memory)102、HDD(Hard Disk Drive)103等をシステムバス104により相互接続した一般的なパーソナルコンピュータである。
Further, in the following description, the non-picture refers to something that is not a picture, for example, a character, a diagram, and a symbol.
[Overall flow]
First, the overall flow will be described. FIG. 7 is a block diagram showing a hardware configuration of the PC according to the present embodiment. A PC 100 according to this embodiment is a general personal computer in which a CPU (Central Processing Unit) 101, a RAM (Random Access Memory) 102, an HDD (Hard Disk Drive) 103, and the like are interconnected by a system bus 104.

CPU101は、PC100の全体を制御するためのマイクロプロセッサである。RAM102は、各種データを書換え可能に記憶する性質を有していることから、CPU101の作業エリアとして機能してバッファ等の役割を果たす。HDD103は、画像やCPU101により実行される各種プログラムを記憶する情報記録媒体である。   The CPU 101 is a microprocessor for controlling the entire PC 100. Since the RAM 102 has the property of storing various data in a rewritable manner, it functions as a work area for the CPU 101 and functions as a buffer. The HDD 103 is an information recording medium that stores images and various programs executed by the CPU 101.

なお、情報記録媒体としては、HDD103のみならずCD(Compact Disk)−ROM、DVD(Digital Versatile Disk)などの各種の光ディスク、各種光磁気ディスク、フレキシブルディスクなどの各種磁気ディスク等、半導体メモリ等の各種方式のメディアを用いることができる。また、図示しない外部I/F装置を介してインターネットなどのネットワークからプログラムをダウンロードし、HDD103にインストールするようにしてもよい。この場合に、送信側のサーバでプログラムを記憶している記憶装置も、この発明における情報記録媒体である。なお、プログラムは、所定のOS(Operating System)上で動作するものであってもよいし、その場合に後述する各種処理の一部の実行をOSに肩代わりさせるものであってもよいし、所定のアプリケーションソフトやOSなどを構成する一群のプログラムファイルの一部として含まれるものであってもよい。   Information recording media include not only the HDD 103 but also various optical disks such as CD (Compact Disk) -ROM and DVD (Digital Versatile Disk), various magnetic disks such as various magneto-optical disks and flexible disks, semiconductor memories, and the like. Various types of media can be used. Alternatively, the program may be downloaded from a network such as the Internet via an external I / F device (not shown) and installed in the HDD 103. In this case, the storage device that stores the program in the server on the transmission side is also the information recording medium in the present invention. Note that the program may operate on a predetermined OS (Operating System), in which case the OS may perform execution of some of various processes described later, It may be included as a part of a group of program files constituting the application software or OS.

このシステム全体の動作を制御するCPU101は、このシステムの主記憶装置として使用されるHDD103に記憶されたプログラムに基づいて各種処理を実行する。   The CPU 101 that controls the operation of the entire system executes various processes based on programs stored in the HDD 103 used as the main storage device of the system.

次に、PC100のHDD103に記憶されているプログラムがCPU101に実行させる機能のうち、本実施の形態のPC100が備える特長的な機能について説明する。 次に、図7を用いて、PC100が備える特長的な機能の概略について説明する。(1)HDD103より処理対象となる原画像がCPU101からの命令によってRAM102に読み込まれる。(2)CPU101は、RAM102上の原画像を読み込み、MRCモデルを用いた符号化を行う。(3)CPU101は、符号化されたデータをRAM102上の別の領域に書き込む。(4)CPU101からの命令によってその符号化されたデータがHDD103に保存される。
[実施形態1]
次に、実施形態1のCPU101内の機能構成例を図8に示す。また、CPU101の処理の流れを図9に示す。
Next, of the functions that the program stored in the HDD 103 of the PC 100 causes the CPU 101 to execute, the characteristic functions provided in the PC 100 of the present embodiment will be described. Next, an outline of characteristic functions of the PC 100 will be described with reference to FIG. (1) An original image to be processed is read from the HDD 103 into the RAM 102 according to a command from the CPU 101. (2) The CPU 101 reads the original image on the RAM 102 and performs encoding using the MRC model. (3) The CPU 101 writes the encoded data in another area on the RAM 102. (4) The encoded data is stored in the HDD 103 according to a command from the CPU 101.
[Embodiment 1]
Next, a functional configuration example in the CPU 101 of the first embodiment is shown in FIG. FIG. 9 shows the flow of processing of the CPU 101.

図8の例では、実施形態1のCPU101は、生成部2、DCレベルシフト部4、周波数変換部8、量子化部10、ビットプレーン符号化部12、パケット生成部14とを含む。また、原画像を号化する場合には、図8中の矢印の順番で、処理が行われるが、符号化された原画像を復号化する場合には、矢印と逆向き(つまり、パケット生成部14)から順番に行われる。また、本実施例ではJPEG2000を使用する例を説明する。 In the example of FIG. 8, the CPU 101 of the first embodiment includes a generation unit 2, a DC level shift unit 4, a frequency conversion unit 8, a quantization unit 10, a bit plane encoding unit 12, and a packet generation unit 14. Further, in the case of decrypt the original image by an arrow order in FIG. 8, the processing is performed when decoding encoded original image, the arrow direction opposite (i.e., packets It is performed in order from the generation unit 14). In this embodiment, an example in which JPEG2000 is used will be described.

まず、符号化の対象である原画像αが入力部(図示せず)に入力される(ステップS2)。入力された原画像αは生成部2に入力される。生成部2により原画像αから生成された画像について、図10に示す。生成部2は、原画像αから、該原画像の絵柄が表示される絵柄部画像R(「背景R」ともいう。)と、該原画像αの非絵柄の色を表す非絵柄部色画像P'(「前景P'」ともいう。)と、非絵柄部形状画像(「マスクQ」ともいう。)とを生成する。更に、生成部2は、第2マスクVと第2背景Wとにを生成する。   First, an original image α to be encoded is input to an input unit (not shown) (step S2). The input original image α is input to the generation unit 2. An image generated from the original image α by the generation unit 2 is shown in FIG. The generation unit 2 generates, from the original image α, a pattern portion image R (also referred to as “background R”) on which the pattern of the original image is displayed, and a non-pattern portion color image representing the color of the non-pattern of the original image α. P ′ (also referred to as “foreground P ′”) and a non-picture part shape image (also referred to as “mask Q”) are generated. Further, the generation unit 2 generates a second mask V and a second background W.

次に生成部2の処理の詳細について説明する。生成部2は、ステップS2で入力された原画像に対し、画素単位で、文字・線画を構成する画素(以下、「文字画素」という。)であるかどうかが判別する。文字画素は、例えば、図2、図4の文字A1、文字A2を示す。   Next, details of the processing of the generation unit 2 will be described. The generation unit 2 determines whether or not the original image input in step S2 is a pixel (hereinafter referred to as “character pixel”) constituting a character / line drawing in units of pixels. The character pixel indicates, for example, the characters A1 and A2 in FIGS.

該判別は公知の像域判別技術によって行われ、例えば、原画像の各画素に対し、エッジ検出オペレータとして周知のSobelフィルタを作用させる。Sobelフィルタは、注目画素を中心とした上下左右の9つの画素に対して、図11に示す第1の重みマトリクスを乗算して、その和HSを算出し、同様に図12に示す第2のマトリクスを乗算してその和VSを算する。そして、(HS+VS)の平方根をフィルタの出力値とする。 The discrimination is performed by a known image area discrimination technique. For example, a Sobel filter known as an edge detection operator is applied to each pixel of the original image. The Sobel filter multiplies the first weight matrix shown in FIG. 11 by multiplying the top, bottom, left, and right nine pixels centered on the pixel of interest to calculate the sum HS. Similarly, the second filter shown in FIG. Multiply the matrix and calculate its sum VS. Then, the square root of (HS 2 + VS 2 ) is used as the output value of the filter.

該フィルタ出力値が例えば30以上の場合に、注目画素が文字画素であると判断し、該注目画素位置の値を1にし、それ以外の画素の値を0にすることで、マスクQ(非絵柄部形状画像Q)を生成する(二値画像の場合、黒=1、白=0が通例である)(ステップS4)。   For example, when the filter output value is 30 or more, it is determined that the target pixel is a character pixel, the value of the target pixel position is set to 1, and the values of the other pixels are set to 0. The pattern part shape image Q) is generated (in the case of a binary image, black = 1 and white = 0 are common) (step S4).

また、文字・線画領域に属さない画素(以下、非文字画素)の色を、固定値(128、128、128)で置換し、前景P(非絵柄部色画像P)を生成する(ステップS6)。本実施例では上述のように、前景Pの生成手法に第2の手法を用いるからである。   Also, the color of pixels that do not belong to the character / line drawing area (hereinafter, non-character pixels) is replaced with a fixed value (128, 128, 128) to generate a foreground P (non-picture part color image P) (step S6). ). This is because the second method is used as the foreground P generation method in the present embodiment as described above.

ここで、上述したように、非絵柄部色画像Pは、原画像の非絵柄の色画像(図10の色S、Tの箇所)および該非絵柄の色画像以外の位置に占める特定画像Cにより構成される。   Here, as described above, the non-pattern part color image P is composed of the non-pattern color image of the original image (the locations of the colors S and T in FIG. 10) and the specific image C that occupies a position other than the non-pattern color image. Composed.

次に、原画像αおける文字・線画領域の画素の色を、当該画素の最も近傍に位置する非文字画素の色で置換し、絵柄部画像R(背景R)を生成する(ステップS8)。   Next, the color of the pixel in the character / line drawing area in the original image α is replaced with the color of the non-character pixel located closest to the pixel to generate a picture portion image R (background R) (step S8).

続いて、原画像と同じサイズの画素値1の画像として第2マスクVを作成し(ステップS10)する。原画像と同じサイズの白い画像として第2背景画像Wを作成する(ステップS12)。   Subsequently, a second mask V is created as an image having a pixel value 1 having the same size as the original image (step S10). A second background image W is created as a white image having the same size as the original image (step S12).

なお、ステップS4からステップS12までの処理の流れはこれらに限られない。   Note that the flow of processing from step S4 to step S12 is not limited to these.

このうち、非絵柄部色画像P'と、絵柄部画像Rとは、DCレベルシフト部4に入力される。
<DCレベルシフト部4の処理>
次にDCレベルシフト部4の処理については説明する。本実施例では、「DCレベルシフト部4により、画像信号に対して、色変換をしない実施形態1」と「DCレベルシフト部4により、画像信号に対して、色変換をする実施形態2」を説明する。段落<DCレベルシフト部4の処理>では、色変換の処理についても説明する。また、色変換した後の輝度信号をYとし、色差信号をCb、Crとする。
Among these, the non-picture part color image P ′ and the picture part image R are input to the DC level shift unit 4.
<Processing of DC Level Shift Unit 4>
Next, the processing of the DC level shift unit 4 will be described. In the present embodiment, “embodiment 1 in which color conversion is not performed on the image signal by the DC level shift unit 4” and “embodiment 2 in which color conversion is performed on the image signal by the DC level shift unit 4”. Will be explained. In the paragraph <Processing of DC level shift unit 4>, color conversion processing is also described. The luminance signal after color conversion is Y, and the color difference signals are Cb and Cr.

まず、画像は矩形のタイルに分割される(分割数≧1)。次に、タイルは、例えば、RGBの3コンポーネントで構成されるカラー画像を符号化する場合、DCレベルシフトと輝度・色差のコンポーネントへの色変換が施される。より厳密には、色変換を施す前に、DCレベルシフトを行う。DCレベルシフトは、入力される画像信号がRGB信号値のような正の数である場合に所定の変換式を用いて各信号値から信号のダイナミックレンジの1/2を減算するレベルシフト処理を行い、色変換ではRGB画像を輝度信号(画像)Y、色差信号Cr、Cb画像に変換することによりカラー画像の圧縮効率を高める処理を行うことができる。   First, the image is divided into rectangular tiles (number of divisions ≧ 1). Next, for example, when a color image composed of three RGB components is encoded, the tile is subjected to DC level shift and color conversion to luminance / color difference components. More precisely, DC level shift is performed before color conversion. DC level shift is a level shift process that subtracts ½ of the dynamic range of a signal from each signal value using a predetermined conversion formula when the input image signal is a positive number such as an RGB signal value. In the color conversion, the RGB image is converted into the luminance signal (image) Y and the color difference signals Cr and Cb images, whereby the processing for increasing the compression efficiency of the color image can be performed.

DCレベルシフトは、画像信号がRGB信号値のような正の数(符号なし整数)である場合には、式(1)に示すように順変換では各信号値から信号のダイナミックレンジの半
分を減算するレベルシフトを、逆変換では各信号値に信号のダイナミックレンジの半分を
加算するレベルシフトを行う。但し、レベルシフトは画像信号がYCbCr信号における
CbやCrのような符号付き整数の場合には適用しない。
In the DC level shift, when the image signal is a positive number (unsigned integer) such as an RGB signal value, as shown in Expression (1), half of the dynamic range of the signal is obtained from each signal value by forward conversion. In the inverse conversion, the level shift for subtracting is performed by adding half of the dynamic range of the signal to each signal value. However, the level shift is not applied when the image signal is a signed integer such as Cb or Cr in the YCbCr signal.

JPEG2000のDCレベルシフトの順変換および逆変換に用いる式(1)は以下の
通りである。
Equation (1) used for forward and reverse conversion of JPEG2000 DC level shift is as follows.

I(x,y)←I(x,y)-2Ssiz(i)・・・順変換
(1)
I(x,y)←I(x,y)+2Ssiz(i) ・・・逆変換
ここで、Ssiz(i)とは画像の各コンポーネントi(RGB画像ならi=0,1,2)のビット深さから1を減じたものである。I(x,y)は座標(x,y)における信号値(画素値)である。
I (x, y) ← I (x, y) -2 Ssiz (i) ... forward conversion
(1)
I (x, y) ← I (x, y) +2 Ssiz (i) ... Inverse transformation Here, Ssiz (i) is an image component i (i = 0, 1, 2 for RGB image). This is the bit depth minus one. I (x, y) is a signal value (pixel value) at coordinates (x, y).

色変換は、カラー画像を効率良く圧縮するために行う。これはJPEGでもRGB画像
を輝度画像Y、色差画像Cr、Cbに変換後に圧縮を行うと圧縮率が向上し、結果的には再生画質が良くなることと目的は同じである。色変換には、可逆と非可逆の2つの方法が定義されている。
Color conversion is performed in order to efficiently compress a color image. The purpose of this is the same as that in JPEG, if the RGB image is converted into the luminance image Y and the color difference images Cr and Cb and then compressed, the compression rate is improved and as a result the reproduction image quality is improved. Two methods of reversible and irreversible are defined for color conversion.

可逆変換は、RCT(Reversible multiple component transformation)と呼ばれ、変
換式の係数が整数値であることが特徴である。この変換式を式(2)に示す。
The reversible transformation is called RCT (Reversible multiple component transformation) and is characterized in that the coefficient of the transformation formula is an integer value. This conversion formula is shown in Formula (2).

Y0(x,y)=floor((I0(x,y)+2×(I1(x,y)+I2(x,y))/4)
Y1(x,y)=I2(x,y)−I1(x,y) 順変換
Y2(x,y)=I0(x,y)−I1(x,y)
(2)
I1(x,y)=Y0(x,y)−floor((Y2(x,y)+Y1(x,y))/4)
I0(x,y)=Y2(x,y)+I1{x,y) 逆変換
I2(x,y)=Y1(x,y)+I1[x,y)
なお、Iは原信号を示し、Yは変換後の信号を示している。また、IやYに続く0〜2はサフィクスである。具体的には、RGB信号を可逆変換する場合、I信号においてはI0=R,I1=G,I2=Bと表され、Y信号においてはY0=Y,Y1=Cb,Y2=Crと表される。さらに、floor(x)は、xのフロア関数(実数xを、xを越えず、かつxに最も近い整数に置換する関数)を示している。
Y0 (x, y) = floor ((I0 (x, y) + 2 × (I1 (x, y) + I2 (x, y)) / 4)
Y1 (x, y) = I2 (x, y) -I1 (x, y) Forward conversion Y2 (x, y) = I0 (x, y) -I1 (x, y)
(2)
I1 (x, y) = Y0 (x, y) -floor ((Y2 (x, y) + Y1 (x, y)) / 4)
I0 (x, y) = Y2 (x, y) + I1 {x, y) Inverse transformation I2 (x, y) = Y1 (x, y) + I1 [x, y)
Note that I indicates an original signal, and Y indicates a signal after conversion. In addition, 0 to 2 following I and Y are suffixes. Specifically, when reversibly converting an RGB signal, the I signal is represented as I0 = R, I1 = G, I2 = B, and the Y signal is represented as Y0 = Y, Y1 = Cb, Y2 = Cr. The Further, floor (x) represents a floor function of x (a function that replaces the real number x with an integer that does not exceed x and is closest to x).

非可逆変換はICT(Irreversible multiple component transformation)と呼ばれ、変換式の係数がRCTと異なり実数値であることが特徴である。この変換式を式(3)に
示す。
The irreversible transformation is called ICT (Irreversible multiple component transformation), and is characterized in that the coefficient of the transformation formula is a real value unlike the RCT. This conversion formula is shown in Formula (3).

Y0(x,y)=0.299×I0(x,y)+0.587×I1(x,y)+0.144×I2(x,y)
Y1(x,y)=−0.16875×I0(x,y)−0.33126×1(x,y)+0.5*I2(x,y) 順変換
Y2(x,y)=0.5×I0(x,y)−0.41869×I1(x,y)−0.08131×I2(x,y)
(3)
I0(x,y)=Y0(x,y)+1.402×Y2(x,y)
I1(x,y)=Y0(x,y)−0.34413×Y1(x,y)−0.71414×Y2(x,y) 逆変換
I2(x,y)=Y0(x,y)+1.772×Y1(x,y)
なお、Iは原信号を示し、Yは変換後の信号を示している。また、IやYに続く0〜2はサフィクスである。具体的には、RGB信号を非可逆変換する場合、I信号においては、I0=Y,I1=G,I2=Bと表され、Y信号においてはI0=Y,I1=Cb,I2=Crと表される。
<周波数変換部8について>
次に周波数変換部8の処理について説明する。周波数変換部8は、絵柄部画像R、非絵柄部色画像P、特定画像Cを周波数変換する。周波数変換後は、絵柄部画像Rの周波数成分f、および非絵柄部色画像Pの周波数成分fが出力される。周波数変換部8の処理の詳細について説明する。
Y0 (x, y) = 0.299 × I0 (x, y) + 0.587 × I1 (x, y) + 0.144 × I2 (x, y)
Y1 (x, y) = − 0.16875 × I0 (x, y) −0.33126 × 1 (x, y) + 0.5 * I2 (x, y) Forward conversion Y2 (x, y) = 0. 5 × I0 (x, y) −0.41869 × I1 (x, y) −0.0811 × I2 (x, y)
(3)
I0 (x, y) = Y0 (x, y) + 1.402 × Y2 (x, y)
I1 (x, y) = Y0 (x, y) −0.34413 × Y1 (x, y) −0.71414 × Y2 (x, y) Inverse transformation I2 (x, y) = Y0 (x, y) + 1.772 × Y1 (x, y)
Note that I indicates an original signal, and Y indicates a signal after conversion. In addition, 0 to 2 following I and Y are suffixes. Specifically, when irreversibly converting an RGB signal, the I signal is expressed as I0 = Y, I1 = G, I2 = B, and the Y signal is expressed as I0 = Y, I1 = Cb, I2 = Cr. expressed.
<About the frequency converter 8>
Next, processing of the frequency conversion unit 8 will be described. The frequency conversion unit 8 performs frequency conversion on the pattern portion image R, the non-pattern portion color image P, and the specific image C. After the frequency conversion, the frequency component f R of the pattern part image R and the frequency component f P of the non-pattern part color image P are output. Details of the processing of the frequency converter 8 will be described.

タイル毎に、色変換後のコンポーネント(タイルコンポーネントと呼ばれる)は、周波数変換部8によって周波数変換される。この実施例では、周波数変換の手法としてウェーブレット変換を用いる例を説明する。ウェーブレット変換によって、LL,HL,LH,HHと略称される4つのサブバンドに分割される。そしてLLサブバンドに対して再帰的にウェーブレット変換(以下、「デコンポジション」という場合もある。)を繰返すと、最終的に1つのLLサブバンドと複数のHL,LH,HHサブバンドが生成される。ここで、JPEG2000で採用されている2次元ウェーブレット変換について説明する。   For each tile, the component after color conversion (referred to as a tile component) is frequency-converted by the frequency converter 8. In this embodiment, an example in which wavelet transformation is used as a frequency transformation technique will be described. By wavelet transform, it is divided into four subbands abbreviated as LL, HL, LH, and HH. When the wavelet transform (hereinafter also referred to as “decomposition”) is repeated recursively on the LL subband, one LL subband and a plurality of HL, LH, and HH subbands are finally generated. The Here, the two-dimensional wavelet transform adopted in JPEG2000 will be described.

色変換後、施される2次元ウェーブレット変換では、5*3フィルタを施す5*3ウェーブレット変換と、9*7フィルタを施す9*7ウェーブレット変換を選択することができる。5*3ウェーブレット変換とは、5画素を用いて1つのローパスフィルタの出力(ローパス係数)が得られ、3画素を用いて1つのハイパスフィルタの出力(ハイパス係数)が得られる変換である。   In the two-dimensional wavelet transform to be performed after the color conversion, a 5 * 3 wavelet transform for applying a 5 * 3 filter and a 9 * 7 wavelet transform for applying a 9 * 7 filter can be selected. The 5 * 3 wavelet transform is a transform that obtains one low-pass filter output (low-pass coefficient) using five pixels and obtains one high-pass filter output (high-pass coefficient) using three pixels.

同様に、9*7ウェーブレット変換とは、9画素を用いて1つのローパスフィルタの出力(ローパス係数)が得られ、7画素を用いて1つのハイパスフィルタの出力(ハイパス係数)が得られる変換である。主な違いは、フィルタの範囲の違いであり、偶数位置中心にローパスフィルタ、奇数位置中心にハイパスフィルタが施されるのは同様である。9*7フィルタにも同様に当てはまる。   Similarly, the 9 * 7 wavelet transform is a conversion in which 9 pixels are used to obtain one low-pass filter output (low-pass coefficient), and 7 pixels are used to obtain one high-pass filter output (high-pass coefficient). is there. The main difference is the difference in the filter range. The same applies to the low pass filter at the center of the even position and the high pass filter at the center of the odd position. The same applies to 9 * 7 filters.

5*3ウェーブレット変換の変換式を式(4)に示す。   Equation (4) shows the 5 * 3 wavelet transform.

順変換
C(2i+1)=P(2i+1)−floor((P(2i)+P(2i+2))/2) [step1]
C(2i)=P(2i)+floor((C(2i−1)+C(2i+1)+2)/4) [step2]
逆変換 (4)
P(2i)=C(2i)−floor((C(2i−1)+C(2i+1)+2)/4) [step3]
P(2i+1)=C(2i+1)+floor((P(2i)+P(2i+2))/2) [step4]
9*7ウェーブレット変換の変換式を式(5)に示す。
Forward conversion C (2i + 1) = P (2i + 1) -floor ((P (2i) + P (2i + 2)) / 2) [step1]
C (2i) = P (2i) + floor ((C (2i-1) + C (2i + 1) +2) / 4) [step2]
Inverse transformation (4)
P (2i) = C (2i) -floor ((C (2i-1) + C (2i + 1) +2) / 4) [step3]
P (2i + 1) = C (2i + 1) + floor ((P (2i) + P (2i + 2)) / 2) [step4]
The conversion formula of the 9 * 7 wavelet transform is shown in Formula (5).

順変換
C(2n+1)=P(2n+1)+α×(P(2n)+P(2n+2)) [step1]
C(2n)=P(2n)+β×(C(2n−1)+C(2n+1)) [step2]
C(2n+1)=C(2n+1)+γ×(C(2n)+C(2n+2)) [step3]
C(2n)=C(2n)+δ×(C(2n−1)+C(2n+1)) [step4]
C(2n+1)=K×C(2n+1) [step5]
C(2n)=(1/K)×C(2n) [step6]
逆変換 (5)
P(2n)=K×C(2n) [step1]
P(2n+1)=(1/K)×C(2n+1) [step2]
P(2n)=X(2n)−δ×(P(2n−1)+P(2n+1)) [step3]
P(2n+1)=P(2n+1)−γ×(P(2n)+P(2n+2)) [step4]
P(2n)=P(2n)−β×(P(2n−1)+P(2n+2)) [step5]
P(2n)=P(2n+1)-α×(P(2n)+P(2n+2)) [step6]
但し、α=-1.586134342059924
β=-0.052980118572961
γ=0.882911075530934
δ=0.443506852043971
K=1.230174104914001
次に、ウェーブレット変換の手順、並びにデコンポジションレベル、解像度レベル、サ
ブバンドの定義について説明する。
Forward conversion C (2n + 1) = P (2n + 1) + α × (P (2n) + P (2n + 2)) [step 1]
C (2n) = P (2n) + β × (C (2n−1) + C (2n + 1)) [step 2]
C (2n + 1) = C (2n + 1) + γ × (C (2n) + C (2n + 2)) [step 3]
C (2n) = C (2n) + δ × (C (2n−1) + C (2n + 1)) [step 4]
C (2n + 1) = K × C (2n + 1) [step5]
C (2n) = (1 / K) × C (2n) [step6]
Inverse transformation (5)
P (2n) = K × C (2n) [step1]
P (2n + 1) = (1 / K) × C (2n + 1) [step2]
P (2n) = X (2n) −δ × (P (2n−1) + P (2n + 1)) [step 3]
P (2n + 1) = P (2n + 1) −γ × (P (2n) + P (2n + 2)) [step 4]
P (2n) = P (2n) −β × (P (2n−1) + P (2n + 2)) [step 5]
P (2n) = P (2n + 1) −α × (P (2n) + P (2n + 2)) [step 6]
However, α = -1.586134342059924
β = -0.052980118572961
γ = 0.882911075530934
δ = 0.443506852043971
K = 1.230174104914001
Next, the procedure of wavelet transform and the definition of the decomposition level, resolution level, and subband will be described.

図13は、16×16の画像の輝度コンポ−ネントに対して、ウェーブレット変換(5×3変換)を2次元(垂直方向および水平方向)で施す過程におけるDCレベルシフト後の原画像と座標系、ミラーリングを例示したものである。図14は、上記同過程における垂直方向へのフィルタリング後の係数の配列を例示したものである。図15は、上記同過程における水平方向へのフィルタリング後の係数の配列を例示したものである。図16は、上記同過程における並べ替えた係数の配列を例示したものである。   FIG. 13 shows an original image and a coordinate system after DC level shift in the process of performing wavelet transform (5 × 3 transform) in two dimensions (vertical direction and horizontal direction) on the luminance component of a 16 × 16 image. This is an example of mirroring. FIG. 14 exemplifies the arrangement of coefficients after filtering in the vertical direction in the same process. FIG. 15 shows an example of the arrangement of coefficients after filtering in the horizontal direction in the same process. FIG. 16 shows an example of the rearranged coefficient array in the same process.

図13を参照すれば、xy座標をとり、或るxについて、y座標がyである画素の画素値をP(y)(0≦y≦15)と表わす。JPEG2000では、先ず垂直方向(Y座標方向)にy座標が奇数(y=2i+1)の画素を中心にハイパスフィルタを施して係数C(2i+1)を取得し、次にy座標が偶数(y=2i)の画素を中心にローパスフィルタを施して係数C(2i)を取得するようにし、こうした処理を全てのxについて行う。   Referring to FIG. 13, xy coordinates are taken, and for a certain x, the pixel value of a pixel whose y coordinate is y is expressed as P (y) (0 ≦ y ≦ 15). In JPEG2000, first, a high-pass filter is applied to a pixel whose y coordinate is odd (y = 2i + 1) in the vertical direction (Y coordinate direction) to obtain a coefficient C (2i + 1), and then the y coordinate is even (y = 2i). ) To obtain a coefficient C (2i) by applying a low-pass filter centering on the pixel of (), and such processing is performed for all x.

ここで、ハイパスフィルタ、ローパスフィルタは、順に上述したStep1、Step2の関係式で表わされる。尚、画像の端部にフィルタを施す場合には、中心となる画素に対して隣接画素が十分に存在しないことがあり、こうした場合はミラーリング(図13参照)と呼ばれる手法によって適宜画素値を補うことになる。ミラーリングとは、画像端部の外側に仮想的な画素を想定し、画像端部の画素を対称軸として、端部の内側の画素値を、端部の外側の画素に対して線対称にコピーする周知の手法である。ミラーリングは画像(タイル)の上下左右の4端全てで行われる。   Here, the high-pass filter and the low-pass filter are expressed by the relational expressions of Step 1 and Step 2 described above in order. When a filter is applied to the edge of an image, there may be insufficient adjacent pixels with respect to the central pixel. In such a case, the pixel value is appropriately compensated by a technique called mirroring (see FIG. 13). It will be. Mirroring assumes a virtual pixel outside the edge of the image, and the pixel value inside the edge is copied symmetrically with respect to the pixel outside the edge, with the pixel at the edge of the image as the axis of symmetry. This is a well-known technique. Mirroring is performed at all four edges of the image (tile).

説明を簡単にするため、ハイパスフィルタで得られる係数をH、ローパスフィルタで得
られる係数をLと表記すれば、垂直方向の変換によって図13に示した画像は図14に示されるようなL係数、H係数(周波数係数)の配列へと変換される。
For simplicity of explanation, if the coefficient obtained by the high-pass filter is denoted by H and the coefficient obtained by the low-pass filter is denoted by L, the image shown in FIG. 13 is converted to the L coefficient as shown in FIG. , Converted into an array of H coefficients (frequency coefficients).

次に、図13に示されるような係数配列に対して、先ず水平方向にx座標が奇数(y=2i+1)の係数を中心にハイパスフィルタを施し、次にx座標が偶数(x=2i)の係数を中心にローパスフィルタを施すようにし、これらの処理を全てのyについて行う。この場合、第1ステップ、第2ステップのP(2i)等は係数値を表わすものと読み替える。   Next, with respect to the coefficient array as shown in FIG. 13, first, a high-pass filter is applied around the coefficient whose x coordinate is an odd number (y = 2i + 1) in the horizontal direction, and then the x coordinate is an even number (x = 2i). A low-pass filter is applied centering on the coefficient, and these processes are performed for all y. In this case, P (2i) and the like in the first step and the second step are read as representing coefficient values.

次に、説明を簡単にするため、上述したL係数を中心にローパスフィルタを施して得られる係数をLL、L係数を中心にハイパスフィルタを施して得られる係数をHL、H係数を中心にローパスフィルタを施して得られる係数をLH、H係数を中心にハイパスフィルタを施して得られる係数をHHと表記すれば、図13に示される係数配列は、図14に示されるような係数配列へと変換される。ここで同一の記号を付した係数群は、サブバンドと呼ばれ、図11に示される形態では4つのサブバンドで構成される。   Next, for simplicity of explanation, the coefficient obtained by applying the low-pass filter centered on the L coefficient described above is LL, the coefficient obtained by applying the high-pass filter centered on the L coefficient is HL, and the coefficient obtained by applying the high-pass filter is centered on the low-pass filter. If the coefficient obtained by applying the filter is denoted by LH, and the coefficient obtained by applying the high-pass filter centering on the H coefficient is denoted by HH, the coefficient array shown in FIG. 13 becomes a coefficient array as shown in FIG. Converted. The coefficient group given the same symbol here is called a subband, and is composed of four subbands in the form shown in FIG.

以上は、垂直・水平の各方向に対して各1回のウェーブレット変換(1回のデコンポジ
ション(分解))が終了し、上述したLL係数だけを集めて図15に示されるようにサブバンド毎に集め、LLサブバンドだけ取り出すと、丁度原画像の1/2の解像度の"画像"
が得られる。因みに、このようにサブバンド毎に分類することはデインターリーブと呼ば
れ、図1を参照して説明したような処理状態に配置することはインターリーブと呼ばれる
2回目のウェーブレット変換は、LLサブバンドを原画像とみなして、上述した場合と
同様の変換を行えば良い。この場合、並べ替えを行うと、図17に示されるような形態となる。ここでの係数の接頭の1や2は、水平・垂直に関し各何回のウェーブレット変換で係数が得られたかを示しており、デコンポジションレベルと呼ばれる。
As described above, each wavelet transform (one decomposition (decomposition)) is completed for each of the vertical and horizontal directions, and only the above-described LL coefficients are collected for each subband as shown in FIG. If only the LL subband is taken out, the “image” with exactly half the resolution of the original image
Is obtained. In this connection, the classification for each subband is called deinterleaving, and the arrangement in the processing state as described with reference to FIG. 1 is called interleaving. The second wavelet transform uses LL subbands. It can be regarded as an original image and the same conversion as described above may be performed. In this case, when rearrangement is performed, the form shown in FIG. 17 is obtained. The coefficient prefixes 1 and 2 here indicate how many times the wavelet transform has been obtained with respect to horizontal and vertical, and are called decomposition levels.

図18は、デコンポジションレベルと解像度レベルとの関係を例示したものである。ここでは、解像度レベルがデコンポジションレベルとほぼ逆の関係にあることを示している。   FIG. 18 illustrates the relationship between the decomposition level and the resolution level. Here, it is shown that the resolution level is almost opposite to the composition level.

以上の説明において、1次元のみのウェーブレット変換を行う場合には、何れかの方向
だけの処理を行えば良く、その何れかの方向に関してウェーブレット変換を行った回数が
デコンポジションレベルとなる。
In the above description, when only one-dimensional wavelet transformation is performed, processing in only one direction may be performed, and the number of times wavelet transformation has been performed in any one direction becomes the decomposition level.

ウェーブレットフィルタとして9*7フィルタを選択した場合には、上述した分割の後
、サブバンド毎に係数の線形量子化が成されるが、5*3フィルタを選択した場合には、
サブバンド毎の線形量子化はしない仕様となっている。
When a 9 * 7 filter is selected as the wavelet filter, linear quantization of coefficients is performed for each subband after the above-described division, but when a 5 * 3 filter is selected,
The specification does not perform linear quantization for each subband.

次なる処理として、各サブバンドはプリシンクトとよばれる矩形に分割される。プリシ
ンクトとは、サブバンドを矩形に分割したものをHL、LH、HHの3つのサブバンドに
ついて集めたもので、大まかな意味では画像中の場所(Position)を表わすもの
である。プリシンクトは3つで1纏まりであるが、LLサブバンドを分割した場合には1
つで1纏まりとなる。また、プリシンクトはサブバンドと同じサイズにでき、プリシンク
トをさらに矩形に分割したものがコードブロックである。
As the next processing, each subband is divided into rectangles called precincts. The precinct is a collection of three subbands HL, LH, and HH obtained by dividing a subband into rectangles. In a broad sense, the precinct represents a position in an image. There are three precincts, which are one group, but 1 when the LL subband is divided.
One unit becomes one. The precinct can be the same size as the subband, and the code block is obtained by further dividing the precinct into rectangles.

図19は、画像(タイル)、サブバンド、プリシンクト、コードブロックの関係を例示したものである。ここでは、物理的な大きさの序列として、画像≧タイル>サブバンド≧プリシンクト≧コードブロックとなることを示している。
[量子化部10について]
量子化部10の量子化について、本実施例では、周波数ゲインのための正規化のための量子化を除く。量子化部10の説明の前に、「周波数ゲインのための正規化のための量子化を除く」理由を説明する。
FIG. 19 illustrates the relationship among images (tiles), subbands, precincts, and code blocks. Here, as an order of physical size, it is shown that image ≧ tile> subband ≧ precinct ≧ code block.
[About the quantization unit 10]
With respect to the quantization of the quantization unit 10, in the present embodiment, quantization for normalization for frequency gain is excluded. Prior to the description of the quantizing unit 10, the reason for “excluding quantization for normalization for frequency gain” will be described.

変換符号化における量子化は、周波数変換ゲインの正規化のための量子化と、人の視覚特性や画像特性を反映するための量子化の2つにわかれ、通常以下のように成される。
(I)周波数変換部8による周波数変換が直交変換である場合
周波数変換が直交変換である場合は、その定義より、各帯域の周波数係数に生じた誤差は、周波数逆変換で算出される画素値に等しい割合で寄与する。このため、前記寄与度を考慮することなく(周波数変換ゲインの正規化のための量子化が必要なく)、人の視覚特性等を考慮して量子化(係数の量子化またはトランケーションまたは両者)を行う。
(II)周波数変換が非直交変換(ex.双直交変換)である場合
(II−i)各帯域の周波数係数に生じた誤差が、周波数逆変換で算出される画素値に寄与する度合い(いわゆる周波数変換ゲイン)が帯域ごとに異なるため、まずは帯域ごとに前記寄与度を考慮した正規化がなされる。前記正規化は、帯域ごとの係数の線形量子化でなされるのが典型(ex.寄与度の小さい帯域の係数を予め量子化して、誤差を与えておく)であり、これは形態としては量子化であるが、その意図するところは正規化である。
Quantization in transform coding is divided into two types, that is, quantization for normalizing frequency conversion gain and quantization for reflecting human visual characteristics and image characteristics, and is usually performed as follows.
(I) When the frequency transformation by the frequency transformation unit 8 is an orthogonal transformation When the frequency transformation is an orthogonal transformation, an error occurring in the frequency coefficient of each band is a pixel value calculated by frequency inverse transformation according to the definition. Contributes at a rate equal to. For this reason, quantization (coefficient quantization or truncation or both) is performed in consideration of human visual characteristics, etc. without considering the contribution (no need for quantization for frequency conversion gain normalization). Do.
(II) When frequency transformation is non-orthogonal transformation (ex. Bi-orthogonal transformation) (II-i) Degree of contribution of error generated in frequency coefficient of each band to pixel value calculated by frequency inverse transformation (so-called Since the frequency conversion gain is different for each band, normalization is first performed in consideration of the contribution for each band. The normalization is typically performed by linear quantization of the coefficient for each band (ex. The coefficient of the band with a small contribution degree is quantized in advance to give an error). The intention is normalization.

(II−ii)次に、人の視覚特性等を考慮して量子化(係数の量子化またはトランケーションまたは両者)を行う。   (II-ii) Next, quantization (quantization of coefficients or truncation or both) is performed in consideration of human visual characteristics and the like.

ただし、係数の量子化ができず、トランケーションのみを行える符号化においては、(II−i)における正規化を(II−ii)でのトランケーション量に含めた形で反映することになる。前記のように、「(ii)におけるビットプレーンn枚分の符号化省略や破棄は、(i)において係数を2のn乗で除算することと等価であり、(iii)における量子化は、S1×(2のn乗)で係数を除算するのと等価である」からである。   However, in the encoding in which the coefficient cannot be quantized and only truncation can be performed, the normalization in (II-i) is reflected in the form including the truncation amount in (II-ii). As described above, “encoding omission or discard of n bit planes in (ii) is equivalent to dividing the coefficient by 2 to the nth power in (i), and the quantization in (iii) is It is equivalent to dividing the coefficient by S1 × (2 to the power of n) ”.

また、(II−i)における正規化ができる方式でも、線形量子化を2度行うのを避けるために、(II−i)における量子化と(II−ii)での量子化を一緒にあわせて行うのもの典型である。   Further, even in a method capable of normalization in (II-i), in order to avoid performing linear quantization twice, the quantization in (II-i) and the quantization in (II-ii) are combined together. This is a typical example.

尚カラー画像の符号化においては、周波数変換と同時に色変換を行う。本願で用いる色変換の典型例は、RGB信号を輝度・色差信号に変換するものであるが、周波数変換での議論と同様、色変換が直交変換でない場合には、該色変換のゲインを反映して、輝度・色差ごとの誤差の正規化が同時に行われる。   In color image encoding, color conversion is performed simultaneously with frequency conversion. A typical example of color conversion used in the present application is to convert RGB signals into luminance / color difference signals. As in the case of frequency conversion, when color conversion is not orthogonal conversion, the gain of the color conversion is reflected. Thus, normalization of errors for each luminance / color difference is performed at the same time.

以上のように、本実施例での量子化は「周波数ゲインのための正規化のための量子化」または「輝度・色差変換ゲインの正規化のための量子化」を除く。つまり、正規化を除く視覚的量子化を指す。   As described above, the quantization in the present embodiment excludes “quantization for normalization for frequency gain” or “quantization for normalization of luminance / chrominance conversion gain”. In other words, it refers to visual quantization excluding normalization.

また、変換符号化がサブバンド変換を用いる方式である場合、サブバンドごとの係数の視覚的な重要度を定義することができる。例えば、ウェーブレットによるサブバンド変換を用いるJPEG2000である場合、本願実施の際の視覚的量子化の量を表す指標として、Visual Weightという名称の量が存在する。Visual Weightは、サブバンド(帯域)ごとの視覚的な重要度を示したものであり、値が大きいほど重要度が大きいことを示す指標である。   In addition, when transform coding is a method using subband transform, it is possible to define the visual importance of coefficients for each subband. For example, in the case of JPEG2000 that uses wavelet subband transformation, there is an amount named Visual Weight as an index representing the amount of visual quantization in the implementation of the present application. The Visual Weight indicates the visual importance for each subband (band), and is an index indicating that the importance is larger as the value is larger.

Visual Weightは、人の視覚特性(視覚の感度、実験値)を、当該サブバンドの帯域区間において積分した値であるから(簡単にいえば、その周波数帯域における人の視覚の感度を数値化したもの)、ウェーブレット変換に固有の指標ではなく、如何なるサブバンド変換に対しても定義可能な値である。ただし、輝度、色差の両方に対してVisual Weightを規定したい場合には、輝度・色差空間を特定し、特定した色差空間における実験値をもとに当該色差成分に対する視覚感度を求め、積分する必要がある。   Since Visual Weight is a value obtained by integrating human visual characteristics (visual sensitivity, experimental value) in the band section of the subband (in short, it quantifies the human visual sensitivity in the frequency band). It is not an index specific to the wavelet transform, but a value definable for any subband transform. However, if you want to define Visual Weight for both luminance and color difference, it is necessary to specify the luminance / color difference space, determine the visual sensitivity for the color difference component based on the experimental value in the specified color difference space, and integrate it. There is.

図20(A)〜(C)には、輝度信号Y、色差信号Cb、CrのVisual distance1000[dot]のHL(図15など参照)などのVisual Weightのデコンポジションレベルを示す。また、図21(A)〜(C)には、輝度信号Y、色差信号Cb、CrのVisual distance3000[dot]のHLなどのVisual Weightのデコンポジションレベルを示す。   20A to 20C show visual weight decomposition levels such as luminance signal Y, chrominance signal Cb, and HL of Cr visual distance 1000 [dot] (see FIG. 15 and the like). Further, FIGS. 21A to 21C show visual weight decomposition levels such as HL of the luminance signal Y, the color difference signal Cb, and the visual distance 3000 [dot] of Cr.

ウェーブレット変換のサブバンドの帯域は、画像自体の帯域から算出されるものである。しかし、画像までのVisual distanceが近いほど高周波の誤差までが目に付き、Visual distanceが遠ければ低周波の誤差しか目に付かないことから、観察者の目にとってのサブバンドの帯域は、画像と観察者のVisual distanceの関数となる。このためVisual Weightは、Visual distanceごとに定められる。そして、Visual distanceが遠いほど、低周波よりも高周波の重要度が小さく、かつ輝度成分よりも色差成分の重要度が小さくなるように設定されている(例えば、図20、図21参照)。   The subband band of the wavelet transform is calculated from the band of the image itself. However, the closer the visual distance to the image is, the more high frequency errors are noticeable, and the far distance the visual distance is, the lower frequency errors are only noticeable, so the subband bandwidth for the observer's eyes is It is a function of the observer's visual distance. For this reason, Visual Weight is determined for each Visual distance. The higher the distance, the lower the importance of the high frequency than the low frequency, and the less important the color difference component than the luminance component (see, for example, FIGS. 20 and 21).

JPEG2000において、このVisual Weightを反映して係数を線形量子化する場合には、量子化部10による量子化処理の除算の分母(量子化ステップ数)を
量子化ステップ数=(正規化のために除算に用いるサブバンドごとの値/ 当該サブバンドのVisual Weight)×n(nは、圧縮率等に応じてユーザが選択する定数) (6)
とするのが一般的である。よってVisual Weightが小さい程、すなわち視覚的な重要度が小さいサブバンドほど、大きく量子化されることになる。
In JPEG2000, when the coefficient is linearly quantized to reflect this Visual Weight, the denominator (quantization step number) of the quantization processing by the quantization unit 10 is expressed as follows: quantization step number = (for normalization) Value for each subband used for division / Visual Weight of the subband) × n (n is a constant selected by the user according to the compression ratio, etc.) (6)
Is generally. Therefore, the smaller the Visual Weight, that is, the sub-band with a smaller visual importance, the larger the quantization.

そして、式(6)によって量子化ステップ数を算出する場合、本実施例における「周波数変換ゲインの正規化および色変換ゲインの正規化のための量子化を除いた」量子化の程度とは、量子化ステップ数や、サブビットプレーン数などを示す。   Then, when calculating the number of quantization steps according to Equation (6), the degree of quantization in the present embodiment “excluding quantization for frequency conversion gain normalization and color conversion gain normalization” Indicates the number of quantization steps, the number of sub-bit planes, etc.

(1/当該サブバンドのVisual Weight)×n (7)
となる。以下、式(7)で算出される値を「実質的な量子化ステップ数」と呼ぶ。前景P'と背景Qとでnを共通にする場合には、「実質的な量子化ステップ数」はVisual Weightの逆数となる。
(1 / Visual Weight of the subband) × n (7)
It becomes. Hereinafter, the value calculated by Expression (7) is referred to as “substantial quantization step number”. When n is common between the foreground P ′ and the background Q, the “substantial number of quantization steps” is the reciprocal of Visual Weight.

周波数変換部8の処理の説明について戻す。次に、周波数変換部8は、背景Rについて周波数変換(ウェーブレット変換)する。図22に、9×7ウェーブレット変換の周波数ゲインの平方根の一例を示す。   The description of the processing of the frequency conversion unit 8 will be returned. Next, the frequency conversion unit 8 performs frequency conversion (wavelet conversion) on the background R. FIG. 22 shows an example of the square root of the frequency gain of 9 × 7 wavelet transform.

各周波数変換係数に生じた誤差の二乗和は、周波数逆変換時に図22に示された値についてゲイン倍され、さらに逆色変換時に図23に示すゲイン倍される。従って、公知の様に、周波数ごとの係数を「周波数変換ゲイン×色変換ゲイン」の平方根の逆数(図24に示す)で除算しておけば、各係数に生じた量子化誤差の影響を、周波数間かつコンポ−ネント(各輝度信号Y、色差信号Cb、Cr)間で均等にすることができる。   The sum of squares of errors generated in each frequency conversion coefficient is multiplied by the gain shown in FIG. 22 at the time of frequency reverse conversion, and further multiplied by the gain shown in FIG. 23 at the time of reverse color conversion. Therefore, as known, if the coefficient for each frequency is divided by the reciprocal of the square root of “frequency conversion gain × color conversion gain” (shown in FIG. 24), the influence of the quantization error generated in each coefficient is It can be made uniform between frequencies and between components (each luminance signal Y, color difference signals Cb, Cr).

前述のように、本実施例では、[量子化部10において、周波数変換ゲインの正規化のための量子化を除く理由]で述べたように、図24のような正規化のための量子化を除くため、本実施例においては、前記式(7)(実質的な量子化ステップ数)によって量子化の程度を規定する。   As described above, in the present embodiment, as described in [Reason for excluding quantization for frequency conversion gain normalization in the quantization unit 10], quantization for normalization as shown in FIG. In this embodiment, the degree of quantization is defined by the above equation (7) (substantial number of quantization steps).

以上より図25(A)(B)(C)は、それぞれ、Y信号、Cb信号、Cr信号についての前景P'のための実質的な量子化ステップ数の一例であり、各周波数・コンポ−ネントごとに全て64という値をとっている。これは式(7)において、Visual Weightを各周波数・コンポ−ネントについて1とし、かつn=64としたものである。図25(A)〜(C)では、前景P'の量子化ステップ数は、高周波から低周波まで全て同じである。   25A, 25B, and 25C are examples of the substantial number of quantization steps for the foreground P ′ for the Y signal, the Cb signal, and the Cr signal, respectively. All nunts have a value of 64. In Equation (7), Visual Weight is set to 1 for each frequency / component and n = 64. In FIGS. 25A to 25C, the number of quantization steps of the foreground P ′ is the same from high frequency to low frequency.

一方、図26の(A)(B)(C)は、それぞれ、本実施例における背景Rのための実質的な量子化ステップ数の一例である。これは式(7)において、Visual distance1000のVisual Weightを各周波数・コンポ−ネントについて適用し、かつn=64としたものである。図26(A)(B)(C)は、実質的な量子化ステップ数が、高周波HHの方は低周波よりも大きくなっている。   On the other hand, (A), (B), and (C) in FIG. 26 are examples of the substantial number of quantization steps for the background R in this embodiment. This is obtained by applying Visual Weight 1000 of Visual distance 1000 to each frequency / component in equation (7) and setting n = 64. 26A, 26B, and 26C, the substantial number of quantization steps is larger at the high frequency HH than at the low frequency.

ここで、本実施形態1では、図25(前景P’の量子化ステップ)、図26(背景の量子化ステップ)に示すように、非絵柄部色画像(前景P’)の高周波成分HHの量子化の程度を、絵柄部画像(背景)の高周波数成分HHの量子化の程度よりも弱く(小さく)する。ここで、量子化の程度とは、例えば、量子化ステップ、サブビットプレーン数などを意味する。また、量子化部10は、周波数係数の量子化、または周波数係数の下位ビットの破棄、のうち少なくとも一方を行う。 Here, in the first embodiment, as shown in FIG. 25 (quantization step of the foreground P ′) and FIG. 26 (quantization step of the background R ), the high-frequency component HH of the non-pattern part color image (foreground P ′). Is made weaker (smaller) than the degree of quantization of the high-frequency component HH of the pattern portion image (background R 1 ). Here, the degree of quantization means, for example, a quantization step, the number of sub bit planes, and the like. Further, the quantization unit 10 performs at least one of quantization of the frequency coefficient and discarding the lower bits of the frequency coefficient.

上述のように、本実施例では、第2の手法(前景P'に符号量が最も小さい特定画像C(図4参照)を生成する手法)を用いている。特定画像Cは、色Sおよび色Tと極端に異なる色である場合が多い。従って、第1の問題として、前景P'の高周波成分を残さない場合には、色S、色Tと色Vとが混合してしまい不具合が生じてしまう。   As described above, in this embodiment, the second method (method for generating a specific image C (see FIG. 4) with the smallest code amount in the foreground P ′) is used. The specific image C is often a color extremely different from the colors S and T. Therefore, as a first problem, when the high frequency component of the foreground P ′ is not left, the color S, the color T, and the color V are mixed, resulting in a problem.

そこで、本実施形態のように、非絵柄部色画像(前景P')の高周波成分HHの量子化の程度を弱くする(つまり、高周波成分を残す)ことで、色S、色Tと色Vとが混合するという不具合は生じないという効果を奏する。   Therefore, as in this embodiment, the degree of quantization of the high-frequency component HH of the non-pattern part color image (foreground P ′) is weakened (that is, the high-frequency component is left), so that the colors S, T, and V There is an effect that there is no inconvenience of mixing and.

また第2の問題として、MRCの前景P'においては、文字A1、A2の色である色S、色Tの再現性が重要な一方で、特定画像Cである色Vの再現性は、ほとんど問われないという事情がある。特に、マスクによって前景P'または背景Qの一方が選択されるような形態では、非文字画素Cの色Vの再現性は全く問われない。   As a second problem, in the foreground P ′ of MRC, the reproducibility of the colors S and T which are the colors of the characters A1 and A2 is important, while the reproducibility of the color V which is the specific image C is almost the same. There are circumstances that are not questioned. In particular, in a form in which one of the foreground P ′ or the background Q is selected by the mask, the reproducibility of the color V of the non-character pixel C is not questioned at all.

従って、MRCの前景P'を量子化する場合、第1の手法、第2の手法に限らず、本来は特定画像Cに量子化誤差を集中させ、文字画素には誤差を生じさせないことが好ましい。   Therefore, when the foreground P ′ of MRC is quantized, it is not limited to the first method and the second method, but it is preferable that the quantization error is originally concentrated on the specific image C and no error is generated in the character pixel. .

しかし、第1の手法による前景Pでは、上記「非文字画素に量子化誤差を集中させ、文字画素には誤差を生じさせない」制御が行いにくい。なぜなら第1の手法は、文字A1の色Sと、文字A2の色Tの間にグラデーション状にぼかして前景Pを作成する方法である。従って文字画素、非文字画素は、周波数的には同じ帯域(ほぼ低域)の周波数に属してしまう(正確な表現は、文字画素、非文字画素から算出される周波数は、同じ低域の帯域に属する、となろうが、ここで便宜的に上記のような表現を用いている)。   However, in the foreground P according to the first method, it is difficult to perform the above-described control “concentrate quantization errors on non-character pixels and do not cause errors on character pixels”. This is because the first method is to create a foreground P by blurring in a gradation between the color S of the character A1 and the color T of the character A2. Therefore, the character pixel and the non-character pixel belong to the frequency of the same band (almost low frequency) in terms of frequency (the accurate expression is that the frequency calculated from the character pixel and the non-character pixel is the same low frequency band. The above expression is used for convenience here).

周波数変換を伴う符号化では、周波数係数の量子化を行うが、同じ帯域の周波数係数に対しては、ほぼ同じ程度の量子化を施すのが通常である。そして、量子化後の係数に、逆量子化と周波数逆変換を施して画素値にもどす場合、周波数係数に生じた量子化誤差は、その周波数係数の算出に用いられた画素値の誤差に反映されるため、同じ帯域に属する係数には、ほぼ同じ程度の誤差が生じることになる。   In the encoding with frequency conversion, the frequency coefficient is quantized, but the frequency coefficient in the same band is usually subjected to almost the same degree of quantization. When the quantized coefficient is returned to the pixel value by performing inverse quantization and frequency inverse transform, the quantization error generated in the frequency coefficient is reflected in the error of the pixel value used to calculate the frequency coefficient. Therefore, almost the same error occurs in the coefficients belonging to the same band.

つまり、あえてエッジを生じさせない第1の手法では、エッジを生じさせないがゆえに、非文字画素に誤差を集中させることができない。   That is, in the first method that does not cause an edge, an error cannot be concentrated on a non-character pixel because an edge is not generated.

一方、第2の手法による前景P'においては、エッジに隣接する2画素、すなわち文字画素A1とそれに隣接する非文字画素(特定画像C)は高周波帯域に属する。しかし、それ以外の非文字画素は低周波帯域に属する。類似した色の文字画素同士が隣接する場合には、それらの文字画素も低周波帯域に属するが、通常、前景P'に占める文字画素の割合が少ないことを考えれば、低域に属する画素の殆どは非文字画素である。   On the other hand, in the foreground P ′ according to the second method, the two pixels adjacent to the edge, that is, the character pixel A1 and the non-character pixel (specific image C) adjacent thereto belong to the high frequency band. However, other non-character pixels belong to the low frequency band. When character pixels of similar colors are adjacent to each other, these character pixels also belong to the low frequency band, but in general, considering that the ratio of the character pixels occupying the foreground P ′ is small, Most are non-character pixels.

つまり、第2の手法によれば、非文字画素の殆どを低周数を生じさせる画素にすることができ、かつ低周波を多めに量子化すれば、そうしない場合に比べて非文字画素に誤差を集中させることができるのである。   In other words, according to the second method, most of the non-character pixels can be made to be pixels that generate a low frequency, and if the low frequency is quantized to a large extent, the non-character pixels are made to be non-character pixels as compared with the case where it does not. The error can be concentrated.

画像の符号化においては、低周波を多めに量子化することは通常行わない。何故なら、人間は低周波の誤差に敏感だからである。しかし、前景Pの生成に第2の手法を用いたMRC符号化という特殊な条件下においては、低周波こそ多めに量子化すべきであり、かつその量子化誤差は、再構成された状態(背景と前景が合成された状態)での画像においては、何ら観察者に見えることはない。   In encoding an image, it is not usually performed to quantize a large amount of low frequencies. This is because humans are sensitive to low frequency errors. However, under the special condition of MRC encoding using the second method for generating the foreground P, the low frequency should be quantized more, and the quantization error is in a reconstructed state (background In the image in a state where the foreground and the foreground are combined), the image is not visible to the observer.

以上より、「前景は色」というレイヤ自体が持つ機能を考慮する場合でも、前景画像の作成方法(これはアプリケーションによって予め決まっていることが多い)をさらに考慮に入れて、この作成方法を前景の量子化に反映すべきであるということになる。   From the above, even when considering the function of the layer itself called “foreground color”, the foreground image creation method (this is often determined in advance by the application) is further taken into consideration, and this creation method is It should be reflected in the quantization of.

このようにして、背景R、前景Pについては、量子化処理を行う(ステップS18、ステップS24)。その後、符号化部12は背景R、前景Pを公知の技術で符号化する(ステップS20、ステップS26)。   In this way, the background R and the foreground P are quantized (steps S18 and S24). Thereafter, the encoding unit 12 encodes the background R and the foreground P by a known technique (steps S20 and S26).

また、符号化部12は、係数のエントロピー符号化(ビットプレーン単位でのMQ符号化)が、プリシンクト単位で、コードブロック毎かつビットプレーン順に成される。本願実施例においては、最上位ビットプレーンから、テーブルで予め規定された下位ビットプレーンまでをMQ符号化する。   In addition, the encoding unit 12 performs entropy coding of coefficients (MQ coding in bit plane units) for each code block and in bit plane order in precinct units. In the embodiment of the present application, MQ coding is performed from the most significant bit plane to the lower bit plane defined in advance in the table.

また、符号化部12は、前記「最上位ビットプレーンから、量子化テーブルで予め規定された下位ビットプレーンまで」を必要な符号と見なすため、で括弧で記載した不要な符号は存在しない。これら「最上位ビットプレーンから、量子化テーブルで予め規定された下位ビットプレーンまで」の符号に対して、ヘッダをつけたものをパケットと呼ぶ。パケットヘッダには、当該パケットに含まれる符号に関する情報が含まれ、各パケットは独立に扱うことができる。いわばパケットは符号の単位である。   Further, since the encoding unit 12 regards “from the most significant bit plane to the lower bit plane defined in advance in the quantization table” as a necessary code, there is no unnecessary code described in parentheses. For these codes “from the most significant bit plane to the lower bit plane defined in advance by the quantization table”, a header is added and called a packet. The packet header includes information about codes included in the packet, and each packet can be handled independently. In other words, a packet is a unit of code.

また、マスクQ、第2マスクVについては公知の技術であるMMR(Modified Modified READ)で符号化する(ステップS28)。また、第2背景WをJPMで符号化する(ステップS30)。そして、パケット生成部14が、全ての符号化を結合してパケットを生成する。そして、パケット生成部14は、パケットを並べて符号を形成する(図39、図40参照)。また、パケット生成部14は、サブバンド毎に上位ビットプレーンから(必要な)下位ビットプレーンまでをビットプレーン符号化してもよい。パケット生成部14は、必要な符号をまとめ、パケットを生成する。そして、パケット生成部14は、全てのプリンシクト(全てのコードブロック=全てのサブバンド)に関してパケットを並べて符号を生成する。   Further, the mask Q and the second mask V are encoded by a known technique MMR (Modified Modified READ) (step S28). Further, the second background W is encoded by JPM (step S30). Then, the packet generation unit 14 combines all the encodings to generate a packet. The packet generator 14 arranges the packets to form a code (see FIGS. 39 and 40). Further, the packet generator 14 may perform bit-plane encoding from the upper bit plane to the (necessary) lower bit plane for each subband. The packet generator 14 collects necessary codes and generates a packet. Then, the packet generation unit 14 generates codes by arranging packets for all the prints (all code blocks = all subbands).

このように、本実施形態1では、非絵柄部色画像の高周波成分の量子化の程度を、絵柄部画像の高周波数成分の量子化の程度よりも弱くすることで、第2の手法を用いたとしても、復号化した場合に、特定画像が、文字画像(文字画素)に混ざらなくなる。
[実施形態2]
実施形態2では、DCレベルシフト部4内の輝度色差変換部が、絵柄部画像R、非絵柄部色画像P'を輝度・色差変換して、前記絵柄部画像の輝度Yおよび色差C、および非絵柄部色画像Pの輝度Yおよび色差Cを生成する。
Thus, in the first embodiment, the second method is used by making the degree of quantization of the high-frequency component of the non-picture part color image weaker than the degree of quantization of the high-frequency component of the picture part image. Even if it decodes, when it decodes, a specific image will not be mixed with a character image (character pixel).
[Embodiment 2]
In the second embodiment, the luminance / color difference conversion unit in the DC level shift unit 4 performs luminance / color difference conversion on the pattern portion image R and the non-pattern portion color image P ′, and the luminance Y R and the color difference C R of the pattern portion image. , and it generates a luminance Y P and the chrominance C P of the non-picture portion color images P.

通常符号化においては、輝度・色差変換を行い、輝度毎、色差毎に量子化を行う。通常の自然画においては、色よりも輝度に敏感な人間の視覚特性を反映して、
輝度の量子化の程度 << 色差の量子化の程度
とするのが一般的である。
In normal encoding, luminance / color difference conversion is performed, and quantization is performed for each luminance and each color difference. In normal natural images, reflecting human visual characteristics that are more sensitive to brightness than color,
The degree of luminance quantization is generally set to the degree of color difference quantization.

しかし、輝度の量子化の程度 < 色差の量子化の程度
あるいは 輝度の量子化の程度 ≒ 色差の量子化の程度
のように、自然画像ではあっても、MRCの前景P'の輝度と色差の量子化の割合(色差の量子化の程度/輝度の量子化の程度)を、背景Rのそれとは変えることが望ましい。
However, the degree of luminance quantization <the degree of color difference quantization or the degree of luminance quantization ≒ the degree of color difference quantization, even if it is a natural image, the luminance and color difference of the MRC foreground P ' It is desirable to change the quantization ratio (the degree of quantization of the color difference / the degree of quantization of the luminance) from that of the background R.

従って、実施形態2では、非絵柄部色画像P’の、色差の量子化の程度/輝度の量子化の程度を、絵柄部画像の、色差の量子化の程度/輝度の量子化の程度よりも小さくする。このようにすることで、実施形態1と同様の効果を得ることができる。 Therefore, in the second embodiment, the degree of quantization of the color difference / the degree of luminance quantization of the non-picture part color image P ′ is determined by the degree of the quantization of the color difference / the degree of luminance quantization of the picture part image. Also make it smaller. By doing in this way, the effect similar to Embodiment 1 can be acquired.

また、図27の縦軸に、図25記載の前景P'の色差Cbの量子化のステップ数/輝度Yの量子化のステップ数(実線で示し、以下、「前景P'の色差Cbの比」という。)と、図26記載の背景Rの色差Cbの量子化のステップ数/輝度Yの量子化のステップ数(破線で示し、以下、「背景Rの色差Cbの比」という。)とを示す。破線、実線については以下も同様である。また、「色差の量子化の程度(量子化ステップ数)の輝度の量子化の程度(量子化ステップ数)に対する割合」を「色差Cb(またはCr)の量子化のステップ数/輝度Yの量子化のステップ数」と示す。   27, the number of steps of quantization of the color difference Cb of the foreground P ′ shown in FIG. 25 / the number of steps of quantization of the luminance Y (shown by a solid line, hereinafter “ratio of the color difference Cb of the foreground P ′”). 26) and the number of steps of quantization of the color difference Cb of the background R / the number of steps of quantization of the luminance Y (indicated by a broken line, hereinafter referred to as “ratio of the color difference Cb of the background R”) shown in FIG. Indicates. The same applies to the broken and solid lines. Further, “the ratio of the degree of quantization of the color difference (number of quantization steps) to the degree of quantization of the luminance (number of quantization steps)” is expressed as “the number of steps of quantization of the color difference Cb (or Cr) / quantum of the luminance Y”. The number of steps of conversion.

また、図28の縦軸に、図25記載の前景P'の色差Crの量子化のステップ数/輝度Yの量子化のステップ数(実線で示し、以下、「前景P'の色差Crの比」という。)と、図26記載の背景Rの色差Crの量子化のステップ数/輝度Yの量子化のステップ数(破線で示し、「以下、背景Rの色差Crの比」という。))とを示す。なお、図27、図28ともに横軸は、周波数帯である。該周波数帯において、2LLは、全ての比は最も低意周波数体であり、2HLと2LHでは同一の周波数帯であり、1HH最も高い周波数帯である。   Also, the vertical axis of FIG. 28 shows the number of steps of quantization of the color difference Cr of the foreground P ′ / the number of steps of quantization of the luminance Y shown in FIG. 25 (indicated by a solid line, hereinafter “ratio of the color difference Cr of the foreground P ′”). )) And the number of steps of quantization of the color difference Cr of the background R shown in FIG. 26 / the number of steps of quantization of the luminance Y (indicated by a broken line, hereinafter referred to as “ratio of the color difference Cr of the background R”))) It shows. In both FIG. 27 and FIG. 28, the horizontal axis represents the frequency band. In the frequency band, 2LL is the lowest frequency body in all ratios, 2HL and 2LH are the same frequency band, and 1HH is the highest frequency band.

このように、実施形態2では、非絵柄部色画像Rの、色差の量子化の程度/輝度の量子化の程度を、絵柄部画像の、色差の量子化の程度/輝度の量子化の程度よりも、(2LLを除き、)小さくする。   As described above, in the second embodiment, the degree of quantization of the color difference / the degree of luminance quantization of the non-picture part color image R is set as the degree of quantization of the color difference / the degree of luminance quantization of the picture part image. Than (except 2LL).

ここで、「2LLを除き」としたのは、2LLの実質的な量子化ステップ数は、輝度、色差ともに、1とすることが多いからである。つまり、大小関係の比較において、2LLは除外すべきケースが多いということである。
[実施形態3]
本実施形態3の符号化装置では、非絵柄部色画像P'(前景P')の輝度Yの高周波成分を最も量子化し、絵柄部画像の色差の高周波成分を最も量子化する。これにより、更に、符号量を少なく符号化できる。また、この実施形態3の符号化装置では、上記第1の手法、第2の手法のうちどちらを用いても良い。
Here, “except 2LL” is used because the number of substantial quantization steps of 2LL is often 1 for both luminance and color difference. That is, there are many cases where 2LL should be excluded in the comparison of magnitude relations.
[Embodiment 3]
In the encoding apparatus of the third embodiment, the high-frequency component of luminance Y of the non-picture part color image P ′ (foreground P ′) is most quantized, and the high-frequency component of the color difference of the picture part image is most quantized. Thereby, it is possible to further encode with a small code amount. Further, in the encoding apparatus of the third embodiment, either the first method or the second method may be used.

まず、「非絵柄部色画像P'(前景P')の輝度Yの高周波成分を最も量子化する」ことについて、理由を説明する。非絵柄部色画像P'は、「色」を表す画像である。従って、非絵柄部色画像P'の色差を残すべく、輝度Yを最も量子化する。また、輝度Yの高周波成分を最も量子化することで、色差が多く残ることは、経験的に知られていることである。   First, the reason for “quantizing the high frequency component of the luminance Y of the non-pattern part color image P ′ (foreground P ′) most” will be described. The non-pattern part color image P ′ is an image representing “color”. Therefore, the luminance Y is most quantized in order to leave the color difference of the non-pattern part color image P ′. Further, it is known from experience that a large amount of color difference remains by quantizing the high-frequency component of luminance Y most.

また、「絵柄部画像の色差の高周波成分を最も量子化する」ことについて、理由を説明する。上述のように、人間は、色よりも輝度に敏感である。従って、絵柄部画像の色差の高周波成分を最も量子化する。
[具体例1]
実施形態1、2を実現するための具体例を説明する。具体例1として、図8に示す符号化装置に、重み付け部16を更に設ける。具体例1では、重み付け係数を用いる。この具体例1ではVisual Distanceを用いる。Visual Distanceについては後述する。
In addition, the reason for “quantizing the highest frequency component of the color difference of the pattern portion image most” will be described. As mentioned above, humans are more sensitive to brightness than color. Therefore, the high-frequency component of the color difference of the pattern portion image is most quantized.
[Specific Example 1]
A specific example for realizing the first and second embodiments will be described. As a specific example 1, the weighting unit 16 is further provided in the encoding apparatus shown in FIG. In specific example 1, a weighting coefficient is used. In this specific example 1, Visual Distance is used. The Visual Distance will be described later.

上述したウェーブレット変換のサブバンドの帯域は、画像自体の帯域から算出されるものである。しかし、画像までのVisual distanceが近いほど高周波の誤差までが目に付き、Visual distanceが遠ければ低周波の誤差しか目に付かないことから、観察者の目にとってのサブバンドの帯域は、画像と観察者のVisual distanceの関数(例えば、1次関数)となる。このため重み付け係数は、上述のVisual distanceごとに示されており、Visual distanceが遠いほど、低周波よりも高周波の重要度が小さく、かつ輝度成分よりも色差成分の重要度が小さくなるように設定されている。   The subband band of the wavelet transform described above is calculated from the band of the image itself. However, the closer the visual distance to the image is, the more high frequency errors are noticeable, and the far distance the visual distance is, the lower frequency errors are only noticeable, so the subband bandwidth for the observer's eyes is It becomes a function (for example, a linear function) of the observer's visual distance. For this reason, the weighting coefficient is shown for each of the above visual distances, and is set such that the farther the visual distance is, the less important the high frequency than the low frequency and the less important the color difference component than the luminance component. Has been.

また、本具体例1の周波数変換部8は、入力された信号に対して、周波数変換によりサブバンドごとに分割する。そして、重み付け部16は、サブバンドごとの前記量子化の程度に対して重み付け係数を算出し、該重み付け係数で重み付けを行う。重み付け係数の算出に際しては、非絵柄部色画像のVisual Distance<絵柄部画像のVisual Distanceとする。重み付け係数の算出については、[具体例2]で説明する。   In addition, the frequency conversion unit 8 according to the first specific example divides the input signal for each subband by frequency conversion. Then, the weighting unit 16 calculates a weighting coefficient for the degree of quantization for each subband, and performs weighting with the weighting coefficient. In calculating the weighting coefficient, it is assumed that Visual Distance of the non-picture part color image <Visual Distance of the picture part image. The calculation of the weighting coefficient will be described in [Specific Example 2].

具体的な数値を用いて、具体例1を説明する。図29に、変形例1の非絵柄部色画像P'の実質的な量子化ステップ数を示す。また、図29に示す値は、これは上記式(7)において、Visual distance800のVisual Weightを各周波数・コンポ−ネントについて適用し、かつn=64としたものである。実施形態1で説明したとおり、図26、図29に示す値は、非絵柄部色画像の高周波成分の量子化ステップ数を、絵柄部画像の高周波数成分の量子化ステップ数よりも弱くしている。なお、図30に、輝度について、前景P'、背景Qの実質的な量子化ステップ数を比較したものを示す。なお、図30では、背景Qを破線で示し、前景Pを実線で示す。   Specific example 1 will be described using specific numerical values. FIG. 29 shows the substantial number of quantization steps of the non-picture part color image P ′ of the first modification. The values shown in FIG. 29 are obtained by applying Visual Weight 800 of Visual distance 800 to each frequency / component in the above equation (7) and setting n = 64. As described in the first embodiment, the values shown in FIGS. 26 and 29 are obtained by making the number of quantization steps of the high frequency component of the non-picture part color image weaker than the number of quantization steps of the high frequency component of the picture part image. Yes. FIG. 30 shows a comparison of the substantial number of quantization steps of the foreground P ′ and the background Q with respect to luminance. In FIG. 30, the background Q is indicated by a broken line, and the foreground P is indicated by a solid line.

同様に、図27、図30、に示した前景P'、背景Qの実質的な量子化ステップ数を、周波数毎に、色差Cb/輝度Y、色差Cr/輝度Yの比として表したものが、図31、32である。実施形態2で説明したように、図31から明らかなように、「色差の実質的な量子化ステップ数/輝度の実質的な量子化ステップ数」は、(2LLを除き)前景P'の方が背景Qより小さい。また、図32においても、1HHを除いて「色差の実質的な量子化ステップ数/輝度の実質的な量子化ステップ数」は、(LLを除き)前景P'の方が背景Qより小さい。図32においては、前記「1HHを除いて」と記載したが、全ての周波数で比較すれば明らかなように、平均的には「色差の実質的な量子化ステップ数/輝度の実質的な量子化ステップ数」は、(LLを除き)前景2の方が前景1より小さい(実施形態2で説明)。   Similarly, the actual quantization step numbers of the foreground P ′ and the background Q shown in FIGS. 27 and 30 are expressed as a ratio of color difference Cb / luminance Y and color difference Cr / luminance Y for each frequency. 31 and 32. As described in the second embodiment, as is clear from FIG. 31, “substantial quantization step number of color difference / substantial quantization step number of luminance” is the value of foreground P ′ (except 2LL). Is smaller than the background Q. Also in FIG. 32, except for 1HH, the “substantial quantization step number of color difference / substantial quantization step number of luminance” is smaller for the foreground P ′ (except for LL) than for the background Q. In FIG. 32, the description is “except for 1HH”. However, as apparent from comparison at all frequencies, on average, “substantial quantization step number of color difference / substantial quantum of luminance”. The number of conversion steps ”(excluding LL) is smaller in the foreground 2 than in the foreground 1 (described in the second embodiment).

また、図26のVisual distanceは1000、図29のVisual distanceは、800である。従って、本変形例1の値である。
[具体例2]
この具体例2では、実施形態1、2を実現するために、VisualWeightを用いた具体例2を説明する。VisualWeight、および具体例1で説明したVisual Distanceについて説明する。
<1>Contrast Sensitivity Function(CSF)とその式
Visual Weightの算出に先立ち、まずContrast Sensitivity Function(CSF)とその式について説明する。後述するが、Visual Weightは、所定帯域におけるCSFの積分値として求められるからである。CSFとは、所定Visual distanceにおいて所定空間周波数のラインペア(縞)を観察した場合に、観察者が判別できる濃淡の差/和(=コントラスト)の逆数を示したものであり、実験で求められるものである。そして、一般的に、人間は高周波ほどコントラストを判別しにくい。
In addition, the Visual distance in FIG. 26 is 1000, and the Visual distance in FIG. 29 is 800. Therefore, it is the value of this modification 1.
[Specific Example 2]
In this second specific example, a second specific example using VisualWeight in order to realize the first and second embodiments will be described. The VisualWeight and the Visual Distance described in the specific example 1 will be described.
<1> Contrast Sensitivity Function (CSF) and its Formula Prior to the calculation of Visual Weight, the Contrast Sensitivity Function (CSF) and its formula will be described first. As will be described later, Visual Weight is obtained as an integral value of CSF in a predetermined band. CSF indicates the reciprocal of the difference / sum of contrast (= contrast) that an observer can discriminate when observing a line pair (stripes) of a predetermined spatial frequency in a predetermined visual distance, and is obtained by experiment. Is. In general, humans are less likely to discriminate contrast at higher frequencies.

コントラストを「原画と圧縮伸張後の画像の差」と考えた場合、CSFは「各周波数で、原画と圧縮後の画像の濃淡差がこれ以下なら判別できない」という限界を示したものである。そして、ウェーブレット係数が原画像のコントラストを概ね反映することから、CSFは「各周波数(=各サブバンド)で、原画と圧縮後の画像のウェーブレット係数の差がこれ以下なら、その係数が反映する原画と伸張後の画像の差も判別できない」という限界を示す指標と解釈されている。したがって、ウェーブレット係数を「CSFの逆数の2倍以下」で量子化すれば、各係数に生じる量子化誤差はCSFの逆数以下になるので、画質劣化が認識されないはず、というのが一般的である。
<2>VisualWeightの算出方法について、
CSFは「各周波数におけるウェーブレット係数の許容量子化誤差量」であるため、例えば垂直方向に1回デコンポジションして得られる1Hサブバンドの許容量子化量を考えるとする。1Hサブバンドは、ハイパスのウェーブレットフィルタが通過させた、ある周波数以上の周波数を広く含むが、どの周波数でのCSFの値を採用すればいいかに関しては、簡易に以下のように考える。
When the contrast is considered as “the difference between the original image and the image after compression / expansion”, the CSF shows the limit that “the difference in density between the original image and the image after compression at each frequency cannot be determined”. Then, since the wavelet coefficient generally reflects the contrast of the original image, the CSF is “if the difference between the wavelet coefficient of the original image and the compressed image is less than this at each frequency (= each subband), the coefficient reflects. It is interpreted as an index indicating a limit that the difference between the original image and the image after expansion cannot be determined. Therefore, if the wavelet coefficient is quantized with “twice or less of the reciprocal of CSF”, the quantization error generated in each coefficient is less than or equal to the reciprocal of CSF, so that image quality degradation should not be recognized. .
<2> How to calculate VisualWeight,
Since CSF is “allowable quantization error amount of wavelet coefficient at each frequency”, for example, let us consider an allowable quantization amount of 1H subband obtained by decomposing once in the vertical direction. The 1H subband includes a wide range of frequencies higher than a certain frequency that have been passed by the high-pass wavelet filter. The frequency of the CSF to be used is simply considered as follows.

まず、原画像の解像度がd [dpi]で、これを距離v [inch]から観察した場合の空間周波数fの近似式は、
f = v・d・tan(π/360) (8)
であり、これが原画像が含みうる最大の周波数である。
First, when the resolution of the original image is d [dpi] and this is observed from the distance v [inch], the approximate expression of the spatial frequency f is
f = v · d · tan (π / 360) (8)
This is the maximum frequency that the original image can contain.

ここで上記式(8)の右辺中のv・dがVisual Distance(日本語だと、Visual distance)である。Visual Distanceは、本来は被験者の実際のVisual distanceから算出されるもので、後述の通り「そのVisual distanceにおいて通常の自然画像を観察した場合に、最も画質がよく感じられる量子化パラメータを算出するため」に使用される。   Here, v · d in the right side of the above equation (8) is Visual Distance (Visual distance in Japanese). The Visual Distance is originally calculated from the actual visual distance of the subject, and as described later, “To calculate a quantization parameter that gives the best image quality when an ordinary natural image is observed in the Visual distance” Is used.

ただし、Visual Distanceとして実際のVisual distance以外の値を用いると、「そのVisual distanceではない距離において通常の自然画像を観察した場合に、最も画質がよく感じられる量子化パラメータ」や「そのVisual distanceにおいて通常の自然画像ではない画像(ex.MRCの前景)を観察した場合に、最も画質がよく感じられる量子化パラメータ」を得ることが可能となる。本願では、後者のパラメータを算出するために、Visual Distanceとして実際のVisual distance以外の値を用いることがある。   However, if a value other than the actual visual distance is used as the visual distance, “a quantization parameter that gives the best image quality when a normal natural image is observed at a distance that is not the visual distance” or “in the visual distance” When an image that is not a normal natural image (ex. Foreground of MRC) is observed, it is possible to obtain a “quantization parameter that gives the best image quality”. In the present application, in order to calculate the latter parameter, a value other than the actual visual distance may be used as the visual distance.

さて、先の通り、原画像が含みうる最大の空間周波数fmaxは、
f max= v・d・tan(π/360) (9)
であり、通常のウェーブレット変換では1回のデコンポジション毎に1/2にサブサンプリングされるため、デコンポジションレベル毎に空間周波数の最大値は半分になる。
As described above, the maximum spatial frequency fmax that can be included in the original image is
f max = v · d · tan (π / 360) (9)
In the normal wavelet transform, since the sub-sampling is halved for each decomposition, the maximum value of the spatial frequency is halved for each decomposition level.

そこで、ウェーブレットフィルタを理想的なハイパスフィルタおよびローパスフィルタであると見なし、0≦f≦fmaxの帯域が、1回のデコンポジションで0≦f<fmax/2とfmax/2≦f≦fmaxに二分されると仮定する。つまり、1H係数の帯域はfmax/2≦f≦fmax、1L係数の帯域は0≦f<fmax/2と見なす。   Therefore, the wavelet filter is regarded as an ideal high-pass filter and low-pass filter, and the band of 0 ≦ f ≦ fmax is divided into 0 ≦ f <fmax / 2 and fmax / 2 ≦ f ≦ fmax in one decompression. Assume that That is, the band of 1H coefficient is regarded as fmax / 2 ≦ f ≦ fmax, and the band of 1L coefficient is regarded as 0 ≦ f <fmax / 2.

よって、1H係数のcsfとしては、帯域fmax/2≦f≦fmaxにおけるCSFの平均値を用い、1L係数のCSFとしては、帯域0≦f<fmax/2におけるCSFの平均値を用いる。そして、シーケンシャルに連結した線形フィルタの特性が個々のフィルタの特性の積で表わされることを根拠に、1LH係数のCSFとしては、帯域fmax/2≦f≦fmaxにおける平均値と、帯域0≦f<fmax/2における平均値の積を用いる。   Therefore, the average value of CSF in the band fmax / 2 ≦ f ≦ fmax is used as the csf of the 1H coefficient, and the average value of CSF in the band 0 ≦ f <fmax / 2 is used as the CSF of the 1L coefficient. Then, based on the fact that the characteristics of the linear filters connected sequentially are expressed by the product of the characteristics of the individual filters, the CSF of the 1LH coefficient has an average value in the band fmax / 2 ≦ f ≦ fmax and the band 0 ≦ f. The product of the average values at <fmax / 2 is used.

ここで平均値とは、各帯域内におけるCSFの積分を、積分区間の幅で割ったものである。   Here, the average value is obtained by dividing the integration of CSF in each band by the width of the integration interval.

よって、各サブバンドに対して適用すべきCSFの値は、次式で算出され、これがJPEG2000においてVisual Weight(あるいはCSFweight)と呼ばれるものである。   Therefore, the value of CSF to be applied to each subband is calculated by the following equation, which is called Visual Weight (or CSFweight) in JPEG2000.

hはhorizontal、vはverticalでWhは水平方向の区間の積分, Wvは垂直方向の区間の積分である。またW(f) は、最大値を1に正規化したCSFであり、Y,Cb,Crの各コンポ−ネント毎に1に正規化したものを用いる左辺のwは、VisualWeightを示す。 h is horizontal, v is vertical, Wh is the integration in the horizontal section, and Wv is the integration in the vertical section. W (f) is a CSF normalized to 1 at the maximum value, and w on the left side using one normalized to 1 for each component of Y, Cb, and Cr represents VisualWeight.

そして、非絵柄部色画像に対しては、VisualWeightを適用せず、前記絵柄部画像に対しては、前記絵柄部画像に対しては、VisualWeightを適用する。このように、VisualWeightを用いることで実施形態1、2は実現される。
[変形例1]
変形例1について説明する。図9中のステップS16、ステップS22において、背景R、前景P'のウェーブレット変換を9*7フィルタを用いて、行う場合を説明する。この場合には、図24と図26に示す値を用いて、上記式(7)によって、正規化を含めた量子化ステップ数を算出し、周波数係数の量子化を行う。ただし本変形例2の場合は、量子化後の係数の全ビットプレーンを符号化するのではなく、図33に示した数の下位サブビットプレーンの符号化を行わないようにする。ここで図33中のtは任意の整数であり、tの大小によって、符号量自体を選択することができる。
Then, VisualWeight is not applied to the non-picture part color image, and VisualWeight is applied to the picture part image to the picture part image. As described above, the first and second embodiments are realized by using VisualWeight.
[Modification 1]
Modification 1 will be described. A case where the wavelet transform of the background R and the foreground P ′ is performed using a 9 * 7 filter in step S16 and step S22 in FIG. 9 will be described. In this case, by using the values shown in FIGS. 24 and 26, the number of quantization steps including normalization is calculated by the above equation (7), and the frequency coefficient is quantized. However, in the case of the second modification, not all the bit planes of the quantized coefficients are encoded, but the lower sub-bit planes of the number shown in FIG. 33 are not encoded. Here, t in FIG. 33 is an arbitrary integer, and the code amount itself can be selected depending on the magnitude of t.

上述したように、量子化後の係数は(ビットプレーン1枚あたりの)数学的な誤差が正規化され、かつ視覚的な重みも反映されたものであるから、全ての周波数において、同じ数の枚数だけのサブビットプレーンの符号を省略すれば、バランスがとれた主観画質が得られる。ただし本例においては、あくまでLLのサブビットプレーンは全て符号化することにする。
[変形例2]
次に変形例2について説明する。変形例2では、背景Rのウェーブレット変換を5*3フィルタを用いて、行う場合を説明する。下位ビットプレーンの符号化の省略によって量子化を行う例である。
図34は、5*3フィルタを用いて、ウェーブレット変換の周波数ゲインの平方根である。また、図35は、変形例2における、可逆色変換(RCT)のゲインの平方根である。上述したとおり、周波数ごとの係数を「周波数変換ゲイン×色変換ゲイン」の平方根の逆数(図36に示す)で除算しておけば、各係数に生じた量子化誤差の影響を、周波数間かつコンポ−ネント間で均等にすることができるが、本例では線形量子化を用いずに、下位ビットプレーンの符号化の省略によって量子化を行う。つまり、式(7)を用いて、図36の定数倍の値に、さらにVisual Weightを反映し、これを2のべき乗に変換した場合の指数(ただし整数に近似した値)として、符号化を省略するビットプレーン数を算出する。
As mentioned above, the quantized coefficients are normalized for mathematical errors (per bit plane) and also reflect visual weights, so the same number of coefficients at all frequencies. If the number of sub-bit planes corresponding to the number of sheets is omitted, balanced subjective image quality can be obtained. However, in this example, all LL sub-bit planes are encoded.
[Modification 2]
Next, Modification 2 will be described. In the second modification, a case where the wavelet transform of the background R is performed using a 5 * 3 filter will be described. This is an example in which quantization is performed by omitting encoding of the lower bit plane.
FIG. 34 shows the square root of the frequency gain of the wavelet transform using a 5 * 3 filter. FIG. 35 shows the square root of the gain of reversible color conversion (RCT) in the second modification. As described above, if the coefficient for each frequency is divided by the reciprocal of the square root of “frequency conversion gain × color conversion gain” (shown in FIG. 36), the influence of the quantization error generated in each coefficient can be reduced between frequencies and Although it can be made uniform between components, in this example, quantization is performed by omitting encoding of the lower bit plane without using linear quantization. That is, using Equation (7), the Visual Weight is further reflected in the value of the constant multiple in FIG. 36, and this is converted into an exponent (a value approximated to an integer) when this is converted to a power of 2. Calculate the number of bit planes to be omitted.

以上より図37は、変形例2における、前景P'のため符号化しないビットプレーン数である。これは式(6)において、Visual Weightを各周波数・コンポ−ネントについて1とし(=Visual Weightを適用せずに)、かつn=64として、2のべき乗に変換した場合の指数として算出したものである。   As described above, FIG. 37 shows the number of bit planes that are not encoded because of the foreground P ′ in the second modification. This is calculated as an exponent when converting Visual Weight to 1 for each frequency / component in equation (6) (= Not applying Visual Weight) and n = 64. It is.

一方、図38は、本変形例3における背景Qのための実質的な量子化ステップ数である。これは式(6)において、Visual distance1000のVisual Weightを各周波数・コンポ−ネントについて適用し、かつn=64として、2のべき乗に変換した場合の指数として算出したものである。尚、RCT用のVisual Weightは規定されていないため、本実施例ではICT用のものを流用している。   On the other hand, FIG. 38 shows the substantial number of quantization steps for the background Q in the third modification. This is calculated as an exponent when the Visual Weight of Visual distance 1000 is applied to each frequency / component in Equation (6) and converted to a power of 2 with n = 64. In addition, since the Visual Weight for RCT is not prescribed | regulated, the thing for ICT is diverted in a present Example.

尚、JPMにおける、背景に対する各レイアウトオブジェクトの配置や大きさの情報であるが、図39の様に、レイアウトオブジェクトのIDや重ね順、縦横の画素数、背景に対する配置上のオフセットは、Layout Object Header Box に記載する。   Note that the layout and layout information of each layout object with respect to the background in JPM. As shown in FIG. 39, the layout object ID, the stacking order, the number of vertical and horizontal pixels, and the layout offset with respect to the background are the layout object. Enter in the Header Box.

また、各レイアウトオブジェクトを構成する前景、背景の配置や大きさの情報であるが、図40の様に、背景に対する配置上のオフセットは、Object Header Box に記載する。各オブジェクトの画素数は、各オブジェクトの符号中に記載する。   In addition, as for the foreground and background arrangement and size information constituting each layout object, the arrangement offset with respect to the background is described in the Object Header Box as shown in FIG. The number of pixels of each object is described in the code of each object.

また、以上の実施例ではファイルフォーマットとしてJPMを用いたが、MRCタイプであれば何でも良く、MRCタイプのPDFもその範疇である。   In the above embodiment, JPM is used as the file format. However, any MRC type may be used, and MRC type PDF is also in that category.

また以上の実施例では、周波数変換にウェーブレット変換を用いたが、これに限定されるものではなく、離散コサイン変換に代表される他の周波数変換の適用が可能なことは明らかである。また、本願請求項における「高周波成分」とは、最も周波数の高い帯域(の係数)だけを指す場合と、少なくとも最も周波数の高い帯域(の係数)を含み最も低域の帯域(の係数)は含まない場合、の2通りが考えられる。
[プログラム]
図41に、本発明による状態通知装置の主要構成を示すハードウェア構成図である。状態通知装置は、主要な構成として、CPU101、ROM(Read Only Memory)202、RAM(Random Access Memory)102、補助記憶部204、外部記憶装置I/F部205、入力部206、表示部207、及び通信装置208を含む構成である。
In the above embodiment, the wavelet transform is used for the frequency transform. However, the present invention is not limited to this, and it is apparent that other frequency transforms represented by the discrete cosine transform can be applied. In addition, the term “high frequency component” in the claims of the present application refers to only the highest frequency band (coefficient), and at least the highest frequency band (coefficient) and the lowest frequency band (coefficient) When not included, two ways are conceivable.
[program]
FIG. 41 is a hardware configuration diagram showing the main configuration of the status notification device according to the present invention. The state notification device includes, as main components, a CPU 101, a ROM (Read Only Memory) 202, a RAM (Random Access Memory) 102, an auxiliary storage unit 204, an external storage device I / F unit 205, an input unit 206, a display unit 207, And the communication device 208.

CPU201は、マイクロプロセッサ及びその周辺回路から構成され、状態通知装置全体を制御する回路である。また、ROM202は、CPU2で実行される所定の制御プログラム(ソフトウェア部品)を格納するメモリであり、RAM203は、CPU201がROM202に格納された所定の制御プログラム(ソフトウェア部品)を実行して各種の制御を行うときの作業エリア(ワーク領域)として使用するメモリである。   The CPU 201 is composed of a microprocessor and its peripheral circuits, and is a circuit that controls the entire state notification device. The ROM 202 is a memory that stores a predetermined control program (software component) executed by the CPU 2, and the RAM 203 executes various control operations by the CPU 201 executing a predetermined control program (software component) stored in the ROM 202. This is a memory used as a work area (work area) when performing.

補助記憶部204は、汎用のOS(Operating System)、本発明によるプロジェクト管理プログラム、タスク情報などのプロジェクトに関する情報を含む各種情報を格納する装置であり、不揮発性の記憶装置であるHDD(Hard Disk Drive)などが用いられる。なお、上記各種情報は、補助記憶装置204以外にも、CD−ROM(Compact Disk - ROM)やDVD(Digital Versatile Disk)などの記憶媒体やその他のメディアを記憶されてもよく、これらの記憶媒体に格納された各種情報は、記憶媒体読取装置205などのドライブ装置を介して読み取ることが可能である。よって、必要に応じて記録媒体515を記憶媒体読取装置205にセットすることで、各種情報が得られる。   The auxiliary storage unit 204 is a device that stores various information including information related to a project such as a general-purpose OS (Operating System), a project management program according to the present invention, and task information, and is an HDD (Hard Disk) that is a nonvolatile storage device. Drive) is used. In addition to the auxiliary storage device 204, the various types of information may be stored in a storage medium such as a CD-ROM (Compact Disk-ROM) and a DVD (Digital Versatile Disk), and other media. Various information stored in the storage medium can be read via a drive device such as the storage medium reader 205. Therefore, various information can be obtained by setting the recording medium 515 in the storage medium reader 205 as necessary.

入力装置206は、ユーザが各種入力操作を行うための装置である。入力装置206は、マウス、キーボード、表示装置207の表示画面上に重畳するように設けられたタッチパネルスイッチなどを含む。   The input device 206 is a device for the user to perform various input operations. The input device 206 includes a mouse, a keyboard, a touch panel switch provided so as to be superimposed on the display screen of the display device 207, and the like.

表示部20は、プロジェクト管理に係る各種データを表示画面に表示する装置である。例えば、LCD(Liquid Crystal Display)、CRT(Cathode Ray Tube)などから構成される。   The display unit 20 is a device that displays various data related to project management on a display screen. For example, it is composed of LCD (Liquid Crystal Display), CRT (Cathode Ray Tube) and the like.

2・・・分解部
4・・・DCレベルシフト部
8・・・周波数変換部
10・・・量子化部
12・・・符号化部
14・・・パケット生成部
2 ... Decomposition unit 4 ... DC level shift unit 8 ... Frequency conversion unit 10 ... Quantization unit 12 ... Encoding unit 14 ... Packet generation unit

H11−177977号公報H11-177777 2007−005844号公報No. 2007-005844

Claims (8)

原画像から、該原画像の絵柄が表示される絵柄部画像と、該原画像の非絵柄の色画像および該非絵柄の色画像以外の位置に占める特定画像が表示される非絵柄部色画像と、前記非絵柄の形状が表示されるマスク画像と、を生成する生成部と、
前記絵柄部画像および前記非絵柄部色画像を周波数変換する周波数変換部と、
前記周波数変換部により得られた前記絵柄部画像の周波数係数および前記非絵柄部色画像の周波数係数を量子化する量子化部と、
前記量子化された前記絵柄部画像の周波数係数および前記非絵柄部色画像の周波数係数を符号化する符号化部とを、有し、
前記量子化は、周波数ゲインのための正規化のための量子化を除き、
前記非絵柄部色画像の高周波帯域の周波数係数の量子化ステップ数を、前記絵柄部画像の高周波帯域の周波数係数の量子化ステップ数よりも小さくすることを特徴とする符号化装置。
From the original image, a pattern portion image in which the pattern of the original image is displayed, and a non-pattern portion color image in which a non-pattern color image of the original image and a specific image occupying a position other than the color image of the non-pattern are displayed A generating unit for generating a mask image on which the shape of the non-pattern is displayed ;
A frequency converter that converts the frequency of the pattern part image and the non-pattern part color image;
A quantization unit that quantizes the frequency coefficient of the picture part image and the frequency coefficient of the non-picture part color image obtained by the frequency conversion unit ;
An encoding unit that encodes the frequency coefficient of the quantized picture part image and the frequency coefficient of the non-picture part color image;
The quantization, except for normalization for frequency gain,
Wherein the quantization step number of the frequency coefficients of the high frequency band of the non-picture portion color images, the encoding apparatus characterized Reduces the than the quantization step number of the frequency coefficients of the high frequency band of the picture portion the image.
原画像から、該原画像の絵柄が表示される絵柄部画像と、該原画像の非絵柄の色画像および該非絵柄の色画像以外の位置に占める特定画像が表示される非絵柄部色画像と、前記非絵柄の形状が表示されるマスク画像と、を生成する生成部と、
前記絵柄部画像、前記非絵柄部色画像を輝度・色差変換して、前記絵柄部画像の輝度および色差、並びに、前記非絵柄部色画像の輝度および色差を生成する輝度・色差変換部と、
前記絵柄部画像の輝度および色差、並びに、前記非絵柄部色画像の輝度および色差を周波数変換する周波数変換部と、
前記周波数変換部により得られた前記絵柄部画像の輝度および色差の周波数係数並びに、前記非絵柄部色画像の輝度および色差の周波数係数を量子化する量子化部と、
前記量子化された絵柄部画像の輝度および色差の周波数係数並びに、前記量子化された非絵柄部色画像の輝度および色差の周波数係数を符号化する符号化部と、を有し、
前記量子化は、周波数ゲインのための正規化のための量子化および輝度・色差変換ゲインの正規化のための量子化を除き、
前記非絵柄部色画像の、色差の量子化ステップ数/輝度の量子化ステップ数を、前記絵柄部画像の、色差の量子化ステップ数/輝度の量子化ステップ数よりも小さくすることを特徴とする符号化装置。
From the original image, a pattern portion image in which the pattern of the original image is displayed, and a non-pattern portion color image in which a non-pattern color image of the original image and a specific image occupying a position other than the color image of the non-pattern are displayed A generating unit for generating a mask image on which the shape of the non-pattern is displayed ;
The pattern portion image, the non-picture portion color image by converting luminance and color difference, the luminance and chrominance of the picture portion image, and the luminance and color difference conversion unit that generates a luminance and color difference of the non-picture portion color images,
Luminance and chrominance of the picture portion image, and a frequency converter for frequency-converting the luminance and chrominance of the non-picture portion color images,
Luminance and chrominance frequency coefficients of the picture portion image obtained by the frequency conversion unit, and a quantization unit for quantizing the luminance and color difference frequency coefficients of the non-picture portion color images,
Luminance and chrominance frequency coefficients of the quantized picture unit image, and has an encoding unit for encoding the luminance and chrominance frequency coefficients of the quantized non-picture portion color images,
The quantization includes quantization for normalization for frequency gain and quantization for normalization of luminance / chrominance conversion gain,
Wherein the non-picture portion color images, the number of quantization steps of the quantization step number / luminance color difference, the picture part image, smaller remote by number of quantization steps of the quantization step number / luminance color difference An encoding device.
原画像から、該原画像の絵柄が表示される絵柄部画像と、該原画像の非絵柄の色画像が表示される非絵柄部色画像と、前記非絵柄の形状が表示されるマスク画像と、を生成する生成部と、
前記絵柄部画像、前記非絵柄部色画像を輝度・色差変換して、前記絵柄部画像の輝度および色差、並びに、前記非絵柄部色画像の輝度および色差を生成する輝度・色差変換部と、
前記絵柄部画像の輝度および色差、並びに、前記非絵柄部色画像の輝度および色差を周波数変換する周波数変換部と、
前記周波数変換部により得られた周波数変換後の前記絵柄部画像の輝度および色差の周波数係数並びに、前記非絵柄部色画像の輝度および色差の周波数係数を量子化する量子化部と、
前記量子化された絵柄部画像の輝度および色差の周波数係数並びに、前記非絵柄部色画像の輝度および色差の周波数係数を符号化する符号化部と、を有し、
前記量子化は、周波数ゲインのための正規化のための量子化および輝度・色差変換ゲインの正規化のための量子化を除き、
前記非絵柄部色画像の輝度の高周波帯域の周波数係数を最も量子化し、前記絵柄部画像の色差の高周波帯域の周波数係数を最も量子化することを特徴とする符号化装置。
From the original image, a pattern portion image in which the pattern of the original image is displayed, a non-pattern portion color image in which the non-pattern color image of the original image is displayed, and a mask image in which the shape of the non-pattern is displayed , a generating unit that generates a,
The pattern portion image, the non-picture portion color image by converting luminance and color difference, the luminance and chrominance of the picture portion image, and the luminance and color difference conversion unit that generates a luminance and color difference of the non-picture portion color images,
Luminance and chrominance of the picture portion image, and a frequency converter for frequency-converting the luminance and chrominance of the non-picture portion color images,
Luminance and chrominance frequency coefficients of the picture portion image after frequency conversion which is obtained by the frequency conversion unit, and a quantization unit for quantizing the luminance and color difference frequency coefficients of the non-picture portion color images,
Luminance and chrominance frequency coefficients of the quantized picture unit image, and has an encoding unit for encoding the luminance and chrominance frequency coefficients of the non-picture portion color images,
The quantization includes quantization for normalization for frequency gain and quantization for normalization of luminance / chrominance conversion gain,
An encoding apparatus characterized in that the frequency coefficient of the high-frequency band of luminance of the non-picture part color image is most quantized and the frequency coefficient of the high-frequency band of color difference of the picture part image is most quantized.
前記量子化部は、周波数係数の下位ビットの破棄を行うことを特徴とする請求項1〜3何れかに記載の符号化装置。 The quantization unit, the encoding apparatus according to any one of claims 1 to 3, characterized in that the lower bits of discarded of frequency coefficients. 前記周波数変換部は、周波数変換によりサブバンドごとに分割し、
前記サブバンドごとの前記量子化に対する重み付け係数を算出し、該重み付け係数で重み付けを行う重み付け部を有し、
前記重み付け部は、重み付け係数の算出に際して、前記非絵柄部色画像のVisual Distance<前記絵柄部画像のVisual Distanceとすることを特徴とする請求項1〜4何れかに記載の符号化装置。
The frequency conversion unit divides each subband by frequency conversion,
Calculating a weighting coefficient for the quantization for each subband, and having a weighting unit that performs weighting with the weighting coefficient,
5. The encoding device according to claim 1, wherein the weighting unit sets the visual distance of the non-picture part color image to the visual distance of the picture part image when calculating the weighting coefficient.
前記符号化部は、JPEG2000方式を採用しており、
前記非絵柄部色画像に対しては、VisualWeightを適用せず、前記絵柄部画像に対しては、VisualWeightを適用することを特徴とする請求項1〜5何れかに記載の符号化装置。
The encoding unit employs the JPEG2000 system,
The encoding device according to claim 1, wherein VisualWeight is not applied to the non-picture part color image, and VisualWeight is applied to the picture part image.
コンピュータを請求項1〜6何れかに記載の符号化装置として機能させるためのプログラム。   The program for functioning a computer as an encoding apparatus in any one of Claims 1-6. 請求項7記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the program according to claim 7 is recorded.
JP2009284416A 2009-12-15 2009-12-15 Encoding device, program, recording medium Active JP5482177B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009284416A JP5482177B2 (en) 2009-12-15 2009-12-15 Encoding device, program, recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009284416A JP5482177B2 (en) 2009-12-15 2009-12-15 Encoding device, program, recording medium

Publications (2)

Publication Number Publication Date
JP2011130026A JP2011130026A (en) 2011-06-30
JP5482177B2 true JP5482177B2 (en) 2014-04-23

Family

ID=44292167

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009284416A Active JP5482177B2 (en) 2009-12-15 2009-12-15 Encoding device, program, recording medium

Country Status (1)

Country Link
JP (1) JP5482177B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6695826B2 (en) * 2017-05-19 2020-05-20 ヤフー株式会社 Information display program, information display device, information display method, and distribution device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4311663B2 (en) * 2004-05-31 2009-08-12 株式会社リコー Document conversion apparatus, document conversion method, document conversion program, and recording medium
JP4446797B2 (en) * 2004-05-24 2010-04-07 株式会社リコー Document restoration apparatus, document restoration method, document restoration program, and recording medium

Also Published As

Publication number Publication date
JP2011130026A (en) 2011-06-30

Similar Documents

Publication Publication Date Title
US6256415B1 (en) Two row buffer image compression (TROBIC)
JP5034018B2 (en) Compression encoding apparatus, compression encoding method and program
JP4111926B2 (en) Image processing apparatus, program, storage medium, and image transmission method
US7577308B2 (en) Image data generation with reduced amount of processing
JP4789148B2 (en) Compression encoding apparatus, compression encoding method and program
JP2006203409A (en) Compression encoding device and method, and program
JP4191592B2 (en) Compression encoding apparatus, compression encoding method and program
Olanda et al. Terrain data compression using wavelet-tiled pyramids for online 3D terrain visualization
JP4229323B2 (en) Encoding apparatus, encoding method, and program
JP2004242290A (en) Image processing apparatus and image processing method, image edit processing system, image processing program, and storage medium
JP4449400B2 (en) Image encoding apparatus and method, program, and recording medium
US7123773B2 (en) Image coding-decoding method, image coding-decoding system, image coder, image decoder, and storage medium
JP2006262294A (en) Image processing apparatus, image processing method, program, and recording medium
JP5482177B2 (en) Encoding device, program, recording medium
US8989278B2 (en) Method and device for coding a multi dimensional digital signal comprising original samples to form coded stream
JP4726040B2 (en) Encoding processing device, decoding processing device, encoding processing method, decoding processing method, program, and information recording medium
JP4965534B2 (en) Encoding device, encoding method, program, and information recording medium
JP5267252B2 (en) Image encoding device, image encoding method, image encoding recording medium, and image encoding program
JP4489474B2 (en) Image processing apparatus, program, and recording medium
JP5594011B2 (en) Encoding device, encoding method, program, and information recording medium
JP5245771B2 (en) Encoding apparatus, encoding method, program, and recording medium
JP3961966B2 (en) Unnecessary part removing apparatus, image processing apparatus, program, storage medium, and unnecessary part removing method
JP4323178B2 (en) Search object restriction device, image processing apparatus, program, storage medium, and search object restriction method
Liang et al. Review of Static Image Compression Algorithms
JP2005150846A (en) Image processing method and apparatus thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130604

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140203

R151 Written notification of patent or utility model registration

Ref document number: 5482177

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151