JP2009060474A - Image processing apparatus - Google Patents

Image processing apparatus Download PDF

Info

Publication number
JP2009060474A
JP2009060474A JP2007227229A JP2007227229A JP2009060474A JP 2009060474 A JP2009060474 A JP 2009060474A JP 2007227229 A JP2007227229 A JP 2007227229A JP 2007227229 A JP2007227229 A JP 2007227229A JP 2009060474 A JP2009060474 A JP 2009060474A
Authority
JP
Japan
Prior art keywords
image
character
data
image data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007227229A
Other languages
Japanese (ja)
Other versions
JP4898601B2 (en
Inventor
Shinji Yamakawa
愼二 山川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2007227229A priority Critical patent/JP4898601B2/en
Publication of JP2009060474A publication Critical patent/JP2009060474A/en
Application granted granted Critical
Publication of JP4898601B2 publication Critical patent/JP4898601B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To efficiently compress various image data with a higher compression ratio than the prior art while ensuring a proper resolution. <P>SOLUTION: A binarization unit 111 outputs binary data identifying a character region and a non-character region based on lightness/darkness of an image density of input image data. A character image production unit 117 discriminates image data in the character region of the input image data on the basis of the binary data and produces a character image file by performing irreversible compression on the image data using a quantization table for luminance and color differences. A background image production unit 116 discriminates image data in a background region of the input image data on the basis of the binary data and produces a background image file by performing irreversible compression on the image data using the quantization table for luminance and color differences. Between the character image production unit 117 and the background image production unit 116, characteristics of the quantization table to be used are different. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

この発明は、カラーデジタル複写機やスキャナ配信装置等の画像形成装置や画像読取装置に利用される画像処理装置に関し、より詳細には、文字と絵柄を含む画像データを文字の解像度を落とさずに高い圧縮率で圧縮する画像処理をする画像処理装置に関する。   BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus used in an image forming apparatus such as a color digital copying machine or a scanner distribution apparatus, or an image reading apparatus. The present invention relates to an image processing apparatus that performs image processing to be compressed at a high compression rate.

一般に、静止画の画像データに対するデータ圧縮技術としては、JPEG(Joint Photographic Experts Group)等の非可逆圧縮技術が知られている。JPEGでは、画像データを8×8画素のブロック単位に分割して、その各ブロック毎に離散コサイン変換とハフマン符号化を行うことによって、冗長なデータや高周波のデータ等を削ってデータ量を減らしている。
しかし、このJPEGは非可逆圧縮であるため、その圧縮率を高めると、圧縮した画像データを復合化して再現したときに画質の劣化を伴ってしまう。そこで、このような画質の劣化を極力抑えながら圧縮率を高めるために、従来から種々の提案がなされている。
In general, lossy compression techniques such as JPEG (Joint Photographic Experts Group) are known as data compression techniques for still image data. In JPEG, image data is divided into blocks of 8 × 8 pixels, and discrete cosine transform and Huffman coding are performed for each block, thereby reducing redundant data and high-frequency data to reduce the amount of data. ing.
However, since this JPEG is irreversible compression, if the compression rate is increased, the image quality is deteriorated when the compressed image data is decoded and reproduced. Therefore, various proposals have been made in the past in order to increase the compression rate while suppressing such deterioration of image quality as much as possible.

たとえば、特許文献1に記載されている画像処理装置においては、文字領域と絵柄領域とで画像データを量子化する際に使用する量子化テーブルを切り換えるようにしている。具体的には、文字領域では画質優先で、係数の小さな量子化テーブルを用いて高周波成分を保持し、高周波成分の損失に起因する文字撚れやモスキートノイズ等の発生を抑える。一方、絵柄領域については、圧縮率を稼いでも画質劣化が目立たないため、圧縮率優先で係数の大きな量子化テーブルを用いる。   For example, in the image processing apparatus described in Patent Document 1, a quantization table used when quantizing image data between a character area and a picture area is switched. Specifically, in the character area, priority is given to image quality, and a high-frequency component is held using a quantization table with a small coefficient to suppress the occurrence of character twist, mosquito noise, and the like due to loss of the high-frequency component. On the other hand, for the picture area, since the image quality deterioration is not noticeable even if the compression rate is increased, a quantization table having a large coefficient is used with priority on the compression rate.

また、特許文献2に記載された画像処理装置では、画像データのうち、写真などの絵柄部を第1画像データとし、文字線画部のうち色情報を第2画像データとして分離し、文字線画部のうちの形状情報は第1画像データ又は第2画像データを選択する選択データとして、それぞれの属性に応じて圧縮方法を切り替えるようにしている。この場合、選択データは第1画像データ又は第2画像データを選択するのみであるから2値のデータとして扱うことができ、高い解像度で画質を維持したまま高圧縮率で圧縮可能になる。   Also, in the image processing apparatus described in Patent Document 2, a picture part such as a photograph is separated from the image data as the first image data, and the color information is separated as the second image data from the character line drawing part. The shape information is selection data for selecting the first image data or the second image data, and the compression method is switched according to the respective attributes. In this case, since the selection data only selects the first image data or the second image data, it can be handled as binary data, and can be compressed at a high compression rate while maintaining the image quality at a high resolution.

さらに、特許文献3に記載された画像処理装置では、二次元多値画像データをエッジ領域ブロックとイメージ領域ブロックとに分離し、エッジ領域ブロックは高周波係数の量子化手段のみを用いて画像生成を行い、イメージ領域ブロックは低周波係数の量子化手段のみを用いて画像生成を行う。
特開2002−64712号公報 特開平2002−368986号公報 特許第3642920号公報
Furthermore, in the image processing apparatus described in Patent Document 3, two-dimensional multi-value image data is separated into an edge region block and an image region block, and the edge region block generates an image using only high-frequency coefficient quantization means. The image region block generates an image using only low-frequency coefficient quantization means.
JP 2002-64712 A Japanese Patent Laid-Open No. 2002-368986 Japanese Patent No. 3644220

前述したように、JPEGファイルのような非可逆圧縮を行う圧縮は圧縮率が非常に高く小さなファイルを作ることが可能であり、絵柄に対しては有効であるが、文字画像のように2値的な画像に対しては文字のエッジがボケてしまい文字の判読性がよくなくなる。
そのため、特許文献1〜3に見られるように種々の提案がなされている。しかし、これらの従来提案されている各種のデータ圧縮方法では、あらゆる種類の画像データを、適正な解像度を確保しながら高い圧縮率で効率よく圧縮したいという要求を十分満足させられるものではなかった。
この発明は上記の点に鑑みてなされたものであり、一般に使用される種々の画像データを、適正な解像度を確保しながら、従来より高い圧縮率で効率よく圧縮できるようにすることを目的とする。
As described above, compression using irreversible compression such as a JPEG file has a very high compression rate and can create a small file, which is effective for a picture, but binary such as a character image. For typical images, the edges of the characters are blurred and the readability of the characters is poor.
Therefore, various proposals have been made as seen in Patent Documents 1 to 3. However, these various data compression methods that have been proposed in the past have not been able to sufficiently satisfy the demand for efficiently compressing all types of image data at a high compression rate while ensuring an appropriate resolution.
SUMMARY OF THE INVENTION The present invention has been made in view of the above points, and an object of the present invention is to enable various types of commonly used image data to be efficiently compressed at a higher compression rate than before while ensuring an appropriate resolution. To do.

この発明は上記の目的を達成するため、次のような画像処理装置を提供する。
その画像処理装置は、入力画像データの画像濃度の明暗に基いて文字領域と非文字領域を識別する二値データを出力する二値化手段と、その二値データに基づいて入力画像データの文字領域の画像データを判別し、その画像データを輝度と色差の量子化テーブルを用いて非可逆圧縮して文字画像ファイルを生成する文字画像生成手段と、上二値データに基づいて入力画像データの背景領域の画像データを判別し、その画像データを輝度と色差の量子化テーブルを用いて非可逆圧縮して背景画像ファイルを生成する背景画像生成手段とを備えており、上記文字画像生成手段が使用する量子化テーブルと背景画像生成手段が使用する量子化テーブルとは、特性が異なる量子化テーブルである。
In order to achieve the above object, the present invention provides the following image processing apparatus.
The image processing apparatus includes: binarizing means for outputting binary data for identifying a character area and a non-character area based on brightness and darkness of the image density of the input image data; and a character of the input image data based on the binary data. Character image generation means for determining image data of a region and irreversibly compressing the image data using a quantization table of luminance and color difference to generate a character image file, and input image data based on upper binary data Background image generating means for discriminating image data of a background area and irreversibly compressing the image data using a quantization table of luminance and color difference to generate a background image file, and the character image generating means The quantization table used is different from the quantization table used by the background image generation means.

上記画像処理装置において、上記文字画像生成手段及び背景画像生成手段によってそれぞれ生成された、文字画像ファイルと背景画像ファイルとを一つの画像ファイルに合成する画像ファイル合成手段を設けるとよい。
上記二値化手段に代えて、入力画像データの画像濃度の明暗に基いて文字領域と非文字領域を識別する二値データと黒文字データとを出力する二値化手段を設け、上記文字画像生成手段と背景画像生成手段に加えて、上記二値化手段からから出力される二値データを可逆圧縮して二値画像ファイルを生成する二値画像生成手段と、上記二値化手段からから出力される黒文字データを可逆圧縮して黒画像ファイルを生成する黒画像生成手段とを設けるとさらによい。
In the image processing apparatus, image file combining means for combining the character image file and the background image file generated by the character image generating means and the background image generating means into one image file may be provided.
In place of the binarization means, binarization means for outputting binary data and black character data for identifying character areas and non-character areas based on the contrast of the image density of the input image data is provided, and the character image generation is performed. In addition to the means and the background image generation means, the binary image generation means for reversibly compressing the binary data output from the binarization means to generate a binary image file, and the output from the binarization means It is further preferable to provide black image generation means for reversibly compressing the black character data to be generated to generate a black image file.

その二値画像生成手段及び黒画像生成手段は何れもMMR圧縮を行う手段であるとよい。
また、この画像処理装置において、上記黒画像生成手段と黒画像生成手段と文字画像生成手段と背景画像生成手段とによってそれぞれ生成された、二値画像ファイルと黒画像ファイルと文字画像ファイルと背景画像ファイルとを一つの画像ファイルに合成する画像ファイル合成手段を設けるとよい。
これらの画像処理装置において、上記文字画像生成手段及び前記背景画像生成手段は、何れもJPEG圧縮を行う手段であるとよい。
Both the binary image generating means and the black image generating means may be means for performing MMR compression.
Further, in this image processing apparatus, the binary image file, the black image file, the character image file, and the background image respectively generated by the black image generating means, the black image generating means, the character image generating means, and the background image generating means. It is preferable to provide an image file synthesizing means for synthesizing the file into one image file.
In these image processing apparatuses, both the character image generation means and the background image generation means may be JPEG compression means.

さらに、上記文字画像生成手段は、上記二値化手段から出力される二値データに基づいて入力画像データの背景領域の画像データを一定の値の画像データに書き換える手段を有し、上記背景画像生成手段は、上記二値化手段から出力される二値データに基づいて入力画像データの文字領域の画像データを白に相当する一定の値の画像データに書き換える手段を有してもよい。   Further, the character image generation means has means for rewriting the image data of the background area of the input image data to image data of a constant value based on the binary data output from the binarization means, and the background image The generating means may have means for rewriting the image data in the character area of the input image data to image data of a constant value corresponding to white based on the binary data output from the binarizing means.

これらの画像処理装置において、上記背景画像生成手段が使用する量子化テーブルは、文字画像生成手段が使用する量子化テーブルに比べてDC成分を多く保存する特性を有するのが望ましい。
また、上記文字画像生成手段が使用する量子化テーブルのうち色差の量子化テーブルは、輝度の量子化テーブルに比べて高周波成分を多く保存する特性を有するのが望ましい。
さらに、上記文字画像生成手段が使用する量子化テーブルのうち色差の量子化テーブルは、背景画像生成手段が使用する色差の量子化テーブルに比べて高周波成分を保存する特性を有するのが望ましい。
In these image processing apparatuses, it is desirable that the quantization table used by the background image generation unit has a characteristic of storing more DC components than the quantization table used by the character image generation unit.
Of the quantization tables used by the character image generating means, the color difference quantization table preferably has a characteristic of storing more high-frequency components than the luminance quantization table.
Further, it is desirable that the color difference quantization table among the quantization tables used by the character image generation unit has a characteristic of storing high-frequency components as compared with the color difference quantization table used by the background image generation unit.

これらの画像処理装置において、上記画像処理結果の画像データを外部機器へ送信する手段を有することができる。
あるいは、上記画像処理結果の画像データに基いて作像し、その作像した画像を用紙上に形成して出力する画像出力手段を設けてもよい。
These image processing apparatuses can have means for transmitting the image data of the image processing result to an external device.
Alternatively, an image output unit that forms an image based on the image data obtained as a result of the image processing, forms the image on a sheet, and outputs the image may be provided.

この発明による画像処理装置は、入力画像データの文字領域の画像データと背景領域の画像データを識別して、それぞれに適した異なる量子化テーブルを使用して非可逆圧縮して文字画像ファイルと背景画像ファイルを生成するので、種々の画像データを、適正な解像度を確保しながら、従来より高い圧縮率で効率よく圧縮することができる。   An image processing apparatus according to the present invention discriminates image data of a character area and image data of a background area of input image data, and performs irreversible compression using different quantization tables suitable for the respective character image files and backgrounds. Since the image file is generated, various image data can be efficiently compressed at a higher compression rate than before while ensuring an appropriate resolution.

この発明を実施するための最良の形態を図面に基づいて具体的に説明する。
図1は、この発明の一実施形態あるデジタル式のカラー画像処理装置の概略構成を示すブロック図である。
この図1に示すカラー画像処理装置は、スキャナ1、スキャナ補正部2、および圧縮処理部3から構成される画像読取系と、伸張処理部7、プリンタ補正部8、およびプリンタ9から構成される画像印刷系と、これらを制御するコントローラ5とが汎用バス4によって接続されている。そして、コントローラ5に、画像データを蓄積するハードディスクドライブ(HDDと略称する)6と、ネットワークを介して外部のパーソナルコンピュータ(PCと略称する)11との間でデータを送受信するネットワーク・インタフェース・コントローラ(NICと略称する)10とを接続している。
以下、このカラー画像処理装置の機能をその動作の種類ごとに分けて説明する。
The best mode for carrying out the present invention will be specifically described with reference to the drawings.
FIG. 1 is a block diagram showing a schematic configuration of a digital color image processing apparatus according to an embodiment of the present invention.
The color image processing apparatus shown in FIG. 1 includes an image reading system including a scanner 1, a scanner correction unit 2, and a compression processing unit 3, an expansion processing unit 7, a printer correction unit 8, and a printer 9. An image printing system and a controller 5 for controlling them are connected by a general-purpose bus 4. A network interface controller that transmits and receives data between a hard disk drive (abbreviated as HDD) 6 that stores image data and an external personal computer (abbreviated as PC) 11 via the network. (Abbreviated as NIC) 10 is connected.
Hereinafter, the functions of this color image processing apparatus will be described separately for each type of operation.

(1)複写機として動作する場合
このカラー画像処理装置が複写機として動作する場合には、スキャナ1は原稿Dから画像を読み取り、その画像データ(アナログデータ)をデジタルデータに変換してスキャナ補正部2へ出力する。
スキャナ補正部2は、後で詳しく述べるように、スキャナ1で読み取った画像データ(デジタルデータ)について、画像領域を文字・線画、写真などに分類したり、原稿画像のRGB(赤緑青)の画像データをフィルタ処理などの画像処理を施し、圧縮処理部3へ出力する。
(1) When operating as a copying machine When this color image processing apparatus operates as a copying machine, the scanner 1 reads an image from a document D, converts the image data (analog data) into digital data, and performs scanner correction. Output to part 2.
As will be described in detail later, the scanner correction unit 2 classifies the image area of the image data (digital data) read by the scanner 1 into a character / line drawing, a photograph, or the like, or an RGB (red green blue) image of the original image. The data is subjected to image processing such as filter processing and output to the compression processing unit 3.

圧縮処理部3は、スキャナ補正部2によって画像処理が施された後のRGBデータ(R,G,Bの各8ビットの画像データ)と像域分離データ(1ビットの文字エッジ領域データと1ビットの色領域データからなる)をそれぞれ圧縮処理して、汎用バス4を介してコントローラ5に送る。
コントローラ5は、圧縮処理部3から送られた画像データを図示を省略した半導体メモリに一旦蓄積した後、HDD6に送って蓄積する。
HDD6に画像データを蓄積するときには、その画像データの画像サイズや読み取った原稿の種類を含む書誌情報も記録する。
なお、ここでは画像データに対して圧縮を施す場合を説明したが、汎用バスの帯域が十分に広くHDD6の記憶容量が大きければ、非圧縮の状態で画像データを扱っても良い。
The compression processing unit 3 includes RGB data (8-bit image data of each of R, G, and B) and image area separation data (1-bit character edge region data and 1) after image processing is performed by the scanner correction unit 2. (Composed of bit color area data) is compressed and sent to the controller 5 via the general-purpose bus 4.
The controller 5 temporarily stores the image data sent from the compression processing unit 3 in a semiconductor memory (not shown), and then sends it to the HDD 6 for storage.
When image data is stored in the HDD 6, bibliographic information including the image size of the image data and the type of the read original is also recorded.
Although the case where the image data is compressed has been described here, the image data may be handled in an uncompressed state as long as the bandwidth of the general-purpose bus is sufficiently wide and the storage capacity of the HDD 6 is large.

そして、コントローラ5はHDD6に蓄積されている画像データを読み出し、汎用バス4を介して伸張処理部7に送出する。
伸張処理部7は、圧縮状態の画像データを、元のRGBデータと文字エッジ領域データと色領域データにそれぞれ伸張し、プリンタ補正部8に送出する。
プリンタ補正部8では、RGBデータをYMCBkデータに変換して、文字エッジ領域データであり色領域データでない部分は、黒文字として単色のBkデータに置き換える。
Then, the controller 5 reads out the image data stored in the HDD 6 and sends it to the expansion processing unit 7 via the general-purpose bus 4.
The decompression processing unit 7 decompresses the compressed image data into the original RGB data, character edge region data, and color region data, and sends them to the printer correction unit 8.
The printer correction unit 8 converts the RGB data into YMCBk data, and replaces the portion that is character edge area data and not color area data with black Bk data as black characters.

さらに、プロッタの明暗特性の補正処理であるγ補正処理と、階調数変換処理である中間調処理を行い、プロッタ9へ出力する。
上記階調数変換処理では、誤差拡散処理やディザ処理によって各色8ビットから2ビットへの画像データの変換を行う。
プロッタ9は、レーザービーム書き込みプロセスを用いる転写紙印刷ユニットであり、2ビットの画像データを感光体に潜像として描画し、トナーにより現像した後転写紙に転写処理してコピー画像Cを出力する。
これらが、この発明による画像処理結果の画像データに基いて作像し、その作像した画像を用紙上に形成して出力する画像出力手段に相当する。
Further, a gamma correction process that is a process for correcting the light / dark characteristics of the plotter and a halftone process that is a gradation number conversion process are performed and output to the plotter 9.
In the gradation number conversion process, image data is converted from 8-bit to 2-bit for each color by error diffusion processing or dither processing.
The plotter 9 is a transfer paper printing unit that uses a laser beam writing process. The plotter 9 draws 2-bit image data as a latent image on a photoconductor, develops it with toner, transfers it to transfer paper, and outputs a copy image C. .
These correspond to image output means for forming an image based on image data obtained as a result of image processing according to the present invention, and forming and outputting the formed image on a sheet.

(2)配信スキャナとして動作する場合
このカラー画像処理装置が、ネットワークを介してPC11に画像データを配信する配信スキャナとして動作する場合には、上述した複写機として動作する場合と同様にして、スキャナ1から入力された画像データをスキャナ補正部2で上記画像処理を施し、圧縮処理部3で圧縮した後、汎用バス4を介してコントローラ5に送る。
コントローラ5は、その圧縮処理部から送られた画像データを伸張してRGBデータからsRGBデータへの色変換処理と、JPEGやTIFF形式への汎用画像フォーマット変換処理とを含むフォーマット処理を行う。
その後、その画像データをNIC10から図示していないネットワークを介して外部のPC11に配信する。これが、この発明による画像処理結果の画像データを外部機器へ送信する手段である。
(2) When operating as a distribution scanner When this color image processing apparatus operates as a distribution scanner that distributes image data to the PC 11 via a network, the scanner operates in the same manner as when operating as a copying machine described above. The image data input from 1 is subjected to the above-described image processing by the scanner correction unit 2, compressed by the compression processing unit 3, and then sent to the controller 5 via the general-purpose bus 4.
The controller 5 decompresses the image data sent from the compression processing unit and performs format processing including color conversion processing from RGB data to sRGB data and general-purpose image format conversion processing to JPEG or TIFF format.
Thereafter, the image data is distributed from the NIC 10 to the external PC 11 via a network (not shown). This is means for transmitting the image processing result image data according to the present invention to an external device.

(3)プリンタとして動作する場合
このカラー画像処理装置が、ネットワークを介して外部のPCから画像データを受け取ってプリントアウトするプリンタとして動作する場合には、コントローラ5は、外部のPC11から送信されるデータをNIC10で受信し、そのたデータから、画像データとプリントを指示するコマンドとを解析し、画像データを印刷できる状態にビットマップ展開して、その展開したデータを圧縮してコントローラ5内に一旦蓄積する。
その蓄積したデータは随時HDD6に書き込まれる。HDD6に画像データを蓄積する時に、その画像データの書誌情報も書き込む。
(3) When operating as a printer When this color image processing apparatus operates as a printer that receives image data from an external PC via a network and prints it out, the controller 5 is transmitted from the external PC 11. The NIC 10 receives the data, analyzes the image data and a command for instructing printing from the data, develops the bitmap into a state where the image data can be printed, and compresses the decompressed data into the controller 5. Accumulate once.
The accumulated data is written to the HDD 6 as needed. When image data is stored in the HDD 6, bibliographic information of the image data is also written.

そして、このコントローラがHDDの画像データを読み出し、それを汎用バス4を介して伸張処理部7に送出する。
伸張処理部7は、圧縮状態の画像データを元の8ビットデータに伸張し、プリンタ補正部8に送出する。
プリンタ補正部8では、伸張処理部7から受信したデータがRGBデータならばYMCBkデータに変換する。また、YMCBkデータをそれぞれ独立にγ補正処理し、中間調処理、プロッタの明暗特性の補正処理、誤差拡散処理やディザ処理によって8ビットデータから2ビットデータに変換する階調数変換処理を行った後、プロッタ9へ送出する。
プロッタ9は、レーザビーム書き込みプロセスを用いる転写紙印刷ユニットであり、2ビットの画像データを感光体に潜像として描画し、トナーにより現像した後転写紙に転写処理して、コピー画像Cを出力する。
Then, this controller reads the image data of the HDD and sends it to the expansion processing unit 7 via the general-purpose bus 4.
The decompression processing unit 7 decompresses the compressed image data to the original 8-bit data and sends it to the printer correction unit 8.
The printer correction unit 8 converts the data received from the decompression processing unit 7 into YMCBk data if the data is RGB data. In addition, YMCBk data was independently subjected to γ correction processing, and halftone processing, correction processing of light / dark characteristics of plotter, error diffusion processing and dither processing were performed to convert the number of gradations from 8-bit data to 2-bit data. Thereafter, the data is sent to the plotter 9.
The plotter 9 is a transfer paper printing unit that uses a laser beam writing process. The plotter 9 draws 2-bit image data as a latent image on a photoconductor, develops it with toner, transfers it to transfer paper, and outputs a copy image C. To do.

このカラー画像処理装置は、原稿Dをスキャナ1により読み取って、その画像データをデジタルデータに変換したとき、原稿の画像領域(像域)を異なる特徴を有する領域毎に像域分離し、画像領域中の各注目画素がいずれの領域に属するものかを判定し、その判定結果に従って、画像データに対して種々の画像処理を施す。これにより、出力画像の画像品質が大きく向上する。   This color image processing apparatus reads an original D with the scanner 1 and converts the image data into digital data, and separates the image area (image area) of the original into areas having different characteristics. It is determined to which region each pixel of interest belongs, and various image processing is performed on the image data according to the determination result. This greatly improves the image quality of the output image.

次に、スキャナ補正部の詳細を図2によって説明する。
図2は、図1に示したカラー画像処理装置のスキャナ補正部2の内部構成を示すブロック図である。
このスキャナ補正部2は、像域分離部21、スキャナγ部22、フィルタ処理部23、および原稿種判別部24から構成されている。
像域分離部21においては、スキャナ1から入力した反射率リニアな画像データimgに基づいて、原稿の画像領域を異なる特徴を有する領域毎に像域分離する像域分離処理を行う。この像域分離処理に関しては、例えば特開平2003−259115号公報に詳細に開示されているような公知技術を用いればよいので、その処理の詳細な説明は省略する。
Next, details of the scanner correction unit will be described with reference to FIG.
FIG. 2 is a block diagram showing an internal configuration of the scanner correction unit 2 of the color image processing apparatus shown in FIG.
The scanner correction unit 2 includes an image area separation unit 21, a scanner γ unit 22, a filter processing unit 23, and a document type determination unit 24.
In the image area separation unit 21, based on the reflectance linear image data img input from the scanner 1, an image area separation process is performed for separating the image area of the document into areas having different characteristics. Regarding this image area separation processing, for example, a known technique disclosed in detail in Japanese Patent Laid-Open No. 2003-259115 may be used, and therefore detailed description of the processing is omitted.

この実施形態における像域分離部21においては、原稿の画像領域を、黒文字エッジ領域、色文字エッジ領域、およびその他の領域(写真領域等)の3つの領域に像域分離する。そして、この像域分離部21は、上記のように原稿の画像領域を像域分離して、原稿の画像データの画素毎に像域分離データ(文字エッジ領域データ、色領域データ、その他の領域データのいずれか)を付与する。
また、像域分離信号に基づいて、原稿の画像領域を、黒文字エッジ領域(文字エッジ領域であり色領域でない領域)、色文字エッジ領域(文字エッジ領域であり色領域である領域)、その他の領域(写真領域等の上記以外の領域)にそれぞれ分類する。ここでいう文字エッジ領域は、白地上の文字エッジを検出した領域である。
スキャナγ部22では、その画像データを反射率リニアから濃度リニアのデータに変換する。
In the image area separation unit 21 in this embodiment, the image area of the document is separated into three areas: a black character edge area, a color character edge area, and other areas (photograph area and the like). Then, the image area separation unit 21 separates the image area of the document as described above, and image area separation data (character edge area data, color area data, and other areas) for each pixel of the image data of the document. One of the data).
Further, based on the image area separation signal, the image area of the document is divided into a black character edge area (character edge area and not a color area), a color character edge area (character edge area and a color area), and other Each area is classified into an area (an area other than the above such as a photograph area). The character edge area here is an area where a character edge on the white background is detected.
The scanner γ unit 22 converts the image data from reflectance linear to density linear data.

フィルタ処理部23では、像域分離信号によってフィルタ処理を切り換える。例えば、文字エッジ(黒文字エッジと色文字エッジ)領域では、判読性を重視して鮮鋭化処理を行う。また、その他の領域(写真領域等)では、画像データ内の急峻な濃度変化をエッジ量として、エッジ量に応じて平滑化処理や鮮鋭化処理を行う。このように急峻なエッジを鮮鋭化するのは、絵の中の文字を判読し易くするためである。
なお、文字エッジ領域は、色領域との組み合わせによって、色文字エッジ領域と黒文字エッジ領域とで、二値化の閾値を変えることも可能である。
The filter processing unit 23 switches the filter processing according to the image area separation signal. For example, in a character edge (black character edge and color character edge) region, sharpening processing is performed with emphasis on legibility. In other areas (photo areas, etc.), a sharp density change in the image data is used as an edge amount, and smoothing processing or sharpening processing is performed according to the edge amount. The sharp edges are sharpened in order to make the characters in the picture easier to read.
Note that the threshold value for binarization can be changed between the color character edge region and the black character edge region by combining the character edge region with the color region.

原稿種判定部24では、原稿の種類を、文字のみ原稿かカラー原稿であるか等の判定を行い、その判定結果を画像を蓄積する時に書誌情報として記録するようにしてもよい。
その場合の判定は、文字あり原稿判定と、有彩原稿判定と、印画紙写真判定と、印刷写真判定の4種類の判定を行う。
その4種類の判定にも、例えば、特開平2000−324338号公報に記載されているような公知技術を用いるとよい。
その原稿種判定(認識)技術の具体例について、以下に簡単に説明する。
The document type determination unit 24 may determine whether the document type is a text-only document or a color document, and record the determination result as bibliographic information when accumulating images.
In this case, four types of determinations are performed: character original determination, chromatic original determination, photographic paper photo determination, and print photo determination.
For the four types of determinations, for example, a known technique as described in JP 2000-324338 A may be used.
A specific example of the document type determination (recognition) technique will be briefly described below.

文字あり原稿判定は上記公報の段落0023〜0025に、有彩原稿判定は段落0026〜0027に、印画紙写真判定は段落0028に、印刷写真判定は段落0029〜0031にそれぞれ記載されている技術を用いればよいので、それらの処理については詳細な説明を省略する。 The techniques described in paragraphs 0023 to 0025 of the above publication, character determination of chromatic originals in paragraphs 0026 to 0027, determination of photographic paper photographs in paragraph 0028, and determination of printed photographs in paragraphs 0029 to 0031 of the above publication are described. Since these may be used, detailed description of these processes is omitted.

〔文字領域有り/無しの検出〕
まず、「文字領域有り/無し」を検出する原稿種認識装置について、図29〜図33によって説明する。
図29はその原稿種認識装置のブロック構成図である。文字画素検出回路401は、入力画像信号に基いて文字画素(正確には文字エッジ)に属する画素を検出する。入力画像信号はスキャナなどの画像入力装置からの信号であり、例えば濃度リニアな400dpiの8ビット信号(白=0、黒=255)やRGB信号の内のG信号である。また、求める原稿種認識精度によっては、max(R,G,B)信号や、線形式で変換可能な輝度信号Yや、Lab空間のL信号でもよい。
[Detection of presence / absence of character area]
First, the document type recognition apparatus for detecting “with / without character area” will be described with reference to FIGS.
FIG. 29 is a block diagram of the document type recognition apparatus. The character pixel detection circuit 401 detects pixels belonging to a character pixel (more precisely, a character edge) based on the input image signal. The input image signal is a signal from an image input device such as a scanner, and is, for example, an 8-bit signal (white = 0, black = 255) having a linear density of 400 dpi or a G signal among RGB signals. Depending on the document type recognition accuracy required, a max (R, G, B) signal, a luminance signal Y that can be converted in a linear format, or an L signal in the Lab space may be used.

カウンタ/リセット回路402は原稿を分割して、文字画素検出回路401によって検出された文字画素を計数し、各領域の計数値を次段の計数値保持回路403にセットする。例えば、図30に示すようにA3原稿の文字画素を計数する場合には、A3原稿の副走査方向の前半の計数値を計数値保持回路403にセットし、次いで、この計数値をリセットして残り後半を計数することにより、A3原稿の前半と後半の領域における文字画素の計数値を計数値保持回路403にセットする。   The counter / reset circuit 402 divides the document, counts the character pixels detected by the character pixel detection circuit 401, and sets the count value of each area in the count value holding circuit 403 in the next stage. For example, as shown in FIG. 30, when counting the character pixels of the A3 document, the first half count value in the sub-scanning direction of the A3 document is set in the count value holding circuit 403, and then this count value is reset. By counting the remaining second half, the count values of the character pixels in the first half and the second half of the A3 document are set in the count value holding circuit 403.

最大値算出回路404は計数値保持回路403にセットされている複数(図30に示した例の場合には2個)の計数値の最大値を検出し、続く閾値判定回路405は最大値算出回路404により算出された計数値の最大値と閾値THとを比較して、計数値の最大値>閾値THの場合には「文字領域有り原稿」と判定し、他の場合には「文字領域無し原稿」と判定する。
なお、図30に示いた例では原稿領域を副走査方向のみに2分割したが、原稿領域を例えば4×4のマトリクス状などに分割してもよい。
The maximum value calculation circuit 404 detects the maximum value of a plurality of (two in the example shown in FIG. 30) count values set in the count value holding circuit 403, and the subsequent threshold value determination circuit 405 calculates the maximum value. The maximum value of the count value calculated by the circuit 404 is compared with the threshold value TH, and if the maximum value of the count value> the threshold value TH, it is determined that “document with text area”, and in other cases, the “character area” “No original”.
In the example shown in FIG. 30, the document area is divided into two only in the sub-scanning direction, but the document area may be divided into, for example, a 4 × 4 matrix.

図29における文字画素検出回路401は、例えば図31に示すように構成され、2値化回路411で、多階調の画像信号を所定の閾値を用いて2値化する。次いで黒画素パターンマッチング回路412と白画素パターンマッチング回路413により、それぞれ2値化後の黒画素および白画素が連結する領域をパターンマッチングによって検出する。
図32と図33は、それぞれ斜め方向、横方向、縦方向などの黒画素又は白画素の連結を検出するためのパターンを示し、黒画素パターンマッチング回路412と白画素パターンマッチング回路413は、それぞれこれらの連結パターンにマッチングしたとき、注目画素を連結黒画素又は連結白画素として出力する。
A character pixel detection circuit 401 in FIG. 29 is configured as shown in FIG. 31, for example, and a binarization circuit 411 binarizes a multi-gradation image signal using a predetermined threshold. Next, the black pixel pattern matching circuit 412 and the white pixel pattern matching circuit 413 detect the areas where the binarized black pixels and white pixels are connected by pattern matching, respectively.
FIGS. 32 and 33 show patterns for detecting the connection of black pixels or white pixels in an oblique direction, a horizontal direction, a vertical direction, etc., and the black pixel pattern matching circuit 412 and the white pixel pattern matching circuit 413 are respectively When matching these connection patterns, the target pixel is output as a connected black pixel or a connected white pixel.

続く計数回路414,415は、それぞれ注目画素を中心とした3×3のマトリックス内に存在する連結黒画素、連結白画素を計数し、計数値が例えば2以上になったときに「1」を出力する。
続くAND回路416は、2個以上の連結黒画素と連結白画素が同時に存在するときにアクティブになり、注目画素を文字部画素候補として出力する。続く判定回路417は注目画素を中心とした5×5のマトリックス内に、例えば文字部画素候補が1個以上存在するとき注目画素を文字部画素として、その判定結果を図29に示したカウンタ/リセット回路402に出力する。
The subsequent counting circuits 414 and 415 respectively count the connected black pixels and the connected white pixels existing in the 3 × 3 matrix centered on the target pixel, and when the count value becomes 2 or more, for example, “1” is set. Output.
The subsequent AND circuit 416 becomes active when two or more connected black pixels and connected white pixels exist simultaneously, and outputs the target pixel as a character portion pixel candidate. The subsequent determination circuit 417 sets the target pixel as the character part pixel when, for example, one or more character part pixel candidates exist in the 5 × 5 matrix centered on the target pixel, and the determination result is shown in the counter / counter shown in FIG. Output to the reset circuit 402.

〔有彩/無彩の検出〕
有彩/無彩を検出する原稿種認識装置は、図29に示した原稿種認識装置における文字画素検出回路401の代わりに有彩/無彩画素検出回路を設けた構成をなす。
その有彩/無彩画素検出回路は、次式が成立する画素を有彩画素と判定して図29に示したカウンタ/リセット回路402に出力する。
max(|RーG|,|G−B|,|B−R|)>TH
なお、他の判定方法として、例えば特公平7−22330号公報に記載されているように色ブロックを判定し、その判定結果を図29に示したカウンタ/リセット回路402に出力して、有彩原稿か否かを判定するようにしてもよい。
[Detection of chromatic / achromatic]
The document type recognition device for detecting chromatic / achromatic has a configuration in which a chromatic / achromatic pixel detection circuit is provided in place of the character pixel detection circuit 401 in the document type recognition device shown in FIG.
The chromatic / achromatic pixel detection circuit determines that a pixel satisfying the following expression is a chromatic pixel, and outputs it to the counter / reset circuit 402 shown in FIG.
max (| RG |, | GB |, | BR |)> TH
As another determination method, for example, as described in Japanese Patent Publication No. 7-22330, a color block is determined, and the determination result is output to the counter / reset circuit 402 shown in FIG. You may make it determine whether it is a manuscript.

〔中間調の検出〕
中間調を検出する原稿種認識装置は、を示し、図29に示した原稿種認識装置における文字画素検出回路401の代わりに中間調画素検出回路を設けた構成をなす。
ここで、写真原稿を読み込んだ場合、中間レベルをとる画素が多く、また、それらの画素はある程度の塊を持っている。中間調画素検出回路は、写真原稿におけるこのような特性を利用して、写真の一部である画素(写真画素)を検出し、その計数値で対象原稿に写真が含まれるか、あるいはどの程度含まれるかを判定する。写真原稿としては、印画紙写真(銀鉛写真)と印刷写真(網点画像)の2通りがある。
[Detection of halftone]
The document type recognizing apparatus for detecting a halftone is shown in FIG. 29, and has a configuration in which a halftone pixel detection circuit is provided instead of the character pixel detection circuit 401 in the document type recognition apparatus shown in FIG.
Here, when a photographic original is read, there are many pixels taking intermediate levels, and these pixels have a certain amount of chunks. The halftone pixel detection circuit detects such a pixel (photo pixel) that is a part of the photo by using such characteristics of the photo original, and whether or not the photo is included in the target original by the count value. Determine whether it is included. There are two types of photographic originals: photographic paper photographs (silver lead photographs) and printed photographs (halftone dot images).

(1)印画紙写真(銀鉛写真)
図34は印画紙写真を検出する中間調検出回路420の構成を示す。この中間調検出回路420は、3値化回路421とパターンマッチング回路422とからなる。
3値化回路421は、G(グリーン)信号を2つの閾値α、β(α>β)で3値化し、次いでパターンマッチング回路422により、中間レベル画素X(α>X>β)に対して図35に示す7×3画素のパターンとのマッチングを行う。そして、7×3の全ての画素が中間レベルであるとき、7×3サイズの画像の注目画素(中心画素)を写真原稿画素として判定し、この判定結果を図29に示したカウンタ/リセット回路402に出力して印画紙写真原稿か否かを判定する。
(1) Photographic paper photo (silver lead photo)
FIG. 34 shows a configuration of a halftone detection circuit 420 for detecting a photographic paper photograph. The halftone detection circuit 420 includes a ternary circuit 421 and a pattern matching circuit 422.
The ternary circuit 421 ternarizes the G (green) signal with two threshold values α and β (α> β), and then the pattern matching circuit 422 applies to the intermediate level pixel X (α>X> β). Matching with the 7 × 3 pixel pattern shown in FIG. 35 is performed. When all the 7 × 3 pixels are at the intermediate level, the target pixel (center pixel) of the 7 × 3 size image is determined as a photographic document pixel, and the determination result is shown in the counter / reset circuit shown in FIG. It is output to 402 and it is determined whether it is a photographic paper photograph original.

(2)印刷写真(網点画像)
印刷写真を検出する中間調検出回路は、網点の一部である画素(網点画素)を検出し、その計数値で対象原稿に網点が含まれているか否かを判定する。網点画素の検出方法として、例えば特開平2−115988号公報に記載されている「極点画素」検出による網点領域分離方法、あるいは本出願人が先に提案した論文「文字/絵柄(網点、写真)混在画像の像域分離方式」(電子情報通信学会論文誌 Vol.J75−DI1 No.1pp39−47 1992年1月を参照)に記載した「ピーク画素」検出による網点領域検出の技術を用いることができる。
(2) Print photo (halftone image)
A halftone detection circuit that detects a printed photograph detects a pixel (halftone pixel) that is a part of a halftone dot, and determines whether or not a halftone dot is included in the target document based on the count value. As a halftone dot detection method, for example, a halftone dot region separation method by “pole pixel” detection described in Japanese Patent Laid-Open No. 2-115988, or a paper “character / picture (halftone dot) previously proposed by the present applicant. , Photo) Image area separation method of mixed image "(see IEICE Transactions Vol. J75-DI1 No. 1pp39-47 January 1992) Can be used.

そのピーク画素は次の演算によって検出する。図36に示すように、3×3のブロックにおいて、中心画素の濃度レベルLが周囲のすべての画素のそれよりも高いか、あるいは低く、且つLと中心画素を挾んで対角線に存在する対画素の濃度レベルa,bが、4対ともに、|2×L−a−b|>TH(固定の閾値)であるとき、その中心画素をピーク画素とする。   The peak pixel is detected by the following calculation. As shown in FIG. 36, in the 3 × 3 block, the density level L of the center pixel is higher or lower than that of all the surrounding pixels, and the counter pixels existing on the diagonal line with L and the center pixel in between. When the density levels a and b of the four pairs are | 2 × L−a−b |> TH (fixed threshold), the center pixel is set as the peak pixel.

なお、網点画素検出の後、所定サイズのブロック(例えば8×8画素)毎に、網点画素を計数し、計数値が所定個以上の場合に注目ブロックを「網点ブロック」と判定し、この判定結果を図29に示したカウンタ/リセット回路402に出力して、対象原稿が網点原稿か否かを判定するようにしてもよい。
このようにして判定した原稿種の判定結果の一例を表1に示す。

Figure 2009060474
After detecting halftone pixels, halftone dots are counted for each block of a predetermined size (for example, 8 × 8 pixels), and when the counted value is a predetermined number or more, the target block is determined as a “halftone block”. The determination result may be output to the counter / reset circuit 402 shown in FIG. 29 to determine whether the target document is a halftone document.
An example of the determination result of the document type determined in this way is shown in Table 1.
Figure 2009060474

ここで「文字のみ原稿」とは、原稿の中に文字しか存在しない原稿であり、表1の判定結果に示すように、文字あり原稿(あり)、印画紙写真原稿(なし)、印刷写真原稿(なし)の判定結果が得られた原稿である。
「カラー原稿」は、有彩原稿(あり)の判定が得られた原稿である。
ここで、複写原稿やインクジェット原稿などの絵柄は階調処理を施しており、印画紙写真か印刷写真原稿のどちらかに分類される。
Here, the “character-only document” is a document in which only characters are present in the document, and as shown in the determination result of Table 1, a document with characters (present), a photographic paper photo document (none), and a printed photo document This is a document for which a determination result of (None) is obtained.
A “color original” is an original from which a chromatic original (presence) determination is obtained.
Here, a pattern such as a copy original or an ink jet original is subjected to gradation processing, and is classified into either a photographic paper photograph or a printed photograph original.

次に、プリンタ補正部の詳細を図3によって説明する。
図3は、図1に示したカラー画像処理装置のプリンタ補正部8の内部構成を示すブロック図である。
この図3に示すプリンタ補正部8は、色補正処理部81、γ補正処理部82、中間調処理部83、およびエッジ量検出部84を備えている。
色補正処理部81は、図1における圧縮処理部3および伸張処理部7を経た画像データに対して、黒文字エッジ領域以外では、RGBデータを一次の濃度マスキング法等でCMYデータに変換する。画像データの色再現を向上させるために、CMYデータの共通部分をUCR(加色除去)処理してBkデータを生成し、CMYBkデータをγ補正処理部82とエッジ量検出部83へ出力する。
Next, details of the printer correction unit will be described with reference to FIG.
FIG. 3 is a block diagram showing an internal configuration of the printer correction unit 8 of the color image processing apparatus shown in FIG.
The printer correction unit 8 shown in FIG. 3 includes a color correction processing unit 81, a γ correction processing unit 82, a halftone processing unit 83, and an edge amount detection unit 84.
The color correction processing unit 81 converts the RGB data into CMY data by using a primary density masking method or the like in areas other than the black character edge region with respect to the image data that has undergone the compression processing unit 3 and the expansion processing unit 7 in FIG. In order to improve the color reproduction of the image data, UCR (additional color removal) processing is performed on the common part of the CMY data to generate Bk data, and the CMYBk data is output to the γ correction processing unit 82 and the edge amount detection unit 83.

ここで、黒文字エッジ領域は、スキャナ1におけるRGBデータ読み取り位置ずれによって原稿の黒文字が色付いたり、プロッタ9においてYMCBkデータをプリンタする時の重ね位置ずれがあると判読性がよくないので、黒文字領域のみ輝度に相当する信号であるBk単色データ(C,M,Yを含まない画像データ)で出力する。
γ補正処理部82は、図1における圧縮処理部3および伸張処理部7を経た画像データに対して、プロッタ9のγの周波数特性(γ特性)に応じてγ補正(入力された信号と実際に出力との相対関係の調整)処理し、中間調処理部83へ出力する。
Here, since the black character edge area is not legible if the black character of the original is colored due to the RGB data reading position shift in the scanner 1 or the overlay position shift when printing the YMCBk data in the plotter 9 is not good. It outputs as Bk single color data (image data not including C, M, Y) which is a signal corresponding to luminance.
The γ correction processing unit 82 performs γ correction (input signal and actual value) on the image data that has passed through the compression processing unit 3 and the expansion processing unit 7 in FIG. 1 according to the γ frequency characteristics (γ characteristics) of the plotter 9. (Adjustment of relative relationship with the output) and output to the halftone processing unit 83.

中間調処理部83は、γ補正処理部82から受け取る画像データに対して、プロッタ9の階調特性やエッジ量検出部84から入力したエッジ量に応じて、ディザ処理や誤差拡散処理などの量子化を行って階調補正を行い、それをプロッタ9へ出力する。その量子化処理をする際に黒文字信号(後述する黒文字抽出の処理による信号)に対して、黒文字のコントラストを強調することも可能である。このように黒文字のコントラストを強調することにより、文字の判読性が向上する。
エッジ量検出部84は、画像データ内の急峻な濃度変化をエッジ量として検出し、中間調処理部へ出力する。
The halftone processing unit 83 performs quantum processing such as dither processing and error diffusion processing on the image data received from the γ correction processing unit 82 according to the gradation characteristics of the plotter 9 and the edge amount input from the edge amount detection unit 84. The gradation correction is performed to output the result to the plotter 9. When the quantization process is performed, it is possible to enhance the contrast of the black character with respect to the black character signal (a signal obtained by a black character extraction process described later). Thus, by enhancing the contrast of black characters, the legibility of the characters is improved.
The edge amount detection unit 84 detects a steep density change in the image data as an edge amount and outputs it to the halftone processing unit.

次に、コントローラの詳細を図4によって説明する。
図4は、図1に示したカラー画像処理装置のコントローラ5の内部構成を示すブロック図である。
この図4に示すコントローラ5は、ページメモリ51、圧縮伸張処理部52、出力フォーマット変換部53、入力フォーマット変換部54、およびデータI/F部55からなる。
なお、このコントローラ5には図示はしていないが、CPU,ROM,およびRAM等によって構成されるマイクロコンピュータを備えており、上記圧縮伸張処理部52、出力フォーマット変換部53、および入力フォーマット変換部54等の各機能もその多くがマイクロコンピュータによって実行される。
Next, details of the controller will be described with reference to FIG.
FIG. 4 is a block diagram showing an internal configuration of the controller 5 of the color image processing apparatus shown in FIG.
The controller 5 shown in FIG. 4 includes a page memory 51, a compression / decompression processing unit 52, an output format conversion unit 53, an input format conversion unit 54, and a data I / F unit 55.
Although not shown, the controller 5 includes a microcomputer including a CPU, a ROM, a RAM, and the like, and the compression / decompression processing unit 52, the output format conversion unit 53, and the input format conversion unit. Many of the functions such as 54 are executed by the microcomputer.

まず、このコントローラ5における、ページメモリ51に格納された画像データを外部機器に出力するときの処理について説明する。
ページメモリ51に格納された圧縮処理されているRGBデータの画像データを、圧縮伸張処理部52によって元の各色8bitデータに伸張して、出力フォーマット変換部53出力する。
出力フォーット変換部53では、RGBデータの画像データを標準色空間であるsRGBデータに色変換すると同時に、JPEGやTIFF形式への汎用画像フォーマット変換の処理を行い、データI/F部55へ出力する。
データI/F部55では、出力フォーマット変換部53から出力された画像データを図1に示したNIC10に出力する。
First, a process when the controller 5 outputs image data stored in the page memory 51 to an external device will be described.
The compressed RGB image data stored in the page memory 51 is decompressed to the original 8-bit data for each color by the compression / decompression processing unit 52 and output to the output format conversion unit 53.
The output fort conversion unit 53 performs color conversion of image data of RGB data to sRGB data that is a standard color space, and at the same time, performs general-purpose image format conversion processing to JPEG or TIFF format, and outputs it to the data I / F unit 55. .
The data I / F unit 55 outputs the image data output from the output format conversion unit 53 to the NIC 10 shown in FIG.

次に、外部機器から入力した画像データをプロッタに出力するときの処理を説明する。
まず、図示を省略したマイクロコンピュータのCPUは、外部機器から指示されたコマンドを解析し、ページメモリに書き込む。
データI/F部55は、外部機器から入力した画像データを入力フォーマット変換部54へ出力し、入力フォーマット変換部54は、ビットマップデータに展開して圧縮伸張処理部52へ出力し、圧縮伸張処理部52はそれを圧縮してページメモリ51に書き込む。
入力フォーマット変換部54で展開する画像は、JPEG(「JPG」とも略称する)やTIFF(「TIF」とも略称する)の自然画像である。
Next, processing for outputting image data input from an external device to a plotter will be described.
First, a CPU of a microcomputer (not shown) analyzes a command instructed from an external device and writes it in a page memory.
The data I / F unit 55 outputs image data input from an external device to the input format conversion unit 54, and the input format conversion unit 54 expands the bitmap data to output to the compression / decompression processing unit 52 for compression / decompression. The processing unit 52 compresses it and writes it in the page memory 51.
The image developed by the input format conversion unit 54 is a natural image such as JPEG (abbreviated as “JPG”) or TIFF (abbreviated as “TIFF”).

次に、出力フォーマット変換部の詳細を図5によって説明する。
図5は、図4に示したコントローラ5における出力フォーマット変換部53の内部構成を示すブロック図である。
この図5に示す出力フォーマット変換部53は、色変換部101、解像度変換部102、TIFフォーマット生成部103、JPEGフォーマット生成部104、圧縮フォーマット生成部105、および出力選択部106からなる。
色変換部101では、画像データをRGBデータからsRGBデータにデータ変換を行い、解像度変換部102へ出力する。
Next, details of the output format conversion unit will be described with reference to FIG.
FIG. 5 is a block diagram showing an internal configuration of the output format conversion unit 53 in the controller 5 shown in FIG.
The output format conversion unit 53 shown in FIG. 5 includes a color conversion unit 101, a resolution conversion unit 102, a TIF format generation unit 103, a JPEG format generation unit 104, a compression format generation unit 105, and an output selection unit 106.
The color conversion unit 101 converts the image data from RGB data to sRGB data and outputs the data to the resolution conversion unit 102.

解像度変換部102では、sRGBデータに変換された画像データに対して300dpi、200dpiなどの画素密度変換を行い、TIFフォーマット生成部103、JPEGフォーマット生成部104、圧縮フォーマット生成部105の各フォーマット生成部へ出力する。この例では300dpiで変換した場合の画素密度度で説明する。
TIFフォーマット生成部103、JPEGフォーマット生成部104、圧縮フォーマット生成部105の各フォーマット生成部では、上記解像度変換された画像データのフォーマットを、それぞれTIF形式フォーマット,JPEG形式フォーマット,圧縮フォーマットに変換する。そして、出力選択部106が、上記各フォーマット生成部で生成された各フォーマットの画像データから、図1に示したデータI/F部55を介してNIC10に出力すべきフォーマットの画像データを選択して出力する。
The resolution conversion unit 102 performs pixel density conversion such as 300 dpi and 200 dpi on the image data converted into the sRGB data, and each format generation unit of the TIF format generation unit 103, the JPEG format generation unit 104, and the compression format generation unit 105. Output to. In this example, the pixel density degree when converted at 300 dpi will be described.
The format generation units of the TIF format generation unit 103, the JPEG format generation unit 104, and the compression format generation unit 105 convert the resolution-converted image data format into a TIF format format, a JPEG format, and a compression format, respectively. Then, the output selection unit 106 selects image data of a format to be output to the NIC 10 via the data I / F unit 55 shown in FIG. 1 from the image data of each format generated by each of the format generation units. Output.

次に、この発明の要部である圧縮フォーマット生成部における処理について詳しく説明する。
図5に示した出力フォーマット変換部53の圧縮フォーマット生成部105は、二値化部111、二値画像生成部112、黒画像生成部113、第1の解像度変換部114、第2の解像度変換部115、背景画像生成部116、文字画像生成部117、および画像ファイル合成部118からなる。
二値化手段である二値化部111では、解像度変換部102で解像度変換された画像データから画像濃度の明暗に基づいて文字領域と非文字領域の二値データと黒文字データとを出力する。
Next, processing in the compression format generation unit, which is a main part of the present invention, will be described in detail.
The compression format generation unit 105 of the output format conversion unit 53 illustrated in FIG. 5 includes a binarization unit 111, a binary image generation unit 112, a black image generation unit 113, a first resolution conversion unit 114, and a second resolution conversion. Section 115, background image generation section 116, character image generation section 117, and image file composition section 118.
A binarization unit 111 that is a binarization unit outputs binary data and black character data of a character region and a non-character region from the image data subjected to resolution conversion by the resolution conversion unit 102 based on lightness and darkness of the image density.

二値画像生成手段である二値画像生成部112では、二値化部111から出力された二値データを可逆圧縮を行って二値画像ファイルを生成し、画像ファイル合成部118へ出力する。黒画像生成手段である黒画像生成部113では、二値化部111から出力された黒文字データを可逆圧縮を行って黒画像ファイルを生成し、画像ファイル合成部118へ出力する。これらの可逆圧縮はMMMR圧縮で行うとよい。このMMMR圧縮は、G4ファクシミリの標準符号化方式であるMMR符号化方式(修正MR符号化方式)による圧縮であり、2次元の二値画像データを圧縮するための公知技術である。その他に、MH符号化方式やMR符号化方式による圧縮を行ってもよい。   The binary image generation unit 112 that is a binary image generation unit performs lossless compression on the binary data output from the binarization unit 111 to generate a binary image file, and outputs the binary image file to the image file synthesis unit 118. The black image generation unit 113 serving as a black image generation unit performs lossless compression on the black character data output from the binarization unit 111 to generate a black image file, and outputs the black image file to the image file composition unit 118. These lossless compressions may be performed by MMMR compression. This MMMR compression is compression by an MMR encoding method (modified MR encoding method) which is a standard encoding method of G4 facsimile, and is a known technique for compressing two-dimensional binary image data. In addition, compression using an MH encoding method or an MR encoding method may be performed.

第1の解像度変換部114と第2の解像度変換部115では、解像度変換部102で解像度変換された画像データに対してさらに解像度変換を行い、解像度を低くする(150dpi)。
そして、背景画像生成手段である背景画像生成部116は、二値化部111手段から出力される二値データに基づいて第1の解像度変換部114から入力する画像データの背景領域の画像データを判別し、その画像データを輝度と色差の量子化テーブルを用いて非可逆圧縮して文字画像ファイルを生成し、画像ファイル合成部118へ出力する。その際、第1の解像度変換部114から入力する画像データのうち、二値化部111から文字領域を示す二値データが入力された領域だけを白に相当する一定の値の画像データに書き換えるとよい。このように、背景画像に対しては文字領域を一定の値の画像データにするとよいのは、一定の値にすることより圧縮率が向上するからである。
The first resolution conversion unit 114 and the second resolution conversion unit 115 further perform resolution conversion on the image data subjected to resolution conversion by the resolution conversion unit 102 to lower the resolution (150 dpi).
Then, the background image generation unit 116 which is a background image generation unit converts the image data of the background area of the image data input from the first resolution conversion unit 114 based on the binary data output from the binarization unit 111 unit. Then, the image data is irreversibly compressed using a luminance and color difference quantization table to generate a character image file, which is output to the image file composition unit 118. At that time, of the image data input from the first resolution conversion unit 114, only the region where the binary data indicating the character region is input from the binarization unit 111 is rewritten to image data of a constant value corresponding to white. Good. As described above, the reason why the character area should be set to a constant value for the background image is that the compression ratio is improved by setting the character area to a constant value.

文字画像生成手段である文字画像生成部117は、二値化部111から出力される二値データに基づいて第1の解像度変換部114から入力する画像データの文字領域の画像データを判別し、その画像データを輝度と色差の量子化テーブルを用いて非可逆圧縮して文字画像ファイルを生成し、画像ファイル合成部118へ出力する。その際、第1の解像度変換部114から入力する画像データのうち、二値化部111から背景領域を示す二値データが入力された領域だけを一定の値の画像データに書き換えるとよい。このように文字画像に関しても背景領域を一定の値の画像データにするとよいのも、圧縮率向上のためである。   A character image generation unit 117 serving as a character image generation unit determines image data of a character area of image data input from the first resolution conversion unit 114 based on binary data output from the binarization unit 111, and The image data is irreversibly compressed using a luminance and color difference quantization table to generate a character image file, which is output to the image file composition unit 118. At that time, among the image data input from the first resolution conversion unit 114, only the region where the binary data indicating the background region is input from the binarization unit 111 may be rewritten to image data having a constant value. The reason why the background area of the character image is preferably set to image data having a constant value is also for improving the compression rate.

上記背景画像生成部116及び文字画像生成部117における画像データの非可逆圧縮はJPEG圧縮によって行うとよい。
また、文字画像生成部117が使用する量子化テーブルと背景画像生成部116が使用する量子化テーブルとは、特性が異なる量子化テーブルのが望ましいが、これに関しては後で詳述する。
解像度変換部102は、文字画像と背景画像では文字画像は背景画像ほど解像度がいらないので、75dpi程度でも構わない。
書誌情報によって「文字のみ原稿」であると判断できるときは、背景画像と文字画像の両方を75dpiの解像度でJPEGファイルを作成する。
The irreversible compression of the image data in the background image generation unit 116 and the character image generation unit 117 may be performed by JPEG compression.
The quantization table used by the character image generation unit 117 and the quantization table used by the background image generation unit 116 are preferably different quantization tables, which will be described in detail later.
The resolution conversion unit 102 may be about 75 dpi because the character image and the background image do not require the same resolution as the background image.
If it can be determined from the bibliographic information that the document is “character only document”, both the background image and the character image are created with a resolution of 75 dpi.

文字に関して解像度を落とすのは、文字の解像度はMMRの解像度で保証しているので、JPEG画像の解像度を落としても階調劣化するが問題とはならない。解像度を落とすことによりファイルサイズを小さくすることが可能になる。
この実施例では、画像解像度を落とすことにファイルサイズを小さくしたが、画像の解像度以外の階調数などの画像品質を落としてファイルサイズを小さくしてもよい。
蓄積データに書誌情報として「文字のみ原稿あり/なし」の記載があるので、蓄積後の画像データに対して、「文字のみ原稿」に対して圧縮率を高くすることが可能になっている。
Decreasing the resolution of the character is guaranteed by the MMR resolution as the character resolution, so even if the resolution of the JPEG image is decreased, the gradation is deteriorated, but there is no problem. The file size can be reduced by reducing the resolution.
In this embodiment, the file size is reduced by reducing the image resolution. However, the file size may be reduced by reducing the image quality such as the number of gradations other than the image resolution.
Since the stored data includes “character only original / not present” as the bibliographic information, it is possible to increase the compression ratio of “character only original” with respect to the stored image data.

背景画像生成部116と文字画像生成部117におけるJPEG圧縮は、異なる特性の量子化テーブルを用いて圧縮を行う。
そのJPEG圧縮に関しては、例えば特開平2005−303979号公報の段落0069〜0072(図3乃至図5参照)に開示されているような公知技術を用いる。
The JPEG compression in the background image generation unit 116 and the character image generation unit 117 is performed using a quantization table having different characteristics.
For the JPEG compression, a known technique as disclosed in paragraphs 0069 to 0072 (see FIGS. 3 to 5) of Japanese Patent Laid-Open No. 2005-303979 is used.

図7は、JPEG圧縮部の機能的ブロック図である。図8は、画像データをブロック単位で切り出す処理を説明する図である。JPEG方式は国際標準方式であり、画像を図8のように8×8画素単位で切り出す。このJPEG圧縮部300は、ブロック化部301を備え、そのブロック化部301は、画像データを8×8画素単位で切り出す。
さらに、その切り出したDCTブロックデータに対して離散コサイン変換を行い周波数空間へ変換するDCT部302、量子化部303、およびハフマン符号化部304を備えている。
圧縮レベルを左右する量子化処理を施す量子化部303に対して、基準量子化テーブル306として、図9に示すように輝度成分(Y成分)用と色差成分(CbCr成分)用とで別々の基準量子化テーブルを持っている。
FIG. 7 is a functional block diagram of the JPEG compression unit. FIG. 8 is a diagram for explaining processing for cutting out image data in units of blocks. The JPEG method is an international standard method, and an image is cut out in units of 8 × 8 pixels as shown in FIG. The JPEG compression unit 300 includes a blocking unit 301 that cuts out image data in units of 8 × 8 pixels.
Further, a DCT unit 302, a quantizing unit 303, and a Huffman coding unit 304 are provided that perform discrete cosine transform on the extracted DCT block data and convert the data into a frequency space.
For the quantization unit 303 that performs quantization processing that affects the compression level, as the reference quantization table 306, as shown in FIG. 9, for the luminance component (Y component) and for the color difference component (CbCr component), different values are used. Has a reference quantization table.

図9は、基準量子化テーブルQijの一例を示す図である。8×8の左上隅Q00がDC成分(直流成分)の量子化に用いるパラメータであり、残りはAC成分(交流成分)の量子化に用いるパラメータである。左上ほど低周波成分、右下ほど高周波成分である。
DCT部202からの出力値である8×8のDCT係数を、量子化テーブル値Q’ijで除算することにより量子化を行う。量子化テーブル値Q’ijが大きい値であるほど量子化による損失が大きくなり(=量子化大)、図9に示すように高周波成分の量子化を大きくすることによって圧縮率を稼ぐのが最も画質への影響が少ない常套手段である。
FIG. 9 is a diagram illustrating an example of the reference quantization table Qij. The 8 × 8 upper left corner Q00 is a parameter used for quantization of a DC component (DC component), and the rest are parameters used for quantization of an AC component (AC component). The upper left is a low frequency component, and the lower right is a high frequency component.
The quantization is performed by dividing the 8 × 8 DCT coefficient, which is the output value from the DCT unit 202, by the quantization table value Q′ij. The larger the quantization table value Q′ij is, the larger the loss due to quantization (= large quantization), and the most is to increase the compression rate by increasing the quantization of high frequency components as shown in FIG. This is a conventional means with little influence on image quality.

基準量子化テーブル値Qijに対して、実際に量子化で使う量子化テーブル値Q’ijは、演算器305による次式の演算によって求まる。
qf<50の場合:
Q’ij=Qij×50÷qf
qf≧50の場合:
Q’ij=Qij×(100−qf)÷50
ここで、qfはクオリティファクタ設定部307において設定される固定パラメータであり、0〜100の範囲で設定され、このqfが小さいほど低圧縮率かつ高画質になる。
With respect to the reference quantization table value Qij, a quantization table value Q′ij that is actually used for quantization is obtained by the following equation by the calculator 305.
For qf <50:
Q′ij = Qij × 50 ÷ qf
When qf ≧ 50:
Q′ij = Qij × (100−qf) ÷ 50
Here, qf is a fixed parameter set in the quality factor setting unit 307 and is set in the range of 0 to 100. The smaller this qf, the lower the compression rate and the higher the image quality.

図9に示した一般的な量子化テーブルは、人間の視覚は低周波には敏感で、高周波には鈍感であることに基いている。さらに、色情報は輝度情報より識別能力が低いので輝度情報用より高周波数成分を多くカットするようにしている。
図5における背景画像生成部116のJPEG圧縮部は、qf=20〜30程度で画像を圧縮するため、一般的な基準量子化テーブルを使用するとブロックノイズが発生しやすくなる。特に、JPEGの基本単位(8×8)のブロックノイズは、ブロック内の平均濃度をあらわすDC成分の値に大きく影響を受ける。
The general quantization table shown in FIG. 9 is based on the fact that human vision is sensitive to low frequencies and insensitive to high frequencies. Furthermore, since color information has a lower discrimination ability than luminance information, more high frequency components are cut than for luminance information.
Since the JPEG compression unit of the background image generation unit 116 in FIG. 5 compresses the image with qf = 20 to about 30, block noise is likely to occur when a general reference quantization table is used. In particular, the block noise of the basic unit (8 × 8) of JPEG is greatly affected by the value of the DC component representing the average density in the block.

このJPEGの基本単位のブロックノイズを低減するために、図10に示す基準量子化テーブルを用いて、輝度および色差ともDC成分の値を小さな値にしてそのDC成分を保存するとよい。
図11はqf=25の量子化テーブルの例、すなわち実際に使用するDC成分を保存した量子化テーブルの例である。図5における文字画像生成部117において、図14に示す8×8の1つのブロックに複数の色(赤、青)が存在する画像に対して、一般的な基準量子化テーブルでJPEG圧縮を行うと、高周波数成分をカットしているため折り返し歪みの影響が出てきて、赤と青の色が混色しやすくなる。
In order to reduce the block noise of the basic unit of JPEG, it is preferable to save the DC component by using the reference quantization table shown in FIG.
FIG. 11 shows an example of a quantization table with qf = 25, that is, an example of a quantization table that stores DC components that are actually used. The character image generation unit 117 in FIG. 5 performs JPEG compression on an image in which a plurality of colors (red, blue) exist in one 8 × 8 block shown in FIG. 14 using a general reference quantization table. Then, since the high frequency component is cut, the influence of aliasing distortion comes out and red and blue colors are likely to be mixed.

この問題を回避するために、文字画像生成部117では色差成分の全体の周波数成分を保存するように、図12に示すように色差成分を保存する特性の基準量子化テーブルを使用するとよい。
図13がqf=20の量子化テーブルの例、すなわち実際に使用する色差成分を保存した量子化テーブルの例である。
In order to avoid this problem, the character image generation unit 117 may use a reference quantization table having characteristics for storing the color difference components as shown in FIG. 12 so as to store the entire frequency components of the color difference components.
FIG. 13 shows an example of a quantization table with qf = 20, that is, an example of a quantization table that stores color difference components that are actually used.

つまり、背景画像生成部116では、文字画像の量子化テーブルよりDC成分を多く保存する特性の量子化テーブルを使用して、画像の滑らかな部分のブロックノイズを軽減する。
文字画像生成部117で使用する文字画像の色差テーブルは、背景画像の色差テーブルや背景画像の輝度テーブルより、高周波成分を多く保存する特性の量子化テーブルを使用して、8×8内のブロックの混色を防ぐようにするとよい。文字の解像度はMMRの解像度で決まるため、輝度成分はさほど重要ではないので、輝度テーブルとしては標準の量子化テーブルを使用すればよい。
That is, the background image generation unit 116 reduces block noise in a smooth portion of an image by using a quantization table having a characteristic of storing more DC components than the quantization table of a character image.
The character image color difference table used by the character image generation unit 117 uses a quantization table having characteristics that store more high-frequency components than the color difference table of the background image and the luminance table of the background image. It is better to prevent color mixing. Since the resolution of characters is determined by the resolution of MMR, the luminance component is not so important. Therefore, a standard quantization table may be used as the luminance table.

ここで、量子化テーブルの関係まとめると表2に示すようになる。

Figure 2009060474
Here, the relationship of the quantization table is summarized as shown in Table 2.
Figure 2009060474

図5に戻って、圧縮フォーマット生成部105における画像ファイル合成手段である画像ファイル合成部118では、二値画像生成部112で生成された二値画像ファイル(MMR)、黒画像生成部113で生成された黒画像ファイル(MMR)、背景画像生成部116で生成された背景画像ファイル(JPEG)、および文字画像生成部117で生成された文字画像ファイル(JPEG)の4つの画像ファイルを一つの画像ファイルに合成する。このときのファイル形式は、汎用フォーマット(PDFファイルなど)を用いても構わない。   Returning to FIG. 5, the image file composition unit 118, which is an image file composition unit in the compression format generation unit 105, generates a binary image file (MMR) generated by the binary image generation unit 112 and a black image generation unit 113. Four image files of the black image file (MMR), the background image file (JPEG) generated by the background image generation unit 116, and the character image file (JPEG) generated by the character image generation unit 117 are combined into one image. Composite to file. As the file format at this time, a general-purpose format (such as a PDF file) may be used.

図5における二値化部111では、複数の特徴量を抽出することにより二値化を行う。
以下の処理は、逐次処理で一つの処理が終わると隣の画素の処理を行い、1ラインの処理が終わると次のラインの先頭から処理を行い、画像の終わりまで処理を続ける。RGB画像データは数字が多くなると黒くなり、数字が小さくなると白くなるものとする。
The binarization unit 111 in FIG. 5 performs binarization by extracting a plurality of feature amounts.
In the following processing, when one processing is completed in the sequential processing, the processing of the adjacent pixel is performed, and when the processing of one line is completed, the processing is performed from the beginning of the next line, and the processing is continued until the end of the image. It is assumed that the RGB image data becomes black when the number increases and becomes white when the number decreases.

図15はその二値化部111における処理の流れを示すフロー図である。この図15に示す各処理について以下に詳述する。
1.文字解像度変換と色変換および解像度変換
図4に示した圧縮伸張処理部52によって伸張したデータである文字エッジ領域と色領域信号(RGB)を画像に施した解像度と同じ解像度で解像度変換(300dpi)を施し、画像データと画素密度を同一にする。ここでの出力を「文字エッジ」と「色」とする。
そして、次に二値化部とマスク部の処理を行なう。
FIG. 15 is a flowchart showing the flow of processing in the binarization unit 111. Each processing shown in FIG. 15 will be described in detail below.
1. Character Resolution Conversion, Color Conversion, and Resolution Conversion Resolution conversion (300 dpi) at the same resolution as the character edge region and color region signal (RGB) that are data expanded by the compression / decompression processing unit 52 shown in FIG. To make the image data and the pixel density the same. The output here is “character edge” and “color”.
Then, the binarization unit and the mask unit are processed.

2.二値化部
二値化部の処理は、文字エッヂ領域とそれ以外で二値化の閾値を変更して二値化する適応二値化と、その適応二値化の出力から孤立点を除去する孤立点除去1とからなる。
2.1.適応二値化
適応二値化の処理は、図16に示すように、色地上文字や白地上文字を抽出するために、エッジの色を検出して1ライン毎に閾値を変更する閾値選択と、その閾値を用いて画像データを二値化する二値化の処理からなる。
2. Binarization unit The binarization unit processes adaptive binarization by changing the binarization threshold in the character edge area and other areas, and removes isolated points from the output of the adaptive binarization. The isolated point removal 1 is performed.
2.1. Adaptive Binarization As shown in FIG. 16, adaptive binarization processing includes threshold selection for detecting the color of an edge and changing the threshold for each line in order to extract color ground characters and white ground characters. , And a binarization process for binarizing the image data using the threshold value.

閾値選択は、文字エッヂ領域用と文字エッヂ領域以外用の二つの閾値を用意して、文字エッヂ領域に基づいてその閾値を切り換える。文字エッジ領域と文字エッジ領域以外では、文字エッヂ領域の方が文字と判定しやすいパラメータを設定する。
二値化は、閾値選択の処理で選択した閾値に対して、入力画像データのRGBの値が1つでも閾値を超えていれば(大きければ)、黒(ON)と判定し、黒(ON)でない時は、白(OFF)として出力する。
例えば、閾値がR=128、G=120、B=118で、入力画像データが、R=121、G=121、B=121であれば「黒」とし、R=110、G=110、B=110であれば「白」とする。
For threshold selection, two threshold values are prepared for the character edge region and other than the character edge region, and the threshold values are switched based on the character edge region. Parameters other than the character edge region and the character edge region are set so that the character edge region is more easily determined as a character.
In binarization, if at least one RGB value of the input image data exceeds the threshold value (if it is larger) than the threshold value selected in the threshold value selection process, it is determined as black (ON) and black (ON) Otherwise, it is output as white (OFF).
For example, if the threshold is R = 128, G = 120, B = 118, and the input image data is R = 121, G = 121, B = 121, “black” is set, and R = 110, G = 110, B If “= 110”, “white” is set.

文字エッヂ領域と文字エッジ領域以外で閾値を切り換えるのは、色地上(白地以外)に記載されている文字(色地上文字)は濃く、白地上に記載されている文字(白地上文字)は薄い文字もあるからである。そのため、固定の閾値で二値化すると、白地の薄い文字を黒と抽出しようとすると色地上の文字の色地も文字となり、逆に色地上の文字を黒と抽出しようとすると白地上の薄い文字を黒として抽出できなる。
そこで、文字エッヂ領域と文字エッジ領域以外でパラメータを切り換えることにより、白地上文字は文字エッジ領域用の閾値で2値化し、色地上文字は文字エッジ領域以外用の閾値で2値化する。
The threshold value is switched in areas other than the character edge area and the character edge area. Characters described on the color ground (other than the white background) are darker (characters on the ground color), and characters written on the white ground (white ground characters) are lighter. Because there are letters. Therefore, if binarization is performed with a fixed threshold value, the color ground of the character on the color ground becomes a character when attempting to extract the light character on the white background as black, and conversely, if the character on the color ground is extracted as black, the character on the white ground is light. Characters can be extracted as black.
Therefore, by switching the parameters other than the character edge region and the character edge region, the white ground character is binarized with a threshold value for the character edge region, and the colored ground character is binarized with a threshold value for other than the character edge region.

つまり、白地の薄い文字は白地上文字エッジであるから、文字エッジ領域用の閾値で二値化し、色地上文字は白地上文字エッジでないので、文字エッジ領域以外用の閾値で二値化する。このように、白地上(薄い)文字と色地上文字を別々の閾値で二値化することによって、色地上文字も白地上文字も良好に二値化することが可能になる。
二値化する画像データは、文字エッジ領域には鮮鋭化処理が施され、文字エッジ領域以外にはエッジ量に応じた処理を行っており、絵の部分には平滑化処理がかかっているので、色地上文字の背景は平滑化処理がかかているため、良好な二値化が可能になる。
That is, since a character with a white background is a white ground character edge, it is binarized with a threshold value for the character edge region, and since a color ground character is not a white ground character edge, it is binarized with a threshold value for other than the character edge region. Thus, by binarizing white ground (light) characters and colored ground characters with different threshold values, it is possible to binarize both colored ground characters and white ground characters well.
Since the image data to be binarized is subjected to sharpening processing in the character edge region, processing other than the character edge region is performed according to the edge amount, and smoothing processing is applied to the picture portion. Since the background of the color ground character is smoothed, good binarization is possible.

2.2 孤立点除去1
孤立点除去1の処理は、適応二値化の処理結果には孤立点が多く存在すため、その孤立点除去を行う。図17に示す各パターン対して、一致した時は注目画素を反転することにより孤立点を除去する。
2.2 Isolated point removal 1
In the isolated point removal 1 process, since there are many isolated points in the adaptive binarization processing result, the isolated points are removed. When the patterns shown in FIG. 17 coincide with each other, the isolated point is removed by inverting the target pixel.

3.マスク部
3.1 N値化
この部分は後述する網点検出とグレー検出の特徴とN値の値にして共通に使用する。
RGB差の小さいデータ(bk)は、thabkより値が大きい時は、黒文字として、RGB差の小さいデータYMCBGRの6色相に色を分けて色相ごとに閾値(thay、tham、thac、thab、thag、thar)を分けて、色の濃いものをアクティブ画素(文字)として2値化処理を行う。色相の分け方は、単純にRGBの大小関係で行ってもよいし、RGBの色の割合で決めてもよい。これは入力画像の特性により決まる。
ただし、出力結果は色相別に保持する。
3. Mask part 3.1 N-value conversion This part is used in common for the features of halftone detection and gray detection described later and the value of N value.
When the data (bk) having a small RGB difference has a value larger than thabk, the color is divided into six hues of the data YMCBGR having a small RGB difference as black characters, and threshold values (thay, tham, thac, thab, thag, tha), and binarization processing is performed using dark pixels as active pixels (characters). The method of dividing the hue may be simply based on the magnitude relationship of RGB or may be determined by the ratio of RGB colors. This is determined by the characteristics of the input image.
However, the output result is held for each hue.

ここでは、以下の様に定義する。括弧はbit表示。
Dtah=0(000):該当なし
Dtah=1(001):黄色
Dtah=2(010):マゼンタ
Dtah=3(011):赤
Dtah=4(100):シアン
Dtah=5(101):緑
Dtah=6(110):青
Dtah=7(111):黒
Here, it is defined as follows. The parentheses are bit display.
Dtah = 0 (000): Not applicable Dtah = 1 (001): Yellow Dtah = 2 (010): Magenta Dtah = 3 (011): Red Dtah = 4 (100): Cyan Dtah = 5 (101): Green Dtah = 6 (110): Blue Dtah = 7 (111): Black

さらに、白のレベルも同様に2値化を行う。
RGB差の小さいデータ(bk)は、thbbkより値が小さい時は、白画素として、RGB差の小さいデータYMCBGRの6色相に色を分けて色相ごとに閾値(thby、thbm、thbc、thbb、thbg、thbr)を分けて、色の薄いものをアクティブ画素(白画素)として2値化処理を行う。
また、黒に含まれるもので、更に黒い(濃い)色を抽出したものを濃い黒として、黒抽出時に使用する。
Further, the white level is also binarized in the same manner.
When the data with a small RGB difference (bk) has a value smaller than thbbk, the color is divided into six hues of the data YMCBGR with a small RGB difference as a white pixel, and threshold values (thby, thbm, thbc, thbb, thbg) for each hue. , Thbr), and binarization processing is performed with light-colored pixels as active pixels (white pixels).
Moreover, what is contained in black and further extracted from a black (dark) color is made dark black and used when extracting black.

さらに、下地検出の下地の抽出を行う。下地も白レベルと同様であるが、閾値は白レベルと文字の閾値との中間の値を使用して、下地の閾値より白ければ下地とする。
下地領域、グレー領域、文字領域の関係は、図18に示すようになる。
下地領域の濃い方とグレー領域の薄い方とでは、2つの領域をまたがる濃度域が存在する。その理由は、下地領域、グレー領域ともパターンマッチングである程度の大きさの領域がないと領域判定しないため、ある程度の重なりがないと、下地領域とグレー判定の近傍の均一画像の濃度領域であっても、下地領域とグレー領域にまたがった場合に下地領域、グレー領域のどちらの領域にも該当しなくなるのを防ぐためである。
Further, extraction of the background for background detection is performed. The background is the same as the white level, but the threshold value is an intermediate value between the white level and the character threshold value.
The relationship between the ground area, gray area, and character area is as shown in FIG.
There is a density range that spans two areas, the darker of the background area and the thinner gray area. The reason is that both the background area and the gray area are determined by pattern matching unless there is an area of a certain size, so if there is no overlap, the background area and the density area of the uniform image near the gray determination This is also to prevent a situation that does not correspond to either the background area or the gray area when it extends over the background area and the gray area.

3.2 網点検出1
スキャナ補正部2(図2)での平滑化処理によって細かな網点の網点形状は無くなっているが、新聞の写真のような粗い網点は充分な平滑化を行うことができずに、網点のドット形状が残っている。網点検出1は、この粗い網点を検出することを目的とする。
ここでは、網点のパターンマッチングを行う。例えば、Dtah≠0の時に黒画素として、N値化の白画素を白画素とする。
3.2 Halftone detection 1
Although the halftone dot shape of fine halftone dots has been eliminated by the smoothing process in the scanner correction unit 2 (FIG. 2), rough halftone dots such as newspaper photographs cannot be sufficiently smoothed. A halftone dot shape remains. The halftone dot detection 1 is intended to detect this rough halftone dot.
Here, halftone dot pattern matching is performed. For example, when Dtah ≠ 0, a black pixel is used, and an N-valued white pixel is a white pixel.

この網点検出1の処理を、図19のフローチャートを用いて説明する。
この処理を開始すると、まずステップS1で白パターンか否かを判定する。白パターンの判定は、図20に示す白画素のパターンとのマッチングを行って、マッチングすれば「白パターン」と判定してステップS2へ進み、マッチングしなければ「白パターン」ではないと判定してステップS3へ進む。
ステップS2では網点カウント初期化によって、下記変数を初期化してステップS8へ進む。
count_bk=tha_count
state=0
SS[I]=0
tha_count:白領域間の距離(閾値)
SS[I]:1ライン前の情報
This halftone dot detection 1 process will be described with reference to the flowchart of FIG.
When this process is started, it is first determined in step S1 whether or not the pattern is a white pattern. The white pattern is determined by matching with the pattern of the white pixel shown in FIG. 20, and if matching is determined as “white pattern”, the process proceeds to step S2, and if not matched, it is determined that the pattern is not “white pattern”. Then, the process proceeds to step S3.
In step S2, the following variables are initialized by halftone dot count initialization, and the process proceeds to step S8.
count_bk = tha_count
state = 0
SS [I] = 0
tha_count: distance between white areas (threshold)
SS [I]: Information before one line

ステップS3では網点判定処理を行う。
下記条件の時に、sateを1にする。
・SS[I]=1
・1画素前の結果が網点である。
・count_bkが0である。
さらに、下記条件の時、SS[I]を1にする。
・count_bkが、0である。
In step S3, a halftone dot determination process is performed.
Set sat to 1 under the following conditions.
・ SS [I] = 1
-The result one pixel before is a halftone dot.
-Count_bk is 0.
Furthermore, SS [I] is set to 1 under the following conditions.
Count_bk is 0.

次いで、ステップS4で網点間隔判定を行う。
1)state=0でかつ、count>tha_count_sであれば、下記変数を初期化する。
count_bk=tha_count
SS[I]=0
tha_count_s:非網点領域上の網点パターン間の距離(閾値)
Next, halftone dot interval determination is performed in step S4.
1) If state = 0 and count> tha_count_s, the following variables are initialized.
count_bk = tha_count
SS [I] = 0
tha_count_s: distance between halftone dot patterns on a non-halftone dot area (threshold value)

2)count_bk,count_c,count_m,count_yのいずれかが、0でかつ、count>tha_count_eであれば、下記変数を初期化する。
count_bk=tha_count
state=0
SS[I]=0
tha_count_e:非網点領域上の網点パターン間の距離(閾値)
3)上記判定終了後count=count+1を行う。
2) If any of count_bk, count_c, count_m, count_y is 0 and count> tha_count_e, the following variables are initialized.
count_bk = tha_count
state = 0
SS [I] = 0
tha_count_e: distance (threshold value) between halftone dot patterns on a non-halftone dot area
3) After the above determination, count = count + 1 is performed.

次にステップS5で網点カウントを行う。網点パターンとは、図21に示すパターンで、●が黒画素で、○が非黒画素である。このいずれかのパターンと一致すれば、countを0にすると共にcount_bkを−1する。
そして、ステップS6に進んで状態判定を行う。この状態判定では、state=1ならば、網点と判定してステップS7へ、そうでなければ、ステップS8へ進む。
Next, halftone dot count is performed in step S5. The halftone dot pattern is the pattern shown in FIG. 21, where ● is a black pixel and ◯ is a non-black pixel. If it matches any one of these patterns, count is set to 0 and count_bk is set to -1.
Then, the process proceeds to step S6 to determine the state. In this state determination, if state = 1, it is determined as a halftone dot, and the process proceeds to step S7. Otherwise, the process proceeds to step S8.

ステップS7では細線判定を行い、注目画素の左右(12画素)に「白パターン」が両側に存在して且つcount_xが初期値であれば、細線と判断して、SS[I]=0とする。そして、ステップS9へ進む。
ステップS8では非網点画素処理を行い、state=0にして、非網点として結果を出力する。ステップS9では網点画素処理を行い、state=1にして、網点として結果を出力する。
In step S7, fine line determination is performed. If “white pattern” exists on both sides of the pixel of interest (12 pixels) on both sides and count_x is an initial value, it is determined as a thin line and SS [I] = 0 is set. . Then, the process proceeds to step S9.
In step S8, non-halftone pixel processing is performed, state = 0 is set, and the result is output as a non-halftone dot. In step S9, halftone pixel processing is performed, state = 1 is set, and the result is output as a halftone dot.

3.3 網点検出2
網点検出2も上述した網点検出1と同様な処理であるが、網点検出1では画像データを順方向に処理したのに対し、網点検出2では画像データを逆方向に処理する。それによって、網点検出1では網点の先端部が網点とならない部分を逆読みすることにより、網点となるようにしている。
3.3 Halftone detection 2
Halftone detection 2 is the same processing as halftone detection 1 described above, but halftone detection 1 processed image data in the forward direction, while halftone detection 2 processed image data in the reverse direction. Thus, in halftone dot detection 1, the halftone dot is converted to a halftone dot by reverse-reading the portion that does not become a halftone dot.

網点検出1,2を行うことにより、白パターンから白パターンの間に一定以上の網点パターンがあれば網点と検出する。
さらに網点パターンと網点パターンの間隔が広い時に非網点とすることにより、図22に示すような、黒グラデーションの濃い背景中の白抜き文字を非網点とすることができる。濃い背景は、網点形状ほとんどなく非網点となる。
さらに、図23に示すような、グラデーションの薄い背景中の濃い文字も網点形状ほとんどなく非網点となる。
By performing halftone dot detection 1 and 2, if there is a certain halftone dot pattern between the white pattern and the white pattern, a halftone dot is detected.
Further, by setting the non-halftone dot when the interval between the halftone dot pattern is wide, it is possible to make a non-halftone dot a white character in a dark background with a black gradation as shown in FIG. A dark background has almost no halftone dot shape and is a non-halftone dot.
Furthermore, as shown in FIG. 23, dark characters in a light gradation background are almost non-halftone dots with almost no halftone dot shape.

または、文字は一般的に白地上文字であるから、白地上文字は網点パターンが文字のエッジ近傍しかないので、誤検出することはほとんどない。
この実施例のパターンマッチングは、白と白以外で行ったが、Y成分、M成分、C成分を独立に行ってもよい。
Y、M、C成分に展開すれば、印刷のインクの成分はYMCなので、インクのドット再現を正確に抽出できるようになる。
Or, since the characters are generally white ground characters, the white ground characters are rarely erroneously detected because the halftone dot pattern is only near the edges of the characters.
The pattern matching in this embodiment is performed for white and other than white, but the Y component, M component, and C component may be performed independently.
If the Y, M, and C components are expanded, the ink ink component for printing is YMC, so that the ink dot reproduction can be accurately extracted.

3.4 グレー検出1
グレー検出1では、文字領域は濃く、文字周辺の領域は薄いことを利用して、文字領域の濃さより薄く、文字周辺の領域より濃いところを中濃度としてグレー判定を行う。そのグレー判定で使用する白地は、N値化の白画素である。
このグレー検出1の処理を、図24のフローチャートを用いて説明する。
この処理を開始すると、まずステップS11で前処理を行う。この前処理では、1画素前の処理結果であるMSと、1ライン前の処理結果であるSS[i]とを比較することにより、1ライン前の処理結果と1画素前の処理結果の多きい方の値を取得する。MSは後述するグレー検出してからの白画素の数である。
3.4 Gray detection 1
In the gray detection 1, using the fact that the character region is dark and the region around the character is thin, gray determination is performed by setting the portion darker than the character region and darker than the region around the character as medium density. The white background used in the gray determination is an N-valued white pixel.
The gray detection 1 process will be described with reference to the flowchart of FIG.
When this process is started, pre-processing is first performed in step S11. In this preprocessing, by comparing the MS that is the processing result of the previous pixel and the SS [i] that is the processing result of the previous line, the processing result of the previous line and the processing result of the previous pixel are many. Get the threshold value. MS is the number of white pixels after gray detection described later.

次に、ステップS12でグレーパターンか否かを判定する。この判定は、図25に示すグレーパターンとのマッチングを行い、中濃度がグレーパターンとマッチング(一致)すれば、MS=5、S[i]としてグレー画素(グレーパターン)とする。中濃度とは、N値化でDtah=0で且つ非白画素の時である。
グレーパターンと一致すればステップ17に、一致しなければステップS13に進む。
Next, in step S12, it is determined whether or not the pattern is a gray pattern. This determination is performed by matching with the gray pattern shown in FIG. 25, and if the medium density matches (matches) the gray pattern, MS = 5 and S [i] is set as a gray pixel (gray pattern). The medium density is when N-value conversion and Dtah = 0 and a non-white pixel.
If the pattern matches the gray pattern, the process proceeds to step 17; otherwise, the process proceeds to step S13.

ステップS13では白画素か否かを判定する。白画素とは、N値化の白画素のことであり、注目画素が白画素であればステップS15へ、白画素でなければステップS14へ進む。
ステップS14ではMS>0か否かを判断し、MS>0であればステップS17へ、MS>0でなければステップS18へ進む。
ステップS15でのMS>0か否かを判断し、MS>0であればステップS16へ、MS>0でなければステップS18へ進む。
ステップS16では、MS=MS−1にして、ステップS14へ進む。
S17ではグレー画素として結果を出力する。ステップS18では非グレー画素として結果を出力。
In step S13, it is determined whether or not the pixel is a white pixel. The white pixel is an N-valued white pixel. If the target pixel is a white pixel, the process proceeds to step S15. If not, the process proceeds to step S14.
In step S14, it is determined whether MS> 0. If MS> 0, the process proceeds to step S17, and if MS> 0, the process proceeds to step S18.
In step S15, it is determined whether MS> 0. If MS> 0, the process proceeds to step S16, and if MS> 0, the process proceeds to step S18.
In step S16, MS = MS-1 is set, and the process proceeds to step S14.
In S17, the result is output as a gray pixel. In step S18, the result is output as a non-gray pixel.

その後、ステップS10で次の後処理を行う。
・SS[I]の更新
色地か白地でかつ、MS>1であれば、SS[I]=MS−1を行う。
Bk画素でありかつ、MS>0であれば、SS[I]=MS−1を行う。
・bkカウント
bk画素の連続数をカウントして、連続数がthg_count1以上であれば、bk連続ありとする。
例えば、thg_countが12で、連続数がNの時は、bk連続ありは、N−thg_count+1回となる。
連続数ありの時は、MS=MS−1を行う。
Thereafter, the next post-processing is performed in step S10.
Update SS [I] If the color is white or MS> 1, then SS [I] = MS-1 is performed.
If it is a Bk pixel and MS> 0, SS [I] = MS−1 is performed.
Bk count When the number of consecutive bk pixels is counted and the number of consecutive is greater than or equal to thg_count1, it is determined that there is bk continuous.
For example, when thg_count is 12 and the number of continuations is N, bk continuation is N-thg_count + 1 times.
When there is a continuous number, MS = MS-1 is performed.

3.5 グレー検出2
グレー検出2の処理も上述したグレー検出1の処理と同様であるが、グレー検出1の処理は画像データを順方向で処理したのに対して、グレー検出2の処理では画像データを逆方向に処理する。逆方向処理することにより、グレー領域の先端がグレーにならなかった部分をグレーにする。
文字部は一般に濃いデータと薄い(白い)データで構成され、文字部にはない写真の特徴である中濃度の塊をグレーとして検出している。この周辺画素を白画素の数が一定値を超えるまでグレー画素とするので、濃い色であってもグレー画素となる。
しかし、グレー領域内で所定の数以上黒が連続しているならば、非グレー画素にするようにしている。ここでグレー画素となった結果をグレー領域とする。
これにより、黒が背景の白抜き文字を非グレー領域とすること可能になる。
3.5 Gray detection 2
The gray detection 2 process is the same as the gray detection 1 process described above, but the gray detection 1 process processed image data in the forward direction, whereas the gray detection 2 process processed image data in the reverse direction. Process. By processing in the reverse direction , the portion where the tip of the gray area did not turn gray is made gray.
The character portion is generally composed of dark data and light (white) data, and a medium-density block, which is a feature of a photograph that does not exist in the character portion, is detected as gray. Since this peripheral pixel is a gray pixel until the number of white pixels exceeds a certain value, even a dark color is a gray pixel.
However, if more than a predetermined number of blacks are continuous in the gray area, non-gray pixels are set. Here, the result of gray pixels is defined as a gray region.
As a result, it is possible to make white characters with a black background a non-gray area.

3.6 下地検出
適応二値化の処理でライン毎に閾値を切り換えると、濃度が薄い領域においても文字判定をする場合に、濃度が薄い領域すべてが文字の判定になれば問題はないが、閾値が、濃度が薄い領域の画像をまたがっていると、二値化部での結果において白黒の変化点が多くなり、最終画像においてファイルサイズが大きくなってしまう。
単純なグレー判定の領域の下限値(白側)を白寄りにすると、色地上の文字が文字判定できなくなるので、ここで下地を検出する。
下地に足して4×5のANDを行い、次に2×3のOR行う。これにより入力データに対して下地を小さくする。
このことにより、文字周辺の下地は文字と下地の境界部も下地となり、下地の領域を小さくするので、文字を下地に含みにくくなるため良好に下地を検出できる。図18にその概念図を示す。
3.6 Background detection When the threshold value is switched for each line in the adaptive binarization process, there is no problem if character determination is performed even in a low-density area if all low-density areas are determined as characters. If the threshold value extends over an image of a region with a low density, the number of black and white change points increases in the result of the binarization unit, and the file size increases in the final image.
If the lower limit (white side) of the simple gray determination area is set closer to white, characters on the color ground cannot be determined, so the background is detected here.
Add 4x5 AND to the ground, then 2x3 OR. This reduces the background for the input data.
Thus, the background around the character is also the boundary between the character and the background, and the background area is reduced, so that it is difficult to include the character in the background, so that the background can be detected satisfactorily. FIG. 18 shows a conceptual diagram thereof.

5.文字判定+文字なか判定
5.1 文字判定
文字領域(孤立点除去1の出力)であり、網点領域(網点検出1、2の出力)でなく、グレー領域(グレー検出1、2の出力)でなく、下地領域(下地検出の出力)でなく、文字なか(後述する文字なか判定結果)でなければ、文字とする。
文字領域を、下地領域、網点領域、およびグレー領域と論理演算を行うのは、文字判定結果が、本来解像度の必要ない写真領域を文字領域としているため、写真領域として補正をするためである。
特に、写真領域は孤立点を非常に多く含んでおり、この補正を行うことにより、文字画像の圧縮率が向上し、画像も文字非文字の混在が少なくなり画質向上も望める。
文字なか判定結果を文字判定結果から除外しているのは、黒文字を黒単色で出力するので、圧縮率を向上させるために文字画像を固定値にするためである。
5). Character determination + character determination 5.1 Character determination This is a character area (output of isolated point removal 1), not a halftone area (output of halftone detection 1, 2), but a gray area (output of gray detection 1, 2) ), Not a background area (background detection output), and if it is not a character (a character determination result to be described later), it is determined as a character.
The reason why the character area is logically calculated with the background area, the halftone dot area, and the gray area is that the character determination result is a photographic area that originally does not require resolution, and is corrected as a photographic area. .
In particular, the photographic region contains a large number of isolated points, and by performing this correction, the compression rate of the character image is improved, and the image and the character non-character mixture are reduced, so that the image quality can be improved.
The reason why the character determination result is excluded from the character determination result is that the black character is output in a single black color, so that the character image is fixed to improve the compression rate.

5.2 文字なか判定
文字なか判定処理は、図26に示すように、文字判定、3ラインOR、絵柄判定、黒判定、抽出1、抽出2、判定と、2回のミラーによってなされる。
(1.1)文字判定
前段の像域分離の出力結果である文字判定結果と色判定結果の論理演算をとり、文字であってかつ色でなければ、黒文字エッジとする。
5.2 Determining whether Character Is Character The character determination process is performed by two mirrors: character determination, three line OR, picture determination, black determination, extraction 1, extraction 2, and determination, as shown in FIG.
(1.1) Character Determination A logical operation is performed on the character determination result and the color determination result, which are the output results of the image area separation in the previous stage, and if it is a character and is not a color, a black character edge is determined.

(1.2)3ラインOR
文字判定の結果である黒文字エッジの3ライン×1画素のORをする。本来は、この3ラインORではなく、抽出1の後に2ライン遅延を行って抽出2とライン遅延をあわせる必要があるが、抽出部1の後でライン遅延をすると画像データを遅延する必要が出てくるため、ここで3ラインORすることにより、ライン遅延を吸収している。
(1.2) 3-line OR
OR the 3 lines × 1 pixel of the black character edge which is the result of character determination. Originally, instead of this three-line OR, it is necessary to perform a two-line delay after the extraction 1 to match the line delay with the extraction 2, but if a line delay is performed after the extraction unit 1, it is necessary to delay the image data. Therefore, the line delay is absorbed by ORing three lines here.

(1.3)絵柄判定
前段の像域分離の出力結果である色判定結果、グレー検出1の結果、グレー検出2の結果、網点検出1の結果、網点検出2の結果のどれか1つでもONならば、絵柄と判定する。
(1.4)黒判定
前段の像域分離の出力結果である色判定結果が、非色でかつN値化で黒(Bkまたは濃い黒)ならば黒とする。
(1.3) Picture Determination One of the color determination result, the gray detection 1 result, the gray detection 2 result, the halftone detection 1 result, and the halftone detection 2 result, which is the output result of the image area separation in the previous stage. If it is ON at any time, it is determined as a picture.
(1.4) Black determination If the color determination result, which is the output result of the image area separation in the previous stage, is non-colored and black (Bk or dark black) in N-value, it is determined as black.

(1.5).抽出1
文字なかを抽出する処理を図27のフローチャートによって説明する。
以下の説明は、3ラインORの出力を黒文字エッジ、絵柄判定の結果を絵柄、黒判定結果を黒として説明する。
図27の処理を開始すると、まずステップS21で注目画素判定を行う。黒文字エッジならば、文字なか領域とする。絵柄判定の結果が絵柄ならば絵柄領域とする。像域分離のアルゴリズム上、文字と絵柄がともにONになることはない。文字でも絵柄でもない場合(その他)はステップS22に進んで黒画素判定を行う。
(1.5). Extraction 1
The process of extracting characters will be described with reference to the flowchart of FIG.
In the following description, the output of the 3-line OR is described as a black character edge, the pattern determination result is a pattern, and the black determination result is black.
When the processing of FIG. 27 is started, the target pixel determination is first performed in step S21. If it is a black character edge, it is set as an area within a character. If the result of the pattern determination is a pattern, the pattern area is set. In the image area separation algorithm, neither the character nor the picture is turned on. If it is neither a character nor a picture (others), the process proceeds to step S22 and black pixel determination is performed.

注目画素が黒画素でなければ中間領域とする。黒画素であればステップS23で1ライン前の絵柄判定を行う。線分処理後の1ライン前の絵柄判定結果が絵柄であれば、絵柄領域とする。絵柄以外であれば、ステップS24で1画素前の絵柄判定を行う。
その結果、絵柄であれば絵柄領域とする。絵柄以外であれば、ステップS25で1ライン前の文字なか判定を行う。線分処理後の1ライン前の文字なか判定結果が文字なかであれば、文字なか領域とする。文字なか以外であれば1画素前の文字なか判定を行う。
1画素前の文字なか判定結果が文字なかであれば、文字なか領域とする。文字なか以外であれば中間領域とする。
最後に、ステップS27の線分処理を行う。ここでは、色判定結果が色でなく、かつ高濃度の画素が128画素以上連続していれば、絵柄領域として補正する。
If the target pixel is not a black pixel, the intermediate region is set. If it is a black pixel, the pattern determination of the previous line is performed in step S23. If the pattern determination result one line before the line segment processing is a pattern, the pattern area is set. If it is not a pattern, the pattern determination for the previous pixel is performed in step S24.
As a result, if it is a picture, it is set as a picture area. If it is not a picture, it is determined whether the character is one line before in step S25. If the determination result is not a character one line before the line segment processing, the character is a region. If it is not a character, it is determined whether the character is one pixel before.
If the determination result is a character one pixel before, the character is a region. If it is not a character, it is set as an intermediate area.
Finally, the line segment processing in step S27 is performed. Here, if the color determination result is not a color and if high-density pixels are 128 pixels or more, the pattern area is corrected.

(1.6)抽出2、ミラー
抽出2では、逆像(ミラー)画像で文字かな判定をする。逆像での処理をパイプライン処理で実現するために、抽出2の前後でミラーをしている。抽出2の処理内容は抽出1と同じなので説明は省略する。
(1.7)判定
抽出1と抽出2のミラーの出力の両方が文字なか領域で、かつ二値化部の出力が文字ならば黒文字とする。
(1.6) Extraction 2 and mirror In extraction 2, it is determined whether the character is a reverse image (mirror) image. In order to realize the reverse image processing by pipeline processing, mirroring is performed before and after the extraction 2. Since the processing content of extraction 2 is the same as that of extraction 1, description thereof is omitted.
(1.7) Judgment If both the extraction 1 and the output of the extraction 2 mirror are in a character region, and the output of the binarization unit is a character, the character is a black character.

このように、周辺画素の画像の状態を参照して文字なか判定をすることにより、大きな画像領域中の文字のなかを判定することができる。
文字エッジ領域と色領域は、読み取った画像で色や網点などを精度よく検出できる。文字なか検出の濃度情報に平滑化後のデータを用いると、網点構成された文字に対しては網点領域が少なく、文字エッジ領域になったりならなかったりする。そのため、網点情報ではなく、フィルタ処理後(文字エッジ領域でないので平滑化される)のデータを用いて、濃い部分のみを文字のなかとする。
In this way, it is possible to determine whether a character is in a large image area by referring to the state of the image of the surrounding pixels to determine whether the character is a character.
The character edge area and the color area can accurately detect colors and halftone dots in the read image. When smoothed data is used for density information for detection of characters, a halftone dot area is small for a halftone dot character and may not become a character edge area. For this reason, not the halftone dot information but the data after filtering (smoothed because it is not a character edge region), only the dark portion is made into a character.

新聞の写真のようにスクリーン線数の低い網点は、平滑しても網点形状が残るので、網点検出で検出する。カタログなどの一般的な原稿にあるスクリーン線数の高い網点は、平滑がかかり網点形状が無くなるので、網点面積率が30%から60%程度のものはグレー判定によってグレーと検出する。
特に、文字の先端部は幅が狭いので網点(非文字領域)となりにくく、例えば先端が文字エッジ領域で文字の中央部が網点と判定判定されると、文字なか判定が中途半端な結果になり、見苦しくなるを避けるためである。
A halftone dot with a low screen line number, such as a newspaper photograph, is detected by halftone dot detection because a halftone dot shape remains even if it is smoothed. A halftone dot having a high screen line number in a general document such as a catalog is smoothed and the halftone dot shape is lost, and a halftone dot area ratio of about 30% to 60% is detected as gray by gray determination.
In particular, since the leading edge of a character is narrow, it is difficult to form a halftone dot (non-character area). This is to avoid becoming unsightly and unsightly.

上述した図5に示した出力フォーマット変換部53の圧縮フォーマット生成部が、この発明による画像処理装置の特徴部分を構成する実施例である。しかし、この実施例を構成する全ての部分が必須ではなく、例えば第1の解像度変換部114と第2の解像度変換部115を省略してもよい。
また、二値化部11は、入力画像データの画像濃度の明暗に基いて文字領域と非文字領域を識別する二値データを出力するだけの手段であって、黒画像生成部113を省略してもよいし、さらに二値画像生成部も省略してもよい。
The above-described compression format generation unit of the output format conversion unit 53 shown in FIG. 5 is an embodiment constituting the characteristic part of the image processing apparatus according to the present invention. However, all the parts constituting this embodiment are not essential, and for example, the first resolution converter 114 and the second resolution converter 115 may be omitted.
The binarization unit 11 is a means for only outputting binary data for identifying a character area and a non-character area based on the lightness and darkness of the image density of the input image data, and omits the black image generation unit 113. Alternatively, the binary image generation unit may be omitted.

その場合は、文字画像生成部117が、二値化部111から出力される二値データに基づいて入力画像データの文字領域の画像データを判別し、その画像データを輝度と色差の量子化テーブルを用いてJPEG圧縮等で非可逆圧縮して文字画像ファイルを生成する。また、背景画像生成部116が、二値化部111から出力される二値データに基づいて入力画像データの背景領域の画像データを判別し、その画像データを輝度と色差の量子化テーブルを用いてJPEG圧縮等で非可逆圧縮して背景画像ファイルを生成する。
そして、その文字画像生成部117と背景画像生成部116によってそれぞれ生成された文字画像ファイルと背景画像ファイルを、画像ファイル合成部118が一つの画像ファイルに合成する。
この場合も、文字画像生成部117手段が使用する量子化テーブルと背景画像生成部116が使用する量子化テーブルとは、前述したように特性が異なる量子化テーブルである。
In that case, the character image generation unit 117 determines the image data of the character area of the input image data based on the binary data output from the binarization unit 111, and uses the image data to quantize the luminance and color difference. Is used to generate a character image file by irreversible compression such as JPEG compression. Further, the background image generation unit 116 determines the image data of the background area of the input image data based on the binary data output from the binarization unit 111, and uses the brightness and color difference quantization table for the image data. To generate a background image file by irreversible compression such as JPEG compression.
Then, the image file composition unit 118 combines the character image file and the background image file generated by the character image generation unit 117 and the background image generation unit 116, respectively, into one image file.
Also in this case, the quantization table used by the character image generation unit 117 and the quantization table used by the background image generation unit 116 are quantization tables having different characteristics as described above.

次に、図4における入力フォーマット変換部54の詳細を図6を用いて説明する。
この図6に示す入力フォーマット変換部54は、TIFフォーマット展開部201、JPEGフォーマット展開部202、圧縮フォーマット展開部203、および出力選択部204から成る。TIFフォーマット展開部201、JPEGフォーマット展開部202、および圧縮フォーマット展開部203は、それぞれ画像データを各フォーマットのビットマップに展開する機能を持ち、出力選択部204は3つのフォーマットの内一つを選択して出力すると同時にRGBデータをYMCBkにデータを変換する。
入力画像データがTIFFフォーマットであれば、TIFFフォーマット展開部201にてビットマップデータで展開する。入力画像データがJPEGフォーマットであれば、JPEGフォーマット展開部202にてビットマップデータに展開する。
さらに、入力画像データが圧縮フォーマットであれば圧縮フォーマット展開部203にてビットマップデータに展開する。
Next, details of the input format conversion unit 54 in FIG. 4 will be described with reference to FIG.
The input format conversion unit 54 shown in FIG. 6 includes a TIF format development unit 201, a JPEG format development unit 202, a compression format development unit 203, and an output selection unit 204. The TIF format developing unit 201, the JPEG format developing unit 202, and the compressed format developing unit 203 each have a function of developing image data into a bitmap of each format, and the output selecting unit 204 selects one of the three formats. At the same time, the RGB data is converted into YMCBk.
If the input image data is in the TIFF format, the TIFF format developing unit 201 develops it with bitmap data. If the input image data is in the JPEG format, the JPEG format developing unit 202 develops it into bitmap data.
Further, if the input image data is a compression format, the compression format expansion unit 203 expands it into bitmap data.

ここで、この発明の要部である圧縮フォーマット展開部203について説明する。
圧縮フォーマット展開部203は、画像ファイル展開部211、黒画像展開部212、二値画像展開部213、背景画像展開部214、文字画像展開部215、および画像ファイル合成部216からなる。
画像ファイル展開部211では、図5に示した圧縮フォーマット生成部105によって生成したファイル中の4つファイルの画像データを、後段の黒画像展開部212、二値画像展開部213、背景画像展開部214、文字画像展開部215にそれぞれ対応させて出力する。
Here, the compression format expansion unit 203 which is a main part of the present invention will be described.
The compression format expansion unit 203 includes an image file expansion unit 211, a black image expansion unit 212, a binary image expansion unit 213, a background image expansion unit 214, a character image expansion unit 215, and an image file composition unit 216.
The image file development unit 211 converts the image data of four files in the file generated by the compression format generation unit 105 shown in FIG. 5 into a black image development unit 212, a binary image development unit 213, and a background image development unit in the subsequent stage. 214 and the character image development unit 215 output the corresponding images.

二値画像展開部213では、二値画像のMMRを伸張してビットマップに、黒画像展開部212では、黒画像のMMRを伸張してビットマップに、背景画像展開部214では背景画像のJPEGをビットマップに、文字画像展開部215では文字画像のJPEGをビットマップに、それぞれ展開する。
展開した4つのビットマップデータは、画像ファイル合成部216で1枚のビットマップデータに合成される。この画像ファイル合成部216では、二値画像展開部213の出力が文字領域であれば、文字画像展開部215の出力である画像データを出力し、二値画像展開部213の出力が非文字領域であれば、背景画像展開部214の出力である画像データを出力する。
The binary image development unit 213 decompresses the MMR of the binary image into a bitmap, the black image development unit 212 decompresses the MMR of the black image into a bitmap, and the background image development unit 214 performs JPEG of the background image. Is expanded into a bitmap, and the character image expansion unit 215 expands the JPEG of the character image into a bitmap.
The developed four bitmap data are synthesized into one piece of bitmap data by the image file synthesis unit 216. In this image file composition unit 216, if the output of the binary image development unit 213 is a character region, the image data that is the output of the character image development unit 215 is output, and the output of the binary image development unit 213 is a non-character region. If so, the image data output from the background image development unit 214 is output.

さらに、黒画像展開部212の出力が黒文字であれば黒で出力する。このことにより1枚の画像を生成する。文字と非文字の解像度は2値画像の解像度となる。
出力選択部204は、この圧縮フォーマット展開部203の出力画像データと、TIFフォーマット展開部201及びJPEGフォーマット展開部202によって展開された画像データの内一つをを選択して、図4に示した圧縮伸張処理部52へ出力する。
図28に、入力画像とファイル画像と出力画像のイメージ図を示す。
Further, if the output of the black image development unit 212 is a black character, it is output in black. Thus, one image is generated. The resolution of characters and non-characters is the resolution of the binary image.
The output selection unit 204 selects the output image data from the compression format development unit 203 and one of the image data developed by the TIF format development unit 201 and the JPEG format development unit 202, as shown in FIG. The data is output to the compression / decompression processing unit 52.
FIG. 28 shows an image diagram of an input image, a file image, and an output image.

この発明は、前述する実施形態を実現するソフトウェア(プログラム)を記憶した記憶媒体を、画像処理システムを構成するコンピュータの記憶装置にインストールして、そのコンピュータにソフトウェアによって各機能を実行させるようにしてもよい。   According to the present invention, a storage medium storing software (program) for realizing the above-described embodiment is installed in a storage device of a computer constituting the image processing system, and the computer is caused to execute each function by software. Also good.

上述したこの本発明の実施形態によれば、文字画像と背景画像の画像特性は異なるので、文字画像と背景画像に対してそえぞれ異なる量子化テーブルを使用して量子化することにより、文字画像と背景画像にそれぞれ適した画像特性が得られ、効率のよい圧縮が可能になる。黒文字は二値として圧縮を行って、黒文字を1ビットにすることにより圧縮率が高くなる。
背景画像は、平端部のブロックノイズを減らすために背景画像の特性に合わせ、背景画像のDC成分(平均濃度)を保存するような量子化テーブルを使用することにより、画像の滑らかな部分のブロックノイズを軽減することが可能のなる。
文字画像は、色の混色を防ぐために文字画像の色差成分の特性に合わせ、文字画像の輝度成分より文字画像の色差成分の高周波部分を保存するような量子化テーブルを使用することにより、文字の混色を軽減することが可能のなる。
According to the above-described embodiment of the present invention, since the image characteristics of the character image and the background image are different from each other, the character image and the background image are quantized using different quantization tables. Image characteristics suitable for the image and the background image can be obtained, and efficient compression becomes possible. The black character is compressed as binary data, and the compression rate is increased by making the black character 1 bit.
The background image is a block of a smooth portion of the image by using a quantization table that stores the DC component (average density) of the background image in accordance with the characteristics of the background image to reduce block noise at the flat end. Noise can be reduced.
The character image is matched to the characteristics of the color difference component of the character image to prevent color mixing, and the quantization table that stores the high frequency part of the color difference component of the character image from the luminance component of the character image is used. It becomes possible to reduce color mixing.

文字画像は、色の混色を防ぐために、文字画像の色差成分の特性に合わせ、背景画像の色差成分より文字画像の色差成分の高周波部分を保存するような量子化テーブルを使用することにより、文字の混色を軽減することが可能となる。
文字画像と背景画像とでそれぞれ異なるJPEG圧縮の量子化テーブルを使用することにより、効率よく圧縮することが可能となる。
スキャナ配信装置や画像形成(複写)装置に適用が可能である。
パーソナルコンピュータを用いて、ソフトウエアによってこの発明による画像処理機能を実現するためのプログラムや、そのプログラムを記録したコンピュータ読み取り可能な記憶媒体を提供することもできる。
In order to prevent color mixing, the character image uses a quantization table that stores the high-frequency part of the color difference component of the character image from the color difference component of the background image in accordance with the characteristics of the color difference component of the character image. It is possible to reduce the color mixture.
By using different JPEG compression quantization tables for character images and background images, compression can be performed efficiently.
The present invention can be applied to scanner distribution apparatuses and image forming (copying) apparatuses.
A program for realizing the image processing function according to the present invention by software using a personal computer and a computer-readable storage medium storing the program can be provided.

この発明による画像処理装置は、文字と絵柄を含む画像データを文字の解像度を落とさずに高い圧縮率で圧縮することができるので、デジタル複合機やカラーデジタル複写機、スキャナ配信装置等の各種の画像形成装置や画像読取装置に利用することができる。
また、デスクトップパソコンやノートブックパソコン等のパーソナルコンピュータを用いてソフトウエアによって画像処理を行う場合にも適用することができる。
The image processing apparatus according to the present invention can compress image data including characters and pictures at a high compression rate without reducing the resolution of the characters. Therefore, the image processing apparatus can be used for various types of digital multifunction peripherals, color digital copying machines, scanner distribution apparatuses, and the like. It can be used for an image forming apparatus or an image reading apparatus.
The present invention can also be applied to the case where image processing is performed by software using a personal computer such as a desktop personal computer or a notebook personal computer.

この発明の一実施形態であるデジタル式のカラー画像処理装置の概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of a digital color image processing apparatus according to an embodiment of the present invention. 図1に示したカラー画像処理装置のスキャナ補正部2の内部構成を示すブロック図である。FIG. 2 is a block diagram illustrating an internal configuration of a scanner correction unit 2 of the color image processing apparatus illustrated in FIG. 1. 図1に示したカラー画像処理装置のプリンタ補正部8の内部構成を示すブロック図である。FIG. 2 is a block diagram illustrating an internal configuration of a printer correction unit 8 of the color image processing apparatus illustrated in FIG. 1. 図1に示したカラー画像処理装置のコントローラ5の内部構成を示すブロック図である。FIG. 2 is a block diagram illustrating an internal configuration of a controller 5 of the color image processing apparatus illustrated in FIG. 1. 図4に示したコントローラ5における出力フォーマット変換部53の内部構成を示すブロック図である。FIG. 5 is a block diagram showing an internal configuration of an output format conversion unit 53 in the controller 5 shown in FIG. 4. 図4における入力フォーマット変換部54の内部構成を示すブロック図である。FIG. 5 is a block diagram showing an internal configuration of an input format conversion unit 54 in FIG. 4.

JPEG圧縮部の機能的ブロック図である。It is a functional block diagram of a JPEG compression part. 図7におけるブロック化部301によって画像データをブロック単位で切り出す処理を説明する図である。It is a figure explaining the process which cuts out image data per block by the block forming part 301 in FIG. 図7における基準量子化テーブル306のQijの一例を示す図である。It is a figure which shows an example of Qij of the reference | standard quantization table 306 in FIG. DC成分を保存した基準量子化テーブルの一例を示す図である。It is a figure which shows an example of the reference | standard quantization table which preserve | saved DC component. qf=25の実際に使うDC成分を保存した量子化テーブルの図である。It is a figure of the quantization table which preserve | saved the DC component actually used of qf = 25. 色差成分を保存した基準量子化テーブルの一例を示す図である。It is a figure which shows an example of the reference | standard quantization table which preserve | saved the color difference component. qf=20の実際に使用する色差成分を保存した量子化テーブルの図であるIt is a figure of the quantization table which preserve | saved the color difference component actually used of qf = 20. 8×8の1つのブロックに複数の色(赤、青)が存在する画像の例を示す図である。It is a figure which shows the example of the image in which several color (red, blue) exists in one block of 8x8.

図5における二値化部111による処理の流れを示すフロー図であるIt is a flowchart which shows the flow of a process by the binarization part 111 in FIG. 図15における適応二値化の処理の説明図である。It is explanatory drawing of the process of adaptive binarization in FIG. 図15における孤立点除去1の処理に使用する各パターンを示す図である。It is a figure which shows each pattern used for the process of the isolated point removal 1 in FIG. 図15における下地検出のための下地領域とグレー領域と文字領域の関係を示す図である。FIG. 16 is a diagram illustrating a relationship among a background area, a gray area, and a character area for background detection in FIG. 15. 図15における網点検出1の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the halftone detection 1 in FIG. 白パターンの判定に使用する白画素のマッチングパターンを示す図である。It is a figure which shows the matching pattern of the white pixel used for determination of a white pattern. 網点判定に使用する網点のマッチングパターンを示す図である。It is a figure which shows the matching pattern of the halftone dot used for a halftone dot determination.

黒グラデーションの濃い背景中の白抜き文字の例を示す図である。It is a figure which shows the example of the outline character in a dark background of black gradation. グラデーションの薄い背景中の濃い文字の例を示す図である。It is a figure which shows the example of the dark character in the background with a light gradation. 図15におけるグレー検出1の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the gray detection 1 in FIG. 図24のステップS12でグレーパターンか否かを判定するためのマッチング用グレーパターンを示す図である。It is a figure which shows the gray pattern for a matching for determining whether it is a gray pattern by step S12 of FIG. 図15における文字なか判定を行う文字なか判定処理の詳細を示す図である。It is a figure which shows the detail of the character determination processing which performs character determination in FIG. 文字なかを抽出する処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process which extracts a character. この発明の画像処理装置による入力画像とファイル画像と出力画像のイメージ図である。It is an image figure of the input image by the image processing apparatus of this invention, a file image, and an output image.

図2における原稿種判定部24に用いる原稿種認識技術の一例を説明するための原稿種認識装置のブロック構成図である。FIG. 3 is a block configuration diagram of a document type recognition device for explaining an example of a document type recognition technique used in a document type determination unit 24 in FIG. 2. A3原稿を前半と後半の領域に分けて文字画素を計数する場合の説明図である。FIG. 10 is an explanatory diagram when a character pixel is counted by dividing an A3 document into first and second half regions. 図29における文字画素検出回路401の構成を示すブロック図である。It is a block diagram which shows the structure of the character pixel detection circuit 401 in FIG. 図31における黒画素パターンマッチング回路412で用いる連結パターンを示す図である。It is a figure which shows the connection pattern used with the black pixel pattern matching circuit 412 in FIG. 図31における白画素パターンマッチング回路413で用いる連結パターンを示す図である。It is a figure which shows the connection pattern used with the white pixel pattern matching circuit 413 in FIG. 印画紙写真を検出する中間調検出回路の構成を示すブロック図である。It is a block diagram showing a configuration of a halftone detection circuit for detecting a photographic paper photograph. 図34におけるパターンマッチング回路422で用いる7×3画素のパターンを示す図である。FIG. 35 is a diagram showing a 7 × 3 pixel pattern used in the pattern matching circuit 422 in FIG. 34. ピーク画素を検出するための3×3のブロックにおける各対角線の方向を示す図である。It is a figure which shows the direction of each diagonal in a 3x3 block for detecting a peak pixel.

符号の説明Explanation of symbols

1:スキャナ 2:スキャナ補正部2 3:圧縮処理部 4:汎用バス
5:コントローラ 6:ハードディスクドライブ(HDD) 7:伸張処理部
8:プリンタ補正部 9:プリンタ
10:ネットワーク・インタフェース・コントローラ(NIC)
11:パーソナルコンピュータ(PC)
21:像域分離部 22:スキャナγ部 23:フィルタ処理部
24:原稿種判別部
51:ページメモリ 52:圧縮伸張処理部 53:出力フォーマット変換部
54:入力フォーマット変換部 55:データI/F部55
81:色補正処理部 82:γ補正処理部 83:中間調処理部
84:エッジ量検出部
1: Scanner 2: Scanner correction unit 2 3: Compression processing unit 4: General-purpose bus
5: Controller 6: Hard disk drive (HDD) 7: Decompression processing unit 8: Printer correction unit 9: Printer
10: Network interface controller (NIC)
11: Personal computer (PC)
21: Image area separation unit 22: Scanner γ unit 23: Filter processing unit
24: Document type determination unit 51: Page memory 52: Compression / decompression processing unit 53: Output format conversion unit 54: Input format conversion unit 55: Data I / F unit 55
81: Color correction processing unit 82: γ correction processing unit 83: Halftone processing unit 84: Edge amount detection unit

101:色変換部 102:解像度変換部 103:TIFフォーマット生成部
104:JPEGフォーマット生成部 105圧縮フォーマット生成部
106:出力選択部 111:二値化部 112:二値画像生成部
113:黒画像生成部 114:第1の解像度変換部 115:第2の解像度変換部
116:背景画像生成部 117:文字画像生成部 118:画像ファイル合成部
201:TIFフォーマット展開部 202:JPEGフォーマット展開部
203:圧縮フォーマット展開部 204:出力選択部
211:画像ファイル展開部 212:黒画像展開部 213:二値画像展開部
214:背景画像展開部 215:文字画像展開部 216:画像ファイル合成部
300:JPEG圧縮部 301:ブロック化部 302:DCT部
303:量子化部 304:ハフマン符号化部 305:演算器
306:基準量子化テーブル 307:クオリティファクタ設定部
101: Color conversion unit 102: Resolution conversion unit 103: TIF format generation unit 104: JPEG format generation unit 105 Compression format generation unit 106: Output selection unit 111: Binarization unit 112: Binary image generation unit 113: Black image generation Unit 114: first resolution conversion unit 115: second resolution conversion unit 116: background image generation unit 117: character image generation unit 118: image file composition unit 201: TIF format development unit 202: JPEG format development unit 203: compression Format development unit 204: output selection unit 211: image file development unit 212: black image development unit 213: binary image development unit 214: background image development unit 215: character image development unit 216: image file composition unit 300: JPEG compression unit 301: Blocking unit 302: DCT unit 303: Quantizing unit 04: Huffman encoding section 305: arithmetic unit 306: standard quantization table 307: Quality factor setting unit

Claims (12)

入力画像データの画像濃度の明暗に基いて文字領域と非文字領域を識別する二値データを出力する二値化手段と、
該二値化手段から出力される二値データに基づいて前記入力画像データの文字領域の画像データを判別し、その画像データを輝度と色差の量子化テーブルを用いて非可逆圧縮して文字画像ファイルを生成する文字画像生成手段と、
前記二値化手段から出力される二値データに基づいて前記入力画像データの背景領域の画像データを判別し、その画像データを輝度と色差の量子化テーブルを用いて非可逆圧縮して背景画像ファイルを生成する背景画像生成手段とを備え、
前記文字画像生成手段が使用する量子化テーブルと前記背景画像生成手段が使用する量子化テーブルとは、特性が異なる量子化テーブルであることを特徴とする画像処理装置。
Binarization means for outputting binary data for identifying a character region and a non-character region based on lightness and darkness of image density of input image data;
Based on the binary data output from the binarization means, the image data of the character area of the input image data is discriminated, and the image data is irreversibly compressed using a quantization table of luminance and color difference to obtain a character image. Character image generation means for generating a file;
Based on the binary data output from the binarization means, image data in the background area of the input image data is determined, and the image data is irreversibly compressed using a quantization table of luminance and color difference to obtain a background image Background image generation means for generating a file,
An image processing apparatus, wherein the quantization table used by the character image generation unit and the quantization table used by the background image generation unit are quantization tables having different characteristics.
請求項1に記載の画像処理装置において、
前記文字画像生成手段及び前記背景画像生成手段によってそれぞれ生成された、文字画像ファイルと背景画像ファイルとを一つの画像ファイルに合成する画像ファイル合成手段を設けたことを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
An image processing apparatus comprising image file composition means for combining a character image file and a background image file generated by the character image generation means and the background image generation means, respectively, into one image file.
入力画像データの画像濃度の明暗に基いて文字領域と非文字領域を識別する二値データと黒文字データとを出力する二値化手段と、
該二値化手段からから出力される二値データを可逆圧縮して二値画像ファイルを生成する二値画像生成手段と、
前記二値化手段からから出力される黒文字データを可逆圧縮して黒画像ファイルを生成する黒画像生成手段と、
該二値化手段から出力される二値データに基づいて前記入力画像データの文字領域の画像データを判別し、その画像データを輝度と色差の量子化テーブルを用いて非可逆圧縮して文字画像ファイルを生成する文字画像生成手段と、
前記二値化手段から出力される二値データに基づいて前記入力画像データの背景領域の画像データを判別し、その画像データを輝度と色差の量子化テーブルを用いて非可逆圧縮して背景画像ファイルを生成する背景画像生成手段とを備え、
前記文字画像生成手段が使用する量子化テーブルと前記背景画像生成手段が使用する量子化テーブルとは、特性が異なる量子化テーブルであることを特徴とする画像処理装置。
Binarizing means for outputting binary data and black character data for identifying a character region and a non-character region based on lightness and darkness of image density of input image data;
Binary image generation means for reversibly compressing binary data output from the binarization means to generate a binary image file;
Black image generation means for generating a black image file by reversibly compressing black character data output from the binarization means;
Based on the binary data output from the binarization means, the image data of the character area of the input image data is discriminated, and the image data is irreversibly compressed using a quantization table of luminance and color difference to obtain a character image. Character image generation means for generating a file;
Based on the binary data output from the binarization means, image data in the background area of the input image data is determined, and the image data is irreversibly compressed using a quantization table of luminance and color difference to obtain a background image Background image generation means for generating a file,
An image processing apparatus, wherein the quantization table used by the character image generation unit and the quantization table used by the background image generation unit are quantization tables having different characteristics.
請求項3に記載の画像処理装置において、
前記二値画像生成手段及び前記黒画像生成手段は、何れもMMR圧縮を行う手段であることを特徴とする画像処理装置。
The image processing apparatus according to claim 3.
The binary image generating means and the black image generating means are both means for performing MMR compression.
請求項3又は4に記載の画像処理装置において、
前記黒画像生成手段と前記黒画像生成手段と前記文字画像生成手段と前記背景画像生成手段とによってそれぞれ生成された、二値画像ファイルと黒画像ファイルと文字画像ファイルと背景画像ファイルとを一つの画像ファイルに合成する画像ファイル合成手段を設けたことを特徴とする画像処理装置。
The image processing apparatus according to claim 3 or 4,
The binary image file, the black image file, the character image file, and the background image file generated by the black image generation unit, the black image generation unit, the character image generation unit, and the background image generation unit, respectively. An image processing apparatus comprising image file combining means for combining with an image file.
請求項1乃至4のいずれか一項に記載の画像処理装置において、
前記文字画像生成手段及び前記背景画像生成手段は、何れもJPEG圧縮を行う手段であることを特徴とする画像処理装置。
In the image processing device according to any one of claims 1 to 4,
The character processing unit and the background image generation unit are both units that perform JPEG compression.
請求項1乃至6のいずれか一項に記載の画像処理装置において、
前記文字画像生成手段は、前記二値化手段から出力される二値データに基づいて前記入力画像データの背景領域の画像データを一定の値の画像データに書き換える手段を有し、
前記背景画像生成手段は、前記二値化手段から出力される二値データに基づいて前記入力画像データの文字領域の画像データを白に相当する一定の値の画像データに書き換える手段を有することを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 6,
The character image generation means has means for rewriting image data of a background area of the input image data to image data of a constant value based on binary data output from the binarization means,
The background image generation means has means for rewriting image data of a character area of the input image data to image data of a constant value corresponding to white based on the binary data output from the binarization means. A featured image processing apparatus.
請求項1乃至7のいずれか一項に記載の画像処理装置において、
前記背景画像生成手段が使用する量子化テーブルは、前記文字画像生成手段が使用する量子化テーブルに比べてDC成分を多く保存する特性を有することを特徴とする画像処理装置。
In the image processing device according to any one of claims 1 to 7,
The image processing apparatus according to claim 1, wherein the quantization table used by the background image generation unit has a characteristic of storing more DC components than the quantization table used by the character image generation unit.
請求項1乃至8のいずれか一項に記載の画像処理装置において、
前記文字画像生成手段が使用する量子化テーブルのうち色差の量子化テーブルは、輝度の量子化テーブルに比べて高周波成分を多く保存する特性を有することを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 8,
The color difference quantization table of the quantization tables used by the character image generation means has a characteristic of storing more high-frequency components than the luminance quantization table.
請求項1乃至9のいずれか一項に記載の画像処理装置において、
前記文字画像生成手段が使用する量子化テーブルのうち色差の量子化テーブルは、前記背景画像生成手段が使用する色差の量子化テーブルに比べて高周波成分を保存する特性を有することを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 9,
Of the quantization tables used by the character image generation means, the color difference quantization table has a characteristic of storing high-frequency components as compared with the color difference quantization table used by the background image generation means. Processing equipment.
請求項1乃至10のいずれか一項に記載の画像処理装置において、
前記画像処理結果の画像データを外部機器へ送信する手段を有することを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 10,
An image processing apparatus comprising means for transmitting the image data of the image processing result to an external device.
請求項1乃至11のいずれか一項に記載の画像処理装置において、
前記画像処理結果の画像データに基いて作像し、その作像した画像を用紙上に形成して出力する画像出力手段を設けたことを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 11,
An image processing apparatus comprising: an image output unit configured to form an image based on the image data obtained as a result of the image processing, and to form and output the formed image on a sheet.
JP2007227229A 2007-09-01 2007-09-01 Image processing apparatus, image processing method, and program thereof Active JP4898601B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007227229A JP4898601B2 (en) 2007-09-01 2007-09-01 Image processing apparatus, image processing method, and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007227229A JP4898601B2 (en) 2007-09-01 2007-09-01 Image processing apparatus, image processing method, and program thereof

Publications (2)

Publication Number Publication Date
JP2009060474A true JP2009060474A (en) 2009-03-19
JP4898601B2 JP4898601B2 (en) 2012-03-21

Family

ID=40555778

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007227229A Active JP4898601B2 (en) 2007-09-01 2007-09-01 Image processing apparatus, image processing method, and program thereof

Country Status (1)

Country Link
JP (1) JP4898601B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102223464A (en) * 2010-04-15 2011-10-19 夏普株式会社 Image compressing apparatus, image outputting apparatus, and image compressing method
JP2013207777A (en) * 2012-03-29 2013-10-07 Kyocera Document Solutions Inc Image compression apparatus
US8582906B2 (en) 2010-03-03 2013-11-12 Aod Technology Marketing, Llc Image data compression and decompression
KR20200022496A (en) * 2017-07-05 2020-03-03 레드.컴, 엘엘씨 Video image data processing in electronic devices

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04293361A (en) * 1991-03-22 1992-10-16 Canon Inc Method and device for picture processing
JP2005259017A (en) * 2004-03-15 2005-09-22 Ricoh Co Ltd Image processing apparatus, image processing program and storage medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04293361A (en) * 1991-03-22 1992-10-16 Canon Inc Method and device for picture processing
JP2005259017A (en) * 2004-03-15 2005-09-22 Ricoh Co Ltd Image processing apparatus, image processing program and storage medium

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8582906B2 (en) 2010-03-03 2013-11-12 Aod Technology Marketing, Llc Image data compression and decompression
CN102223464A (en) * 2010-04-15 2011-10-19 夏普株式会社 Image compressing apparatus, image outputting apparatus, and image compressing method
JP2011228811A (en) * 2010-04-15 2011-11-10 Sharp Corp Image compression device, image output device, image reader, image compression method, computer program, and recording medium
US8792735B2 (en) 2010-04-15 2014-07-29 Sharp Kabushiki Kaisha Image compressing apparatus which extracts black text edge pixels from an image and compresses a layer with black text edge pixels extracted
JP2013207777A (en) * 2012-03-29 2013-10-07 Kyocera Document Solutions Inc Image compression apparatus
KR20200022496A (en) * 2017-07-05 2020-03-03 레드.컴, 엘엘씨 Video image data processing in electronic devices
KR102620350B1 (en) * 2017-07-05 2024-01-02 레드.컴, 엘엘씨 Video image data processing in electronic devices

Also Published As

Publication number Publication date
JP4898601B2 (en) 2012-03-21

Similar Documents

Publication Publication Date Title
JP5540553B2 (en) Image processing apparatus, image forming apparatus, image processing method, and image processing program
US8265401B2 (en) Image compressing apparatus, image compressing method, image decompressing apparatus, image decompressing method, image forming apparatus and recording medium
US7986837B2 (en) Image processing apparatus, image forming apparatus, image distributing apparatus, image processing method, computer program product, and recording medium
US8792735B2 (en) Image compressing apparatus which extracts black text edge pixels from an image and compresses a layer with black text edge pixels extracted
JP4861711B2 (en) Image processing apparatus, image compression method, image compression program, and recording medium
JP4707751B2 (en) Image compression method, image compression apparatus, image forming apparatus, computer program, and recording medium
US7903872B2 (en) Image-processing apparatus and method, computer program, and storage medium
JP4115460B2 (en) Image processing apparatus and method, and computer program and recording medium
JP4637054B2 (en) Image processing apparatus, control method therefor, computer program, and computer-readable storage medium
JP4898601B2 (en) Image processing apparatus, image processing method, and program thereof
JP4212876B2 (en) Image processing apparatus and image processing system
JP3929030B2 (en) Image processing device
JP2010074318A (en) Image processing apparatus and method, and image processing program
JP4515986B2 (en) Image processing apparatus and program
JP4963559B2 (en) Image processing apparatus, image forming apparatus, image processing method, and program for causing computer to execute the method
JP2007189275A (en) Image processor
JP4526577B2 (en) Image processing apparatus, image processing system, and image processing method
JP2007235430A (en) Image processor and processing method, image distribution device, image formation apparatus, program, and recording medium
JP4616199B2 (en) Image processing apparatus and program
JP2011019289A (en) Image processing apparatus and method of controlling the same
JP2006262334A (en) Image processing apparatus and scanner distribution apparatus
JP2015122618A (en) Information processing device, information processing method, and program
JP2001211336A (en) Apparatus and method for image processing, storage medium, and image processing system
JP2001211318A (en) Device and method for image processing, storage medium, and image processing system
JP2006245736A (en) Color image processing apparatus, and network scanner apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110621

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110818

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111220

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111226

R150 Certificate of patent or registration of utility model

Ref document number: 4898601

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150106

Year of fee payment: 3