JP2006148292A - Image processing apparatus - Google Patents

Image processing apparatus Download PDF

Info

Publication number
JP2006148292A
JP2006148292A JP2004332940A JP2004332940A JP2006148292A JP 2006148292 A JP2006148292 A JP 2006148292A JP 2004332940 A JP2004332940 A JP 2004332940A JP 2004332940 A JP2004332940 A JP 2004332940A JP 2006148292 A JP2006148292 A JP 2006148292A
Authority
JP
Japan
Prior art keywords
image
color
character
area
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004332940A
Other languages
Japanese (ja)
Other versions
JP4264051B2 (en
Inventor
Kiyoto Kosaka
清人 小坂
Nobuaki Usui
信昭 臼井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PFU Ltd
Original Assignee
PFU Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PFU Ltd filed Critical PFU Ltd
Priority to JP2004332940A priority Critical patent/JP4264051B2/en
Publication of JP2006148292A publication Critical patent/JP2006148292A/en
Application granted granted Critical
Publication of JP4264051B2 publication Critical patent/JP4264051B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus which separates correctly the image region of an image, such as characters, etc. in the input image in order to display the input image suitably. <P>SOLUTION: The image processing apparatus 100 includes a first reduction image creator 11 which creates the first reduction image about the input image for a predetermined modulus of reduction by first processing based on the feature of the image region of the character, a second reduction image creator 12 which creates the second reduction image about the input image having a predetermined modulus of reduction, and an image region decision unit 13 which judges whether it is the image region of characters about the input image, a design, and a background for the input image by extracting the image area of the character using the first reduction image, extracting the image area of the design using the second reduction image, and extracting the image area of the background using the first and second reduction images. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像処理装置に関し、特に、入力画像を適切に表示するために当該入力画像における文字等の画像の像域を正確に分離し、また、分離した文字を高精細に表示するために文字画像の画像データの最適化を行う画像処理装置に関する。   The present invention relates to an image processing apparatus, and more particularly to accurately separate an image area of an image such as a character in the input image in order to appropriately display the input image, and to display the separated character with high definition. The present invention relates to an image processing apparatus that optimizes image data of a character image.

コピー機やファクシミリ装置のような画像処理装置は、原稿を読み取った入力画像を綺麗に表示するための処理を行うことにより表示のための画像(表示画像)を生成して、この表示画像を表示する。当該処理としては、種々の処理が知られている。例えば、入力画像が文字を含む場合、各々の画素値を所定の閾値を用いてスライスすることにより、入力画像から二値化画像を生成してこれを表示する。又は、誤差拡散・ディザ処理等により、入力画像から擬似中間調画像を生成してこれを表示する。このような処理により、入力画像における背景を除去し、黒くはっきりとした文字を表示する。   An image processing apparatus such as a copying machine or a facsimile machine generates a display image (display image) by performing a process for clearly displaying an input image read from a document, and displays the display image. To do. Various processes are known as the process. For example, when the input image includes characters, a binary image is generated from the input image by slicing each pixel value using a predetermined threshold value and displayed. Alternatively, a pseudo halftone image is generated from the input image by error diffusion / dither processing and displayed. By such processing, the background in the input image is removed, and a clear black character is displayed.

なお、入力画像を縮小して解像度を下げた後に、網点の抽出結果に基づいて像域分離処理を行う技術が、提案されている(特許文献1参照)。また、RGBのサブピクセルからなるカラー表示器において文字を高精細に表示する技術が、提案されている(特許文献2参照)。
特開平11−234512号公報 特開2004−29598号公報
A technique has been proposed in which image area separation processing is performed based on a halftone dot extraction result after reducing the resolution by reducing the input image (see Patent Document 1). Further, a technique for displaying characters with high definition on a color display composed of RGB sub-pixels has been proposed (see Patent Document 2).
Japanese Patent Laid-Open No. 11-234512 JP 2004-29598 A

前述の種々の処理により得た画像を表示装置等でそのまま見ると、以下のような問題を生じることがある。例えば、前述の入力画像のスライスによる二値化画像を用いると、絵がうまく表現できない場合があり、また、文字のかすれ等が発生することがある。また、擬似中間調画像を用いると、表示装置への表示によるモアレの発生などにより、見にくくなることがある。また、入力画像が古書を読み取ったカラー画像である場合、背景が色焼けしているために背景が着色されてしまうことがある。また、入力画像が文字を含むカラー画像の場合、文字が鮮明でなく、画像が見にくくなることが極めて多い。   If an image obtained by the various processes described above is viewed as it is on a display device or the like, the following problems may occur. For example, if a binary image obtained by slicing the above-described input image is used, a picture may not be expressed well, and blurring of characters may occur. In addition, when a pseudo halftone image is used, it may be difficult to see due to generation of moire due to display on a display device. Further, when the input image is a color image obtained by reading an old book, the background may be colored because the background is discolored. In addition, when the input image is a color image including characters, the characters are not clear and the images are very difficult to see.

更に、前述の種々の処理は、コピー機やファクシミリ装置のような画像処理装置における処理である。即ち、入力画像の解像度が、高解像度(600dpi程度)であり、かつ、固定されている。厳密には、より高い解像度とされることはあっても、低い解像度とされることは無い。これに対して、スキャナのような画像処理装置においては、その解像度は、高解像度から低解像度(150dpi程度)までの種々の値を採る。このため、特に低解像度の場合には、前述の種々の処理をそのまま採用することはできない。   Further, the various processes described above are processes in an image processing apparatus such as a copying machine or a facsimile machine. That is, the resolution of the input image is high (about 600 dpi) and is fixed. Strictly speaking, it may be a higher resolution, but not a lower resolution. On the other hand, in an image processing apparatus such as a scanner, the resolution takes various values from high resolution to low resolution (about 150 dpi). For this reason, especially in the case of low resolution, the above-described various processes cannot be employed as they are.

即ち、前述の種々の処理においては、高解像度で読取した画像に対して像域分離を行い、それぞれの像域に対して適切な処理を行っている。しかし、コンピュータに大量の画像を取り込む場合、スキャナからコンピュータへのデータ転送速度や、コンピュータの記憶領域などにより、低解像度でかつ非可逆圧縮で読み取られる。このため、前述の種々の処理において、網点等がある場合、精度良く像域が分離できないために、また、非可逆圧縮による文字部のモスキートノイズやブロックノイズのために、画質が低下する。また、読取対象の原稿が年月を経過したもの(いわゆる古書)である場合、ゴミや色あせがひどく、スキャナで読み取った入力画像の画質が劣化する。これにより、当該画像を表示装置等で見た場合、人間にとって読み難いものになる。また、二値化画像等により、背景を白く文字を黒くすることは可能であるが、この場合、逆にコントラストが強すぎるため、長時間にわたって画像を読むことが困難になる。   That is, in the various processes described above, image area separation is performed on an image read at high resolution, and appropriate processing is performed on each image area. However, when a large amount of images are captured by a computer, the images are read with low resolution and irreversible compression depending on the data transfer speed from the scanner to the computer and the storage area of the computer. For this reason, in the various processes described above, when there are halftone dots or the like, the image area cannot be accurately separated, and the mosquito noise or block noise of the character part due to lossy compression deteriorates the image quality. In addition, when a document to be read is a document that has passed the years (so-called old books), dust and fading are severe, and the image quality of the input image read by the scanner deteriorates. As a result, when the image is viewed on a display device or the like, it becomes difficult for humans to read. In addition, it is possible to make the background white and the characters black by using a binarized image or the like. However, in this case, since the contrast is too strong, it is difficult to read the image for a long time.

本発明は、入力画像を適切に表示するために当該入力画像における文字等の画像の像域を正確に分離する画像処理装置を提供することを目的とする。   An object of the present invention is to provide an image processing apparatus that accurately separates an image area of an image such as a character in the input image in order to appropriately display the input image.

また、本発明は、分離した文字を高精細に表示するために画像データの最適化を行う画像処理装置を提供することを目的とする。   It is another object of the present invention to provide an image processing apparatus that optimizes image data in order to display separated characters with high definition.

本発明の画像処理装置は、入力画像の像域分離処理を行う画像処理装置であって、文字の像域の特徴に基づく第1の処理により、所定の縮小率を有する前記入力画像についての第1の縮小画像を作成する第1縮小画像作成部と、絵柄の像域の特徴に基づき前記第1の処理とは異なる第2の処理により、所定の縮小率を有する前記入力画像についての第2の縮小画像を作成する第2縮小画像作成部と、前記第1の縮小画像を用いて文字の像域を抽出し、前記第2の縮小画像を用いて絵柄の像域を抽出し、前記第1の縮小画像と第2の縮小画像とを用いて背景の像域を抽出することにより、前記入力画像について文字、絵柄、背景のいずれの像域であるかを判定する像域判定部とを備える。   An image processing apparatus according to the present invention is an image processing apparatus that performs an image area separation process on an input image, and performs a first process on the input image having a predetermined reduction ratio by a first process based on characteristics of an image area of a character. A first reduced image creating unit that creates one reduced image, and a second process that is different from the first process based on the characteristics of the image area of the pattern. A second reduced image creation unit that creates a reduced image of the character, an image area of a character is extracted using the first reduced image, an image area of a pattern is extracted using the second reduced image, and the second An image area determination unit that determines whether the input image is a character, a pattern, or a background by extracting a background image area using the reduced image of 1 and the second reduced image; Prepare.

また、本発明の画像処理装置は、文字を含む入力画像について少なくとも文字の像域についての高精細処理を行う画像処理装置であって、前記入力画像に含まれる文字をモノクロ画像の高精細文字に変換した後、前記モノクロ画像の高精細文字をカラー画像の高精細文字に変換する高精細文字処理部を備える。   The image processing apparatus of the present invention is an image processing apparatus that performs high-definition processing on at least a character image area for an input image including characters, and converts the characters included in the input image into high-definition characters of a monochrome image. After the conversion, a high-definition character processing unit is provided for converting the high-definition characters of the monochrome image into the high-definition characters of the color image.

本発明の画像処理装置によれば、第1及び第2の縮小画像を用いて文字、絵柄、背景のいずれの像域であるかを判定する。これにより、スキャナのような画像処理装置において、その解像度が高解像度から低解像度までの種々の値を採る場合でも、特に低解像度の場合でも、精度良く像域が分離できる。従って、正確に判別した像域毎に、色焼けを修正し、ノイズを除去し、平滑化し、色を復元等することができる。この結果、絵柄や文字を表示装置上に綺麗に表示することができる。また、入力画像が古書を読み取ったカラー画像である場合でも、色焼けしている背景を修正して見易くし、カラー画像における文字を鮮明に表示し、画像を見易くすることができる。   According to the image processing apparatus of the present invention, it is determined whether the image area is a character, a picture, or the background using the first and second reduced images. Thus, in an image processing apparatus such as a scanner, even when the resolution takes various values from high resolution to low resolution, the image area can be separated with high accuracy even when the resolution is particularly low. Therefore, color burn can be corrected, noise can be removed, smoothed, color can be restored, etc., for each image area that has been accurately determined. As a result, the design and characters can be displayed neatly on the display device. Further, even when the input image is a color image obtained by reading an old book, it is possible to correct the burnt background for easy viewing, display the characters in the color image clearly, and make the image easy to see.

また、本発明の画像処理装置によれば、入力画像に含まれる文字をモノクロ画像の高精細文字に変換した後、モノクロ画像の高精細文字をカラー画像の高精細文字に変換する。これにより、種々の理由による文字の像域の画質の低下を補うことができ、文字を表示装置上に綺麗に表示することができ、特に、カラー画像中の文字を表示装置上に綺麗に表示することができる。   Further, according to the image processing apparatus of the present invention, after converting characters included in the input image into high-definition characters of a monochrome image, the high-definition characters of the monochrome image are converted into high-definition characters of a color image. This makes it possible to compensate for the degradation of the image quality of the character image area due to various reasons, and to display the characters neatly on the display device. In particular, the characters in the color image are clearly displayed on the display device. can do.

図1は、画像処理装置構成図であり、本発明の画像処理装置の構成の一例を示す。画像処理装置100は、入力された画像データ(入力画像)を入力画像ファイル300に格納し、当該入力画像を表示装置500に綺麗に表示するために、これについて本発明に従って所定の画像処理を行うことにより、表示装置500に表示するための画像データ(表示画像)を生成して表示画像ファイル400に格納し、これを表示装置500に表示する。入力画像は、例えばスキャナ200等の画像読取装置200によって読み取られ、当該画像処理装置100に入力された画像データである。   FIG. 1 is a configuration diagram of an image processing apparatus, and shows an example of the configuration of the image processing apparatus of the present invention. The image processing apparatus 100 stores the input image data (input image) in the input image file 300 and performs predetermined image processing on the input image according to the present invention in order to display the input image neatly on the display device 500. As a result, image data (display image) to be displayed on the display device 500 is generated, stored in the display image file 400, and displayed on the display device 500. The input image is image data read by the image reading apparatus 200 such as the scanner 200 and input to the image processing apparatus 100.

画像処理装置100は、入力画像の像域分離処理を行う画像処理装置であって、本発明に従う画像処理を行うために、像域処理部1、色焼け処理部2、ノイズ除去部3、平滑化部4、色処理部5、文字色処理部6を備える。像域処理部1は、第1縮小画像作成部11、第2縮小画像作成部12、像域判定部13を備える。色焼け処理部2は、色焼け判定部21、色焼け除去部22を備える。色処理部5は、モノクロ/カラー判定部51、色除去部52、色復元部53を備える。文字色処理部6は、明度最適化部61、高精細文字処理部62を備える。   The image processing apparatus 100 is an image processing apparatus that performs image area separation processing of an input image. In order to perform image processing according to the present invention, an image area processing section 1, a color burn processing section 2, a noise removal section 3, and smoothing are performed. Unit 4, color processing unit 5, and character color processing unit 6. The image area processing unit 1 includes a first reduced image creating unit 11, a second reduced image creating unit 12, and an image area determining unit 13. The color burn processing unit 2 includes a color burn determination unit 21 and a color burn removal unit 22. The color processing unit 5 includes a monochrome / color determination unit 51, a color removal unit 52, and a color restoration unit 53. The character color processing unit 6 includes a brightness optimization unit 61 and a high-definition character processing unit 62.

像域処理部1は、入力画像ファイル300から読み出した入力画像について、その像域判定部13において、入力画像の像域分離処理を行う。具体的には、入力画像の網点の検出を行い、これに基づいて、入力画像の像域を絵柄、文字、背景のいずれかに分離する。ここで、網点は、ディザを含むものであり、印刷時における原稿上の色材定着領域を言う(以下同じ)。このために、像域処理部1は、第1縮小画像作成部11及び第2縮小画像作成部12を備え、各々において、像域分離を行うための2つの異なる縮小画像を作成する。2つの異なる縮小画像を用いる理由及び像域判定の原理は、以下の通りである。   The image area processing unit 1 performs an image area separation process on the input image in the image area determination unit 13 for the input image read from the input image file 300. Specifically, the halftone dots of the input image are detected, and based on this detection, the image area of the input image is separated into one of a picture, a character, and a background. Here, the halftone dot includes dither and refers to a color material fixing area on the original during printing (hereinafter the same). For this purpose, the image area processing unit 1 includes a first reduced image creating unit 11 and a second reduced image creating unit 12, and each creates two different reduced images for performing image area separation. The reason for using two different reduced images and the principle of image area determination are as follows.

一般に、多くの原稿において、通常の絵柄は「網点」と呼ばれるドットにより印刷されている。通常の絵柄とは、例えば図2における「風景写真」の領域(像域)Aである(又は、図8において黒く塗り潰される領域である)。網点の間隔は、通常、約100〜200線/インチであると考えて良い。そこで、本発明においては、縮小画像を作成する際に、当該縮小画像の解像度が入力画像における網点の間隔よりも小さい間隔となるように、入力画像の解像度(即ち、網点の間隔)に応じて縮小率を変える。網点の間隔よりも十分に小さい間隔(解像度)とは、網点が潰れる解像度、例えば25〜75dpiである。この例では、50dpiを用いる(以下同じ)。これにより、網点を検出することができる。   Generally, in many originals, a normal pattern is printed with dots called “halftone dots”. The normal picture is, for example, an area (image area) A of “landscape photograph” in FIG. 2 (or an area painted black in FIG. 8). The interval between the halftone dots can be considered to be generally about 100 to 200 lines / inch. Therefore, in the present invention, when creating a reduced image, the resolution of the input image (that is, the interval of halftone dots) is set so that the resolution of the reduced image is smaller than the interval of halftone dots in the input image. Change the reduction ratio accordingly. The interval (resolution) sufficiently smaller than the interval between the halftone dots is a resolution at which the halftone dots are crushed, for example, 25 to 75 dpi. In this example, 50 dpi is used (the same applies hereinafter). Thereby, a halftone dot can be detected.

最初に、第1縮小画像作成部11による第1の縮小画像の作成について説明する。第1縮小画像作成部11は、文字の像域の特徴に基づく第1の処理により、所定の縮小率を有する入力画像についての第1の縮小画像を作成する。第1の処理は、注目画素を当該注目画素の各々の画素値の平均値を有する画素で置きかえることにより、縮小画像を得る処理である。所定の縮小率は、前述のように、当該縮小画像の解像度が入力画像における網点の間隔よりも小さい間隔となるような縮小率である。   First, creation of a first reduced image by the first reduced image creating unit 11 will be described. The first reduced image creation unit 11 creates a first reduced image for an input image having a predetermined reduction rate by a first process based on the characteristics of the character image area. The first process is a process for obtaining a reduced image by replacing the target pixel with a pixel having an average value of the pixel values of the target pixel. As described above, the predetermined reduction rate is such a reduction rate that the resolution of the reduced image is smaller than the halftone dot interval in the input image.

第1縮小画像作成部11は、第1の縮小画像の作成のために、最初に、図3に示すように、注目画素(処理対象画素)の各々の画素の値(階調値)の平均値を算出する。例えば、入力画像(スキャナ200で読み取った画像)の解像度が600dpiの高解像度の場合、図3(A)に示すように、前述のように、縮小画像の解像度を50dpiとするためには、12個×12個の画素の階調値の平均値を求めれば良い。そして、当該平均値を持つ画素で、入力画像における当該12個×12個の画素を置きかえる(代表させる)。同様に、図3(B)に示すように、300dpiの中間解像度の場合、6個×6個の画素の階調値の平均値を求める。図3(C)に示すように、200dpiの低解像度の場合、4個×4個の画素の階調値の平均値を求める。図3(D)に示すように、150dpiの低解像度の場合、3個×3個の画素の階調値の平均値を求める。他の解像度の場合、ここに述べた解像度に近い演算を採用すれば良い。これにより、50dpiの縮小画像が求まる。   In order to create the first reduced image, the first reduced image creating unit 11 first calculates the average of the values (gradation values) of the respective pixels of the target pixel (processing target pixel) as shown in FIG. Calculate the value. For example, when the resolution of the input image (the image read by the scanner 200) is 600 dpi, as shown in FIG. 3A, in order to set the resolution of the reduced image to 50 dpi as described above, 12 What is necessary is just to obtain | require the average value of the gradation value of a pixel x 12 pixels. Then, the 12 × 12 pixels in the input image are replaced (represented) with the pixels having the average value. Similarly, as shown in FIG. 3B, in the case of an intermediate resolution of 300 dpi, an average value of gradation values of 6 × 6 pixels is obtained. As shown in FIG. 3C, in the case of a low resolution of 200 dpi, an average value of gradation values of 4 × 4 pixels is obtained. As shown in FIG. 3D, in the case of a low resolution of 150 dpi, an average value of gradation values of 3 × 3 pixels is obtained. In the case of other resolutions, an operation close to the resolution described here may be employed. Thereby, a reduced image of 50 dpi is obtained.

次に、求めた縮小画像において、注目画素とその周辺画素の各々との差分を求め、その最大値を選択し、当該選択した最大値(差分)が所定の値(閾値)よりも大きい場合、文字のエッジ成分を抽出したものと判断する。閾値は、画素値を例えば256階調で表す場合、20とされる。   Next, in the obtained reduced image, the difference between the target pixel and each of the surrounding pixels is obtained, the maximum value is selected, and when the selected maximum value (difference) is larger than a predetermined value (threshold), It is determined that the edge component of the character is extracted. The threshold value is set to 20 when the pixel value is expressed by, for example, 256 gradations.

前述のように縮小画像を作成すると(縮小後の解像度を選択すると)、網点は潰れるが、文字のエッジ成分は残る。そこで、周辺画素との差分が所定の値(20階調)以上あれば、文字のエッジ成分と考えることができる。一方、絵柄は元々エッジ成分が少ないので、前述のように縮小後の解像度を選択すると、当該エッジ成分は消えてしまう。なお、背景はエッジ成分を持たない。従って、縮小画像におけるエッジ成分の有無の相違を利用することにより、文字の像域とそれ以外の像域(絵柄の像域及び背景の像域)とを判別することができる。これにより、図2に示すように、種々の像域の混じった入力画像から、エッジ成分を強く含む網点又は像域(即ち、文字の像域)と、これ以外の網点又は像域(即ち、絵柄の像域と背景の像域)とを判別することができる。従って、第1の縮小画像を用いた文字の像域は、第1の縮小画像において、注目画素とその周辺画素の各々との差分の中の最大値を求め、当該最大値が所定の値よりも大きい場合に当該文字の像域を抽出したと判断することで抽出される。   When a reduced image is created as described above (when the reduced resolution is selected), the halftone dots are crushed but the character edge components remain. Therefore, if the difference from the surrounding pixels is a predetermined value (20 gradations) or more, it can be considered as an edge component of the character. On the other hand, since the pattern originally has few edge components, the edge component disappears when the reduced resolution is selected as described above. The background does not have an edge component. Therefore, by utilizing the difference in presence or absence of the edge component in the reduced image, it is possible to discriminate between the character image area and the other image areas (the image area and the background image area). As a result, as shown in FIG. 2, from an input image in which various image areas are mixed, a halftone dot or image area that strongly includes an edge component (that is, an image area of a character) and another halftone dot or image area ( That is, the image area of the pattern and the image area of the background can be discriminated. Accordingly, the image area of the character using the first reduced image is obtained by obtaining the maximum value in the difference between the pixel of interest and each of the surrounding pixels in the first reduced image, and the maximum value from the predetermined value. If it is larger, it is extracted by determining that the image area of the character has been extracted.

次に、第2縮小画像作成部12による第2の縮小画像の作成について説明する。第2縮小画像作成部12は、絵柄の像域の特徴に基づき前記第1の処理とは異なる第2の処理により、所定の縮小率を有する前記入力画像についての第2の縮小画像を作成する。所定の縮小率は、前述のように、当該縮小画像の解像度が入力画像における網点の間隔よりも小さい間隔となるような縮小率である。第2の処理は、注目画素を所定の処理により算出した当該注目画素の各々の画素値の最小値を有する画素で置きかえることにより、縮小画像を得る処理である。第2の処理においては、入力画像の解像度に応じた異なる処理により、当該注目画素の各々の画素値の最小値を算出する。   Next, creation of a second reduced image by the second reduced image creation unit 12 will be described. The second reduced image creating unit 12 creates a second reduced image for the input image having a predetermined reduction rate by a second process different from the first process based on the characteristics of the image area of the pattern. . As described above, the predetermined reduction rate is such a reduction rate that the resolution of the reduced image is smaller than the halftone dot interval in the input image. The second process is a process for obtaining a reduced image by replacing the pixel of interest with a pixel having the minimum pixel value of each pixel of interest calculated by a predetermined process. In the second processing, the minimum value of each pixel value of the target pixel is calculated by different processing according to the resolution of the input image.

第2縮小画像作成部12は、第2の縮小画像の作成のために、最初に、注目画素(処理対象画素)の各々の画素の値(階調値)の最小値MIN(「黒」色に相当する)を算出する。即ち、縮小画像の作成方法として、縮小する際に、注目画素の各々の画素の階調値の中の最小値MINを採ることにより、画像を最適に縮小する。この時、入力画像の解像度に応じて、前記最小値MINの算出方法を変更する。   The second reduced image creation unit 12 first creates a minimum value MIN (“black” color) of each pixel value (tone value) of the target pixel (processing target pixel) in order to create a second reduced image. Equivalent to). That is, as a method for creating a reduced image, the image is optimally reduced by taking the minimum value MIN among the gradation values of each pixel of the target pixel when reducing. At this time, the calculation method of the minimum value MIN is changed according to the resolution of the input image.

一般に、入力画像が高解像度である場合、当該画像における網点の例を図4(A)に示す。高解像度とは、網点が解像できる解像度を言い、例えば600dpiである。この場合、図4(A)に示すように、(図2の領域Aにおける)網点が綺麗に解像できる(読み取れる)ので、黒成分(網点成分)を抽出することができる。入力画像が低解像度である場合、当該画像における網点の例を図4(B)に示す。低解像度とは、網点が解像できない解像度を言い、例えば150dpiである。この場合、図4(B)に示すように、(図2の領域Aにおける)網点が解像できない(読み取れない)ので、網点線分の抽出にばらつきが発生する。   In general, when an input image has a high resolution, an example of halftone dots in the image is shown in FIG. High resolution means a resolution at which a halftone dot can be resolved, and is, for example, 600 dpi. In this case, as shown in FIG. 4A, since the halftone dots (in the region A in FIG. 2) can be clearly resolved (read), black components (halftone components) can be extracted. When the input image has a low resolution, an example of halftone dots in the image is shown in FIG. Low resolution refers to a resolution at which halftone dots cannot be resolved, and is, for example, 150 dpi. In this case, as shown in FIG. 4B, since the halftone dots (in the area A in FIG. 2) cannot be resolved (cannot be read), variations occur in the extraction of the halftone line segments.

以上から、入力画像が高解像度である場合、図5(A)に示すように、注目画素群からその最小値MINを採ればよい。即ち、例えば4×4=16個の注目画素(の値)d11〜d44の中で最も値の小さい画素を選択し、その値を最小値MINとし、当該画素s11で16個の注目画素d11〜d44を置き換える。即ち、注目画素d11〜d44を画素s11で代表させることにより、画像を縮小する。これにより、高解像度の網点成分(黒成分)を抽出している。   From the above, when the input image has a high resolution, the minimum value MIN may be taken from the target pixel group as shown in FIG. That is, for example, a pixel having the smallest value is selected from 4 × 4 = 16 target pixels (values) d11 to d44, the value is set to the minimum value MIN, and the 16 target pixels d11 to d11 are selected by the pixel s11. Replace d44. That is, the image is reduced by representing the pixels of interest d11 to d44 with the pixel s11. Thereby, a high resolution halftone dot component (black component) is extracted.

一方、入力画像が低解像度である場合、図5(B)に示すように、4×4=16個の注目画素群について、所定の演算を行うことにより、例えば2×2の領域に対して黒成分の抽出を行う。即ち、16個の中の4個の注目画素d11、d12、d21、d22を用いて、図5(B)に示す演算により、仮の黒成分t11=255−((255−d11)+(255−d12)+(255−d21)+(255−d22))を算出する。同様に、他の黒成分t12、t21、t22を算出する。これらの抽出された4個の仮の黒成分の中で最も値の小さい画素を選択し、その値を最小値MINとし、当該画素s11で16個の注目画素d11〜d44を置き換え、画像を縮小する。これにより、網点によるばらつきを押さえつつ、低解像度の網点成分(黒成分)を抽出している。   On the other hand, when the input image has a low resolution, as shown in FIG. 5B, for example, a 2 × 2 region is obtained by performing a predetermined calculation on 4 × 4 = 16 target pixel groups. Extract black component. That is, by using the four target pixels d11, d12, d21, and d22 among the 16 pixels, the temporary black component t11 = 255 − ((255−d11) + (255) by the calculation shown in FIG. -D12) + (255-d21) + (255-d22)). Similarly, other black components t12, t21, and t22 are calculated. The pixel with the smallest value is selected from these four extracted temporary black components, the value is set to the minimum value MIN, and the 16 pixels of interest d11 to d44 are replaced with the pixel s11 to reduce the image. To do. Thus, a low resolution halftone dot component (black component) is extracted while suppressing variation due to halftone dots.

例えば、入力画像の解像度が600dpiの高解像度の場合、図6(A)に示すように、 縮小画像の解像度を50dpiとするために、12個×12個の画素の中から当該階調値の最も小さい値、即ち最小値MINを図5(A)に示す方法により求める。最小値MINは、例えば256階調で20〜30程度である。そして、当該最小値MINを持つ画素で、入力画像における当該12個×12個の画素を置きかえる。同様に、図6(B)に示すように、300dpiの中間解像度の場合、6個×6個の画素の中から最小値MINを図5(B)に示す方法により求める。図6(C)に示す200dpiの低解像度の場合及び図6(D)に示す150dpiの低解像度の場合、各々、4個×4個の画素及び3個×3個の画素の中から最小値MINを図5(B)に示す方法により求める。他の解像度の場合、ここに述べた解像度に近い演算を採用すれば良い。これにより、50dpiの縮小画像が求まる。   For example, when the resolution of the input image is 600 dpi, as shown in FIG. 6A, in order to set the resolution of the reduced image to 50 dpi, the gradation value is selected from 12 × 12 pixels. The smallest value, that is, the minimum value MIN is obtained by the method shown in FIG. The minimum value MIN is, for example, about 20 to 30 with 256 gradations. Then, the 12 × 12 pixels in the input image are replaced with the pixel having the minimum value MIN. Similarly, as shown in FIG. 6B, in the case of an intermediate resolution of 300 dpi, the minimum value MIN is obtained from 6 × 6 pixels by the method shown in FIG. In the case of the low resolution of 200 dpi shown in FIG. 6C and the low resolution of 150 dpi shown in FIG. 6D, the minimum value is selected from 4 × 4 pixels and 3 × 3 pixels, respectively. The MIN is obtained by the method shown in FIG. In the case of other resolutions, an operation close to the resolution described here may be employed. Thereby, a reduced image of 50 dpi is obtained.

次に、求めた縮小画像に対して、図7に示すように、ヒストグラムを作成する。このヒストグラムを利用して分散等による閾値Tを決定し、この閾値Tを用いて縮小画像の2値化を行う。閾値Tは、例えば図7に示す演算により算出する。これにより、入力画像において、網点又は絵柄の像域に関しては、ある面積の黒領域が発生する。   Next, a histogram is created for the obtained reduced image as shown in FIG. Using this histogram, a threshold value T based on variance or the like is determined, and the reduced image is binarized using this threshold value T. The threshold T is calculated by, for example, the calculation shown in FIG. As a result, a black area having a certain area is generated in the input image with respect to the halftone dot or the image area of the pattern.

この場合、更に、以下のようにして、網点と文字とを区別する。例えば、12ポイントの文字の大きさは4×4mm程度であり、一方、文字には隙間が発生し黒と白の成分ができる。これらのことを考慮すると、10×10ドット(5mm×5mm)の大きさ領域で黒成分が占める割合が高い場合、当該領域は、文字ではなく、網点又は絵柄であると判断することができる。   In this case, the halftone dots and characters are further distinguished as follows. For example, the size of a 12-point character is about 4 × 4 mm, and on the other hand, a gap is generated in the character and black and white components are formed. Considering these, when the proportion of the black component in a region of 10 × 10 dots (5 mm × 5 mm) is high, it can be determined that the region is not a character but a dot or a picture. .

一般に、絵柄の黒成分は文字の黒成分よりも多く、前述のように縮小後の解像度を選択すると、文字の黒成分は消えてしまう。一方、絵柄については、低解像度においても隣接画素から黒成分を取得するので、黒成分が残る。なお、背景はエッジ成分を持たない。従って、縮小画像における黒成分(黒画素)の割合の相違を利用することにより、黒成分の多く存在する絵柄の像域と、これ以外の像域(即ち、文字の像域と背景の像域)とを判別することができる。そこで、当該縮小画像において、10×10=100個の画素の中に例えば98個以上の黒成分(黒画素)が存在する場合、絵柄の黒成分を抽出したものと判断する。これにより、図8に示すように、種々の像域の混じった入力画像から、黒成分の多く存在する像域(即ち、絵柄の像域)と、これ以外の像域(即ち、文字の像域と背景の像域)とを判別することができる。従って、第2の縮小画像を用いた絵柄の像域は、第2の縮小画像に基づいて作成したヒストグラムから定まる値により当該第2の縮小画像を2値化し、当該2値化画像における黒画素の割合が所定の値よりも大きい場合に当該絵柄の像域を抽出したと判断することで抽出される。   In general, the black component of the pattern is larger than the black component of the character, and the black component of the character disappears when the reduced resolution is selected as described above. On the other hand, for the picture, the black component remains because the black component is acquired from the adjacent pixel even at low resolution. The background does not have an edge component. Accordingly, by utilizing the difference in the ratio of the black component (black pixel) in the reduced image, the image area of the picture having a large amount of black component and the other image area (that is, the character image area and the background image area). ). Therefore, if there are, for example, 98 or more black components (black pixels) in 10 × 10 = 100 pixels in the reduced image, it is determined that the black component of the pattern has been extracted. As a result, as shown in FIG. 8, from an input image in which various image areas are mixed, an image area in which many black components exist (that is, an image area of a pattern) and an image area other than this (that is, an image of a character). Area and background image area). Therefore, the image area of the pattern using the second reduced image is binarized from the second reduced image by a value determined from the histogram created based on the second reduced image, and the black pixel in the binarized image is obtained. When the ratio is larger than a predetermined value, it is extracted by determining that the image area of the pattern is extracted.

以上のように、図8及び図2に示す2個の縮小画像を比較することによって、絵柄、文字、背景の像域を判別することができる。従って、像域判定部13は、入力画像の解像度に応じた縮小率によって縮小画像を得て、第1の縮小画像を用いて文字の像域を抽出し、第2の縮小画像を用いて絵柄の像域を抽出し、第1の縮小画像と第2の縮小画像とを用いて背景の像域を抽出することにより、入力画像について文字、絵柄、背景のいずれの像域であるかを判定する。また、2つの縮小画像を作ることで、入力画像が低解像度である場合においても、高精度な像域分離を可能とし、その後に行う精度向上を図ることができる。更に、絵柄中の文字の像域を抽出し、その像域に応じて最適な処理を行うことで、画像の文字を読みやすくすることができる。なお、縮小画像を得る方法としては、例えば周知の縮小であるバイリニア/バイキュービック等の方法によっても良い。   As described above, by comparing the two reduced images shown in FIGS. 8 and 2, the image area of the pattern, characters, and background can be determined. Therefore, the image area determination unit 13 obtains a reduced image with a reduction ratio corresponding to the resolution of the input image, extracts the image area of the character using the first reduced image, and uses the second reduced image to design the picture. The image area is extracted, and the background image area is extracted using the first reduced image and the second reduced image, thereby determining whether the input image is a character, a picture, or the background image area. To do. In addition, by creating two reduced images, even when the input image has a low resolution, it is possible to perform high-accuracy image area separation, and to improve accuracy thereafter. Furthermore, by extracting the image area of the character in the pattern and performing the optimum processing according to the image area, it is possible to make the character of the image easy to read. As a method for obtaining a reduced image, for example, a well-known reduction method such as bilinear / bicubic may be used.

色焼け判定部21は、色焼けの有無を判定する。即ち、像域処理部1において、背景像域であると判定された領域について、色焼け画像であるか否かを判定する。一般に、色焼けした原稿においては、図9(A)に示すように、背景の赤成分R ̄が強く、青成分B ̄が弱いという特徴がある。図9(A)は背景の像域のヒストグラムである。また、R ̄<G ̄<B ̄の傾向が強ければ、色むらの傾向が強いという特徴がある。そこで、前述の像域判定により背景と判別された像域において、相互に対応する位置の画素値がR>(G+10)>(B+20)を満たす画素が、背景の像域における全画素数に対して割合が高い場合、色焼け原稿であると判定する。なお、例えばRは当該画素の赤成分の値(階調値)であり、また、R ̄は当該像域(背景の像域)における各々の画素の赤成分の平均値(階調値)である(他も同じ)。更に、後述する色復元部53において用いられる色褪せ値KはK=R−Bにより求まる。   The color burn determination unit 21 determines the presence or absence of color burn. That is, the image area processing unit 1 determines whether or not the area determined to be the background image area is a color burn image. In general, as shown in FIG. 9A, a color-burned document has a feature that the red component R 赤 of the background is strong and the blue component B ̄ is weak. FIG. 9A is a histogram of the background image area. Further, if the tendency of R ̄ <G ̄ <B ̄ is strong, the tendency of uneven color is strong. Therefore, in the image area determined as the background by the above-described image area determination, pixels satisfying R> (G + 10)> (B + 20) at positions corresponding to each other are compared with the total number of pixels in the background image area. If the ratio is high, it is determined that the document is a color burned document. For example, R is the red component value (gradation value) of the pixel, and R ̄ is the average value (gradation value) of the red component of each pixel in the image area (background image area). Yes (the same is true for others). Furthermore, the color fading value K used in the color restoration unit 53 described later is obtained by K = R−B.

色焼け除去部22は、例えば色焼け判定部21において色焼け画像であると判定された(入力画像における)背景像域である領域から、色焼けを除去する。色焼け除去部22は、色焼け原稿であると判定された場合、図 9(B)に示すように、各々の画素におけるRGBの値を合わせる(RGBのヒストグラムが重なるようにする)。即ち、色焼け除去部22は、前記判別された背景の像域の画素に対して、図9(A)に示すように、RGB成分毎にヒストグラムを作成する。このヒストグラムの平均値または分散値から算出される値を、白(画素の階調値で(256階調における)255)とする。即ち、Rを基準として、G及びBのトーンカーブを変更する。これにより、図9(B)に示すように、色焼けを除去する。   For example, the color burn removing unit 22 removes color burn from an area that is a background image area (in the input image) that is determined to be a color burn image by the color burn determining unit 21. When it is determined that the document is a color-burned original, the color-burn removal unit 22 matches the RGB values in each pixel as shown in FIG. 9B (makes the RGB histograms overlap). That is, the color burn removal unit 22 creates a histogram for each RGB component as shown in FIG. 9A for the pixels in the determined background image area. The value calculated from the average value or the variance value of this histogram is white (255 in pixel gradation values (in 256 gradations)). That is, G and B tone curves are changed with R as a reference. Thereby, as shown in FIG. 9B, the color burn is removed.

従って、本発明によれば、正確に判別された背景の像域が色焼け(色褪せ)をしているかどうか判断し、色焼けしている場合、背景から不要な色を除去することができる。これにより、例えば入力原稿が古書である場合、分離した背景の像域に注目して、古書特有の色焼けを判定することで、後述するように、背景のノイズを除去し、また、その他の部分のコントラストを高め、画像を見えやすくすることができる。   Therefore, according to the present invention, it is determined whether or not the image area of the background that has been accurately discriminated is faded (color fading). If the image area is burnt, unnecessary colors can be removed from the background. Thus, for example, when the input document is an old book, the background image is removed by determining the color burn specific to the old book by paying attention to the separated background image area, and other parts as described later. The contrast of the image can be increased to make the image easier to see.

ノイズ除去部3は、入力画像からノイズを除去する。一般に、色焼けした原稿においては、年月の経過による劣化やゴミの付着等により、入力装置より得られた画像に劣化が見られる。そのため、ゴミの除去を行う必要がある。ノイズ除去部3は、図10に示すように、像域処理部1で作成した縮小画像を、更に2値化する。この時、図10の左側のように読み取られたゴミは、縮小画像を2値化すると、通常、周囲に連続する領域を持たないので、当該画像内において孤立点となる。そこで、この孤立点を除去することにより、大きなノイズ成分を除去する。ノイズ除去部3で除去可能であるゴミは、50dpiの解像度における1ドット、つまり約0.5mmより小さいゴミである。前述したとおり、12ポイントの文字の大きさが約4mmであるので、文字等を消去してしまうことは無い。   The noise removing unit 3 removes noise from the input image. In general, in a color-burned document, deterioration of an image obtained from an input device is observed due to deterioration due to the passage of time, adhesion of dust, or the like. Therefore, it is necessary to remove dust. As shown in FIG. 10, the noise removing unit 3 further binarizes the reduced image created by the image area processing unit 1. At this time, when the reduced image is binarized, the dust read as shown on the left side of FIG. 10 normally does not have a continuous area around it, and thus becomes an isolated point in the image. Therefore, a large noise component is removed by removing this isolated point. The dust that can be removed by the noise removing unit 3 is one dot at a resolution of 50 dpi, that is, dust that is smaller than about 0.5 mm. As described above, since the size of the 12-point character is about 4 mm, the character is not erased.

平滑化部4は、像域毎に画像(入力画像)を平滑化する。即ち、入力画像において文字、絵柄、背景の像域であると判定された領域の各々について、相互に異なるフィルタにより平滑化を行う。このために、平滑化部4は、例えば像域毎に用意される。即ち、前述のように分離された像域毎に、その平滑化に最適なフィルタを用意する(最適な平滑化部4を用意する)。これにより、像域毎に最適なノイズ成分の除去処理を行う。   The smoothing unit 4 smoothes the image (input image) for each image area. That is, smoothing is performed by different filters for each of the regions determined to be the character, pattern, and background image regions in the input image. For this purpose, the smoothing unit 4 is prepared for each image area, for example. That is, an optimum filter for smoothing is prepared for each image area separated as described above (an optimum smoothing unit 4 is prepared). Thus, the optimum noise component removal processing is performed for each image area.

一般に、背景の像域においては、非可逆圧縮によるブロックノイズ、小さいゴミ/傷等がある可能性がある。絵柄の像域においては、網点と入力装置の特性とにより、モアレや解像のバラツキがある可能性がある。また、文字の像域においては、エッジ成分が強いため、非可逆圧縮によるモスキートノイズが発生している可能性がある。   In general, in the background image area, there may be block noise due to lossy compression, small dust / scratches, and the like. In the image area of the pattern, there may be variations in moire and resolution depending on the halftone dots and the characteristics of the input device. In addition, since the edge component is strong in the character image area, mosquito noise due to irreversible compression may occur.

背景の像域においては、基本的には、図11(A)に示すように、平滑化フィルタを弱めにし、ノイズ成分の除去を行う。即ち、殆どぼかしの無いフィルタを用いる。一方、背景の像域のブロックノイズについて見ると、非可逆圧縮により8×8の領域(周知のJPEGのDCTのブロック)の境でノイズが発生する。そこで、図11(B)に示すように、当該8×8の領域の境においては、平滑化フィルタを強くして、ノイズ成分を除去する。即ち、やや強くぼかしたフィルタを用いる。   In the background image area, basically, as shown in FIG. 11A, the smoothing filter is weakened to remove the noise component. That is, a filter with almost no blur is used. On the other hand, looking at block noise in the background image area, noise is generated at the boundary of an 8 × 8 area (a well-known JPEG DCT block) due to lossy compression. Therefore, as shown in FIG. 11B, the smoothing filter is strengthened to remove the noise component at the boundary of the 8 × 8 region. In other words, a slightly strongly blurred filter is used.

絵柄の像域においては、網点のモアレや解像のバラツキを除去するために、図11(C)に示すように、平滑化フィルタを最も強くして、ノイズ成分(網点)を除去する。即ち、強くぼかしたフィルタを用いる。   In the image area of the pattern, in order to remove halftone moiré and resolution variations, the smoothing filter is strengthened to remove noise components (halftone dots) as shown in FIG. 11C. . That is, a strongly blurred filter is used.

文字の像域においては、非可逆圧縮によるモスキートノイズについて見ると、図12(A)に示すように、8×8の領域でエッジ成分が強いほど大きい。そこで、注目画素と周辺画素の差分を取り、その差分がある閾値に対して小さい場合の画素との平滑化を行う。具体的には、図12(B)に示すように、特殊なフィルタを用いて、ノイズ成分を除去する。即ち、8×8の領域でエッジ成分が大きいほど、閾値を大きくする。これにより、文字成分は文字成分で平滑化を行い、その他の部分はその他の部分で、各々、平滑化を行うことでノイズ成分を除去することができる。   In the character image area, mosquito noise due to lossy compression is larger as the edge component is stronger in the 8 × 8 area as shown in FIG. Therefore, the difference between the target pixel and the surrounding pixels is taken, and smoothing is performed with the pixel when the difference is smaller than a certain threshold value. Specifically, as shown in FIG. 12B, a noise component is removed using a special filter. That is, the threshold value is increased as the edge component increases in the 8 × 8 region. As a result, the character component is smoothed by the character component, and the other portions are the other portions, and the noise components can be removed by performing smoothing, respectively.

ここで、像域毎の平滑化フィルタの強さのばらつきによっては、像域の境にエッジ成分(階調値の段差)ができてしまう場合がある。そこで、像域の境においては、図12(C)に示すように、像域と像域の中間の平滑化フィルタを使用する。図12(C)のフィルタは、例えば絵柄の像域と背景の像域との境において用いられる中間平滑化フィルタを示す。これにより、エッジ成分が目立つことを防止するようにしても良い。   Here, depending on variations in the strength of the smoothing filter for each image area, an edge component (step of gradation value) may be formed at the boundary of the image area. Therefore, as shown in FIG. 12C, a smoothing filter intermediate between the image area and the image area is used at the boundary of the image area. The filter shown in FIG. 12C is an intermediate smoothing filter used at the boundary between, for example, a pattern image area and a background image area. This may prevent the edge component from being noticeable.

以上により、入力画像からノイズ成分を除去し、像域に応じた平滑処理を行うことができる。特に、前述のように正確に判別された像域毎に平滑フィルタを変更することにより、画像を滑らかにすると共に、背景のノイズ、絵柄領域の網点、文字領域の非可逆圧縮によるモスキートノイズ等を除去し、また、原稿についたゴミ/埃等を読み取ったデータを平滑化し、画像を綺麗にすることができる。また、画像読取装置200に特有のノイズ、非可逆圧縮に特有のブロックノイズ/モスキートノイズ、古書に特有のゴミなどを消去することができる。   As described above, the noise component can be removed from the input image, and the smoothing process according to the image area can be performed. In particular, the smoothing filter is changed for each image area accurately determined as described above, thereby smoothing the image, background noise, halftone dots in the picture area, mosquito noise due to lossy compression of the character area, etc. In addition, the data obtained by reading dust / dust on the original can be smoothed to make the image clean. In addition, noise peculiar to the image reading apparatus 200, block noise / mosquito noise peculiar to lossy compression, dust peculiar to old books, and the like can be deleted.

モノクロ/カラー判定部51は、入力画像についてモノクロ画像であるかカラー画像であるかを判定する。一般に、原稿によっては、白地に黒文字であるとは限ない。即ち、原稿の地色がカラーである可能性があるので、判別が必要である。そこで、モノクロ/カラー判定部51は、背景の像域以外の像域について、色味成分を抽出する。この例では、各々の画素について、RGBの中の最大値Maxと最小値Minの差を、色味成分として抽出する。この時、RGB空間ではなく、色空間として周知のHSVの彩度やLabのab値に変換し、その値を色味成分としてもよい。モノクロ/カラー判定部51は、得られた色味成分の値が所定の値よりも大きい場合、カラー画像であると判断する。   The monochrome / color determination unit 51 determines whether the input image is a monochrome image or a color image. In general, some originals are not always black characters on a white background. That is, since the background color of the document may be a color, it is necessary to make a determination. Therefore, the monochrome / color determination unit 51 extracts a color component for an image area other than the background image area. In this example, for each pixel, the difference between the maximum value Max and the minimum value Min in RGB is extracted as a color component. At this time, instead of the RGB space, the color space may be converted into HSV saturation or Lab ab value, and the value may be used as a color component. The monochrome / color determination unit 51 determines that the image is a color image when the value of the obtained color component is larger than a predetermined value.

色除去部52は、例えば入力画像がモノクロ画像であると判定された場合、当該入力画像から色(色成分)を除去する。即ち、色除去部52は、入力原稿がモノクロ画像であると判定された場合、色味成分は無駄であるので、その除去を行う。除去の方法としては、画素の値を、Y=0.30R+0.59G+0.11Bにより値Yとして求めることにより、RGBからグレー(Gray即ち中間調)に変換すればよい。このとき、色空間で知られるHSVやLab等に変換し、色味成分を除去した後、RGBに戻してグレー化してもよい。   For example, when it is determined that the input image is a monochrome image, the color removal unit 52 removes a color (color component) from the input image. That is, when it is determined that the input document is a monochrome image, the color removal unit 52 removes the color component because it is useless. As a removal method, the value of the pixel may be converted from RGB to gray (gray) by obtaining Y as a value Y by Y = 0.30R + 0.59G + 0.11B. At this time, it may be converted into HSV or Lab known in the color space, and after removing the color component, it may be converted back to RGB and grayed.

色復元部53は、例えば入力画像がカラー画像であると判定された場合、入力画像の色(色成分)を復元する。即ち、色復元部53は、入力原稿がカラー画像であると判定された場合、色を復元する処理を行う。一般に、色焼け原稿においては、色も褪せていると考えられる。そこで、色焼け判定部21において算出された色あせ具合(色褪せ値K、図9(A)参照)に応じて、彩度の向上を図る。具体的には、RGBからHSVに変換して、色あせ値Kが大きいほど、Kに対してHSVのS成分を大きくする。このようにして算出されたHSVをRGBに戻すことにより、色を復元する。   For example, when it is determined that the input image is a color image, the color restoration unit 53 restores the color (color component) of the input image. That is, when it is determined that the input document is a color image, the color restoration unit 53 performs a process of restoring the color. Generally, it is considered that the color burned manuscript is also faded. Therefore, the saturation is improved in accordance with the degree of fading calculated by the color burn determination unit 21 (color fading value K, see FIG. 9A). Specifically, the RGB component is converted from HSV to HSV, and the S component of the HSV is increased with respect to K as the faded value K increases. The color is restored by returning the HSV calculated in this way to RGB.

以上により、カラー画像と判断された場合は色の復元を行い(色あせた原稿の色を修復し)、モノクロと判断された場合は色成分の除去を行い、明度による最適なコントラストを実現することができる。これにより、例えば古書等を読み取った入力画像を、表示装置500上に綺麗に表示し、見易くすることができる。   As described above, when it is determined that the image is a color image, color restoration is performed (the color of the faded document is restored), and when it is determined that the image is monochrome, the color component is removed to achieve the optimum contrast depending on the brightness. Can do. Thereby, for example, an input image obtained by reading an old book or the like can be displayed neatly on the display device 500 and can be easily viewed.

明度最適化部61は、入力画像の明度を最適化する。即ち、文字は黒く、背景は白くする処理を行う。一般に、文字等を表示装置500で見る場合、コントラストが高いほうがはっきりとして見える。そのため、文字は黒く、背景は白くするために、白レベルと黒レベルを決定する。明度最適化部61は、例えば色除去を行った画像に対して、ヒストグラムを作成し、そのヒストグラムの分散値等により所定の値(スライス)を求める。また、当該ヒストグラムの最大値Max、最小値Minを求める。これらのスライスと最小値Minとの中間点(階調)を黒とし、スライスと最大値Maxの中間点を白とする。従って、背景は白く、文字は黒くすることができる。これにより、文字の像域については、文字のかすれやジャギーを軽減することができ、絵柄の像域については、これが諧調性をもっているため、表示装置500等で見易い。   The brightness optimization unit 61 optimizes the brightness of the input image. That is, processing is performed to make the characters black and the background white. In general, when a character or the like is viewed on the display device 500, the higher the contrast, the clearer it looks. Therefore, the white level and the black level are determined so that the characters are black and the background is white. For example, the brightness optimization unit 61 creates a histogram for an image from which color removal has been performed, and obtains a predetermined value (slice) based on the variance value of the histogram. Further, the maximum value Max and the minimum value Min of the histogram are obtained. An intermediate point (gradation) between these slices and the minimum value Min is black, and an intermediate point between the slices and the maximum value Max is white. Therefore, the background can be white and the characters can be black. As a result, it is possible to reduce blurring and jaggy of the character image area, and the image area of the pattern is easy to see on the display device 500 or the like because it has gradation.

高精細文字処理部62は、文字を含む入力画像について少なくとも文字の像域についての高精細処理を行う。即ち、高精細文字処理部62は、更に、表示装置500で見易くするために、入力画像に含まれる文字の高精細化処理を行う。即ち、高精細文字処理部62は、図13に示すように、各々の画素のRGBが連続しているとみなして、図18を参照して後述するように、高精細文字処理を施す。即ち、少なくとも文字像域であると判定された領域について、入力画像に含まれる文字をモノクロ画像の高精細文字に変換した後、モノクロ画像の高精細文字をカラー画像の高精細文字に変換する。これにより、文字は細くなり、かつ、文字周辺部には若干色がつく。これにより、LCD(液晶表示装置)などではサブピクセル点灯の効果を有し、ジャギー低減が図られる。また、文字の周辺部に若干色がつくことにより、文字のコントラストがはっきりとする。   The high-definition character processing unit 62 performs high-definition processing on at least a character image area for an input image including characters. That is, the high-definition character processing unit 62 further performs high-definition processing of characters included in the input image so that the display device 500 can easily see the character. That is, as shown in FIG. 13, the high-definition character processing unit 62 assumes that RGB of each pixel is continuous, and performs high-definition character processing as will be described later with reference to FIG. That is, for at least an area determined to be a character image area, after converting characters included in the input image into high-definition characters of a monochrome image, the high-definition characters of the monochrome image are converted into high-definition characters of a color image. As a result, the character is thinned and the periphery of the character is slightly colored. Thereby, an LCD (liquid crystal display device) or the like has an effect of lighting a sub-pixel, and jaggy reduction is achieved. In addition, the color of the character is slightly contrasted so that the contrast of the character is clear.

更に、白背景(画素値(階調値)は255)で黒文字(画素値は0)は、短時間で見るにはコントラスト(白背景と黒文字の差)が高く見易い。しかしながら、長時間表示装置500を見ているときには、コントラストが大き過ぎるため、目が疲れてしまう。そこで、黒文字に対して若干画素値を上乗せすることで、コントラストを小さくし読み易くする。即ち、黒文字の画素の階調値を本来の値よりも大きい値とすることにより、当該画像のコントラストを小さくする。具体的には、高精細文字処理部62は、黒文字の画素の階調値を0よりも大きい値、例えば20(256階調)とする。このとき、RGBをLabに変換して、色差ΔE(ここでは明るさ)を例えば階調値80(256階調)とし、LabからRGBに戻してもよい。   Furthermore, a white character (pixel value (tone value) is 255) and a black character (pixel value is 0) has a high contrast (difference between the white background and the black character) and is easy to see in a short time. However, when looking at the display device 500 for a long time, the contrast becomes too high, and the eyes become tired. Therefore, the pixel value is slightly added to the black character to reduce the contrast and make it easy to read. That is, the contrast of the image is reduced by setting the gradation value of the black character pixel to a value larger than the original value. Specifically, the high-definition character processing unit 62 sets the gradation value of the pixel of the black character to a value larger than 0, for example, 20 (256 gradations). At this time, RGB may be converted into Lab, and the color difference ΔE (in this case, brightness) may be set to a gradation value of 80 (256 gradations), for example, and returned from Lab to RGB.

この後、高精細文字処理部62は、以上の処理により得た画像を出力画像として表示画像ファイル400に格納する。当該出力画像は、画像処理装置100により表示装置500上に表示される。この時、本発明により、原稿や入力画像を直接表示した場合よりも綺麗で読み易い画像が、表示装置500上に表示される。   Thereafter, the high-definition character processing unit 62 stores the image obtained by the above processing in the display image file 400 as an output image. The output image is displayed on the display device 500 by the image processing apparatus 100. At this time, according to the present invention, a clearer and easier-to-read image is displayed on the display device 500 than when the document or the input image is directly displayed.

以上のように、文字の高精細化処理等により、ジャギーを低減しコントラストを向上することができる。また、表示装置500等で読み易い画像にするため、明度による最適化および文字を対象にしたフィルタ処理を行うことで、長時間でも読みやすい画像を表示することができる。また、高精細文字処理部62において、強調とぼかしを併用することで、高いコントラストでかつ表示装置500上で目の疲れない読み易い画像を表示することができる。   As described above, jaggies can be reduced and contrast can be improved by high-definition processing of characters. Further, in order to make the image easy to read on the display device 500 or the like, it is possible to display an easy-to-read image even for a long time by performing optimization based on brightness and filtering processing for characters. Further, the high-definition character processing unit 62 can display an easy-to-read image with high contrast and without eye fatigue on the display device 500 by using emphasis and blurring together.

以上、説明したように、本発明によれば低解像度においても、高精度な像域分離が可能で、その分離された像域毎に応じたフィルタ処理を行い、また、表示装置500等で見やすくするための処理を行うことにより、画像を読みやすくすることを可能とする。   As described above, according to the present invention, high-precision image area separation is possible even at low resolution, filter processing corresponding to each separated image area is performed, and the display device 500 and the like are easy to see. It is possible to make the image easier to read by performing the processing for the purpose.

図14は、画像処理フローであり、本発明の画像処理装置100における画像処理の一例を示す。像域処理部1は像域判定処理を行う(ステップS11)。像域判定処理については、図15〜図17を参照して後述する。   FIG. 14 is an image processing flow and shows an example of image processing in the image processing apparatus 100 of the present invention. The image area processing unit 1 performs image area determination processing (step S11). The image area determination process will be described later with reference to FIGS.

この後、色焼け処理部2は、色焼け判定部21により色焼け判定処理を行い(ステップS12)、この判定結果に基づいて、色焼けの有無を調べる(ステップS13)。色焼けが有る場合、色焼け除去部22は色焼け除去処理を行い(ステップS14)、色焼けが無い場合、ステップS14を省略する。この後、ノイズ除去部3はノイズ除去処理を行い(ステップS15)、平滑化部4はステップS11において判定された像域毎に、当該像域に最適な平滑処理を行う(ステップS16)。なお、ステップS15とS16とは、並列に実行しても良い。この後、色処理部5は、モノクロ/カラー判定部51により当該画像についてのモノクロ/カラー判定処理を行い(ステップS17)、この判定結果に基づいて、モノクロ画像かカラー画像かを調べる(ステップS18)。当該画像がモノクロ画像である場合、色除去部52は色味除去処理を行い(ステップS19)、当該画像がカラー画像である場合、色復元部53は色復元処理を行う(ステップS110)。   Thereafter, the color burn processing unit 2 performs color burn determination processing by the color burn determination unit 21 (step S12), and checks the presence or absence of color burn based on the determination result (step S13). When there is color burn, the color burn removing unit 22 performs color burn removal processing (step S14), and when there is no color burn, step S14 is omitted. Thereafter, the noise removing unit 3 performs a noise removing process (step S15), and the smoothing unit 4 performs a smoothing process optimum for the image area for each image area determined in step S11 (step S16). Note that steps S15 and S16 may be executed in parallel. Thereafter, the color processing unit 5 performs monochrome / color determination processing for the image by the monochrome / color determination unit 51 (step S17), and checks whether the image is a monochrome image or a color image based on the determination result (step S18). ). When the image is a monochrome image, the color removal unit 52 performs a color removal process (step S19), and when the image is a color image, the color restoration unit 53 performs a color restoration process (step S110).

この後、文字色処理部6は、明度最適化部61により明度最適化処理を行い(ステップS111)、高精細文字処理部62により高精細文字処理を行う(ステップS112)。高精細文字処理については、図18〜図21を参照して後述する。   Thereafter, the character color processing unit 6 performs lightness optimization processing by the lightness optimization unit 61 (step S111), and performs high-definition character processing by the high-definition character processing unit 62 (step S112). High-definition character processing will be described later with reference to FIGS.

図15は、縮小画像作成処理フローであり、本発明の画像処理装置100における像域判定処理における縮小画像作成処理の一例を示す。この処理は図14のステップS11において第1縮小画像作成部11により実行される。   FIG. 15 is a reduced image creation process flow, and shows an example of a reduced image creation process in the image area determination process in the image processing apparatus 100 of the present invention. This process is executed by the first reduced image creating unit 11 in step S11 of FIG.

第1縮小画像作成部11は、前述のようにして第1の縮小画像を作成し(ステップS21)、当該第1の縮小画像から1個の注目画素を取り出し、この注目画素とその周囲の複数の画素(複数の周辺画素)の各々との差分を求め、その中で最大の差分を抽出し(ステップS22)、当該最大差分が所定のレベル(例えば、階調差20)以上の値か否かを調べる(ステップS23)。第1縮小画像作成部11は、最大差分が所定のレベル以上である場合、当該注目画素はエッジ(エッジ領域)であると判定する(ステップS24)。これは、前述のように、文字の像域を判定していることになる。最大差分が所定のレベル以上でない場合、当該注目画素はその他の領域であると判定する(ステップS25)。これは、前述のように、文字以外の像域(絵柄及び背景の像域)を判定していることになる。この後、第1縮小画像作成部11は、全ての画素についての処理が終了したか否かを調べ(ステップS26)、終了していない場合、ステップS22以下を繰り返し、終了した場合、エッジの隣接画素もエッジであると判定する(ステップS27)。これにより、図2の右側の結果が得られる。   The first reduced image creating unit 11 creates the first reduced image as described above (step S21), takes out one target pixel from the first reduced image, and extracts the target pixel and a plurality of surrounding pixels. The difference between each pixel (a plurality of surrounding pixels) is obtained, the maximum difference among them is extracted (step S22), and whether the maximum difference is a value equal to or higher than a predetermined level (for example, gradation difference 20). (Step S23). When the maximum difference is equal to or greater than a predetermined level, the first reduced image creation unit 11 determines that the target pixel is an edge (edge region) (step S24). This means that the image area of the character is determined as described above. If the maximum difference is not greater than or equal to the predetermined level, it is determined that the pixel of interest is another region (step S25). As described above, this means that an image area other than characters (image and background image areas) is determined. Thereafter, the first reduced image creating unit 11 checks whether or not the processing for all the pixels has been completed (step S26), and if not completed, repeats step S22 and subsequent steps. It is determined that the pixel is also an edge (step S27). Thereby, the result on the right side of FIG. 2 is obtained.

図16は、縮小画像作成処理フローであり、本発明の画像処理装置100における像域判定処理における縮小画像作成処理の一例を示す。この処理は図14のステップS11において、図15における処理と並行に又はその後に、第2縮小画像作成部12により実行される。   FIG. 16 is a reduced image creation process flow, and shows an example of a reduced image creation process in the image area determination process in the image processing apparatus 100 of the present invention. This process is executed by the second reduced image creating unit 12 in step S11 of FIG. 14 in parallel with or after the process of FIG.

第2縮小画像作成部12は、前述のようにして第2の縮小画像を作成し(ステップS31)、当該第2の縮小画像(の画素値)についてのヒストグラムを作成し(ステップS32)、当該ヒストグラムに基づいて第2の縮小画像を2値化処理して、2値画像を得る(ステップS33)。この後、第2縮小画像作成部12は、当該2値画像における黒画素の数をカウントして(ステップS34)、所定のレベル(数)以上の黒画素が検出された(100個の画素中98個以上検出された)か否かを調べる(ステップS35)。通常、絵柄の像域は真っ黒になる。第2縮小画像作成部12は、所定のレベル(数)以上の黒画素が検出された場合、網点画素(絵柄)であると判定する(ステップS36)。これは、絵柄の像域を判定していることになる。所定のレベル以上の黒画素が検出されない場合、その他の画素であると判定する(ステップS37)。これは、絵柄以外の像域(文字及び背景の像域)を判定していることになる。この後、第2縮小画像作成部12は、全ての画素についての処理が終了したか否かを調べ(ステップS38)、終了していない場合、ステップS34以下を繰り返し、終了した場合、処理を終了する。これにより、図8の右側に示す結果が得られる。   The second reduced image creating unit 12 creates the second reduced image as described above (step S31), creates a histogram for the second reduced image (pixel value thereof) (step S32), and Based on the histogram, the second reduced image is binarized to obtain a binary image (step S33). Thereafter, the second reduced image creating unit 12 counts the number of black pixels in the binary image (step S34), and black pixels of a predetermined level (number) or more are detected (in 100 pixels). It is checked whether 98 or more have been detected (step S35). Usually, the image area of the pattern is black. The second reduced image creating unit 12 determines that the pixel is a halftone pixel (picture) when a black pixel of a predetermined level (number) or more is detected (step S36). This means that the image area of the pattern is determined. If a black pixel of a predetermined level or higher is not detected, it is determined that it is another pixel (step S37). This means that an image area (character and background image areas) other than the pattern is determined. Thereafter, the second reduced image creating unit 12 checks whether or not the processing for all the pixels has been completed (step S38), and if not completed, repeats step S34 and subsequent steps, and if completed, ends the processing. To do. Thereby, the result shown on the right side of FIG. 8 is obtained.

図17は、像域判定処理フローであり、本発明の画像処理装置100における像域判定処理の一例を示す。この処理は、図14のステップS11において、図15及び図16における処理の後に、像域判定部13により実行される。   FIG. 17 is an image area determination process flow, and shows an example of an image area determination process in the image processing apparatus 100 of the present invention. This processing is executed by the image area determination unit 13 after the processing in FIGS. 15 and 16 in step S11 in FIG.

像域判定部13は、第2の縮小画像を用いた処理(図16の処理)の結果が当該画素領域が絵柄領域であることを示しているか否かについて調べ(ステップS41)、当該処理結果が絵柄領域であることを示している場合、当該領域を絵柄領域(像域、以下同じ)であると判定する(ステップS42)。当該処理結果が絵柄領域であることを示していない場合、像域判定部13は、第1の縮小画像を用いた処理(図15の処理)の結果が当該画素領域が文字領域であることを示している否かについて調べ(ステップS43)、当該処理結果が文字領域であることを示している場合、当該領域を文字領域であると判定する(ステップS44)。当該処理結果が文字領域であることを示していない場合、像域判定部13は、当該領域を背景領域であると判定する(ステップS45)。この後、像域判定部13は、全ての画素についての処理が終了したか否かを調べ(ステップS46)、終了していない場合、ステップS41以下を繰り返し、終了した場合、処理を終了する。   The image area determination unit 13 checks whether or not the result of the process using the second reduced image (the process in FIG. 16) indicates that the pixel area is a picture area (step S41), and the process result Indicates that it is a picture area, it is determined that the area is a picture area (image area, hereinafter the same) (step S42). When the processing result does not indicate that the image area is a picture area, the image area determination unit 13 indicates that the result of the process using the first reduced image (the process in FIG. 15) is that the pixel area is a character area. Whether or not it is indicated is checked (step S43), and if the processing result indicates that it is a character area, it is determined that the area is a character area (step S44). If the processing result does not indicate that the area is a character area, the image area determination unit 13 determines that the area is a background area (step S45). Thereafter, the image area determination unit 13 checks whether or not the processing for all the pixels has been completed (step S46). If the processing has not been completed, step S41 and subsequent steps are repeated. If the processing has been completed, the processing is terminated.

図18は、高精細文字処理フローであり、本発明の画像処理装置100における高精細文字処理の一例を示す。この処理は図14のステップS112において高精細文字処理部62により実行される。   FIG. 18 is a high-definition character processing flow, and shows an example of high-definition character processing in the image processing apparatus 100 of the present invention. This process is executed by the high-definition character processing unit 62 in step S112 of FIG.

高精細文字処理部62は、入力画像に含まれる文字をモノクロ画像の高精細文字に変換する処理を行い(ステップS51)、全ての画素についての当該処理が終了したか否かを調べ(ステップS52)、終了していない場合、ステップS51以下を繰り返す。終了した場合、高精細文字処理部62は、この後、モノクロ画像の高精細文字をカラー画像の高精細文字に変換する処理を行い、これにより、黒い文字の周囲に当該周囲の色に基づいて定まる色を付け(ステップS53〜S55)、全ての画素についての当該処理が終了したか否かを調べ(ステップS56)、終了していない場合、ステップS53以下を繰り返し、終了した場合、処理を終了する。カラー画像の高精細文字処理は、周囲の色に基づいて定まる色の中のR成分についての処理(ステップS53)、G成分についての処理(ステップS54)、B成分についての処理(ステップS55)の順に実行される。   The high-definition character processing unit 62 performs a process of converting a character included in the input image into a high-definition character of a monochrome image (step S51), and checks whether or not the process has been completed for all pixels (step S52). If not completed, step S51 and subsequent steps are repeated. When the processing is completed, the high-definition character processing unit 62 thereafter performs a process of converting the high-definition characters of the monochrome image into the high-definition characters of the color image, and thereby, around the black character based on the surrounding color A fixed color is assigned (steps S53 to S55), and it is checked whether or not the processing has been completed for all the pixels (step S56). If not, the processing from step S53 is repeated. To do. The high-definition character processing of the color image includes processing for the R component in the color determined based on surrounding colors (step S53), processing for the G component (step S54), and processing for the B component (step S55). It is executed in order.

なお、ステップS52及びS56において、処理対象とされる画素(文字)は、少なくとも、前述の像域判定により文字の像域とされた範囲の全ての画素である。従って、入力画像の全ての像域について、図18の処理を行っても良い。   Note that in steps S52 and S56, the pixels (characters) to be processed are at least all the pixels in the range defined as the character image area by the image area determination described above. Therefore, the processing of FIG. 18 may be performed for all image areas of the input image.

図19は、高精細文字処理フローであり、本発明の画像処理装置100における高精細文字処理におけるR成分についての処理の一例を示す。この処理は図18のステップS53において高精細文字処理部62により実行される。   FIG. 19 is a high-definition character processing flow, and shows an example of processing for the R component in the high-definition character processing in the image processing apparatus 100 of the present invention. This process is executed by the high-definition character processing unit 62 in step S53 of FIG.

高精細文字処理部62は、パラメータAlfaを求め(ステップS61)、これに基づいてパラメータBetaを求め(ステップS62)、これらのパラメータを用いて第1中間値Tmp1を求める(ステップS63)。第1中間値Tmp1は、当該文字のエッジの画素について、その左隣(又は右隣)の画素に基づいて算出した重みである。なお、各々の画素の値は、0〜255の256階調で表されているものとする。高精細文字処理部62は、同様にして、パラメータAlfaを求め(ステップS64)、パラメータBetaを求め(ステップS65)、第2中間値Tmp2を求める(ステップS66)。第2中間値Tmp2は、当該文字のエッジの画素について、その右隣(又は左隣)の画素に基づいて算出した重みである。この後、高精細文字処理部62は、第1中間値Tmp1及び第2中間値Tmp2を平均することにより、R成分の値r[i]を算出する(ステップS67)。   The high-definition character processing unit 62 obtains the parameter Alfa (step S61), obtains the parameter Beta based on the parameter Alfa (step S62), and obtains the first intermediate value Tmp1 using these parameters (step S63). The first intermediate value Tmp1 is a weight calculated based on the pixel on the left side (or the right side) of the pixel at the edge of the character. In addition, the value of each pixel shall be represented by 256 gradations of 0-255. Similarly, the high-definition character processing unit 62 obtains the parameter Alfa (step S64), obtains the parameter Beta (step S65), and obtains the second intermediate value Tmp2 (step S66). The second intermediate value Tmp2 is a weight calculated based on the pixel on the right side (or the left side) of the pixel at the edge of the character. Thereafter, the high-definition character processing unit 62 calculates the R component value r [i] by averaging the first intermediate value Tmp1 and the second intermediate value Tmp2 (step S67).

図20及び図21は、高精細文字処理フローであり、本発明の画像処理装置100における高精細文字処理におけるG成分及びB成分についての処理の一例を示す。これらの処理は、各々、図18のステップS54及びS55において高精細文字処理部62により実行され、共に図19の処理と類似であるので、その説明を省略する。   20 and 21 are high-definition character processing flows, and show an example of processing for the G component and B component in the high-definition character processing in the image processing apparatus 100 of the present invention. These processes are respectively executed by the high-definition character processing unit 62 in steps S54 and S55 in FIG. 18 and are both similar to the processes in FIG.

以上説明したように、本発明によれば、画像処理装置において、入力画像の解像度が高解像度から低解像度までの種々の値を採る場合でも、精度良く像域が分離できるので、正確に判別した像域毎に、色焼けを修正する等の種々の処理を行うことができる。この結果、絵柄や文字を表示装置上に綺麗に表示することができる。また、入力画像が古書を読み取ったカラー画像である場合でも、色焼けしている背景を修正して見易くし、カラー画像における文字を鮮明に表示し、画像を見易くすることができる。   As described above, according to the present invention, even when the resolution of the input image takes various values from high resolution to low resolution, the image area can be separated with high accuracy in the image processing apparatus. Various processes such as correction of color burn can be performed for each image area. As a result, the design and characters can be displayed neatly on the display device. Further, even when the input image is a color image obtained by reading an old book, it is possible to correct the burnt background for easy viewing, display the characters in the color image clearly, and make the image easy to see.

本発明によれば、画像処理装置において、種々の理由による文字の像域の画質の低下を補うことができ、文字を表示装置上に綺麗に表示することができ、特に、カラー画像中の文字を表示装置上に綺麗に表示することができる。   According to the present invention, in the image processing apparatus, it is possible to compensate for the deterioration of the image quality of the character image area due to various reasons, and it is possible to display the characters neatly on the display device. Can be displayed neatly on the display device.

画像処理装置構成図である。It is an image processing apparatus block diagram. 像域判定処理説明図である。It is image area determination processing explanatory drawing. 像域判定処理説明図である。It is image area determination processing explanatory drawing. 像域判定処理説明図である。It is image area determination processing explanatory drawing. 像域判定処理説明図である。It is image area determination processing explanatory drawing. 像域判定処理説明図である。It is image area determination processing explanatory drawing. 像域判定処理説明図である。It is image area determination processing explanatory drawing. 像域判定処理説明図である。It is image area determination processing explanatory drawing. 色処理説明図である。It is color processing explanatory drawing. ノイズ除去説明図である。It is noise removal explanatory drawing. 平滑化説明図である。It is smoothing explanatory drawing. 平滑化説明図である。It is smoothing explanatory drawing. 高精細化説明図である。It is high definition explanatory drawing. 画像処理フローである。It is an image processing flow. 縮小画像作成処理フローである。It is a reduced image creation processing flow. 縮小画像作成処理フローである。It is a reduced image creation processing flow. 像域判定処理フローである。It is an image area determination processing flow. 高精細文字処理フローである。This is a high-definition character processing flow. 高精細文字処理フローである。This is a high-definition character processing flow. 高精細文字処理フローである。This is a high-definition character processing flow. 高精細文字処理フローである。This is a high-definition character processing flow.

符号の説明Explanation of symbols

1 像域処理部
2 色焼け処理部
3 ノイズ除去部
4 平滑化部
5 色処理部
6 文字色処理部
11 第1縮小画像作成部
12 第2縮小画像作成部
13 像域判定部
21 色焼け判定部
22 色焼け除去部
51 モノクロ/カラー判定部
52 色除去部
53 色復元部
61 明度最適化部
62 高精細文字処理部
DESCRIPTION OF SYMBOLS 1 Image area process part 2 Color burn process part 3 Noise removal part 4 Smoothing part 5 Color process part 6 Character color process part 11 1st reduction image creation part 12 2nd reduction image creation part 13 Image area determination part 21 Color burn determination part 22 Color burn removal unit 51 Monochrome / color determination unit 52 Color removal unit 53 Color restoration unit 61 Brightness optimization unit 62 High-definition character processing unit

Claims (14)

入力画像の像域分離処理を行う画像処理装置であって、
文字の像域の特徴に基づく第1の処理により、所定の縮小率を有する前記入力画像についての第1の縮小画像を作成する第1縮小画像作成部と、
絵柄の像域の特徴に基づき前記第1の処理とは異なる第2の処理により、所定の縮小率を有する前記入力画像についての第2の縮小画像を作成する第2縮小画像作成部と、
前記第1の縮小画像を用いて文字の像域を抽出し、前記第2の縮小画像を用いて絵柄の像域を抽出し、前記第1の縮小画像と第2の縮小画像とを用いて背景の像域を抽出することにより、前記入力画像について文字、絵柄、背景のいずれの像域であるかを判定する像域判定部とを備える
ことを特徴とする画像処理装置。
An image processing apparatus that performs image area separation processing of an input image,
A first reduced image creation unit that creates a first reduced image for the input image having a predetermined reduction rate by a first process based on characteristics of an image area of a character;
A second reduced image creating unit that creates a second reduced image for the input image having a predetermined reduction ratio by a second process different from the first process based on the characteristics of the image area of the pattern;
An image area of a character is extracted using the first reduced image, an image area of a pattern is extracted using the second reduced image, and the first reduced image and the second reduced image are used. An image processing apparatus comprising: an image region determination unit that determines whether the input image is a character region, a pattern, or a background region by extracting a background image region.
前記第1の処理は、注目画素を当該注目画素の各々の画素値の平均値を有する画素で置きかえることにより、縮小画像を得る処理であり、
前記第2の処理は、注目画素を所定の処理により算出した当該注目画素の各々の画素値の最小値を有する画素で置きかえることにより、縮小画像を得る処理である
ことを特徴とする請求項1記載の画像処理装置。
The first process is a process of obtaining a reduced image by replacing the target pixel with a pixel having an average value of the pixel values of the target pixel.
The second process is a process of obtaining a reduced image by replacing a target pixel with a pixel having a minimum value of each pixel value of the target pixel calculated by a predetermined process. The image processing apparatus described.
前記第2の処理において、前記入力画像の解像度に応じた異なる処理により、当該注目画素の各々の画素値の最小値を算出する
ことを特徴とする請求項2記載の画像処理装置。
The image processing apparatus according to claim 2, wherein, in the second process, a minimum value of each pixel value of the target pixel is calculated by a process different according to the resolution of the input image.
前記第1の縮小画像を用いた文字の像域は、前記第1の縮小画像において、注目画素とその周辺画素の各々との差分の中の最大値を求め、当該最大値が所定の値よりも大きい場合に当該文字の像域を抽出したと判断することで抽出される
ことを特徴とする請求項1記載の画像処理装置。
In the image area of the character using the first reduced image, the maximum value in the difference between the pixel of interest and each of the surrounding pixels is obtained in the first reduced image, and the maximum value is greater than a predetermined value. The image processing apparatus according to claim 1, wherein the image processing device is extracted by determining that the image area of the character has been extracted.
前記第2の縮小画像を用いた絵柄の像域は、前記第2の縮小画像に基づいて作成したヒストグラムから定まる値により当該第2の縮小画像を2値化し、当該2値化画像における黒画素の割合が所定の値よりも大きい場合に当該絵柄の像域を抽出したと判断することで抽出される
ことを特徴とする請求項1記載の画像処理装置。
The image area of the pattern using the second reduced image is binarized from the second reduced image by a value determined from a histogram created based on the second reduced image, and black pixels in the binarized image are obtained. The image processing apparatus according to claim 1, wherein the image processing device is extracted when it is determined that the image area of the pattern is extracted when the ratio is larger than a predetermined value.
前記所定の縮小率は、当該縮小画像の解像度が前記入力画像における網点の間隔よりも小さい間隔となるような縮小率である
ことを特徴とする請求項1記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the predetermined reduction rate is a reduction rate such that the resolution of the reduced image is an interval smaller than an interval of halftone dots in the input image.
当該画像処理装置が、更に、
前記背景像域であると判定された領域について、色焼け画像であるか否かを判定する色焼け判定部と、
色焼け画像であると判定された背景像域である領域から、色焼けを除去する色焼け除去部とを備える
ことを特徴とする請求項1記載の画像処理装置。
The image processing apparatus further includes:
For the area determined to be the background image area, a color burn determination unit that determines whether the image is a color burn image;
The image processing apparatus according to claim 1, further comprising: a color burn removing unit that removes color burn from an area that is a background image area determined to be a color burn image.
当該画像処理装置が、更に、
前記入力画像において文字、絵柄、背景の像域であると判定された領域の各々について、相互に異なるフィルタにより平滑化を行う複数の平滑化部を備える
ことを特徴とする請求項1記載の画像処理装置。
The image processing apparatus further includes:
2. The image according to claim 1, further comprising: a plurality of smoothing units that perform smoothing using different filters for each of the regions determined to be image regions of characters, designs, and backgrounds in the input image. Processing equipment.
当該画像処理装置が、更に、
前記入力画像についてモノクロ画像であるかカラー画像であるかを判定するモノクロ/カラー判定部と、
前記入力画像がモノクロ画像であると判定された場合、前記入力画像から色成分を除去する色除去部と、
前記入力画像がカラー画像であると判定された場合、前記入力画像の色成分を復元する色復元部とを備える
ことを特徴とする請求項1記載の画像処理装置。
The image processing apparatus further includes:
A monochrome / color determination unit for determining whether the input image is a monochrome image or a color image;
When it is determined that the input image is a monochrome image, a color removal unit that removes a color component from the input image;
The image processing apparatus according to claim 1, further comprising: a color restoration unit that restores a color component of the input image when it is determined that the input image is a color image.
当該画像処理装置が、更に、
少なくとも前記文字像域であると判定された領域について、前記入力画像に含まれる文字をモノクロ画像の高精細文字に変換した後、前記モノクロ画像の高精細文字をカラー画像の高精細文字に変換する高精細文字処理部を備える
ことを特徴とする請求項1記載の画像処理装置。
The image processing apparatus further includes:
For at least the area determined to be the character image area, after converting characters included in the input image into high-definition characters of a monochrome image, the high-definition characters of the monochrome image are converted into high-definition characters of a color image. The image processing apparatus according to claim 1, further comprising a high-definition character processing unit.
当該画像処理装置が、更に、
前記背景像域であると判定された領域について、色焼け画像であるか否かを判定する色焼け判定部と、
色焼け画像であると判定された背景像域である領域から、色焼けを除去する色焼け除去部と、
前記入力画像において文字、絵柄、背景の像域であると判定された領域の各々について、相互に異なるフィルタにより平滑化を行う複数の平滑化部と、
前記入力画像についてモノクロ画像であるかカラー画像であるかを判定するモノクロ/カラー判定部と、
前記入力画像がモノクロ画像であると判定された場合、前記入力画像から色成分を除去する色除去部と、
前記入力画像がカラー画像であると判定された場合、前記入力画像の色成分を復元する色復元部と、
少なくとも前記文字像域であると判定された領域について、前記入力画像に含まれる文字をモノクロ画像の高精細文字に変換した後、前記モノクロ画像の高精細文字をカラー画像の高精細文字に変換する高精細文字処理部とを備える
ことを特徴とする請求項1記載の画像処理装置。
The image processing apparatus further includes:
For the area determined to be the background image area, a color burn determination unit that determines whether the image is a color burn image;
A color burn removal unit that removes color burn from an area that is a background image area determined to be a color burn image;
A plurality of smoothing units that perform smoothing by different filters for each of the regions determined to be image regions of characters, designs, and backgrounds in the input image;
A monochrome / color determination unit for determining whether the input image is a monochrome image or a color image;
When it is determined that the input image is a monochrome image, a color removal unit that removes a color component from the input image;
When it is determined that the input image is a color image, a color restoration unit that restores a color component of the input image;
For at least the area determined to be the character image area, after converting characters included in the input image into high-definition characters of a monochrome image, the high-definition characters of the monochrome image are converted into high-definition characters of a color image. The image processing apparatus according to claim 1, further comprising a high-definition character processing unit.
文字を含む入力画像について少なくとも文字の像域についての高精細処理を行う画像処理装置であって、
前記入力画像に含まれる文字をモノクロ画像の高精細文字に変換した後、前記モノクロ画像の高精細文字をカラー画像の高精細文字に変換する高精細文字処理部を備える
ことを特徴とする画像処理装置。
An image processing apparatus that performs high-definition processing for at least an image area of a character with respect to an input image including characters,
An image processing comprising: a high-definition character processing unit that converts a character included in the input image into a high-definition character of a monochrome image and then converts the high-definition character of the monochrome image into a high-definition character of a color image. apparatus.
当該画像処理装置が、更に、
前記文字は黒く、背景は白くする明度最適化部を備える
ことを特徴とする請求項11又は請求項12記載の画像処理装置。
The image processing apparatus further includes:
The image processing apparatus according to claim 11, further comprising a brightness optimization unit configured to make the characters black and the background white.
前記高精細文字処理部が、黒文字の画素の階調値を本来の値よりも大きい値とすることにより、当該画像のコントラストを小さくする
ことを特徴とする請求項11又は請求項12記載の画像処理装置。
The image according to claim 11 or 12, wherein the high-definition character processing unit reduces the contrast of the image by setting a gradation value of a pixel of a black character to a value larger than an original value. Processing equipment.
JP2004332940A 2004-11-17 2004-11-17 Image processing device Expired - Fee Related JP4264051B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004332940A JP4264051B2 (en) 2004-11-17 2004-11-17 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004332940A JP4264051B2 (en) 2004-11-17 2004-11-17 Image processing device

Publications (2)

Publication Number Publication Date
JP2006148292A true JP2006148292A (en) 2006-06-08
JP4264051B2 JP4264051B2 (en) 2009-05-13

Family

ID=36627497

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004332940A Expired - Fee Related JP4264051B2 (en) 2004-11-17 2004-11-17 Image processing device

Country Status (1)

Country Link
JP (1) JP4264051B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008072654A (en) * 2006-09-15 2008-03-27 Ricoh Co Ltd Image storage method, program, device, and system, and computer-readable recording medium
JP2008211360A (en) * 2007-02-23 2008-09-11 Sony Corp Printer and control method therefor
JP2008252680A (en) * 2007-03-30 2008-10-16 Omron Corp Program for portable terminal device, and the portable terminal device
JP2009301090A (en) * 2008-06-10 2009-12-24 Fuji Xerox Co Ltd Image processor and image processing program
JP2010103813A (en) * 2008-10-24 2010-05-06 Seiko Epson Corp Image processor and image processing method
JP2010288250A (en) * 2009-05-12 2010-12-24 Ricoh Co Ltd Image processing apparatus and method, program, and recording medium
CN103325249A (en) * 2012-03-22 2013-09-25 日本电气株式会社 Capture image processing device and capture image processing method
JP2014026535A (en) * 2012-07-27 2014-02-06 Gree Inc Image display device, image display method, and program
JP2015046177A (en) * 2014-10-15 2015-03-12 グリー株式会社 Image display device, image display method, and program
JP2018074368A (en) * 2016-10-28 2018-05-10 株式会社Pfu Image processing apparatus, image processing method, and image processing program

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4728921B2 (en) * 2006-09-15 2011-07-20 株式会社リコー Image processing apparatus, image processing method, program, and recording medium
JP2008072654A (en) * 2006-09-15 2008-03-27 Ricoh Co Ltd Image storage method, program, device, and system, and computer-readable recording medium
US8170344B2 (en) 2006-09-15 2012-05-01 Ricoh Company, Limited Image storage device, image storage system, method of storing image data, and computer program product for image data storing
JP2008211360A (en) * 2007-02-23 2008-09-11 Sony Corp Printer and control method therefor
JP2008252680A (en) * 2007-03-30 2008-10-16 Omron Corp Program for portable terminal device, and the portable terminal device
JP2009301090A (en) * 2008-06-10 2009-12-24 Fuji Xerox Co Ltd Image processor and image processing program
JP2010103813A (en) * 2008-10-24 2010-05-06 Seiko Epson Corp Image processor and image processing method
JP2010288250A (en) * 2009-05-12 2010-12-24 Ricoh Co Ltd Image processing apparatus and method, program, and recording medium
CN103325249A (en) * 2012-03-22 2013-09-25 日本电气株式会社 Capture image processing device and capture image processing method
JP2013196525A (en) * 2012-03-22 2013-09-30 Nec Corp Photographed image processing apparatus and photographed image processing method
JP2014026535A (en) * 2012-07-27 2014-02-06 Gree Inc Image display device, image display method, and program
JP2015046177A (en) * 2014-10-15 2015-03-12 グリー株式会社 Image display device, image display method, and program
JP2018074368A (en) * 2016-10-28 2018-05-10 株式会社Pfu Image processing apparatus, image processing method, and image processing program
US10332263B2 (en) 2016-10-28 2019-06-25 Pfu Limited Image processing device, image processing method, and non-transitory computer-readable recording medium

Also Published As

Publication number Publication date
JP4264051B2 (en) 2009-05-13

Similar Documents

Publication Publication Date Title
US7912280B2 (en) Image processing apparatus, image processing method, and image processing program
JP4926568B2 (en) Image processing apparatus, image processing method, and image processing program
JP6031286B2 (en) Image processing apparatus and image processing method
KR100994644B1 (en) Image processing apparatus and method thereof
JP4890973B2 (en) Image processing apparatus, image processing method, image processing program, and storage medium
EP2670125A1 (en) Image processing device correcting color of border region between object and background in image
US7880927B2 (en) Image forming apparatus, image forming method, program, and recording medium
JP2012119758A (en) Image processing device, image formation device, image processing method, computer program, and recording medium
JP4264051B2 (en) Image processing device
JP2022145776A (en) Image processing apparatus and image processing method
JP6882083B2 (en) Image processing device, image forming device, image processing method and program
US8665498B2 (en) Method and system for automatically detecting and processing halftone regions in scanned documents
JP2017135690A (en) Image processing device, image processing method, and program
JP4084537B2 (en) Image processing apparatus, image processing method, recording medium, and image forming apparatus
JP4545167B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium
JP2005072635A (en) Image processing apparatus, image forming apparatus, image reading apparatus, image processing method, image processing program, and computer-readable recording medium stored with the image processing program
JP2001352453A (en) Image-reproducing device
JP2004235743A (en) Picture processor, picture processing method, program and recording medium
JP6834701B2 (en) Image processing equipment and computer programs
JP5057598B2 (en) Image processing apparatus, image processing method, image processing program, and storage medium
JP4545134B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium
JP2007142771A (en) Image processing method, image processor, image forming apparatus, and computer program
JP2018174418A (en) Image processing apparatus and computer program
JP2003198839A (en) Character edge detector
JP2014110576A (en) Printed matter identification device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070411

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080805

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090210

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090213

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120220

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4264051

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120220

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150220

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees