JP2003018409A - Image processor and image processing program - Google Patents

Image processor and image processing program

Info

Publication number
JP2003018409A
JP2003018409A JP2001204714A JP2001204714A JP2003018409A JP 2003018409 A JP2003018409 A JP 2003018409A JP 2001204714 A JP2001204714 A JP 2001204714A JP 2001204714 A JP2001204714 A JP 2001204714A JP 2003018409 A JP2003018409 A JP 2003018409A
Authority
JP
Japan
Prior art keywords
area
pixel
image data
unit
outer edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001204714A
Other languages
Japanese (ja)
Other versions
JP4150844B2 (en
Inventor
Terukazu Ishiguro
輝一 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2001204714A priority Critical patent/JP4150844B2/en
Priority to US10/187,950 priority patent/US7099520B2/en
Publication of JP2003018409A publication Critical patent/JP2003018409A/en
Application granted granted Critical
Publication of JP4150844B2 publication Critical patent/JP4150844B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • G06T5/70
    • G06T5/73
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/409Edge or detail enhancement; Noise or error suppression
    • H04N1/4092Edge or detail enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/28Indexing scheme for image data processing or generation, in general involving image processing hardware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30176Document
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Dot-Matrix Printers And Others (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing unit and image processing method that can reproduce characters or the like formed on a background area with sharpness without causing white Bordering or a turbid color. SOLUTION: An MTF correction section 21 is provided with a replacement control section 113. The replacement control section 113 comprises two AND circuits 114, 115 and a replacement filter section 116. The AND circuit 114 receives an in-solid character area signal (- BETA- MOJI) and a NOT logic signal of a character area detecting in-edge signal (- INEDGE), and the AND circuit 115 receives an in-dot character area signal (- AMI- MOJI) and the NOT logic signal of the character area detecting in-edge signal (- INEDGE). The replacement filter section 116 receives output signals from the AND circuits 114, 115. Then the replacement filter section 116 replaces the lightness of a target pixel into the average lightness of the background area.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、文字などを先鋭に
再現するために画像データを補正する画像処理装置およ
び画像処理プログラムに関する。さらに詳細には、網点
領域あるいは所定濃度を有するベタ領域(以下、これら
を総称して「下地領域」という)上の文字などを、白い
縁取りや色濁りを発生させることなく、先鋭に再現する
ことができる画像処理装置および画像処理プログラムに
関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and an image processing program for correcting image data in order to sharply reproduce characters and the like. More specifically, characters on a halftone dot area or a solid area having a predetermined density (hereinafter collectively referred to as “base area”) are sharply reproduced without causing white edging or color turbidity. The present invention relates to an image processing device and an image processing program that can be performed.

【0002】[0002]

【従来の技術】画像をCCDセンサを用いて読み取り、
画素に分解して画像処理を行うデジタル複写機などにお
いては、文字や細線を先鋭に再現するためにエッジ強調
処理が行われている。このエッジ強調処理は、エッジの
内側部分(以下、「内エッジ」という)の濃度をより高
くし、エッジの外側部分(以下、「外エッジ」という)
の濃度をより低くする処理である。このような処理によ
り、エッジ領域が鮮明となり、文字や細線が先鋭に再現
されるようになっている。
2. Description of the Related Art An image is read using a CCD sensor,
In a digital copying machine or the like that decomposes into pixels and performs image processing, edge enhancement processing is performed in order to sharply reproduce characters and fine lines. In this edge enhancement processing, the density of the inner part of the edge (hereinafter referred to as “inner edge”) is made higher, and the outer part of the edge (hereinafter referred to as “outer edge”)
Is a process for lowering the concentration of. By such processing, the edge area becomes clear, and characters and fine lines are sharply reproduced.

【0003】ところが、下地領域上に形成された文字な
どに対してエッジ強調処理を行うと、図28に示すよう
に、文字の周囲に白い縁取りが形成されてしまうという
問題があった。このため、そのような問題を解決するた
めの対策が採られている。その対策技術の1つとして、
例えば特開2000−307869号公報に開示された
ものがある。この技術では、網点上の文字などに対して
エッジ強調処理を行う場合、外エッジ領域にはエッジ強
調処理を行わないことにより、文字の周囲に白い縁取り
が形成されるのを防止するようにしている。
However, when the edge enhancement processing is performed on a character or the like formed on the background area, there is a problem that a white border is formed around the character as shown in FIG. Therefore, measures have been taken to solve such problems. As one of the countermeasure technology,
For example, there is one disclosed in Japanese Patent Laid-Open No. 2000-307869. With this technology, when edge enhancement processing is performed on halftone dots, etc., the edge enhancement processing is not performed on the outer edge area to prevent white edging from being formed around the characters. ing.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、上記し
た特開2000−307869号公報に開示された技術
では、網点上に形成された文字の先鋭度が低下したり、
色濁りが発生するという問題があった。これは、外エッ
ジ領域にエッジ強調処理を施さないため、この領域に対
しては網点領域と同様にスムージング処理が施されてし
まうからである。その結果、網点上の文字がぼけてしま
うとともに、色濁りが発生して高品質な再現画像を得る
ことができなかったのである。なお、所定濃度を有する
ベタ領域上に形成された文字などでも同様のことが言え
る。
However, in the technique disclosed in the above-mentioned Japanese Patent Laid-Open No. 2000-307869, the sharpness of the characters formed on the halftone dots is lowered,
There was a problem that color turbidity occurred. This is because the edge enhancement processing is not applied to the outer edge area, and thus the smoothing processing is applied to this area similarly to the halftone dot area. As a result, the characters on the halftone dots are blurred, and color turbidity occurs, so that a high-quality reproduced image cannot be obtained. The same can be said for characters and the like formed on a solid area having a predetermined density.

【0005】そこで、本発明は上記した問題点を解決す
るためになされたものであり、下地領域上に形成された
文字などを、白い縁取りや色濁りを発生させずに鮮明に
再現することができる画像処理装置および画像処理プロ
グラムを提供することを課題とする。
Therefore, the present invention has been made to solve the above-mentioned problems, and it is possible to clearly reproduce characters and the like formed on the base region without causing white edging or color turbidity. An object of the present invention is to provide an image processing apparatus and an image processing program that can be performed.

【0006】[0006]

【課題を解決するための手段】上記問題点を解決するた
めになされた本発明に係る画像処理装置は、画像データ
を取得する画像データ取得手段と、画像データ取得手段
で取得された画像データに基づき注目画素がエッジ領域
の外側部分である外エッジ領域に属するか否かを判別す
る外エッジ判別手段と、画像データ取得手段で取得され
た画像データに基づき注目画素が下地領域に属するか否
かを判別することにより下地領域を検出する下地領域判
別手段と、外エッジ判別手段にて外エッジ領域に属する
と判別された注目画素に対して第1の補正処理を施す第
1補正手段と、外エッジ判別手段にて外エッジ領域に属
すると判別された注目画素に対して、第1の補正処理と
は異なる第2の補正処理を施す第2補正手段と、外エッ
ジ判別手段にて外エッジ領域に属すると判別された注目
画素のうち、下地領域判別手段にて下地領域には属さな
いと判別された注目画素に対しては第1補正手段による
第1の補正処理を施すと決定し、下地領域判別手段にて
下地領域に属すると判別された注目画素に対しては第2
補正手段による第2の補正処理を施すと決定する補正処
理決定手段と、を有することを特徴とする。なお、ここ
でいう「下地領域」には、所定濃度を有するベタ領域の
他、網点領域も含まれる。
SUMMARY OF THE INVENTION An image processing apparatus according to the present invention, which has been made to solve the above problems, provides an image data acquisition unit for acquiring image data and an image data acquired by the image data acquisition unit. Based on the outer edge discriminating means for discriminating whether or not the target pixel belongs to the outer edge region which is the outer portion of the edge region, and whether or not the target pixel belongs to the base region based on the image data acquired by the image data acquiring unit A background area determining unit that detects a background area by determining, and a first correction unit that performs a first correction process on a pixel of interest that is determined to belong to the outer edge area by the outer edge determining unit; A second correction unit that performs a second correction process different from the first correction process on the pixel of interest that is determined to belong to the outer edge region by the edge determination unit, and the outer edge determination unit It is determined that the first correction process is performed by the first correction unit on the target pixel that is determined not to belong to the base region by the base region determination unit among the target pixels that are determined to belong to the target region. However, for the pixel of interest determined to belong to the background region by the background region determination means, the second
Correction processing determining means for determining that the second correction processing is performed by the correcting means. The "base area" here includes a halftone area as well as a solid area having a predetermined density.

【0007】この画像処理装置では、まず、画像データ
取得手段により画像データが取得される。ここで、画像
データ取得手段は、自ら画像を読み取って画像データを
取得してもよいし、スキャナ等により画像が読み取られ
てデータ化されたものを取得してもよい。さらには、画
像データが入力された記録媒体、あるいはネットワーク
等から画像データを取得するようにしてもよい。すなわ
ち、画像データ取得手段は、スキャナ等であってもよい
し、データ読み取り装置あるいは入力ポートやモデム等
であってもよく、画像データを取得できるすべてのデバ
イスを含む。
In this image processing apparatus, first, image data is acquired by the image data acquisition means. Here, the image data acquisition means may read the image itself to acquire the image data, or may acquire the image data obtained by reading the image with a scanner or the like. Furthermore, the image data may be acquired from a recording medium into which the image data is input, a network, or the like. That is, the image data acquisition means may be a scanner or the like, a data reading device, an input port, a modem or the like, and includes all devices capable of acquiring image data.

【0008】このようにして、画像データ取得手段で画
像データが取得されると、外エッジ判別手段により、そ
の画像データに基づき注目画素がエッジ領域の外側部分
である外エッジ領域に属するか否かが判別される。ま
た、下地領域判別手段により、画像データ取得手段で取
得された画像データに基づき、注目画素が下地領域に属
するか否かが判別される。そして、この判別結果から下
地領域が検出される。すなわち、下地領域に属すると判
別された画素の分布領域が下地領域として検出されるの
である。なお、上記した各領域の判別は、公知の方法に
より行えばよい。また、外エッジ判別手段は、内エッジ
領域を検出することにより、外エッジ領域を判別するも
のでもよい。
In this way, when the image data is acquired by the image data acquiring means, the outer edge discriminating means determines whether or not the pixel of interest belongs to the outer edge area which is the outer portion of the edge area based on the image data. Is determined. Further, the background area determination means determines whether or not the pixel of interest belongs to the background area based on the image data acquired by the image data acquisition means. Then, the base region is detected from the determination result. That is, the distribution area of the pixels determined to belong to the base area is detected as the base area. Note that the above-mentioned determination of each area may be performed by a known method. Further, the outer edge discriminating means may discriminate the outer edge region by detecting the inner edge region.

【0009】そして、外エッジ判別手段にて外エッジ領
域に属すると判別された注目画素に対して、第1補正手
段による第1の補正処理、あるいは第2補正手段による
第1の補正処理とは異なる第2の補正処理が施される。
ここで、第1の補正処理を施すのか、あるいは第2の補
正処理を施すのかは、補正処理決定手段によって決定さ
れる。すなわち、補正処理決定手段により、外エッジ判
別手段にて外エッジ領域に属すると判別された注目画素
のうち、下地領域判別手段にて下地領域には属さないと
判別された注目画素に対しては第1補正手段による第1
の補正処理を施すと決定される。一方、外エッジ領域に
属すると判別された注目画素のうち、下地領域判別手段
にて下地領域に属すると判別された注目画素に対しては
第2補正手段による第2の補正処理を施すと決定され
る。
Then, the first correction processing by the first correction means or the first correction processing by the second correction means for the pixel of interest determined by the outer edge determination means to belong to the outer edge region A different second correction process is performed.
Here, whether to perform the first correction processing or the second correction processing is determined by the correction processing determination means. That is, among the target pixels determined to belong to the outer edge area by the outer edge determination means by the correction processing determination means, the target pixel determined to not belong to the base area by the base area determination means First by the first correction means
It is determined that the correction processing of is performed. On the other hand, among the target pixels determined to belong to the outer edge area, the target pixel determined to belong to the base area by the base area determination unit is determined to be subjected to the second correction processing by the second correction unit. To be done.

【0010】ここで、第1補正手段による第1の補正処
理としてエッジ減衰処理を行い、第2補正手段による第
2の補正処理として、注目画素の濃度をその周辺濃度に
置換する置換処理を行えばよい。なお、周辺濃度とは、
注目画素に隣接する所定領域内における画素の代表的な
濃度(例えば、平均濃度など)である。こうすることに
より、外エッジ領域には属するが下地領域には属さない
と判別された注目画素(紙面上に形成される通常の文字
など)に対してはエッジ減衰処理が施される。なお、内
エッジ領域に対しては、通常通りエッジ強調を施せばよ
い。従ってこのような画像処理により、文字などのエッ
ジ部分がより鮮明となり、文字などを先鋭に再現するこ
とができる。また、下地が存在しないから、文字などの
周囲に白い縁取りが形成されることもない。
Here, the edge correction processing is performed as the first correction processing by the first correction means, and the replacement processing for replacing the density of the pixel of interest with the peripheral density is performed as the second correction processing by the second correction means. I'll do it. The ambient concentration is
It is a typical density (for example, average density) of pixels in a predetermined area adjacent to the pixel of interest. By doing so, the edge attenuation processing is performed on the pixel of interest (such as a normal character formed on the paper) that is determined to belong to the outer edge area but not to the base area. It should be noted that the inner edge region may be edge-emphasized as usual. Therefore, by such image processing, the edge portion of the character or the like becomes clearer, and the character or the like can be sharply reproduced. In addition, since there is no base, white borders are not formed around characters.

【0011】一方、外エッジ領域にも下地領域にも属す
ると判別された注目画素(下地上に形成される文字な
ど)に対しては置換処理が行われる。そしてこの置換処
理は、注目画素の濃度をその周辺濃度に置換するもので
ある。これにより、下地領域上の外エッジ領域における
画像の濃度が、周辺画像の濃度と等しくなる。従って、
下地上の文字や細線などの周囲に白い縁取りが発生しな
い。また、そのような注目画素に対してスムージング処
理が施されることはないので、再現された下地上の文字
や細線などの先鋭度が低下することもないし、色濁りが
発生することもない。
On the other hand, the replacement process is performed on the target pixel (such as a character formed on the background) which is determined to belong to both the outer edge area and the background area. In this replacement process, the density of the pixel of interest is replaced with the density of its surroundings. As a result, the density of the image in the outer edge area on the base area becomes equal to the density of the peripheral image. Therefore,
No white borders around letters or fine lines on the background. Further, since such a pixel of interest is not subjected to the smoothing process, the sharpness of the reproduced characters and thin lines on the background is not lowered, and the color turbidity is not generated.

【0012】特に、置換処理は、下地領域判別手段にて
下地領域であると検出された領域における平均濃度に置
換する処理とするのが望ましい。これにより、下地上に
描かれた文字などの境界部分、つまり外エッジ領域にお
ける濃度が下地の濃度とほぼ等しくなり、文字などの周
囲に白い縁取りが形成されるような事態を確実に防止す
ることができるからである。なお、ここでいう「濃度」
には、濃度値の他、濃度と相関性のある値(例えば、明
度など)も含まれる。
In particular, it is desirable that the replacement process be a process of replacing the average density in the area detected as the background area by the background area determination means. As a result, it is possible to reliably prevent the situation where the density of the boundary part of the characters drawn on the background, that is, the density in the outer edge area becomes almost the same as the density of the background, and a white border is formed around the characters. Because you can In addition, "concentration" here
In addition to the density value, the value includes a value having a correlation with the density (for example, brightness).

【0013】ここで、平均濃度としては、注目画素を中
心とする所定マトリクス内(例えば、5×5サイズ程
度)において、下地領域に属すると判別された画素の濃
度の平均値を用いればよい。従って、所定マトリクス内
に文字領域が含まれる場合には、その領域を除外して算
出した平均濃度を用いることになる。また、マトリクス
サイズは、文字などが描かれている下地の状態に応じて
設定すればよい。例えば、下地が網点である場合には、
網点を構成する白孤立点の影響が無視できる程度の大き
さに設定すればよい。また、下地の濃度が変化している
場合には、マトリクスサイズを大きくしすぎないように
する。置換した濃度が近接する下地の濃度と大きく異な
ってしまうことを防止するためである。
Here, as the average density, an average value of the densities of the pixels determined to belong to the base area within a predetermined matrix centered on the pixel of interest (for example, about 5 × 5 size) may be used. Therefore, when a character area is included in the predetermined matrix, the average density calculated by excluding the area is used. Further, the matrix size may be set according to the state of the background on which characters and the like are drawn. For example, if the background is halftone dots,
The size may be set to such a degree that the influence of white isolated points forming halftone dots can be ignored. Also, when the density of the background is changing, the matrix size should not be made too large. This is to prevent the replaced density from being significantly different from the density of the adjacent base.

【0014】また、本発明に係る画像処理装置は、画像
データを取得する画像データ取得手段と、画像データ取
得手段で取得された画像データに基づき注目画素がエッ
ジ領域の外側部分である外エッジ領域に属するか否かを
判別する外エッジ判別手段と、画像データ取得手段で取
得された画像データに基づき注目画素が下地領域に属す
るか否かを判別することにより下地領域を検出する下地
領域判別手段と、外エッジ判別手段にて外エッジ領域に
属すると判別され、かつ、下地領域判別手段にて下地領
域に属すると判別された注目画素の濃度を、その注目画
素の周辺画素における濃度に基づき算出される値に置換
する置換手段と、を有することを特徴とする。
Further, the image processing apparatus according to the present invention has an image data acquisition means for acquiring image data, and an outer edge area in which the pixel of interest is an outer part of the edge area based on the image data acquired by the image data acquisition means. Edge determining unit that determines whether the pixel of interest belongs to the background region by determining whether the pixel of interest belongs to the background region based on the image data acquired by the image data acquiring unit. And the density of the target pixel which is determined to belong to the outer edge area by the outer edge determining means and which belongs to the base area by the base area determining means is calculated based on the densities of the peripheral pixels of the target pixel. And a replacement means for replacing the value with the specified value.

【0015】この画像処理装置でも、まず、画像データ
取得手段により画像データが取得される。そうすると、
外エッジ判別手段により、画像データ取得手段で取得さ
れた画像データに基づき、注目画素がエッジ領域の外側
部分である外エッジ領域に属するか否かが判別される。
また、下地領域判別手段により、画像データ取得手段で
取得された画像データに基づき、注目画素が下地領域に
属するか否かが判別される。そして、この判別結果から
下地領域が検出される。
Also in this image processing apparatus, first, image data is acquired by the image data acquisition means. Then,
The outer edge discriminating unit discriminates whether or not the pixel of interest belongs to the outer edge region which is the outer portion of the edge region, based on the image data acquired by the image data acquiring unit.
Further, the background area determination means determines whether or not the pixel of interest belongs to the background area based on the image data acquired by the image data acquisition means. Then, the base region is detected from the determination result.

【0016】そして、置換手段により、外エッジ判別手
段にて外エッジ領域に属すると判別され、かつ、下地領
域判別手段にて下地領域に属すると判別された注目画素
の濃度が、その注目画素の周辺画素における濃度に基づ
いて算出された値に置換される。このため、下地領域上
の外エッジ領域、すなわち下地上の文字などの周囲に白
い縁取りが発生しない。また、そのような注目画素に対
しては、スムージング処理が施されることはないので、
再現された下地上の文字や細線などの先鋭度が低下する
こともないし、色濁りが発生することもない。
Then, the density of the pixel of interest determined by the replacing means to belong to the outer edge area by the outer edge determining means and to belong to the background area by the background area determining means is the density of the pixel of interest. It is replaced with a value calculated based on the density in the peripheral pixels. Therefore, a white border does not occur in the outer edge area on the background area, that is, around the characters on the background. Further, since such a pixel of interest is not subjected to smoothing processing,
The sharpness of the reproduced characters and fine lines on the background does not decrease, and color turbidity does not occur.

【0017】ここで、置換手段は、注目画素の周辺画素
における濃度に基づき算出される値として、下地領域判
別手段にて下地領域として検出された領域における平均
濃度を用いることが望ましい。これにより、下地上に描
かれた文字などの境界部分、つまり外エッジ領域の濃度
が下地の濃度とほぼ等しくなり、より高品質な再現画像
が得られるからである。なお、平均濃度の算出方法は、
上記した方法で行えばよい。
Here, it is preferable that the replacing means uses the average density in the area detected as the background area by the background area determining means as the value calculated based on the density in the peripheral pixels of the target pixel. As a result, the density of the boundary portion of the characters drawn on the background, that is, the density of the outer edge region becomes substantially equal to the density of the background, and a higher quality reproduced image can be obtained. The method for calculating the average concentration is
The above method may be used.

【0018】ここで、上記した画像領域判別装置は、ハ
ードウェアで構成される場合に限られず、ソフトウェア
による処理によっても実現することができる。従って、
以下に示すように、画像処理プログラムとして存在する
場合もある。
Here, the above-mentioned image area discriminating apparatus is not limited to the case of being configured by hardware, but can be realized by processing by software. Therefore,
As shown below, it may exist as an image processing program.

【0019】すなわち、その一例として本発明に係る画
像処理プログラムは、コンピュータに、画像データを取
得する画像データ取得ステップと、画像データ取得ステ
ップで取得された画像データに基づき注目画素がエッジ
領域の外側部分である外エッジ領域に属するか否かを判
別する外エッジ判別ステップと、画像データ取得ステッ
プで取得された画像データに基づき注目画素が下地領域
に属するか否かを判別することにより下地領域を検出す
る下地領域判別ステップと、外エッジ判別ステップにて
外エッジ領域に属すると判別された注目画素のうち、下
地領域判別ステップにて下地領域に属すると判別された
注目画素に対して、その注目画素の濃度を下地領域判別
ステップにて下地領域であると検出された領域における
平均濃度に置換する置換処理を施す補正処理ステップ
と、を実行させるものである。
That is, as an example, the image processing program according to the present invention causes a computer to perform an image data acquisition step of acquiring image data, and a pixel of interest outside the edge region based on the image data acquired in the image data acquisition step. The outer edge determination step for determining whether or not it belongs to the outer edge area which is a part, and the background area by determining whether or not the pixel of interest belongs to the background area based on the image data acquired in the image data acquisition step. Among the target pixels determined to belong to the outer edge area in the base area determination step and the outer edge determination step, the target pixel determined to belong to the base area in the background area determination step is focused on. Replace the pixel density with the average density in the area detected as the background area in the background area determination step. A correction processing step of performing a replacement process is intended to run.

【0020】これらの画像処理プログラムにより、コン
ピュータを作動させる、すなわちソフトウエアがコンピ
ュータに読み込まれ、コンピュータとソフトウェアとが
協働して上記した画像処理装置を実現することができ
る。そして、上記した画像処理装置と同様の効果を得る
ことができる。
With these image processing programs, it is possible to operate the computer, that is, the software is read into the computer, and the computer and the software cooperate to realize the above-described image processing apparatus. Then, it is possible to obtain the same effect as that of the image processing apparatus described above.

【0021】なお、補正処理ステップにおいて、外エッ
ジ判別ステップにて外エッジ領域に属すると判別された
注目画素のうち、下地領域判別ステップにて下地領域に
は属さないと判別された注目画素に対してエッジ減衰処
理を施すようにしてもよい。これにより、非下地領域に
形成された文字、つまり通常の紙面上に形成された文字
などが非常に鮮明に再現されるからである。
Among the target pixels determined to belong to the outer edge area in the outer edge determination step in the correction processing step, the target pixels determined to not belong to the base area in the base area determination step Edge attenuation processing may be performed. This is because characters formed in the non-base area, that is, characters formed on a normal paper surface are reproduced very clearly.

【0022】[0022]

【発明の実施の形態】以下、本発明を具体化した最も好
適な実施の形態について図面に基づき詳細に説明する。
本実施の形態に係るカラー画像処理装置の概略構成を図
1に示す。このようなカラー画像処理装置は、デジタル
複写機、プリンタ、およびファクシミリ等に適用するこ
とができる。
BEST MODE FOR CARRYING OUT THE INVENTION The most preferred embodiment of the present invention will be described below in detail with reference to the drawings.
FIG. 1 shows a schematic configuration of the color image processing apparatus according to this embodiment. Such a color image processing device can be applied to a digital copying machine, a printer, a facsimile, and the like.

【0023】本実施の形態に係るカラー画像処理装置に
は、CCDセンサ11と、画像合成部12と、A/D変
換部13と、シェーディング補正部14と、各ライン間
の補正を行うライン間補正部15と、各色の色収差の補
正を行う色収差補正部16と、変倍・移動処理部17
と、色変換部18と、色補正部19と、領域判別部20
と、MTF補正部21と、プリンタI/F22とが備わ
っている。
The color image processing apparatus according to this embodiment includes a CCD sensor 11, an image synthesizing section 12, an A / D converting section 13, a shading correcting section 14, and a line interval for performing correction between lines. The correction unit 15, the chromatic aberration correction unit 16 that corrects the chromatic aberration of each color, and the magnification / movement processing unit 17
A color conversion unit 18, a color correction unit 19, and a region determination unit 20.
The MTF correction unit 21 and the printer I / F 22 are provided.

【0024】CCDセンサ11は、スキャナにより原稿
を走査して得られる反射光を受光し、それを光電変換し
てアナログのRGB信号を得るものである。画像合成部
12は、CCDセンサ11で取得されたアナログのRG
B信号それぞれについてのodd(奇数)成分とeve
n(偶数)成分とを合成するものである。A/D変換部
13は、画像合成部12で合成されたアナログのRGB
信号をデジタル信号に変換するものである。なお、画像
合成部12およびA/D変換部13は、RGB信号の
R,G,Bの各信号に対応して設けられている。
The CCD sensor 11 receives reflected light obtained by scanning an original with a scanner and photoelectrically converts it to obtain an analog RGB signal. The image composition unit 12 is an analog RG acquired by the CCD sensor 11.
Odd component and eve for each B signal
n (even number) components are combined. The A / D conversion unit 13 uses the analog RGB images synthesized by the image synthesis unit 12.
The signal is converted into a digital signal. The image synthesizing unit 12 and the A / D converting unit 13 are provided corresponding to the R, G, and B signals of the RGB signal.

【0025】シェーディング補正部14は、画像上の主
走査方向の光量ムラを除去するものである。具体的に
は、原稿の読み取り動作前に、シェーディング補正用の
白色板からの反射光をCCDセンサ11で受光し、そこ
で得られたアナログデータをデジタルデータに変換して
からそのデジタルデータをメモリに記憶する。そして、
原稿の読み取り時に、メモリに記憶されたデジタルデー
タを基準値として原稿の読み取りデータを補正するよう
になっている。
The shading correction unit 14 removes unevenness of the light amount on the image in the main scanning direction. Specifically, before the operation of reading the original, the CCD sensor 11 receives the reflected light from the white plate for shading correction, converts the analog data obtained there into digital data, and then stores the digital data in a memory. Remember. And
When reading a document, the read data of the document is corrected using the digital data stored in the memory as a reference value.

【0026】変倍・移動処理部17は、メモリの書き込
みおよび読み出し動作の制御を行うことにより、画像の
拡大・縮小処理および画像の移動処理を行うものであ
る。色変換部18は、規格化された表色系への変換を行
うものであり、ここではRGB信号に基づいてLabデ
ータを作成するようになっている。そして、色変換部1
8で作成されたLabデータは、色補正部19および領
域判別部20に入力されるようになっている。色補正部
19は、Labデータに基づき、実際に用いる4色のト
ナーの分光特性、記録プロセスを考慮して所望する色で
記録が可能な記録濃度信号CMYKを作成するものであ
る。
The scaling / move processing unit 17 performs image enlarging / reducing processing and image moving processing by controlling the writing and reading operations of the memory. The color conversion unit 18 performs conversion into a standardized color system, and here, Lab data is created based on RGB signals. Then, the color conversion unit 1
The Lab data created in 8 is input to the color correction unit 19 and the area determination unit 20. The color correction unit 19 creates a recording density signal CMYK capable of recording in a desired color in consideration of the spectral characteristics of the four color toners actually used and the recording process based on the Lab data.

【0027】領域判別部20は、各画素ごとに画像属性
を判別するものであり、各属性に対応する信号を生成し
て、それらの信号に基づき最終的にはMTF補正部21
に対する制御信号(CMPX,KMPX)を生成するよ
うになっている。この領域判別部20には、図2に示す
ように、カラー信号作成部30と、各種信号作成部31
と、網点/カラー領域信号作成部32と、網点/ベタ領
域中文字領域信号作成部33と、MTF制御信号作成部
34とが備わっている。そして、各種信号作成部31に
は、エッジ信号作成部25とベタ領域信号作成部26と
が含まれ、ラインメモリ27が付設されている。
The area discriminating unit 20 discriminates the image attribute for each pixel, generates signals corresponding to the respective attributes, and finally the MTF correcting unit 21 based on these signals.
To generate control signals (CMPX, KMPX). As shown in FIG. 2, the area discrimination unit 20 includes a color signal creation unit 30 and various signal creation units 31.
A halftone dot / color area signal creation unit 32, a halftone dot / solid area character area signal creation unit 33, and an MTF control signal creation unit 34. The various signal creating section 31 includes an edge signal creating section 25 and a solid area signal creating section 26, and a line memory 27 is attached.

【0028】ここで、カラー信号作成部30は、色変換
部18で作成されたLabデータに基づいて、カラー信
号(COLOR)および黒色領域信号(_BLACK)
を作成するものである。そして、カラー信号作成部30
は、図3に示されるように、変換部35と、カラー判定
用閾値テーブル36および黒判定用閾値テーブル37
と、2つの比較器38,39とから構成されている。
Here, the color signal creating section 30 uses the Lab data created by the color converting section 18 to generate a color signal (COLOR) and a black area signal (_BLACK).
Is to create. Then, the color signal creation unit 30
3, as shown in FIG. 3, the conversion unit 35, the color determination threshold table 36, and the black determination threshold table 37.
And two comparators 38 and 39.

【0029】変換部35は、色変換部18で作成された
データ(a7−0,b7−0)を用い、変換式(√(a
2 +b2 ))により彩度データ(W7−0)を作成する
ものである。カラー判定用閾値テーブル36は、明度デ
ータ(L7−0)に基づきカラー信号(COLOR)を
生成するための閾値を作成するものである。また、黒判
定用閾値テーブル37は、明度データ(L7−0)に基
づき黒色領域信号(_BLACK)を生成するための閾
値を作成するものである。ここにおいて、カラー信号
(COLOR)および黒色領域信号(_BLACK)を
生成するための閾値を明度データ(L7−0)に基づい
て作成しているのは、彩度量が明度に非線形的に依存し
ているためである。
The conversion unit 35 uses the data (a7-0, b7-0) created by the color conversion unit 18 and uses the conversion formula (√ (a
2 + b 2)) by is to create a saturation data (W7-0). The color determination threshold value table 36 creates threshold values for generating a color signal (COLOR) based on the lightness data (L7-0). The black determination threshold value table 37 is for creating a threshold value for generating a black area signal (_BLACK) based on the brightness data (L7-0). Here, the threshold value for generating the color signal (COLOR) and the black region signal (_BLACK) is created based on the brightness data (L7-0) because the saturation amount depends non-linearly on the brightness. This is because

【0030】このような構成によりカラー信号作成部3
0は、比較器38において、明度データ(W7−0)と
カラー判定用閾値テーブル36によって作成された閾値
とを比較することにより、カラー信号(COLOR)を
作成するようになっている。また、比較器39におい
て、彩度データ(W7−0)と黒判定用閾値テーブル3
7によって作成された閾値とを比較することにより、黒
色領域信号(_BLACK)を作成するようになってい
る。
With such a configuration, the color signal generating section 3
In the case of 0, the comparator 38 compares the lightness data (W7-0) with the threshold value created by the color determination threshold value table 36 to create a color signal (COLOR). In the comparator 39, the saturation data (W7-0) and the black determination threshold table 3
The black area signal (_BLACK) is created by comparing with the threshold value created by 7.

【0031】図2に戻って、各種信号作成部31は、明
度データ(L7−0)に基づいて、網点判別用孤立点信
号(WAMI,KAMI)、ベタ領域信号(_BET
A)、文字領域検出用エッジ信号(_EDGL)、文字
領域検出用内エッジ信号(_INEDG)、および文字
エッジ領域信号(_EDG)を作成するものである。そ
して、各種信号作成部31は、これらの信号を生成すべ
くエッジ信号作成部25とベタ領域信号作成部26とを
備えている。
Returning to FIG. 2, the various signal generating section 31 determines the isolated point signals (WAMI, KAMI) for halftone dot discrimination and the solid area signal (_BET) based on the brightness data (L7-0).
A), a character area detection edge signal (_EDGL), a character area detection inner edge signal (_INEDG), and a character edge area signal (_EDG). The various signal creating unit 31 includes an edge signal creating unit 25 and a solid region signal creating unit 26 to create these signals.

【0032】エッジ信号作成部25は、網点判別用孤立
点信号(WAMI,KAMI)、文字領域検出用エッジ
信号(_EDGL)、文字領域検出用内エッジ信号(_
INEDG)、および文字エッジ領域信号(_EDG)
を作成するようになっている。そのため、エッジ信号作
成部25には、図4に示すように、マトリクス作成部4
1と、特徴量抽出フィルタ部42と、2つのセレクタ4
3,44と、4つの比較器45〜48と、外/内エッジ
判定部49と、2つのOR回路50,51とを含んでい
る。
The edge signal generating section 25 includes an isolated point signal for dot discrimination (WAMI, KAMI), an edge signal for character area detection (_EDGL), an internal edge signal for character area detection (_
INEDG), and character edge area signal (_EDG)
To create. Therefore, as shown in FIG.
1, a feature amount extraction filter unit 42, and two selectors 4
3, 44, four comparators 45 to 48, an outer / inner edge determination unit 49, and two OR circuits 50 and 51.

【0033】マトリクス作成部41は、入力画像データ
から5×5サイズのマトリクスデータを作成するもので
ある。そして、マトリクス作成部41で作成されたマト
リクスデータに対して特徴量抽出フィルタ部42による
フィルタ処理が施されるようになっている。ここで、特
徴量抽出フィルタ部42には、1次微分フィルタ(主走
査方向と副走査方向)52,53と、2次微分フィルタ
(+型と×型)54,55と、外/内エッジ判別フィル
タ56と、孤立点検出フィルタ57とが備わっている。
本実施の形態では、主走査方向1次微分フィルタ52と
して図5に示すものを使用し、副走査方向1次微分フィ
ルタとして図6に示すものを使用している。また、+型
2次微分フィルタとして図7に示すものを使用し、×型
2次微分フィルタとして図8に示すものを使用してい
る。さらに、外/内エッジ判別フィルタ56として図9
に示すものを使用している。
The matrix creating section 41 creates matrix data of 5 × 5 size from the input image data. Then, the matrix data created by the matrix creation unit 41 is subjected to the filtering process by the feature quantity extraction filter unit 42. Here, the feature amount extraction filter unit 42 includes first-order differential filters (main scanning direction and sub-scanning direction) 52 and 53, second-order differential filters (+ type and x type) 54 and 55, and outer / inner edges. A discrimination filter 56 and an isolated point detection filter 57 are provided.
In the present embodiment, the one shown in FIG. 5 is used as the main scanning direction first-order differential filter 52, and the one shown in FIG. 6 is used as the sub-scanning direction first-order differential filter. Further, the + type second-order differential filter shown in FIG. 7 is used, and the x-type second order differential filter shown in FIG. 8 is used. Further, as the outer / inner edge discrimination filter 56, as shown in FIG.
I am using the one shown in.

【0034】また、孤立点検出フィルタ57として図1
0に示すものを使用している。この孤立点検出フィルタ
57には、白孤立点検出フィルタ57aと黒孤立点検出
フィルタ57bとが含まれている。そして、白孤立点検
出フィルタ57aにより、注目画素V33の明度値が、
周辺8画素の明度値よりも大きく、かつ8方向の2画素
平均の明度値よりも大きい場合に、網点判別用孤立点信
号(WAMI)が”H”アクティブとされる。
Further, the isolated point detection filter 57 shown in FIG.
The one shown in 0 is used. The isolated point detection filter 57 includes a white isolated point detection filter 57a and a black isolated point detection filter 57b. Then, by the white isolated point detection filter 57a, the brightness value of the target pixel V33 is changed to
When the brightness value of the surrounding 8 pixels is larger than the brightness value of the average of 2 pixels in 8 directions, the isolated dot signal (WAMI) for halftone dot discrimination is made "H" active.

【0035】つまり、注目画素V33の明度値が次の条
件を満たす場合に、注目画素V33が白孤立点である
(WAMI=”H”)と判別されるようになっている。
その条件は、 V33>MAX(V22,V23,V24,V32,V34,V42,V43,V44) かつ、V33>(V11+V22)/2+OFFSET かつ、V33>(V13+V23)/2+OFFSET かつ、V33>(V15+V24)/2+OFFSET かつ、V33>(V31+V32)/2+OFFSET かつ、V33>(V35+V34)/2+OFFSET かつ、V33>(V51+V42)/2+OFFSET かつ、V33>(V53+V43)/2+OFFSET かつ、V33>(V55+V44)/2+OFFSET である。
That is, when the lightness value of the target pixel V33 satisfies the following condition, it is determined that the target pixel V33 is a white isolated point (WAMI = "H").
The conditions are V33> MAX (V22, V23, V24, V32, V34, V42, V43, V44) and V33> (V11 + V22) / 2 + OFFSET and V33> (V13 + V23) / 2 + OFFSET and V33> (V15 + V24) / 2 + OFFSET and V33> (V31 + V32) / 2 + OFFSET and V33> (V35 + V34) / 2 + OFFSET and V33> (V51 + V42) / 2 + OFFSET and V33> (V53 + V43) / 2 + OFFSET and V33> (V55 + V44) / 2 + OFFSET.

【0036】また、黒孤立点検出フィルタ57bによ
り、注目画素V33の明度値が、周辺8画素の明度値よ
りも小さく、かつ8方向の2画素平均の明度値よりも小
さい場合に、網点判別用孤立点信号(KAMI)が”
H”アクティブとされる。
Further, by the black isolated point detection filter 57b, when the brightness value of the target pixel V33 is smaller than the brightness values of the surrounding 8 pixels and smaller than the average brightness value of 2 pixels in 8 directions, the halftone dot discrimination is performed. For isolated point signal (KAMI) "
H "is made active.

【0037】つまり、注目画素V33の明度値が次の条
件を満たす場合に、注目画素V33が黒孤立点である
(KAMI=”H”)と判別されるようになっている。
その条件は、 V33<MIN(V22,V23,V24,V32,V34,V42,V43,V44) かつ、V33+OFFSET<(V11+V22)/2 かつ、V33+OFFSET<(V13+V23)/2 かつ、V33+OFFSET<(V15+V24)/2 かつ、V33+OFFSET<(V31+V32)/2 かつ、V33+OFFSET<(V35+V34)/2 かつ、V33+OFFSET<(V51+V42)/2 かつ、V33+OFFSET<(V53+V43)/2 かつ、V33+OFFSET<(V55+V44)/2 である。なお、OFFSETは、孤立点判別の閾値である。
That is, when the brightness value of the target pixel V33 satisfies the following condition, it is determined that the target pixel V33 is a black isolated point (KAMI = “H”).
The conditions are V33 <MIN (V22, V23, V24, V32, V34, V42, V43, V44) and V33 + OFFSET <(V11 + V22) / 2 and V33 + OFFSET <(V13 + V23) / 2 and V33 + OFFSET < (V15 + V24) / 2 and V33 + OFFSET <(V31 + V32) / 2 and V33 + OFFSET <(V35 + V34) / 2 and V33 + OFFSET <(V51 + V42) / 2 and V33 + OFFSET <(V53 + V43) / 2 and V33 + OFFSET <(V55 + V44) / 2. OFFSET is a threshold for discriminating isolated points.

【0038】図4に戻って、セレクタ43の端子Aには
主走査方向1次微分フィルタ52からの出力が入力さ
れ、セレクタ43の端子Bには副走査方向1次微分フィ
ルタ53からの出力が入力されている。また、セレクタ
44の端子Aには+型2次微分フィルタ54からの出力
が入力され、セレクタ44の端子Bには×型2次微分フ
ィルタ55からの出力が入力されている。そして、各セ
レクタ43,44ではともに、端子A,Bへの入力値の
うち大きいものを選択して出力するようになっている。
Returning to FIG. 4, the output from the primary scanning direction first derivative filter 52 is input to the terminal A of the selector 43, and the output from the sub scanning direction first derivative filter 53 is input to the terminal B of the selector 43. It has been entered. The output from the + -type second derivative filter 54 is input to the terminal A of the selector 44, and the output from the x-type second derivative filter 55 is input to the terminal B of the selector 44. Then, each of the selectors 43 and 44 is adapted to select and output the larger input value to the terminals A and B.

【0039】また、比較器45の端子Pにはセレクタ4
3からの出力(EDG07−00)が入力され、比較器
45の端子Qにはエッジリファレンス値(EDGREF
07−00)が入力されている。同様に、比較器46の
端子Pにはセレクタ43からの出力(EDG07−0
0)が入力され、比較器46の端子Qにはエッジリファ
レンス値(EDGREF17−10)が入力されてい
る。一方、比較器47の端子Pにはセレクタ44からの
出力(EDG17−10)が入力され、比較器47の端
子Qにはエッジリファレンス値(EDGREF27−2
0)が入力されている。同様に、比較器48の端子Pに
はセレクタ44からの出力(EDG17−10)が入力
され、比較器48の端子Qにはエッジリファレンス値
(EDGREF37−30)が入力されている。
The selector 4 is connected to the terminal P of the comparator 45.
The output (EDG07-00) from 3 is input to the terminal Q of the comparator 45 at the edge reference value (EDGREF
07-00) has been input. Similarly, the output (EDG07-0) from the selector 43 is applied to the terminal P of the comparator 46.
0) is input, and the edge reference value (EDGREF17-10) is input to the terminal Q of the comparator 46. On the other hand, the output (EDG17-10) from the selector 44 is input to the terminal P of the comparator 47, and the edge reference value (EDGREF27-2) is input to the terminal Q of the comparator 47.
0) has been entered. Similarly, the output (EDG17-10) from the selector 44 is input to the terminal P of the comparator 48, and the edge reference value (EDGREF37-30) is input to the terminal Q of the comparator 48.

【0040】そして、比較器45の出力と比較器47の
出力とがOR回路50に入力されている。また、比較器
46の出力と比較器48の出力とがOR回路51に入力
されている。以上のような構成により、OR回路50に
おいて、次の条件(1),(2)のいずれかが成立した
場合に、文字エッジ領域信号(_EDG)が”L”アク
ティブとされるようになっている。その条件は、(1)
主走査方向1次フィルタ52および副走査方向1次フィ
ルタ53によってフィルタ処理された値の最大値がエッ
ジリファレンス値(EDGREF07−00)よりも大
きい場合、(2)+型2次微分フィルタ54および×型
2次微分フィルタ55によってフィルタ処理された値の
最大値がエッジリファレンス値(EDGREF27−2
0)よりも大きい場合である。
The output of the comparator 45 and the output of the comparator 47 are input to the OR circuit 50. Further, the output of the comparator 46 and the output of the comparator 48 are input to the OR circuit 51. With the above-described configuration, in the OR circuit 50, the character edge area signal (_EDG) becomes "L" active when either of the following conditions (1) and (2) is satisfied. There is. The conditions are (1)
When the maximum value of the values filtered by the primary scanning direction primary filter 52 and the secondary scanning direction primary filter 53 is larger than the edge reference value (EDGREF07-00), (2) + type secondary differential filter 54 and x The maximum value of the values filtered by the second-order differential filter 55 is the edge reference value (EDGREF27-2
0).

【0041】同様に、OR回路51において、次の条件
(3),(4)のいずれかが成立した場合に、文字領域
検出用エッジ信号(_EDGL)が”L”アクティブと
されるようになっている。その条件は、(3)主走査方
向1次フィルタ52および副走査方向1次フィルタ53
によってフィルタ処理された値の最大値がエッジリファ
レンス値(EDGREF17−10)よりも大きい場
合、(4)+型2次微分フィルタ54および×型2次微
分フィルタ55によってフィルタ処理された値の最大値
がエッジリファレンス値(EDGREF37−30)よ
りも大きい場合である。
Similarly, in the OR circuit 51, when either of the following conditions (3) and (4) is satisfied, the character area detection edge signal (_EDGL) becomes "L" active. ing. The conditions are (3) primary scanning direction primary filter 52 and secondary scanning direction primary filter 53.
When the maximum value of the values filtered by is larger than the edge reference value (EDGREF17-10), the maximum value of the values filtered by the (4) + type second derivative filter 54 and the x type second derivative filter 55. Is larger than the edge reference value (EDGREF37-30).

【0042】外/内エッジ判定部49には、外/内エッ
ジ判別フィルタ56によるフィルタ処理が施された値と
判定リファレンス値(INOUT7−0)とが入力され
ている。そして、外/内エッジ判定部49においては、
図11に示すようにして外/内エッジの判定を行ってい
る。すなわち、INOUT7=0のときには、エッジ検
出量が正の値(FL238=0)であって閾値(INO
UT6−0)よりも大きい場合に、内エッジであると判
定する。また、エッジ検出量が正の値(FL238=
0)であって閾値(INOUT6−0)よりも小さい場
合、あるいはエッジ検出量が負の値(FL238=1)
である場合に、外エッジであると判定する。一方、IN
OUT7=1のときには、エッジ検出量が正の値(FL
238=0)である場合、あるいはエッジ検出量が負の
値(FL238=1)であって閾値(INOUT6−
0)よりも小さい場合に、内エッジと判定する。また、
エッジ検出量が負の値(FL238=1)であって閾値
(INOUT6−0)よりも大きい場合に、外エッジで
あると判定する。そして、外/内エッジ判定部49は、
判定対象が内エッジであると判定した場合に、文字領域
検出用内エッジ信号(_INEDG)を”L”アクティ
ブとするようになっている。なお、閾値(INOUT6
−0)およびエッジ検出量(FL237−230)は絶
対値を示す。
To the outer / inner edge judging section 49, the value subjected to the filter processing by the outer / inner edge judging filter 56 and the judgment reference value (INOUT7-0) are inputted. Then, in the outer / inner edge determination unit 49,
The outer / inner edge is determined as shown in FIG. That is, when INOUT7 = 0, the edge detection amount is a positive value (FL238 = 0) and the threshold value (INO
If it is larger than UT6-0), it is determined to be an inner edge. In addition, the edge detection amount is a positive value (FL238 =
0) and smaller than the threshold value (INOUT6-0), or the edge detection amount is a negative value (FL238 = 1).
If it is, it is determined to be an outer edge. On the other hand, IN
When OUT7 = 1, the edge detection amount is a positive value (FL
238 = 0), or the edge detection amount is a negative value (FL238 = 1) and the threshold (INOUT6−
When it is smaller than 0), it is determined as an inner edge. Also,
When the edge detection amount is a negative value (FL238 = 1) and is larger than the threshold value (INOUT6-0), it is determined to be an outer edge. Then, the outer / inner edge determination unit 49
When it is determined that the determination target is the inner edge, the inner edge signal for character area detection (_INEDG) is made "L" active. The threshold (INOUT6
−0) and the edge detection amount (FL237-230) indicate absolute values.

【0043】再び図2に戻って、ベタ領域信号作成部2
6は、ベタ領域信号(_BETA)を作成するようにな
っている。言い換えれば、所定濃度を有するベタ領域を
検出するようになっているのである。具体的には、図1
2のフローチャートに示すようにしてベタ領域信号(_
BETA)が作成される。すなわち最初に、注目画素の
明度(L)が所定明度(th)以下であるか否かが判断
される(#1)。そして、注目画素の明度が所定明度
(th)以下である場合、言い換えると所定濃度以上の
場合には(#1:YES)、まず、注目画素の左側に隣
接して連続する同一明度の画素数nlが計数され、その
計数値がラインメモリ27に一時的に記憶される(#
2)。なお、「同一明度の画素」には、注目画素と明度
が等しい画素の他、注目画素の明度に対して所定の範囲
内(±数階調内)の明度を有する画素を含めてもよい。
Returning to FIG. 2 again, the solid area signal generating section 2
6 creates a solid area signal (_BETA). In other words, a solid area having a predetermined density is detected. Specifically, FIG.
The solid area signal (_
BETA) is created. That is, first, it is determined whether or not the lightness (L) of the pixel of interest is equal to or lower than the predetermined lightness (th) (# 1). When the brightness of the target pixel is equal to or lower than the predetermined brightness (th), in other words, when the brightness is equal to or higher than the predetermined density (# 1: YES), first, the number of consecutive pixels of the same brightness adjacent to the left side of the target pixel. nl is counted, and the counted value is temporarily stored in the line memory 27 (#
2). The "pixels having the same brightness" may include pixels having the same brightness as the pixel of interest, and pixels having a brightness within a predetermined range (within ± several gradations) with respect to the brightness of the pixel of interest.

【0044】続いて同様に、注目画素の右側の同一明度
の画素数nr、注目画素の上側の同一明度の画素数n
u、注目画素の下側の同一明度の画素数ndがラインメ
モリ27に一時的に記憶される(#3,#4,#5)。
そうすると、主走査方向および副走査方向における連続
同一明度画素数nm,nsが次式により算出されて、そ
の算出結果がラインメモリ27に一時的に記憶される
(#6)。
Similarly, the number nr of pixels of the same brightness on the right side of the target pixel and the number n of pixels of the same brightness on the upper side of the target pixel.
u, the number nd of pixels having the same lightness below the target pixel is temporarily stored in the line memory 27 (# 3, # 4, # 5).
Then, the continuous same-brightness pixel numbers nm and ns in the main scanning direction and the sub-scanning direction are calculated by the following equations, and the calculation result is temporarily stored in the line memory 27 (# 6).

【0045】nm=nr+nl+1 ns=nu+nd+1Nm = nr + nl + 1 ns = nu + nd + 1

【0046】次に、連続同一明度画素数nm,nsの双
方が閾値(thresh)よりも大きいか否かが判断さ
れる。なお、閾値としては、記録画素密度に応じて通常
の大きさの文字画像を構成する面積の領域を同一明度の
ベタ領域と判別しない程度の値を設定すればよい。そし
て、連続同一明度画素数nm,nsの双方が閾値よりも
大きい場合には(#7:YES)、その注目画素は同一
明度のベタ領域に属すると判別され、ベタ領域信号(_
BETA)がアクティブとされる(#8)。一方、連続
同一明度画素数nm,nsの少なくとも一方が閾値より
も小さい場合には(#7:NO)、その注目画素は同一
明度のベタ領域に属さないと判別され、ベタ領域信号
(_BETA)はアクティブとはされない(#9)。ま
た、#1において、注目画素の明度が所定明度以上であ
る場合にも(#1:NO)、その注目画素は同一明度の
ベタ領域に属さないと判別される(#9)。以後、上記
した処理が各画素に対して順次行われて、同一明度のベ
タ領域が検出される。
Next, it is determined whether or not both the numbers of consecutive pixels of the same brightness nm, ns, are larger than a threshold value (thresh). It should be noted that the threshold may be set to a value that does not discriminate an area having an area forming a character image of a normal size from a solid area having the same brightness according to the recording pixel density. Then, when both the numbers of consecutive same-brightness pixels nm and ns are larger than the threshold value (# 7: YES), it is determined that the pixel of interest belongs to the solid area of the same brightness, and the solid area signal (_
BETA) is activated (# 8). On the other hand, if at least one of the numbers of consecutive same-brightness pixels nm and ns is smaller than the threshold value (# 7: NO), it is determined that the pixel of interest does not belong to the same-brightness solid area, and the solid-area signal (_BETA). Is not activated (# 9). Further, in # 1, even when the brightness of the pixel of interest is equal to or higher than the predetermined brightness (# 1: NO), it is determined that the pixel of interest does not belong to a solid area having the same brightness (# 9). After that, the above-described processing is sequentially performed on each pixel to detect a solid area having the same lightness.

【0047】また図2に戻って、網点/カラー領域信号
作成部32は、カラー信号(COLOR)と網点判別用
孤立点信号(WAMI,KAMI)とに基づいて、カラ
ー領域信号(_COL_DOT)および網点領域信号
(_AMI)を作成するものである。すなわち、網点/
カラー領域信号作成部32は、網点領域とカラー領域を
判別するものである。そして、領域判別部20におい
て、網点/カラー領域信号作成部32によってカラー領
域信号(_COL_DOT)と網点領域信号(_AM
I)との両方の信号がアクティブとされた画素が、カラ
ー網点領域に属すると判別されることになる。この網点
/カラー領域信号作成部32には、図13に示すよう
に、黒孤立点個数カウント部60と、白孤立点個数カウ
ント部61と、色画素個数カウント部62と、加算器6
3と、4つの比較器64〜67と、OR回路68とが含
まれている。
Returning to FIG. 2, the halftone-dot / color-area-signal creating section 32 determines the color area signal (_COL_DOT) based on the color signal (COLOR) and the halftone dot discriminating isolated point signal (WAMI, KAMI). And a halftone dot area signal (_AMI). That is, halftone dot /
The color area signal creation unit 32 determines a halftone dot area and a color area. Then, in the area discrimination unit 20, the dot / color area signal creation unit 32 causes the color area signal (_COL_DOT) and the dot area signal (_AM).
Pixels for which both the signals I and I are activated are determined to belong to the color halftone dot area. As shown in FIG. 13, the halftone dot / color area signal creating unit 32 includes a black isolated point number counting unit 60, a white isolated point number counting unit 61, a color pixel number counting unit 62, and an adder 6.
Three, four comparators 64-67 and an OR circuit 68 are included.

【0048】黒孤立点個数カウント部60は、9×45
マトリクス領域内に存在する黒孤立点の個数を計数する
ものである。同様に、白孤立点個数カウント部61は、
9×45マトリクス領域内に存在する白孤立点の個数を
計数するものである。そして、黒孤立点個数カウント部
60からの出力が、加算器63の端子Aおよび比較器6
5の端子Pにそれぞれ入力されている。一方、白孤立点
個数カウント部61からの出力が、加算器63の端子B
および比較器66の端子Pにそれぞれ入力されている。
また、比較器64の端子Pには、加算器63からの出力
が入力されている。ここで、各比較器64〜66の各端
子Pには各リファレンス値(CNTREF17−10,
27−20,37−30)がそれぞれ入力されている。
そして、各比較器64〜66からの出力がOR回路68
に入力されている。
The black isolated point number counting unit 60 is 9 × 45.
The number of black isolated points existing in the matrix area is counted. Similarly, the white isolated point number counting unit 61
The number of white isolated points existing in the 9 × 45 matrix area is counted. The output from the black isolated point number counting section 60 is output to the terminal A of the adder 63 and the comparator 6.
5 is input to each terminal P. On the other hand, the output from the white isolated point number counting section 61 is the terminal B of the adder 63.
And to the terminal P of the comparator 66.
The output from the adder 63 is input to the terminal P of the comparator 64. Here, each reference value (CNTREF17-10, CNTREF17-10,
27-20, 37-30) are input respectively.
The outputs from the comparators 64 to 66 are OR circuits 68.
Has been entered in.

【0049】これにより、OR回路68において、黒孤
立点の個数と白孤立点の個数の合計値がリファレンス値
(CNTREF17−10)よりも大きい場合、黒孤立
点の個数がリファレンス値(CNTREF27−20)
よりも大きい場合、白孤立点の個数がリファレンス値
(CNTREF37−30)よりも大きい場合のいずれ
かの条件が少なくとも1つ成立すれば、注目画素が網点
領域に属すると判定されて、網点領域信号(_AMI)
が”L”アクティブとされる。
Accordingly, in the OR circuit 68, when the total value of the number of black isolated points and the number of white isolated points is larger than the reference value (CNTREF17-10), the number of black isolated points is the reference value (CNTREF27-20). )
If the number of white isolated points is greater than the reference value (CNTREF37-30) and at least one of the conditions is satisfied, it is determined that the pixel of interest belongs to the halftone dot area, Area signal (_AMI)
Is made "L" active.

【0050】また、色画素個数カウント部62は、9×
45マトリクス領域内に存在する色画素の個数を計数す
るものである。そして、色画素個数カウント部62から
の出力が、比較器67の端子Pに入力されている。ここ
で、比較器67の端子Qには、リファレンス値(CNT
REF47−40)が入力されている。これにより、比
較器67において、色画素の個数がリファレンス値(C
NTREF47−40)よりも大きい場合に、注目画素
が色画素であると判定されて、カラー領域信号(_CO
L_DOT)が”L”アクティブとされる。
Further, the color pixel number counting section 62 is 9 ×
The number of color pixels existing in the 45 matrix area is counted. Then, the output from the color pixel number counting unit 62 is input to the terminal P of the comparator 67. Here, the reference value (CNT
REF47-40) has been input. As a result, in the comparator 67, the number of color pixels is changed to the reference value (C
NTREF47-40), it is determined that the pixel of interest is a color pixel, and the color region signal (_CO
L_DOT) is made "L" active.

【0051】このように、網点/カラー領域信号作成部
32により、網点領域信号(_AMI)とカラー領域信
号(_COL_DOT)とが作成されるので、領域判別
部20において、カラー網点領域を判別することができ
る。
As described above, since the halftone dot / color area signal creating unit 32 creates the halftone dot area signal (_AMI) and the color area signal (_COL_DOT), the area discrimination unit 20 determines the color halftone area. Can be determined.

【0052】図2に戻って、網点/ベタ領域中文字領域
信号作成部33は、網点判別用孤立点信号(WAMI,
KAMI)およびベタ領域信号(_BETA)と、文字
領域検出用エッジ信号(_EDGL)と文字領域検出用
内エッジ信号(_INEDG)とに基づいて、網点中文
字領域信号(_AMI_MOJI)およびベタ領域中文
字領域信号(_BETA_MOJI)を作成するもので
ある。すなわち、網点/ベタ領域中文字領域信号作成部
33は、網点あるいはベタ領域内に存在する文字領域を
検出するものである。この網点/ベタ領域中文字領域信
号作成部33には、図14に示すように、OR回路75
と、3つのAND回路78,82,84と、孤立点個数
カウント部76と、内エッジ個数カウント部79と、2
つの比較器77,80と、連続性検出部81とを含んで
いる。
Returning to FIG. 2, the halftone-dot / solid-area-character-region-signal creating unit 33 determines the halftone dot discriminating isolated point signal (WAMI,
KAMI) and solid area signal (_BETA), character area detection edge signal (_EDGL) and character area detection inner edge signal (_INEDG), and halftone dot area signal (_AMI_MOJI) and solid area middle character The area signal (_BETA_MOJI) is created. That is, the halftone-dot / solid-area-character-area-signal creating unit 33 detects a character area existing in the halftone dot or the solid area. As shown in FIG. 14, the OR circuit 75 is provided in the halftone dot / solid area character area signal creating unit 33.
, Three AND circuits 78, 82, 84, an isolated point number counting section 76, an inner edge number counting section 79, and
It includes two comparators 77 and 80 and a continuity detector 81.

【0053】ここで、孤立点個数カウント部76は、1
1×11マトリクス領域内に存在する孤立点の個数を計
数するものである。内エッジ個数カウント部79は、3
×3マトリクス領域内に存在する内エッジの個数を計数
するものである。また、連続性検出部81は、内エッジ
の連続性、つまり内エッジが連続して存在するか否かを
検出するものである。
Here, the isolated point number counting section 76 is set to 1
The number of isolated points existing in the 1 × 11 matrix area is counted. The inner edge number counting unit 79 is 3
The number of inner edges existing in the × 3 matrix area is counted. Further, the continuity detecting unit 81 detects the continuity of the inner edges, that is, whether or not the inner edges continuously exist.

【0054】ここにおいて、OR回路75には、網点判
別用孤立点信号(WAMI,KAMI)が入力されてい
る。このため、OR回路75においては、「WAMI」
と「KAMI」との論理和が算出される。そして、その
算出結果が孤立点個数カウント部76に入力されてい
る。さらに、孤立点個数カウント部76からの出力が、
比較器77の端子Pに入力されている。一方、比較器7
7の端子Qにはリファレンス値(CNTREF57−5
0)が入力されている。
In this case, the OR circuit 75 is supplied with isolated point signals (WAMI, KAMI) for halftone dot discrimination. Therefore, in the OR circuit 75, "WAMI"
And "KAMI" are calculated. Then, the calculation result is input to the isolated point number counting unit 76. Furthermore, the output from the isolated point number counting unit 76 is
It is input to the terminal P of the comparator 77. On the other hand, the comparator 7
The reference value (CNTREF57-5
0) has been entered.

【0055】また、AND回路78には、文字領域検出
用エッジ信号(_EDGL)と文字領域検出用内エッジ
信号(_INEDG)とが入力されている。このため、
AND回路78においては、「_EDGL」と「_IN
EDG」との論理積が算出される。そして、その算出結
果が内エッジ個数カウント部79に入力されている。さ
らに、内エッジ個数カウント部79からの出力が、比較
器80の端子Pに入力されている。一方、比較器80の
端子Qにはリファレンス値(CNTREF67−60)
が入力されている。
The AND circuit 78 is also supplied with a character area detecting edge signal (_EDGL) and a character area detecting inner edge signal (_INEDG). For this reason,
In the AND circuit 78, “_EDGL” and “_IN
EDG ”is calculated. Then, the calculation result is input to the inner edge number counting unit 79. Furthermore, the output from the inner edge number counting unit 79 is input to the terminal P of the comparator 80. On the other hand, the reference value (CNTREF67-60) is applied to the terminal Q of the comparator 80.
Has been entered.

【0056】そして、比較器80からの出力が連続性検
出部81に入力されている。この連続性検出部81で
は、注目画素a33が中心に位置する5×5サイズのマ
トリクスデータ83において、図示する8方向のいずれ
かで、注目画素a33と同じ論理になっている画素が3
つ連続しているか否かを検出することにより、内エッジ
の連続性を検出するようになっている。具体的には、次
式により内エッジの連続性が検出される。 !Y=(a11×a22×a33)+(a13×a23×a33)+(a15×a24
×a33)+(a35×a34×a33)+(a55×a44×a33)+(a
53×a43×a33)+(a51×a42×a33)+(a31×a32×a3
3) なお、式中における「!」は反転処理を、「×」はAN
D処理を、「+」はOR処理をそれぞれ意味する。
The output from the comparator 80 is input to the continuity detector 81. In the continuity detecting unit 81, in the 5 × 5 size matrix data 83 in which the pixel of interest a33 is located at the center, there are three pixels having the same logic as the pixel of interest a33 in any of the eight directions shown in the figure.
The continuity of the inner edge is detected by detecting whether or not the two edges are continuous. Specifically, the continuity of inner edges is detected by the following equation. ! Y = (a11 x a22 x a33) + (a13 x a23 x a33) + (a15 x a24
X a33) + (a35 x a34 x a33) + (a55 x a44 x a33) + (a
53 x a43 x a33) + (a51 x a42 x a33) + (a31 x a32 x a3
3) In the formula, “!” Indicates inversion processing, and “×” indicates AN.
D processing and "+" mean OR processing.

【0057】このように連続性検出部81において、内
エッジの連続性を検出してその検出結果も考慮すること
により、画像ノイズ等を文字領域であると誤判別するこ
とを防止することができる。すなわち、より正確に文字
領域を判別することができる。
As described above, the continuity detecting unit 81 detects the continuity of the inner edge and considers the detection result, so that it is possible to prevent erroneous determination of image noise or the like as a character area. . That is, the character area can be more accurately determined.

【0058】この連続性検出部81からの出力は、AN
D回路82,84にそれぞれ入力されるようになってい
る。また、AND回路82には比較器77からの出力が
入力され、AND回路84にはベタ領域信号(_BET
A)が入力されている。従って、AND回路82から
は、連続性検出部81の出力と比較器77の出力との論
理積が網点中文字領域信号(_AMI_MOJI)とし
て出力される。また、AND回路84からは、連続性検
出部81の出力とベタ領域信号(_BETA)との論理
積がベタ領域中文字領域信号(_BETA_MOJI)
として出力される。
The output from the continuity detector 81 is AN
It is adapted to be inputted to the D circuits 82 and 84, respectively. The output from the comparator 77 is input to the AND circuit 82, and the solid area signal (_BET) is input to the AND circuit 84.
A) is entered. Therefore, the AND circuit 82 outputs the logical product of the output of the continuity detector 81 and the output of the comparator 77 as a halftone dot character area signal (_AMI_MOJI). Further, from the AND circuit 84, the logical product of the output of the continuity detecting unit 81 and the solid area signal (_BETA) is the solid area medium character area signal (_BETA_MOJI).
Is output as.

【0059】すなわち、網点/ベタ領域中文字領域信号
作成部33は、孤立点の計数値がリファレンス値(CN
TREF57−50)より小さく、内エッジの計数値が
リファレンス値(CNTREF67−60)よりも大き
く、さらに内エッジに連続性があると判断した場合に、
注目画素は網点中文字領域に属すると判断する。また、
ベタ領域信号(_BETA)がアクティブであって、内
エッジの計数値がリファレンス値(CNTREF67−
60)よりも大きく、さらに内エッジに連続性があると
判断した場合に、注目画素はベタ領域中文字領域に属す
ると判断する。そして、網点/ベタ領域中文字領域信号
作成部33は、注目画素が網点中文字領域に属すると判
断した場合に網点中文字領域信号(_AMI_MOJ
I)をアクティブにし、注目画素がベタ領域中文字領域
に属すると判別した場合にベタ領域中文字領域信号(_
BETA_MOJI)をアクティブにするようになって
いる。
That is, the halftone dot / solid area character region signal generating section 33 determines that the count value of isolated points is the reference value (CN
TREF57-50), the count value of the inner edge is larger than the reference value (CNTREF67-60), and it is further determined that the inner edge has continuity,
It is determined that the pixel of interest belongs to the halftone dot character area. Also,
The solid area signal (_BETA) is active, and the count value of the inner edge is the reference value (CNTREF67-
60), it is determined that the pixel of interest belongs to the character area in the solid area when it is determined that the inner edge has continuity. Then, the halftone-dot / solid-area-character-area-signal creating unit 33 determines that the pixel of interest belongs to the halftone-dot character area (_AMI_MOJ).
I) is activated, and when it is determined that the pixel of interest belongs to the character area in solid area, the character area signal in solid area (_
BETA_MOJI) is activated.

【0060】再び図2に戻って、MTF制御信号作成部
34は、カラー領域信号(_COL_DOT)、網点領
域信号(_AMI)、網点中文字領域信号(_AMI_
MOJI)、ベタ領域中文字領域信号(_BETA_M
OJI)、文字領域検出用内エッジ信号(_INED
G)、文字エッジ領域信号(_EDG)、および黒色領
域信号(_BLACK)に基づいて、MTF制御部21
の動作を制御するMTF制御信号(CMPX2−0,K
MPX2−0)を作成するものである。このMTF制御
信号作成部34は、ルックアップテーブルで構成されて
おり、7つの領域判別属性信号(_COL_DOT,_
AMI,_AMI_MOJI,_BETA_MOJI,
_INEDG,_EDG,_BLACK)を入力アドレ
スとして、MTF制御信号(CMPX,KMPX)を作
成するようになっている。
Returning to FIG. 2 again, the MTF control signal generating section 34 determines the color area signal (_COL_DOT), the halftone dot area signal (_AMI), and the halftone dot character area signal (_AMI_).
MOJI), solid area character area signal (_BETA_M
OJI), internal edge signal for character area detection (_INED)
G), the character edge area signal (_EDG), and the black area signal (_BLACK), the MTF control unit 21.
Control signal (CMPX2-0, K
MPX2-0) is created. The MTF control signal generator 34 is composed of a look-up table, and has seven area discrimination attribute signals (_COL_DOT, _).
AMI, _AMI_MOJI, _BETA_MOJI,
_INEDG, _EDG, _BLACK) is used as an input address to generate an MTF control signal (CMPX, KMPX).

【0061】図1に戻って、MTF補正部21は、画像
の先鋭度などの補正を行うものである。このMTF補正
部21は、図15に示すように、CMYKの各色に対応
してシアン(C)用補正部90と、マゼンタ(M)用補
正部91と、イエロー(Y)用補正部92と、ブラック
(K)用補正部93とを備え、各色ごとに補正処理を行
うようになっている。そして、CMYの補正処理は、領
域判別部20で作成されたMTF制御信号(CMPX2
−0)により制御され、Kの補正処理は、MTF制御信
号(KMPX2−0)により制御されるようになってい
る。
Returning to FIG. 1, the MTF correction unit 21 corrects the sharpness of the image. As shown in FIG. 15, the MTF correction unit 21 includes a cyan (C) correction unit 90, a magenta (M) correction unit 91, and a yellow (Y) correction unit 92 corresponding to each color of CMYK. , And a black (K) correction unit 93, and correction processing is performed for each color. Then, the CMY correction processing is performed by the MTF control signal (CMPX2
-0), and the K correction process is controlled by the MTF control signal (KMPX2-0).

【0062】ここで、各色用補正部の構成についてより
詳細に説明する。なお、シアン(C)用補正部90、マ
ゼンタ(M)用補正部91、イエロー(Y)用補正部9
2、およびブラック(K)用補正部93は、すべて同じ
構成を有している。従って、ここでは代表してシアン
(C)用補正部90の構成について説明し、その他の補
正部についての説明は省略する。このシアン(C)用補
正部90には、図15に示すように、マトリクス作成部
100と、各種のフィルタを備える文字加工フィルタ部
101と、2つのセレクタ102,103と、加算器1
04とが含まれている。
Here, the structure of the correction section for each color will be described in more detail. A cyan (C) correction unit 90, a magenta (M) correction unit 91, and a yellow (Y) correction unit 9
2 and the black (K) correction unit 93 all have the same configuration. Therefore, the configuration of the cyan (C) correction unit 90 will be described here as a representative, and description of the other correction units will be omitted. As shown in FIG. 15, the cyan (C) correction unit 90 includes a matrix creation unit 100, a character processing filter unit 101 including various filters, two selectors 102 and 103, and an adder 1.
04 and are included.

【0063】マトリクス作成部100は、5×5マトリ
クスデータを作成して、そのデータを文字加工フィルタ
部101に供給するものである。文字加工フィルタ部1
01は、エッジ強調量作成フィルタ部110と、スムー
ジングフィルタ部111と、minフィルタ部112
と、置換制御部113とから構成されている。このよう
な構成により、文字加工フィルタ部101では、エッジ
強調量データ、スムージング処理データ、min処理デ
ータ、および置換データを出力するようになっている。
The matrix creating section 100 creates 5 × 5 matrix data and supplies the data to the character processing filter section 101. Character processing filter section 1
01 is an edge enhancement amount creation filter unit 110, a smoothing filter unit 111, and a min filter unit 112.
And a replacement control unit 113. With such a configuration, the character processing filter unit 101 outputs the edge emphasis amount data, the smoothing processing data, the min processing data, and the replacement data.

【0064】ここで、エッジ強調量作成フィルタ部11
0には、−45度微分フィルタ部120と、0度微分フ
ィルタ部121と、45度微分フィルタ部122と、9
0度微分フィルタ部123と、これらのフィルタ部によ
るフィルタ処理が施されたデータのうちの最大値を選択
するセレクタ124とが含まれている。なお、本実施の
形態では、−45度微分フィルタ部120には図16に
示すフィルタが備わり、0度微分フィルタ121部には
図17に示すフィルタが備わり、45度微分フィルタ部
122には図18に示すフィルタが備わり、90度微分
フィルタ部123には図19に示すフィルタが備わって
いる。
Here, the edge emphasis amount creation filter unit 11
0 includes a −45 degree differential filter section 120, a 0 degree differential filter section 121, a 45 degree differential filter section 122, and
A 0 degree differential filter unit 123 and a selector 124 for selecting the maximum value of the data filtered by these filter units are included. In this embodiment, the −45 degree differential filter section 120 is provided with the filter shown in FIG. 16, the 0 degree differential filter 121 section is provided with the filter shown in FIG. 17, and the 45 degree differential filter section 122 is provided with the filter shown in FIG. The filter shown in FIG. 18 is provided, and the 90-degree differential filter unit 123 is provided with the filter shown in FIG.

【0065】また、スムージングフィルタ部111には
図20に示すフィルタが備わっており、スムージング処
理が実行されるようになっている。さらに、minフィ
ルタ部112では、図21に示すように、5×5マトリ
クスデータのうちの最小値を注目画素のデータとする処
理が実行されるようになっている。
The smoothing filter section 111 is equipped with the filter shown in FIG. 20 so that smoothing processing is executed. Further, in the min filter unit 112, as shown in FIG. 21, a process of setting the minimum value of the 5 × 5 matrix data as the data of the pixel of interest is executed.

【0066】置換制御部113には、図22に示すよう
に、2つAND回路114,115と置換フィルタ部1
16とが備わっている。そして、AND回路114に
は、ベタ領域中文字領域信号(_BETA_MOJI)
と文字領域検出用内エッジ信号(_INEDG)の否定
論理信号が入力されている。これにより、AND回路1
14では、ベタ領域中文字領域における外エッジ領域が
検出される。一方、AND回路115には、網点中文字
領域信号(_AMI_MOJI)と文字領域検出用内エ
ッジ信号(_INEDG)の否定論理信号が入力されて
いる。これにより、AND回路115では、網点中文字
領域における外エッジ領域が検出される。そして、AN
D回路114,115からの出力信号は置換フィルタ部
116に入力され、ここで置換処理が行われるようにな
っている。
As shown in FIG. 22, the replacement control unit 113 includes two AND circuits 114 and 115 and the replacement filter unit 1.
16 and. Then, the AND circuit 114 outputs to the solid area character area signal (_BETA_MOJI).
And a negative logic signal of the character region detection inner edge signal (_INEDG). As a result, the AND circuit 1
In 14, the outer edge area in the solid area character area is detected. On the other hand, the AND circuit 115 is supplied with negative logic signals of the halftone dot character area signal (_AMI_MOJI) and the character area detecting inner edge signal (_INEDG). As a result, the AND circuit 115 detects the outer edge area in the halftone dot character area. And AN
The output signals from the D circuits 114 and 115 are input to the replacement filter unit 116, and the replacement processing is performed here.

【0067】この置換フィルタ部116には、図23に
示す置換フィルタが備わっている。この置換フィルタ
は、注目画素a33を中心とする5×5マトリクス領域
内における各画素の明度の平均値を算出し、その平均値
を注目画素a33の明度に置き換える処理を行うもので
ある。従って、置換フィルタ部116により、網点中文
字領域あるいはベタ領域中文字領域(以下、これらを総
称して「下地中文字領域」という)における外エッジ領
域の明度が置換される。
The replacement filter section 116 is equipped with the replacement filter shown in FIG. The replacement filter calculates the average value of the brightness of each pixel in the 5 × 5 matrix area centered on the target pixel a33 and replaces the average value with the brightness of the target pixel a33. Therefore, the replacement filter unit 116 replaces the lightness of the outer edge area in the halftone dot character area or the solid area middle character area (hereinafter collectively referred to as “underground character area”).

【0068】ここで置換フィルタ部116においては、
5×5マトリクス領域内に文字領域が含まれる場合、そ
の文字領域を除いた領域のみにおける平均値が算出され
るようになっている。置換する明度データを、近隣の下
地領域の明度に近づけるためである。例えば、図24に
示すように、画素a11,a12,a21,a22,a
31,a32,a41,a42,a51,a52が文字
領域に属している場合には、画素a13,a14,a1
5,a23,a24,a25,a33,a34,a3
5,a43,a44,a45,a53,a54,a55
の明度データのみを用いて算出した平均値が、注目画素
a33の明度データに置換される。
Here, in the replacement filter section 116,
When a character area is included in the 5 × 5 matrix area, the average value of only the area excluding the character area is calculated. This is because the brightness data to be replaced is made closer to the brightness of the neighboring base region. For example, as shown in FIG. 24, pixels a11, a12, a21, a22, a
If 31, a32, a41, a42, a51, a52 belong to the character area, pixels a13, a14, a1
5, a23, a24, a25, a33, a34, a3
5, a43, a44, a45, a53, a54, a55
The average value calculated by using only the brightness data of is replaced with the brightness data of the target pixel a33.

【0069】図15に戻って、エッジ強調量作成フィル
タ部110からの出力がセレクタ102の端子Aに入力
されている。また、セレクタ102の端子Bには”0
0”が入力され、端子SにはMTF制御信号(CMPX
2)が入力されている。これにより、セレクタ102で
は、MTF制御信号(CMPX2)の内容に従って、端
子Aまたは端子Bへの入力値のいずれかが選択されて出
力されるようになっている。
Returning to FIG. 15, the output from the edge enhancement amount creation filter unit 110 is input to the terminal A of the selector 102. In addition, "0" is applied to the terminal B of the selector 102.
0 "is input to the terminal S, and the MTF control signal (CMPX
2) has been entered. As a result, the selector 102 selects and outputs either the input value to the terminal A or the terminal B according to the content of the MTF control signal (CMPX2).

【0070】また、スムージングフィルタ部111から
の出力がセレクタ103の端子Aに入力され、minフ
ィルタ部112からの出力がセレクタ103の端子Bに
入力され、置換制御部113からの出力がセレクタ10
3の端子Eに入力されている。さらに、セレクタ103
の端子C,Dには、マトリクス作成部100からの出
力、すなわち文字加工フィルタ部101による処理が施
されていないデータが入力されている。そして、セレク
タ103の端子SにMTF制御信号(CMPX1−0)
が入力されている。これにより、セレクタ103では、
MTF制御信号(CMPX1−0)の内容に従って、端
子A〜Eへの入力値のいずれかが選択されて出力される
ようになっている。
The output from the smoothing filter unit 111 is input to the terminal A of the selector 103, the output from the min filter unit 112 is input to the terminal B of the selector 103, and the output from the replacement control unit 113 is the selector 10.
3 is input to the terminal E. Furthermore, the selector 103
Outputs from the matrix creation unit 100, that is, data that has not been processed by the character processing filter unit 101 is input to the terminals C and D of the. Then, the MTF control signal (CMPX1-0) is applied to the terminal S of the selector 103.
Has been entered. As a result, in the selector 103,
According to the content of the MTF control signal (CMPX1-0), one of the input values to the terminals A to E is selected and output.

【0071】そして、セレクタ102からの出力とセレ
クタ103からの出力とがそれぞれ加算器104の端子
Aと端子Bとに入力されている。これにより、加算器1
04においては、エッジ強調データ(エッジ強調を行わ
ない場合は”00”)とセレクタ103で選択された処
理データとが加算処理され、その加算データがMTF補
正部21からの出力(C7−0)となる。その他の色の
記録濃度信号(M,Y,K)に対しても、シアン(C)
と同様の処理が実行される。
The output from the selector 102 and the output from the selector 103 are input to the terminals A and B of the adder 104, respectively. As a result, the adder 1
In 04, the edge emphasis data (“00” when the edge emphasis is not performed) and the processing data selected by the selector 103 are added, and the addition data is output from the MTF correction unit 21 (C7-0). Becomes For the recording density signals (M, Y, K) of other colors, cyan (C)
Processing similar to is executed.

【0072】このようにしてMTF補正部21において
処理が施された各色の画像データ(C7−0,M7−
0,Y7−0,K7−0)は、プリンタI/F22を介
してプリンタ等の画像出力装置に送信されるようになっ
ている。かくして、画像出力装置において処理後の画像
データに基づき再現画像が出力されるのである。
The image data (C7-0, M7-) of each color processed in the MTF correction unit 21 in this manner.
0, Y7-0, K7-0) is transmitted to an image output device such as a printer via the printer I / F 22. Thus, the reproduced image is output based on the processed image data in the image output device.

【0073】次に、上記した構成を有するカラー画像処
理装置の全体動作について簡単に説明する。まず、原稿
の画像情報が、CCDセンサ11により読み取られる。
そして、CCDセンサ11から出力されるアナログの画
像データが、A/D変換されてデジタルの画像データと
される。そうすると、そのデジタルの画像データに対
し、シェーディング補正、ライン間補正、色収差補正、
変倍・移動処理、色変換処理、色補正、領域判別処理、
およびMTF補正が順次施される。そして、各種の画像
処理が施された画像データに基づき、プリンタI/F2
2を介してプリンタ等により記録体上に原稿の再現画像
が出力される。
Next, the overall operation of the color image processing apparatus having the above configuration will be briefly described. First, the image information of a document is read by the CCD sensor 11.
Then, the analog image data output from the CCD sensor 11 is A / D converted into digital image data. Then, for the digital image data, shading correction, line-to-line correction, chromatic aberration correction,
Magnification / movement processing, color conversion processing, color correction, area discrimination processing,
And MTF correction are sequentially performed. Then, based on the image data that has undergone various types of image processing, the printer I / F 2
A reproduced image of the document is output on the recording medium by a printer or the like via 2.

【0074】ここで、領域判別部20においては、注目
画素がカラー領域、モノクロ領域、網点領域、文字領
域、および下地中文字領域のうちのどの領域に属するか
が判別される。なお、網点領域、文字領域、および網点
中文字領域については、それらの領域がカラー領域であ
るかも判別される。そして、カラー網点領域の判別は、
網点/カラー領域信号作成部32における網点領域とカ
ラー領域との判別結果に基づき行われる。そこでまず、
網点領域の判別方法について説明する。
Here, the area discriminating unit 20 discriminates to which area of the color area, the monochrome area, the halftone dot area, the character area, and the underlying character area the pixel of interest belongs. For the halftone dot area, the character area, and the halftone dot character area, it is also determined whether those areas are color areas. Then, the determination of the color halftone dot area is
This is performed based on the result of discrimination between the halftone dot area and the color area in the halftone dot / color area signal creating unit 32. So first,
A method of discriminating a halftone dot area will be described.

【0075】網点領域の判別は、まず、黒孤立点個数カ
ウント部60および白孤立点個数カウント部61におい
て、各種信号作成部31により作成された網点判別用孤
立点信号(WAMIおよびKAMI)に基づき、9×4
5マトリクス内に存在する黒孤立点および白孤立点の個
数がそれぞれ計数される。そして、加算器63により、
黒孤立点と白孤立点の計数値の加算値が算出される。そ
うすると、比較器64〜66において、黒孤立点と白孤
立点の計数値の加算値、黒孤立点の計数値、および白孤
立点の計数値が各リファレンス値(CNTREF17−
10,27−20,37−30)と比較される。これら
各比較器64〜66における比較結果は、OR回路68
に入力される。
To determine the halftone dot area, first, in the black isolated point number counting section 60 and the white isolated point number counting section 61, the halftone dot determining isolated point signals (WAMI and KAMI) created by the various signal creating sections 31 are generated. Based on 9x4
The number of black isolated points and white isolated points present in each of the five matrices is counted. Then, by the adder 63,
An added value of the count values of the black isolated point and the white isolated point is calculated. Then, in the comparators 64 to 66, the added value of the count values of the black isolated point and the white isolated point, the count value of the black isolated point, and the count value of the white isolated point are used as the reference values (CNTREF17-).
10, 27-20, 37-30). The comparison result in each of the comparators 64 to 66 is the OR circuit 68.
Entered in.

【0076】そして、OR回路68において、黒孤立点
の個数と白孤立点の個数との合計値がリファレンス値
(CNTREF17−10)よりも大きい場合、黒孤立
点の個数がリファレンス値(CNTREF27−20)
よりも大きい場合、白孤立点の個数がリファレンス値
(CNTREF37−30)よりも大きい場合のいずれ
かの条件が少なくとも1つ成立すれば、注目画素が網点
領域に属すると判定される。そうすると、網点領域信号
(_AMI)が”L”アクティブとされる。
In the OR circuit 68, when the total value of the number of black isolated points and the number of white isolated points is larger than the reference value (CNTREF17-10), the number of black isolated points is the reference value (CNTREF27-20). )
If the number of white isolated points is greater than the reference value (CNTREF37-30) and at least one of the conditions is satisfied, it is determined that the pixel of interest belongs to the halftone dot area. Then, the halftone dot area signal (_AMI) is made "L" active.

【0077】次に、カラー領域の判別方法について説明
する。カラー領域の判別は、まず、色画素個数カウント
部62において、カラー信号作成部30により作成され
たカラー信号(COLOR)に基づき、9×45マトリ
クス内に存在する色画素の個数が計数される。そうする
と、比較器67において、色画素の計数値がリファレン
ス値(CNTREF47−40)と比較される。その結
果、色画素の個数のリファレンス値(CNTREF47
−40)よりも大きい場合に、注目画素がカラー領域に
属すると判定される。そうすると、カラー領域信号(_
COL_DOT)が”L”アクティブとされる。このよ
うにして、網点/カラー領域信号作成部32において網
点領域とカラー領域の判別を行った結果、網点領域信号
(_AMI)とカラー領域信号(_COL_DOT)と
が共に”L”アクティブとされた場合に、領域判別部2
0において注目画素はカラー網点領域に属すると判別さ
れる。
Next, a method of discriminating the color area will be described. To determine the color region, first, the color pixel number counting unit 62 counts the number of color pixels existing in the 9 × 45 matrix based on the color signal (COLOR) created by the color signal creating unit 30. Then, the comparator 67 compares the count value of the color pixel with the reference value (CNTREF47-40). As a result, the reference value of the number of color pixels (CNTREF47
-40), it is determined that the pixel of interest belongs to the color area. Then, the color area signal (_
COL_DOT) is made "L" active. In this way, as a result of the discrimination between the halftone dot area and the color area in the halftone dot / color area signal creating unit 32, both the halftone dot area signal (_AMI) and the color area signal (_COL_DOT) are "L" active. Area determination unit 2
At 0, the pixel of interest is determined to belong to the color halftone dot area.

【0078】続いて、下地中文字領域の判別方法につい
て説明する。この下地中文字領域の判別は、領域判別部
20に備わる網点/下地領域中文字領域信号作成部33
において、網点中文字領域の判別とベタ領域中文字領域
の判別とに区分されて行われる。まず、網点中文字領域
の判別について説明する。網点中文字領域の判別は、ま
ず、OR回路75において、各種信号作成部31により
作成された網点判別用孤立点信号(WAMI,KAM
I)の論理和が算出される。そして、OR回路75によ
って算出された論理和が、孤立点個数カウント部76に
入力される。そうすると、孤立点個数カウント部76に
おいて、11×11マトリクス領域内に存在する白およ
び黒孤立点の個数が計数される。そして、比較器77に
おいて、孤立点計数値がリファレンス値(CNTREF
57−50)と比較される。この比較結果はAND回路
82に入力される。
Next, a method of discriminating the character area in the background will be described. The determination of the character area in the background is performed by the halftone dot / character area in the background area signal generation unit 33 provided in the area determination unit 20.
In the above, the process is divided into the determination of the halftone dot character region and the determination of the solid region character region. First, the determination of the halftone dot character area will be described. To determine a character area in a halftone dot, first, in the OR circuit 75, the halftone dot discriminating isolated point signal (WAMI, KAM) generated by the various signal generating unit 31 is used.
The logical sum of I) is calculated. Then, the logical sum calculated by the OR circuit 75 is input to the isolated point number counting unit 76. Then, the isolated point number counting unit 76 counts the number of white and black isolated points existing in the 11 × 11 matrix area. Then, in the comparator 77, the isolated point count value is changed to the reference value (CNTREF
57-50). The comparison result is input to the AND circuit 82.

【0079】一方、上記処理と並行して、AND回路7
8において、各種信号作成部31により作成された文字
領域検出用エッジ信号(_EDGL)と文字領域検出用
内エッジ信号(_INEDG)との論理積が算出され
る。そして、AND回路78によって算出された論理積
が、内エッジ個数カウント部79に入力される。そうす
ると、内エッジ個数カウント部79において、3×3マ
トリクス領域内に存在する内エッジの個数が計数され
る。そして、比較器80において、内エッジ計数値がリ
ファレンス値(CNTREF67−60)と比較され
る。この比較結果は連続性検出部81に入力される。そ
うすると、連続性検出部81において、内エッジの連続
性が検出される。そして、内エッジの計数値および連続
性の有無に関するデータがAND回路82に入力され
る。
On the other hand, in parallel with the above processing, the AND circuit 7
In 8, the logical product of the character area detection edge signal (_EDGL) created by the various signal creation unit 31 and the character area detection inner edge signal (_INEDG) is calculated. Then, the logical product calculated by the AND circuit 78 is input to the inner edge number counting unit 79. Then, the inner edge number counting unit 79 counts the number of inner edges existing in the 3 × 3 matrix area. Then, in the comparator 80, the inner edge count value is compared with the reference value (CNTREF67-60). The comparison result is input to the continuity detecting unit 81. Then, the continuity detector 81 detects the continuity of the inner edge. Then, the count value of the inner edge and the data regarding the presence / absence of continuity are input to the AND circuit 82.

【0080】最終的にAND回路82において、孤立点
計数値(WAMI+KAMI)がリファレンス値(CN
TREF57−50)よりも小さく、しかも内エッジ計
数値(_EDGL×_INEDG)がリファレンス値
(CNTREF67−60)よりも大きくて、かつ内エ
ッジに連続性がある場合には、注目画素は網点中文字領
域に属すると判断され、網点中文字領域信号(_AMI
_MOJI)が”L”アクティブとされる。なお、網点
中文字領域の判別は、注目画素を主走査方向に1画素分
ずつ移動させ、主走査方向の最終位置に到達したら副走
査方向に1画素分移動させることを繰り返すことによ
り、入力された画像データの全画素について行われる。
Finally, in the AND circuit 82, the isolated point count value (WAMI + KAMI) is equal to the reference value (CN
TREF57-50), the inner edge count value (_EDGL × _INEDG) is larger than the reference value (CNTREF67-60), and the inner edge has continuity, the pixel of interest is a halftone dot character. It is determined that the character area signal (_AMI)
_MOJI) is made "L" active. In order to determine the character area in the halftone dot, the pixel of interest is moved by one pixel in the main scanning direction, and when it reaches the final position in the main scanning direction, it is moved by one pixel in the sub scanning direction. It is performed for all the pixels of the image data.

【0081】次に、ベタ領域中文字領域の判別について
説明する。上記した連続性検出部81から出力された内
エッジの連続性の有無に関するデータがAND回路84
にも入力される。また、AND回路84には、ベタ領域
信号作成部26から出力されたベタ領域信号(_BET
A_MOJI)が入力されている。そして、AND回路
84において、ベタ領域に属しかつ内エッジに連続性が
ある場合には、注目画素はベタ領域中文字領域に属する
と判断され、ベタ領域中文字領域信号(_BETA_M
OJI)が”L”アクティブとされる。なお、ベタ領域
中文字領域の判別も、注目画素を主走査方向に1画素分
ずつ移動させ、主走査方向の最終位置に到達したら副走
査方向に1画素分移動させることを繰り返すことによ
り、入力された画像データの全画素について行われる。
Next, the determination of the character area in the solid area will be described. The data regarding the presence / absence of continuity of the inner edge output from the continuity detecting unit 81 is the AND circuit 84.
Is also entered. Further, the AND circuit 84 outputs the solid area signal (_BET) output from the solid area signal creating unit 26.
A_MOJI) has been input. When the AND circuit 84 belongs to the solid area and the inner edge has continuity, it is determined that the pixel of interest belongs to the solid area character area, and the solid area character area signal (_BETA_M
OJI) is made "L" active. Note that in the determination of the character area in the solid area, the pixel of interest is moved by one pixel in the main scanning direction, and when it reaches the final position in the main scanning direction, it is moved by one pixel in the sub scanning direction. It is performed for all the pixels of the image data.

【0082】そして、領域判別部20で行われた領域判
別の結果、すなわち各種の領域属性判別信号に従って、
MTF補正部21において各種属性に応じた画像処理が
施される。具体的には、下地領域に対してはスムージン
グ処理が施される。また、文字領域の内エッジ領域には
エッジ強調処理が施され、外エッジ領域にはエッジ減衰
処理が施される。これにより、下地領域においてはモア
レの発生が抑制され、文字領域においては先鋭度が確保
される。
Then, according to the result of the area discrimination performed by the area discriminating unit 20, that is, according to various area attribute discrimination signals
The MTF correction unit 21 performs image processing according to various attributes. Specifically, the smoothing process is performed on the base region. Further, the edge enhancement processing is applied to the inner edge area of the character area, and the edge attenuation processing is applied to the outer edge area. Thereby, the generation of moire is suppressed in the base region, and the sharpness is secured in the character region.

【0083】また、下地領域中文字領域における内エッ
ジ領域にはエッジ強調処理が施される。一方、下地領域
中文字領域における外エッジ領域に対しては、置換フィ
ルタ部116による置換処理が施される。例えば、図2
5に示すような画像であれば、文字領域の外側の領域R
が置換処理の対象となる。そして、この領域Rに属する
画素に対し、置換フィルタによる明度の置換処理が施さ
れる。すなわち、置換フィルタ内の下地領域における平
均明度が、置換フィルタの中心に位置する注目画素の明
度に置換されるのである。これにより、領域Rの明度
は、下地領域の明度とほぼ等しくなる。従って、図26
に示すように、下地領域中に描かれた文字の周囲に白い
縁取り(図28参照)が発生しない。また、領域Rに対
しては、スムージング処理を行わないため、色濁りが発
生することもない。すなわち、MTF補正部21の補正
により、下地上に描かれた文字などの画像を、白い縁取
りや色濁りを発生させずに、また先鋭度を低下させるこ
となく再現することができる。
Edge enhancement processing is applied to the inner edge area in the character area in the background area. On the other hand, the replacement filter unit 116 performs the replacement process on the outer edge area in the character area in the background area. For example, in FIG.
If the image is as shown in FIG. 5, the area R outside the character area
Is the target of the replacement process. Then, the pixels belonging to the region R are subjected to the lightness replacement processing by the replacement filter. That is, the average brightness of the background region in the replacement filter is replaced with the brightness of the pixel of interest located at the center of the replacement filter. As a result, the brightness of the region R becomes substantially equal to the brightness of the base region. Therefore, FIG.
As shown in, the white border (see FIG. 28) does not occur around the characters drawn in the base region. In addition, since the area R is not subjected to the smoothing process, color turbidity does not occur. That is, by the correction of the MTF correction unit 21, an image such as a character drawn on the background can be reproduced without causing white edging or color turbidity and without lowering the sharpness.

【0084】ここで、上記した説明では、本発明に係る
画像処理装置をハードウェアで構成した場合について例
示したが、このような装置はソフトウェアによっても実
現することができる。そこで、ソフトウェアによって上
記の画像処理装置を実現させる場合における処理の流れ
を、図27に示すフローチャートを用いて説明する。
Here, in the above description, the case where the image processing apparatus according to the present invention is configured by hardware has been exemplified, but such an apparatus can also be realized by software. Therefore, the flow of processing in the case where the above image processing apparatus is realized by software will be described using the flowchart shown in FIG.

【0085】まず、ソフトウェアをコンピュータ(例え
ば、複写機やプリンタなど)に読み込ませる。読み込み
が終了すると、コンピュータと本発明のソフトウェアが
協働して以下の処理が実行される。すなわち、まずコン
ピュータは画像データの入力を待つ(#11)。そし
て、画像データが入力されると(#11:YES)、コ
ンピュータは各画素ごとに明度データを作成する(#1
2)。明度データを作成すると、コンピュータはその明
度データに基づきエッジ領域に属する画素の判別を行う
(#13)。そして、エッジ領域に属すると判別した画
素に対しては、#15の処理を実行する(#14:YE
S)。一方、エッジ領域に属さないと判別した画素に対
しては、その他の処理(具体的にはスムージング処理)
を施す(#14:NO,#22)。
First, the software is read by a computer (for example, a copying machine or a printer). When the reading is completed, the computer and the software of the present invention cooperate to execute the following processing. That is, the computer first waits for the input of image data (# 11). Then, when the image data is input (# 11: YES), the computer creates lightness data for each pixel (# 1).
2). When the brightness data is created, the computer discriminates the pixels belonging to the edge area based on the brightness data (# 13). Then, the process of # 15 is executed for the pixels determined to belong to the edge area (# 14: YE).
S). On the other hand, other processing (specifically, smoothing processing) is performed on the pixels determined not to belong to the edge area.
(# 14: NO, # 22).

【0086】次いで、#15においてコンピュータは、
エッジ領域に属すると判別した画素が、内エッジ領域に
属するのか、それとも外エッジ領域に属するのかを判別
する。続いてコンピュータは、エッジ領域に属すると判
別した画素が、下地領域にも属するか否かを判別する
(#16)。そして、エッジ領域に属すると判別した画
素が外エッジ領域に属すると判別した場合には(#1
7:YES)、#18の処理を実行する。一方、エッジ
領域に属すると判別した画素が外エッジ領域には属さな
い、言い換えれば内エッジ領域に属すると判別した場合
には(#17:NO)、その画素に対してその他の処理
(具体的にはエッジ強調処理)を施す(#22)。な
お、#22の「その他の処理」には、上記したようにス
ムージング処理やエッジ強調処理など複数の処理が含ま
れる。
Next, at # 15, the computer
It is determined whether the pixel determined to belong to the edge region belongs to the inner edge region or the outer edge region. Subsequently, the computer determines whether the pixel determined to belong to the edge area also belongs to the base area (# 16). When it is determined that the pixel determined to belong to the edge area belongs to the outer edge area (# 1
7: YES), # 18 is executed. On the other hand, when the pixel determined to belong to the edge area does not belong to the outer edge area, in other words, the pixel belongs to the inner edge area (# 17: NO), other processing (specifically, for that pixel) is performed. Edge enhancement processing) (# 22). The “other processing” of # 22 includes a plurality of processings such as smoothing processing and edge enhancement processing as described above.

【0087】また、コンピュータは、外エッジ領域に属
すると判別した画素が、下地領域にも属すると判別した
場合には(#18:YES)、その画素の周辺の下地領
域における平均濃度を算出する(#19)。そうしてコ
ンピュータは、平均濃度を算出すると、算出した平均濃
度をその画素の濃度に置換する(#20)。一方、外エ
ッジ領域に属すると判別した画素が、下地領域には属さ
ないと判別した場合には(#18:NO)、その画素に
対してエッジ減衰処理を施す(#21)。
Further, when the computer determines that the pixel which is determined to belong to the outer edge area also belongs to the background area (# 18: YES), the average density in the background area around the pixel is calculated. (# 19). Then, when the computer calculates the average density, it replaces the calculated average density with the density of the pixel (# 20). On the other hand, when it is determined that the pixel determined to belong to the outer edge area does not belong to the base area (# 18: NO), edge attenuation processing is performed on the pixel (# 21).

【0088】このような手順の処理を行うソフトウェア
を、上記したハードウェアが構成されていない画像処理
装置(コンピュータに相当)に読み込むことにより、上
記した画像処理装置と同様の効果を得ることができる。
すなわち、下地上の文字などを、白い縁取りや色濁りを
発生させずに鮮明に再現することができるのである。な
お、このソフトウェアはプログラムとして存在する場合
もあるし、プログラムを記録した記録媒体として存在す
る場合もある。
By loading the software that performs the processing of such a procedure into an image processing apparatus (corresponding to a computer) in which the above hardware is not configured, the same effect as that of the above image processing apparatus can be obtained. .
That is, it is possible to clearly reproduce the characters on the background without causing white edging or color turbidity. The software may exist as a program or a recording medium recording the program.

【0089】以上、詳細に説明したように本実施の形態
に係るカラー画像処理装置によれば、領域判別部20
に、エッジ領域を検出しそのエッジ領域が内エッジ領域
であるのか、外エッジ領域であるのかを判別するエッジ
信号作成部25と、網点あるいは所定濃度の下地領域中
の文字領域を検出する網点/ベタ領域中文字領域信号作
成部33とが設けられている。これにより、下地領域上
に形成された文字領域の内エッジ領域と外エッジ領域と
正確に判別することができる。そして、MTF補正部2
1には、下地領域上に形成された文字領域の外エッジ領
域に対して、明度の置換処理を行う置換制御部113が
設けられている。このため、下地領域上に形成された文
字の周囲に白い縁取りが発生しない。また、文字領域の
外エッジ領域に対しては、置換制御部113による置換
処理が施されスムージング処理が施されることはないの
で、下地領域上に形成された文字に色濁りが発生するこ
ともない。
As described above in detail, according to the color image processing apparatus according to the present embodiment, the area discrimination unit 20
In addition, an edge signal generation unit 25 that detects an edge area and determines whether the edge area is an inner edge area or an outer edge area, and a halftone dot or a halftone dot area that detects a character area in a background area of a predetermined density. A dot / solid area character area signal creation unit 33 is provided. As a result, the inner edge area and the outer edge area of the character area formed on the base area can be accurately distinguished. Then, the MTF correction unit 2
1 is provided with a replacement control unit 113 that performs a brightness replacement process on the outer edge region of the character region formed on the base region. Therefore, a white border does not occur around the character formed on the base region. Further, the outer edge area of the character area is not subjected to the replacement processing and the smoothing processing by the replacement control unit 113, so that the characters formed on the background area may have color turbidity. Absent.

【0090】なお、上記した実施の形態は単なる例示に
すぎず、本発明を何ら限定するものではなく、その要旨
を逸脱しない範囲内で種々の改良、変形が可能であるこ
とはもちろんである。また、上記した実施の形態におい
て例示した具体的な数値(例えば、論理フィルタのサイ
ズなど)は、単なる例示にすぎないことは言うまでもな
い。
The above-described embodiment is merely an example, does not limit the present invention, and it is needless to say that various improvements and modifications can be made without departing from the scope of the invention. Further, it goes without saying that the specific numerical values (for example, the size of the logical filter) exemplified in the above-mentioned embodiments are merely examples.

【0091】[0091]

【発明の効果】以上説明した通り本発明によれば、下地
領域上に形成された文字などを、白い縁取りや色濁りを
発生させずに鮮明に再現することができる画像処理装置
および画像処理プログラムが提供されている。
As described above, according to the present invention, an image processing apparatus and an image processing program capable of clearly reproducing a character or the like formed on a base region without causing white edging or color turbidity. Is provided.

【図面の簡単な説明】[Brief description of drawings]

【図1】実施の形態に係るカラー画像処理装置の概略構
成を示すブロック図である。
FIG. 1 is a block diagram showing a schematic configuration of a color image processing apparatus according to an embodiment.

【図2】図1の領域判別部の概略構成を示すブロック図
である。
FIG. 2 is a block diagram showing a schematic configuration of a region discriminating unit in FIG.

【図3】図2のカラー信号作成部の概略構成を示すブロ
ック図である。
FIG. 3 is a block diagram showing a schematic configuration of a color signal generation unit in FIG.

【図4】図2のエッジ信号作成部の概略構成を示すブロ
ック図である。
FIG. 4 is a block diagram showing a schematic configuration of an edge signal generation unit in FIG.

【図5】1次微分フィルタ(主走査方向)を示す図であ
る。
FIG. 5 is a diagram showing a first-order differential filter (main scanning direction).

【図6】1次微分フィルタ(副走査方向)を示す図であ
る。
FIG. 6 is a diagram showing a first-order differential filter (sub-scanning direction).

【図7】2次微分フィルタ(+型)を示す図である。FIG. 7 is a diagram showing a second-order differential filter (+ type).

【図8】2次微分フィルタ(×型)を示す図である。FIG. 8 is a diagram showing a second derivative filter (× type).

【図9】外/内エッジ判別フィルタを示す図である。FIG. 9 is a diagram showing an outer / inner edge discrimination filter.

【図10】孤立点検出フィルタを示す図である。FIG. 10 is a diagram showing an isolated point detection filter.

【図11】図4の外/内エッジ判定部における判定方法
を説明するための図である。
FIG. 11 is a diagram for explaining a determination method in an outer / inner edge determination unit in FIG.

【図12】図2のベタ領域信号作成部における処理内容
を示すフローチャートである。
FIG. 12 is a flowchart showing processing contents in a solid area signal creation unit in FIG.

【図13】図2の網点/カラー領域信号作成部の概略構
成を示すブロック図である。
FIG. 13 is a block diagram showing a schematic configuration of a halftone / color area signal generation unit in FIG.

【図14】図2の網点/ベタ領域中文字領域信号作成部
の概略構成を示すブロック図である。
FIG. 14 is a block diagram showing a schematic configuration of a halftone dot / solid area character area signal generating unit in FIG. 2;

【図15】図1のMTF補正部の概略構成を示すブロッ
ク図である。
15 is a block diagram showing a schematic configuration of an MTF correction unit in FIG.

【図16】−45度微分フィルタを示す図である。FIG. 16 is a diagram showing a −45 degree differential filter.

【図17】0度微分フィルタを示す図である。FIG. 17 is a diagram showing a 0-degree differential filter.

【図18】45度微分フィルタを示す図である。FIG. 18 is a diagram showing a 45-degree differential filter.

【図19】90度微分フィルタを示す図である。FIG. 19 is a diagram showing a 90-degree differential filter.

【図20】スムージングフィルタを示す図である。FIG. 20 is a diagram showing a smoothing filter.

【図21】minフィルタを示す図である。FIG. 21 is a diagram showing a min filter.

【図22】図15の置換制御部の概略構成を示すブロッ
ク図である。
22 is a block diagram showing a schematic configuration of a replacement control unit of FIG.

【図23】置換フィルタを示す図である。FIG. 23 is a diagram showing a replacement filter.

【図24】置換フィルタによる処理方法を説明するため
の図である。
FIG. 24 is a diagram for explaining a processing method by a replacement filter.

【図25】処理画像の具体的な一例を示す図である。FIG. 25 is a diagram showing a specific example of a processed image.

【図26】図25の画像に対する処理結果を示す図であ
る。
FIG. 26 is a diagram showing a processing result for the image of FIG. 25.

【図27】ソフトウェアにより本発明を実現した場合に
おける処理内容を示すフローチャートである。
FIG. 27 is a flowchart showing the processing contents when the present invention is realized by software.

【図28】従来の技術における問題点を説明するための
図である。
FIG. 28 is a diagram for explaining a problem in the conventional technique.

【符号の説明】[Explanation of symbols]

11 CCDセンサ 20 領域判別部 21 MTF補正部 25 エッジ信号作成部 26 ベタ領域信号作成部 32 網点/カラー領域信号作成部 33 網点/ベタ領域中文字領域信号作成部 49 外/内エッジ判定部 113 置換制御部 102,103 セレクタ 11 CCD sensor 20 Area discriminator 21 MTF correction unit 25 Edge signal generator 26 Solid Area Signal Creation Unit 32 halftone dot / color area signal creation unit 33 halftone dot / solid area character area signal creation unit 49 Outer / inner edge determination unit 113 Replacement control unit 102,103 selector

フロントページの続き Fターム(参考) 2C062 AA37 5B057 AA11 BA02 BA30 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CC03 CE05 CE06 CE11 CE17 CH09 DA08 DB02 DB06 DB09 DC16 DC25 5C077 LL08 LL09 MP02 MP05 PP03 PP27 PP28 PP46 PP68 PQ12 TT06 5L096 AA02 AA06 FA06 FA43 FA44 GA04 GA55 Continued front page    F-term (reference) 2C062 AA37                 5B057 AA11 BA02 BA30 CA01 CA08                       CA12 CA16 CB01 CB08 CB12                       CB16 CC03 CE05 CE06 CE11                       CE17 CH09 DA08 DB02 DB06                       DB09 DC16 DC25                 5C077 LL08 LL09 MP02 MP05 PP03                       PP27 PP28 PP46 PP68 PQ12                       TT06                 5L096 AA02 AA06 FA06 FA43 FA44                       GA04 GA55

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 画像データを取得する画像データ取得手
段と、 前記画像データ取得手段で取得された画像データに基づ
き注目画素がエッジ領域の外側部分である外エッジ領域
に属するか否かを判別する外エッジ判別手段と、 前記画像データ取得手段で取得された画像データに基づ
き注目画素が下地領域に属するか否かを判別することに
より下地領域を検出する下地領域判別手段と、 前記外エッジ判別手段にて外エッジ領域に属すると判別
された注目画素に対して第1の補正処理を施す第1補正
手段と、 前記外エッジ判別手段にて外エッジ領域に属すると判別
された注目画素に対して、前記第1の補正処理とは異な
る第2の補正処理を施す第2補正手段と、 前記外エッジ判別手段にて外エッジ領域に属すると判別
された注目画素のうち、 前記下地領域判別手段にて下地領域には属さないと判別
された注目画素に対しては前記第1補正手段による第1
の補正処理を施すと決定し、 前記下地領域判別手段にて下地領域に属すると判別され
た注目画素に対しては前記第2補正手段による第2の補
正処理を施すと決定する補正処理決定手段と、を有する
ことを特徴とする画像処理装置。
1. An image data acquisition unit that acquires image data, and determines whether or not a pixel of interest belongs to an outer edge region, which is an outer portion of the edge region, based on the image data acquired by the image data acquisition unit. An outer edge discriminating means, a base area discriminating means for discriminating whether or not the pixel of interest belongs to the base area based on the image data acquired by the image data acquiring means, and the outer edge discriminating means. For the target pixel determined to belong to the outer edge region by the first correction unit, and for the target pixel determined to belong to the outer edge region by the outer edge determination unit A second correction unit that performs a second correction process different from the first correction process, and a pixel of interest determined to belong to an outer edge region by the outer edge determination unit, For the pixel of interest that is determined not to belong to the background area by the background area determination means, the first correction means first
Correction processing determining means that determines to perform the second correction processing by the second correcting means on the pixel of interest that is determined to be performed by the background area determining means and that belongs to the background area. An image processing apparatus comprising:
【請求項2】 請求項1に記載する画像処理装置におい
て、 前記第1補正手段による第1の補正処理は、エッジ減衰
処理であり、 前記第2補正手段による第2の補正処理は、注目画素の
濃度をその周辺濃度に置換する置換処理であることを特
徴とする画像処理装置。
2. The image processing device according to claim 1, wherein the first correction processing by the first correction means is edge attenuation processing, and the second correction processing by the second correction means is a target pixel. The image processing apparatus is characterized in that it is a replacement process for replacing the density of the image with the peripheral density thereof.
【請求項3】 請求項2に記載する画像処理装置におい
て、 前記置換処理は、前記下地領域判別手段にて下地領域で
あると検出された領域における平均濃度に置換する処理
であることを特徴とする画像処理装置。
3. The image processing apparatus according to claim 2, wherein the replacement process is a process of replacing with an average density of a region detected as a background region by the background region determination means. Image processing device.
【請求項4】 画像データを取得する画像データ取得手
段と、 前記画像データ取得手段で取得された画像データに基づ
き注目画素がエッジ領域の外側部分である外エッジ領域
に属するか否かを判別する外エッジ判別手段と、 前記画像データ取得手段で取得された画像データに基づ
き注目画素が下地領域に属するか否かを判別することに
より下地領域を検出する下地領域判別手段と、 前記外エッジ判別手段にて外エッジ領域に属すると判別
され、かつ、前記下地領域判別手段にて下地領域に属す
ると判別された注目画素の濃度を、その注目画素の周辺
画素における濃度に基づき算出される値に置換する置換
手段と、を有することを特徴とする画像処理装置。
4. An image data acquisition unit that acquires image data, and determines whether the pixel of interest belongs to an outer edge region that is an outer portion of the edge region based on the image data acquired by the image data acquisition unit. An outer edge discriminating means, a base area discriminating means for discriminating whether or not the pixel of interest belongs to the base area based on the image data acquired by the image data acquiring means, and the outer edge discriminating means. Replaces the density of the pixel of interest that is determined to belong to the outer edge area and that is determined to belong to the background area by the background area determination means to a value calculated based on the density of the peripheral pixels of the pixel of interest. An image processing apparatus, comprising:
【請求項5】 請求項4に記載する画像処理装置におい
て、 前記置換手段は、注目画素の周辺画素における濃度に基
づき算出される値として、前記下地領域判別手段にて下
地領域と判別された領域における平均濃度を用いること
を特徴とする画像処理装置。
5. The image processing apparatus according to claim 4, wherein the replacement unit is a region that is determined to be a background region by the background region determination unit as a value calculated based on the densities of peripheral pixels of the pixel of interest. An image processing apparatus characterized by using the average density in.
【請求項6】 コンピュータに、 画像データを取得する画像データ取得ステップと、 前記画像データ取得ステップで取得された画像データに
基づき注目画素がエッジ領域の外側部分である外エッジ
領域に属するか否かを判別する外エッジ判別ステップ
と、 前記画像データ取得ステップで取得された画像データに
基づき注目画素が下地領域に属するか否かを判別するこ
とにより下地領域を検出する下地領域判別ステップと、 前記外エッジ判別ステップにて外エッジ領域に属すると
判別された注目画素のうち、前記下地領域判別ステップ
にて下地領域に属すると判別された注目画素に対して、
その注目画素の濃度を前記下地領域判別ステップにて下
地領域であると検出された領域における平均濃度に置換
する置換処理を施す補正処理ステップと、を実行させる
ための画像処理プログラム。
6. An image data acquisition step of acquiring image data in a computer, and whether or not the pixel of interest belongs to an outer edge area which is an outer portion of the edge area based on the image data acquired in the image data acquisition step. An outer edge determination step of determining the background area, a background area determination step of detecting a background area by determining whether or not the pixel of interest belongs to the background area based on the image data acquired in the image data acquisition step, Among the target pixels determined to belong to the outer edge area in the edge determination step, with respect to the target pixel determined to belong to the base area in the base area determination step,
An image processing program for executing a replacement process step of performing a replacement process for replacing the density of the pixel of interest with the average density in the area detected as the background area in the background area determination step.
JP2001204714A 2001-07-05 2001-07-05 Image processing apparatus and image processing program Expired - Fee Related JP4150844B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2001204714A JP4150844B2 (en) 2001-07-05 2001-07-05 Image processing apparatus and image processing program
US10/187,950 US7099520B2 (en) 2001-07-05 2002-07-03 Image processing apparatus, image processing method, and program product for image processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001204714A JP4150844B2 (en) 2001-07-05 2001-07-05 Image processing apparatus and image processing program

Publications (2)

Publication Number Publication Date
JP2003018409A true JP2003018409A (en) 2003-01-17
JP4150844B2 JP4150844B2 (en) 2008-09-17

Family

ID=19041139

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001204714A Expired - Fee Related JP4150844B2 (en) 2001-07-05 2001-07-05 Image processing apparatus and image processing program

Country Status (2)

Country Link
US (1) US7099520B2 (en)
JP (1) JP4150844B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006048225A (en) * 2004-08-02 2006-02-16 Ricoh Co Ltd Image processor
US7502512B2 (en) 2004-05-21 2009-03-10 Konica Minolta Business Technologies, Inc. Image processing apparatus and image processing method
JP2011169896A (en) * 2010-02-17 2011-09-01 Boeing Co:The Advanced background estimation technique and circuit for hyper-spectral target detection method

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005045404A (en) * 2003-07-24 2005-02-17 Ricoh Co Ltd Image processor and method, and program
US20050105820A1 (en) * 2003-11-18 2005-05-19 Xing-Ping Zhou Method for enhancing monochrome text image
US7970187B2 (en) * 2005-09-06 2011-06-28 Pie Medical Imaging B.V. Method, apparatus and computer program for contour detection of vessels using x-ray densitometry
US20070100223A1 (en) * 2005-10-14 2007-05-03 Rui Liao Method and system for cardiac imaging and catheter guidance for radio frequency (RF) ablation
JP4871144B2 (en) * 2006-01-13 2012-02-08 株式会社東芝 Image processing apparatus, method, and program
JP4775052B2 (en) * 2006-03-17 2011-09-21 ソニー株式会社 Image processing apparatus and method, and program
JP4637063B2 (en) * 2006-07-04 2011-02-23 キヤノン株式会社 Image processing apparatus, image processing method, and program
KR101062202B1 (en) * 2007-02-06 2011-09-05 삼성전자주식회사 Image processing apparatus, image processing method and recording medium thereof
KR20090005843A (en) * 2007-07-10 2009-01-14 삼성전자주식회사 Imaging apparatus and method for improving sensitivity thereof
JP5078147B2 (en) * 2008-03-04 2012-11-21 株式会社リコー Image processing apparatus and image pickup apparatus
JP2009278416A (en) * 2008-05-15 2009-11-26 Seiko Epson Corp Image printing system, image printing method, and computer-readable medium
KR101114744B1 (en) * 2009-02-12 2012-03-05 전남대학교산학협력단 Method for recognizing a text from an image
US8111943B2 (en) * 2009-04-15 2012-02-07 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Smart image enhancement process
JP2012169762A (en) 2011-02-10 2012-09-06 Sony Corp Image coding device, image decoding device, methods thereof, and programs
US9424499B2 (en) * 2014-07-11 2016-08-23 Oce-Technologies B.V. Method for printing a grayscale raster image by grayscale value dispersion

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08191392A (en) * 1995-01-11 1996-07-23 Mita Ind Co Ltd Image processor
JP2000307869A (en) * 1999-04-23 2000-11-02 Minolta Co Ltd Device and method for image processing and computer- readable storage medium with image processing procedure stored therein

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2589295B2 (en) * 1986-11-14 1997-03-12 キヤノン株式会社 Image forming device
JPH02253765A (en) * 1989-03-28 1990-10-12 Toshiba Corp Picture processor
JPH0591328A (en) * 1991-09-30 1993-04-09 Ricoh Co Ltd Picture processor
JP3335830B2 (en) * 1995-12-28 2002-10-21 シャープ株式会社 Image processing device
US6072889A (en) * 1997-12-03 2000-06-06 The Raytheon Company Method and system for imaging target detection
JP3789243B2 (en) 1998-12-02 2006-06-21 株式会社リコー Image processing apparatus and method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08191392A (en) * 1995-01-11 1996-07-23 Mita Ind Co Ltd Image processor
JP2000307869A (en) * 1999-04-23 2000-11-02 Minolta Co Ltd Device and method for image processing and computer- readable storage medium with image processing procedure stored therein

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7502512B2 (en) 2004-05-21 2009-03-10 Konica Minolta Business Technologies, Inc. Image processing apparatus and image processing method
JP2006048225A (en) * 2004-08-02 2006-02-16 Ricoh Co Ltd Image processor
JP4553297B2 (en) * 2004-08-02 2010-09-29 株式会社リコー Image processing device
JP2011169896A (en) * 2010-02-17 2011-09-01 Boeing Co:The Advanced background estimation technique and circuit for hyper-spectral target detection method

Also Published As

Publication number Publication date
JP4150844B2 (en) 2008-09-17
US20030007183A1 (en) 2003-01-09
US7099520B2 (en) 2006-08-29

Similar Documents

Publication Publication Date Title
JP4150844B2 (en) Image processing apparatus and image processing program
JPH07106646B2 (en) Image processing device
JP3334042B2 (en) IMAGE PROCESSING APPARATUS, IMAGE READING APPARATUS AND IMAGE FORMING APPARATUS EQUIPPED WITH THE SAME, IMAGE PROCESSING METHOD, AND COMPUTER-READABLE STORAGE MEDIUM CONTAINING IMAGE PROCESSING PROCEDURE
US7466453B2 (en) Image processing apparatus
US7003152B1 (en) Image processing apparatus
JP4013478B2 (en) Image processing device
JP3560776B2 (en) Color type discriminator
JP2009044616A (en) Image processing apparatus and image processing method
US7034962B2 (en) Image processing apparatus
JP3944032B2 (en) Image processing apparatus and method
JP2001119575A (en) Image processing unit
JP3767210B2 (en) Document type determination device and image processing device
JP2003189091A (en) Apparatus, method and program for processing image
JP4437621B2 (en) Region detection apparatus and method
JP2002057886A (en) Image processor and image processing method
JP2003189092A (en) Device, method and program for processing image
JP3448083B2 (en) Image signal processing device
JP4154867B2 (en) Image area discrimination apparatus and image area discrimination program
JPH11220618A (en) Color picture processor and color picture processing method
JP2000134476A (en) Image processor and its control method, and storage medium
JPH09247481A (en) Picture processor
JPH06205204A (en) Picture processing unit
JP2001245142A (en) Image processing apparatus and method
JPH09322007A (en) Color image processor and its method
JP2002258420A (en) Image processor

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050614

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060323

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20071016

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080603

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080616

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110711

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120711

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130711

Year of fee payment: 5

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees