JP2012124711A - Image processor, image forming apparatus, control method of image processor, and control program of image processor - Google Patents

Image processor, image forming apparatus, control method of image processor, and control program of image processor Download PDF

Info

Publication number
JP2012124711A
JP2012124711A JP2010273748A JP2010273748A JP2012124711A JP 2012124711 A JP2012124711 A JP 2012124711A JP 2010273748 A JP2010273748 A JP 2010273748A JP 2010273748 A JP2010273748 A JP 2010273748A JP 2012124711 A JP2012124711 A JP 2012124711A
Authority
JP
Japan
Prior art keywords
region
image
edge
replacement
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010273748A
Other languages
Japanese (ja)
Inventor
Kenya Haba
健矢 羽場
Kazuhiro Ishiguro
和宏 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Business Technologies Inc
Original Assignee
Konica Minolta Business Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Business Technologies Inc filed Critical Konica Minolta Business Technologies Inc
Priority to JP2010273748A priority Critical patent/JP2012124711A/en
Publication of JP2012124711A publication Critical patent/JP2012124711A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processor capable of executing screen processing in order to improve readability while holding more information of input images.SOLUTION: A control part of the image processor executes screen processing for the input image read by an original read part. The control part reads the input image and detects a character region and a background region (S100, S101). The control part calculates edge intensity for pixels in the character region and executes edge determination (S102, S103). When the edge is not determined for a target pixel at the boundary part of the character region and the background region (S104:YES, S105:NO), the control part extends an outer edge region (S107), and replaces image data in the extended region (S108). Thus, the character region and the background region are separated and the readability of output images is improved. When the edge is determined for the target pixel at the boundary part (S105:YES), edge emphasis processing is executed (S106).

Description

この発明は、画像処理装置、画像形成装置、画像処理装置の制御方法、及び画像処理装置の制御プログラムに関し、特に、画像データについてスクリーン処理を行う画像処理装置、画像形成装置、画像処理装置の制御方法、及び画像処理装置の制御プログラムに関する。   The present invention relates to an image processing apparatus, an image forming apparatus, an image processing apparatus control method, and an image processing apparatus control program, and more particularly to an image processing apparatus that performs screen processing on image data, an image forming apparatus, and an image processing apparatus control. The present invention relates to a method and a control program for an image processing apparatus.

画像形成装置(スキャナ機能、ファクシミリ機能、複写機能、プリンタとしての機能、データ通信機能、及びサーバ機能を備えたMFP(Multi Function Peripheral)、ファクシミリ装置、複写機、プリンタなど)などにおいて行われる画像処理としては、主に解像度再現に適した誤差拡散と、粒状性に優れたスクリーン処理とがある。例えば、画像形成装置において設けられているスクリーン処理を行う画像処理装置では、ページごとに画像データを生成するラスタライズ処理を行った後、画像データについてスクリーン処理を行うことで、画像形成用の画像データを生成する。   Image processing performed in an image forming apparatus (MFP (Multi Function Peripheral), facsimile apparatus, copying machine, printer, etc.) having a scanner function, a facsimile function, a copying function, a printer function, a data communication function, and a server function In particular, there are error diffusion suitable for resolution reproduction and screen processing with excellent graininess. For example, in an image processing apparatus that performs screen processing provided in an image forming apparatus, after performing rasterization processing that generates image data for each page, image processing for image formation is performed by performing screen processing on the image data. Is generated.

下記特許文献1には、文字領域候補のうち文字領域と背景領域とを分離する処理を行う画像処理装置が開示されている。この画像処理装置では、入力画像のエッジを抽出し、2値化により抽出した大まかな文字領域に対し、抽出したエッジの周囲画素を削除することによって文字領域と背景の自然画像領域とを分離する処理が行われる。   Patent Document 1 below discloses an image processing apparatus that performs a process of separating a character area and a background area among character area candidates. In this image processing apparatus, an edge of an input image is extracted, and a character area and a natural image area of a background are separated from a rough character area extracted by binarization by deleting pixels around the extracted edge. Processing is performed.

下記特許文献2には、下地領域及び文字外エッジ領域にはエッジ強調処理を行い、非下地領域及び文字外エッジ領域にはその周囲に存在する下地領域の平均値に置換する処理を行う画像処理装置が開示されている。これらの処理は、文字の周囲に白い縁取りが形成されたり色濁りが発生したりしないようにする目的で行われる。   In Patent Document 2 below, image processing is performed in which edge enhancement processing is performed on the background region and the non-character edge region, and processing is performed on the non-background region and the non-character edge region with an average value of the surrounding region existing therearound. An apparatus is disclosed. These processes are carried out for the purpose of preventing white borders from being formed around the characters and color turbidity from occurring.

特開平6−334857号公報JP-A-6-334857 特開2003−018409号公報JP 2003-018409 A

ところで、上記のような画像処理装置において、画像データのスクリーン処理を行う場合、スクリーン線数と解像度とは、互いにトレードオフの関係に立つ。すなわち、例えば連続階調領域において高い解像度を維持するためには、スクリーン線数を一定以下に抑える必要がある。しかしながら、文字を含む画像データをスクリーンで印字する場合には、連続階調領域と文字領域とで同じスクリーン線数でスクリーン処理を行うと、小ポイント文字の部分などにおいて、画像の再現性が低下することがある。   By the way, in the image processing apparatus as described above, when screen processing of image data is performed, the screen line number and the resolution are in a trade-off relationship. That is, for example, in order to maintain a high resolution in a continuous tone region, it is necessary to keep the number of screen lines below a certain level. However, when image data including characters is printed on the screen, if the screen processing is performed with the same number of screen lines in the continuous tone area and the character area, the reproducibility of the image is reduced in a small-point character portion or the like. There are things to do.

上記問題の解決策としては、文字領域と文字領域の周囲の下地領域とが含まれる画像についてスクリーン処理が行われるとき、文字領域には文字領域専用の高線数スクリーンによりスクリーン処理を行うことが考えられる。これにより、文字領域の再現性が維持される。また、この場合、文字領域と文字領域の周囲の下地領域とが含まれる画像についてスクリーン処理が行われるとき、下地領域との境となる文字領域のエッジを判定し、文字領域の内エッジを塗りつぶす処理(ベタ処理、FEET処理)が行われる。これにより、文字領域をよりシャープに再現させることができる。   As a solution to the above problem, when screen processing is performed on an image including a character region and a background region surrounding the character region, the character region may be screened by a high-frequency screen dedicated to the character region. Conceivable. Thereby, the reproducibility of the character area is maintained. In this case, when screen processing is performed on an image including a character area and a background area around the character area, the edge of the character area that is a boundary with the background area is determined, and the inner edge of the character area is filled. Processing (solid processing, FEET processing) is performed. Thereby, a character area can be reproduced more sharply.

しかしながら、上記解決策においては、別の問題点がある。すなわち、例えば着色された下地領域上に文字がある場合であって、文字領域とその周囲(下地)領域との明度差(濃度差)が小さいときには、文字領域の内エッジが判定できない。そのため、エッジを塗りつぶす処理を行うことができず、文字領域のスクリーンと、下地領域のスクリーンとの境界において、模様(テクスチャ)が発生することがある。   However, the above solution has another problem. That is, for example, when there is a character on a colored background region, and the brightness difference (density difference) between the character region and the surrounding (background) region is small, the inner edge of the character region cannot be determined. For this reason, the process of filling the edge cannot be performed, and a pattern (texture) may occur at the boundary between the screen of the character area and the screen of the base area.

また、たとえ内エッジが検出して塗りつぶし処理を行ったとしても、又は検出した文字属性を用いて塗りつぶし処理を行ったとしても、良好な処理結果は得られない。すなわち、塗りつぶし処理を行う場合、もともと精細な階調再現は望めないところ、所望の濃度よりも濃く塗りつぶしを行うようにするほかない。そのため、文字領域とその下地領域との明度差が小さい場合は、塗りつぶし処理を行うことにより、その部位の輪郭が非常に目立ち、見栄えが悪くなる。   Even if the inner edge is detected and the filling process is performed, or the filling process is performed using the detected character attribute, a satisfactory processing result cannot be obtained. In other words, when performing the filling process, fine gradation reproduction cannot be originally expected, but there is no choice but to paint more deeply than the desired density. For this reason, when the brightness difference between the character area and the background area is small, the outline of the part becomes very conspicuous and poor in appearance by performing the painting process.

図19は、従来のスクリーン処理の一例について説明する第1の図である。   FIG. 19 is a first diagram illustrating an example of conventional screen processing.

図19において、上下2つの画像のうち、上段が入力画像500を示し、下段が従来のスクリーン処理が行われた結果出力される出力画像510を示す。図を参照して、入力画像500として、着色された下地領域501上に下地領域501と異なる色で文字領域502が配置されているものを想定する。ここで、下地領域501の色は、茶色であり、文字領域502の色は、下地よりも明るいカーキ色である。入力画像500は、下地領域501と文字領域502との明度差が小さいものである。   In FIG. 19, of the two upper and lower images, the upper part shows the input image 500, and the lower part shows the output image 510 output as a result of the conventional screen processing. Referring to the figure, an input image 500 is assumed in which a character area 502 is arranged on a colored background area 501 in a color different from that of the background area 501. Here, the color of the background area 501 is brown, and the color of the character area 502 is a khaki color brighter than the background. The input image 500 has a small brightness difference between the background area 501 and the character area 502.

このような入力画像についてスクリーン処理が行われると、下地領域511と文字領域512とを含む出力画像510が得られる。下地領域511は、下地領域501に対応する明度である。文字領域512は、文字領域502に対応する明度である。文字領域512と下地領域511との境界部分では、エッジが判定されないので、この部分において塗りつぶす処理などが行われない。そのため、出力画像510では、文字領域512の輪郭部分で下地領域511とのテクスチャノイズが目立ってしまう。   When screen processing is performed on such an input image, an output image 510 including a base area 511 and a character area 512 is obtained. The background area 511 has brightness corresponding to the background area 501. The character area 512 has brightness corresponding to the character area 502. Since an edge is not determined at the boundary portion between the character region 512 and the background region 511, a process of filling in this portion is not performed. Therefore, in the output image 510, texture noise with the background region 511 is conspicuous in the outline portion of the character region 512.

図20は、従来のスクリーン処理の別例について説明する第2の図である。   FIG. 20 is a second diagram for explaining another example of the conventional screen processing.

図20において、上下2つの画像のうち、上段が入力画像600を示し、下段が従来のスクリーン処理が行われた結果出力される出力画像610を示す。図を参照して、入力画像として、着色された下地領域601上に下地領域601と異なる色で文字領域602が配置されているものを想定する。ここで、下地領域601の色は、灰色であり、文字領域602の色は、下地領域601よりもわずかに明るい灰色である。入力画像600は、下地領域601と文字領域602との明度差が小さいものである。   In FIG. 20, among the two upper and lower images, the upper part shows the input image 600, and the lower part shows the output image 610 output as a result of the conventional screen processing. Referring to the figure, an input image is assumed in which a character area 602 is arranged on a colored background area 601 in a color different from that of the background area 601. Here, the color of the background area 601 is gray, and the color of the character area 602 is slightly lighter gray than the background area 601. The input image 600 has a small brightness difference between the background area 601 and the character area 602.

このような入力画像500についてスクリーン処理が行われると、下地領域611と文字領域612とを含む出力画像610が得られる。下地領域611は、下地領域601に対応する明度である。文字領域612は、文字領域602に対応する明度である。文字領域612と下地領域611との境界部分では、エッジが判定されないので、この部分において塗りつぶす処理などが行われない。この場合、下地領域611と文字領域612との明度差がほとんどないので、出力画像610では、文字領域612の輪郭部分で下地領域611とを判別しづらく、文字領域611が示す文字が読み取りにくくなってしまう。   When screen processing is performed on such an input image 500, an output image 610 including a base area 611 and a character area 612 is obtained. The background area 611 has brightness corresponding to the background area 601. The character area 612 has brightness corresponding to the character area 602. Since an edge is not determined at the boundary portion between the character region 612 and the background region 611, the process of filling in this portion is not performed. In this case, since there is almost no difference in brightness between the background area 611 and the character area 612, it is difficult to distinguish the background area 611 from the outline portion of the character area 612 in the output image 610, and it is difficult to read the characters indicated by the character area 611. End up.

上記問題点に関して、特許文献1に記載の画像処理装置では、入力画像が処理されると、抽出したエッジの周囲画素を削除することで文字領域が背景から分離される。しかしながら、エッジ強度が高くても低くても同様に周辺画素の削除が行われるため、入力画像の情報が常にある程度損なわれるという問題がある。   Regarding the above problem, in the image processing apparatus described in Patent Document 1, when an input image is processed, a character region is separated from the background by deleting pixels around the extracted edge. However, since the peripheral pixels are similarly deleted regardless of whether the edge strength is high or low, there is a problem that the information of the input image is always lost to some extent.

上記問題点に関して、特許文献2に記載の画像処理装置は、文字領域の外エッジ領域を置換する処理を行うことで文字の可読性を向上させる。しかしながら、この画像処理装置では、下地と文字の明度差が小さいときに発生する、スクリーンの干渉によるノイズや、文字と下地との境界の識別ができないといった課題を解決できない。   Regarding the above problem, the image processing apparatus described in Patent Document 2 improves the readability of characters by performing a process of replacing the outer edge region of the character region. However, this image processing apparatus cannot solve the problems that occur when the brightness difference between the background and the character is small, such as noise due to screen interference and the inability to identify the boundary between the character and the background.

この発明はそのような問題点を解決するためになされたものであり、入力画像の情報をより多く保持したままで可読性が向上するようにスクリーン処理を実行可能な画像処理装置、画像形成装置、画像処理装置の制御方法、及び画像処理装置の制御プログラムを提供することを目的としている。   The present invention has been made to solve such problems, and an image processing apparatus, an image forming apparatus, and an image processing apparatus capable of executing screen processing so as to improve readability while retaining more information of an input image. It is an object of the present invention to provide an image processing apparatus control method and an image processing apparatus control program.

上記目的を達成するためこの発明のある局面に従うと、スクリーン処理を行い、画像形成装置において印字されるスクリーン画像を出力する画像処理装置は、入力画像を読み込む読込手段と、読込手段により読み込まれた入力画像に存在する、文字領域と文字領域以外の下地領域との境界を検出する境界検出手段と、文字領域のエッジ強度を算出する強度算出手段と、強度算出手段により算出されたエッジ強度に基づいて文字領域と下地領域との境界の下地領域側の外エッジ領域を判定する第1のエッジ判定手段と、境界検出手段による検出結果及び第1のエッジ判定手段の判定結果に基づいて、外エッジ領域を下地領域に拡張する拡張手段と、拡張手段により拡張された外エッジ領域の画像データを置換データに置換する置換手段と、入力画像のうち文字領域と下地領域との境界部分の特徴に関する条件を満たすか否かの評価を行う評価手段とを備え、評価手段による評価結果に基づいて、拡張手段が拡張を行い、置換手段が置換を行う。   In order to achieve the above object, according to one aspect of the present invention, an image processing apparatus that performs screen processing and outputs a screen image printed in an image forming apparatus is read by an input image and read by the reading means Based on the boundary detection means for detecting the boundary between the character area and the background area other than the character area, the strength calculation means for calculating the edge strength of the character area, and the edge strength calculated by the strength calculation means. First edge determination means for determining the outer edge area on the background area side of the boundary between the character area and the background area, and based on the detection result by the boundary detection means and the determination result of the first edge determination means An expansion means for extending the area to the base area, a replacement means for replacing the image data of the outer edge area expanded by the expansion means with replacement data, and an input Evaluation means for evaluating whether or not a condition relating to the characteristics of the boundary portion between the character area and the background area in the image is satisfied, the expansion means expands based on the evaluation result by the evaluation means, and the replacement means Perform replacement.

好ましくは画像処理装置は、強度算出手段により算出されたエッジ強度に基づいてエッジ判定を行う第2のエッジ判定手段をさらに備え、評価手段は、文字領域の輪郭画素に対して第2のエッジ判定手段によりエッジ判定が行われたか否かを評価し、評価手段によりエッジ判定が行われなかったと評価されたとき、拡張手段が拡張を行い、置換手段が置換を行う。   Preferably, the image processing apparatus further includes a second edge determination unit that performs edge determination based on the edge strength calculated by the strength calculation unit, and the evaluation unit performs the second edge determination on the contour pixel of the character region. It is evaluated whether or not the edge determination is performed by the means, and when it is evaluated that the edge determination is not performed by the evaluation means, the expansion means performs expansion and the replacement means performs replacement.

好ましくは画像処理装置は、第2のエッジ判定手段により判定されたエッジを強調する強調処理を行う強調処理手段をさらに備え、評価手段によりエッジ判定が行われたと評価されたとき、強調処理手段が強調処理を行う。   Preferably, the image processing apparatus further includes an enhancement processing unit that performs an enhancement process for enhancing the edge determined by the second edge determination unit, and when the evaluation unit evaluates that the edge determination is performed, the enhancement processing unit Perform enhancement processing.

好ましくは画像処理装置は、処理対象の領域の塗りつぶし処理を行う塗りつぶし手段をさらに備え、塗りつぶし手段は、強度算出手段により算出されたエッジ強度が所定の強度よりも高いとき、文字領域の輪郭画素に対して塗りつぶし処理を行う。   Preferably, the image processing apparatus further includes a filling unit that performs a filling process of the region to be processed, and the filling unit applies the contour pixel of the character region when the edge strength calculated by the strength calculating unit is higher than a predetermined strength. The fill process is performed on the image.

好ましくは拡張手段は、強度算出手段により算出されたエッジ強度に応じて拡張サイズを決定し、決定した拡張サイズに応じて、拡張を行う。   Preferably, the expansion unit determines an expansion size according to the edge strength calculated by the strength calculation unit, and performs expansion according to the determined expansion size.

好ましくは置換手段は、強度算出手段により算出されたエッジ強度に応じて置換データを生成し、生成した置換データで、置換を行う。   Preferably, the replacement unit generates replacement data according to the edge strength calculated by the strength calculation unit, and performs replacement with the generated replacement data.

好ましくは画像処理装置は、読込手段により読み込まれた入力画像の各画素の明度を算出する明度算出手段をさらに備え、評価手段は、明度算出手段により算出された文字領域の輪郭画素とその輪郭画素に隣接する下地領域の画素との明度差が所定値以下であるか否かを評価し、評価手段により明度差が所定値以下であると評価されたとき、拡張手段が拡張を行い、置換手段が置換を行う。   Preferably, the image processing apparatus further includes a brightness calculation unit that calculates the brightness of each pixel of the input image read by the reading unit, and the evaluation unit includes the contour pixel of the character region calculated by the brightness calculation unit and the contour pixel thereof. Whether or not the brightness difference with a pixel in the background region adjacent to the predetermined value is equal to or smaller than a predetermined value, and when the evaluation means evaluates that the brightness difference is equal to or smaller than the predetermined value, the expanding means expands and replaces Performs the replacement.

好ましくは拡張手段は、明度算出手段により算出された文字領域の輪郭画素に隣接する下地領域の画素の明度に応じて拡張サイズを決定し、決定した拡張サイズに応じて、拡張を行う。   Preferably, the extension means determines an extension size according to the brightness of the pixel in the background area adjacent to the contour pixel of the character area calculated by the brightness calculation means, and performs extension according to the determined extension size.

好ましくは置換手段は、明度算出手段により算出された文字領域の輪郭画素に隣接する下地領域の画素の明度に応じて置換データを生成し、生成した置換データで、置換を行う。   Preferably, the replacement means generates replacement data according to the lightness of the pixel in the background area adjacent to the contour pixel of the character area calculated by the lightness calculation means, and performs replacement with the generated replacement data.

好ましくは画像処理装置は、読込手段により読み込まれた入力画像の各画素の明度を算出する明度算出手段をさらに備え、拡張手段は、明度算出手段により算出された文字領域の輪郭画素の明度と輪郭画素に隣接する下地領域の画素の明度とに応じて拡張サイズを決定し、決定した拡張サイズに応じて、拡張を行う。   Preferably, the image processing apparatus further includes lightness calculation means for calculating the lightness of each pixel of the input image read by the read means, and the expansion means includes the lightness and the contour of the contour pixel of the character area calculated by the lightness calculation means. The expansion size is determined according to the brightness of the pixel in the background area adjacent to the pixel, and the expansion is performed according to the determined expansion size.

好ましくは画像処理装置は、読込手段により読み込まれた入力画像の各画素の明度を算出する明度算出手段をさらに備え、置換手段は、明度算出手段により算出された文字領域の輪郭画素の明度と輪郭画素に隣接する下地領域の画素の明度とに応じて置換データを生成し、生成した置換データで、置換を行う。   Preferably, the image processing apparatus further includes lightness calculation means for calculating the lightness of each pixel of the input image read by the reading means, and the replacement means includes the lightness and the contour of the contour pixel of the character area calculated by the lightness calculation means. Replacement data is generated according to the brightness of the pixel in the background area adjacent to the pixel, and replacement is performed with the generated replacement data.

好ましくは第1のエッジ判定手段は、強度算出手段により算出されたエッジ強度に基づいて文字領域と下地領域との境界の文字領域側の内エッジ領域を判定し、画像処理装置は、強度算出手段の算出結果と、境界検出手段の検出結果と、第1のエッジ判定手段による内エッジ領域の判定結果とに基づいて、内エッジ領域の画像データ及び文字領域の輪郭領域の画像データを決定する処理を行う境界処理部をさらに備える。   Preferably, the first edge determination unit determines an inner edge region on the character region side of the boundary between the character region and the background region based on the edge strength calculated by the strength calculation unit, and the image processing apparatus includes the strength calculation unit. Processing for determining the image data of the inner edge region and the image data of the contour region of the character region based on the calculation result of, the detection result of the boundary detection unit, and the determination result of the inner edge region by the first edge determination unit A boundary processing unit is further provided.

この発明の他の局面に従うと、画像形成装置は、上述のいずれかに記載の画像処理装置と、画像処理装置により処理された画像データに基づいてスクリーン画像を形成する画像形成部とを備える。   According to another aspect of the present invention, an image forming apparatus includes any of the image processing apparatuses described above and an image forming unit that forms a screen image based on image data processed by the image processing apparatus.

この発明のさらに他の局面に従うと、スクリーン処理を行い、画像形成装置において印字されるスクリーン画像を出力する画像処理装置の制御方法は、入力画像を読み込む読込ステップと、読込ステップにより読み込まれた入力画像に存在する、文字領域と文字領域以外の下地領域との境界を検出する境界検出ステップと、文字領域のエッジ強度を算出する強度算出ステップと、強度算出ステップにより算出されたエッジ強度に基づいて文字領域と下地領域との境界の下地領域側の外エッジ領域を判定するエッジ判定ステップと、境界検出ステップによる検出結果及びエッジ判定ステップの判定結果に基づいて、外エッジ領域を下地領域に拡張する拡張ステップと、拡張ステップにより拡張された外エッジ領域の画像データを置換データに置換する置換ステップと、入力画像のうち文字領域と下地領域との境界部分の特徴に関する条件を満たすか否かの評価を行う評価ステップとを備え、評価ステップによる評価結果に基づいて、拡張ステップが拡張を行い、置換ステップが置換を行う。   According to still another aspect of the present invention, a method for controlling an image processing apparatus that performs screen processing and outputs a screen image printed in an image forming apparatus includes a reading step of reading an input image, and an input read by the reading step Based on the boundary detection step for detecting the boundary between the character region and the background region other than the character region existing in the image, the strength calculation step for calculating the edge strength of the character region, and the edge strength calculated by the strength calculation step An edge determination step for determining the outer edge region on the background region side of the boundary between the character region and the background region, and the outer edge region is extended to the background region based on the detection result of the boundary detection step and the determination result of the edge determination step. The expansion step and the image data of the outer edge area expanded by the expansion step are placed in the replacement data. A replacement step, and an evaluation step for evaluating whether or not a condition related to the feature of the boundary portion between the character region and the background region in the input image is satisfied. The expansion step is expanded based on the evaluation result of the evaluation step. And the replacement step performs the replacement.

この発明のさらに他の局面に従うと、スクリーン処理を行い、画像形成装置において印字されるスクリーン画像を出力する画像処理装置の制御プログラムは、入力画像を読み込む読込ステップと、読込ステップにより読み込まれた入力画像に存在する、文字領域と文字領域以外の下地領域との境界を検出する境界検出ステップと、文字領域のエッジ強度を算出する強度算出ステップと、強度算出ステップにより算出されたエッジ強度に基づいて文字領域と下地領域との境界の下地領域側の外エッジ領域を判定するエッジ判定ステップと、境界検出ステップによる検出結果及びエッジ判定ステップの判定結果に基づいて、外エッジ領域を下地領域に拡張する拡張ステップと、拡張ステップにより拡張された外エッジ領域の画像データを置換データに置換する置換ステップと、入力画像のうち文字領域と下地領域との境界部分の特徴に関する条件を満たすか否かの評価を行う評価ステップとをコンピュータに実行させ、評価ステップによる評価結果に基づいて、拡張ステップが拡張を行い、置換ステップが置換を行う。   According to still another aspect of the present invention, a control program of an image processing apparatus that performs screen processing and outputs a screen image printed in an image forming apparatus includes a reading step for reading an input image, and an input read by the reading step Based on the boundary detection step for detecting the boundary between the character region and the background region other than the character region existing in the image, the strength calculation step for calculating the edge strength of the character region, and the edge strength calculated by the strength calculation step An edge determination step for determining the outer edge region on the background region side of the boundary between the character region and the background region, and the outer edge region is extended to the background region based on the detection result of the boundary detection step and the determination result of the edge determination step. The expansion step and the image data of the outer edge area expanded by the expansion step are replaced with the replacement data. Based on the evaluation result of the evaluation step, the computer executing a replacement step for replacing the input image and an evaluation step for evaluating whether or not a condition relating to the characteristics of the boundary portion between the character region and the background region in the input image is satisfied. The expansion step performs the expansion, and the replacement step performs the replacement.

これらの発明に従うと、入力画像のうち文字領域と下地領域との境界部分の特徴に関する条件を満たすか否かの評価結果に基づいて、外エッジ領域が下地領域に拡張され、置換手段により外エッジ領域の画像データが置換される。したがって、入力画像の情報をより多く保持したままで可読性が向上するようにスクリーン処理を実行可能な画像処理装置、画像形成装置、画像処理装置の制御方法、及び画像処理装置の制御プログラムを提供することができる。   According to these inventions, the outer edge region is expanded to the background region based on the evaluation result as to whether or not the condition regarding the characteristics of the boundary portion between the character region and the background region in the input image is satisfied, and the outer edge is expanded by the replacement unit. The image data of the area is replaced. Therefore, an image processing apparatus, an image forming apparatus, an image processing apparatus control method, and an image processing apparatus control program capable of executing screen processing so as to improve readability while retaining more information of an input image are provided. be able to.

本発明の第1の実施の形態における画像処理装置を備えた画像形成装置を示す側面図である。1 is a side view showing an image forming apparatus including an image processing apparatus according to a first embodiment of the present invention. 制御部の構成を示すブロック図である。It is a block diagram which shows the structure of a control part. スクリーン処理を行うときの制御部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the control part when performing a screen process. 本実施の形態における入力画像とスクリーン処理後の出力画像との関係の第1の例を示す図である。It is a figure which shows the 1st example of the relationship between the input image in this Embodiment, and the output image after a screen process. 本実施の形態における入力画像とスクリーン処理後の出力画像との関係の第2の例を示す図である。It is a figure which shows the 2nd example of the relationship between the input image in this Embodiment, and the output image after a screen process. 入力画像と入力画像のエッジ強度との関係の一例を示す図である。It is a figure which shows an example of the relationship between the input image and the edge strength of an input image. 第1の変型例におけるエッジ強度と外エッジ拡張量との関係を示すグラフである。It is a graph which shows the relationship between the edge intensity | strength and outer edge expansion amount in a 1st modification. 第1の変型例における出力画像を示す図である。It is a figure which shows the output image in the 1st modification. 第2の変型例におけるエッジ強度と置換データの階調との関係を示すグラフである。It is a graph which shows the relationship between the edge strength in the 2nd modification, and the gradation of replacement data. 第2の変型例における出力画像を示す図である。It is a figure which shows the output image in the 2nd modification. 第2の実施の形態における入力画像とスクリーン処理後の出力画像との関係の第1の例を示す図である。It is a figure which shows the 1st example of the relationship between the input image in 2nd Embodiment, and the output image after a screen process. 第2の実施の形態における入力画像とスクリーン処理後の出力画像との関係の第2の例を示す図である。It is a figure which shows the 2nd example of the relationship between the input image in 2nd Embodiment, and the output image after a screen process. 第3の実施の形態における入力画像と入力画像の明度・輝度換算値との関係の一例を示す図である。It is a figure which shows an example of the relationship between the input image in the 3rd Embodiment, and the lightness and brightness | luminance conversion value of an input image. 第3の実施の形態における下地領域の明度及び文字領域の明度と外エッジ拡張量との関係を示すグラフである。It is a graph which shows the relationship between the lightness of a base area | region and the lightness of a character area | region, and an outer edge expansion amount in 3rd Embodiment. 第3の実施の形態における出力画像の一例を示す図である。It is a figure which shows an example of the output image in 3rd Embodiment. 第4の実施の形態における下地領域の明度及び文字領域の明度と置換データの階調との関係を示すグラフである。It is a graph which shows the relationship between the lightness of a base area | region and the lightness of a character area | region, and the gradation of replacement data in 4th Embodiment. スクリーン処理後の出力画像の一例について説明する第1の図である。It is a 1st figure explaining an example of the output image after a screen process. スクリーン処理後の出力画像の別例について説明する第2の図である。It is a 2nd figure explaining another example of the output image after a screen process. 従来のスクリーン処理の一例について説明する第1の図である。It is a 1st figure explaining an example of the conventional screen processing. 従来のスクリーン処理の別例について説明する第2の図である。It is a 2nd figure explaining another example of the conventional screen processing.

以下、本発明の実施の形態における画像形成装置について説明する。   Hereinafter, an image forming apparatus according to an embodiment of the present invention will be described.

画像形成装置は、スキャナ機能、複写機能、プリンタとしての機能、ファクシミリ機能、データ通信機能、及びサーバ機能を備えたMFP(Multi Function Peripheral)である。スキャナ機能は、セットされた原稿の画像を読み取ってそれをHDD(Hard Disk Drive)等に蓄積する機能である。複写機能は、さらにそれを用紙等に印刷(プリント)する機能である。プリンタとしての機能は、PC等の外部端末から印刷指示を受けるとその指示に基づいて用紙に印刷を行う機能である。ファクシミリ機能は、外部のファクシミリ装置等からファクシミリデータを受信してそれをHDD等に蓄積する機能である。データ通信機能は、接続された外部機器との間でデータを送受信する機能である。サーバ機能は、複数のユーザでHDD等に記憶したデータなどを共有可能にする機能である。   The image forming apparatus is an MFP (Multi Function Peripheral) having a scanner function, a copying function, a printer function, a facsimile function, a data communication function, and a server function. The scanner function is a function for reading an image of a set original and storing it in an HDD (Hard Disk Drive) or the like. The copying function is a function of printing (printing) it on paper or the like. The function as a printer is a function for printing on a sheet based on an instruction received from an external terminal such as a PC. The facsimile function is a function for receiving facsimile data from an external facsimile machine or the like and storing it in an HDD or the like. The data communication function is a function for transmitting / receiving data to / from a connected external device. The server function is a function that allows a plurality of users to share data stored in the HDD or the like.

画像形成装置は、例えばPDL(Page Description Language)で記述された描画データに基づいて画像形成可能である。描画データは、データ変換処理部(PDLインタープリタ)で解釈され、生成されたページごとの画像データに変換され、プリントエンジンに出力される。PDLインタープリタは、PDLで記述された描画データを解釈して、中間データに変換する言語解析部と、中間データをフレームに変換するラスタライズ部とを有する。フレームは、スクリーン処理が行われた後、プリンタエンジンに出力される。   The image forming apparatus can form an image based on drawing data described in, for example, PDL (Page Description Language). The drawing data is interpreted by a data conversion processing unit (PDL interpreter), converted into generated image data for each page, and output to the print engine. The PDL interpreter includes a language analysis unit that interprets drawing data described in PDL and converts it into intermediate data, and a rasterization unit that converts intermediate data into frames. The frame is output to the printer engine after screen processing.

画像形成装置は、画像データについてスクリーン処理を行って印字する際、文字部とその周囲(下地)部の明度差が一定以内の場合など、エッジ強度や文字部及び周囲部の明度情報などに応じて置換領域と置換データとを決定し、文字部周辺の画素の階調を置換する。これにより、エッジ判別不可であるエッジ部分について、エッジ強度などに応じて分離処理を行うことができる。分離処理は、例えば、明度差が小さい箇所についてのみ行われる。分離処理が行われるため、原稿の情報を極力保持したまま、原稿の文字部について、可読性を向上できる。下地と文字部の明度差が小さい場合などでも、テクスチャの発生を防止でき、文字と下地の境界部の識別性を向上されることができる。   When the image forming apparatus performs screen processing on image data and prints it, depending on the edge strength and the brightness information of the character part and the surrounding part, such as when the lightness difference between the character part and the surrounding (background) part is within a certain range, etc. Thus, a replacement area and replacement data are determined, and gradations of pixels around the character portion are replaced. Thereby, separation processing can be performed according to the edge strength or the like for the edge portion where the edge cannot be determined. For example, the separation process is performed only for a portion where the brightness difference is small. Since the separation process is performed, it is possible to improve the readability of the character portion of the document while maintaining the document information as much as possible. Even when the brightness difference between the background and the character portion is small, the occurrence of texture can be prevented, and the discrimination between the boundary portion between the character and the background can be improved.

[第1の実施の形態]   [First Embodiment]

図1は、本発明の第1の実施の形態における画像処理装置を備えた画像形成装置を示す側面図である。   FIG. 1 is a side view showing an image forming apparatus including an image processing apparatus according to the first embodiment of the present invention.

図1を参照して、画像形成装置1は、自動原稿搬送装置10と、原稿読取部(読込手段の一例)20と、画像形成部30と、自動両面ユニット40と、給紙部50と、給紙キャビネット60と、操作パネル70と、ファクシミリユニット90と、通信インターフェース(I/F)ユニット91と、制御部(画像処理装置の一例)100と、HDD(Hard Disk Drive)120とを備えている。   Referring to FIG. 1, an image forming apparatus 1 includes an automatic document feeder 10, a document reading unit (an example of a reading unit) 20, an image forming unit 30, an automatic duplex unit 40, a paper feeding unit 50, A paper feed cabinet 60, an operation panel 70, a facsimile unit 90, a communication interface (I / F) unit 91, a control unit (an example of an image processing apparatus) 100, and an HDD (Hard Disk Drive) 120 are provided. Yes.

原稿読取部20は、画像形成装置1の上部に配置されている。原稿読取部20の上面には、プラテンガラス(図示せず)が配置されている。原稿読取部20は、プラテンガラスの下方に配置された読み取りセンサ(図示せず)を有している。   The document reading unit 20 is disposed on the upper part of the image forming apparatus 1. A platen glass (not shown) is disposed on the upper surface of the document reading unit 20. The document reading unit 20 has a reading sensor (not shown) disposed below the platen glass.

自動原稿搬送装置10は、原稿給紙トレイ12上にセットされた複数の原稿を1枚ずつ原稿読取部20に搬送する。自動原稿搬送装置10は、各原稿をプラテンガラスに設定された所定の原稿読取位置まで搬送する。原稿読取部20の読み取りセンサにより原稿画像の読み取りが行われると、自動原稿搬送装置10は、原稿排紙トレイ13上に原稿を排出する。   The automatic document feeder 10 conveys a plurality of documents set on the document feed tray 12 to the document reading unit 20 one by one. The automatic document feeder 10 conveys each document to a predetermined document reading position set on the platen glass. When the document image is read by the reading sensor of the document reading unit 20, the automatic document feeder 10 discharges the document onto the document discharge tray 13.

自動原稿搬送装置10は、原稿セットセンサ11を備えている。原稿セットセンサ11は、例えば、公知のタクトスイッチで構成されている。原稿セットセンサ11は、原稿が原稿給紙トレイ12にセットされたか否かを検出し、その検出信号を制御部100に送信する。   The automatic document feeder 10 includes a document set sensor 11. The document set sensor 11 is composed of, for example, a known tact switch. Document set sensor 11 detects whether or not a document is set on document feed tray 12 and transmits a detection signal to control unit 100.

原稿読取部20は、原稿読取位置に搬送された原稿の大きさなどに応じて、読み取りセンサにより、原稿画像を走査する。読み取りセンサは、原稿からの入射光を電気信号に変換する。原稿読取部20は、読み取りセンサにより読み取った画像を画像データとして制御部100に送信する。   The document reading unit 20 scans a document image with a reading sensor in accordance with the size of the document conveyed to the document reading position. The reading sensor converts incident light from the document into an electrical signal. The document reading unit 20 transmits the image read by the reading sensor to the control unit 100 as image data.

原稿読取部20は、装置持ち上げセンサ21を備えている。装置持ち上げセンサ21は、例えば公知の磁気センサで構成されている。装置持ち上げセンサ21は、自動原稿搬送装置10が原稿読取部20に対して持ち上げられたか否かを検出し、検出信号を制御部100に送信する。   The document reading unit 20 includes a device lifting sensor 21. The device lifting sensor 21 is composed of, for example, a known magnetic sensor. The apparatus lifting sensor 21 detects whether or not the automatic document feeder 10 is lifted with respect to the document reading unit 20 and transmits a detection signal to the control unit 100.

操作パネル70は、タッチパネル入力部71と、キー入力部72とを備える。操作パネル70は、例えば公知のユーザインターフェースにより、ユーザの操作入力を受け付け可能である。操作パネル70は、タッチパネル入力部71に種々の動作状況に応じた操作画面を表示し、ユーザのタッチ操作を受け付ける。キー入力部72は、例えば押下可能に配置されたキーとキーの押下に応じてオン/オフされるスイッチなどを有しており、ユーザの押下操作を受け付ける。制御部100は、操作パネル70により受け付けられた操作入力に応じて、画像形成装置1の動作を制御する。   The operation panel 70 includes a touch panel input unit 71 and a key input unit 72. The operation panel 70 can accept a user's operation input through, for example, a known user interface. The operation panel 70 displays operation screens corresponding to various operation situations on the touch panel input unit 71 and accepts a user's touch operation. The key input unit 72 includes, for example, a key arranged so as to be pressed and a switch that is turned on / off in response to the pressing of the key, and receives a pressing operation of the user. The control unit 100 controls the operation of the image forming apparatus 1 according to the operation input received by the operation panel 70.

操作パネル70には、副電源スイッチ80が設けられている。副電源スイッチ80は、ユーザにより操作されるスイッチである。副電源スイッチ80が操作されると、画像形成装置1の動作モードが、画像形成動作などが行われる通常の動作モードから、スリープモードに移行する。ここで、スリープモードは、通常の動作モードに比べて限られた部位のみが駆動されている省電力動作モードである。ユーザは、画像形成装置1に対し、副電源スイッチ80を介して、スリープモードへの移行を直接指示することができる。   The operation panel 70 is provided with a sub power switch 80. The sub power switch 80 is a switch operated by the user. When the sub power switch 80 is operated, the operation mode of the image forming apparatus 1 shifts from a normal operation mode in which an image forming operation or the like is performed to a sleep mode. Here, the sleep mode is a power saving operation mode in which only a limited part is driven as compared with the normal operation mode. The user can directly instruct the image forming apparatus 1 to shift to the sleep mode via the sub power switch 80.

制御部100は、後述するCPU101(図2に示す)などを有しており、種々の制御プログラムを実行することで、画像形成装置1の動作を制御する。制御部100は、原稿読取部20が送信した画像データが入力されると、その画像データに各種のデータ処理を施す。データ処理としては、例えばシェーディング補正処理などが行われる。制御部100は、データ処理後のデータを読み出して、画像形成動作に用いる信号(例えば、後述の露光レーザダイオードを駆動するための信号など)を出力する。データの読み出しは、用紙の供給と同期して、主走査ラインごとに行われる。   The control unit 100 includes a CPU 101 (shown in FIG. 2) described later, and controls the operation of the image forming apparatus 1 by executing various control programs. When the image data transmitted from the document reading unit 20 is input, the control unit 100 performs various data processing on the image data. As the data processing, for example, shading correction processing or the like is performed. The control unit 100 reads the data after the data processing and outputs a signal used for an image forming operation (for example, a signal for driving an exposure laser diode described later). Data reading is performed for each main scanning line in synchronization with the paper supply.

ファクシミリユニット90は、公衆電話回線を介して画像データの送受信を行うためのインターフェースである。画像形成装置1は、ファクシミリユニット90を介して、公衆電話回線に接続されている。   The facsimile unit 90 is an interface for transmitting and receiving image data via a public telephone line. The image forming apparatus 1 is connected to a public telephone line via a facsimile unit 90.

通信I/F(インターフェース)ユニット91は、例えば、パーソナルコンピュータなどが接続された外部ネットワーク(Local Area Network(LAN)など)に接続するためのインターフェースである。なお、通信I/Fユニット91は、USB(Universal Serial Bus)規格など他の通信規格に基づいて外部のネットワークや外部の装置に接続可能に構成されていてもよい。   The communication I / F (interface) unit 91 is an interface for connecting to, for example, an external network (such as a local area network (LAN)) to which a personal computer or the like is connected. The communication I / F unit 91 may be configured to be connectable to an external network or an external device based on another communication standard such as a USB (Universal Serial Bus) standard.

HDD120は、制御部100から送られてくる画像データを記憶する。なお、画像形成装置は、HDD120に代えて、SSD(Solid State Drive)など他種の記憶装置を有していてもよい。   The HDD 120 stores image data sent from the control unit 100. Note that the image forming apparatus may have another type of storage device such as an SSD (Solid State Drive) instead of the HDD 120.

画像形成部30は、いわゆる電子写真方式により画像を形成する。画像形成部30は、カラー画像を形成可能である。画像形成部30は、感光体ドラム31a,31b,31c,31d(これらを代表させて感光体ドラム31と称することがある。)と、露光走査ユニット32a,32b,32c,32d(これらを代表させて露光走査ユニット32と称することがある。)と、転写ベルト33と、定着装置(図示せず)と、これらユニットを保護する前扉カバー(図示せず)と、前扉センサ34とを備える。感光体ドラム31a,31b,31c,31dと、露光走査ユニット32a,32b,32c,32dとは、それぞれ、イエロー、マゼンタ、シアン、黒の各色に対応したものである。   The image forming unit 30 forms an image by a so-called electrophotographic method. The image forming unit 30 can form a color image. The image forming unit 30 includes photosensitive drums 31a, 31b, 31c, and 31d (these may be referred to as photosensitive drums 31) and exposure scanning units 32a, 32b, 32c, and 32d (representing them). An exposure scanning unit 32), a transfer belt 33, a fixing device (not shown), a front door cover (not shown) for protecting these units, and a front door sensor 34. . The photosensitive drums 31a, 31b, 31c, and 31d and the exposure scanning units 32a, 32b, 32c, and 32d correspond to yellow, magenta, cyan, and black, respectively.

画像形成部30は、制御部100の制御に基づいて、おおむね、以下のようにして画像形成動作を行う。すなわち、露光走査ユニット32は、制御部100から出力される駆動信号に基づいて、レーザ光を生成する。露光走査ユニット32は、生成したレーザ光を、感光体ドラム31上に露光走査する。感光体ドラム31に形成された潜像は、各色のトナーを用いて現像される。現像された各色のトナー像は、転写ベルト33に重ねて転写される。転写ベルト33に各色のトナー像がすべて重ね合わせられると、そのトナー像が、給紙部50から搬送される用紙に、転写ベルト33から転写される。転写されたトナー像は、定着装置(図示せず)による定着工程を経て用紙に定着し、用紙に画像が形成される。形成された画像は、画像形成装置1の外部に排出される。   The image forming unit 30 performs the image forming operation as follows based on the control of the control unit 100. That is, the exposure scanning unit 32 generates laser light based on the drive signal output from the control unit 100. The exposure scanning unit 32 performs exposure scanning of the generated laser light on the photosensitive drum 31. The latent image formed on the photosensitive drum 31 is developed using each color toner. The developed toner images of respective colors are transferred onto the transfer belt 33 in an overlapping manner. When all the toner images of the respective colors are superimposed on the transfer belt 33, the toner images are transferred from the transfer belt 33 onto a sheet conveyed from the paper feeding unit 50. The transferred toner image is fixed on a sheet through a fixing process by a fixing device (not shown), and an image is formed on the sheet. The formed image is discharged outside the image forming apparatus 1.

前扉センサ34は、タクトスイッチなどで構成されている。前扉センサ34は、前扉カバーが開放されたかどうかを検出し、その検出信号を制御部100に送信する。   The front door sensor 34 includes a tact switch or the like. The front door sensor 34 detects whether or not the front door cover is opened, and transmits a detection signal to the control unit 100.

給紙部50は、給紙カセット51,53と、ピックアップローラ52,54とを備えている。また、給紙キャビネット60は、給紙カセット61,63と、ピックアップローラ62,64とを備えている。給紙カセット51,53,61,63には、画像が形成される用紙が収納されている。ピックアップローラ52,54,62,64は、それぞれ、給紙カセット51,53,61,63に対応するように設けられている。ピックアップローラ52,54,62,64は、給紙カセット51,53,61,63に収納されている用紙を繰り出すローラである。給紙部50は、画像形成動作時に、画像形成部30に用紙を搬送(補給)する。また、給紙キャビネット60は、画像形成動作時に、給紙部50を経由して、画像形成部30に用紙を搬送(補給)する。   The paper feed unit 50 includes paper feed cassettes 51 and 53 and pickup rollers 52 and 54. The paper feed cabinet 60 includes paper feed cassettes 61 and 63 and pickup rollers 62 and 64. In the paper feed cassettes 51, 53, 61, and 63, paper on which images are formed is stored. The pickup rollers 52, 54, 62, and 64 are provided so as to correspond to the paper feed cassettes 51, 53, 61, and 63, respectively. The pickup rollers 52, 54, 62, and 64 are rollers that feed out the paper stored in the paper feed cassettes 51, 53, 61, and 63. The paper feed unit 50 conveys (supplements) paper to the image forming unit 30 during an image forming operation. The paper feed cabinet 60 conveys (supplements) paper to the image forming unit 30 via the paper feed unit 50 during an image forming operation.

自動両面ユニット40は、用紙の両面に画像を形成する際(両面印刷時)に用いられる。自動両面ユニット40は、例えば、画像形成装置1の側方に設けられている。自動両面ユニット40は、用紙の反転経路を有している。反転経路は、画像形成装置1の内部の用紙の搬送路のうち、画像が形成された用紙が搬送される位置と、トナー像が転写される前の用紙が搬送される位置とを結ぶ経路である。両面印刷時において、定着装置を経由し片面に画像が形成された用紙は、画像形成装置1から完全に排出される前に、通紙経路上でスイッチバックされる。スイッチバックされた用紙は、自動両面ユニット40に導入される。自動両面ユニット40は、反転経路上で用紙を搬送し、用紙の搬送路のうちトナー像が転写される前の位置に用紙を送り込む。このようにして反転された用紙は、再度画像形成部30に搬送される。これにより、用紙の画像が形成されていない面に画像形成が行われる。両面に画像が形成された用紙は、画像形成装置1から排出される。   The automatic duplex unit 40 is used when images are formed on both sides of a sheet (during duplex printing). The automatic duplex unit 40 is provided, for example, on the side of the image forming apparatus 1. The automatic duplex unit 40 has a paper inversion path. The reversing path is a path connecting a position where the sheet on which the image is formed is transported and a position where the sheet before the toner image is transferred is transported among the sheet transport paths inside the image forming apparatus 1. is there. During double-sided printing, the sheet on which an image is formed on one side via the fixing device is switched back on the sheet passing path before being completely discharged from the image forming apparatus 1. The switched-back paper is introduced into the automatic duplex unit 40. The automatic duplex unit 40 conveys the sheet on the reverse path, and sends the sheet to a position on the sheet conveyance path before the toner image is transferred. The sheet thus reversed is conveyed again to the image forming unit 30. Thereby, image formation is performed on the surface of the sheet on which the image is not formed. The paper on which images are formed on both sides is discharged from the image forming apparatus 1.

図2は、制御部100の構成を示すブロック図である。   FIG. 2 is a block diagram illustrating a configuration of the control unit 100.

図を参照して、制御部100は、CPU101、ROM102、RAM103を備えている。   Referring to the figure, the control unit 100 includes a CPU 101, a ROM 102, and a RAM 103.

CPU101は、制御部100の各部及びHDD120とシステムバスなどを介して接続されており、制御部100の各部及びHDD120と通信可能である。また、CPU101は、原稿読取部20、操作パネル70、通信I/Fユニット91、画像形成部30などと通信可能である。   The CPU 101 is connected to each unit of the control unit 100 and the HDD 120 via a system bus or the like, and can communicate with each unit of the control unit 100 and the HDD 120. Further, the CPU 101 can communicate with the document reading unit 20, the operation panel 70, the communication I / F unit 91, the image forming unit 30, and the like.

HDD120は、画像データのほか、画像形成装置1の設定情報や、画像形成装置1の種々の動作を行うための制御プログラム120aなどを記憶する。HDD120は、1つのクライアントPC又は複数のクライアントPCなどから送信された複数のジョブを記憶可能である。   In addition to the image data, the HDD 120 stores setting information of the image forming apparatus 1, a control program 120a for performing various operations of the image forming apparatus 1, and the like. The HDD 120 can store a plurality of jobs transmitted from one client PC or a plurality of client PCs.

ROM102は、例えばフラッシュROM(Flash Memory)である。ROM102には、画像形成装置1の動作を行うために用いられるデータが記憶されている。ROM102には、HDD120と同様に、種々の制御プログラムや、画像形成装置1の機能設定データなどが記憶されていてもよい。CPU101は、所定の処理を行うことにより、ROM102からのデータの読み込みや、ROM102へのデータの書き込みを行う。なお、ROM102は、書換え不可能なものであってもよい。   The ROM 102 is, for example, a flash ROM (Flash Memory). The ROM 102 stores data used for operating the image forming apparatus 1. Like the HDD 120, the ROM 102 may store various control programs, function setting data of the image forming apparatus 1, and the like. The CPU 101 reads data from the ROM 102 and writes data to the ROM 102 by performing predetermined processing. The ROM 102 may be non-rewritable.

RAM103は、CPU101のメインメモリである。RAM103は、CPU101が制御プログラム120aを実行するときに必要なデータを記憶するのに用いられる。   A RAM 103 is a main memory of the CPU 101. The RAM 103 is used to store data necessary when the CPU 101 executes the control program 120a.

CPU101は、ROM102、RAM103、又はHDD120などに記憶された制御プログラム120aなどを実行することにより、画像形成装置1の種々の動作を制御する。CPU101は、操作パネル70から操作信号が送られたり、外部のパーソナルコンピュータなどから操作コマンドが送信されたりすると、それらに応じて所定の制御プログラム120aを実行する。これにより、ユーザによる操作パネル70の操作などに応じて、画像形成装置1の所定の機能が実行される。   The CPU 101 controls various operations of the image forming apparatus 1 by executing a control program 120a stored in the ROM 102, the RAM 103, the HDD 120, or the like. When an operation signal is sent from the operation panel 70 or an operation command is sent from an external personal computer or the like, the CPU 101 executes a predetermined control program 120a in response thereto. Thereby, a predetermined function of the image forming apparatus 1 is executed in accordance with the operation of the operation panel 70 by the user.

制御部100は、さらに、画素属性検出部104、境界検出部(属性境界検出部)105、明度算出部(画素明度算出部)106、強度算出部(エッジ強度検出部)107、エッジ判定部(第1のエッジ判定手段の一例;第2のエッジ判定手段の一例)108、拡張部(特定領域拡張部)109、強調処理部(塗りつぶし手段の一例;エッジ強調部)110、置換部(画像階調置換部)111、及びスクリーン変換部112を備えている。   The control unit 100 further includes a pixel attribute detection unit 104, a boundary detection unit (attribute boundary detection unit) 105, a brightness calculation unit (pixel brightness calculation unit) 106, an intensity calculation unit (edge intensity detection unit) 107, an edge determination unit ( An example of a first edge determination unit; an example of a second edge determination unit 108, an expansion unit (specific area expansion unit) 109, an enhancement processing unit (an example of a painting unit; an edge enhancement unit) 110, a replacement unit (image floor) A tone replacement unit) 111 and a screen conversion unit 112.

CPU101は、画素属性検出部104、境界検出部105、明度算出部106、強度算出部107、エッジ判定部108、拡張部109、強調処理部110、置換部111、及びスクリーン変換部112などの制御を行う。これにより、制御部100は画像処理装置として動作する。制御部100は、画像処理として、以下のように、画像データについてスクリーン処理を行うことができる。すなわち、制御部100は、画像形成部30において印字されるスクリーン画像を出力する。画像形成部30は、CPU101による制御の下、スクリーン画像に基づいて、用紙に画像形成を行う。   The CPU 101 controls the pixel attribute detection unit 104, the boundary detection unit 105, the lightness calculation unit 106, the intensity calculation unit 107, the edge determination unit 108, the expansion unit 109, the enhancement processing unit 110, the replacement unit 111, the screen conversion unit 112, and the like. I do. Thereby, the control unit 100 operates as an image processing apparatus. As the image processing, the control unit 100 can perform screen processing on the image data as follows. That is, the control unit 100 outputs a screen image printed by the image forming unit 30. The image forming unit 30 forms an image on a sheet based on the screen image under the control of the CPU 101.

CPU101は、例えば原稿読取部20で読み取った原稿の画像データなどを入力画像として読み込む。   The CPU 101 reads, for example, image data of a document read by the document reading unit 20 as an input image.

画像属性検出部104は、入力画像について、文字領域と、文字領域以外の下地領域(画像領域など)とを判別する。原稿属性検出部104は、入力画像の各画素について、文字領域の画素であるか、下地領域の画素であるかを属性付ける。   The image attribute detection unit 104 determines a character area and a background area (image area or the like) other than the character area for the input image. The document attribute detection unit 104 assigns whether each pixel of the input image is a character area pixel or a background area pixel.

境界検出部105は、入力画像について、画像属性検出部104により判別された文字領域と文字領域以外の下地領域との境界を検出する。すなわち、境界検出部105は、入力画像に存在する、文字領域と文字領域以外の下地領域との境界を検出する。   The boundary detection unit 105 detects a boundary between the character region determined by the image attribute detection unit 104 and a base region other than the character region for the input image. That is, the boundary detection unit 105 detects a boundary between a character area and a base area other than the character area that exists in the input image.

明度算出部106は、入力画像の各画素の明度又は輝度(以下、単に明度と称することがある)を算出する。明度の算出は、入力画像の各画素のRGB画像データについて、YCrCb変換又はLab変換を行うことで、行われる。   The lightness calculation unit 106 calculates the lightness or luminance (hereinafter sometimes simply referred to as lightness) of each pixel of the input image. The brightness is calculated by performing YCrCb conversion or Lab conversion on the RGB image data of each pixel of the input image.

強度算出部107は、入力画像の各画素におけるエッジ強度を算出する。エッジ強度の算出は、例えば、1次微分フィルタ演算及び2次微分フィルタ演算により行われる。   The intensity calculator 107 calculates the edge intensity at each pixel of the input image. The calculation of the edge strength is performed by, for example, a primary differential filter calculation and a secondary differential filter calculation.

エッジ判定部108は、各画素について、強度算出部107で算出したエッジ強度に基づいて、エッジ判定を行う。すなわち、エッジ判定部108は、各画素について、エッジ強度が一定のしきい値を越える場合に、その画素をエッジ(エッジである画素)であると判定する。   The edge determination unit 108 performs edge determination for each pixel based on the edge strength calculated by the strength calculation unit 107. That is, the edge determination unit 108 determines that each pixel is an edge (a pixel that is an edge) when the edge intensity exceeds a certain threshold value.

ここで、エッジ判定部108は、エッジ強度に基づいて、文字領域の内エッジ領域と外エッジ領域とを判定する。文字領域の外エッジ領域は、文字領域の輪郭の外側を構成する画素で構成される領域である。換言すると、外エッジ領域の画素(外エッジ)は、文字境界下地属性の画素(文字領域と下地領域との境界の下地領域側の画素)である。文字領域の内エッジ領域は、文字領域の輪郭の内側を構成する画素で構成される領域である。換言すると、内エッジ領域の画素(内エッジ)は、下地境界文字属性の画素(文字領域と下地領域との境界の文字領域側の画素)である。エッジ判定部108は、文字領域の輪郭画素に対してエッジ判定を行うとともに、内エッジ領域と外エッジ領域とを判定可能である。   Here, the edge determination unit 108 determines the inner edge region and the outer edge region of the character region based on the edge strength. The outer edge region of the character region is a region formed of pixels that form the outside of the outline of the character region. In other words, a pixel (outer edge) in the outer edge region is a pixel with a character boundary background attribute (a pixel on the background region side of the boundary between the character region and the background region). The inner edge area of the character area is an area composed of pixels that form the inside of the outline of the character area. In other words, the pixel (inner edge) in the inner edge region is a pixel having a background boundary character attribute (a pixel on the character region side at the boundary between the character region and the background region). The edge determination unit 108 can perform edge determination on the outline pixels of the character region and can determine the inner edge region and the outer edge region.

拡張部109は、境界検出部105による検出結果及びエッジ判定部108の判定結果に基づいて、文字領域の外エッジ領域を下地領域に拡張する拡張処理を行う。拡張処理を行うか否かは、入力画像のうち文字領域と下地領域との境界部分の特徴に関する条件を満たすか否かの評価結果に基づいて決定される。評価は、例えば、エッジ判定部108の判定結果や明度算出部106の算出結果などに基づいて、CPU101により行われる。拡張部109は、注目画素について、所定の条件を満たすと評価されたとき、その注目画素を外エッジ領域の画素として拡張する。   Based on the detection result from the boundary detection unit 105 and the determination result from the edge determination unit 108, the expansion unit 109 performs an expansion process for extending the outer edge region of the character region to the base region. Whether or not to perform the extension process is determined based on an evaluation result of whether or not a condition regarding a feature of a boundary portion between the character area and the background area in the input image is satisfied. The evaluation is performed by the CPU 101 based on, for example, the determination result of the edge determination unit 108 and the calculation result of the brightness calculation unit 106. The expansion unit 109 expands the target pixel as a pixel in the outer edge region when it is evaluated that the predetermined pixel satisfies the predetermined condition.

本実施の形態において、例えば以下のような所定の条件が満たされているとき、拡張処理が行われる。すなわち、注目画素が、画像属性検出部104で文字領域である(文字属性を有する)と検出され、かつ、境界検出部105で文字領域と下地領域との境界であると検出されたものであって、エッジ判定部108でエッジ判定がされなかったとき、その注目画素について拡張処理が行われる。換言すると、拡張部109は、文字領域の輪郭画素に対してエッジ判定部108によりエッジ判定が行われなかったとき、拡張処理を行う。拡張処理は、文字領域の下地領域との境界であると検出された画素について強度算出部107で算出されたエッジ強度が一定のしきい値を超えなかった場合に、行われる。   In the present embodiment, for example, the expansion process is performed when the following predetermined conditions are satisfied. That is, the pixel of interest is detected as a character area (having a character attribute) by the image attribute detection unit 104 and detected as a boundary between the character area and the background area by the boundary detection unit 105. Thus, when the edge determination unit 108 does not perform edge determination, an extension process is performed on the target pixel. In other words, the expansion unit 109 performs expansion processing when the edge determination unit 108 does not perform edge determination on the contour pixels of the character area. The extension process is performed when the edge intensity calculated by the intensity calculation unit 107 does not exceed a certain threshold value for the pixel detected as the boundary between the character area and the background area.

強調処理部110は、エッジ判定部108でエッジであると判定(エッジ判定)された画素について、エッジ強調処理(以下、単に強調処理と称することがある。)を行う。強調処理部110は、シャープネスフィルタ処理を行うことなどにより、エッジ判定部108により判定されたエッジを強調する。本実施の形態において、文字領域の輪郭画素に対してエッジ判定部108によりエッジ判定されたとき、強調処理部110が強調処理を行う。   The enhancement processing unit 110 performs edge enhancement processing (hereinafter, simply referred to as enhancement processing) for pixels that are determined to be edges (edge determination) by the edge determination unit 108. The enhancement processing unit 110 enhances the edge determined by the edge determination unit 108 by performing sharpness filter processing or the like. In the present embodiment, when the edge determination unit 108 performs edge determination on the outline pixel of the character area, the enhancement processing unit 110 performs enhancement processing.

強調処理は、スクリーン変換部112により入力画像についてスクリーン処理が行われ、スクリーン変換された後に行われてもよい。すなわち、強調処理は、スクリーン変換される画像のうち、エッジ強調対象画素についてのみ、スクリーン変換を行わずにベタ(塗りつぶし)で印字することにより、行われてもよい。   The enhancement processing may be performed after the screen conversion is performed on the input image by the screen conversion unit 112 and the screen conversion is performed. That is, the enhancement processing may be performed by printing only the edge enhancement target pixels of the screen-converted image with solid (filling) without performing screen conversion.

置換部111は、拡張部109により拡張された外エッジ領域の画素の画像データを置換データに置換する。すなわち、データの置換処理は、画像属性検出部104で文字領域であると検出され、かつ、境界検出部105で文字領域と下地領域の境界であると検出された注目画素について、エッジ判定部108でエッジ判定がされなかったときに実行される。換言すると、置換処理は、文字領域の下地領域との境界であると検出された画素について強度算出部107で算出されたエッジ強度が一定のしきい値を越えなかった場合に、実行される。   The replacement unit 111 replaces the image data of the pixels in the outer edge region expanded by the expansion unit 109 with replacement data. That is, in the data replacement processing, the edge determination unit 108 is used for a pixel of interest that is detected as a character region by the image attribute detection unit 104 and is detected as a boundary between the character region and the background region by the boundary detection unit 105. This is executed when the edge is not judged in step. In other words, the replacement process is executed when the edge intensity calculated by the intensity calculation unit 107 does not exceed a certain threshold for the pixel detected as the boundary between the character area and the background area.

スクリーン変換部112は、入力画像について入力画像の各部の階調などに応じてディザマトリクス法などによりスクリーン処理を行い、入力画像をスクリーン画像に変換する。   The screen conversion unit 112 performs screen processing on the input image by a dither matrix method or the like according to the gradation of each part of the input image, and converts the input image into a screen image.

図3は、スクリーン処理を行うときの制御部100の動作を示すフローチャートである。   FIG. 3 is a flowchart showing the operation of the control unit 100 when performing screen processing.

以下、スクリーン処理の一例として、原稿読取部20により読み取った画像を入力画像として実行されるスクリーン処理の流れについて説明する。画像形成装置1は、これに限られず、例えばユーザから画像形成装置1に送信された画像や、画像形成装置1内のHDD120などに記憶されている画像について、スクリーン処理を行うようにしてもよい。それらの場合も、原稿読取部20により読み取った画像を入力画像として実行する場合と同様にして、スクリーン処理を行うことができる。   Hereinafter, as an example of the screen processing, a flow of screen processing executed using an image read by the document reading unit 20 as an input image will be described. The image forming apparatus 1 is not limited to this. For example, screen processing may be performed on an image transmitted from the user to the image forming apparatus 1 or an image stored in the HDD 120 in the image forming apparatus 1. . In those cases as well, screen processing can be performed in the same manner as when an image read by the document reading unit 20 is executed as an input image.

図3を参照して、ステップS100において、CPU101は、原稿読取部(スキャナ)20により原稿を読み取る。   Referring to FIG. 3, in step S <b> 100, CPU 101 reads a document with document reading unit (scanner) 20.

ステップS101において、CPU101は、画像属性検出部104により、原稿読取部20で読み取った画像データ(入力画像)について、属性検出を行う。画像属性検出部104により、入力画像における文字領域と下地領域とが検出される。   In step S <b> 101, the CPU 101 causes the image attribute detection unit 104 to perform attribute detection on the image data (input image) read by the document reading unit 20. The image attribute detection unit 104 detects a character area and a background area in the input image.

ステップS102において、CPU101は、文字領域の画素について、強度算出部107によりエッジ強度を算出する。このとき、強度算出部107は、下地領域の画素についてもエッジ強度を算出してもよい。   In step S <b> 102, the CPU 101 calculates the edge strength of the pixels in the character area by the strength calculation unit 107. At this time, the intensity calculating unit 107 may calculate the edge intensity for the pixels in the base area.

ステップS103において、CPU101は、文字領域の画素について、エッジ判定部108により算出されたエッジ強度に基づいて、エッジ判定を行う。   In step S <b> 103, the CPU 101 performs edge determination for the pixels in the character area based on the edge strength calculated by the edge determination unit 108.

ステップS104において、CPU101は、各画素を注目画素として、その画素について、文字領域と下地領域との境界部の画素であるか否かを判断する。   In step S <b> 104, the CPU 101 determines each pixel as a pixel of interest, and determines whether the pixel is a pixel at a boundary portion between the character area and the background area.

ステップS104で境界部の画素であるとき、ステップS105において、CPU101は、その注目画素がエッジであるか否か、すなわちその注目画素がエッジ判定されたか否かを判断(評価)する。   When the pixel is a boundary pixel in step S104, in step S105, the CPU 101 determines (evaluates) whether or not the target pixel is an edge, that is, whether or not the target pixel is edge-determined.

ステップS105で注目画素がエッジ画素であるとき、ステップS106において、CPU101は、強調処理部110により強調処理を行う。文字領域であって下地領域との境界部にある、エッジ判定された注目画素について、エッジ強調処理が行われる。   When the target pixel is an edge pixel in step S105, the CPU 101 performs enhancement processing by the enhancement processing unit 110 in step S106. Edge enhancement processing is performed on a pixel of interest that is edge-determined that is in a boundary area between the character area and the background area.

他方、ステップS105で注目画素がエッジ画素でないとき、ステップS107において、CPU101は、拡張部109により、注目画素に隣接する下地領域(外エッジ領域)を拡張する処理を行う。文字領域であって下地領域との境界部にある、エッジ判定されていない注目画素について、拡張処理が行われる。   On the other hand, when the target pixel is not an edge pixel in step S105, in step S107, the CPU 101 performs a process of expanding the background region (outer edge region) adjacent to the target pixel by the extension unit 109. Expansion processing is performed on a pixel of interest that is not a edge determination and that is in a boundary area between the character area and the background area.

ステップS108において、CPU101は、置換部111により、ステップS107で拡張された外エッジ領域の画素の画像データの置換処理を行う。   In step S <b> 108, the CPU 101 uses the replacement unit 111 to perform replacement processing of the image data of the pixels in the outer edge region expanded in step S <b> 107.

ステップS106で強調処理が終わったとき、又はステップS108で置換処理が終わったとき、CPU101は、一連の処理を終了する。ステップS104で注目画素が文字領域との境界部の画素でないとき、その注目画素については、CPU101は、一連の処理を終了する。   When the emphasis process is finished in step S106 or when the replacement process is finished in step S108, the CPU 101 ends the series of processes. When the target pixel is not a pixel at the boundary with the character area in step S104, the CPU 101 ends the series of processes for the target pixel.

なお、エッジ強調処理、拡張処理、置換処理は、ステップS104において文字領域との境界部の画素であると判断された画素について、画素ごとに別々に行われてもよいし、対象となる画素についてまとめて処理などを行い、置換処理を行うようにしてもよい。   Note that the edge enhancement process, the expansion process, and the replacement process may be performed separately for each pixel that has been determined to be a pixel at the boundary with the character area in step S104, or for the target pixel. A replacement process may be performed by collectively performing a process or the like.

[強調処理の説明]   [Explanation of emphasis processing]

本実施の形態において、強調処理部110は、処理対象の領域の塗りつぶし処理を行って、強調処理を行う。強調処理部110は、強度算出部107により算出されたエッジ強度が所定の強度(しきい値)よりも高いとき、文字領域の輪郭画素に対して、塗りつぶし処理を行う。   In the present embodiment, the emphasis processing unit 110 performs an emphasis process by performing a process of filling a region to be processed. When the edge strength calculated by the strength calculation unit 107 is higher than a predetermined strength (threshold value), the enhancement processing unit 110 performs a filling process on the contour pixels in the character area.

図4は、本実施の形態における入力画像とスクリーン処理後の出力画像との関係の第1の例を示す図である。   FIG. 4 is a diagram illustrating a first example of the relationship between an input image and an output image after screen processing in the present embodiment.

図4の上段には、スクリーン処理の対象となる入力画像200が示され、図4の中段には、入力画像200について算出されたエッジ強度を示すグラフが示されている。グラフにおいて、エッジ強度は、中央(ゼロ)から上下に離れるに従って、大きくなる。図4の下段には、入力画像200についてスクリーン処理が行われたときに出力される出力画像210が示されている。図4において、入力画像200と、グラフと、出力画像210とは、横方向の位置が上下で互いに対応するものになるように、縦方向に並んでいる。   The upper part of FIG. 4 shows the input image 200 to be screen-processed, and the middle part of FIG. 4 shows a graph showing the edge strength calculated for the input image 200. In the graph, the edge strength increases with increasing distance from the center (zero). The lower part of FIG. 4 shows an output image 210 that is output when screen processing is performed on the input image 200. In FIG. 4, the input image 200, the graph, and the output image 210 are arranged in the vertical direction so that the horizontal positions correspond to each other vertically.

図4を参照して、入力画像200は、下地領域201と、両側の下地領域201間に配置された文字領域202とを有している。下地領域201と文字領域202との境界は比較的はっきりとしている。そのため、入力画像200のエッジ強度は、下地領域201と文字領域202との境界部分の外エッジ及び内エッジにおいて、所定のエッジ検出しきい値よりも大きくなる。すなわち、入力画像200は、下地領域201と文字領域202との境界部分の画素において、エッジ判定される。   Referring to FIG. 4, the input image 200 has a background area 201 and a character area 202 arranged between the background areas 201 on both sides. The boundary between the base area 201 and the character area 202 is relatively clear. Therefore, the edge strength of the input image 200 is larger than a predetermined edge detection threshold at the outer edge and the inner edge of the boundary portion between the base area 201 and the character area 202. That is, the input image 200 is edge-determined at the pixel at the boundary between the background area 201 and the character area 202.

出力画像210は、下地領域211と、文字領域212と、塗りつぶし部215とを有している。下地領域211は下地領域201の明度に対応するスクリーン画像に、文字領域212は文字領域202の明度に対応するスクリーン画像に、それぞれ変換されている。   The output image 210 has a base area 211, a character area 212, and a fill portion 215. The background area 211 is converted into a screen image corresponding to the brightness of the background area 201, and the character area 212 is converted into a screen image corresponding to the brightness of the character area 202.

ここで、文字領域212の内エッジ領域の画像データ及び文字領域212の輪郭領域の画像データは、強度算出部107の算出結果と、境界検出部105の検出結果と、エッジ判定部108による内エッジ領域の判定結果とに基づいて、例えばCPU101により決定される。入力画像200について、下地領域201と文字領域202との境界部分のエッジ強度がエッジ検出しきい値よりも大きく、エッジ判定が行われている。そのため、エッジ強調処理として、内エッジの塗りつぶし処理が行われ、出力画像210が出力される。塗りつぶし処理は、例えば、強調処理部110において行われる。塗りつぶし処理が内エッジについて行われることで、出力画像210においては、文字領域212のうち下地領域211の近傍の内エッジに、塗りつぶし部215が設けられる。このように内エッジが塗りつぶし処理(FEET処理、ベタ処理)されることにより、出力画像210において、下地領域211と文字領域212とのエッジが強調され、文字と下地との境界がくっきり再現される。   Here, the image data of the inner edge region of the character region 212 and the image data of the contour region of the character region 212 are the calculation result of the intensity calculation unit 107, the detection result of the boundary detection unit 105, and the inner edge of the edge determination unit 108. For example, the CPU 101 determines the area based on the determination result of the area. In the input image 200, the edge strength at the boundary between the background area 201 and the character area 202 is larger than the edge detection threshold value, and edge determination is performed. Therefore, as edge enhancement processing, inner edge painting processing is performed, and an output image 210 is output. The filling process is performed in the emphasis processing unit 110, for example. By performing the filling process on the inner edge, in the output image 210, the painting unit 215 is provided on the inner edge in the vicinity of the base area 211 in the character area 212. In this way, the inner edge is filled (FEET process, solid process), so that the edge of the background area 211 and the character area 212 is emphasized in the output image 210, and the boundary between the character and the background is clearly reproduced. .

なお、強調処理としては、上述のような塗りつぶし処理のほか、種々の処理方法を採用することができる。   As the enhancement process, various processing methods can be employed in addition to the above-described filling process.

[拡張処理及び置換処理の説明]   [Explanation of extended processing and replacement processing]

本実施の形態において、拡張部109は、例えば、強度算出部107により算出されたエッジ強度に応じて拡張サイズを決定し、決定した拡張サイズに応じて、外エッジ領域を拡張する。   In the present embodiment, for example, the extension unit 109 determines an extension size according to the edge strength calculated by the strength calculation unit 107, and extends the outer edge region according to the determined extension size.

図5は、本実施の形態における入力画像とスクリーン処理後の出力画像との関係の第2の例を示す図である。   FIG. 5 is a diagram illustrating a second example of the relationship between the input image and the output image after screen processing in the present embodiment.

図5においても、図4と同様に、上段、中段、下段の順に、入力画像220、入力画像200について算出されたエッジ強度を示すグラフ、入力画像220についてスクリーン処理が行われたときに出力される出力画像230が示されている。グラフにおいて、エッジ強度は、中央(ゼロ)から上下に離れるに従って、大きくなる。図5においても、入力画像220と、グラフと、出力画像230とは、横方向の位置が上下で互いに対応するものになるように、縦方向に並んでいる。   Also in FIG. 5, as in FIG. 4, an output image is output when screen processing is performed on the input image 220 and a graph showing edge strength calculated for the input image 220 and the input image 200 in the order of the upper, middle, and lower stages. An output image 230 is shown. In the graph, the edge strength increases with increasing distance from the center (zero). Also in FIG. 5, the input image 220, the graph, and the output image 230 are arranged in the vertical direction so that the horizontal positions correspond to each other vertically.

図5を参照して、入力画像220は、下地領域221と、両側の下地領域221間に配置された文字領域222とを有している。下地領域221と文字領域222との境界は、図4に示す入力画像200のそれと比較して、はっきりとはしていない。入力画像220のエッジ強度は、下地領域221と文字領域222との境界部分においても、所定のエッジ検出しきい値に満たない。すなわち、入力画像220は、下地領域221と文字領域222との境界部分の画素において、エッジ判定されない。   Referring to FIG. 5, the input image 220 includes a background area 221 and character areas 222 arranged between the background areas 221 on both sides. The boundary between the base area 221 and the character area 222 is not clear compared to that of the input image 200 shown in FIG. The edge strength of the input image 220 is less than the predetermined edge detection threshold even at the boundary portion between the base region 221 and the character region 222. That is, the input image 220 is not subjected to edge determination at pixels at the boundary portion between the base area 221 and the character area 222.

出力画像230は、下地領域231と、文字領域232と、置換領域235a,235b(まとめて置換領域235と称することがある。)とを有している。下地領域231は下地領域221の明度に対応するスクリーン画像に、文字領域232は文字領域222の明度に対応するスクリーン画像に、それぞれ変換されている。   The output image 230 has a base area 231, a character area 232, and replacement areas 235 a and 235 b (sometimes collectively referred to as replacement areas 235). The background area 231 is converted into a screen image corresponding to the brightness of the background area 221, and the character area 232 is converted into a screen image corresponding to the brightness of the character area 222.

ここで、文字領域232の内エッジ領域の画像データ及び文字領域232の輪郭領域の画像データは、強度算出部107の算出結果と、境界検出部105の検出結果と、エッジ判定部108による内エッジ領域の判定結果とに基づいて、CPU101により決定される。図5のグラフを参照して、入力画像220について、下地領域221と文字領域222との境界部分のエッジ強度はエッジ検出しきい値よりも小さく、エッジ判定が行われていない。そのため、本実施の形態では、入力画像200について、拡張部109により拡張処理が行われ、置換部111により置換処理が行われる。入力画像200については、上述のような塗りつぶし処理は行われない。   Here, the image data of the inner edge region of the character region 232 and the image data of the contour region of the character region 232 are the calculation result of the intensity calculation unit 107, the detection result of the boundary detection unit 105, and the inner edge of the edge determination unit 108. It is determined by the CPU 101 based on the determination result of the area. Referring to the graph of FIG. 5, in the input image 220, the edge strength at the boundary between the base area 221 and the character area 222 is smaller than the edge detection threshold value, and no edge determination is performed. Therefore, in the present embodiment, the expansion process is performed on the input image 200 by the expansion unit 109 and the replacement process is performed by the replacement unit 111. The input image 200 is not subjected to the filling process as described above.

すなわち、文字領域と下地領域との境界部において、拡張処理により、下地領域側の外エッジ領域が拡張される。本実施の形態において、拡張処理により拡張された領域は、置換処理により、白データに置換される。これにより、出力画像230において、置換領域235が設けられる。換言すると、拡張処理により外エッジ領域が下地領域側に拡張され、拡張された外エッジ領域が置換処理により置換されることで、置換領域235が設けられる。このように白データに置換された置換領域235が文字領域232と下地領域231との境界部分に設けられ、文字領域232と下地領域231とがいわば分離されるので、出力画像230において、文字と下地の境界がくっきりと再現される。下地領域231のうち文字領域232に近い部分が置換領域235とされるので、文字領域202にはほとんど影響はなく、入力画像220の再現性が高い出力画像230が得られる。   That is, the outer edge area on the background area side is expanded by the expansion process at the boundary between the character area and the background area. In the present embodiment, the area expanded by the expansion process is replaced with white data by the replacement process. Thereby, a replacement area 235 is provided in the output image 230. In other words, the replacement region 235 is provided by expanding the outer edge region to the base region side by the expansion processing and replacing the expanded outer edge region by the replacement processing. Thus, the replacement area 235 replaced with white data is provided at the boundary between the character area 232 and the background area 231, and the character area 232 and the background area 231 are separated from each other. The boundary of the ground is reproduced clearly. Since the portion close to the character region 232 in the base region 231 is the replacement region 235, the character region 202 is hardly affected, and the output image 230 with high reproducibility of the input image 220 is obtained.

このように、第1の実施の形態では、入力画像の文字領域の輪郭画素について、エッジ検出された場合には強調処理が行われ、エッジ検出されなかった場合には、注目画素に隣接する下地領域の画素の領域が拡張され、白データに置換される。したがって、エッジ検出の有無にかかわらず、下地領域と文字領域との境界がくっきりと再現され、入力画像の情報をより多く保持したままで可読性が向上するようにスクリーン処理を実行可能になる。   As described above, in the first embodiment, the edge processing is performed on the contour pixel of the character region of the input image when the edge is detected, and when the edge is not detected, the background adjacent to the target pixel is detected. The pixel area is expanded and replaced with white data. Therefore, regardless of the presence or absence of edge detection, the boundary between the background area and the character area is clearly reproduced, and screen processing can be executed so as to improve readability while retaining more information of the input image.

[第1の実施の形態の変型例]   [Modification Example of First Embodiment]

図6は、入力画像と入力画像のエッジ強度との関係の一例を示す図である。   FIG. 6 is a diagram illustrating an example of the relationship between the input image and the edge strength of the input image.

以下の変型例の説明では、一例として、図5で示した入力画像220と同様のものを入力画像として、スクリーン処理を行い、図5で示した出力画像230と同様のものが出力画像として出力される場合を想定する。図6に示すように、入力画像220は下地領域221と文字領域222との明度差が比較的小さいものである。そのため、図6でグラフに示されるように、入力画像220のエッジ強度は、エッジ検出しきい値よりも大きくなることはない。図6に示す例では、「0」からエッジ検出しきい値までのエッジ強度の範囲を0パーセント〜100パーセントとしたとき、エッジ強度の最大値は、0パーセントと100パーセントとの間のαパーセントである。   In the following description of the modified example, as an example, the same image as the input image 220 shown in FIG. 5 is used as an input image, screen processing is performed, and the same image as the output image 230 shown in FIG. 5 is output as an output image. Assuming that As shown in FIG. 6, the input image 220 has a relatively small brightness difference between the base area 221 and the character area 222. Therefore, as shown in the graph of FIG. 6, the edge strength of the input image 220 does not become larger than the edge detection threshold value. In the example shown in FIG. 6, when the range of edge strength from “0” to the edge detection threshold is 0 percent to 100 percent, the maximum value of edge strength is α percent between 0 percent and 100 percent. It is.

第1の実施の形態において、拡張部109は、強度算出部107により算出されたエッジ強度に応じて、外エッジ領域を拡張する際の拡張サイズを決定し、決定した拡張サイズに応じて、外エッジ領域を拡張するようにしてもよい(第1の変型例)。   In the first embodiment, the extension unit 109 determines an extension size for extending the outer edge region according to the edge strength calculated by the strength calculation unit 107, and determines the outer size according to the determined extension size. The edge region may be expanded (first modified example).

図7は、第1の変型例におけるエッジ強度と外エッジ拡張量との関係を示すグラフである。   FIG. 7 is a graph showing the relationship between the edge strength and the outer edge extension amount in the first modification.

図7を参照して、第1の変型例において、拡張処理により外エッジ領域が拡張される量(外エッジ拡張量H(dot);拡張サイズの一例)は、エッジ強度をエッジ検出しきい値で除した値に比例するように設定されている。外エッジ拡張量Hは、エッジ強度をエッジ検出しきい値で除した値が「0」から「1」に近づくにつれて、徐々に小さくなる。すなわちエッジ強度が大きく、エッジ検出しきい値に近いほど、外エッジ拡張量Hは小さくなる。拡張部109は、強度算出部107により算出されたエッジ強度をエッジ検出しきい値で除した値の最大値(αパーセント)に対応する外エッジ拡張量Hを算出する。   Referring to FIG. 7, in the first modified example, the amount by which the outer edge region is expanded by the expansion processing (outer edge expansion amount H (dot); an example of the expansion size) It is set to be proportional to the value divided by. The outer edge extension amount H gradually decreases as the value obtained by dividing the edge strength by the edge detection threshold value approaches “1” from “0”. That is, the outer edge extension amount H decreases as the edge strength increases and approaches the edge detection threshold. The extension unit 109 calculates the outer edge extension amount H corresponding to the maximum value (α percent) obtained by dividing the edge strength calculated by the strength calculation unit 107 by the edge detection threshold value.

図8は、第1の変型例における出力画像を示す図である。   FIG. 8 is a diagram illustrating an output image in the first modification.

図8を参照して、出力画像230において、拡張処理は、外エッジ拡張量Hに応じたサイズで外エッジ領域を拡張することにより行われる。拡張された外エッジ領域が、置換領域235となる。第1の変型例において、置換領域235すなわち拡張後の外エッジ領域の幅(下地領域231と文字領域232との間隔)が外エッジ拡張量H(dot)になるように、拡張処理及び置換処理が行われる。   Referring to FIG. 8, in the output image 230, the expansion process is performed by extending the outer edge region with a size corresponding to the outer edge expansion amount H. The extended outer edge region becomes the replacement region 235. In the first variation, the extension process and the replacement process are performed so that the width of the replacement area 235, that is, the extended outer edge area (the interval between the base area 231 and the character area 232) becomes the outer edge extension amount H (dot). Is done.

このようにエッジ強度に応じて外エッジ領域の拡張量が設定されて拡張処理及び置換処理が行われるので、エッジ強度が小さくても、置換領域235が幅広くなって文字領域232と下地領域231とがはっきりと分離される。他方、エッジ強度が大きく文字領域232と下地領域231とが比較的判別しやすい場合には、置換領域235が狭くなる。したがって、入力画像の情報をできるだけ多く保持しつつ、可読性を向上させることができる。   In this way, the expansion amount and the replacement process are performed by setting the expansion amount of the outer edge region according to the edge strength, so that even if the edge strength is small, the replacement region 235 becomes wide and the character region 232 and the base region 231 Are clearly separated. On the other hand, when the edge strength is large and the character region 232 and the base region 231 are relatively easy to distinguish, the replacement region 235 is narrowed. Therefore, it is possible to improve readability while retaining as much information of the input image as possible.

第1の実施の形態において、拡張処理により拡張された外エッジ領域の置換データは、白データに限られるものではない。例えば、白色でなくても、下地領域より明度が高い色であってもよいし、他の色であってもよい。置換部111は、例えば、強度算出部107で算出したエッジ強度に応じて置換データを生成し、生成した置換データで置換対象画素の画像データを置換するようにしてもよい(第2の変型例)。   In the first embodiment, the replacement data of the outer edge region expanded by the expansion process is not limited to white data. For example, even if it is not white, it may be a color having a higher brightness than the background area, or another color. For example, the replacement unit 111 may generate replacement data according to the edge strength calculated by the strength calculation unit 107, and replace the image data of the replacement target pixel with the generated replacement data (second modification example). ).

図9は、第2の変型例におけるエッジ強度と置換データの階調との関係を示すグラフである。   FIG. 9 is a graph showing the relationship between the edge strength and the gradation of the replacement data in the second modification.

図9を参照して、第2の変型例においては、置換処理により置換される置換データの階調(例えば、明度など)Cは、エッジ強度をエッジ検出しきい値で除した値に比例するように設定されている。階調Cは、エッジ強度をエッジ検出しきい値で除した値が「0」から「1」に近づくにつれて、徐々に低くなる。すなわち、エッジ強度が大きく、エッジ検出しきい値に近いほど、置換データの階調Cは低くなる(例えば、明度が低くなる)。置換部111は、強度算出部107により算出されたエッジ強度をエッジ検出しきい値で除した値の最大値(αパーセント)に対応する階調Cを算出する。   Referring to FIG. 9, in the second modification, the gradation (for example, brightness) C of the replacement data replaced by the replacement process is proportional to the value obtained by dividing the edge strength by the edge detection threshold value. Is set to The gradation C gradually decreases as the value obtained by dividing the edge strength by the edge detection threshold value approaches “1” from “0”. That is, the greater the edge strength and the closer to the edge detection threshold, the lower the gradation C of the replacement data (for example, the lower the brightness). The replacement unit 111 calculates the gradation C corresponding to the maximum value (α percent) of the value obtained by dividing the edge strength calculated by the strength calculation unit 107 by the edge detection threshold value.

図10は、第2の変型例における出力画像を示す図である。   FIG. 10 is a diagram illustrating an output image in the second modification.

図10を参照して、出力画像230において、置換処理は、拡張された外エッジ領域すなわち置換領域235の画像データを、階調Cの置換データで置換することで行われる。なお、置換データの階調C(明度など)は、例えば、入力画像の下地領域221の明度と同程度の明度を最低でも有するものとすればよい。   Referring to FIG. 10, in the output image 230, the replacement process is performed by replacing the image data of the extended outer edge region, that is, the replacement region 235, with replacement data of gradation C. Note that the gradation C (lightness or the like) of the replacement data may have at least the same lightness as the lightness of the background region 221 of the input image, for example.

このように、第2の変型例において、置換領域235の置換データの階調Cは、エッジ強度に応じて設定されるので、エッジ強度が小さいほど、置換領域235の画像データはより階調が高い(例えば、明度が高く、白色に近い)ものとなり、文字領域232と下地領域231とがはっきりと分離される。他方、エッジ強度が大きく文字領域232と下地領域231とが比較的判別しやすい場合には、置換領域235の画像データは階調が低い(例えば、明度が低い)ものとなり、出力画像において入力画像の情報が比較的保持される。したがって、入力画像の情報をできるだけ多く保持しつつ、可読性を向上させることができる。   As described above, in the second modification, the gradation C of the replacement data in the replacement area 235 is set according to the edge strength. Therefore, the smaller the edge strength, the more the gradation of the image data in the replacement area 235. The character region 232 and the base region 231 are clearly separated from each other with high (for example, high brightness and close to white). On the other hand, when the edge strength is large and the character region 232 and the background region 231 are relatively easy to distinguish, the image data in the replacement region 235 has low gradation (for example, low brightness), and the input image in the output image Is relatively retained. Therefore, it is possible to improve readability while retaining as much information of the input image as possible.

なお、上記第1の変型例と第2の変型例とを組み合わせてもよい。すなわち、エッジ強度に応じて、置換領域235すなわち外エッジ領域の拡張量と、置換データとの両方が決定されるようにしてもよい。   Note that the first modification example and the second modification example may be combined. In other words, both the replacement amount of the replacement area 235, that is, the outer edge area, and the replacement data may be determined according to the edge strength.

[第2の実施の形態]   [Second Embodiment]

第2の実施の形態における画像形成装置の基本的な構成は、第1の実施の形態におけるそれと同じであるためここでの説明を繰り返さない。第2の実施の形態においては、拡張処理などが行われる所定の条件が、第1の実施の形態における条件とは異なる。   Since the basic configuration of the image forming apparatus in the second embodiment is the same as that in the first embodiment, description thereof will not be repeated here. In the second embodiment, a predetermined condition for performing the extension process or the like is different from the condition in the first embodiment.

第2の実施の形態において、拡張部109は、画像属性検出部104及び境界検出部105で検出された、内エッジ領域の画素と外エッジ領域の画素とについて明度算出部106で算出した明度差に応じて、拡張処理を行う。   In the second embodiment, the extension unit 109 calculates the brightness difference calculated by the brightness calculation unit 106 for the pixels in the inner edge region and the pixels in the outer edge region detected by the image attribute detection unit 104 and the boundary detection unit 105. The expansion process is performed according to

図11は、第2の実施の形態における入力画像とスクリーン処理後の出力画像との関係の第1の例を示す図である。   FIG. 11 is a diagram illustrating a first example of a relationship between an input image and an output image after screen processing according to the second embodiment.

図11において、上段に示す入力画像200と下段に示す出力画像210とは、図4において示したそれと略同じものである。図11の中段には、入力画像200について明度算出部106で算出された明度・輝度換算値(以下、明度値と称することがある。)を示すグラフが示されている。図11において、入力画像200と、グラフと、出力画像210とは、横方向の位置が上下で互いに対応するものになるように、縦方向に並んでいる。   In FIG. 11, an input image 200 shown in the upper part and an output image 210 shown in the lower part are substantially the same as those shown in FIG. In the middle part of FIG. 11, a graph showing a lightness / luminance conversion value (hereinafter sometimes referred to as a lightness value) calculated by the lightness calculation unit 106 for the input image 200 is shown. In FIG. 11, the input image 200, the graph, and the output image 210 are arranged in the vertical direction so that the horizontal positions correspond to each other vertically.

図11に示されるグラフにおいて、明度値は、上方に向かって大きくなる。入力画像200の下地領域201の明度Yaは文字領域202の明度Ybよりも高いので、グラフは、文字領域202に対応する中央部が低くなったくぼみ形状になる。   In the graph shown in FIG. 11, the brightness value increases upward. Since the lightness Ya of the background region 201 of the input image 200 is higher than the lightness Yb of the character region 202, the graph has a hollow shape with a lower central portion corresponding to the character region 202.

ここで、第2の実施の形態において、CPU101は、入力画像200の明度差すなわち文字領域202の輪郭画素(内エッジ領域の画素)とその輪郭画素に隣接する下地領域201の画素(外エッジ領域の画素)との明度差(Ya−Yb)が、所定値Ref以下であるか否かを評価する。明度差が所定値より大きいと評価されたとき、すなわち(Ya−Yb)>Refが成り立つ場合、強調処理部110は、文字領域202の輪郭画素に対して、塗りつぶし処理を行う。塗りつぶし処理は、例えば上述の第1の実施の形態と同様にして行われる。すなわち、文字領域212のうち下地領域211の近傍の内エッジに塗りつぶし部215が設けられた出力画像210が出力される。これにより、出力画像210は、下地領域211と文字領域212とのエッジが強調され、文字と下地との境界がくっきりと再現されたものとなる。   Here, in the second embodiment, the CPU 101 determines the brightness difference of the input image 200, that is, the outline pixel (inner edge area pixel) of the character area 202 and the pixel (outer edge area) of the ground area 201 adjacent to the outline pixel. It is evaluated whether or not the brightness difference (Ya−Yb) with respect to (a pixel of FIG. When it is evaluated that the brightness difference is greater than the predetermined value, that is, when (Ya−Yb)> Ref holds, the emphasis processing unit 110 performs a fill process on the outline pixels of the character region 202. The filling process is performed, for example, in the same manner as in the first embodiment described above. In other words, the output image 210 in which the filled portion 215 is provided at the inner edge in the vicinity of the base area 211 in the character area 212 is output. As a result, the output image 210 has the edges of the background area 211 and the character area 212 emphasized, and the boundary between the character and the background is clearly reproduced.

図12は、第2の実施の形態における入力画像とスクリーン処理後の出力画像との関係の第2の例を示す図である。   FIG. 12 is a diagram illustrating a second example of the relationship between an input image and an output image after screen processing according to the second embodiment.

図12において上段に示す入力画像220と下段に示す出力画像230とは、図5において示したそれと略同じものである。図12の中段には、入力画像220について明度算出部106で算出された明度値を示すグラフが示されている。図12において、入力画像220と、グラフと、出力画像230とは、横方向の位置が上下で互いに対応するものになるように、縦方向に並んでいる。図12に示されるグラフにおいても、明度値は、情報に向かって大きくなる。入力画像220の下地領域221の明度Yaは文字領域222の明度Ybよりも高いので、グラフは、文字領域222に対応する中央部が低くなったくぼみ形状になる。   In FIG. 12, the input image 220 shown in the upper part and the output image 230 shown in the lower part are substantially the same as those shown in FIG. The middle part of FIG. 12 shows a graph indicating the brightness value calculated by the brightness calculation unit 106 for the input image 220. In FIG. 12, the input image 220, the graph, and the output image 230 are arranged in the vertical direction so that the horizontal positions correspond to each other vertically. Also in the graph shown in FIG. 12, the lightness value increases toward the information. Since the lightness Ya of the background region 221 of the input image 220 is higher than the lightness Yb of the character region 222, the graph has a hollow shape with a lower central portion corresponding to the character region 222.

ここで、第2の実施の形態において、CPU101により文字領域202の輪郭画素とその輪郭画素に隣接する下地領域201の画素との明度差(Ya−Yb)が所定値Ref以下であると評価されたとき、すなわち(Ya−Yb)≦Refが成り立つ場合、拡張処理及び置換処理が行われる。拡張処理及び置換処理は、拡張部109により、例えば第1の実施の形態と同様にして行われる。すなわち、拡張部109は、入力画像220の外エッジ領域を下地領域221に拡張する。そして、置換部111は、拡張された外エッジ領域の画像データを置換データに置換する。これにより、出力画像230において、下地領域231と文字領域232との間に置換領域235が設けられる。換言すると、拡張処理により外エッジ領域が下地領域側に拡張され、拡張された外エッジ領域が置換処理により置換されることで、置換領域235が設けられる。   Here, in the second embodiment, the CPU 101 evaluates that the brightness difference (Ya−Yb) between the contour pixel of the character region 202 and the pixel of the base region 201 adjacent to the contour pixel is equal to or less than the predetermined value Ref. In other words, when (Ya−Yb) ≦ Ref holds, the expansion process and the replacement process are performed. The expansion process and the replacement process are performed by the expansion unit 109, for example, in the same manner as in the first embodiment. That is, the extension unit 109 extends the outer edge area of the input image 220 to the base area 221. Then, the replacement unit 111 replaces the image data of the extended outer edge region with replacement data. As a result, a replacement area 235 is provided between the base area 231 and the character area 232 in the output image 230. In other words, the replacement region 235 is provided by expanding the outer edge region to the base region side by the expansion processing and replacing the expanded outer edge region by the replacement processing.

外エッジ領域の画像データは、例えば白色の置換データで置換される。白色の置換領域235が設けられることにより、出力画像230において、下地領域231と文字領域232とが分離される。したがって、出力画像230において、文字と下地の境界がくっきりと再現される。下地領域231のうち文字領域232に近い部分が置換領域235とされるので、文字領域202にはほとんど影響はなく、入力画像220の再現性が高い出力画像230が得られる。   The image data in the outer edge area is replaced with, for example, white replacement data. By providing the white replacement area 235, the base area 231 and the character area 232 are separated in the output image 230. Therefore, in the output image 230, the boundary between the character and the background is clearly reproduced. Since the portion close to the character region 232 in the base region 231 is the replacement region 235, the character region 202 is hardly affected, and the output image 230 with high reproducibility of the input image 220 is obtained.

なお、このようにスクリーン処理が行われるとき、文字領域232の内エッジ領域の画像データ及び文字領域232の輪郭領域の画像データは、例えば、強度算出部107の算出結果と、境界検出部105の検出結果と、エッジ判定部108による内エッジ領域の判定結果とに基づいて、CPU101により決定されればよい。   When screen processing is performed in this way, the image data of the inner edge region of the character region 232 and the image data of the contour region of the character region 232 are, for example, the calculation result of the strength calculation unit 107 and the boundary detection unit 105. The CPU 101 may be determined based on the detection result and the determination result of the inner edge region by the edge determination unit 108.

このように、第2の実施の形態では、入力画像の文字領域の輪郭画素とその輪郭画素に隣接する下地領域の画素との明度差が所定値以下であるときに、拡張処理及び置換処理が行われて下地領域と文字領域とが分離される。下地領域と文字領域との明度差が小さいときにも下地領域と文字領域との境界がくっきりと再現されテクスチャノイズが発生しない。そのため、入力画像の情報をより多く保持したままで可読性が向上するようにスクリーン処理を実行可能になる。   As described above, in the second embodiment, when the brightness difference between the contour pixel of the character region of the input image and the pixel of the background region adjacent to the contour pixel is equal to or smaller than a predetermined value, the expansion processing and replacement processing are performed. As a result, the background area and the character area are separated. Even when the brightness difference between the background area and the character area is small, the boundary between the background area and the character area is clearly reproduced, and texture noise does not occur. Therefore, it is possible to execute screen processing so that readability is improved while more information of the input image is held.

[第3の実施の形態]   [Third Embodiment]

第3の実施の形態における画像形成装置の基本的な構成は、第2の実施の形態におけるそれと同じであるためここでの説明を繰り返さない。第3の実施の形態においては、拡張処理における拡張サイズが明度に基づいて決定される点が、第2の実施の形態とは異なる。   Since the basic configuration of the image forming apparatus according to the third embodiment is the same as that of the second embodiment, description thereof will not be repeated here. The third embodiment is different from the second embodiment in that the extension size in the extension process is determined based on the brightness.

第3の実施の形態において、拡張部109は、明度算出部106により算出された文字領域222の輪郭画素の明度とその輪郭画素に隣接する下地領域221の画素の明度とに応じて拡張サイズを決定し、決定した拡張サイズに応じて、外エッジ領域を拡張する。   In the third embodiment, the extension unit 109 increases the extension size according to the brightness of the contour pixel of the character region 222 calculated by the brightness calculation unit 106 and the brightness of the pixel of the base region 221 adjacent to the contour pixel. The outer edge region is expanded according to the determined expansion size.

図13は、第3の実施の形態における入力画像と入力画像の明度・輝度換算値との関係の一例を示す図である。   FIG. 13 is a diagram illustrating an example of the relationship between the input image and the lightness / luminance conversion value of the input image according to the third embodiment.

以下の第3の実施の形態の説明では、一例として、図12で示した入力画像220と同様のものを入力画像として、スクリーン処理を行い、図12で示した出力画像230と同様のものが出力画像として出力される場合を想定する。図13に示すように、入力画像220は下地領域221と文字領域222との明度差が比較的小さいものである。図13のグラフに示されるように、入力画像220において、下地領域221の明度Yaと文字領域222の明度Ybとの差は、所定値Refよりも小さい。そのため、入力画像220についてスクリーン処理が行われるとき、拡張処理及び置換処理が行われる。   In the following description of the third embodiment, as an example, the same image as the input image 220 shown in FIG. 12 is used as the input image, screen processing is performed, and the same image as the output image 230 shown in FIG. Assume that the output image is output. As shown in FIG. 13, the input image 220 has a relatively small brightness difference between the base area 221 and the character area 222. As shown in the graph of FIG. 13, in the input image 220, the difference between the lightness Ya of the background area 221 and the lightness Yb of the character area 222 is smaller than a predetermined value Ref. Therefore, when screen processing is performed on the input image 220, expansion processing and replacement processing are performed.

図14は、第3の実施の形態における下地領域221の明度Ya及び文字領域222の明度Ybと外エッジ拡張量との関係を示すグラフである。   FIG. 14 is a graph showing the relationship between the lightness Ya of the base region 221 and the lightness Yb of the character region 222 and the outer edge extension amount in the third embodiment.

図14を参照して、第3の実施の形態において、拡張部109により決定される外エッジ領域が拡張される量(外エッジ拡張量H(dot))は、下地領域221の明度Ya及び文字領域222の明度Yb(例えば、明度Yaと明度Ybの平均値など。;以下、明度Ya,Ybと称することがある。)に比例するように設定されている。外エッジ拡張量Hは、明度Ya,Ybが「0」から「100」に近づくにつれて、徐々に大きくなる。すなわち入力画像の明度が低いほど、外エッジ拡張量Hは小さくなる。   Referring to FIG. 14, in the third embodiment, the amount of expansion of the outer edge region determined by expansion unit 109 (outer edge expansion amount H (dot)) is the lightness Ya and character of base region 221. It is set to be proportional to the lightness Yb of the region 222 (for example, the average value of the lightness Ya and the lightness Yb; hereinafter, sometimes referred to as the lightness Ya, Yb). The outer edge expansion amount H gradually increases as the lightness Ya, Yb approaches “100” from “0”. That is, the lower the brightness of the input image, the smaller the outer edge extension amount H.

入力画像220は、図13のグラフに示されるように、下地領域221の明度Yaと文字領域222の明度Ybとが共に比較的低いものである。そのため、入力画像220のスクリーン処理時においては、下地領域221と文字領域222との境界部の外エッジ領域の拡張量が抑えられる。他方、仮に下地領域の明度Yaと文字領域の明度Ybとが共に比較的高い入力画像について拡張処理が行われるときには、外エッジ拡張量は比較的大きくなる。   In the input image 220, as shown in the graph of FIG. 13, both the lightness Ya of the base area 221 and the lightness Yb of the character area 222 are relatively low. Therefore, during screen processing of the input image 220, the expansion amount of the outer edge area at the boundary between the base area 221 and the character area 222 can be suppressed. On the other hand, if the extension process is performed on an input image in which both the brightness Ya of the background area and the brightness Yb of the character area are relatively high, the outer edge extension amount is relatively large.

図15は、第3の実施の形態における出力画像230の一例を示す図である。   FIG. 15 is a diagram illustrating an example of an output image 230 according to the third embodiment.

第3の実施の形態において出力される出力画像は、上述の第2の実施の形態で示した出力画像230と同様のものである。すなわち、出力画像230において、下地領域231と文字領域232との間には、置換領域235が設けられている。ここで、拡張処理により拡張量が抑えられると、外エッジ領域の拡張量が少なくなったり、拡張されなくなったりする。そのため、置換領域235が小さくなる。   The output image output in the third embodiment is the same as the output image 230 shown in the second embodiment described above. That is, in the output image 230, a replacement area 235 is provided between the base area 231 and the character area 232. Here, when the expansion amount is suppressed by the expansion processing, the expansion amount of the outer edge region is reduced or is not expanded. Therefore, the replacement area 235 becomes small.

このように、第3の実施の形態によれば、入力画像220の内容すなわち文字領域222と下地領域221と明度情報に応じて、より適切に拡張処理が行われる。したがって、入力画像の情報がより多く保持され、高い可読性を有する出力画像230を得ることができる。   As described above, according to the third embodiment, the expansion process is more appropriately performed according to the contents of the input image 220, that is, the character area 222, the background area 221, and the brightness information. Therefore, it is possible to obtain an output image 230 that retains more information of the input image and has high readability.

なお、外エッジ拡張量Hは、入力画像の下地領域221と文字領域222との明度差に応じて決定されてもよい。例えば、明度差が小さいほど、外エッジ拡張量Hが大きくなるようにしてもよい。   The outer edge extension amount H may be determined according to the brightness difference between the background area 221 and the character area 222 of the input image. For example, the outer edge expansion amount H may be increased as the brightness difference is smaller.

[第4の実施の形態]   [Fourth Embodiment]

第4の実施の形態における画像形成装置の基本的な構成は、第2の実施の形態におけるそれと同じであるためここでの説明を繰り返さない。第4の実施の形態においては、置換処理における置換データが明度に基づいて決定される点が、第2の実施の形態とは異なる。以下、一例として、上記図13に示した入力画像220についてスクリーン処理が行われる場合について説明する。   Since the basic configuration of the image forming apparatus in the fourth embodiment is the same as that in the second embodiment, description thereof will not be repeated here. The fourth embodiment is different from the second embodiment in that replacement data in the replacement process is determined based on lightness. Hereinafter, as an example, a case where screen processing is performed on the input image 220 shown in FIG. 13 will be described.

第4の実施の形態において、置換部111は、明度算出部106により算出された文字領域222の明度と輪郭画素に隣接する下地領域221の画素の明度とに応じて置換データを生成し、生成した置換データで外エッジ領域の画像データを置換する。   In the fourth embodiment, the replacement unit 111 generates replacement data according to the lightness of the character region 222 calculated by the lightness calculation unit 106 and the lightness of the pixel of the base region 221 adjacent to the contour pixel. The image data in the outer edge area is replaced with the replaced data.

図16は、第4の実施の形態における下地領域221の明度Ya及び文字領域222の明度Ybと置換データの階調との関係を示すグラフである。   FIG. 16 is a graph showing the relationship between the lightness Ya of the base region 221 and the lightness Yb of the character region 222 and the gradation of the replacement data in the fourth embodiment.

図16を参照して、置換部111により生成される置換データの階調(例えば、明度など)Cは、明度Ya,Ybに比例するように設定されている。置換データの階調Cは、明度Ya,Ybが「0」から「100」に近づくにつれて、徐々に大きくなる。すなわち入力画像の明度が高いほど、置換データの階調Cは大きくなる(例えば、明度が高くなる)。   Referring to FIG. 16, the gradation (for example, lightness) C of replacement data generated by replacement unit 111 is set to be proportional to lightness Ya, Yb. The gradation C of the replacement data gradually increases as the lightness Ya, Yb approaches “100” from “0”. That is, the higher the brightness of the input image, the greater the gradation C of the replacement data (for example, the higher the brightness).

入力画像220は、図13のグラフに示されるように、下地領域221の明度Yaと文字領域222の明度Ybとが共に比較的低いものである。そのため、入力画像220のスクリーン処理時においては、置換部111は、階調Cが比較的低い置換データ(例えば、明度が低い置換データなど)を生成し、外エッジ領域をその置換データで置換する。他方、仮に下地領域の明度Yaと文字領域の明度Ybとが共に比較的高い入力画像について拡張処理が行われるときには、階調Cが比較的高い置換データ(例えば、明度が高い置換データなど)で外エッジ領域が置換される。   In the input image 220, as shown in the graph of FIG. 13, both the lightness Ya of the base area 221 and the lightness Yb of the character area 222 are relatively low. Therefore, at the time of screen processing of the input image 220, the replacement unit 111 generates replacement data with a relatively low gradation C (for example, replacement data with low brightness) and replaces the outer edge region with the replacement data. . On the other hand, if the expansion process is performed on an input image in which both the lightness Ya of the background area and the lightness Yb of the character area are relatively high, replacement data having a relatively high gradation C (for example, replacement data having a high lightness) is used. The outer edge region is replaced.

第4の実施の形態では、明度Ya,Ybに応じた階調の置換データで置換処理が行われ、出力画像が出力される。したがって、置換データの階調が、下地領域の画像データの階調や文字領域の画像データなどとマッチしたものになる。例えば、明度Ya,Ybが比較的低い入力画像について置換処理が行われるとき、置換データとして明度が低い暗めのデータが生成され、置換処理が行われる。これにより、より自然な色調の出力画像を得ることができる。   In the fourth embodiment, replacement processing is performed with replacement data of gradations corresponding to the lightness values Ya and Yb, and an output image is output. Therefore, the gradation of the replacement data matches the gradation of the image data in the background area and the image data in the character area. For example, when replacement processing is performed for an input image with relatively low brightness Ya and Yb, dark data with low lightness is generated as replacement data, and the replacement processing is performed. Thereby, an output image with a more natural color tone can be obtained.

[実施の形態における効果]   [Effects of the embodiment]

以上のように構成された画像形成装置では、文字領域と下地領域との境界部分においてエッジ判定されなかったり明度差が所定値より小さかったりする所定の場合に、拡張処理と置換処理とが行われる。これにより、上記所定の場合には、文字領域と下地領域とが分離された出力画像が得られ、入力画像の情報をより多く保持したままで可読性が向上するようにスクリーン処理を実行可能である。   In the image forming apparatus configured as described above, the expansion process and the replacement process are performed when an edge determination is not made at the boundary portion between the character area and the background area or the brightness difference is smaller than a predetermined value. . As a result, in the predetermined case, an output image in which the character area and the background area are separated is obtained, and screen processing can be executed so as to improve readability while retaining more information of the input image. .

図17は、スクリーン処理後の出力画像の一例について説明する第1の図である。   FIG. 17 is a first diagram illustrating an example of an output image after screen processing.

図17において、上下3つの画像のうち、上段が入力画像500を示し、中断が従来のスクリーン処理が行われた結果出力される出力画像510を示し、下段が上記実施の形態のいずれかの画像形成装置によりスクリーン処理が行われた結果出力される出力画像550の一例を示す。入力画像500として、着色された下地領域501上に下地領域501と異なる色で文字領域502が配置されているものを想定する。入力画像500は、上述の図19に記載のものと同一のものである。すなわち、下地領域501の色は、茶色であり、文字領域502の色は、下地よりも明るいカーキ色である。入力画像500は、下地領域501と文字領域502との明度差が小さいものである。入力画像500は、下地領域501と文字領域502との境界においてエッジ判定部108によるエッジ判定が行われないようなものである。   In FIG. 17, among the upper and lower three images, the upper part shows the input image 500, the interruption shows the output image 510 output as a result of the conventional screen processing, and the lower part shows the image of any of the above embodiments An example of an output image 550 output as a result of screen processing performed by the forming apparatus is shown. Assume that the input image 500 has a character area 502 arranged in a different color from the background area 501 on the colored background area 501. The input image 500 is the same as that shown in FIG. That is, the color of the background area 501 is brown, and the color of the character area 502 is a khaki color brighter than the background. The input image 500 has a small brightness difference between the background area 501 and the character area 502. The input image 500 is such that the edge determination by the edge determination unit 108 is not performed at the boundary between the background area 501 and the character area 502.

このような入力画像についてスクリーン処理が行われると、下地領域551と文字領域552とを含む出力画像550が得られる。下地領域551は、下地領域501に対応する明度である。文字領域552は、文字領域502に対応する明度である。   When screen processing is performed on such an input image, an output image 550 including a base area 551 and a character area 552 is obtained. The background area 551 has brightness corresponding to the background area 501. The character area 552 has brightness corresponding to the character area 502.

従来、上記のような入力画像500についてスクリーン処理が行われると、出力画像510のように、文字領域の輪郭部分でテクスチャノイズが目立つ可能性がある。これに対して、以上のように構成された画像形成装置で出力される出力画像550では、エッジの強調処理、又は外エッジ領域の拡張処理及び置換処理により、文字領域552の輪郭部分で下地領域551と文字領域552とが確実に分離される。したがって、文字領域の輪郭部分でテクスチャノイズが発生することが防止され、かつ、文字の可読性を向上させることができる。   Conventionally, when the screen processing is performed on the input image 500 as described above, texture noise may be conspicuous in the outline portion of the character area as in the output image 510. On the other hand, in the output image 550 output by the image forming apparatus configured as described above, the background region is defined in the outline portion of the character region 552 by edge enhancement processing or outer edge region expansion processing and replacement processing. 551 and the character area 552 are reliably separated. Therefore, it is possible to prevent the occurrence of texture noise in the outline portion of the character region and improve the readability of the character.

図18は、スクリーン処理後の出力画像の別例について説明する第2の図である。   FIG. 18 is a second diagram illustrating another example of the output image after the screen processing.

図18において、上下3つの画像のうち、上段が入力画像600を示し、中断が従来のスクリーン処理が行われた結果出力される出力画像610を示し、下段が上記実施の形態のいずれかの画像形成装置によりスクリーン処理が行われた結果出力される出力画像650の一例を示す。図を参照して、入力画像として、着色された下地領域601上に下地領域601と異なる色で文字領域602が配置されているものを想定する。入力画像600は、上述の図20に記載のものと同一のものである。ここで、下地領域601の色は、灰色であり、文字領域602の色は、下地領域601よりもわずかに明るい灰色である。入力画像600は、下地領域601と文字領域602との明度差が比較的小さいものである。   In FIG. 18, among the upper and lower three images, the upper part shows the input image 600, the interruption shows the output image 610 output as a result of the conventional screen processing, and the lower part shows the image of any one of the above embodiments. An example of an output image 650 output as a result of screen processing performed by the forming apparatus is shown. Referring to the figure, an input image is assumed in which a character area 602 is arranged on a colored background area 601 in a color different from that of the background area 601. The input image 600 is the same as that shown in FIG. Here, the color of the background area 601 is gray, and the color of the character area 602 is slightly lighter gray than the background area 601. The input image 600 has a relatively small brightness difference between the background area 601 and the character area 602.

このような入力画像についてスクリーン処理が行われると、下地領域651と文字領域652とを含む出力画像650が得られる。下地領域651の画素の明度は、下地領域601の画素の明度に対応する明度である。文字領域652の画素の明度は、文字領域602の画素の明度に対応する明度である。   When screen processing is performed on such an input image, an output image 650 including a base area 651 and a character area 652 is obtained. The brightness of the pixel in the base area 651 is the brightness corresponding to the brightness of the pixel in the base area 601. The brightness of the pixel in the character area 652 is a brightness corresponding to the brightness of the pixel in the character area 602.

従来、上記のような入力画像600についてスクリーン処理が行われると、出力画像610のように、文字領域と下地領域との明度差がほとんどなくなり、文字を判別しにくくなる場合がある。これに対して、以上のように構成された画像形成装置で出力される出力画像650では、エッジの強調処理、又は外エッジ領域の拡張処理及び置換処理により、文字領域652の輪郭部分で下地領域651と文字領域652とが確実に分離される。したがって、テクスチャノイズの発生を防止でき、かつ、文字の可読性を向上させることができる。   Conventionally, when the screen processing is performed on the input image 600 as described above, there is almost no difference in brightness between the character area and the background area as in the output image 610, and it may be difficult to distinguish characters. On the other hand, in the output image 650 output by the image forming apparatus configured as described above, the edge region or the outer edge region expansion processing and replacement processing are performed, so that the background region is represented by the outline portion of the character region 652. 651 and the character area 652 are reliably separated. Therefore, the generation of texture noise can be prevented and the readability of characters can be improved.

[その他]   [Others]

エッジ検出しきい値、明度差が大きいか否かの基準値となる所定値、及びその他の設定値などは、入力画像の情報を多く保ちつつ可読性が高い出力画像が出力されるように、適宜適当な値に設定されればよい。   The edge detection threshold, a predetermined value that is a reference value for whether or not the brightness difference is large, and other setting values are appropriately set so that an output image with high readability is output while a large amount of information of the input image is maintained. What is necessary is just to set to an appropriate value.

上記第2の実施の形態において、画素の明度情報そのものに応じて拡張処理及び置換処理が行われるようにしてもよい。例えば、下地領域の画素の明度が所定のしきい値よりも低い場合に、外エッジ領域の拡張が行われるようにしてもよい。   In the second embodiment, the expansion process and the replacement process may be performed in accordance with the pixel brightness information itself. For example, the outer edge region may be expanded when the brightness of the pixel in the base region is lower than a predetermined threshold value.

上記の実施の形態やその変型例のそれぞれを適宜組み合わせて画像形成装置が構成されてもよい。例えば、拡張部は、上記のエッジ判定されたか否かの評価結果及び明度差が所定値以上であるか否かの評価結果の両方の評価結果に応じて拡張処理を行ったり、エッジ強度及び明度差の両方に基づいて拡張処理時の拡張サイズを決定したりしてもよい。同様に、置換部は、エッジ強度及び明度差の両方に基づいて置換データの階調などを決定してもよい。また、上記第1の実施の形態において、拡張処理や置換処理が行われるとき、拡張サイズ(外エッジ拡張量)の決定や置換データの生成が、明度算出部により算出された明度に応じて行われるようにしてもよい。   The image forming apparatus may be configured by appropriately combining each of the above-described embodiments and variations thereof. For example, the extension unit performs an extension process according to both the evaluation result of whether or not the edge determination is performed and the evaluation result of whether or not the brightness difference is a predetermined value or more, or performs edge processing and edge strength and brightness. The expansion size at the time of expansion processing may be determined based on both of the differences. Similarly, the replacement unit may determine the gradation of the replacement data based on both the edge strength and the brightness difference. In the first embodiment, when the extension process or the replacement process is performed, the extension size (outer edge extension amount) is determined or the replacement data is generated according to the brightness calculated by the brightness calculation unit. You may be made to be.

画像形成装置としては、モノクロ/カラーの複写機、プリンタ、ファクシミリ装置やこれらの複合機(MFP)などいずれであってもよい。画像形成装置は、電子写真方式により画像を形成するものに限られず、例えばいわゆるインクジェット方式により画像を形成するものであってもよい。   The image forming apparatus may be a monochrome / color copying machine, a printer, a facsimile machine, or a multifunction machine (MFP) thereof. The image forming apparatus is not limited to an apparatus that forms an image by an electrophotographic method, and may be an apparatus that forms an image by a so-called inkjet method, for example.

本発明は、画像形成装置に限られるものではなく、画像形成装置において印字されるスクリーン画像を出力する画像処理装置に広く適用可能である。例えば、通信可能に接続された外部の画像形成装置にスクリーン画像を出力する機能を有する画像処理装置にも適用可能である。   The present invention is not limited to an image forming apparatus, and can be widely applied to an image processing apparatus that outputs a screen image printed on the image forming apparatus. For example, the present invention can be applied to an image processing apparatus having a function of outputting a screen image to an external image forming apparatus connected to be communicable.

上述の実施の形態における処理は、ソフトウェアによって行っても、ハードウェア回路を用いて行ってもよい。   The processing in the above embodiment may be performed by software or by using a hardware circuit.

上述の実施の形態における処理を実行するプログラムを提供することもできるし、そのプログラムをCD−ROM、フレキシブルディスク、ハードディスク、ROM、RAM、メモリカードなどの記録媒体に記録してユーザに提供することにしてもよい。プログラムはインターネットなどの通信回線を介して、装置にダウンロードするようにしてもよい。上記のフローチャートで文章で説明された処理は、そのプログラムに従ってCPUなどにより実行される。   A program for executing the processing in the above-described embodiment can be provided, or the program can be recorded on a recording medium such as a CD-ROM, a flexible disk, a hard disk, a ROM, a RAM, or a memory card and provided to the user. It may be. The program may be downloaded to the apparatus via a communication line such as the Internet. The processing described in the text in the above flowchart is executed by the CPU according to the program.

上記実施の形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。   The above embodiment should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

1 画像形成装置(画像処理装置の一例)
10 原稿読取部(読込手段の一例)
30 画像形成部
100 制御部(画像処理装置の一例)
101 CPU(評価手段の一例)
104 画素属性検出部
105 境界検出部(境界検出手段の一例)
106 明度算出部(明度算出手段の一例)
107 強度算出部(強度算出手段の一例)
108 エッジ判定部(第1のエッジ判定手段の一例、第2のエッジ判定手段の一例)
109 拡張部(拡張手段の一例)
110 強調処理部(強調処理手段の一例、塗りつぶし手段の一例)
111 置換部(置換手段の一例)
120a 制御プログラム
H 外エッジ拡張量(拡張サイズの一例)
200,220,500,600 入力画像
201,221,501,601 (入力画像の)下地領域
202,222,502,602 (入力画像の)文字領域
210,240,550,650 出力画像
211,231,551,651 (出力画像の)下地領域
212,232,552,652 (出力画像の)文字領域
215 塗りつぶし部
235,235a,235b 置換領域
1 Image forming apparatus (an example of an image processing apparatus)
10 Document reading unit (an example of reading means)
30 Image forming unit 100 Control unit (an example of an image processing apparatus)
101 CPU (an example of evaluation means)
104 pixel attribute detection unit 105 boundary detection unit (an example of boundary detection means)
106 brightness calculation unit (an example of brightness calculation means)
107 Strength calculation unit (an example of strength calculation means)
108 Edge determination unit (an example of a first edge determination unit, an example of a second edge determination unit)
109 Expansion unit (an example of expansion means)
110 Emphasis processing unit (an example of an emphasis processing means, an example of a painting means)
111 Replacement part (an example of replacement means)
120a Control program H Outer edge extension amount (example of extension size)
200, 220, 500, 600 Input image 201, 221, 501, 601 Base area (for input image) 202, 222, 502, 602 Character area (for input image) 210, 240, 550, 650 Output image 211, 231, 551, 651 (Output image) background area 212, 232, 552, 652 (Output image) character area 215 Filled portions 235, 235a, 235b Replacement area

Claims (15)

スクリーン処理を行い、画像形成装置において印字されるスクリーン画像を出力する画像処理装置であって、
入力画像を読み込む読込手段と、
前記読込手段により読み込まれた入力画像に存在する、文字領域と前記文字領域以外の下地領域との境界を検出する境界検出手段と、
前記文字領域のエッジ強度を算出する強度算出手段と、
前記強度算出手段により算出されたエッジ強度に基づいて前記文字領域と下地領域との境界の下地領域側の外エッジ領域を判定する第1のエッジ判定手段と、
前記境界検出手段による検出結果及び前記第1のエッジ判定手段の判定結果に基づいて、前記外エッジ領域を前記下地領域に拡張する拡張手段と、
前記拡張手段により拡張された外エッジ領域の画像データを置換データに置換する置換手段と、
前記入力画像のうち前記文字領域と前記下地領域との境界部分の特徴に関する条件を満たすか否かの評価を行う評価手段とを備え、
前記評価手段による評価結果に基づいて、前記拡張手段が前記拡張を行い、前記置換手段が前記置換を行う、画像処理装置。
An image processing apparatus that performs screen processing and outputs a screen image printed on the image forming apparatus,
A reading means for reading the input image;
Boundary detection means for detecting a boundary between a character area and a base area other than the character area, present in the input image read by the reading means;
Strength calculating means for calculating edge strength of the character region;
First edge determination means for determining an outer edge area on the background area side of the boundary between the character area and the background area based on the edge intensity calculated by the intensity calculation means;
Based on the detection result by the boundary detection means and the determination result of the first edge determination means, an expansion means for extending the outer edge area to the base area;
Replacement means for replacing the image data of the outer edge region extended by the extension means with replacement data;
An evaluation unit that evaluates whether or not a condition regarding a feature of a boundary portion between the character region and the background region in the input image is satisfied;
An image processing apparatus in which the expansion unit performs the expansion and the replacement unit performs the replacement based on an evaluation result by the evaluation unit.
前記画像処理装置は、前記強度算出手段により算出されたエッジ強度に基づいてエッジ判定を行う第2のエッジ判定手段をさらに備え、
前記評価手段は、前記文字領域の輪郭画素に対して前記第2のエッジ判定手段によりエッジ判定が行われたか否かを評価し、
前記評価手段により前記エッジ判定が行われなかったと評価されたとき、前記拡張手段が前記拡張を行い、前記置換手段が前記置換を行う、請求項1に記載の画像処理装置。
The image processing apparatus further includes second edge determination means for performing edge determination based on the edge strength calculated by the strength calculation means,
The evaluation means evaluates whether or not the edge determination is performed by the second edge determination means on the contour pixels of the character region;
The image processing apparatus according to claim 1, wherein when the evaluation unit evaluates that the edge determination has not been performed, the expansion unit performs the expansion, and the replacement unit performs the replacement.
前記画像処理装置は、前記第2のエッジ判定手段により判定されたエッジを強調する強調処理を行う強調処理手段をさらに備え、
前記評価手段により前記エッジ判定が行われたと評価されたとき、前記強調処理手段が前記強調処理を行う、請求項2に記載の画像処理装置。
The image processing apparatus further includes enhancement processing means for performing enhancement processing for enhancing the edge determined by the second edge determination means,
The image processing apparatus according to claim 2, wherein when the evaluation unit evaluates that the edge determination has been performed, the enhancement processing unit performs the enhancement processing.
前記画像処理装置は、処理対象の領域の塗りつぶし処理を行う塗りつぶし手段をさらに備え、
前記塗りつぶし手段は、前記強度算出手段により算出されたエッジ強度が所定の強度よりも高いとき、前記文字領域の輪郭画素に対して前記塗りつぶし処理を行う、請求項1から3のいずれかに記載の画像処理装置。
The image processing apparatus further includes a filling unit that performs a filling process of a region to be processed;
The said filling means performs the said filling process with respect to the outline pixel of the said character area, when the edge intensity | strength calculated by the said intensity | strength calculation means is higher than predetermined | prescribed intensity | strength. Image processing device.
前記拡張手段は、
前記強度算出手段により算出されたエッジ強度に応じて拡張サイズを決定し、
決定した拡張サイズに応じて、前記拡張を行う、請求項1から4のいずれかに記載の画像処理装置。
The expansion means includes
Determine the extension size according to the edge strength calculated by the strength calculating means,
The image processing apparatus according to claim 1, wherein the expansion is performed according to the determined expansion size.
前記置換手段は、
前記強度算出手段により算出されたエッジ強度に応じて置換データを生成し、
生成した置換データで、前記置換を行う、請求項1から5のいずれかに記載の画像処理装置。
The replacement means includes
Generating replacement data according to the edge strength calculated by the strength calculating means;
The image processing apparatus according to claim 1, wherein the replacement is performed using the generated replacement data.
前記画像処理装置は、前記読込手段により読み込まれた入力画像の各画素の明度を算出する明度算出手段をさらに備え、
前記評価手段は、前記明度算出手段により算出された前記文字領域の輪郭画素とその輪郭画素に隣接する前記下地領域の画素との明度差が所定値以下であるか否かを評価し、
前記評価手段により前記明度差が所定値以下であると評価されたとき、前記拡張手段が前記拡張を行い、前記置換手段が前記置換を行う、請求項1から6のいずれかに記載の画像処理装置。
The image processing apparatus further includes a brightness calculation unit that calculates the brightness of each pixel of the input image read by the reading unit,
The evaluation means evaluates whether or not the brightness difference between the contour pixel of the character area calculated by the brightness calculation means and the pixel of the background area adjacent to the contour pixel is a predetermined value or less,
The image processing according to any one of claims 1 to 6, wherein when the evaluation unit evaluates that the brightness difference is equal to or less than a predetermined value, the expansion unit performs the expansion, and the replacement unit performs the replacement. apparatus.
前記拡張手段は、
前記明度算出手段により算出された前記文字領域の輪郭画素の明度と前記輪郭画素に隣接する前記下地領域の画素の明度とに応じて拡張サイズを決定し、
決定した拡張サイズに応じて、前記拡張を行う、請求項7に記載の画像処理装置。
The expansion means includes
The extension size is determined according to the brightness of the contour pixel of the character area calculated by the brightness calculation means and the brightness of the pixel of the background area adjacent to the contour pixel,
The image processing apparatus according to claim 7, wherein the expansion is performed according to the determined expansion size.
前記置換手段は、
前記明度算出手段により算出された前記文字領域の輪郭画素の明度と前記輪郭画素に隣接する前記下地領域の画素の明度とに応じて置換データを生成し、
生成した置換データで、前記置換を行う、請求項7又は8に記載の画像処理装置。
The replacement means includes
Generating replacement data according to the brightness of the contour pixel of the character area calculated by the brightness calculation means and the brightness of the pixel of the background area adjacent to the contour pixel;
The image processing apparatus according to claim 7, wherein the replacement is performed using the generated replacement data.
前記画像処理装置は、前記読込手段により読み込まれた入力画像の各画素の明度を算出する明度算出手段をさらに備え、
前記拡張手段は、
前記明度算出手段により算出された前記文字領域の輪郭画素の明度と前記輪郭画素に隣接する前記下地領域の画素の明度とに応じて拡張サイズを決定し、
決定した拡張サイズに応じて、前記拡張を行う、請求項1から6のいずれかに記載の画像処理装置。
The image processing apparatus further includes a brightness calculation unit that calculates the brightness of each pixel of the input image read by the reading unit,
The expansion means includes
The extension size is determined according to the brightness of the contour pixel of the character area calculated by the brightness calculation means and the brightness of the pixel of the background area adjacent to the contour pixel,
The image processing apparatus according to claim 1, wherein the expansion is performed according to the determined expansion size.
前記画像処理装置は、前記読込手段により読み込まれた入力画像の各画素の明度を算出する明度算出手段をさらに備え、
前記置換手段は、
前記明度算出手段により算出された前記文字領域の輪郭画素の明度と前記輪郭画素に隣接する前記下地領域の画素の明度とに応じて置換データを生成し、
生成した置換データで、前記置換を行う、請求項1から6のいずれかに記載の画像処理装置。
The image processing apparatus further includes a brightness calculation unit that calculates the brightness of each pixel of the input image read by the reading unit,
The replacement means includes
Generating replacement data according to the brightness of the contour pixel of the character area calculated by the brightness calculation means and the brightness of the pixel of the background area adjacent to the contour pixel;
The image processing apparatus according to claim 1, wherein the replacement is performed using the generated replacement data.
前記第1のエッジ判定手段は、前記強度算出手段により算出されたエッジ強度に基づいて前記文字領域と下地領域との境界の文字領域側の内エッジ領域を判定し、
前記画像処理装置は、前記強度算出手段の算出結果と、前記境界検出手段の検出結果と、前記第1のエッジ判定手段による内エッジ領域の判定結果とに基づいて、前記内エッジ領域の画像データ及び前記文字領域の輪郭領域の画像データを決定する処理を行う境界処理部をさらに備える、請求項1から11のいずれかに記載の画像処理装置。
The first edge determination unit determines an inner edge region on the character region side of the boundary between the character region and the background region based on the edge strength calculated by the strength calculation unit;
The image processing apparatus is configured to generate image data of the inner edge region based on the calculation result of the intensity calculating unit, the detection result of the boundary detecting unit, and the determination result of the inner edge region by the first edge determining unit. The image processing apparatus according to claim 1, further comprising a boundary processing unit that performs a process of determining image data of a contour area of the character area.
請求項1から12のいずれかに記載の画像処理装置と、
前記画像処理装置により処理された画像データに基づいてスクリーン画像を形成する画像形成部とを備える、画像形成装置。
An image processing apparatus according to any one of claims 1 to 12,
An image forming apparatus comprising: an image forming unit that forms a screen image based on image data processed by the image processing apparatus.
スクリーン処理を行い、画像形成装置において印字されるスクリーン画像を出力する画像処理装置の制御方法であって、
入力画像を読み込む読込ステップと、
前記読込ステップにより読み込まれた入力画像に存在する、文字領域と前記文字領域以外の下地領域との境界を検出する境界検出ステップと、
前記文字領域のエッジ強度を算出する強度算出ステップと、
前記強度算出ステップにより算出されたエッジ強度に基づいて前記文字領域と下地領域との境界の下地領域側の外エッジ領域を判定するエッジ判定ステップと、
前記境界検出ステップによる検出結果及び前記エッジ判定ステップの判定結果に基づいて、前記外エッジ領域を前記下地領域に拡張する拡張ステップと、
前記拡張ステップにより拡張された外エッジ領域の画像データを置換データに置換する置換ステップと、
前記入力画像のうち前記文字領域と前記下地領域との境界部分の特徴に関する条件を満たすか否かの評価を行う評価ステップとを備え、
前記評価ステップによる評価結果に基づいて、前記拡張ステップが前記拡張を行い、前記置換ステップが前記置換を行う、画像処理装置の制御方法。
A control method for an image processing apparatus that performs screen processing and outputs a screen image printed on the image forming apparatus,
A reading step for reading the input image;
A boundary detection step for detecting a boundary between a character region and a base region other than the character region, which is present in the input image read by the reading step;
An intensity calculating step for calculating an edge intensity of the character region;
An edge determination step for determining an outer edge region on the base region side of the boundary between the character region and the base region based on the edge strength calculated by the strength calculation step;
Based on the detection result of the boundary detection step and the determination result of the edge determination step, an expansion step of extending the outer edge region to the base region;
A replacement step of replacing the image data of the outer edge region expanded by the expansion step with replacement data;
An evaluation step for evaluating whether or not a condition regarding a feature of a boundary portion between the character region and the background region in the input image is satisfied,
A control method for an image processing apparatus, wherein the expansion step performs the expansion and the replacement step performs the replacement based on an evaluation result of the evaluation step.
スクリーン処理を行い、画像形成装置において印字されるスクリーン画像を出力する画像処理装置の制御プログラムであって、
入力画像を読み込む読込ステップと、
前記読込ステップにより読み込まれた入力画像に存在する、文字領域と前記文字領域以外の下地領域との境界を検出する境界検出ステップと、
前記文字領域のエッジ強度を算出する強度算出ステップと、
前記強度算出ステップにより算出されたエッジ強度に基づいて前記文字領域と下地領域との境界の下地領域側の外エッジ領域を判定するエッジ判定ステップと、
前記境界検出ステップによる検出結果及び前記エッジ判定ステップの判定結果に基づいて、前記外エッジ領域を前記下地領域に拡張する拡張ステップと、
前記拡張ステップにより拡張された外エッジ領域の画像データを置換データに置換する置換ステップと、
前記入力画像のうち前記文字領域と前記下地領域との境界部分の特徴に関する条件を満たすか否かの評価を行う評価ステップとをコンピュータに実行させ、
前記評価ステップによる評価結果に基づいて、前記拡張ステップが前記拡張を行い、前記置換ステップが前記置換を行う、画像処理装置の制御プログラム。
A control program for an image processing apparatus that performs screen processing and outputs a screen image printed on the image forming apparatus,
A reading step for reading the input image;
A boundary detection step for detecting a boundary between a character region and a base region other than the character region, which is present in the input image read by the reading step;
An intensity calculating step for calculating an edge intensity of the character region;
An edge determination step for determining an outer edge region on the base region side of the boundary between the character region and the base region based on the edge strength calculated by the strength calculation step;
Based on the detection result of the boundary detection step and the determination result of the edge determination step, an expansion step of extending the outer edge region to the base region;
A replacement step of replacing the image data of the outer edge region expanded by the expansion step with replacement data;
Causing the computer to execute an evaluation step for evaluating whether or not a condition regarding a feature of a boundary portion between the character region and the background region in the input image is satisfied,
A control program for an image processing apparatus, wherein the expansion step performs the expansion and the replacement step performs the replacement based on an evaluation result of the evaluation step.
JP2010273748A 2010-12-08 2010-12-08 Image processor, image forming apparatus, control method of image processor, and control program of image processor Pending JP2012124711A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010273748A JP2012124711A (en) 2010-12-08 2010-12-08 Image processor, image forming apparatus, control method of image processor, and control program of image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010273748A JP2012124711A (en) 2010-12-08 2010-12-08 Image processor, image forming apparatus, control method of image processor, and control program of image processor

Publications (1)

Publication Number Publication Date
JP2012124711A true JP2012124711A (en) 2012-06-28

Family

ID=46505707

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010273748A Pending JP2012124711A (en) 2010-12-08 2010-12-08 Image processor, image forming apparatus, control method of image processor, and control program of image processor

Country Status (1)

Country Link
JP (1) JP2012124711A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114565632A (en) * 2022-03-03 2022-05-31 上海擎泰仿真科技有限公司 Method for determining boundary of material boundary region and material thickness of CT data

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114565632A (en) * 2022-03-03 2022-05-31 上海擎泰仿真科技有限公司 Method for determining boundary of material boundary region and material thickness of CT data

Similar Documents

Publication Publication Date Title
JP4912270B2 (en) Image processing apparatus and control method thereof
JP4881902B2 (en) Image forming apparatus, image forming method, and image forming program
JP4496239B2 (en) Image processing method, image processing apparatus, image forming apparatus, image reading apparatus, computer program, and recording medium
US20100265549A1 (en) Image processing apparatus and image processing method
JP4600352B2 (en) Image processing apparatus, image forming apparatus, and image processing method
US8274707B2 (en) Image processing apparatus, image processing method, and program for determining or computing an extended region of a block region of image data or an input image
JP2006115425A (en) Image processing apparatus, image forming apparatus, image processing method, computer program and recording medium
JP4402090B2 (en) Image forming apparatus, image forming method, program, and recording medium
US7916352B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP2008160209A (en) Image processor capable of specifying large dot region and small dot region, its control method, program and storage medium
EP2429173B1 (en) Image forming apparatus, printing control terminal apparatus, and image forming method thereof
JP4485430B2 (en) Image processing apparatus, image processing method, and program causing computer to execute the method
CN102461149A (en) Image forming apparatus and image processing method
JP2007088741A (en) Image processing apparatus and image processing method
JP5218768B2 (en) Image processing apparatus and program
JP4861506B2 (en) Image processing apparatus and control method thereof
JP2007067908A (en) Image processor, image forming apparatus, image processing method, and image processing program
JP2012124711A (en) Image processor, image forming apparatus, control method of image processor, and control program of image processor
JP6688193B2 (en) Image processing apparatus, image forming apparatus, image processing method, and image processing program
JP4984525B2 (en) Image forming apparatus
JP2006270148A (en) Image processing method, image processor and image forming apparatus
JP2010283464A (en) Image processor, and image processing method
JP2009134583A (en) Image forming apparatus, image forming method, computer program and recording medium
JP2009065378A (en) Base region detecting method, image processor, image forming apparatus, computer program, and recording medium
JP2011257631A (en) Image forming apparatus, image forming method and program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20130418