JP2009302761A - Image processor - Google Patents

Image processor Download PDF

Info

Publication number
JP2009302761A
JP2009302761A JP2008153170A JP2008153170A JP2009302761A JP 2009302761 A JP2009302761 A JP 2009302761A JP 2008153170 A JP2008153170 A JP 2008153170A JP 2008153170 A JP2008153170 A JP 2008153170A JP 2009302761 A JP2009302761 A JP 2009302761A
Authority
JP
Japan
Prior art keywords
image
area
character
edge
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008153170A
Other languages
Japanese (ja)
Inventor
Shinji Sano
真治 佐野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008153170A priority Critical patent/JP2009302761A/en
Publication of JP2009302761A publication Critical patent/JP2009302761A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To perform adaptive processing to an edge portion of characters and line drawing, in an image processor for determining characters and a line drawing part with respect to an inputted image. <P>SOLUTION: An image processor uses a method for determining an area of arbitrary width adjacent to an inner side or an outer side of character edges by extracting an inner edge area and an outer edge area of edges of characters and line drawing and expanding the inner edge area in the outer direction of the edges, and the outer edge area in the inner direction of the edges. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は画像処理装置に関し、詳しくは、入力した画像の文字/線画部分を検出し、その部分に適応的な画像処理を施す画像処理装置に関する。   The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus that detects a character / line drawing portion of an input image and performs adaptive image processing on the portion.

この種の装置として、電子写真方式の記録装置が一般的に知られている。   As this type of apparatus, an electrophotographic recording apparatus is generally known.

このような記録装置は、読み取りユニットに、例えばCCD等の光電変換素子を備え、これを原稿に対して走査させることにより原稿上の画像を電気信号に変換する。そして、この読み取りによって得られた電気信号に基づいてレーザーあるいはLED等を駆動することに感光ドラム上に潜像を形成し、潜像によって電位差を生じたところにトナーを現像して、これを記録紙等の被記録媒体上に転写して再生させるものである。   Such a recording apparatus includes a photoelectric conversion element such as a CCD in a reading unit, and converts the image on the original into an electric signal by scanning the photoelectric conversion element. Then, a latent image is formed on the photosensitive drum by driving a laser or LED based on the electric signal obtained by the reading, and the toner is developed at a place where a potential difference is generated by the latent image, and this is recorded. It is transferred and reproduced on a recording medium such as paper.

上記のような装置においては、読み取り時にレンズの収差やCCDの開口等に起因する像ぼけや潜像特性や転写・定着等プロセス要因による再生画像の劣化により、読み取った画像を紙上に再生する際に、画像のMTFが劣化してしまうという問題が生じる。   In the above-described apparatus, when the read image is reproduced on paper due to image blurring due to lens aberration, CCD aperture, or the like during reading, or deterioration of the reproduced image due to process factors such as transfer / fixing. In addition, there is a problem that the MTF of the image is deteriorated.

上記のようなMTF劣化による文字部の画質劣化を補正する為に文字/線画部の判定を行い、判定された箇所に最適な画像処理(例えばエッジ強調等)の処理を行うものは多数提案されている(例えば、特許文献1)。   In order to correct the image quality deterioration of the character part due to the MTF deterioration as described above, many characters and line drawing parts are determined and image processing (for example, edge enhancement etc.) optimal for the determined part is proposed. (For example, Patent Document 1).

又、別の従来例としては、特許文献2をあげることが出来る。   As another conventional example, Patent Document 2 can be cited.

なお以下では、上述のように、原画像内の画素等の画像単位毎に特性の検出・判定及び画像単位に対する属性の付与を像域判定、前記像域判定の判定結果に従い各画像単位に行う適応的処理を像域処理、両者を総じて像域分離または像域分離処理と称する。
特開平04-142880号公報 特開2005-176222号公報
In the following description, as described above, characteristic detection / determination and attribute assignment for each image unit such as pixels in the original image are performed for each image unit according to the image area determination and the determination result of the image area determination. The adaptive processing is called image area processing, and both are collectively referred to as image area separation or image area separation processing.
Japanese Unexamined Patent Publication No. 04-142880 JP 2005-176222 A

しかし、電子写真におけるMTFの劣化は非常に複雑であり、文字/線画部のエッジだけを判定・最適な処理を施しても良好な画質は得られない。   However, the deterioration of MTF in electrophotography is very complicated, and even if only the edge of the character / line drawing part is determined and subjected to the optimum processing, good image quality cannot be obtained.

従来の方式では、エッジの1〜2画素しか判定できない方法か、あるいは広いエリアを判定する方法もあるが、そのような方法は、非常に多くのメモリが必要となり、多大なコスト負担がかかっていた。   In the conventional method, there are a method that can determine only one or two pixels of the edge, or a method that determines a large area. However, such a method requires a very large amount of memory, and is very costly. It was.

例えば、黒文字領域は、ブラックトナーのみで印字したいような場合、黒文字のエッジ部1〜2画素しか文字と判定できないような処理では、黒文字領域全体に所望の処理を行うことが出来ない。また、やや太い文字等では、文字の内側とエッジ部で極端に異なる処理を行うと擬似輪郭のように見えてしまうような問題があった(以下、エッジの縁取りと称する)。   For example, when it is desired to print a black character area only with black toner, a process in which only one or two pixels of the edge portion of the black character can be determined as a character cannot perform a desired process on the entire black character area. Moreover, a slightly thick character has a problem that it looks like a pseudo contour when processing extremely different between the inner side and the edge portion of the character (hereinafter referred to as edge edging).

このような問題を解決するために、特許文献2では、デジタルフィルタを用いて所望の空間周波数の強調・抽出を行い、その結果を2つの閾値(正と負)で判定することにより、内エッジ信号と外エッジ信号を得、この両者の信号をそれぞれ決められた領域で積算する手段を用いて、内エッジ信号を外エッジ信号と逆方向に拡大することで、文字の内側の領域判定を行う手法が提案されている。   In order to solve such a problem, Patent Document 2 emphasizes / extracts a desired spatial frequency using a digital filter, and determines the result by using two threshold values (positive and negative), thereby obtaining an inner edge. The area inside the character is determined by enlarging the inner edge signal in the opposite direction to the outer edge signal by using a means for obtaining the signal and the outer edge signal and integrating the signals in the determined areas. A method has been proposed.

しかし、像域分離を行う画像形成装置において、エッジ周辺で生じる問題は上記のようにエッジの内側に限らない。   However, in the image forming apparatus that performs image area separation, the problem that occurs around the edge is not limited to the inside of the edge as described above.

例えば、グレーの下地の中に黒い文字が配置されているような原稿のように、文字の色が周辺の下地部分の色よりも濃度が高い場合、文字エッジに強調フィルタをかけると、その影響でエッジの外側に接する下地領域に図2(a)に示すようなアンダーシュートが生じ、濃度が低く再現されるという問題がある(以下、白抜けと称する)。   For example, if the color of the character is higher than the color of the surrounding background part, such as in a document where black characters are placed on a gray background, applying an emphasis filter to the edge of the character will affect the effect. Thus, there is a problem that an undershoot as shown in FIG. 2A is generated in the base region in contact with the outside of the edge, and the density is reproduced at a low level (hereinafter referred to as white spots).

また、複数の色によって再現されるカラー出力装置においては上記とは逆の効果を持つ問題もある。図2(d)に示すように、濃度の低いシアン(以下、Cと称する)の下地の中に、濃度の高いマゼンダ(以下、Mと称する)とイエロー(以下、Yと称する)によって高い濃度の赤い文字が配置されているような原稿のように、文字と下地の色が異なる色相によって再現されているような場合、文字エッジに強調フィルタをかけると、その影響でエッジの外側に接する下地領域に図2(c)に示すようにオーバーシュートが生じ、濃度が高く再現されるという問題がある(以下、逆強調と称する)。   In addition, a color output device that reproduces a plurality of colors has a problem that has the opposite effect. As shown in FIG. 2D, a high density of magenta (hereinafter referred to as “M”) and yellow (hereinafter referred to as “Y”) with high density in a background of low density cyan (hereinafter referred to as “C”). If the character and background color are reproduced with different hues, such as in a document with red characters, the emphasis filter is applied to the edge of the character and the background touches the outside of the edge. As shown in FIG. 2C, there is a problem that overshoot occurs in the region and the density is reproduced high (hereinafter referred to as reverse enhancement).

本発明は、像域分離を行う画像形成装置において、エッジ周辺領域の内側・外側の領域を適切に判定することによって、判定されたそれぞれの領域に対して、適応的な処理を施し、エッジの縁取りのようなエッジの内側に隣接する領域に生じる問題のみならず、白抜けや逆強調のようなエッジの外側に隣接する領域において生じる問題をも解決するためのものである。斯様な問題を解決するための本発明の画像処理装置は、図1に示す、以下の構成を備える。   According to the present invention, in an image forming apparatus that performs image area separation, adaptive determination is performed on each of the determined areas by appropriately determining the areas inside and outside the edge peripheral area, and This is to solve not only a problem that occurs in the area adjacent to the inside of the edge, such as a border, but also a problem that occurs in an area adjacent to the outside of the edge, such as white spots or reverse enhancement. An image processing apparatus of the present invention for solving such a problem has the following configuration shown in FIG.

すなわち、入力した画像信号に対して、文字・線画部の判定を行う画像処理装置において、入力画像データに対してフィルタ処理を行うフィルタ処理手段と、前記フィルタ処理手段によってフィルタ処理された画像を閾値でクリッピングすることで外エッジ領域を得る外エッジクリッピング処理手段と、前記フィルタ処理された画像を閾値でクリッピングすることで内エッジ領域を得る内エッジクリッピング処理手段と、前記外エッジ領域を文字内部方向に拡張させ、前記内エッジ領域を文字外側方向に拡張させる領域拡張処理手段と、前記領域拡張処理手段によって拡張された外エッジ領域及び内エッジ領域を判定基準として用いて文字エッジ領域、及び、文字エッジ領域の外側に隣接する非文字エッジ領域、及び、文字エッジ領域の内側に隣接する非文字エッジ領域を判定するフラグ判定部、とを有することを特徴とする。   That is, in an image processing apparatus that performs character / line drawing determination on an input image signal, filter processing means for performing filter processing on input image data, and an image filtered by the filter processing means as a threshold value Outer edge clipping processing means for obtaining an outer edge area by clipping in, an inner edge clipping processing means for obtaining an inner edge area by clipping the filtered image with a threshold value, and the outer edge area in the character internal direction Area extension processing means for extending the inner edge area in a character outward direction, a character edge area and a character using the outer edge area and the inner edge area expanded by the area extension processing means as a criterion. Non-character edge area adjacent to the outside of the edge area and inside the character edge area Flag determination unit determines the non-character edge region adjacent, and having a city.

以上説明したように、本発明によれば、像域分離を行う画像形成装置において、文字や線画等のエッジに隣接する内側及び外側の領域を抽出することが可能であり、各領域に対して適応的な像域処理を行うことによって、像域分離による文字・線画等のエッジ周辺で生じる白抜けや逆強調等の画質劣化の問題を解決することが可能となる。   As described above, according to the present invention, in an image forming apparatus that performs image area separation, it is possible to extract inner and outer areas adjacent to edges of characters, line drawings, and the like. By performing adaptive image area processing, it is possible to solve the problems of image quality degradation such as white spots and reverse enhancement that occur around edges of characters and line drawings due to image area separation.

次に、本発明の詳細を実施例の記述に従って説明する。   Next, details of the present invention will be described in accordance with the description of the embodiments.

以下では、図面を用いて、本発明の実施例を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

本発明の実施の形態として適用可能な画像処理装置の一例として、電子写真方式のカラーMFP(Multi Function Printer / Multi Function Peripheral)の構成例を説明する。なお、本実施の形態は、電子写真方式のカラーMFPのみならず、インクジェット方式や他の方式のモノクロ及びカラー画像形成装置でも適用可能である。   A configuration example of an electrophotographic color MFP (Multi Function Printer / Multi Function Peripheral) will be described as an example of an image processing apparatus applicable as an embodiment of the present invention. Note that this embodiment can be applied not only to an electrophotographic color MFP but also to an inkjet or other monochrome and color image forming apparatus.

まず、電子写真方式のカラーMFP(Multi Function Peripheral:マルチファンクション周辺機器)の構成について図3に示すMFPのブロック構成図を用いて説明する。   First, the configuration of an electrophotographic color MFP (Multi Function Peripheral) will be described with reference to the block diagram of the MFP shown in FIG.

同図において、入力画像処理部は、紙原稿などをスキャナなどの画像読み取り装置で読み取り、読み取られた画像データを画像処理する。   In the figure, an input image processing unit reads a paper document or the like with an image reading device such as a scanner, and performs image processing on the read image data.

NIC(Network Interface Card)部は、ネットワークを利用して入力された画像データ(主に、PDLデータ)をRIP部に渡したり、MFP内部の画像データや装置情報をネットワーク経由で外部に送信したりする。RIP部は、入力されたPDL(Page Description Language)データを解読し、RIP(Raster Image Processor)展開する部分である。   The NIC (Network Interface Card) unit passes image data (mainly PDL data) input using the network to the RIP unit, and transmits image data and device information inside the MFP to the outside via the network. To do. The RIP part is a part that decodes the input PDL (Page Description Language) data and develops the RIP (Raster Image Processor).

次に、入力された画像データは、MFP制御部に送られる。MFP制御部は、入力されるデータや出力するデータを制御する交通整理の役割を果たしている。   Next, the input image data is sent to the MFP control unit. The MFP control unit plays a role of traffic control for controlling input data and output data.

また、MFP制御部に入力された画像データは、一旦メモリ部に格納される。格納された画像データは、一時的に格納されたり、必要に応じて呼び出されたりする。   Also, the image data input to the MFP control unit is temporarily stored in the memory unit. The stored image data is temporarily stored or called as necessary.

出力画像処理部は、プリントするための画像処理が施され、プリンタ部に送られる。   The output image processing unit performs image processing for printing and sends it to the printer unit.

プリンタ部では、シートを給紙し、出力画像処理部で作られた画像データをそのシート上に順次印字していく。プリントアウトされたシートは後処理部へ送り込まれ、シートの仕分け処理やシートの仕上げ処理が行われる。   The printer unit feeds a sheet and sequentially prints the image data created by the output image processing unit on the sheet. The printed sheet is sent to the post-processing unit, where sheet sorting processing and sheet finishing processing are performed.

更に、操作部は、上記の様々なフローや機能を選択したり操作指示したりするためのものであるが、操作部の表示装置の高解像度化に伴い、メモリ部にある画像データをプレビューし、確認後OKならばプリントするといった使い方もできる。   Furthermore, the operation unit is for selecting the above-described various flows and functions and instructing operations. As the resolution of the display device of the operation unit is increased, the image data in the memory unit is previewed. If it is OK after confirmation, it can be used for printing.

このように、MFPには様々な機能と利用方法があり、以下にその例を示す。   As described above, the MFP has various functions and usage methods, examples of which are shown below.

A)複写機能:入力画像処理部→出力画像処理部→プリンタ部
B)ネットワークスキャン:入力画像処理部→NIC部
C)ネットワークプリント:NIC部→RIP部→出力画像処理部→プリンタ部
D)ボックススキャン機能:入力画像処理部→出力画像処理部→メモリ部
E)ボックスプリント機能:メモリ部→プリンタ部
F)ボックス受信機能:NIC部→RIP部→出力画像処理部→メモリ部
G)ボックス送信機能:メモリ部→NIC部
H)プレビュー機能:メモリ部→操作部
次に、入力画像処理部について説明する。
A) Copy function: Input image processing unit → Output image processing unit → Printer unit
B) Network scan: Input image processing unit → NIC unit
C) Network print: NIC unit → RIP unit → output image processing unit → printer unit
D) Box scan function: Input image processing unit → Output image processing unit → Memory unit
E) Box print function: Memory part → Printer part
F) Box reception function: NIC unit → RIP unit → output image processing unit → memory unit
G) Box transmission function: Memory part → NIC part
H) Preview function: memory unit → operation unit Next, the input image processing unit will be described.

図4は、スキャナ入力部内の画像データのフローと構成を示すブロック図である。   FIG. 4 is a block diagram showing the flow and configuration of image data in the scanner input unit.

カラースキャナによって読み込まれた画像は、CCDセンサにより電気信号に変換される。このCCDセンサはRGB3ラインのカラーセンサであり、R(Red)、G(Green)、B(Blue)それぞれの画像データとしてA/D変換部に入力される。   The image read by the color scanner is converted into an electrical signal by the CCD sensor. This CCD sensor is an RGB 3-line color sensor and is input to the A / D converter as image data of R (Red), G (Green), and B (Blue).

A/D変換部では、ゲイン調整、オフセット調整がされた後、色信号毎に8ビットのディジタル画像データに変換される。   In the A / D converter, after gain adjustment and offset adjustment, each color signal is converted into 8-bit digital image data.

シェーディング補正部で基準白色板の読み取り信号を用いて、CCDセンサの各画素の感度のばらつきや原稿照明ランプの光量のばらつきなどを色毎に補正する。   The shading correction unit corrects the variation in sensitivity of each pixel of the CCD sensor and the variation in the amount of light of the document illumination lamp for each color using the read signal of the reference white plate.

さらに、CCDセンサの各色ラインセンサは、相互に所定の距離を隔てて配置されているため、色オフセット部でCCDのRGBの並びから来る副走査方向(紙送り方向)の空間的ずれをラインディレイ調整回路により補正されると共に、副MTF(Modulation Transfer Function:変調伝達関数)補正部により、センサのムラなどから生じるずれの補正を行い、特に、白と黒の間隔が狭まることで生じるコントラストの低下や画像のボケも補正する。   Furthermore, since each color line sensor of the CCD sensor is arranged at a predetermined distance from each other, a spatial delay in the sub-scanning direction (paper feed direction) that comes from the CCD RGB arrangement at the color offset unit is a line delay. In addition to correction by the adjustment circuit, a sub MTF (Modulation Transfer Function) correction unit corrects deviations caused by sensor unevenness and the like, and in particular, contrast reduction caused by narrowing the interval between white and black Also corrects blurring of images.

入力ガンマ補正部は、RGBの各入力に対し、露光量と輝度が線形関係になるように補正を行う一次元のルックアップテーブル(LUT:LookUp Table)である。   The input gamma correction unit is a one-dimensional lookup table (LUT) that performs correction so that the exposure amount and the luminance have a linear relationship with respect to each RGB input.

入力ダイレクトマッピング部は、色空間を統一するため、入力されたRGB信号からデバイス内のRGB信号に変換する三次元のLUTであり、CCDセンサのRGBフィルタの分光特性で決まる読取色空間を、sRGBなどの標準色空間に変換する部分であり、CCDセンサの感度特性や照明ランプのスペクトル特性等の諸特性なども吸収することができる。   The input direct mapping unit is a three-dimensional LUT that converts an input RGB signal into an RGB signal in the device to unify the color space. The read color space determined by the spectral characteristics of the RGB filter of the CCD sensor is converted to sRGB. It is a part that converts to a standard color space such as, and can absorb various characteristics such as sensitivity characteristics of a CCD sensor and spectral characteristics of an illumination lamp.

主MTF補正部では、注目画素と左右それぞれの画素に対して加重平均をとることで主走査方向のMTF補正を実現している。   The main MTF correction unit realizes MTF correction in the main scanning direction by taking a weighted average for the pixel of interest and each of the left and right pixels.

像域判定部は、文字判定部と無彩色判定部からなっている。前者はRGB画像データから、文字領域や線画輪郭領域の画素判定を行い、その結果を像域データZAとして出力する。後者は、RGB空間の画像データをL*a*b*やYUVといった輝度色差空間の画像データに変換した後、低彩度領域や黒文字、色文字領域を判定し、その結果を像域データZBとして出力する。ここでは、像域データZA及びZBを併せて像域データと呼ぶこととする。   The image area determination unit includes a character determination unit and an achromatic color determination unit. The former performs pixel determination of a character area or a line drawing outline area from RGB image data, and outputs the result as image area data ZA. In the latter case, image data in the RGB space is converted into image data in a luminance color difference space such as L * a * b * or YUV, and then a low saturation region, a black character, or a color character region is determined, and the result is obtained as image region data ZB. Output as. Here, the image area data ZA and ZB are collectively referred to as image area data.

次に、空間フィルタ部では、像域データを用いて、輝度成分に対してフィルタリングを行う。具体的には、文字領域にエッジ強調を行い、写真領域にはスムージングか弱いエッジ強調といった異なるシャープネスフィルタを適用する。   Next, the spatial filter unit performs filtering on the luminance component using the image area data. Specifically, edge enhancement is performed on the character area, and different sharpness filters such as smoothing or weak edge enhancement are applied to the photo area.

彩度抑圧部は、像域データから低彩度と判定された領域に対し、彩度の抑圧を行う。黒文字領域をK(Black)単色で表現するため、色差をゼロにして処理する。   The saturation suppression unit performs saturation suppression on an area determined as low saturation from the image area data. In order to represent a black character area with a single color of K (Black), processing is performed with a color difference of zero.

ACS(Auto Color Select)部は、像域判定の結果から低彩度の画素をカウントし、白黒画像かカラー画像かを判定することができる。   An ACS (Auto Color Select) unit can count low-saturation pixels from the image area determination result and determine whether the image is a monochrome image or a color image.

BE(下地除去:Background Erase)サンプリング部では、下地を検出するため、指定された矩形領域の画素を離散的にサンプリングし、輝度のヒストグラムを作成し、これをプリント時の下地除去に利用する。   In the BE (background removal) sampling unit, in order to detect the background, pixels in a designated rectangular area are discretely sampled to create a luminance histogram, which is used for background removal at the time of printing.

次に像域分離処理部について、概念とその一例を説明する。   Next, a concept and an example of the image area separation processing unit will be described.

像域分離処理とは、原稿画像に含まれる画像の特徴に応じて最適な画像処理を施すために原稿画像の特徴を抽出して像域属性を示す信号(以後フラグデータという)を生成するために行われる。例えば原稿中には、連続階調のフルカラーの写真領域や、黒一色の文字領域、あるいは新聞印刷のような網点印刷領域など、様々な画像領域が混在しているのが普通である。   The image area separation process is for extracting a feature of an original image and generating a signal indicating an image area attribute (hereinafter referred to as flag data) in order to perform optimum image processing according to the feature of the image included in the original image. To be done. For example, in an original, various image areas such as a continuous-tone full-color photo area, a black-colored character area, or a halftone dot printing area such as newspaper printing are usually mixed.

これらを一律に同一の画像処理手順で処理して出力すると、その出力画像は一般に好ましい画質が得られない場合が多い。   If these are uniformly processed by the same image processing procedure and output, the output image generally does not often have a desirable image quality.

そこで、本システムでは、入力画像処理部301から入力されるカラー画像信号を用いて原稿画像中に含まれる画像データの属性を検出し、それを識別するためのフラグデータを生成する。具体的な手順を図5に示す。   Therefore, in this system, the attribute of the image data included in the document image is detected using the color image signal input from the input image processing unit 301, and flag data for identifying the attribute is generated. A specific procedure is shown in FIG.

同図は、像域属性の抽出方法の一例を説明するためのブロック図である。入力信号501は、平均濃度演算502、エッジ強調処理503に入力される。   This figure is a block diagram for explaining an example of an image area attribute extraction method. The input signal 501 is input to the average density calculation 502 and edge enhancement processing 503.

平均濃度演算502では、入力信号について注目画素を中心とするM×N領域(MとNは自然数)の平均値AVEを算出する。   In the average density calculation 502, an average value AVE of an M × N region (M and N are natural numbers) centered on the target pixel is calculated for the input signal.

エッジ強調処理503では、注目画素周辺領域のデータを参照し、M×N領域(MとNは自然数)にて注目画素のエッジ強調処理を行い、強度の異なる2種類のエッジ強調信号EDG1とEDG2を算出する。   In the edge enhancement processing 503, the edge enhancement processing of the pixel of interest is performed in the M × N region (M and N are natural numbers) by referring to the data of the region around the pixel of interest, and two types of edge enhancement signals EDG1 and EDG2 having different intensities are used. Is calculated.

平均濃度演算502とエッジ強調処理503の結果は、網点判定504とエッジ判定505に入力される。   The results of average density calculation 502 and edge enhancement processing 503 are input to halftone dot determination 504 and edge determination 505.

エッジ判定505について、図6を用いて説明する。平均濃度演算502(AVE)とエッジ強調処理503(EDG2)の結果が、濃度差判定601に入力される。このとき、エッジ強調処理503から出力されるEDG2と周辺領域の濃度(AVE)の差の大きさの判定を行い所定の濃度差よりも大きい場合は1を、小さい場合は0を出力する。   The edge determination 505 will be described with reference to FIG. The results of the average density calculation 502 (AVE) and edge enhancement processing 503 (EDG2) are input to the density difference determination 601. At this time, the magnitude of the difference between the EDG2 output from the edge enhancement processing 503 and the density (AVE) of the surrounding area is determined, and 1 is output if it is larger than the predetermined density difference, and 0 is output if it is smaller.

AVE−A×EDG2 > Bならば、 濃度差信号=1
A×EDG2−AVE > Cならば、 濃度差信号=1
それ以外のとき、濃度差信号=0
(Aは実数、B、Cは実数または整数)
濃度差判定601から出力される濃度差信号は、孤立判定602に入力され、孤立点の除去がなされる。たとえば、濃度差信号を7×7で参照し、最外周の画素位置に濃度差信号=1が存在しない場合には、内側の5×5領域の濃度差信号を強制的に0とすることで、孤立点を除去するものである。
If AVE-A × EDG2> B, density difference signal = 1
If A × EDG2-AVE> C, density difference signal = 1
Otherwise, density difference signal = 0
(A is a real number, B and C are real numbers or integers)
The density difference signal output from the density difference determination 601 is input to the isolation determination 602, and the isolated points are removed. For example, when the density difference signal is referenced 7 × 7 and there is no density difference signal = 1 at the outermost pixel position, the density difference signal in the inner 5 × 5 region is forcibly set to 0. , To remove isolated points.

孤立判定602から出力される孤立判定信号は、補正処理603に入力され、不連続部分の補正がなされる。たとえば、3×3領域で注目画素(3×3の中央)をはさむ画素(前後、左右、斜め)の孤立判定信号が1の場合、注目画素が0ならば、注目画素の値を1に補正する。これにより、線画の欠けている部分の連続度が増し、また、線画も滑らかな、エッジ信号604が生成される。エッジならば、EDGE=1を出力する。   The isolation determination signal output from the isolation determination 602 is input to the correction process 603, and the discontinuous portion is corrected. For example, if the isolation determination signal of the pixel (front / rear, left / right, diagonal) sandwiching the target pixel (3 × 3 center) in the 3 × 3 region is 1, and the target pixel is 0, the value of the target pixel is corrected to 1. To do. As a result, the continuity of the portion lacking the line drawing is increased, and the edge signal 604 is generated with a smooth line drawing. If it is an edge, EDGE = 1 is output.

網点判定504とエッジ判定505から出力される網点判定信号とエッジ判定信号604の結果は文字判定506に入力される。ここでは画素単位に処理され、網点ではなく(AMI=0)、エッジである(EDGE=1)画素を文字と考え、文字信号507を生成する。   The results of the halftone dot determination signal and the edge determination signal 604 output from the halftone dot determination 504 and the edge determination 505 are input to the character determination 506. Here, processing is performed on a pixel-by-pixel basis, and not a halftone dot (AMI = 0) but an edge (EDGE = 1) pixel is considered as a character, and a character signal 507 is generated.

以上が像域属性の抽出方法の一例であるが、これに限るものではない。   The above is an example of the image area attribute extraction method, but is not limited thereto.

以上の像域分離処理により画像の属性が画素ごとに検出されると、次に後段の入力画像処理部で画像属性に応じた画像処理が施される。   When the attribute of the image is detected for each pixel by the above image area separation processing, image processing corresponding to the image attribute is performed in the subsequent input image processing unit.

ここでは、例えば文字領域に対して画像の高周波成分を強調して文字の鮮鋭度を強調し、また、網点領域に対してはいわゆるローパスフィルタ処理を行い、ディジタル画像に特有のモアレ成分を除去する、といった処理を行うことができる。これらの処理の切り替えを像域判定部で生成した属性フラグデータに応じて画素単位で行うことが可能である。   Here, for example, the high-frequency component of the image is emphasized for the character region to enhance the sharpness of the character, and the so-called low-pass filter processing is performed for the dot region to remove the moire component peculiar to the digital image. Can be performed. These processes can be switched in units of pixels according to the attribute flag data generated by the image area determination unit.

次に、別図を用いて、本発明の最も特徴的な部分に関して、更に説明する。   Next, the most characteristic part of the present invention will be further described with reference to another drawing.

図1に示すのは、本発明を適用したエッジ判定部205のデータフローと構成を示すブロック図である。また、図7に示すのは、入力画像の文字エッジ部を模した画像及び濃度特性と、処理フローごとに得られる値の特性及び中間処理画像を模式的に現したものである。   FIG. 1 is a block diagram showing the data flow and configuration of the edge determination unit 205 to which the present invention is applied. FIG. 7 schematically shows an image and density characteristics imitating a character edge portion of an input image, a value characteristic obtained for each processing flow, and an intermediate processed image.

入力画像102は、フィルタ処理部102で2次微分フィルタにかけられる。微分された画像は外エッジクリッピング処理部103と内エッジクリッピング処理部104で所定の閾値によってクリップされる。これによって705に示すような、文字・線画のエッジ部分の外側部分(以下、外エッジ領域)、内側部分(以下、内エッジ領域)が中間的なフラグデータとして得られる。   The input image 102 is subjected to a second-order differential filter by the filter processing unit 102. The differentiated image is clipped by the outer edge clipping processing unit 103 and the inner edge clipping processing unit 104 with a predetermined threshold. As a result, as shown at 705, an outer portion (hereinafter referred to as an outer edge region) and an inner portion (hereinafter referred to as an inner edge region) of the edge portion of the character / line drawing are obtained as intermediate flag data.

クリップされた画像データは、領域拡張処理部105において、706に示すとおり、外エッジ領域は内エッジ方向に、内エッジ領域は外エッジ方向に拡張され、積算判定を行い、文字領域721・文字エッジ近傍外側領域722・文字エッジ近傍内側領域723、及び、それ以外のイメージ領域724を判定する。   The clipped image data is expanded in the area extension processing unit 105 as indicated by reference numeral 706, the outer edge area is expanded in the inner edge direction, the inner edge area is expanded in the outer edge direction, and integration determination is performed. The vicinity outside area 722, the character edge vicinity inside area 723, and the other image area 724 are determined.

領域拡張処理は、例えば5×5エリアでのフラグデータを持つ画素数によって、対象画素のフラグデータを決定する。   In the region expansion process, for example, the flag data of the target pixel is determined by the number of pixels having flag data in a 5 × 5 area.

例えば、外エッジ領域の拡張の場合、以下のような条件に従い積算判定を行う。   For example, in the case of expansion of the outer edge region, the integration determination is performed according to the following conditions.

・注目画素が外エッジ領域である。→外エッジ領域
・上記以外で、注目画素周辺5×5エリアに外エッジ領域が所定数以上、内エッジ領域が所定数以上ある。→外エッジ領域
・上記いずれにも該当せず。→非外エッジ領域
領域拡張処理は以上の例に限定されるものではなく、これらの組み合わせや繰り返しを行ってもよい。
The target pixel is the outer edge region. → Outer edge area ・ Other than the above, there are a predetermined number or more of outer edge areas and a predetermined number or more of inner edge areas in the 5 × 5 area around the target pixel. → Outer edge area ・ None of the above. → Non-outer edge region The region expansion processing is not limited to the above example, and a combination or repetition thereof may be performed.

フラグ判定部では、画素ごとに得られた複数種の中間フラグデータをもとに、フラグデータを決定する。図8に示すのは、拡張された外エッジ領域・拡張された内エッジ領域の中間フラグデータから、フラグデータの判定を行う際に用いるテーブルである。これによって文字エッジ領域、文字エッジ周辺外側領域、文字エッジ周辺内側領域、その他のイメージ領域に判別する。   The flag determination unit determines flag data based on a plurality of types of intermediate flag data obtained for each pixel. FIG. 8 shows a table used when determining flag data from the intermediate flag data of the extended outer edge region and the extended inner edge region. As a result, a character edge region, a character edge peripheral outer region, a character edge peripheral inner region, and other image regions are discriminated.

図9(a)は、白抜けが発生する入力画像のエッジ部分の画素値特性、図9(b)は図9(a)の入力画像に対して、本発明を適用しないエッジ強調処理を行った画素値特性、図9(c)は本発明を適用したエッジ強調処理を行った画素値特性を模式的に表したものである。   FIG. 9A shows the pixel value characteristics of the edge portion of the input image where white spots occur, and FIG. 9B shows the input image of FIG. 9A subjected to edge enhancement processing to which the present invention is not applied. FIG. 9C schematically shows the pixel value characteristics subjected to the edge enhancement processing to which the present invention is applied.

また、図10(a)は、逆強調が発生する入力画像のエッジ部分の画素値特性、図10(b)は図10(a)の入力画像に対して、本発明を適用しないエッジ強調処理を行った画素値特性、図10(c)は本発明を適用したエッジ強調処理を行った画素値特性を模式的に表したものである。   10A is a pixel value characteristic of an edge portion of an input image where reverse enhancement occurs, and FIG. 10B is an edge enhancement process in which the present invention is not applied to the input image of FIG. 10A. FIG. 10C schematically shows the pixel value characteristics subjected to the edge enhancement processing to which the present invention is applied.

図14に示すのは、図9、図10で行ったエッジ強調のために利用した畳み込み演算の1次元テーブルである。   FIG. 14 shows a one-dimensional table of convolution operations used for edge enhancement performed in FIGS.

生成されたフラグデータは、入力画像処理部の後段や出力画像処理部において利用可能となる。入力画像処理部において、図11に示すように、文字エッジ周辺外側領域のフラグデータ722を持つ画素の画素値を、5×5エリア内に存在するイメージ領域のフラグデータ724を持つ画素の画素値の平均値に置換する処理を行う。これによって図9(c)及び図10(c)に示すとおり、文字エッジ周辺外側領域がさらに外側のイメージ領域と均一化されるため、オーバーシュート、アンダーシュートによる白抜けや逆強調を防ぐため、図2(b)及び図2(d)に示すような良好な画像を得ることが可能となる。   The generated flag data can be used in the subsequent stage of the input image processing unit or the output image processing unit. In the input image processing unit, as shown in FIG. 11, the pixel value of the pixel having the flag data 722 in the outer peripheral area of the character edge is changed to the pixel value of the pixel having the flag data 724 in the image area existing in the 5 × 5 area. The process of replacing with the average value of is performed. As a result, as shown in FIG. 9C and FIG. 10C, the outer area around the character edge is made uniform with the outer image area, so that white spots and reverse enhancement due to overshoot and undershoot are prevented. A good image as shown in FIGS. 2B and 2D can be obtained.

本実施例では、特に文字エッジに隣接する文字の外側の領域である文字エッジ周辺外側領域の画質改善の例を示したが、本発明はこれに限定されるものではなく、文字エッジ周辺内側領域に対して所定の画像処理を行うことも可能である。また、文字エッジ周辺外側・内側領域は閾値や領域拡張処理の係数設計によって任意の幅を持たせることが可能である。   In this embodiment, an example of improving the image quality of the outer area around the character edge, which is an area outside the character adjacent to the character edge, is shown, but the present invention is not limited to this, and the inner area around the character edge. It is also possible to perform predetermined image processing on the image. Further, the outer and inner regions around the character edge can have an arbitrary width by designing a threshold value or a coefficient for region expansion processing.

実施例1では、文字エッジの外エッジ領域と内エッジ領域の2つの中間フラグの領域を参照することによって、フラグデータを生成した。しかし、エッジの先鋭度が低く、内エッジ領域と外エッジ領域との間に幅がある場合には、大きなメモリが必要になる。   In the first embodiment, the flag data is generated by referring to the two intermediate flag areas of the outer edge area and the inner edge area of the character edge. However, if the edge sharpness is low and there is a width between the inner edge region and the outer edge region, a large memory is required.

本実施例では、斯様な状況においても適用可能な、大容量のメモリを必要としない形態について説明する。   In this embodiment, a mode that does not require a large-capacity memory that can be applied even in such a situation will be described.

図12に示すのは、本実施例における、エッジ判定部205のデータフローと構成を示すブロック図である。   FIG. 12 is a block diagram showing the data flow and configuration of the edge determination unit 205 in this embodiment.

実施例1と異なるのは、1次微分フィルタを行う第2のフィルタ処理部1208を設け、文字エッジクリッピング処理部1209において閾値によってクリッピングすることによって、文字エッジ領域を中間フラグとして生成し、領域拡張処理部1205において、拡張処理を行う際に、参照する点である。すなわち、図13に示すような位置関係で、各クリッピング処理を終えて生成された中間フラグが存在する時に、以下のような条件によって内外エッジ領域拡張を行うことも可能である。   A difference from the first embodiment is that a second filter processing unit 1208 that performs a first-order differential filter is provided, and a character edge clipping unit 1209 generates a character edge region as an intermediate flag by clipping with a threshold value. This is a point to be referred to when the processing unit 1205 performs extension processing. That is, when there is an intermediate flag generated after finishing each clipping process in the positional relationship as shown in FIG. 13, it is possible to extend the inner and outer edge regions under the following conditions.

・注目画素が外エッジ領域である。→外エッジ領域
・上記以外で、注目画素が文字エッジ領域であり、注目画素周辺5×5エリアに外エッジ領域が所定数以上ある。→外エッジ領域
・上記いずれにも該当せず。→非外エッジ領域
像域処理については実施例1に倣う。
The target pixel is the outer edge region. → Outer edge region ・ In addition to the above, the target pixel is a character edge region, and there are a predetermined number or more of outer edge regions in the 5 × 5 area around the target pixel. → Outer edge area ・ None of the above. → Non-outer edge area The image area processing is the same as in the first embodiment.

本実施例では、1次微分フィルタと2次微分フィルタによる処理結果を組み合わせて領域拡張処理を行ったが、これによってエッジ量が低い文字エッジ部においても、参照するエリアが狭くても、領域拡張することが可能となり、メモリの低容量化を実現することができる。   In this embodiment, the region expansion processing is performed by combining the processing results of the primary differential filter and the secondary differential filter. However, even in the character edge portion where the edge amount is low, the region expansion is performed even if the reference area is narrow. Thus, the memory capacity can be reduced.

本発明を適用した画像処理装置におけるエッジ判定部のデータフローと構成を示すブロック図The block diagram which shows the data flow and structure of the edge determination part in the image processing apparatus to which this invention is applied. 白抜け及び逆強調の例と本発明を適用した出力例Examples of white spots and reverse enhancement and output examples to which the present invention is applied 電子写真方式のカラーMFPの構成Structure of electrophotographic color MFP スキャナ入力部内の画像データのフローと構成Flow and configuration of image data in the scanner input section 像域属性の抽出方法の一例を説明するためのブロック図Block diagram for explaining an example of an image area attribute extraction method エッジ判定部のフローEdge judgment unit flow 文字エッジ部を模した画像及び濃度特性と処理結果の様子Image simulating character edge and density characteristics and processing result 判定時の参照テーブルReference table for judgment 白抜けが生じる画像とそのエッジ強調の結果の画素値特性Pixel value characteristics of an image with white spots and the result of edge enhancement 逆強調が生じる画像とそのエッジ強調の結果の画素値特性Pixel value characteristics of an image with inverse enhancement and the result of edge enhancement フラグデータに従い色置換する様子Color replacement according to flag data 実施例2におけるエッジ判定部のデータフローData flow of edge determination unit in embodiment 2 文字エッジ領域と内・外エッジ領域との位置関係Positional relationship between character edge area and inner / outer edge area エッジ強調のために利用した畳み込み演算のテーブルConvolution table used for edge enhancement

Claims (5)

入力した画像信号に対して、文字・線画部の判定を行う画像処理装置において、入力画像データに対してフィルタ処理を行うフィルタ処理手段と、前記フィルタ処理手段によってフィルタ処理された画像を閾値でクリッピングすることで外エッジ領域を得る外エッジクリッピング処理手段と、前記フィルタ処理された画像を閾値でクリッピングすることで内エッジ領域を得る内エッジクリッピング処理手段と、前記外エッジ領域を文字内部方向に拡張させ、前記内エッジ領域を文字外側方向に拡張させる領域拡張処理手段と、前記領域拡張処理手段によって拡張された外エッジ領域及び内エッジ領域を判定基準として用いて文字エッジ領域、及び、文字エッジ領域の外側に隣接する非文字エッジ領域、及び、文字エッジ領域の内側に隣接する非文字エッジ領域を判定するフラグ判定部、とを有することを特徴とする画像処理装置。   In an image processing apparatus that performs character / line drawing determination on an input image signal, filter processing means for performing filter processing on input image data, and clipping an image filtered by the filter processing means with a threshold value Outer edge clipping processing means for obtaining an outer edge area by clipping, an inner edge clipping processing means for obtaining an inner edge area by clipping the filtered image with a threshold value, and extending the outer edge area in the direction of the inside of the character Area extension processing means for extending the inner edge area in a character outward direction, a character edge area and a character edge area using the outer edge area and the inner edge area expanded by the area extension processing means as a criterion Adjacent to the outside of the non-character edge area and the inside of the character edge area Flag determination unit determines a character edge area, the image processing apparatus characterized by having a city. 前記フィルタ処理手段には、2次微分フィルタを少なくとも1つ含むことを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the filter processing unit includes at least one secondary differential filter. 前記領域拡張処理手段は、前記フィルタ処理手段以外に、画像処理の系を持ち、それらの結果を参照して、領域拡張処理を行うことを特徴とする請求項1または請求項2に記載の画像処理装置。   3. The image according to claim 1, wherein the region expansion processing unit has an image processing system in addition to the filter processing unit, and performs region expansion processing with reference to a result thereof. Processing equipment. 前記フラグ判定手段は、請求項3に記載の画像処理の結果を参照して、判定を行うことを特徴とする請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the flag determination unit performs determination with reference to a result of image processing according to claim 3. 前記フィルタ処理手段及び前記外エッジクリッピング処理手段及び前記内エッジクリッピング処理手段とは別に、第2のフィルタ処理手段及び第3のクリッピング処理手段によって第3の領域を得、前記領域拡張処理手段は、前記外エッジ領域及び前記内エッジ領域及び前記第3の領域を参照して領域拡張処理を行うことを特徴とする請求項1〜請求項4のいずれかに記載の画像処理装置。   Separately from the filter processing means and the outer edge clipping processing means and the inner edge clipping processing means, a second area is obtained by a second filter processing means and a third clipping processing means. The image processing apparatus according to claim 1, wherein region expansion processing is performed with reference to the outer edge region, the inner edge region, and the third region.
JP2008153170A 2008-06-11 2008-06-11 Image processor Pending JP2009302761A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008153170A JP2009302761A (en) 2008-06-11 2008-06-11 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008153170A JP2009302761A (en) 2008-06-11 2008-06-11 Image processor

Publications (1)

Publication Number Publication Date
JP2009302761A true JP2009302761A (en) 2009-12-24

Family

ID=41549227

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008153170A Pending JP2009302761A (en) 2008-06-11 2008-06-11 Image processor

Country Status (1)

Country Link
JP (1) JP2009302761A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013004094A (en) * 2011-06-16 2013-01-07 Fujitsu Ltd Text emphasis method and device and text extraction method and device
US11024016B2 (en) 2019-04-05 2021-06-01 Samsung Electronics Co., Ltd. Image processing apparatus and image processing method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013004094A (en) * 2011-06-16 2013-01-07 Fujitsu Ltd Text emphasis method and device and text extraction method and device
US11024016B2 (en) 2019-04-05 2021-06-01 Samsung Electronics Co., Ltd. Image processing apparatus and image processing method thereof

Similar Documents

Publication Publication Date Title
US8041112B2 (en) Image processing apparatus, image forming apparatus, image reading apparatus, image processing method, image processing program, computer-readable storage medium for storing the image processing program with segmentation and density correction optimization
JP4495197B2 (en) Image processing apparatus, image forming apparatus, image processing program, and recording medium for recording image processing program
KR100994644B1 (en) Image processing apparatus and method thereof
JP4531606B2 (en) Image processing apparatus, image forming apparatus, and image processing method
JP6379794B2 (en) Image processing apparatus, image processing method, and image processing system
JP4496239B2 (en) Image processing method, image processing apparatus, image forming apparatus, image reading apparatus, computer program, and recording medium
US20070236707A1 (en) Image processing apparatus, image processing method and image processing program
JP4402090B2 (en) Image forming apparatus, image forming method, program, and recording medium
JP2004289819A (en) Image forming device and method
JP4226278B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium recording the same
JP2008305099A (en) Image processing method, image processor, image forming device, computer program and recording medium
JP2005286571A (en) Image processing apparatus, image forming apparatus provided with image processing apparatus, image processing method, image processing program, and recording medium with image processing program recorded thereon
JP4596964B2 (en) Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium
JP2002325182A (en) Image processing method, image processing unit and image forming device provided with the unit
JP2009302761A (en) Image processor
JP6474315B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium therefor
JP7266462B2 (en) IMAGE PROCESSING APPARATUS, IMAGE FORMING APPARATUS, IMAGE PROCESSING METHOD AND PROGRAM
JP2008205967A (en) Image processor
JP2008035499A (en) Image processing apparatus, image processing method, program, and recording medium
JP3927426B2 (en) Image processing method, image processing apparatus, and image forming apparatus including the same
JP4176656B2 (en) Image processing apparatus, image processing method, image forming apparatus, image processing program, and recording medium recording the program
JP2011015172A (en) Device for processing image, device for forming image, method and program for processing image, and recording medium recording program for processing image
JP4958626B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium
JP2008271131A (en) Method and device for image processing, and image forming apparatus
JP6350877B2 (en) Image forming apparatus

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100201

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20100630