JP2007087190A - Image processing device and program - Google Patents

Image processing device and program Download PDF

Info

Publication number
JP2007087190A
JP2007087190A JP2005276288A JP2005276288A JP2007087190A JP 2007087190 A JP2007087190 A JP 2007087190A JP 2005276288 A JP2005276288 A JP 2005276288A JP 2005276288 A JP2005276288 A JP 2005276288A JP 2007087190 A JP2007087190 A JP 2007087190A
Authority
JP
Japan
Prior art keywords
component
edge
wavelet
image
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005276288A
Other languages
Japanese (ja)
Other versions
JP4792893B2 (en
Inventor
Kunikazu Ueno
邦和 上野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2005276288A priority Critical patent/JP4792893B2/en
Publication of JP2007087190A publication Critical patent/JP2007087190A/en
Application granted granted Critical
Publication of JP4792893B2 publication Critical patent/JP4792893B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To carry out image processing using wavelet transformation at high speed. <P>SOLUTION: By means of this image processing device, it is determined whether attributes of respective image blocks are a background or not based on a wavelet coefficient of an LL component obtained by performing wavelet transformation on image data. As to the image block determined as the background, the wavelet coefficients of HL, LH, and HH components are replaced by predetermined values. As to the image block not determined as the background, an edge is detected by referring to the HL, LH, and HH components and edge processing is carried out by multiplying the wavelet coefficient corresponding to the edge by a predetermined edge enhancement coefficient, and then, reverse wavelet transformation is carried out for restoring the image data and output them. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、スキャン画像に画像処理を施して出力する技術に関し、特に、そのスキャン画像を構成する各オブジェクト毎にその特性に応じた画像処理を施して出力する技術に関する。   The present invention relates to a technique for performing image processing on a scanned image and outputting the image, and more particularly to a technique for performing image processing according to the characteristics of each object constituting the scanned image and outputting the object.

スキャナ装置や複写機によって読み取られる画像(以下、スキャン画像)に色変換処理などの画像処理を施し、その処理結果である画像を印刷用紙など記録材上に形成して出力することが一般に行われている。スキャン画像の中には、文字や絵柄、下地等(以下、文字、絵柄、下地等を「属性」とも呼ぶ)の異なる属性を有する画像領域を有しているものがあり、係るスキャン画像に対して画像処理を施す際には、各画像領域毎にその属性に適した画像処理を施すことが望ましい。例えば、属性が文字である領域については、文字の輪郭(以下、エッジとも呼ぶ)がぼやけてしまうことを回避するため、そのエッジを強調するような画像処理を施すことが望ましい。
このようなことを可能にする技術の一例としては、特許文献1〜4に開示された技術が挙げられる。これら特許文献には、処理対象である画像にウェーブレット変換を利用してエッジ強調などの高画質化処理を行う技術が開示されている。
Generally, an image read by a scanner device or a copying machine (hereinafter referred to as a scanned image) is subjected to image processing such as color conversion processing, and the resulting image is formed on a recording material such as printing paper and output. ing. Some scanned images have image areas having different attributes such as characters, patterns, backgrounds (hereinafter, characters, patterns, backgrounds, etc. are also referred to as “attributes”). When image processing is performed, it is desirable to perform image processing suitable for the attribute of each image region. For example, for an area whose attribute is a character, it is desirable to perform image processing that emphasizes the edge of the character in order to avoid blurring the outline of the character (hereinafter also referred to as an edge).
As an example of a technique that enables this, there are techniques disclosed in Patent Documents 1 to 4. These patent documents disclose techniques for performing image quality enhancement processing such as edge enhancement on an image to be processed using wavelet transform.

図15は、ウェーブレット変換および逆ウェーブレット変換を説明するための図である。
図15に示すように、ウェーブレット変換においては、まず、画像データに対して主走査方向、副走査方向の順に、図15に示す“H↓2フィルタ”および“G↓2フィルタ”を予め定められた4つの組み合わせパターン(図15参照)で組み合わせてフィルタ処理を施すことによって上記画像データの表す原画像のLL成分、LH成分、HL成分およびHH成分を表すウェーブレット係数が算出される。一方、逆ウェーブレット変換においては、上記各ウェーブレット係数を入力として副走査方向および主走査方向の順に、図15に示す“↑2Qフィルタ”および“↑2Pフィルタ”を予め定められた4つの組み合わせパターン(図15参照)で組み合わせてフィルタ処理を施すことによって画像データが復元される。なお、上記ウェーブレット変換により生成される各ウェーブレット係数は、以下のような特徴を有している。HH成分には、ななめ方向(45°および135°方向)のエッジ成分が強く現れる。LH成分には、横方向のエッジ成分が強く現れる。HL成分には、縦方向のエッジ成分が強く現れる。そして、LL成分は、現画像を縦方向および横方向に1/2に縮小して得られる画像と略同一の特徴を有している。なお、“H↓2フィルタ”、“G↓2フィルタ”、“↑2Qフィルタ”および“↑2Pフィルタ”はHaarフィルタと呼ばれるフィルタである。
特開平6−274614号公報 特開平6−223172号公報 特開2002−247368号公報 特開2003−9153号公報
FIG. 15 is a diagram for explaining the wavelet transform and the inverse wavelet transform.
As shown in FIG. 15, in the wavelet transform, first, “H ↓ 2 filter” and “G ↓ 2 filter” shown in FIG. 15 are predetermined for image data in the order of the main scanning direction and the sub-scanning direction. Further, wavelet coefficients representing the LL component, the LH component, the HL component, and the HH component of the original image represented by the image data are calculated by performing filter processing in combination with the four combination patterns (see FIG. 15). On the other hand, in the inverse wavelet transform, each wavelet coefficient is input, and in the order of the sub-scanning direction and the main scanning direction, “↑ 2Q filter” and “↑ 2P filter” shown in FIG. The image data is restored by performing the filtering process in combination in FIG. Each wavelet coefficient generated by the wavelet transform has the following characteristics. In the HH component, an edge component in the lick direction (45 ° and 135 ° directions) appears strongly. In the LH component, a lateral edge component appears strongly. In the HL component, a vertical edge component appears strongly. The LL component has substantially the same characteristics as an image obtained by reducing the current image by 1/2 in the vertical and horizontal directions. “H ↓ 2 filter”, “G ↓ 2 filter”, “↑ 2Q filter” and “↑ 2P filter” are filters called Haar filters.
JP-A-6-274614 JP-A-6-223172 JP 2002-247368 A JP 2003-9153 A

ところで、上記各特許文献に開示された技術では、エッジ強調に先立つエッジ検出の際にLL成分を除く他のウェーブレット係数の全てを参照してエッジ検出を行っているため、処理速度を高速化することが難しい、といった問題点がある。
本発明は、上記課題に鑑みて為されたものであり、ウェーブレット変換を利用した画像処理を高速に行うことを可能にする技術を提供することを目的としている。
By the way, in the technique disclosed in each of the above patent documents, the edge detection is performed with reference to all other wavelet coefficients excluding the LL component at the time of edge detection prior to edge enhancement, so that the processing speed is increased. There is a problem that it is difficult.
The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique that enables high-speed image processing using wavelet transform.

上記課題を解決するために、本発明は、各画素の明度と彩度とで画像を表す画像データが入力される入力手段と、前記画像データにウェーブレット変換を施し、その画像データの表す画像の明度成分および彩度成分のそれぞれについてLL成分、LH成分、HL成分およびHH成分のウェーブレット係数を生成するウェーブレット変換手段と、前記明度成分についての前記LL成分のウェーブレット係数が表す画像を複数のブロックに分割し、その各々について、対応するLL成分のウェーブレット係数を参照してその属性が下地であるか否かを判別する判別手段と、下地であると前記判別手段により判別されたブロックについては、そのブロックに対応する前記HL成分、LH成分およびHH成分の各ウェーブレット係数を所定の値に書き換える一方、下地ではないと前記判別手段により判別されたブロックについては、そのブロックに対応する前記HL成分、LH成分およびHH成分の各ウェーブレット係数を参照してエッジ部を検出し所定のエッジ強調係数を乗算するエッジ処理手段と、前記LL成分のウェーブレット係数と、前記エッジ処理手段によって属性に応じた処理が施された前記HL成分、LH成分およびHH成分のウェーブレット係数とに逆ウェーブレット変換を施して画像データを復元し、その画像データを出力する出力手段とを有することを特徴とする画像処理装置を提供する。
このような画像処理装置によれば、LL成分のウェーブレット係数を参照することによって下地であると判別されたブロックについては、そのブロックのLH,HLおよびHH成分のウェーブレット係数の参照を行うことなく、それらウェーブレット係数が所定の値に書き換えられ、下地以外であると判別されたブロックについてのみ、そのブロックに対応するHL成分、LH成分およびHH成分の各ウェーブレット係数を参照することによってエッジ部が検出され、そのエッジ部に対応するこれら係数に所定のエッジ強調係数を乗算される。
In order to solve the above-mentioned problems, the present invention provides an input means for inputting image data representing an image with lightness and saturation of each pixel, wavelet transform is performed on the image data, and an image represented by the image data is displayed. Wavelet transform means for generating wavelet coefficients of LL component, LH component, HL component and HH component for each of the lightness component and the saturation component, and an image represented by the wavelet coefficients of the LL component for the lightness component in a plurality of blocks For each of the blocks, a determination unit that determines whether the attribute is a background by referring to a wavelet coefficient of a corresponding LL component, and a block that is determined to be a background by the determination unit Write each wavelet coefficient of the HL component, LH component and HH component corresponding to the block to a predetermined value On the other hand, for a block that is determined not to be a background by the determination means, an edge portion is detected by referring to the wavelet coefficients of the HL component, LH component, and HH component corresponding to the block, and a predetermined edge enhancement coefficient The inverse wavelet transform is applied to the edge processing means for multiplying the LL component, the wavelet coefficient of the LL component, and the wavelet coefficients of the HL component, the LH component, and the HH component that have been processed according to the attribute by the edge processing means. There is provided an image processing apparatus characterized by comprising output means for restoring image data and outputting the image data.
According to such an image processing device, for a block determined to be a background by referring to the wavelet coefficient of the LL component, without referring to the wavelet coefficients of the LH, HL, and HH components of the block, For those blocks whose wavelet coefficients are rewritten to predetermined values and are determined to be other than the background, the edge portion is detected by referring to the wavelet coefficients of the HL component, LH component and HH component corresponding to the block. These coefficients corresponding to the edge portion are multiplied by a predetermined edge enhancement coefficient.

より好ましい態様においては、前記判別手段は、下地ではないと判別されたブロックについては、その属性が文字であるのか、画像であるのか、それとも不明であるのかを判別し、前記エッジ処理手段は、属性が文字であると前記判別手段により判別されたブロックについては、前記エッジ部に対応する前記HL成分、LH成分およびHH成分のウェーブレット係数に第1のエッジ強調係数を乗算し、属性が文字であると前記判別手段により判別されたブロックについては、そのエッジ部に対応する前記HL成分、LH成分およびHH成分のウェーブレット係数に前記第1のエッジ強調係数よりも値が小さい第2のエッジ強調係数を乗算し、属性が不明であると前記判別手段により判別されたブロックについては、そのエッジ部に対応する前記HL成分、LH成分およびHH成分のウェーブレット係数の各々について所定の閾値と比較し、その閾値よりも大きい場合には前記第1のエッジ強調係数を乗算する一方、その閾値よりも小さい場合には前記第2の強調係数を乗算することを特徴としている。
このような態様においては、属性が文字であると判別されたブロックまたは属性が絵柄であると判別されたブロックについては、その属性に応じて第1または第2のエッジ強調係数がそのブロック内のエッジ部に対応するHL成分、LH成分およびHH成分の各ウェーブレット係数に乗算され、属性が不明であると判別されたブロックについては、そのブロック内のエッジ部に対応するHL成分、LH成分およびHH成分の各ウェーブレット係数に、その値が所定の閾値よりも大きい場合(つまりエッジ強度が強い場合)には第1のエッジ強調係数(すなわち、文字用エッジ強調係数)が乗算され、逆に、その値が所定の閾値よりも小さい場合(つまりエッジ強度が弱い場合)には第2のエッジ強調係数(すなわち、絵柄用エッジ強調係数)が乗算される。
In a more preferred aspect, the determining means determines whether the attribute of the block determined not to be a background is a character, an image, or unknown, and the edge processing means For the block whose attribute is determined to be a character by the determination means, the wavelet coefficient of the HL component, the LH component and the HH component corresponding to the edge portion is multiplied by a first edge enhancement coefficient, and the attribute is a character. For the block determined by the determining means, the second edge enhancement coefficient whose value is smaller than the first edge enhancement coefficient in the wavelet coefficients of the HL component, LH component and HH component corresponding to the edge portion. For the block whose attribute is determined to be unknown, the block corresponding to the edge portion Each of the wavelet coefficients of the HL component, the LH component, and the HH component is compared with a predetermined threshold value. When the threshold value is larger than the threshold value, the first edge enhancement coefficient is multiplied. The second emphasis coefficient is multiplied.
In such an aspect, for a block in which the attribute is determined to be a character or a block in which the attribute is determined to be a pattern, the first or second edge enhancement coefficient is set in the block according to the attribute. For a block that has been multiplied by the wavelet coefficients of the HL component, LH component, and HH component corresponding to the edge portion and whose attribute is determined to be unknown, the HL component, LH component, and HH corresponding to the edge portion in the block If each wavelet coefficient of the component has a value greater than a predetermined threshold (that is, when the edge strength is strong), the first edge enhancement coefficient (that is, the edge enhancement coefficient for characters) is multiplied, and conversely When the value is smaller than a predetermined threshold (that is, when the edge strength is weak), the second edge enhancement coefficient (that is, the pattern edge enhancement coefficient) It is multiplied.

また、上記課題を解決するために、本発明は、コンピュータ装置に、各画素の明度と彩度とで画像を表す画像データを受け取り、その画像データにウェーブレット変換を施して、その画像データの表す画像の明度成分および彩度成分のそれぞれについてLL成分、LH成分、HL成分およびHH成分のウェーブレット係数を生成する第1のステップと、前記明度成分についての前記LL成分のウェーブレット係数が表す画像を複数のブロックに分割し、その各々について、対応するLL成分のウェーブレット係数を参照してその属性が下地であるか否かを判別する第2のステップと、下地であると前記第2のステップにて判別されたブロックについては、そのブロックに対応する前記HL成分、LH成分およびHH成分の各ウェーブレット係数を所定の値に書き換える一方、下地ではないと前記第2のステップにて判別されたブロックについては、そのブロックに対応する前記HL成分、LH成分およびHH成分の各ウェーブレット係数を参照してエッジ部を検出し所定のエッジ強調係数を乗算する第3のステップと、前記LL成分のウェーブレット係数と、前記第3のステップにて属性に応じた処理が施された前記HL成分、LH成分およびHH成分のウェーブレット係数とに逆ウェーブレット変換を施して画像データを復元し、その画像データを出力する第4のステップとを実行させることを特徴とするプログラムを提供する。
このようなプログラムによれば、一般的なコンピュータ装置に、このプログラムをインストールすることによって、そのコンピュータ装置に上記画像処理装置と同一の機能を付与することが可能になる。
In order to solve the above problems, the present invention receives image data representing an image with brightness and saturation of each pixel, and applies wavelet transform to the image data to represent the image data. A first step of generating wavelet coefficients of the LL component, LH component, HL component, and HH component for each of the lightness component and the saturation component of the image, and a plurality of images represented by the wavelet coefficients of the LL component for the lightness component A second step of determining whether the attribute is a background by referring to the wavelet coefficient of the corresponding LL component for each of the blocks, and the second step if the attribute is a background For the determined block, the wavelet coefficients of the HL component, the LH component, and the HH component corresponding to the block. For the block determined in the second step that is not the background, the edge portion is referenced with reference to the wavelet coefficients of the HL component, LH component, and HH component corresponding to the block. And a predetermined edge enhancement coefficient is multiplied by a third step, the wavelet coefficient of the LL component, and the HL component, the LH component, and the HH component subjected to processing according to the attribute in the third step And a fourth step of restoring the image data by applying inverse wavelet transform to the wavelet coefficients of the image and outputting the image data.
According to such a program, by installing this program in a general computer apparatus, it is possible to give the same function as the image processing apparatus to the computer apparatus.

また、上記課題を解決するために、本発明は、各画素の明度と彩度とで画像を表す画像データが入力される入力手段と、前記入力手段へ入力された画像データにウェーブレット変換を施し、その画像データの表す画像の明度成分および彩度成分のそれぞれについてLL成分、LH成分、HL成分およびHH成分のウェーブレット係数を生成するウェーブレット変換手段と、前記明度成分のウェーブレット係数を参照してエッジの強度および方向を検出するとともに、そのエッジに対応するLH成分、HL成分およびHH成分のウェーブレット係数にその強度に応じたエッジ強調係数を乗算する明度成分処理手段と、前記彩度成分のウェーブレット係数のうちLL成分については、そのLL成分から算出される彩度と前記明度成分処理手段により検出されたエッジの強度とに応じてそのエッジに対応するウェーブレット係数に所定の値を乗算して彩度変換を施す一方、LH成分、HL成分およびHH成分については、前記明度成分処理手段により検出されたエッジ方向に応じて定まる領域に対応するウェーブレット係数の値を所定の値に書き換える彩度成分処理手段と、前記明度成分処理手段による処理結果および前記彩度成分処理手段による処理結果に逆ウェーブレット変換を施して画像データを復元し、その画像データを出力する出力手段とを有することを特徴とする画像処理装置を提供する。   In order to solve the above problems, the present invention provides an input means for inputting image data representing an image with brightness and saturation of each pixel, and wavelet transform is applied to the image data input to the input means. , Wavelet transform means for generating wavelet coefficients of LL component, LH component, HL component and HH component for each of the lightness component and saturation component of the image represented by the image data, and an edge referring to the wavelet coefficient of the lightness component Brightness component processing means for detecting the intensity and direction of the image, and multiplying the wavelet coefficients of the LH component, HL component, and HH component corresponding to the edge by an edge enhancement coefficient corresponding to the intensity, and the wavelet coefficient of the saturation component Of the LL component, the saturation calculated from the LL component and the lightness component processing means The wavelet coefficient corresponding to the detected edge is multiplied by a predetermined value in accordance with the detected intensity of the edge and subjected to saturation conversion, while the LH component, HL component, and HH component are detected by the lightness component processing means. A saturation component processing means for rewriting a wavelet coefficient value corresponding to a region determined according to the determined edge direction to a predetermined value, a processing result by the lightness component processing means, and a processing result by the saturation component processing means in an inverse wavelet There is provided an image processing apparatus characterized by having an output means for performing conversion to restore image data and outputting the image data.

また、上記課題を解決するために、本発明は、コンピュータ装置に、各画素の明度と彩度とで画像を表す画像データを受け取り、その画像データにウェーブレット変換を施して、その画像データの表す画像の明度成分および彩度成分のそれぞれについてLL成分、LH成分、HL成分およびHH成分のウェーブレット係数を生成する第1のステップと、前記明度成分のウェーブレット係数を参照してエッジの強度および方向を検出するとともに、そのエッジに対応するLH成分、HL成分およびHH成分のウェーブレット係数にその強度に応じたエッジ強調係数を乗算する第2のステップと、前記彩度成分のウェーブレット係数のうちLL成分については、そのLL成分から算出される彩度と前記第2のステップにて検出されたエッジの強度とに応じてそのエッジに対応するウェーブレット係数に所定の値を乗算して彩度変換を施す一方、LH成分、HL成分およびHH成分については、前記第2のステップにて検出されたエッジ方向に応じて定まる領域に対応するウェーブレット係数の値を所定の値に書き換える第3のステップと、前記第2のステップの処理結果および前記第3のステップの処理結果に逆ウェーブレット変換を施して画像データを復元し、その画像データを出力する第4のステップとを実行させることを特徴とするプログラムを提供する。   In order to solve the above problems, the present invention receives image data representing an image with brightness and saturation of each pixel, and applies wavelet transform to the image data to represent the image data. A first step of generating wavelet coefficients of LL component, LH component, HL component and HH component for each of the lightness component and the saturation component of the image, and the intensity and direction of the edge with reference to the wavelet coefficient of the lightness component A second step of detecting and multiplying the LH component corresponding to the edge, the wavelet coefficient of the HL component and the HH component by an edge enhancement coefficient corresponding to the intensity, and the LL component of the wavelet coefficients of the saturation component Is the saturation calculated from the LL component and the intensity of the edge detected in the second step The wavelet coefficient corresponding to the edge is multiplied by a predetermined value in response to the saturation conversion, and the LH component, the HL component, and the HH component are determined according to the edge direction detected in the second step. A third step of rewriting a wavelet coefficient value corresponding to a predetermined region to a predetermined value, and performing inverse wavelet transform on the processing result of the second step and the processing result of the third step to restore image data And a fourth step of outputting the image data is provided.

本発明によれば、ウェーブレット変換を利用した画像処理を高速に行うことが可能になる、といった効果を奏する。   According to the present invention, it is possible to perform image processing using wavelet transformation at high speed.

以下、本発明を実施する際の最良の形態について図面を参照しつつ説明する。
(A.第1実施形態)
(A−1.構成)
図1は、本発明の1実施形態に係る画像処理装置200を含んでいる画像処理システムの構成例を示すブロック図である。図1に示すように、この画像処理システムには、画像読取装置100と、画像処理装置200と、画像形成装置300とが含まれており、画像処理装置200は、例えばUSB(Universal Serial Bus)ケーブルなどの通信線400aおよび400bで画像読取装置100と画像形成装置300とに接続されている。
The best mode for carrying out the present invention will be described below with reference to the drawings.
(A. First embodiment)
(A-1. Configuration)
FIG. 1 is a block diagram illustrating a configuration example of an image processing system including an image processing apparatus 200 according to an embodiment of the present invention. As shown in FIG. 1, the image processing system includes an image reading apparatus 100, an image processing apparatus 200, and an image forming apparatus 300. The image processing apparatus 200 is, for example, a USB (Universal Serial Bus). Communication lines 400 a and 400 b such as cables are connected to the image reading apparatus 100 and the image forming apparatus 300.

画像読取装置100は、例えばADF(Auto Document Feeder)などの自動給紙機構を備えたスキャナ装置であり、ADFにセットされた紙文書を1ページずつ読み取り、読み取った画像に対応するRGB画像データを通信線400aを介して画像処理装置200へ引渡す。ここで、RGB画像データとは、光の3原色である赤(R)、緑(G)および青(B)の3色の組み合わせで色が表された画像を表す画像データである。   The image reading apparatus 100 is a scanner apparatus having an automatic paper feed mechanism such as an ADF (Auto Document Feeder), for example, reads a paper document set in the ADF page by page, and obtains RGB image data corresponding to the read image. The image is transferred to the image processing apparatus 200 via the communication line 400a. Here, the RGB image data is image data representing an image in which colors are represented by a combination of the three primary colors of light, red (R), green (G), and blue (B).

画像処理装置200は、通信線400を介して引渡されたRGB画像データをL*a*b*画像データ変換してエッジを強調するエッジ強調処理を施した後に、YMCK画像データに変換して通信線400bを介して画像形成装置300へ引渡す。ここで、L*a*b*画像データとは、各画素の色が明度(L)と彩度(a,b)で表された画像データであり、YMCK画像データとは、各画素の色が、印刷の基本色であるイエロー(Y)、マゼンダ(M)、シアン(C)および墨(K)の4色の組み合わせで色が表された画像を表す画像データである。この画像処理装置200の構成および動作については後に詳細に説明する。   The image processing device 200 performs edge enhancement processing for converting the RGB image data delivered via the communication line 400 to L * a * b * image data to enhance edges, and then converts the image data into YMCK image data for communication. The image is transferred to the image forming apparatus 300 via the line 400b. Here, L * a * b * image data is image data in which the color of each pixel is represented by lightness (L) and saturation (a, b), and YMCK image data is the color of each pixel. Is image data representing an image in which colors are represented by combinations of four colors of yellow (Y), magenta (M), cyan (C), and black (K), which are basic colors for printing. The configuration and operation of the image processing apparatus 200 will be described in detail later.

画像形成装置300は、例えば電子写真方式のプリンタ装置であり、通信線400bを介して画像処理装置200から引渡されたYMCK画像データに応じた画像を電子写真方式で印刷用紙などの記録材上に形成して出力する。なお、本実施形態では、画像形成装置300が電子写真方式のプリンタ装置である場合について説明するが、例えばインクジェット方式など他の方式で画像形成を行うプリンタ装置であっても勿論良い。   The image forming apparatus 300 is, for example, an electrophotographic printer apparatus, and an image corresponding to the YMCK image data delivered from the image processing apparatus 200 via the communication line 400b is electrophotographic to a recording material such as printing paper. Form and output. In the present embodiment, the case where the image forming apparatus 300 is an electrophotographic printer apparatus will be described. However, a printer apparatus that forms an image using another system such as an ink jet system may be used.

なお、本実施形態では、USBケーブルを介して画像処理装置200が画像読取装置100や画像形成装置300に接続されている場合について説明するが、LAN(Local Area Network)やWAN(Wide Area Network)、インターネットなどの通信網を介して画像処理装置200が画像読取装置100や画像形成装置300に接続されているとしても良いことは勿論である。また、本実施形態では、画像読取装置100、画像処理装置200および画像形成装置300を夫々個別のハードウェアで構成する場合について説明するが、これらを一体のハードウェアで構成するとしても良いことは勿論である。このような態様にあっては、係るハードウェア内で画像読取装置100、画像処理装置200および画像形成装置300を接続する内部バスが、上記通信線の役割を担うことになる。   In this embodiment, a case where the image processing apparatus 200 is connected to the image reading apparatus 100 or the image forming apparatus 300 via a USB cable will be described. However, a LAN (Local Area Network) or a WAN (Wide Area Network) is described. Of course, the image processing apparatus 200 may be connected to the image reading apparatus 100 or the image forming apparatus 300 via a communication network such as the Internet. In this embodiment, the case where the image reading apparatus 100, the image processing apparatus 200, and the image forming apparatus 300 are configured by individual hardware will be described. However, these may be configured by integral hardware. Of course. In such an aspect, an internal bus connecting the image reading apparatus 100, the image processing apparatus 200, and the image forming apparatus 300 in the hardware plays the role of the communication line.

図2は、画像処理装置200のハードウェア構成の一例を示す図である。
図2に示すように、画像処理装置200は、制御部210、インターフェイス(以下、IF)部220、記憶部230、および、これら各構成要素間のデータ授受を仲介するバス240、を備えている。
FIG. 2 is a diagram illustrating an example of a hardware configuration of the image processing apparatus 200.
As shown in FIG. 2, the image processing apparatus 200 includes a control unit 210, an interface (hereinafter, IF) unit 220, a storage unit 230, and a bus 240 that mediates data exchange between these components. .

制御部210は、例えばCPU(Central Processing Unit)であり、記憶部230に格納されているプログラムを実行することによって、画像処理装置200の各部を中枢的に制御する。   The control unit 210 is, for example, a CPU (Central Processing Unit), and centrally controls each unit of the image processing apparatus 200 by executing a program stored in the storage unit 230.

IF部220は、USBインターフェイスであり、通信線400aや400bが接続されている。このIF部220は、通信線400aを介して画像読取装置100から送られてくるRGB画像データを受け取り、制御部210へ引渡す一方、制御部210から引渡されたYMCK画像データを通信線400bを介して画像形成装置300へ引渡す。なお、LANなどの通信網を介して画像読取装置100や画像形成装置300を接続する場合には、IF部220をNIC(Network Interface Card)で構成するようにすれば良い。   The IF unit 220 is a USB interface, to which communication lines 400a and 400b are connected. The IF unit 220 receives the RGB image data sent from the image reading apparatus 100 via the communication line 400a and delivers it to the control unit 210, while the YMCK image data delivered from the control unit 210 is sent via the communication line 400b. To the image forming apparatus 300. When the image reading apparatus 100 or the image forming apparatus 300 is connected via a communication network such as a LAN, the IF unit 220 may be configured by a NIC (Network Interface Card).

記憶部230は、図2に示すように、不揮発性記憶部230aと揮発性記憶部230bとを含んでいる。
不揮発性記憶部230aは、例えば、ハードディスクであり、揮発性記憶部230bは、例えばRAM(Random Access Memory)である。揮発性記憶部230bは、プログラムにしたがって作動している制御部210によってワークエリアとして利用される。一方、不揮発性記憶部230aには、本発明に係る画像処理装置に特徴的な画像処理を制御部210に実行させるためのプログラムが予め格納されている。また、この不揮発性記憶部230aには、RGB画像データからL*a*b*画像データへの色変換処理(以下、前段色変換処理)やL*a*b*画像データからYMCK画像データへの色変換処理(以下、後段色変換処理)の実行過程で参照されるルックアップテーブル(以下、LUT)や、入力画像データの表す画像を複数のブロックに分割し、それらブロックの属性が、文字、絵柄、または、下地の何れであるのかを判別する最に参照される属性判別テーブルが予め格納されている。
As shown in FIG. 2, the storage unit 230 includes a nonvolatile storage unit 230a and a volatile storage unit 230b.
The nonvolatile storage unit 230a is, for example, a hard disk, and the volatile storage unit 230b is, for example, a RAM (Random Access Memory). The volatile storage unit 230b is used as a work area by the control unit 210 operating according to a program. On the other hand, the non-volatile storage unit 230a stores in advance a program for causing the control unit 210 to perform image processing characteristic of the image processing apparatus according to the present invention. In addition, the nonvolatile storage unit 230a stores color conversion processing from RGB image data to L * a * b * image data (hereinafter, pre-stage color conversion processing) or L * a * b * image data to YMCK image data. A look-up table (hereinafter referred to as LUT) referred to during the execution of the color conversion process (hereinafter referred to as the subsequent color conversion process) and the image represented by the input image data are divided into a plurality of blocks, and the attributes of these blocks are characters. , An attribute discrimination table to be referred to when discriminating between the pattern and the background is stored in advance.

属性判別テーブルには、文字や写真(或いは絵柄)などの画像素材(文字や絵柄など)の属性に応じた明度(L)のヒストグラムと彩度(a、b)のヒストグラムの基準パターンを表すデータが各属性毎に格納されている。例えば、図3(a)は黒文字、図3(b)は色文字、図3(c)はカラー写真(絵柄)、図3(d)は白黒写真(絵柄)、図3(e)は下地、の上記基準パターンである。   In the attribute discrimination table, data representing a reference pattern of a lightness (L) histogram and a saturation (a, b) histogram according to the attributes of image materials (characters, pictures, etc.) such as characters and photographs (or pictures). Is stored for each attribute. For example, FIG. 3A is a black character, FIG. 3B is a color character, FIG. 3C is a color photograph (picture), FIG. 3D is a black-and-white photograph (picture), and FIG. The above-mentioned reference pattern.

図3(a)に示すように、黒文字についての基準パターンは、ハイライトと高濃度にピークのある明度ヒストグラムおよび中央に1つピークがある彩度ヒストグラムであり、色文字について基準パターンは、図3(b)に示すように、ハイライトと高濃度にピークのある明度ヒストグラムおよび中央と中央からずれた位置に2つピークがある彩度ヒストグラムである。カラー絵柄についての基準パターンは、図3(c)に示すように、なだらかでピークが不定な明度ヒストグラムおよびなだらかでピークが不定な彩度ヒストグラムであり、白黒絵柄についての基準パターンは、図3(d)に示すように、なだらかでピークが不定な明度ヒストグラムおよび中央に1つのピークがある彩度ヒストグラムである。そして、下地についての基準パターンは、図3(e)に示すように、ハイライトに1つのピークがある明度ヒストグラムおよび中央に1つのピークがある彩度ヒストグラムとなる。   As shown in FIG. 3A, the reference pattern for black characters is a lightness histogram with a highlight and a peak at high density and a saturation histogram with one peak at the center. As shown in FIG. 3 (b), there are a brightness histogram having peaks in highlight and high density, and a saturation histogram having two peaks at positions shifted from the center and the center. As shown in FIG. 3C, the reference pattern for the color pattern is a lightness histogram with a gentle peak and an indefinite peak, and the saturation histogram with a gentle peak indefinite, and the reference pattern for a monochrome pattern is shown in FIG. As shown in d), it is a lightness histogram with gentle peaks and an indefinite peak and a saturation histogram with one peak in the center. As shown in FIG. 3E, the reference pattern for the background is a lightness histogram having one peak in the highlight and a saturation histogram having one peak in the center.

このように、上記属性判別テーブルには、各属性についての基準パターンを表すデータが属性毎に格納されているため、制御部210は、各オブジェクトについてその基準パターンを算出し、その算出結果を上記属性判別テーブルの格納内容と比較することによって、各オブジェクトの属性を判別することができる。なお、本実施形態では、各属性についての基準パターンとして明度のヒストグラムと彩度のヒストグラムとを用いる場合について説明したが、例えば、画素値のオン/オフの反転周波数などの上記基準パターンとして用いても勿論良い。   As described above, since the data representing the reference pattern for each attribute is stored for each attribute in the attribute determination table, the control unit 210 calculates the reference pattern for each object, and the calculation result is the above-described result. By comparing with the contents stored in the attribute determination table, the attribute of each object can be determined. In the present embodiment, the case where the lightness histogram and the saturation histogram are used as the reference pattern for each attribute has been described. However, for example, the lightness histogram and the saturation histogram are used as the reference pattern such as the on / off inversion frequency of the pixel value. Is of course good.

以上が画像処理装置200の構成である。このように画像処理装置200のハードウェア構成は一般的なコンピュータ装置のハードウェア構成と同一であり、不揮発性記憶部230aに格納されているプログラムにしたがって制御部210を作動させることによって、本発明に係る画像処理装置に特有な機能が実現される。   The above is the configuration of the image processing apparatus 200. As described above, the hardware configuration of the image processing apparatus 200 is the same as the hardware configuration of a general computer apparatus, and the control unit 210 is operated according to the program stored in the nonvolatile storage unit 230a. Functions specific to the image processing apparatus according to the above are realized.

(A−2.動作)
次いで、上記プログラムにしたがって作動している制御部210が実行するエッジ強調処理について図面を参照しつつ説明する。なお、制御部210が実行する前段色変換処理および後段色変換処理については、従来の画像処理装置が行うこれら処理と何ら変わるところがないため、以下では、本発明に係る画像処理装置に特徴的なエッジ強調処理について説明する。
図4は、上記プログラムにしたがって制御部210が実行するエッジ強調処理の流れを示すフローチャートである。図4に示すように、制御部210は、まず、前段色変換処理にて生成されたL*a*b*画像データに前述したHaarフィルタを用いてウェーブレット変換(詳細には、離散ウェーブレット変換)を施し、その画像データの表す画像のLL、LH、HLおよびHHの各成分を表すウェーブレット係数を算出する(ステップSA100)。
(A-2. Operation)
Next, edge enhancement processing executed by the control unit 210 operating according to the program will be described with reference to the drawings. Note that the pre-stage color conversion process and the post-stage color conversion process executed by the control unit 210 are not different from those performed by the conventional image processing apparatus. Therefore, the following is characteristic of the image processing apparatus according to the present invention. The edge enhancement process will be described.
FIG. 4 is a flowchart showing the flow of edge enhancement processing executed by the control unit 210 in accordance with the program. As shown in FIG. 4, the control unit 210 first uses the Haar filter described above for the L * a * b * image data generated in the previous color conversion process (in detail, discrete wavelet conversion). And wavelet coefficients representing the LL, LH, HL, and HH components of the image represented by the image data are calculated (step SA100).

次いで、制御部210は、上記ステップSA100にて生成したウェーブレット係数のうち、LL成分のウェーブレット係数を参照し、そのLL成分のウェーブレット係数の表す画像を所定サイズ(例えば、1×1mm)の画像ブロックに分割する(ステップSA110)。次いで、制御部210は、ステップSA110にて分割された各画像ブロックについて明度(L)のヒストグラムと彩度(a、b)のヒストグラムを算出し、それを前述した属性判別テーブルに格納されている基準パターンと比較することによって、各画像ブロックの属性を判別する(ステップSA120)。この場合、制御部210は、例えば、基準パターンとの乖離度を適当な計算方法で算出し、一番乖離度が小さい基準パターンを選択する。なお、制御部210は、各基準パターンとの乖離度が何れも大差がない場合には、その画像ブロックの属性を“不明”と判別する。
本実施形態では、画像ブロックの大きさを1×1mmにする場合について説明したが、その大きさを小さくするほどより正確に属性を判別することが可能である一方、属性判別に時間がかかってしまう。したがって、要求される処理スピードと画質を総合的に判断し、画像ブロックの大きさを適切に設定するのが好ましい。
Next, the control unit 210 refers to the wavelet coefficient of the LL component among the wavelet coefficients generated in step SA100, and the image represented by the wavelet coefficient of the LL component is an image block having a predetermined size (for example, 1 × 1 mm). (Step SA110). Next, the control unit 210 calculates a lightness (L) histogram and a saturation (a, b) histogram for each image block divided in step SA110, and stores them in the attribute determination table described above. By comparing with the reference pattern, the attribute of each image block is determined (step SA120). In this case, for example, the control unit 210 calculates the degree of deviation from the reference pattern by an appropriate calculation method, and selects the reference pattern having the smallest degree of deviation. Note that the control unit 210 determines that the attribute of the image block is “unknown” when there is no large difference in the degree of deviation from each reference pattern.
In the present embodiment, the case where the size of the image block is set to 1 × 1 mm has been described. However, it is possible to more accurately determine the attribute as the size is reduced, but it takes time to determine the attribute. End up. Therefore, it is preferable that the required processing speed and image quality are comprehensively determined and the size of the image block is set appropriately.

次いで、制御部210は、ステップSA110にて分割された各画像ブロックについて、ステップSA120にて判別された属性に応じたエッジ処理を施す(ステップSA130)。
例えば、属性が下地であると判別された画像ブロック(以下、下地ブロック)については、制御部210は、その画像ブロックに対応するLH、HLおよびHHウェーブレット係数を全てエッジなし、すなわち空白あるいは紙白を表す所定の値(例えば、“0”)に書き換える処理を行う。下地部分に現れているエッジ成分は、スキャナ装置などによる画像の読み取り過程で生じたノイズであることが一般的であるため、LH、HLおよびHHウェーブレット係数を全て所定の値に書き換えることによって、そのようなノイズが除去されると期待される。
Next, the control unit 210 performs edge processing according to the attribute determined in step SA120 on each image block divided in step SA110 (step SA130).
For example, for an image block whose attribute is determined to be a background (hereinafter referred to as a background block), the control unit 210 has all the LH, HL, and HH wavelet coefficients corresponding to the image block without edges, that is, blank or paper white. Is rewritten to a predetermined value (eg, “0”). Since the edge component appearing in the background portion is generally noise generated in the image reading process by a scanner device or the like, the LH, HL, and HH wavelet coefficients are all rewritten to predetermined values, Such noise is expected to be removed.

属性が文字または絵柄であると判別された画像ブロックについては、制御部210は、図5に示すエッジ処理を施す。図5に示すように、制御部210は、まず、その画像ブロックに対応するLH、HLおよびHH成分内での領域を特定し(ステップSB100)、それら領域内についてエッジ検出を行う(ステップSB110)。より詳細に説明すると、制御部210は、その領域に対応するLH、HLおよびHHの各成分のウェーブレット係数の値を所定のエッジ判定用閾値と比較し、その閾値よりも大きい場合にエッジ部に対応するウェーブレット係数であることを検出する。   For an image block whose attribute is determined to be a character or a picture, the control unit 210 performs edge processing shown in FIG. As shown in FIG. 5, the control unit 210 first identifies regions in the LH, HL, and HH components corresponding to the image block (step SB100), and performs edge detection in those regions (step SB110). . More specifically, the control unit 210 compares the value of the wavelet coefficient of each of the LH, HL, and HH components corresponding to the region with a predetermined edge determination threshold value. The corresponding wavelet coefficient is detected.

次いで、制御部210は、ステップSB110にて検出されたウェーブレット係数に、画像ブロックの属性に応じたエッジ強調係数を乗算する(ステップSB120)。具体的には、制御部210は、属性が文字であると判別された画像ブロック(以下、文字ブロック)に対応するウェーブレット係数については、文字用エッジ強調係数を乗算し、属性が絵柄であると判別された画像ブロック(以下、絵柄ブロック)に対応するウェーブレット係数については、絵柄用エッジ強調係数を乗算する。本実施形態では、文字用エッジ強調係数は、絵柄用エッジ強調係数よりも大きな値に設定されており、このため、文字ブロックについては、文字が際立つようにそのエッジが強調され、絵柄についてはそのエッジが際立たない程度に処理される。   Next, the control unit 210 multiplies the wavelet coefficient detected in step SB110 by an edge enhancement coefficient corresponding to the attribute of the image block (step SB120). Specifically, the control unit 210 multiplies a character edge enhancement coefficient for a wavelet coefficient corresponding to an image block (hereinafter referred to as a character block) whose attribute is determined to be a character, and the attribute is a pattern. A wavelet coefficient corresponding to the discriminated image block (hereinafter referred to as a “pattern block”) is multiplied by a pattern edge enhancement coefficient. In the present embodiment, the edge enhancement coefficient for characters is set to a value larger than the edge enhancement coefficient for patterns. Therefore, for character blocks, the edges are emphasized so that the characters stand out. The edge is processed so as not to stand out.

属性が不明であると判別された画像ブロック(以下、不明ブロック)については、制御部210は、図6に示すエッジ処理を施す。図6に示すように、不明ブロックについてのエッジ処理は、その不明ブロックに対応するLH、HLおよびHH成分内での領域を特定(ステップSB100)、および、それら領域内でのエッジ検出(ステップSB110)を行う点については、先に説明した文字または絵柄ブロックについてのエッジ処理と同一であるが、ステップSB110に後続してステップSB130以降の処理を実行する点が異なっている。   For an image block whose attribute is determined to be unknown (hereinafter, unknown block), the control unit 210 performs edge processing shown in FIG. As shown in FIG. 6, in the edge processing for the unknown block, the regions in the LH, HL and HH components corresponding to the unknown block are specified (step SB100), and the edge detection in those regions (step SB110). ) Is the same as the edge processing for the character or design block described above, except that the processing after step SB130 is executed after step SB110.

図6において、ステップSB110に後続して実行されるステップSB130においては、制御部210は、ステップSB110にて検出されたエッジの強度が所定の閾値を超えているか否かを判定する。そして、制御部210は、ステップSB130の判定結果が“Yes”である場合には、文字ブロックについてのエッジと同等であるとして、ステップSB110にて検出されたウェーブレット係数に文字用エッジ強調係数を乗算する(ステップSB140)。逆に、ステップSB130の判定結果が“No”である場合には、絵柄ブロックについてのエッジと同等であるとして、ステップSB110にて検出されたウェーブレット係数に絵柄用エッジ強調係数を乗算する(ステップSB150)。
以上が、各画像ブロックに対して施されるエッジ処理である。
In FIG. 6, in step SB130 executed subsequent to step SB110, the control unit 210 determines whether or not the edge strength detected in step SB110 exceeds a predetermined threshold value. Then, when the determination result in step SB130 is “Yes”, the control unit 210 assumes that the character block is equivalent to the edge and multiplies the wavelet coefficient detected in step SB110 by the character edge enhancement coefficient. (Step SB140). On the other hand, if the determination result in step SB130 is “No”, the wavelet coefficient detected in step SB110 is multiplied by the design edge enhancement coefficient, assuming that it is equivalent to the edge for the design block (step SB150). ).
The above is the edge processing applied to each image block.

図4に戻って、ステップSA130のエッジ処理が完了すると、制御部210は、ステップSA100にて生成したLL成分のウェーブレット係数と、ステップSA130にて画像ブロックの属性に応じたエッジ処理を施されたLH成分、HL成分およびHH成分のウェーブレット係数を入力として前述したHaarフィルタを用いて逆ウェーブレット変換を実行し、L*a*b*画像データを復元し(ステップSA140)、本エッジ強調処理を終了する。
以降、制御部210は、以上に説明したエッジ強調処理により得られたL*a*b*画像データに前述した後段色変換処理を施してYMCK画像データに変換し、このYMCK画像データを画像形成装置300に引渡して、そのYMCK画像データに応じた画像を出力させる。
Returning to FIG. 4, when the edge processing in step SA <b> 130 is completed, the control unit 210 performs edge processing according to the wavelet coefficient of the LL component generated in step SA <b> 100 and the attribute of the image block in step SA <b> 130. The wavelet coefficients of the LH component, the HL component, and the HH component are input, and the inverse wavelet transform is executed using the Haar filter described above to restore the L * a * b * image data (step SA140), and this edge enhancement processing is completed. To do.
Thereafter, the control unit 210 converts the L * a * b * image data obtained by the edge enhancement processing described above to YMCK image data by performing the above-described post-color conversion processing, and forms the YMCK image data as an image forming unit. The image is transferred to the apparatus 300 and an image corresponding to the YMCK image data is output.

(A−3:第1実施形態の効果)
以上に説明したように、本発明の第1実施形態に係る画像処理装置200によれば、ウェーブレット変換により得られるLL、LH、HLおよびHHの各成分の係数のうち、LL成分の係数のみを用いて、下地ブロックと下地以外のブロック(すなわち、文字や絵柄、不明ブロック)の弁別が行われ、前者については、エッジ検出が行われることがないため、従来の技術に比較して高速化することが可能になる。
また、エッジ強調に関しても、本発明の第1実施形態に係る画像処理装置200では、エッジ強調フィルタなどのデジタルフィルタを使わず、係数演算(すなわち、エッジに対応するウェーブレット係数に画像ブロックの属性に応じたエッジ強調係数を乗算する演算)で実現されるため、デジタルフィルタを使用する従来の技術に比較して高速化することが可能になる。
なお、上述した第1実施形態に、入力画像タイプに応じてエッジ判定用閾値や各エッジ強調係数、属性判別用の基準パターンを切り替えるような変形を加えても良いことは勿論であり、また、属性判定、エッジ検出およびエッジ強調などの各処理の処理負荷に応じて、複数プロセッサで並列に処理するような変形を加えても良い。
また、上述した実施形態では、本発明に係る画像処理装置に特徴的な画像処理を制御部210に実行させるためのプログラムが不揮発性記憶部230aに予め格納されている場合について説明した。しかしながら、例えばCD−ROM(Compact Disk- Read Only Memory)やDVD(Digital Versatile Disk)などのコンピュータ装置読み取り可能な記録媒体に、上記プログラムを記録して配布し、その記録媒体を用いて一般的なコンピュータ装置に上記プログラムをインストールするとしても良いことは勿論である。このようにすると、一般的なコンピュータ装置を本発明に係る画像処理装置として機能させることが可能になるといった効果を奏する。また、上述した実施形態では、本発明に係る画像処理装置に特徴的な各手段をソフトウェアモジュールで実現する場合について説明したが、ハードウェアモジュールで実現するとしても良いことは勿論である。
(A-3: Effect of the first embodiment)
As described above, according to the image processing apparatus 200 according to the first embodiment of the present invention, only the coefficients of the LL component among the coefficients of the LL, LH, HL, and HH components obtained by the wavelet transform are obtained. The background block and the blocks other than the background (that is, characters, pictures, and unknown blocks) are discriminated, and the former is not subjected to edge detection, so it is faster than the conventional technique. It becomes possible.
As for edge enhancement, the image processing apparatus 200 according to the first embodiment of the present invention does not use a digital filter such as an edge enhancement filter, and performs coefficient calculation (that is, sets wavelet coefficients corresponding to edges to image block attributes). Therefore, the speed can be increased as compared with the conventional technique using a digital filter.
Of course, the first embodiment described above may be modified so as to switch the threshold value for edge determination, each edge enhancement coefficient, and the reference pattern for attribute determination according to the input image type. Depending on the processing load of each process such as attribute determination, edge detection, and edge enhancement, a modification may be made such that a plurality of processors process in parallel.
In the above-described embodiment, a case has been described in which a program for causing the control unit 210 to execute image processing characteristic of the image processing apparatus according to the present invention is stored in advance in the nonvolatile storage unit 230a. However, for example, the program is recorded and distributed on a computer-readable recording medium such as a CD-ROM (Compact Disk-Read Only Memory) and a DVD (Digital Versatile Disk), and the recording medium is generally used. Of course, the program may be installed in the computer device. In this way, there is an effect that a general computer device can function as the image processing device according to the present invention. Further, in the above-described embodiment, a case has been described in which each characteristic unit of the image processing apparatus according to the present invention is realized by a software module. However, it is needless to say that it may be realized by a hardware module.

(B.第2実施形態)
次いで、本発明の第2実施形態に係る画像処理装置500について説明する。
(B−1:画像処理装置500の構成)
図7は、画像処理装置500の機能構成を表す機能ブロック図である。
図7に示すように、画像処理装置500は、前段色変換処理部510と、ウェーブレット変換部520と、明度成分処理部530と、彩度成分処理部540と、逆ウェーブレット変換部550と、後段色変換処理部560と、を有している。
(B. Second Embodiment)
Next, an image processing apparatus 500 according to the second embodiment of the present invention will be described.
(B-1: Configuration of the image processing apparatus 500)
FIG. 7 is a functional block diagram illustrating a functional configuration of the image processing apparatus 500.
As illustrated in FIG. 7, the image processing apparatus 500 includes a pre-stage color conversion processing unit 510, a wavelet conversion unit 520, a lightness component processing unit 530, a saturation component processing unit 540, an inverse wavelet conversion unit 550, and a post-stage. A color conversion processing unit 560.

前段色変換処理部510は、例えばUSBケーブルなどの通信線を介して画像読取装置100に接続されている。この前段色変換処理部510は、前段色変換処理用のLUTを記憶しており、上記通信線を介して画像読取装置100から受け取ったRGB画像データに前述した前段色変換処理を施してL*a*b*画像データを生成し、ウェーブレット変換部520へ引渡す。   The pre-stage color conversion processing unit 510 is connected to the image reading apparatus 100 via a communication line such as a USB cable. The pre-stage color conversion processing unit 510 stores a pre-stage color conversion process LUT, and performs the above-described pre-stage color conversion process on the RGB image data received from the image reading apparatus 100 via the communication line. a * b * image data is generated and delivered to the wavelet transform unit 520.

ウェーブレット変換部520は、前段色変換処理部510から引渡されたL*a*b*画像データに離散ウェーブレット変換を施し、明度成分(L)と彩度成分(a,b)の夫々について、前述したLL成分、LH成分、HL成分およびHH成分のウェーブレット係数を生成する。そして、このウェーブレット変換部520は、明度成分について生成した各ウェーブレット係数を明度成分処理部530へ引渡す一方、彩度成分について生成した各ウェーブレット係数を彩度成分処理部540へ引渡す。   The wavelet transform unit 520 performs discrete wavelet transform on the L * a * b * image data delivered from the pre-stage color conversion processing unit 510, and the lightness component (L) and the saturation component (a, b) are described above. The wavelet coefficients of the LL component, LH component, HL component, and HH component are generated. Then, the wavelet transform unit 520 delivers each wavelet coefficient generated for the lightness component to the lightness component processing unit 530, and passes each wavelet coefficient generated for the saturation component to the saturation component processing unit 540.

明度成分処理部530は、ウェーブレット変換部520から引渡された明度成分についての各ウェーブレット係数に、後述する適応フィルタ処理を施して逆ウェーブレット変換部550へ引渡す。彩度成分処理部540は、ウェーブレット変換部520から引渡された彩度成分についての各ウェーブレット係数に、後述する平滑化処理および彩度変換処理を施して逆ウェーブレット変換部550へ引渡す。なお、明度成分処理部530および彩度成分処理部540については、後に詳細に説明する。   The lightness component processing unit 530 performs adaptive filter processing, which will be described later, on each wavelet coefficient for the lightness component delivered from the wavelet transform unit 520 and delivers it to the inverse wavelet transform unit 550. The saturation component processing unit 540 performs smoothing processing and saturation conversion processing, which will be described later, on each wavelet coefficient for the saturation component delivered from the wavelet transformation unit 520, and delivers it to the inverse wavelet transformation unit 550. The lightness component processing unit 530 and the saturation component processing unit 540 will be described in detail later.

逆ウェーブレット変換部550は、明度成分処理部530から引渡された適応フィルタ処理済みの明度成分についての各ウェーブレット係数と、彩度成分処理部540から引渡された平滑化処理および彩度変換処理済みの彩度成分についての各ウェーブレット係数と、に逆ウェーブレット変換を施してL*a*b*画像データを復元し後段色変換処理部560へ引渡す。   The inverse wavelet transform unit 550 receives each wavelet coefficient for the adaptive filter processed lightness component delivered from the lightness component processing unit 530, and the smoothing processing and chroma conversion processing passed from the saturation component processing unit 540. Each wavelet coefficient for the saturation component is subjected to inverse wavelet transform to restore the L * a * b * image data and delivered to the subsequent color conversion processing unit 560.

後段色変換処理部560は、例えばUSBケーブルなどの通信線を介して画像形成装置300に接続されている。この後段色変換処理部560は、後段色変換処理用のLUTを記憶しており、逆ウェーブレット変換部550から引渡されたL*a*b*画像データに、前述した後段色変換処理を施して得られるYMCK画像データを上記通信線を介して画像形成装置300へ引渡す。   The post-stage color conversion processing unit 560 is connected to the image forming apparatus 300 via a communication line such as a USB cable. The post-stage color conversion processing unit 560 stores an LUT for the post-stage color conversion process, and performs the above-described post-stage color conversion process on the L * a * b * image data delivered from the inverse wavelet conversion unit 550. The obtained YMCK image data is delivered to the image forming apparatus 300 via the communication line.

このように、本実施形態に係る画像処理装置500も、先に説明した画像処理装置200と同様に、入力されたRGB画像データをL*a*b*画像データへ変換しさらにウェーブレット変換を施した後に、適応フィルタ処理や平滑化処理、彩度変換処理などの各種処理を施した後に逆ウェーブレット変換を施してL*a*b*画像データを復元し、その画像データをさらにYMCK画像データに変換して出力するものである。この画像処理装置500の構成要素のうち、前段色変換処理部510、ウェーブレット変換部520、逆ウェーブレット変換部550および後段色変換処理部560が行う処理については、前述した画像処理装置200が行う前段色変換処理、ウェーブレット変換処理、逆ウェーブレット変換処理および後段色変換処理と同一であるため詳細な説明を省略し、以下では、明度成分処理部530および彩度成分処理部540を中心に説明する。   As described above, the image processing apparatus 500 according to the present embodiment also converts the input RGB image data into L * a * b * image data and performs wavelet conversion, as in the image processing apparatus 200 described above. After that, various processing such as adaptive filter processing, smoothing processing, and saturation conversion processing is performed, and then inverse wavelet transform is performed to restore L * a * b * image data. The image data is further converted into YMCK image data. It is converted and output. Among the components of the image processing apparatus 500, the processes performed by the pre-stage color conversion processing section 510, the wavelet conversion section 520, the inverse wavelet conversion section 550, and the post-stage color conversion processing section 560 are the pre-stage performed by the image processing apparatus 200 described above. Since it is the same as the color conversion process, the wavelet conversion process, the inverse wavelet conversion process, and the subsequent color conversion process, a detailed description thereof will be omitted.

(B−2:明度成分処理部530および彩度成分処理部540の機能構成)
図8は、明度成分処理部530の機能構成を表す機能ブロック図である。
図8に示すように、明度成分処理部530は、エッジ検出部532および適応フィルタ処理部534を有しており、ウェーブレット変換部520より引渡された明度成分についてのウェーブレット係数のうち、LH成分、HL成分およびHH成分のウェーブレット係数をこれらエッジ検出部532および適応フィルタ処理部534へ引渡す。なお、LL成分のウェーブレット係数については、特段の処理が施されることなく、そのまま逆ウェーブレット変換部550へ引渡される。この明度成分処理部530は、エッジの調整を主な目的としており、LL成分にはエッジ特性が強く現れているわけではないからである。
(B-2: Functional configuration of lightness component processing unit 530 and saturation component processing unit 540)
FIG. 8 is a functional block diagram illustrating a functional configuration of the lightness component processing unit 530.
As shown in FIG. 8, the lightness component processing unit 530 includes an edge detection unit 532 and an adaptive filter processing unit 534, and among the wavelet coefficients for the lightness component delivered from the wavelet transform unit 520, the LH component, The HL component and the wavelet coefficients of the HH component are delivered to the edge detection unit 532 and the adaptive filter processing unit 534. Note that the wavelet coefficients of the LL component are delivered to the inverse wavelet transform unit 550 without being subjected to special processing. This is because the lightness component processing unit 530 mainly adjusts the edge, and the edge characteristic does not appear strongly in the LL component.

エッジ検出部532は、明度成分の画像を構成する各画素を注目画素として、エッジに対応する画素であるか否かを判定し、エッジであると判定した場合に所定のエッジ検出信号を適応フィルタ処理部534および彩度成分処理部540へ出力するとともに、そのエッジのエッジ方向を検出しその検出結果に応じたエッジ方向信号を彩度成分処理部540へ出力する。但し、詳細については後述するが、エッジ検出部532は、エッジに対応する画素であると判定された場合であっても、その注目画素が網点の構成要素と判定される場合には、上記エッジ信号やエッジ方向信号の出力は行わない。以下、図9に示すように、5×5のマトリクス状に画素ブロックの中心画素(図9:画素M)を注目画素として、エッジ検出部532が行うエッジ検出処理について図10を参照しつつ説明する。   The edge detection unit 532 determines whether each pixel constituting the brightness component image is a pixel of interest and determines whether the pixel corresponds to the edge. If the edge detection unit 532 determines that the pixel is an edge, the edge detection unit 532 applies an adaptive filter to a predetermined edge detection signal. In addition to outputting to the processing unit 534 and the saturation component processing unit 540, the edge direction of the edge is detected, and an edge direction signal corresponding to the detection result is output to the saturation component processing unit 540. However, although details will be described later, the edge detection unit 532 determines that the pixel of interest is a halftone dot component even when it is determined that the pixel corresponds to an edge. Edge signals and edge direction signals are not output. Hereinafter, as illustrated in FIG. 9, edge detection processing performed by the edge detection unit 532 with the central pixel (FIG. 9: pixel M) of a pixel block as a target pixel in a 5 × 5 matrix is described with reference to FIG. 10. To do.

図10は、エッジ検出部532が実行するエッジ検出処理の流れを示すフローチャートである。
図10に示すように、エッジ検出部532は、まず、上記注目画素についてLH(水平方向)、HL(垂直方向)およびHH(ななめ方向)の各成分についてエッジ連続度を算出する(ステップSC100)。
より詳細に説明すると、エッジ検出部532は、LH、HLおよびHHの各成分について、上記注目画素を含む対象領域を設定し、その領域内についてのウェーブレット係数の平均値を算出する。例えば、LH成分については、エッジ検出部532は、図9に示す画素ブロックにて注目画素を中心に水平方向(主走査方向)に並んでいる5個の画素(すなわち、図9の画素K、L、M、NおよびO)を対象領域として設定する。また、HL成分については、エッジ検出部532は、図9に示す画素ブロックにて注目画素を中心に垂直方向(副走査方向)に並んでいる5個の画素(すなわち、図9の画素C、H、M、RおよびW)を対象領域として設定する。そして、HH成分については、エッジ検出部532は、図9に示す画素ブロックにて注目画素を中心に主走査方向に対して45°および135°の方向に並んでいる5個の画素(すなわち、前者については、図9の画素E、I、M、QおよびU、後者については、画素A、G、M、SおよびY)を対象領域として設定する。次いで、エッジ検出部532は、上記対象領域内の各画素について、その画素値と上記平均値との差の絶対値を算出し、その絶対値に所定のゲイン係数Fを乗算して得られる値が所定の閾値とを超えている画素の数を上記エッジ連続度として算出する。
FIG. 10 is a flowchart showing the flow of edge detection processing executed by the edge detection unit 532.
As shown in FIG. 10, the edge detection unit 532 first calculates edge continuity for each component of LH (horizontal direction), HL (vertical direction), and HH (slick direction) for the pixel of interest (step SC100). .
More specifically, the edge detection unit 532 sets a target region including the target pixel for each of the LH, HL, and HH components, and calculates an average value of wavelet coefficients in the region. For example, for the LH component, the edge detection unit 532 includes five pixels arranged in the horizontal direction (main scanning direction) around the target pixel in the pixel block shown in FIG. 9 (that is, the pixel K, FIG. 9). L, M, N, and O) are set as target areas. For the HL component, the edge detection unit 532 includes five pixels arranged in the vertical direction (sub-scanning direction) around the target pixel in the pixel block shown in FIG. 9 (that is, the pixel C, FIG. 9). H, M, R, and W) are set as target areas. For the HH component, the edge detection unit 532 includes five pixels arranged in the 45 ° and 135 ° directions with respect to the main scanning direction around the target pixel in the pixel block shown in FIG. For the former, the pixels E, I, M, Q, and U of FIG. 9 are set as the target region, and for the latter, the pixels A, G, M, S, and Y) are set as the target regions. Next, the edge detection unit 532 calculates an absolute value of a difference between the pixel value and the average value for each pixel in the target region, and a value obtained by multiplying the absolute value by a predetermined gain coefficient F. The number of pixels that exceeds a predetermined threshold is calculated as the edge continuity.

上記ゲイン係数Fは、背景画素濃度値bminと図10に示す対応関係を有する値である。図10に示すように、ゲイン係数Fは、背景画素濃度値bminの値がDth1に達するまでは“0”で、背景画素濃度値bminの値がDth1を超えると線形に増加し、背景画素濃度値bminの値がDth2に達した以降は、一定値(1.0)になるといった特性を有している。このゲイン係数Fは、明度成分についてのHL、LHおよびHH成分におけるエッジを検出する際に、文字領域のようにLL成分の背景画素濃度が低い領域については、エッジを検出し易くする一方、絵柄領域のように背景画素濃度が高い領域については、得ジを検出し難くするためのものである。なお、背景画素濃度値bminとは、以下のようにして得られる値である。すなわち、図9に示す画素ブロックにおいて、主走査方向(行方向)に並んでいる5つの画素(例えば、画素A〜画素E)についてのLL成分の画素値の平均値を各行毎に求めるとともに、副走査方向(列方向)に並んでいる5つの画素(例えば、画素A〜画素U)についてLL成分の画素値の平均値を各列毎に求め、それら10個の平均値内で最小の値が上記背景画素濃度値bminである。本実施形態では、図10に示す対応関係を表すゲイン係数算出用LUTが予めエッジ検出部532に格納されており、上記のようにして算出された背景画素濃度値bminに対応するゲイン係数Fをそのゲイン係数算出用LUTから読み出すことによって、注目画素に対応するゲイン係数Fが取得される。   The gain coefficient F is a value having the correspondence relationship shown in FIG. 10 with the background pixel density value bmin. As shown in FIG. 10, the gain coefficient F is “0” until the background pixel density value bmin reaches Dth1, and increases linearly when the background pixel density value bmin exceeds Dth1, and the background pixel density After the value bmin reaches Dth2, it has a characteristic that it becomes a constant value (1.0). This gain factor F makes it easy to detect an edge in an area where the background pixel density of the LL component is low, such as a character area, when detecting an edge in the HL, LH and HH components for the brightness component. This is to make it difficult to detect the gain of an area having a high background pixel density such as an area. The background pixel density value bmin is a value obtained as follows. That is, in the pixel block shown in FIG. 9, an average value of pixel values of LL components for five pixels (for example, pixel A to pixel E) arranged in the main scanning direction (row direction) is obtained for each row. The average value of the pixel values of the LL component is obtained for each column for five pixels (for example, pixel A to pixel U) arranged in the sub-scanning direction (column direction), and the smallest value among these ten average values Is the background pixel density value bmin. In this embodiment, the gain coefficient calculation LUT representing the correspondence shown in FIG. 10 is stored in the edge detection unit 532 in advance, and the gain coefficient F corresponding to the background pixel density value bmin calculated as described above is obtained. By reading from the gain coefficient calculation LUT, the gain coefficient F corresponding to the target pixel is acquired.

ステップSC100に後続して実行されるステップSC110においては、エッジ検出部532は、水平方向,垂直方向、45°方向と135°方向の4つの方向の夫々についてステップSC100で算出したエッジ連続度を所定の閾値と比較し、それら4つのエッジ連続度のうちの少なくとも1つがその閾値を超えているか否かを判定する。そして、エッジ検出部532は、上記4つのエッジ連続度の少なくとも1つが上記閾値を超えている場合(ステップSC110:Yes)には、上記注目画素が網点の構成要素であるか否かを判定する(ステップSC120)。逆に、上記4つのエッジ連続度が何れも上記閾値を超えていない場合には、エッジ検出部532は、上記注目画素はエッジではないと判定してエッジ検出処理を終了する。   In step SC110 executed subsequent to step SC100, the edge detection unit 532 determines the edge continuity calculated in step SC100 for each of the four directions of the horizontal direction, the vertical direction, the 45 ° direction, and the 135 ° direction. To determine whether or not at least one of the four edge continuity values exceeds the threshold value. If at least one of the four edge continuity values exceeds the threshold value (step SC110: Yes), the edge detection unit 532 determines whether the pixel of interest is a halftone dot component. (Step SC120). Conversely, if none of the four edge continuity values exceeds the threshold value, the edge detection unit 532 determines that the pixel of interest is not an edge, and ends the edge detection process.

さて、上記ステップSC120においては、エッジ検出部532は、Ea1,Ea2、Ea3、Ea4、Eb1、Eb2、Eb3、Eb4、aaおよびbbの10個の変数を利用して上記注目画素が網点の構成要素であるか否かを判定する。具体的には、エッジ検出部532には、まず、Ea1〜Ea4およびEb1〜Eb4の各に以下に説明するようにして“0”または“1”の何れかをセットする。   In step SC120, the edge detection unit 532 uses the ten variables Ea1, Ea2, Ea3, Ea4, Eb1, Eb2, Eb3, Eb4, aa, and bb to configure the pixel of interest as a halftone dot. Determine if it is an element. Specifically, in the edge detection unit 532, first, “0” or “1” is set in each of Ea1 to Ea4 and Eb1 to Eb4 as described below.

(1)Ea1〜Ea4については、HH成分のウェーブレット係数(画素値)を参照して設定する。
具体的には、エッジ検出部532は、
画素Aの画素値と注目画素(すなわち、画素M)の画素値の差の絶対値が所定の閾値を超えている場合には、Ea1に“1”をセットし、逆の場合には、Ea1に“0”をセットし、
画素Eの画素値と注目画素の画素値の差の絶対値が所定の閾値を超えている場合には、Ea2に“1”をセットし、逆の場合には、Ea2に“0”をセットし、
画素Uの画素値と注目画素の画素値の差の絶対値が所定の閾値を超えている場合には、Ea3に“1”をセットし、逆の場合には、Ea3に“0”をセットし、
画素Yの画素値と注目画素の画素値の差の絶対値が所定の閾値を超えている場合には、Ea4に“1”をセットし、逆の場合には、Ea4に“0”をセットする。
(1) Ea1 to Ea4 are set with reference to wavelet coefficients (pixel values) of HH components.
Specifically, the edge detection unit 532
When the absolute value of the difference between the pixel value of the pixel A and the pixel value of the target pixel (that is, the pixel M) exceeds a predetermined threshold, “1” is set to Ea1, and in the opposite case, Ea1 Set “0” to
When the absolute value of the difference between the pixel value of the pixel E and the pixel value of the target pixel exceeds a predetermined threshold, “1” is set to Ea2, and in the opposite case, “0” is set to Ea2. And
When the absolute value of the difference between the pixel value of the pixel U and the pixel value of the target pixel exceeds a predetermined threshold, “1” is set to Ea3, and in the opposite case, “0” is set to Ea3. And
When the absolute value of the difference between the pixel value of the pixel Y and the pixel value of the target pixel exceeds a predetermined threshold, “1” is set to Ea4, and in the opposite case, “0” is set to Ea4. To do.

(2)Eb1およびEb2については、HL成分のウェーブレット係数を参照して設定する。
具体的には、エッジ検出部532は、
画素Cの画素値と注目画素の画素値の差の絶対値が所定の閾値を超えている場合には、Eb1に“1”をセットし、逆の場合には、Eb1に“0”をセットし、
画素Wの画素値と注目画素の画素値の差の絶対値が所定の閾値を超えている場合には、Eb2に“1”をセットし、逆の場合には、Eb2に“0”をセットする。
(2) Eb1 and Eb2 are set with reference to the wavelet coefficient of the HL component.
Specifically, the edge detection unit 532
When the absolute value of the difference between the pixel value of the pixel C and the pixel value of the target pixel exceeds a predetermined threshold value, “1” is set to Eb1, and in the opposite case, “0” is set to Eb1. And
When the absolute value of the difference between the pixel value of the pixel W and the pixel value of the target pixel exceeds a predetermined threshold, “1” is set to Eb2, and in the opposite case, “0” is set to Eb2. To do.

(3)Eb3およびEb4については、LH成分のウェーブレット係数を参照して設定する。
具体的には、エッジ検出部532は、
画素Kの画素値と注目画素の画素値の差の絶対値が所定の閾値を超えている場合には、Eb3に“1”をセットし、逆の場合には、Eb3に“0”をセットし、
画素Oの画素値と注目画素の画素値の差の絶対値が所定の閾値を超えている場合には、Eb4に“1”をセットし、逆の場合には、Eb4に“0”をセットする。
(3) Eb3 and Eb4 are set with reference to the wavelet coefficients of the LH component.
Specifically, the edge detection unit 532
When the absolute value of the difference between the pixel value of the pixel K and the pixel value of the target pixel exceeds a predetermined threshold, Eb3 is set to “1”, and in the opposite case, Eb3 is set to “0”. And
When the absolute value of the difference between the pixel value of the pixel O and the pixel value of the pixel of interest exceeds a predetermined threshold, “1” is set to Eb4, and in the opposite case, “0” is set to Eb4. To do.

そして、エッジ検出部532は、Ea1〜Ea4の総和をaaにセットするとともに、Eb1〜Eb4の総和をbbにセットし、
aaの値が“4”であり、かつ、bbの値が“0”である場合、
または、aaの値が“0”であり、かつ、bbの値が“4”である場合、
または、aaとbbの両者がともに“4”である場合、に上記注目画素は網点の構成要素であると判定する。
以上が、図10に示すステップSC120においてエッジ検出部532が実行する網点判定処理である。なお、本実施形態では、上記10個の変数を利用して注目画素が網点の構成要素であるか否かを判定する場合について説明したが、他の手法により係る判定を行っても良いことは勿論である。
Then, the edge detection unit 532 sets the sum of Ea1 to Ea4 to aa and sets the sum of Eb1 to Eb4 to bb.
When the value of aa is “4” and the value of bb is “0”,
Or, when the value of aa is “0” and the value of bb is “4”,
Alternatively, if both aa and bb are both “4”, it is determined that the target pixel is a halftone dot component.
The above is the halftone dot determination process executed by the edge detection unit 532 in step SC120 shown in FIG. In the present embodiment, the case where it is determined whether the pixel of interest is a halftone dot component using the above ten variables has been described. However, the determination may be performed by another method. Of course.

図10に示すように、ステップSC120の判定結果が“Yes”である場合(すなわち、注目画素が網点の構成要素であると判定した場合)には、エッジ検出部532は、前述したようにエッジ検出信号を出力することなく、本エッジ検出処理を終了し、逆に、ステップSC120の判定結果が“No”である場合には、エッジ検出信号を出力する(ステップSC130)。   As shown in FIG. 10, when the determination result in step SC120 is “Yes” (that is, when it is determined that the pixel of interest is a component of halftone dots), the edge detection unit 532 performs the processing as described above. The edge detection processing is terminated without outputting the edge detection signal. Conversely, when the determination result in step SC120 is “No”, the edge detection signal is output (step SC130).

図10のステップSC130に後続して実行されるステップSC140においては、エッジ検出部532は、エッジであると判定された注目画素についてそのエッジ方向を検出しその検出結果を表すエッジ方向検出信号を出力する。より詳細に説明すると、エッジ検出部532は、Ex1、Ex2、Ey1、Ey2、LxおよびLyの6つの変数を利用して上記エッジ方向を検出する。   In step SC140 executed subsequent to step SC130 in FIG. 10, the edge detection unit 532 detects the edge direction of the target pixel determined to be an edge and outputs an edge direction detection signal representing the detection result. To do. More specifically, the edge detection unit 532 detects the edge direction using six variables Ex1, Ex2, Ey1, Ey2, Lx, and Ly.

具体的には、エッジ検出部532は、 まず、Ex1、Ex2,Ey1およびEy2の各に以下に説明するようにして値を設定する。
Ex1については、LH成分の画素G、画素Hおよび画素I(図9参照)の画素値の和をセットする。
Ex2については、LH成分の画素Q、画素Rおよび画素S(図9参照)の画素値の和をセットする。
Ey1については、HL成分の画素G、画素Lおよび画素Q(図9参照)の画素値の和をセットする。
Ey2については、HL成分の画素I、画素Nおよび画素S(図9参照)の画素値の和をセットする。
Specifically, the edge detection unit 532 first sets values for each of Ex1, Ex2, Ey1, and Ey2 as described below.
For Ex1, the sum of the pixel values of the pixel G, pixel H and pixel I (see FIG. 9) of the LH component is set.
For Ex2, the sum of the pixel values of the LH component pixel Q, pixel R and pixel S (see FIG. 9) is set.
For Ey1, the sum of the pixel values of the HL component pixel G, pixel L, and pixel Q (see FIG. 9) is set.
For Ey2, the sum of pixel values of the HL component pixel I, pixel N, and pixel S (see FIG. 9) is set.

そして、エッジ検出部532は、上記のようにして算出したEx1とEx2との差の絶対値をLxにセットするとともに、Ey1とEy2との差の絶対値をLyにセットする。
次いで、エッジ検出部532は、上記LxとLyとを所定の閾値と比較し、両者がともにその閾値よりも小さい場合には、エッジ方向がないこと(すなわち、エッジがないことを)を示すエッジ方向信号を出力し、LxまたはLyの少なくとも一方が上記閾値を超えている場合には、LxとLyのどちらが大きいかを判定する。
Then, the edge detection unit 532 sets the absolute value of the difference between Ex1 and Ex2 calculated as described above to Lx, and sets the absolute value of the difference between Ey1 and Ey2 to Ly.
Next, the edge detection unit 532 compares Lx and Ly with a predetermined threshold value, and if both are smaller than the threshold value, an edge indicating that there is no edge direction (that is, no edge). When a direction signal is output and at least one of Lx and Ly exceeds the threshold value, it is determined which of Lx and Ly is greater.

LxがLyよりも大きい場合には、エッジ検出部532は、さらに、前述したEx1とEx2のどちらが大きいかを判定し、Ex1が大きい場合には、Ex1を算出する際に用いた画素領域(すなわち、画素G、HおよびI)に沿った方向(以下、方向1と呼ぶ)がエッジ方向であると判定し、その方向を表すエッジ方向信号を出力し、逆に、Ex2が大きい場合には、Ex2を算出する際に用いた画素領域(すなわち、画素Q、RおよびS)に沿った方向(以下、方向2と呼ぶ)がエッジ方向であると判定し、その方向を表すエッジ方向信号を出力する。   When Lx is larger than Ly, the edge detection unit 532 further determines which of the above-described Ex1 and Ex2 is larger, and when Ex1 is large, the pixel region used when calculating Ex1 (that is, Ex1) , The direction along the pixels G, H, and I (hereinafter referred to as direction 1) is determined to be the edge direction, and an edge direction signal representing the direction is output. Conversely, when Ex2 is large, It is determined that the direction (hereinafter referred to as direction 2) along the pixel region (that is, pixels Q, R, and S) used when calculating Ex2 is the edge direction, and an edge direction signal indicating the direction is output. To do.

逆に、LyがLx以上である場合には、エッジ検出部532は、さらに、前述したEy1とEy2のどちらが大きいかを判定し、Ey1が大きい場合には、Ey1を算出する際に用いた画素領域(すなわち、画素G、LおよびQ)に沿った方向(以下、方向3と呼ぶ)がエッジ方向であると判定し、その方向を表すエッジ方向信号を出力し、逆に、Ey2が大きい場合には、Ey2を算出する際に用いた画素領域(すなわち、画素I、NおよびS)に沿った方向(以下、方向4と呼ぶ)がエッジ方向であると判定し、その方向を表すエッジ方向信号を出力する。
以上が、図10に示すステップSC140においてエッジ検出部532が実行するエッジ方向検出処理である。詳細については後述するが、このようにしてエッジ検出部532から出力されるエッジ方向信号は、ゴースト(例えば、黒エッジの近傍に赤など他の色のエッジが出現し、エッジ部に色のにじみが生じる現象)を補正するための平滑化処理を彩度成分処理部540が実行する際に利用される。なお、本実施形態では、上記6個の変数を利用してエッジ方向の検出を行う場合について説明したが、他の手法によりエッジ方向の検出を行っても良いことは勿論である。
Conversely, when Ly is greater than or equal to Lx, the edge detection unit 532 further determines which of the above-described Ey1 and Ey2 is greater, and when Ey1 is greater, the pixel used when calculating Ey1 When the direction along the region (that is, the pixels G, L, and Q) (hereinafter referred to as direction 3) is determined to be the edge direction, an edge direction signal indicating the direction is output, and conversely, Ey2 is large Determines that the direction (hereinafter referred to as direction 4) along the pixel region (that is, pixels I, N, and S) used in calculating Ey2 is the edge direction, and represents the edge direction. Output a signal.
The above is the edge direction detection processing executed by the edge detection unit 532 in step SC140 shown in FIG. Although details will be described later, the edge direction signal output from the edge detection unit 532 in this way is a ghost (for example, an edge of another color such as red appears in the vicinity of the black edge, and the color blurs at the edge part). This is used when the saturation component processing unit 540 executes a smoothing process for correcting the phenomenon that occurs. In the present embodiment, the case where the edge direction is detected using the above six variables has been described, but it is needless to say that the edge direction may be detected by other methods.

適応フィルタ処理部534は、上記注目画素に対応するLH成分、HL成分およびHH成分の各ウェーブレット係数に、前述した文字用エッジ強調係数と絵柄用エッジ強調係数の何れか一方を乗算して逆ウェーブレット変換部550へ出力する。より詳細に説明すると、上記注目画素に対してエッジ検出信号がエッジ検出部532から出力された場合には、上記各ウェーブレット係数に文字用エッジ強調係数を乗算して出力し、逆に、上記エッジ検出信号が供給された場合には絵柄用エッジ強調係数を乗算して出力する。これにより、実空間におけるフィルタ処理が実現される。
以上が明度成分処理部530の構成および機能である。
The adaptive filter processing unit 534 multiplies the wavelet coefficients of the LH component, the HL component, and the HH component corresponding to the pixel of interest by any one of the above-described character edge enhancement coefficient and pattern edge enhancement coefficient, and outputs an inverse wavelet. The data is output to the conversion unit 550. More specifically, when an edge detection signal is output from the edge detection unit 532 for the pixel of interest, the wavelet coefficients are multiplied by a character edge enhancement coefficient and output. When the detection signal is supplied, it is multiplied by the pattern edge enhancement coefficient and output. Thereby, filter processing in real space is realized.
The above is the configuration and function of the lightness component processing unit 530.

(B−3:彩度成分処理部540の機能構成)
図12は、彩度成分処理部540の機能構成を表す機能ブロック図である。
図12に示すように、彩度成分処理部540は、平滑化処理部542、彩度算出部544、黒エッジ強度算出部546および彩度変換部548を有している。なお、平滑化処理部542、および、彩度変換部548は、実際には、彩度成分毎(すなわち、a*成分およびb*成分毎)に設けられているが、説明を簡略化するため、図12ではそれぞれ1つづつ例示されている。
(B-3: Functional configuration of the saturation component processing unit 540)
FIG. 12 is a functional block diagram illustrating a functional configuration of the saturation component processing unit 540.
As illustrated in FIG. 12, the saturation component processing unit 540 includes a smoothing processing unit 542, a saturation calculation unit 544, a black edge strength calculation unit 546, and a saturation conversion unit 548. Note that the smoothing processing unit 542 and the saturation conversion unit 548 are actually provided for each saturation component (that is, for each a * component and b * component), but in order to simplify the description. In FIG. 12, one by one is illustrated.

ウェーブレット変換部520から引渡された彩度成分についてのウェーブレット係数のうち、LL成分については彩度成分毎にその彩度成分に対応する彩度算出部544および彩度変換部548へ引渡され、LH成分、HL成分およびHH成分については彩度成分毎にその彩度成分に対応する平滑化処理部542へ引渡される。   Of the wavelet coefficients for the saturation component delivered from the wavelet transform unit 520, the LL component is delivered to the saturation calculation unit 544 and the saturation transformation unit 548 corresponding to the saturation component for each saturation component, and the LH The component, the HL component, and the HH component are delivered to the smoothing processing unit 542 corresponding to the saturation component for each saturation component.

平滑化処理部542は、ウェーブレット変換部520から出力される彩度成分についてのウェーブレット係数のうちのLH成分、HL成分およびHH成分のウェーブレット係数が彩度成分毎(すなわち、a*成分、b*成分毎)に引渡されるとともに、前述したエッジ方向信号が引渡される。この平滑化処理部542は、エッジ方向信号の信号値に応じた領域(以下、平滑化領域)の各ウェーブレット係数を所定の値(本実施実施形態では、“0”)に書き換えてその平滑化領域の彩度を平滑化(すなわち、黒1色化)し、逆ウェーブレット変換部550へ出力する。   The smoothing processing unit 542 sets the wavelet coefficients of the LH component, the HL component, and the HH component of the saturation components output from the wavelet transform unit 520 for each saturation component (ie, a * component, b *). For each component) and the aforementioned edge direction signal is delivered. The smoothing processing unit 542 rewrites each wavelet coefficient in a region corresponding to the signal value of the edge direction signal (hereinafter referred to as a smoothing region) to a predetermined value (in this embodiment, “0”) and smoothes the smoothed signal. The saturation of the region is smoothed (that is, black is changed to one color) and output to the inverse wavelet transform unit 550.

前述したように、エッジ検出部532から出力されるエッジ方向検出信号は、エッジ方向なしを表す信号値および上記方向1〜4の何れかの方向を表す信号値の5種類の信号値を取り得る。本実施形態では、平滑化処理部542は、エッジ方向検出信号の上記5種類の信号値について、以下のように平滑化領域を設定する。すなわち、エッジなしを示する信号値である場合には、注目画素(図9:画素M)を中心とした3×3のマトリクス状の領域を上記平滑化領域として選択する。また、平滑化処理部542は、方向1を示す信号値である場合には、前述した方向2に対応する3画素からなる領域を上記平滑化領域として選択し、方向2を示す信号値である場合には、前述した方向1に対応する3画素からなる領域を上記平滑化領域として選択する。そして、平滑化処理部542は、方向3を示す信号値である場合には、前述した方向4に対応する3画素からなる領域を上記平滑化領域として選択し、方向4を示す信号値である場合には、前述した方向3に対応する3画素からなる領域を上記平滑化領域として選択する。このようにして選択された平滑化領域に対応するLH、HLおよびHH成分の各画素の画素値(ウェーブレット係数)が全て“0”に書き換えられるため、その平滑化領域は黒1色領域に変換され、ゴーストの発生が抑止される。   As described above, the edge direction detection signal output from the edge detection unit 532 can take five types of signal values: a signal value indicating no edge direction and a signal value indicating any one of the directions 1 to 4. . In the present embodiment, the smoothing processing unit 542 sets a smoothing region as follows for the above five types of signal values of the edge direction detection signal. That is, when the signal value indicates that there is no edge, a 3 × 3 matrix area centered on the target pixel (FIG. 9: pixel M) is selected as the smoothing area. In addition, when the signal value indicates the direction 1, the smoothing processing unit 542 selects the region including three pixels corresponding to the direction 2 described above as the smoothing region, and the signal value indicates the direction 2. In this case, a region composed of three pixels corresponding to the above-described direction 1 is selected as the smoothing region. Then, when the signal value indicates the direction 3, the smoothing processing unit 542 selects the region including the three pixels corresponding to the direction 4 described above as the smoothing region, and the signal value indicates the direction 4. In this case, a region composed of three pixels corresponding to the above-described direction 3 is selected as the smoothing region. Since the pixel values (wavelet coefficients) of the LH, HL, and HH components corresponding to the smoothing area selected in this way are all rewritten to “0”, the smoothing area is converted to a black one-color area. Generation of ghosts is suppressed.

彩度算出部544は、各彩度成分のウェーブレット変換係数(LL成分のみ)を受け取り、そのウェーブレット係数に応じて彩度C*を算出して黒エッジ強度算出部546へ引渡す。より詳細に説明すると、彩度算出部544は、a*成分についのウェーブレット係数とb*成分についのウェーブレット係数とに夫々4ビットの量子化を施した後に、その各々の値を2乗して加算し、その加算値の平方根を上記C*として出力する。
なお、本実施形態では、上記演算を実行することによって彩度C*を算出する場合について説明したが、a*成分についのウェーブレット係数の取り得る値およびb*成分についのウェーブレット係数の取り得る値に、その値を用いて上記演算により算出される彩度C*の値を対応付けて書き込んだLUTを彩度算出部544に記憶させておき、入力されたウェーブレット係数に応じた彩度C*をそのLUTを参照することによって求めるようにしても勿論良い。このようにすると、画像処理の実行過程で彩度算出演算を行う必要がなく、その処理速度を高速化することが可能になる。
The saturation calculation unit 544 receives the wavelet transform coefficient (only the LL component) of each saturation component, calculates the saturation C * according to the wavelet coefficient, and delivers it to the black edge intensity calculation unit 546. More specifically, the saturation calculation unit 544 performs 4-bit quantization on the wavelet coefficient for the a * component and the wavelet coefficient for the b * component, respectively, and then squares each value. Addition is performed, and the square root of the addition value is output as C *.
In this embodiment, the case where the saturation C * is calculated by executing the above calculation has been described. However, the value that can be taken by the wavelet coefficient for the a * component and the value that can be taken by the wavelet coefficient for the b * component. In addition, the saturation calculation unit 544 stores the LUT in which the value is used in association with the value of the saturation C * calculated by the above calculation, and the saturation C * corresponding to the input wavelet coefficient is stored. Of course, it may be obtained by referring to the LUT. In this way, it is not necessary to perform saturation calculation in the image processing execution process, and the processing speed can be increased.

黒エッジ強度算出部546は、彩度算出部544から引渡された彩度C*に基づいて彩度変換係数fcを算出するとともに、エッジ検出部532から引渡されたエッジ検出信号に基づいてエッジ強度eを算出しそのエッジ強度eに基づいてエッジ強度係数feを算出する。ここで、エッジ強度eは、注目画素に対応するLH、HLおよびHH成分のウェーブレット係数のうち、最大の値を有するウェーブレット係数の絶対値である。そして、黒エッジ強度算出部546は、彩度変換係数fcとエッジ強度係数feとの積に1.0を加算して黒エッジ強度fbを算出し、その黒エッジ強度fbを彩度変換部548へ出力する。
より詳細に説明すると、黒エッジ強度算出部546には、エッジ強度eとエッジ強度係数feとについて図13(a)に示す対応関係を表すエッジ強度係数用LUTと、彩度c*と彩度変換係数fcとについて図13(b)に示す対応関係を表す彩度変換係数用LUTとが格納されている。黒エッジ強度算出部546は、これらLUTを参照して彩度変換係数fcとエッジ強度係数feとを取得し、上記演算を行って上記黒エッジ強度fbを算出する。なお、彩度変換係数fcとエッジ強度係数feとに、その組み合わせで算出される黒エッジ強度fbの値を対応付けたLUTを黒エッジ強度算出部546に記憶させておき、そのLUTを参照することによって上記黒エッジ強度fbを取得するようにしても勿論良い。
The black edge strength calculation unit 546 calculates the saturation conversion coefficient fc based on the saturation C * delivered from the saturation calculation unit 544 and also uses the edge detection signal delivered from the edge detection unit 532 to determine the edge strength. e is calculated, and an edge strength coefficient fe is calculated based on the edge strength e. Here, the edge strength e is the absolute value of the wavelet coefficient having the maximum value among the wavelet coefficients of the LH, HL, and HH components corresponding to the target pixel. Then, the black edge strength calculation unit 546 calculates 1.0 by adding 1.0 to the product of the saturation conversion coefficient fc and the edge strength coefficient fe, and calculates the black edge strength fb as the saturation conversion unit 548. Output to.
More specifically, the black edge strength calculation unit 546 includes an edge strength coefficient LUT representing the correspondence relationship shown in FIG. 13A for the edge strength e and the edge strength coefficient fe, and the saturation c * and the saturation. A saturation conversion coefficient LUT representing the correspondence shown in FIG. 13B is stored for the conversion coefficient fc. The black edge strength calculation unit 546 obtains the saturation conversion coefficient fc and the edge strength coefficient fe with reference to these LUTs, performs the above calculation, and calculates the black edge strength fb. The LUT in which the saturation conversion coefficient fc and the edge intensity coefficient fe are associated with the value of the black edge intensity fb calculated by the combination thereof is stored in the black edge intensity calculation unit 546, and the LUT is referred to. Of course, the black edge strength fb may be acquired.

彩度変換部548は、ウェーブレット係数a*およびb*に、黒エッジ強度算出部546から引渡された黒エッジ強度fbを乗算し、その算出結果を逆ウェーブレット変換部550へ引渡す。ここで、黒エッジ強度fbは、注目画素がエッジ部と非エッジ部の何れに属するのか、および、その注目画素が低彩度(すなわち、黒)領域と高彩度領域の何れに属するのかの組み合わせに応じて、図13(c)に示す値となるため、この彩度変換部548による変換後のウェーブレット係数a*´およびb*´は、図14に示す値となる。ここで注目すべき点は、注目画素が低彩度領域に属し、かつ、エッジ領域に属する場合には、a*´およびb*´の値は何れも0(すなわち、純黒)になる点である。これにより、黒エッジの近傍にゴーストが発生することが回避される。
以上が彩度成分処理部540の構成および機能である。
The saturation conversion unit 548 multiplies the wavelet coefficients a * and b * by the black edge strength fb delivered from the black edge strength calculation unit 546, and delivers the calculation result to the inverse wavelet transformation unit 550. Here, the black edge strength fb is a combination of whether the pixel of interest belongs to an edge portion or a non-edge portion, and whether the pixel of interest belongs to a low saturation (ie, black) region or a high saturation region. Accordingly, since the values shown in FIG. 13C are obtained, the wavelet coefficients a * ′ and b * ′ after the conversion by the saturation conversion unit 548 become the values shown in FIG. The point to be noted here is that when the target pixel belongs to the low saturation region and the edge region, the values of a * ′ and b * ′ are both 0 (that is, pure black). It is. This avoids the occurrence of a ghost near the black edge.
The above is the configuration and function of the saturation component processing unit 540.

(B−4:第2実施形態の効果)
以上に説明したように、本第2実施形態に係る画像処理装置500は上記のような構成にしたため、ウェーブレット変換を行わずにエッジ検出などの画像処理を行う場合に比較して、処理次元数を大幅に減らすことが可能になり処理速度が向上する、といった効果を奏する。
また、本実施形態によれば、エッジ強調などのフィルタ処理が、ウェーブレット係数に対する係数乗算で実行されるため、デジタルフィルタを用いて画素値の積和演算でフィルタ処理を実行する従来技術に比較して、そのフィルタ処理に要する演算量を削減することが可能になる、といった効果を奏する。
なお、上述した第2実施形態では、本発明に係る画像処理装置を、前段色変換処理部510、ウェーブレット変換部520、明度成分処理部530、彩度成分処理部540、逆ウェーブレット変換部550および後段色変換処理部560を組み合わせて構成する場合について説明したが、例えば、図2に示すハードウェア構成を有するコンピュータ装置に、上記各部が担っている機能を実現させるプログラムをその不揮発性記憶部にインストールし、そのプログラムにしたがって制御部を作動させるようにしても良い。
(B-4: Effects of the second embodiment)
As described above, since the image processing apparatus 500 according to the second embodiment is configured as described above, the number of processing dimensions is smaller than when image processing such as edge detection is performed without performing wavelet transform. Can be greatly reduced, and the processing speed is improved.
In addition, according to the present embodiment, since filter processing such as edge enhancement is performed by coefficient multiplication on wavelet coefficients, it is compared with the conventional technique that performs filter processing by product-sum operation of pixel values using a digital filter. Thus, it is possible to reduce the amount of calculation required for the filter processing.
In the second embodiment described above, the image processing apparatus according to the present invention includes a pre-stage color conversion processing unit 510, a wavelet conversion unit 520, a lightness component processing unit 530, a saturation component processing unit 540, an inverse wavelet conversion unit 550, and The case where the subsequent color conversion processing unit 560 is configured in combination has been described. For example, a program that realizes the functions of the above units in the computer device having the hardware configuration illustrated in FIG. 2 is stored in the nonvolatile storage unit. You may make it install and operate a control part according to the program.

(C:変形例)
以上、本発明の第1および第2実施形態について説明したが、係る実施形態に以下に述べるような変形を加えても良いことは勿論である。
(C−1:変形例1)
上述した第1および第2実施形態では、画像読取装置100から引渡されたRGB画像データをYMCK画像データに変換して画像形成装置300へ引渡す場合について説明したが、その処理結果の出力先は画像形成装置に限定されるものではなく、例えば液晶ディスプレイなどの表示装置を備えたコンピュータ装置へ上記処理結果を引渡し、その処理結果に応じた画像を上記表示装置に表示させるようにしても良く、また、データベースを備えたコンピュータ装置に上記処理結果を引渡しそのデータベースに登録させるようにしても良い。
(C: Modification)
Although the first and second embodiments of the present invention have been described above, it goes without saying that the following modifications may be added to such embodiments.
(C-1: Modification 1)
In the first and second embodiments described above, the case where the RGB image data delivered from the image reading apparatus 100 is converted into YMCK image data and delivered to the image forming apparatus 300 has been described. However, the output destination of the processing result is an image. The present invention is not limited to the forming apparatus, and the processing result may be delivered to a computer device having a display device such as a liquid crystal display, and an image corresponding to the processing result may be displayed on the display device. Alternatively, the processing result may be delivered to a computer apparatus provided with a database and registered in the database.

(C−2:変形例2)
上述した第1および第2実施形態では、画像読取装置100から引渡されたRGB画像データを前段色変換処理にてL*a*b*画像データに変換した後にウェーブレット変換を施す場合について説明したが、YCbCr画像データに変換した後にウェーブレット変換を施すようにしても勿論良い。要は、入力された画像データを、明度成分と彩度成分とで画像を表す画像データに変換した後にウェーブレット変換を施す態様であれば、その表色系は問わない。また、上述した第1および第2実施形態では、入力画像データがRGB画像データであり、出力画像データがYMCK画像データである場合について説明したが、入力画像データと出力画像データの何れについても他の表色系の画像データであっても勿論良い。なお、入力画像データが、明度成分と彩度成分とで画像を表す画像データ(例えば、L*a*b*画像データやYCbCr画像データ)である場合には、前段色変換処理を行う必要はなく、また、出力画像データが、明度成分と彩度成分とで画像を表す画像データである場合には、後段色変換処理を行う必要はない。
(C-2: Modification 2)
In the first and second embodiments described above, the case where the RGB image data delivered from the image reading apparatus 100 is converted into L * a * b * image data by the pre-stage color conversion processing and then wavelet conversion is performed has been described. Of course, wavelet transform may be applied after conversion to YCbCr image data. In short, any color system may be used as long as wavelet transform is performed after the input image data is converted into image data representing an image with a brightness component and a saturation component. In the first and second embodiments described above, the case where the input image data is RGB image data and the output image data is YMCK image data has been described. However, both of the input image data and the output image data are different. Of course, it may be image data of the color system. When the input image data is image data representing an image with lightness components and saturation components (for example, L * a * b * image data or YCbCr image data), it is necessary to perform pre-stage color conversion processing. In addition, when the output image data is image data representing an image with a lightness component and a saturation component, it is not necessary to perform post-stage color conversion processing.

(C−3:変形例3)
上述した第1および第2実施形態では、Haarフィルタを用いてウェーブレット変換および逆ウェーブレット変換を行う場合について説明したが、処理対象である画像の性質に応じてウェーブレット変換に用いるフィルタを切り替えるようにしても良い。
(C-3: Modification 3)
In the first and second embodiments described above, the case where the wavelet transform and the inverse wavelet transform are performed using the Haar filter has been described. However, the filter used for the wavelet transform is switched according to the property of the image to be processed. Also good.

(C−4:変形例4)
上述した第1実施形態では、画像ブロックの属性に応じて文字用エッジ強調係数と絵柄用エッジ強調係数の何れかをその画像ブロックに対応するウェーブレット係数に乗算する場合について説明した。しかしながら、画像ブロックについてその属性が、各基準パターンとの乖離度に応じて例えば、文字である確率がn%、絵柄である確率がm%と判定される場合には、その画像ブロックに対応するウェーブレット係数に乗算するエッジ強調係数を、文字用エッジ強調係数にn/100を乗算した値と絵柄用エッジ強調係数にm/100を乗算して得られる値とを加算して生成するようにしても良い。同様に、第2実施形態に係る画像処理装置500の適応フィルタ処理部534にて用いるエッジ強調係数についてもエッジ強度に応じた比率で文字用エッジ強調係数と絵柄用エッジ強調係数とを加算して生成するようにしても良い。
(C-4: Modification 4)
In the first embodiment described above, the case has been described in which either the character edge enhancement coefficient or the design edge enhancement coefficient is multiplied by the wavelet coefficient corresponding to the image block in accordance with the attribute of the image block. However, if the attribute of an image block is determined to be, for example, n% as a character probability and m% as a pattern according to the degree of deviation from each reference pattern, it corresponds to the image block. An edge enhancement coefficient to be multiplied by the wavelet coefficient is generated by adding a value obtained by multiplying the character edge enhancement coefficient by n / 100 and a value obtained by multiplying the pattern edge enhancement coefficient by m / 100. Also good. Similarly, for the edge enhancement coefficient used in the adaptive filter processing unit 534 of the image processing apparatus 500 according to the second embodiment, the character edge enhancement coefficient and the pattern edge enhancement coefficient are added at a ratio corresponding to the edge strength. You may make it produce | generate.

(C−5:変形例5)
上述した第1実施形態では、属性不明ブロックについては、エッジ部のエッジ強度に応じて文字用エッジ強調係数と絵柄用エッジ強調係数とを切り替えて使用する場合について説明したが、属性不明ブロックについては第2実施形態に係る画像処理装置500が実行するエッジ強調処理を施すようにしても良い。
(C-5: Modification 5)
In the first embodiment described above, the case where the attribute unknown block is used by switching between the character edge enhancement coefficient and the pattern edge enhancement coefficient according to the edge strength of the edge portion has been described. You may make it perform the edge emphasis process which the image processing apparatus 500 which concerns on 2nd Embodiment performs.

本発明の1実施形態に係る画像処理装置200を含んでいる画像処理システムの構成例を示す図である。It is a figure which shows the structural example of the image processing system containing the image processing apparatus 200 which concerns on one Embodiment of this invention. 同画像処理装置200の構成例を示す図である。2 is a diagram illustrating a configuration example of the image processing apparatus 200. FIG. 属性判別テーブルに格納されている基準パターンの一例を示す図である。It is a figure which shows an example of the reference | standard pattern stored in the attribute discrimination | determination table. 制御部210が実行するエッジ強調処理の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process of the edge emphasis process which the control part 210 performs. 同制御部210が文字ブロックまたは絵柄ブロックに施すエッジ処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the edge process which the control part 210 performs to a character block or a picture block. 同制御部210が不明ブロックに施すエッジ処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the edge process which the control part 210 performs to an unknown block. 本発明の第2実施形態に係る画像処理装置500の機能構成を示す機能ブロック図である。It is a functional block diagram which shows the function structure of the image processing apparatus 500 which concerns on 2nd Embodiment of this invention. 明度成分処理部530の機能構成を示す機能ブロック図である。5 is a functional block diagram showing a functional configuration of a lightness component processing unit 530. FIG. エッジ検出部532にて実行されるエッジ検出処理の注目画素とその周辺画素の一例を示す図である。FIG. 6 is a diagram illustrating an example of a pixel of interest and its peripheral pixels for edge detection processing executed by an edge detection unit 532. 同エッジ検出部532が実行するエッジ検出処理の流れを示すフローチャートである。5 is a flowchart showing a flow of edge detection processing executed by the edge detection unit 532; 同エッジ検出処理にて利用されるゲイン関数の一例を示す図である。It is a figure which shows an example of the gain function utilized in the edge detection process. 彩度成分処理部540の機能構成を示す機能ブロック図である。3 is a functional block diagram illustrating a functional configuration of a saturation component processing unit 540. FIG. エッジ強度eとエッジ変換係数fe、彩度C*と彩度変換係数fcおよび黒エッジ強度fbの関係を説明するための図である。It is a figure for demonstrating the relationship between edge intensity | strength e, edge conversion coefficient fe, saturation C *, saturation conversion coefficient fc, and black edge intensity | strength fb. 彩度変換処理後の彩度a*´とb*´を説明するための図である。It is a figure for demonstrating saturation a * 'and b *' after a saturation conversion process. ウェーブレット変換およびその逆変換を説明するための図である。It is a figure for demonstrating wavelet transformation and its reverse transformation.

符号の説明Explanation of symbols

100…画像読取装置、200,500…画像処理装置、300…画像形成装置、210…制御部、220…IF部、230…記憶部、230a…不揮発性記憶部、230b…揮発性記憶部、240…バス、510…前段色変換処理部、520…ウェーブレット変換部、530…明度成分処理部、532…エッジ検出部、534…適応フィルタ処理部、540…彩度成分処理部、542…平滑化処理部、544…彩度算出部、546…黒エッジ強度算出部、548…彩度変換部、550…逆ウェーブレット変換部、560…後段色変換処理部。   DESCRIPTION OF SYMBOLS 100 ... Image reading apparatus, 200,500 ... Image processing apparatus, 300 ... Image forming apparatus, 210 ... Control part, 220 ... IF part, 230 ... Storage part, 230a ... Nonvolatile storage part, 230b ... Volatile storage part, 240 ... Bus 510 ... Previous color conversion processing unit 520 ... Wavelet conversion unit 530 ... Brightness component processing unit 532 ... Edge detection unit 534 ... Adaptive filter processing unit 540 ... Saturation component processing unit 542 ... Smoothing processing , 544... Saturation calculation unit, 546... Black edge strength calculation unit, 548. Saturation conversion unit, 550. Inverse wavelet conversion unit, 560.

Claims (5)

各画素の明度と彩度とで画像を表す画像データが入力される入力手段と、
前記画像データにウェーブレット変換を施し、その画像データの表す画像の明度成分および彩度成分のそれぞれについてLL成分、LH成分、HL成分およびHH成分のウェーブレット係数を生成するウェーブレット変換手段と、
前記明度成分についての前記LL成分のウェーブレット係数が表す画像を複数のブロックに分割し、その各々について、対応するLL成分のウェーブレット係数を参照してその属性が下地であるか否かを判別する判別手段と、
下地であると前記判別手段により判別されたブロックについては、そのブロックに対応する前記HL成分、LH成分およびHH成分の各ウェーブレット係数を所定の値に書き換える一方、下地ではないと前記判別手段により判別されたブロックについては、そのブロックに対応する前記HL成分、LH成分およびHH成分の各ウェーブレット係数を参照してエッジ部を検出し所定のエッジ強調係数を乗算するエッジ処理手段と、
前記LL成分のウェーブレット係数と、前記エッジ処理手段によって属性に応じた処理が施された前記HL成分、LH成分およびHH成分のウェーブレット係数とに逆ウェーブレット変換を施して画像データを復元し、その画像データを出力する出力手段と、
を有することを特徴とする画像処理装置。
Input means for inputting image data representing an image with brightness and saturation of each pixel;
Wavelet transform means for performing wavelet transform on the image data, and generating wavelet coefficients of LL component, LH component, HL component and HH component for each of the lightness component and saturation component of the image represented by the image data;
Discrimination that divides an image represented by the wavelet coefficient of the LL component for the lightness component into a plurality of blocks, and determines whether or not the attribute is a background with reference to the wavelet coefficient of the corresponding LL component for each of the blocks Means,
For the block determined by the determining means as a background, the wavelet coefficients of the HL component, the LH component, and the HH component corresponding to the block are rewritten to predetermined values, while the block is determined as not being a background. An edge processing means for detecting the edge portion with reference to the wavelet coefficients of the HL component, the LH component, and the HH component corresponding to the block, and multiplying the block by a predetermined edge enhancement coefficient;
Image data is restored by performing inverse wavelet transform on the wavelet coefficients of the LL component and the wavelet coefficients of the HL component, the LH component, and the HH component that have been processed according to the attribute by the edge processing means, An output means for outputting data;
An image processing apparatus comprising:
前記判別手段は、
下地ではないと判別されたブロックについては、その属性が文字であるのか、絵柄であるのか、それとも不明であるのかを判別し、
前記エッジ処理手段は、
属性が文字であると前記判別手段により判別されたブロックについては、そのエッジ部に対応する前記HL成分、LH成分およびHH成分のウェーブレット係数に第1のエッジ強調係数を乗算し、
属性が文字であると前記判別手段により判別されたブロックについては、そのエッジ部に対応する前記HL成分、LH成分およびHH成分のウェーブレット係数に前記第1のエッジ強調係数よりも値が小さい第2のエッジ強調係数を乗算し、
属性が不明であると前記判別手段により判別されたブロックについては、そのエッジ部に対応する前記HL成分、LH成分およびHH成分のウェーブレット係数の各々について所定の閾値と比較し、その閾値よりも大きい場合には前記第1のエッジ強調係数を乗算する一方、その閾値よりも小さい場合には前記第2の強調係数を乗算する
ことを特徴とする請求項1に記載の画像処理装置。
The discrimination means includes
For a block that is determined not to be a groundwork, determine whether the attribute is text, design, or unknown,
The edge processing means includes
For a block whose attribute is determined to be a character by the determination means, the wavelet coefficient of the HL component, LH component and HH component corresponding to the edge portion is multiplied by a first edge enhancement coefficient,
For the block whose attribute is determined to be a character by the determination means, the second wavelet coefficient corresponding to the edge portion is smaller than the first edge enhancement coefficient in the second wavelet coefficient of the HL component, LH component, and HH component. Multiply the edge enhancement factor of
For the block whose attribute is determined to be unknown, each of the wavelet coefficients of the HL component, the LH component, and the HH component corresponding to the edge portion is compared with a predetermined threshold value, and is larger than the threshold value. 2. The image processing apparatus according to claim 1, wherein the first edge enhancement coefficient is multiplied in the case, and the second enhancement coefficient is multiplied in the case of being smaller than the threshold value.
各画素の明度と彩度とで画像を表す画像データが入力される入力手段と、
前記入力手段へ入力された画像データにウェーブレット変換を施し、その画像データの表す画像の明度成分および彩度成分のそれぞれについてLL成分、LH成分、HL成分およびHH成分のウェーブレット係数を生成するウェーブレット変換手段と、
前記明度成分のウェーブレット係数を参照してエッジの強度および方向を検出するとともに、そのエッジに対応するLH成分、HL成分およびHH成分のウェーブレット係数にその強度に応じたエッジ強調係数を乗算する明度成分処理手段と、
前記彩度成分のウェーブレット係数のうちLL成分については、そのLL成分から算出される彩度と前記明度成分処理手段により検出されたエッジの強度とに応じてそのエッジに対応するウェーブレット係数に所定の値を乗算して彩度変換を施す一方、LH成分、HL成分およびHH成分については、前記明度成分処理手段により検出されたエッジ方向に応じて定まる領域に対応するウェーブレット係数の値を所定の値に書き換える彩度成分処理手段と、
前記明度成分処理手段による処理結果および前記彩度成分処理手段による処理結果に逆ウェーブレット変換を施して画像データを復元し、その画像データを出力する出力手段と、
を有することを特徴とする画像処理装置。
Input means for inputting image data representing an image with brightness and saturation of each pixel;
Wavelet transform that performs wavelet transform on the image data input to the input means and generates wavelet coefficients of LL component, LH component, HL component, and HH component for each of the brightness component and saturation component of the image represented by the image data Means,
A lightness component that detects the strength and direction of an edge with reference to the wavelet coefficient of the lightness component, and multiplies the wavelet coefficients of the LH component, the HL component, and the HH component corresponding to the edge by an edge enhancement coefficient corresponding to the strength. Processing means;
Among the wavelet coefficients of the saturation component, the LL component has a predetermined wavelet coefficient corresponding to the edge according to the saturation calculated from the LL component and the intensity of the edge detected by the lightness component processing means. While performing the saturation conversion by multiplying the values, for the LH component, the HL component, and the HH component, the values of the wavelet coefficients corresponding to the region determined according to the edge direction detected by the lightness component processing means are set to predetermined values. Saturation component processing means for rewriting to
An output unit for performing inverse wavelet transform on the processing result by the lightness component processing unit and the processing result by the saturation component processing unit to restore image data, and outputting the image data;
An image processing apparatus comprising:
コンピュータ装置に、
各画素の明度と彩度とで画像を表す画像データを受け取り、その画像データにウェーブレット変換を施して、その画像データの表す画像の明度成分および彩度成分のそれぞれについてLL成分、LH成分、HL成分およびHH成分のウェーブレット係数を生成する第1のステップと、
前記明度成分についての前記LL成分のウェーブレット係数が表す画像を複数のブロックに分割し、その各々について、対応するLL成分のウェーブレット係数を参照してその属性が下地であるか否かを判別する第2のステップと、
下地であると前記第2のステップにて判別されたブロックについては、そのブロックに対応する前記HL成分、LH成分およびHH成分の各ウェーブレット係数を所定の値に書き換える一方、下地ではないと前記第2のステップにて判別されたブロックについては、そのブロックに対応する前記HL成分、LH成分およびHH成分の各ウェーブレット係数を参照してエッジ部を検出し所定のエッジ強調係数を乗算する第3のステップと、
前記LL成分のウェーブレット係数と、前記第3のステップにて属性に応じた処理が施された前記HL成分、LH成分およびHH成分のウェーブレット係数とに逆ウェーブレット変換を施して画像データを復元し、その画像データを出力する第4のステップと、
を実行させることを特徴とするプログラム。
Computer equipment,
Image data representing an image with lightness and saturation of each pixel is received, wavelet transform is performed on the image data, and LL component, LH component, HL for each of the lightness component and saturation component of the image represented by the image data A first step of generating component and HH component wavelet coefficients;
The image represented by the wavelet coefficient of the LL component for the lightness component is divided into a plurality of blocks, and for each of them, it is determined whether or not the attribute is a background by referring to the wavelet coefficient of the corresponding LL component. Two steps,
For the block determined as the background in the second step, the wavelet coefficients of the HL component, the LH component, and the HH component corresponding to the block are rewritten to predetermined values. For the block determined in step 2, a third edge is detected by referring to the wavelet coefficients of the HL component, LH component, and HH component corresponding to the block, and multiplying by a predetermined edge enhancement coefficient. Steps,
Image data is restored by performing inverse wavelet transform on the wavelet coefficients of the LL component and the wavelet coefficients of the HL component, the LH component, and the HH component that have been processed according to the attribute in the third step, A fourth step of outputting the image data;
A program characterized by having executed.
コンピュータ装置に、
各画素の明度と彩度とで画像を表す画像データを受け取り、その画像データにウェーブレット変換を施して、その画像データの表す画像の明度成分および彩度成分のそれぞれについてLL成分、LH成分、HL成分およびHH成分のウェーブレット係数を生成する第1のステップと、
前記明度成分のウェーブレット係数を参照してエッジの強度および方向を検出するとともに、そのエッジに対応するLH成分、HL成分およびHH成分のウェーブレット係数にその強度に応じたエッジ強調係数を乗算する第2のステップと、
前記彩度成分のウェーブレット係数のうちLL成分については、そのLL成分から算出される彩度と前記第2のステップにて検出されたエッジの強度とに応じてそのエッジに対応するウェーブレット係数に所定の値を乗算して彩度変換を施す一方、LH成分、HL成分およびHH成分については、前記第2のステップにて検出されたエッジ方向に応じて定まる領域に対応するウェーブレット係数の値を所定の値に書き換える第3のステップと、
前記第2のステップの処理結果および前記第3のステップの処理結果に逆ウェーブレット変換を施して画像データを復元し、その画像データを出力する第4のステップと、
を実行させることを特徴とするプログラム。
Computer equipment,
Image data representing an image with lightness and saturation of each pixel is received, wavelet transform is performed on the image data, and LL component, LH component, HL for each of the lightness component and saturation component of the image represented by the image data A first step of generating component and HH component wavelet coefficients;
The edge strength and direction are detected with reference to the wavelet coefficient of the lightness component, and the LH component, the HL component, and the HH component wavelet coefficients corresponding to the edge are multiplied by an edge enhancement coefficient corresponding to the strength. And the steps
Among the wavelet coefficients of the saturation component, for the LL component, the wavelet coefficient corresponding to the edge is predetermined according to the saturation calculated from the LL component and the intensity of the edge detected in the second step. In the meantime, for the LH component, the HL component, and the HH component, wavelet coefficient values corresponding to regions determined in accordance with the edge direction detected in the second step are predetermined. A third step of rewriting to the value of
A fourth step of performing inverse wavelet transform on the processing result of the second step and the processing result of the third step to restore the image data, and outputting the image data;
A program characterized by having executed.
JP2005276288A 2005-09-22 2005-09-22 Image processing apparatus and program Expired - Fee Related JP4792893B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005276288A JP4792893B2 (en) 2005-09-22 2005-09-22 Image processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005276288A JP4792893B2 (en) 2005-09-22 2005-09-22 Image processing apparatus and program

Publications (2)

Publication Number Publication Date
JP2007087190A true JP2007087190A (en) 2007-04-05
JP4792893B2 JP4792893B2 (en) 2011-10-12

Family

ID=37974102

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005276288A Expired - Fee Related JP4792893B2 (en) 2005-09-22 2005-09-22 Image processing apparatus and program

Country Status (1)

Country Link
JP (1) JP4792893B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010056648A (en) * 2008-08-26 2010-03-11 Canon Inc Image processor, image processing method, program, and storage medium
WO2022270291A1 (en) * 2021-06-21 2022-12-29 パナソニックIpマネジメント株式会社 Image processing device, and image processing method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0795400A (en) * 1993-09-21 1995-04-07 Toshiba Corp Picture processing unit
JPH09322166A (en) * 1996-05-30 1997-12-12 Ricoh Co Ltd Image forming device
JP2002247368A (en) * 2001-02-20 2002-08-30 Ricoh Co Ltd Image processor, image processing method, program for executing the same method and recording medium having the recorded program
JP2005196270A (en) * 2003-12-26 2005-07-21 Konica Minolta Photo Imaging Inc Image processing method, image processing equipment, and image processing program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0795400A (en) * 1993-09-21 1995-04-07 Toshiba Corp Picture processing unit
JPH09322166A (en) * 1996-05-30 1997-12-12 Ricoh Co Ltd Image forming device
JP2002247368A (en) * 2001-02-20 2002-08-30 Ricoh Co Ltd Image processor, image processing method, program for executing the same method and recording medium having the recorded program
JP2005196270A (en) * 2003-12-26 2005-07-21 Konica Minolta Photo Imaging Inc Image processing method, image processing equipment, and image processing program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010056648A (en) * 2008-08-26 2010-03-11 Canon Inc Image processor, image processing method, program, and storage medium
WO2022270291A1 (en) * 2021-06-21 2022-12-29 パナソニックIpマネジメント株式会社 Image processing device, and image processing method

Also Published As

Publication number Publication date
JP4792893B2 (en) 2011-10-12

Similar Documents

Publication Publication Date Title
US7382915B2 (en) Color to grayscale conversion method and apparatus
US7227990B2 (en) Color image processing device and color image processing method
JP5525548B2 (en) Image processing system for processing digital image and image processing method for processing digital image
JP6031286B2 (en) Image processing apparatus and image processing method
US20060187246A1 (en) Image processor, image processing method, program that makes computer execute the method, and recording medium
JP6781406B2 (en) Image processing equipment and computer programs
JP2008227759A (en) Image processing device, image forming device, image processing method, image processing program, and computer readable recording medium
JP2009278363A (en) Image processor and image processing method
JP5451313B2 (en) Image processing apparatus, image processing method, and program
JP4381360B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium
JP6808325B2 (en) Image processing equipment, image processing methods and programs
JP2007013551A (en) Image processing apparatus and image processing method
JP2022145776A (en) Image processing apparatus and image processing method
JP6976824B2 (en) Image processing equipment, image processing methods, and programs
Son et al. Inverse color to black-and-white halftone conversion via dictionary learning and color mapping
JP4792893B2 (en) Image processing apparatus and program
US7545540B2 (en) Method and system for processing color image data
JP4164215B2 (en) Image processing method, apparatus, and recording medium
JP2010278933A (en) Image processing device, image forming device, image processing method, program and recording medium
US9082161B2 (en) Image processing apparatus, image processing method, and non-transitory computer readable medium
JP2005235238A (en) Method and apparatus of image processing and storage medium
JP4067538B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium
JP4084537B2 (en) Image processing apparatus, image processing method, recording medium, and image forming apparatus
JP6834701B2 (en) Image processing equipment and computer programs
JP2008271131A (en) Method and device for image processing, and image forming apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110628

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110711

R150 Certificate of patent or registration of utility model

Ref document number: 4792893

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140805

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees