JP2022026577A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2022026577A
JP2022026577A JP2020130117A JP2020130117A JP2022026577A JP 2022026577 A JP2022026577 A JP 2022026577A JP 2020130117 A JP2020130117 A JP 2020130117A JP 2020130117 A JP2020130117 A JP 2020130117A JP 2022026577 A JP2022026577 A JP 2022026577A
Authority
JP
Japan
Prior art keywords
image
generation means
mask data
unit
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020130117A
Other languages
Japanese (ja)
Inventor
健一 高橋
Kenichi Takahashi
弥 内田
Wataru Uchida
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2020130117A priority Critical patent/JP2022026577A/en
Publication of JP2022026577A publication Critical patent/JP2022026577A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

To minimize the smoothing of an edge portion such as characters and further improve the processing efficiency by attenuating a frequency component peculiar to halftone dots in a pinpoint manner.SOLUTION: An image processing device 1 includes: an image acquisition unit 15 that acquires an input image D1 including halftone dots; a first image generation unit 20 that generates a first image D5 representing a spatial frequency component of the input image D1 on the basis of the input image D1; a second image generation unit 30 that generates a second image D6 obtained by rotating the first image D1 by a predetermined angle; a mask data generation unit 40 that compares the first image D5 and the second image D6, and generates mask data D7 corresponding to the spatial frequency component of the input image D1; and an output image generation unit 50 that performs mask processing on the input image D1 on the basis of the mask data D7 and generates an output image D9.SELECTED DRAWING: Figure 4

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関し、特に網点を含む入力画像から網点の影響を低減した出力画像を生成する技術に関する。 The present invention relates to an image processing apparatus, an image processing method and a program, and more particularly to a technique for generating an output image in which the influence of halftone dots is reduced from an input image including halftone dots.

MFP(Multifunction Peripherals)などの画像処理装置は、装置本体の上部に画像読取部を備えている。画像読取部は、ユーザーによってセットされる原稿の画像を光学的に読み取って画像データを生成する。この画像読取部で印刷原稿を読み取った場合、印刷ハーフトーニングで用いられる網点のスクリーン線数による周波数と、画像読取部のデジタル処理における周波数とが干渉し、読み取った画像にモアレが発生する。このモアレを低減するために、従来様々な手法が提案されている。 An image processing device such as an MFP (Multifunction Peripherals) is provided with an image reading unit on the upper part of the device body. The image reading unit optically reads the image of the original set by the user to generate image data. When a printed document is read by this image reading unit, the frequency due to the number of halftone dots used in the print halftoning and the frequency in the digital processing of the image reading unit interfere with each other, and moire occurs in the scanned image. Various methods have been conventionally proposed to reduce this moiré.

例えば、特許文献1では、文字エッジ部のみを精度よく検出し、その検出結果を基に網点部と文字エッジ部に最適な処理を行う手法が提案されている。しかし、この従来技術では、網点の判別を行っていないため、文字を含む網点領域や網点が結合する階調に対して適切な処理を行うことができない。また、網点部を平滑化する際には、スクリーン線数やスクリーン角に合った平滑処理を行う必要があるが、網点の判別を行っていないため、スクリーン線数やスクリーン角に適した平滑処理を行うことができない。 For example, Patent Document 1 proposes a method of accurately detecting only a character edge portion and performing optimum processing on a halftone dot portion and a character edge portion based on the detection result. However, in this conventional technique, since the halftone dots are not discriminated, it is not possible to perform appropriate processing for the halftone dot region including characters and the gradation to which the halftone dots are combined. Further, when smoothing the halftone dots, it is necessary to perform smoothing processing according to the number of screen lines and the screen angle, but since the halftone dots are not discriminated, it is suitable for the number of screen lines and the screen angle. The smoothing process cannot be performed.

これに対し、次の特許文献2~4では、網点領域と文字領域との双方に対して適切な処理を行う手法が提案されている。 On the other hand, the following Patent Documents 2 to 4 propose a method of appropriately processing both the halftone dot area and the character area.

例えば、特許文献2では、画像をウェーブレット変換することによって得られた複数の周波数帯域ごとに、複数の方向成分の係数に分割して文字領域と網点領域とを判別し、判別結果に応じて各係数に対する補正を行う手法が提案されている。 For example, in Patent Document 2, each of a plurality of frequency bands obtained by wavelet transforming an image is divided into coefficients of a plurality of directional components to discriminate between a character region and a halftone dot region, and according to the discrimination result. A method of correcting each coefficient has been proposed.

また、特許文献3では、中心画素とその周辺画素の濃度変化に基づいて網点領域を検出すると共に、画像に対する直交変換を行って空間周
波数を判定し、網点領域に対して最適な平滑フィルタを選択する手法が提案されている。
Further, in Patent Document 3, the halftone dot region is detected based on the density change of the central pixel and its peripheral pixels, and the spatial frequency is determined by performing orthogonal transformation on the image, and the optimum smoothing filter for the halftone dot region is obtained. A method of selecting is proposed.

また、特許文献4では、入力画像の輝度分布に基づいて網点領域と文字領域とを判定すると共に、入力画像に対する直交変換を行って得られる周波数分布に基づいて網点領域と文字領域とを判定し、それら2つの判定結果に基づいてフィルタを選択し、直交変換後の周波数データに対してフィルタリングを行うことが提案されている。 Further, in Patent Document 4, the halftone dot region and the character region are determined based on the brightness distribution of the input image, and the halftone dot region and the character region are determined based on the frequency distribution obtained by performing orthogonal transformation on the input image. It is proposed to make a determination, select a filter based on the two determination results, and perform filtering on the frequency data after orthogonal transformation.

特開2003-101774号公報Japanese Patent Application Laid-Open No. 2003-101774 特開2002-247368号公報Japanese Unexamined Patent Publication No. 2002-247368 特開2001-111836号公報Japanese Unexamined Patent Publication No. 2001-11136 特開2000-354162号公報Japanese Unexamined Patent Publication No. 2000-354162

しかし、特許文献2では、所定の周波数帯域におけるエッジ量とその連続性から文字領域であることを判定しているため、網点が重なった部分を連続エッジと認識し、文字領域と誤判定してしまうことがあり、画質を劣化させる要因となる。また、低いスクリーン線数から高いスクリーン線数までを正確に判定するためには、複数の周波数帯域及び複数の方向成分のそれぞれに対して演算を行う必要があり、演算量が増加することから、処理速度が低いという問題がある。 However, in Patent Document 2, since it is determined from the edge amount in a predetermined frequency band and its continuity that it is a character region, the portion where the halftone dots overlap is recognized as a continuous edge, and it is erroneously determined as a character region. This may cause deterioration of image quality. Further, in order to accurately determine from a low screen line number to a high screen line number, it is necessary to perform an operation for each of a plurality of frequency bands and a plurality of directional components, which increases the amount of operation. There is a problem that the processing speed is low.

また、特許文献3では、網点領域中の文字に対しても平滑処理がなされてしまうという問題がある。また、特許文献3では、網点領域を検出する処理と、空間周波数を判定する処理とを並列で行う必要があり、ハードウェアで実現する場合には回路規模が増大するという問題がある。 Further, in Patent Document 3, there is a problem that the characters in the halftone dot region are also smoothed. Further, in Patent Document 3, it is necessary to perform a process of detecting a halftone dot region and a process of determining a spatial frequency in parallel, and there is a problem that the circuit scale increases when it is realized by hardware.

更に、特許文献4では、入力画像に基づく領域判定処理と、周波数分布に基づく領域判定とを並列で行う必要があり、ハードウェアで実現する場合には回路規模が増大するという問題がある。また、周波数分布に基づいて領域を分離することから、演算量が増加し、処理速度が低いという問題がある。更に、特許文献4は、網点領域と文字領域のそれぞれの周波数成分に対応するフィルタを選択してフィルタリングを行うため、網点と文字とが混在する領域に対して適切な処理を行うことができないという問題もある。 Further, in Patent Document 4, it is necessary to perform the area determination process based on the input image and the area determination based on the frequency distribution in parallel, and there is a problem that the circuit scale increases when it is realized by hardware. Further, since the region is separated based on the frequency distribution, there is a problem that the amount of calculation increases and the processing speed is low. Further, in Patent Document 4, since filters corresponding to the respective frequency components of the halftone dot region and the character region are selected and filtered, appropriate processing can be performed on the region where the halftone dots and the characters coexist. There is also the problem of not being able to do it.

上記のように従来提案されている手法は、網点領域と文字領域とを判別する手段、網点領域の周波数を検出する手段、及び、平滑処理を行う手段とのそれぞれを個別に実装する必要があり、例えばハードウェア回路で実現する場合には複雑な回路構成となり、回路規模の増大化を招くことになる。また、近年のハードウェアプロセッサーの処理能力向上に伴い、上記3つの手段をソフトウェア的に実現する場合であっても、並列処理を伴うことから処理速度が低下してしまい、処理効率を向上させることが困難であるという問題がある。 In the method conventionally proposed as described above, it is necessary to individually implement a means for discriminating between the halftone dot area and the character area, a means for detecting the frequency of the halftone dot area, and a means for performing smoothing processing. For example, when it is realized by a hardware circuit, the circuit configuration becomes complicated, which leads to an increase in the circuit scale. Further, with the improvement of the processing capacity of the hardware processor in recent years, even when the above three means are realized by software, the processing speed is lowered due to the parallel processing, and the processing efficiency is improved. There is a problem that it is difficult.

そこで、本発明は、上記問題を解決するためになされたものであり、従来のように文字領域と網点領域とを判別することなく、網点特有の周波数成分をピンポイントで減衰させることで文字等のエッジ部分が平滑化されてしまうことを最小限に抑えることを可能にし、更に処理効率の向上を図ることが可能な画像処理装置、画像処理方法及びプログラムを提供することを目的とする。 Therefore, the present invention has been made to solve the above problem by pinpointly attenuating the frequency component peculiar to the halftone dot without discriminating between the character area and the halftone dot area as in the conventional case. It is an object of the present invention to provide an image processing device, an image processing method, and a program capable of minimizing the smoothing of edge portions such as characters and further improving the processing efficiency. ..

上記目的を達成するため、請求項1に係る発明は、画像処理装置であって、網点を含む入力画像を取得する画像取得手段と、前記入力画像に基づいて前記入力画像の空間周波数成分を表した第1画像を生成する第1画像生成手段と、前記第1画像を所定角度回転させた第2画像を生成する第2画像生成手段と、前記第1画像と前記第2画像とを比較し、前記入力画像の空間周波数成分に対応するマスクデータを生成するマスクデータ生成手段と、前記マスクデータに基づいて前記入力画像に対するマスク処理を行い、出力画像を生成する出力画像生成手段と、を備えることを特徴とする構成である。 In order to achieve the above object, the invention according to claim 1 is an image processing apparatus, which is an image acquisition means for acquiring an input image including mesh dots, and a spatial frequency component of the input image based on the input image. A comparison between the first image generation means for generating the represented first image, the second image generation means for generating the second image obtained by rotating the first image by a predetermined angle, and the first image and the second image. A mask data generation means that generates mask data corresponding to the spatial frequency component of the input image, and an output image generation means that performs mask processing on the input image based on the mask data and generates an output image. It is a configuration characterized by being provided.

請求項2に係る発明は、請求項1の画像処理装置において、前記第2画像生成手段は、前記第1画像を時計回りに90度回転させることにより、前記第2画像を生成することを特徴とする構成である。 The invention according to claim 2 is characterized in that, in the image processing apparatus of claim 1, the second image generation means generates the second image by rotating the first image 90 degrees clockwise. It is a configuration.

請求項3に係る発明は、請求項1の画像処理装置において、前記第2画像生成手段は、前記第1画像を反時計回りに90度回転させることにより、前記第2画像を生成することを特徴とする構成である。 According to a third aspect of the present invention, in the image processing apparatus of the first aspect, the second image generation means generates the second image by rotating the first image counterclockwise by 90 degrees. It is a characteristic configuration.

請求項4に係る発明は、請求項1乃至3のいずれかの画像処理装置において、前記第1画像生成手段は、前記第1画像を生成するとき、所定の閾値に基づいて前記第1画像に対する2値化処理を行うことを特徴とする構成である。 The invention according to claim 4 is the image processing apparatus according to any one of claims 1 to 3, wherein when the first image generation means generates the first image, the first image is based on a predetermined threshold value. The configuration is characterized by performing binarization processing.

請求項5に係る発明は、請求項4の画像処理装置において、前記第1画像生成手段は、前記2値化処理を行うとき、前記第1画像における周波数座標軸の原点を中心とする所定範囲の領域を予め定められた値に置換することを特徴とする構成である。 The invention according to claim 5 is the image processing apparatus according to claim 4, wherein the first image generation means has a predetermined range centered on the origin of the frequency coordinate axis in the first image when performing the binarization process. The configuration is characterized in that the region is replaced with a predetermined value.

請求項6に係る発明は、請求項1乃至5のいずれかの画像処理装置において、前記マスクデータ生成手段は、前記マスクデータを生成するとき、前記第1画像又は前記第2画像における周波数座標軸の原点を中心とする所定範囲の領域に予め定められた値を設定することを特徴とする構成である。 The invention according to claim 6 is the image processing apparatus according to any one of claims 1 to 5, wherein when the mask data generation means generates the mask data, the frequency coordinate axes in the first image or the second image are used. The configuration is characterized in that a predetermined value is set in a predetermined range region centered on the origin.

請求項7に係る発明は、請求項1乃至6のいずれかの画像処理装置において、前記マスクデータ生成手段は、前記第1画像と前記第2画像との論理演算を行うことにより前記マスクデータを生成することを特徴とする構成である。 The invention according to claim 7 is the image processing apparatus according to any one of claims 1 to 6, wherein the mask data generation means obtains the mask data by performing a logical operation between the first image and the second image. It is a configuration characterized by being generated.

請求項8に係る発明は、請求項1乃至7のいずれかの画像処理装置において、前記マスクデータ生成手段は、前記第1画像と前記第2画像とを比較して得られるデータに対し、オープニング処理又はクロージング処理を行うことによって前記マスクデータを生成することを特徴とする構成である。 The invention according to claim 8 is the image processing apparatus according to any one of claims 1 to 7, wherein the mask data generation means opens the data obtained by comparing the first image and the second image. The configuration is characterized in that the mask data is generated by performing a process or a closing process.

請求項9に係る発明は、請求項1乃至8のいずれかの画像処理装置において、前記マスクデータ生成手段は、前記第1画像と前記第2画像とを比較して得られるデータに対し、膨張処理を行うことによって前記マスクデータを生成することを特徴とする構成である。 The invention according to claim 9 is the image processing apparatus according to any one of claims 1 to 8, wherein the mask data generation means expands with respect to the data obtained by comparing the first image and the second image. The configuration is characterized in that the mask data is generated by performing the processing.

請求項10に係る発明は、請求項1乃至9のいずれかの画像処理装置において、前記出力画像生成手段は、前記マスクデータと前記入力画像との論理演算を行うことにより前記出力画像を生成することを特徴とする構成である。 The invention according to claim 10 is the image processing apparatus according to any one of claims 1 to 9, wherein the output image generation means generates the output image by performing a logical operation between the mask data and the input image. It is a configuration characterized by that.

請求項11に係る発明は、請求項1乃至10のいずれかの画像処理装置において、前記第1画像生成手段は、前記入力画像に対するフーリエ変換を行い、前記入力画像をパワースペクトル画像に変換することにより前記第1画像を生成することを特徴とする構成である。 The invention according to claim 11 is the image processing apparatus according to any one of claims 1 to 10, wherein the first image generation means performs a Fourier transform on the input image and converts the input image into a power spectrum image. It is a configuration characterized by generating the first image by the above.

請求項12に係る発明は、請求項11の画像処理装置において、前記出力画像生成手段は、前記マスクデータと、前記入力画像のフーリエ変換後データとの論理演算を行って得られるデータに基づいて逆フーリエ変換を行うことにより前記出力画像を生成することを特徴とする構成である。 The invention according to claim 12 is based on the data obtained by performing a logical calculation between the mask data and the data after Fourier transform of the input image in the image processing apparatus according to claim 11. The configuration is characterized in that the output image is generated by performing an inverse Fourier transform.

請求項13に係る発明は、請求項1乃至12のいずれかの画像処理装置において、原稿の画像を読み取る画像読取手段、を更に備え、前記画像取得手段は、前記画像読取手段が原稿を読み取ることによって生成する画像を前記入力画像として取得することを特徴とする構成である。 The invention according to claim 13 further includes an image reading means for reading an image of a document in the image processing apparatus according to any one of claims 1 to 12, wherein the image reading means reads the document. The configuration is characterized in that the image generated by the above is acquired as the input image.

請求項14に係る発明は、請求項13の画像処理装置において、前記画像読取手段が原稿の読み取りを行う際の読み取りモードに応じて、前記第1画像生成手段、前記第2画像生成手段、前記マスクデータ生成手段、及び、前記出力画像生成手段を動作させるか否かを切り替える制御手段、を更に備えることを特徴とする構成である。 The invention according to claim 14 is the image processing apparatus according to claim 13, wherein the first image generation means, the second image generation means, and the like, depending on the reading mode when the image reading means reads a document. The configuration is further provided with a mask data generation means and a control means for switching whether or not to operate the output image generation means.

請求項15に係る発明は、請求項14の画像処理装置において、前記制御手段は、前記読み取りモードが印刷原稿読み取りモード又はコピー原稿読み取りモードである場合、前記第1画像生成手段、前記第2画像生成手段、前記マスクデータ生成手段、及び、前記出力画像生成手段を動作させることを特徴とする構成である。 The invention according to claim 15 is the image processing apparatus according to claim 14, wherein when the reading mode is a print document reading mode or a copy document reading mode, the first image generation means and the second image. The configuration is characterized in that the generation means, the mask data generation means, and the output image generation means are operated.

請求項16に係る発明は、請求項1乃至15のいずれかの画像処理装置において、前記画像取得手段は、前記入力画像を、縦方向及び横方向のサイズが等しい複数のブロック画像に分割し、前記第1画像生成手段は、前記複数のブロック画像のそれぞれに基づいて前記第1画像を生成し、前記出力画像生成手段は、前記複数のブロック画像のそれぞれから生成される複数の出力ブロック画像を合成することにより前記出力画像を生成することを特徴とする構成である。 The invention according to claim 16 is the image processing apparatus according to any one of claims 1 to 15, wherein the image acquisition means divides the input image into a plurality of block images having the same vertical and horizontal sizes. The first image generation means generates the first image based on each of the plurality of block images, and the output image generation means produces a plurality of output block images generated from each of the plurality of block images. The configuration is characterized in that the output image is generated by synthesizing.

請求項17に係る発明は、請求項1乃至15のいずれかの画像処理装置において、前記画像取得手段は、前記入力画像の縦方向及び横方向のサイズが異なる場合、前記入力画像に対して縦方向及び横方向のいずれか一方に対する倍率変換処理を行うことにより、縦方向及び横方向のサイズが等しい処理対象画像を生成し、前記第1画像生成手段は、前記処理対象画像に基づいて前記第1画像を生成し、前記出力画像生成手段は、前記処理対象画像から生成される出力対象画像に対し、前記倍率変換処理の逆変換となる処理を行うことにより、前記出力画像を生成することを特徴とする構成である。 The invention according to claim 17 is the image processing apparatus according to any one of claims 1 to 15, wherein when the vertical and horizontal sizes of the input image are different, the image acquisition means is vertical with respect to the input image. By performing the magnification conversion process for either the direction or the horizontal direction, a processing target image having the same vertical and horizontal sizes is generated, and the first image generation means is the first image generation means based on the processing target image. 1 Image is generated, and the output image generation means generates the output image by performing a process that is an inverse conversion of the magnification conversion process on the output target image generated from the process target image. It is a characteristic configuration.

請求項18に係る発明は、画像処理方法であって、網点を含む入力画像を取得する第1ステップと、前記入力画像に基づいて前記入力画像の空間周波数成分を表した第1画像を生成する第2ステップと、前記第1画像を所定角度回転させた第2画像を生成する第3ステップと、前記第1画像と前記第2画像とを比較し、前記入力画像の空間周波数成分に対応するマスクデータを生成する第4ステップと、前記マスクデータに基づいて前記第1画像に対するマスク処理を行い、出力画像を生成する第5ステップと、を有することを特徴とする構成である。 The invention according to claim 18 is an image processing method, in which a first step of acquiring an input image including mesh dots and a first image representing a spatial frequency component of the input image based on the input image are generated. The second step is to generate a second image obtained by rotating the first image by a predetermined angle, and the first image and the second image are compared with each other to correspond to the spatial frequency component of the input image. The configuration is characterized by having a fourth step of generating mask data to be generated, and a fifth step of performing mask processing on the first image based on the mask data and generating an output image.

請求項19に係る発明は、プログラムであって、コンピュータに、網点を含む入力画像を取得する第1ステップと、前記入力画像に基づいて前記入力画像の空間周波数成分を表した第1画像を生成する第2ステップと、前記第1画像を所定角度回転させた第2画像を生成する第3ステップと、前記第1画像と前記第2画像とを比較し、前記入力画像の空間周波数成分に対応するマスクデータを生成する第4ステップと、前記マスクデータに基づいて前記第1画像に対するマスク処理を行い、出力画像を生成する第5ステップと、を実行させることを特徴とする構成である。 The invention according to claim 19 is a program, in which a first step of acquiring an input image including net dots and a first image representing a spatial frequency component of the input image based on the input image are displayed on a computer. The second step to generate, the third step to generate the second image obtained by rotating the first image by a predetermined angle, the first image and the second image are compared, and the spatial frequency component of the input image is used. The configuration is characterized in that a fourth step of generating corresponding mask data and a fifth step of performing mask processing on the first image based on the mask data and generating an output image are executed.

本発明によれば、従来のように文字領域と網点領域とを判別することなく、網点特有の周波数成分をピンポイントで減衰させることが可能であり、文字等のエッジ部分が平滑化されてしまうことを最小限に抑えることができる。また、本発明によれば、従来よりも処理効率を向上させることもできる。 According to the present invention, it is possible to pinpoint the frequency component peculiar to the halftone dot without discriminating between the character area and the halftone dot area as in the conventional case, and the edge portion of the character or the like is smoothed. It can be minimized. Further, according to the present invention, the processing efficiency can be improved as compared with the conventional case.

画像処理装置の一構成例を示す図である。It is a figure which shows one configuration example of an image processing apparatus. 画像処理装置の制御機構の一構成例を示すブロック図である。It is a block diagram which shows one configuration example of the control mechanism of an image processing apparatus. 画像処理部のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware composition of an image processing part. 画像処理部における機能構成を例示するブロック図である。It is a block diagram which illustrates the functional structure in an image processing part. 入力画像の一例を示す図である。It is a figure which shows an example of an input image. パワースペクトル画像の概念を示す図である。It is a figure which shows the concept of a power spectrum image. 図5の入力画像から生成されるパワースペクトル画像を示す図である。It is a figure which shows the power spectrum image generated from the input image of FIG. パワースペクトル画像から生成される第1画像を示す図である。It is a figure which shows the 1st image generated from a power spectrum image. 第1画像から生成される第2画像を示す図である。It is a figure which shows the 2nd image generated from the 1st image. マスクデータの一例を示す図である。It is a figure which shows an example of the mask data. 図7のパワースペクトル画像に対してマスク処理を施した例を示す図である。It is a figure which shows the example which performed the mask processing on the power spectrum image of FIG. 出力画像の一例を示す図である。It is a figure which shows an example of an output image. 画像処理部において行われる画像処理シーケンスの一例を示すフローチャートである。It is a flowchart which shows an example of the image processing sequence performed in the image processing unit. 2値化処理の詳細な処理手順の例を示す図である。It is a figure which shows the example of the detailed processing procedure of the binarization process. マスクデータ生成処理の詳細な処理手順の例を示す図である。It is a figure which shows the example of the detailed processing procedure of the mask data generation processing. マスク処理の詳細な処理手順の例を示す図である。It is a figure which shows the example of the detailed processing procedure of a mask processing. 制御部によって行われる処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the processing procedure performed by a control unit. 第2実施形態における画像処理部の機能構成を例示するブロック図である。It is a block diagram which illustrates the functional structure of the image processing part in 2nd Embodiment. ブロック分割部による分割方法の例を示す図である。It is a figure which shows the example of the division method by a block division part. 第3実施形態における画像処理部の機能構成を例示するブロック図である。It is a block diagram which illustrates the functional structure of the image processing part in 3rd Embodiment. 倍率変換部による倍率変換の例を示す図である。It is a figure which shows the example of the magnification conversion by the magnification conversion unit.

以下、本発明に関する好ましい実施形態について図面を参照しつつ詳細に説明する。尚、以下に説明する実施形態において互いに共通する要素には同一符号を付しており、それらについての重複する説明は省略する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. In the embodiments described below, the elements common to each other are designated by the same reference numerals, and duplicate description thereof will be omitted.

(第1実施形態)
図1は、本発明の一実施形態である画像処理装置1の一構成例を示す図である。この画像処理装置1は、スキャン機能、コピー機能及びプリント機能を備えるMFPとして構成され、スキャンジョブやコピージョブ、プリントジョブなどを実行する。
(First Embodiment)
FIG. 1 is a diagram showing a configuration example of an image processing device 1 according to an embodiment of the present invention. The image processing device 1 is configured as an MFP having a scan function, a copy function, and a print function, and executes a scan job, a copy job, a print job, and the like.

画像処理装置1は、装置本体の上部にスキャナ部2を備えている。スキャナ部2は、ユーザーによってセットされる原稿の画像を光学的に読み取って画像データを生成する。スキャナ部2は、原稿の画像を読み取る画像読取部4と、画像読取部4による読み取り位置に原稿の自動搬送を行う原稿搬送部3とを備えている。例えば、原稿搬送部3に原稿がセットされた状態でスキャンジョブやコピージョブが実行されるとき、原稿搬送部3は、ユーザーによってセットされた原稿を1枚ずつ自動搬送する。画像読取部4は、原稿搬送部3による原稿の搬送動作と連動し、自動搬送される原稿が所定の読み取り位置を通過する際に原稿の画像を読み取る。 The image processing apparatus 1 includes a scanner unit 2 on the upper part of the apparatus main body. The scanner unit 2 optically reads the image of the original set by the user to generate image data. The scanner unit 2 includes an image reading unit 4 that reads an image of a document, and a document transporting unit 3 that automatically transports the document to a reading position by the image scanning unit 4. For example, when a scan job or a copy job is executed with a document set in the document transport unit 3, the document transfer unit 3 automatically transports the documents set by the user one by one. The image reading unit 4 interlocks with the document transporting operation by the document transporting unit 3, and reads the image of the document when the automatically transported document passes through a predetermined scanning position.

また、画像処理装置1は、装置本体の下部にプリンタ部5を備えている。プリンタ部5は、その下部に複数の給紙カセット5aを備えており、給紙カセット5aに収容されている印刷用紙などのシートを1枚ずつ給紙してそのシートに画像形成を行い、上部の排紙トレイ5bに対して画像が印刷されたシートを排出する。 Further, the image processing apparatus 1 includes a printer unit 5 at the lower part of the apparatus main body. The printer unit 5 is provided with a plurality of paper feed cassettes 5a at the lower portion thereof, and feeds sheets such as printing paper contained in the paper feed cassette 5a one by one to form an image on the sheets, and forms an image on the upper portion. The sheet on which the image is printed is ejected to the output tray 5b of the above.

また、画像処理装置1は、装置本体の正面側に、ユーザーが操作可能な操作パネル6を備えている。操作パネル6は、ユーザーが画像処理装置1を使用する際のユーザーインタフェースとなるものである。操作パネル6は、ユーザーが操作可能な各種の操作画面を表示し、ユーザーによる操作を受け付ける。例えば操作パネル6は、ユーザーによるジョブの設定操作やジョブの実行開始指示を受け付ける。操作パネル6がユーザーによるジョブの実行開始指示を受け付けると、画像処理装置1は、ユーザーによって指定されたジョブの実行を開始する。 Further, the image processing apparatus 1 is provided with an operation panel 6 that can be operated by the user on the front side of the apparatus main body. The operation panel 6 serves as a user interface when the user uses the image processing device 1. The operation panel 6 displays various operation screens that can be operated by the user, and accepts operations by the user. For example, the operation panel 6 receives a job setting operation and a job execution start instruction by the user. When the operation panel 6 receives the job execution start instruction by the user, the image processing device 1 starts the execution of the job specified by the user.

図2は、画像処理装置1の制御機構の一構成例を示すブロック図である。画像処理装置1は、上述したスキャナ部2、プリンタ部5及び操作パネル6に加え、画像メモリ7と、制御部8と、通信インタフェース9と、画像処理部10とを備えている。 FIG. 2 is a block diagram showing a configuration example of the control mechanism of the image processing device 1. The image processing device 1 includes an image memory 7, a control unit 8, a communication interface 9, and an image processing unit 10 in addition to the scanner unit 2, the printer unit 5, and the operation panel 6 described above.

画像メモリ7は、ジョブの実行に伴って得られる画像データを記憶するメモリである。例えば、スキャンジョブやコピージョブの場合、画像メモリ7には、スキャナ部2によって生成される画像データが記憶される。 The image memory 7 is a memory for storing image data obtained by executing a job. For example, in the case of a scan job or a copy job, the image data generated by the scanner unit 2 is stored in the image memory 7.

制御部8は、画像処理装置1におけるジョブの実行を統括的に制御するものである。例えば、制御部8は、操作パネル6に表示する操作画面を制御し、ユーザーによる操作に基づいてジョブの設定を行う。また、制御部8は、スキャナ部2及びプリンタ部5の動作を制御することにより、ユーザーによって指定されたジョブの実行を制御する。 The control unit 8 comprehensively controls the execution of jobs in the image processing device 1. For example, the control unit 8 controls the operation screen displayed on the operation panel 6 and sets the job based on the operation by the user. Further, the control unit 8 controls the execution of the job designated by the user by controlling the operations of the scanner unit 2 and the printer unit 5.

例えば、ユーザーによってスキャンジョブの実行が指示された場合、制御部8は、スキャナ部2を動作させ、ユーザーによってセットされた原稿の読み取り動作を制御する。そして制御部8は、スキャナ部2から出力される画像データを画像メモリ7に保存する。また、制御部8は、必要に応じて、画像処理部10を動作させ、スキャナ部2から画像メモリ7に保存された画像データに対する画像処理を行わせる。 For example, when the user is instructed to execute the scan job, the control unit 8 operates the scanner unit 2 to control the reading operation of the document set by the user. Then, the control unit 8 stores the image data output from the scanner unit 2 in the image memory 7. Further, the control unit 8 operates the image processing unit 10 as necessary, and causes the scanner unit 2 to perform image processing on the image data stored in the image memory 7.

通信インタフェース9は、画像処理装置1をLAN(Local Area Network)などのネットワークに接続し、外部装置と通信を行うためのインタフェースである。画像処理装置1は、この通信インタフェース9を介して、外部装置から送信されるプリントジョブを受信することができる。通信インタフェース9を介してプリントジョブを受信すると、制御部8は、プリンタ部5を動作させる。これにより、プリンタ部5は、印刷ジョブに基づいてシートに対する画像形成を行い、排紙トレイ5bに印刷されたシートを排出する。 The communication interface 9 is an interface for connecting the image processing device 1 to a network such as a LAN (Local Area Network) and communicating with an external device. The image processing device 1 can receive a print job transmitted from an external device via the communication interface 9. Upon receiving the print job via the communication interface 9, the control unit 8 operates the printer unit 5. As a result, the printer unit 5 forms an image on the sheet based on the print job, and ejects the sheet printed on the output tray 5b.

画像処理部10は、スキャナ部2によって生成された画像に網点が含まれる場合に、その画像から網点による影響を低減する画像処理を行うものであり、本発明における特徴的な画像処理機能を実現するものである。例えば、画像処理部10は、画像処理装置1においてスキャンジョブ又はコピージョブが行われるとき、制御部8において網点を平滑化させる必要があると判断された場合に機能し、スキャナ部2から画像メモリ7に保存された画像データを入力画像として取得し、その入力画像に対する画像処理を行って網点による影響を低減する。尚、以下の本実施形態では、画像処理部10がソフトウェア処理によって画像処理を行う例について説明する。 When the image generated by the scanner unit 2 contains halftone dots, the image processing unit 10 performs image processing to reduce the influence of the halftone dots from the image, and is a characteristic image processing function in the present invention. Is to realize. For example, the image processing unit 10 functions when the control unit 8 determines that it is necessary to smooth the net dots when a scan job or a copy job is performed in the image processing device 1, and the image processing unit 2 displays an image. The image data stored in the memory 7 is acquired as an input image, and image processing is performed on the input image to reduce the influence of the mesh dots. In the following embodiment, an example in which the image processing unit 10 performs image processing by software processing will be described.

図3は、画像処理部10のハードウェア構成の一例を示す図である。画像処理部10は、例えば、CPU11と、ROM12と、RAM13とを備えている。CPU11は、ROM12に予め記憶されているプログラム14を読み出して実行するハードウェアプロセッサーである。ROM12は、プログラム14を記憶する不揮発性の記憶デバイスである。ROM12に記憶されるプログラム14は、CPU11に、網点を含む入力画像から網点の影響を低減した出力画像を生成する画像処理を行わせるプログラムである。RAM13は、CPU11がプログラム14を実行することによって発生する一時的なデータや画像などを記憶するための揮発性の記憶デバイスである。 FIG. 3 is a diagram showing an example of the hardware configuration of the image processing unit 10. The image processing unit 10 includes, for example, a CPU 11, a ROM 12, and a RAM 13. The CPU 11 is a hardware processor that reads out and executes a program 14 stored in advance in the ROM 12. The ROM 12 is a non-volatile storage device that stores the program 14. The program 14 stored in the ROM 12 is a program that causes the CPU 11 to perform image processing for generating an output image in which the influence of the halftone dots is reduced from the input image including the halftone dots. The RAM 13 is a volatile storage device for storing temporary data, images, and the like generated by the CPU 11 executing the program 14.

上記のようなハードウェア構成を有する画像処理部10は、CPU11がプログラム14を実行することにより、網点を含む入力画像を取得し、入力画像に含まれる網点特有の周波数成分をピンポイントで減衰させる処理を行うことで文字等のエッジ部分が平滑化されてしまうことを最小限に抑える。以下、画像処理部10において行われる画像処理について詳しく説明する。 The image processing unit 10 having the hardware configuration as described above acquires an input image including halftone dots by the CPU 11 executing the program 14, and pinpoints the frequency components peculiar to the halftone dots included in the input image. It is possible to minimize the smoothing of edge parts such as characters by performing the damping process. Hereinafter, the image processing performed by the image processing unit 10 will be described in detail.

図4は、画像処理部10における機能構成を例示するブロック図である。画像処理部10のCPU11は、プログラム14を実行することにより、画像取得部15、第1画像生成部20、第2画像生成部30、マスクデータ生成部40、及び、出力画像生成部50として機能する。画像処理部10は、これらを順に機能させることにより、入力画像から、網点による影響を低減させた出力画像を生成する。 FIG. 4 is a block diagram illustrating a functional configuration in the image processing unit 10. By executing the program 14, the CPU 11 of the image processing unit 10 functions as an image acquisition unit 15, a first image generation unit 20, a second image generation unit 30, a mask data generation unit 40, and an output image generation unit 50. do. By making these functions in order, the image processing unit 10 generates an output image in which the influence of halftone dots is reduced from the input image.

画像取得部15は、網点を含む入力画像D1を取得する処理部である。すなわち、画像取得部15は、スキャナ部2によって生成され、画像メモリ7に記憶された画像データを入力画像D1として取得する。図5は、入力画像D1の一例を示す図である。図5に示す入力画像D1は、網点を含む画像である。以下においては、図5に示す入力画像D1に対する処理の例を説明する。 The image acquisition unit 15 is a processing unit that acquires an input image D1 including halftone dots. That is, the image acquisition unit 15 acquires the image data generated by the scanner unit 2 and stored in the image memory 7 as the input image D1. FIG. 5 is a diagram showing an example of the input image D1. The input image D1 shown in FIG. 5 is an image including halftone dots. Hereinafter, an example of processing for the input image D1 shown in FIG. 5 will be described.

画像取得部15は、画像メモリ7から入力画像D1を取得すると、その入力画像D1に基づく処理対象画像D2を第1画像生成部20へ出力する。このとき、画像取得部15は、入力画像D1をそのまま処理対象画像D2として第1画像生成部20へ出力しても良い。しかし、入力画像D1が、画素毎に、R(レッド),G(グリーン),B(ブルー)の3原色で表された画像データである場合、入力画像D1をそのまま処理対象画像D2として後段の第1画像生成部20へ出力してしまうと、第1画像生成部20以降においてR,B,Gの各色成分の3つの画像に対して同じ処理を行わなければならず、処理効率が低下する。 When the image acquisition unit 15 acquires the input image D1 from the image memory 7, the image acquisition unit 15 outputs the processing target image D2 based on the input image D1 to the first image generation unit 20. At this time, the image acquisition unit 15 may output the input image D1 as it is to the first image generation unit 20 as the processing target image D2. However, when the input image D1 is image data represented by the three primary colors of R (red), G (green), and B (blue) for each pixel, the input image D1 is used as it is as the processing target image D2 in the subsequent stage. If the data is output to the first image generation unit 20, the same processing must be performed on the three images of each color component of R, B, and G in the first image generation unit 20 and subsequent units, and the processing efficiency is lowered. ..

そこで、入力画像D1がR,G,Bの3原色で表された画像データである場合、画像取得部15は、入力画像D1のRGB色空間をYCrCb色空間に変換し、Y(明度)成分のみで表現された1つの濃淡画像を処理対象画像D2として生成し、その1つの処理対象画像D2を第1画像生成部20へ出力することが好ましい。これにより、第1画像生成部20以降においては、1つの画像に対する処理を行えば良いため、処理効率を向上させることができる。 Therefore, when the input image D1 is image data represented by the three primary colors of R, G, and B, the image acquisition unit 15 converts the RGB color space of the input image D1 into the YCrCb color space, and Y (brightness) component. It is preferable to generate one shading image represented only by the image as the processing target image D2, and output the one processing target image D2 to the first image generation unit 20. As a result, in the first image generation unit 20 and subsequent units, it is sufficient to perform processing on one image, so that the processing efficiency can be improved.

第1画像生成部20は、画像取得部15から出力される処理対象画像D2に基づいて入力画像D1の空間周波数成分を表した第1画像を生成する。この第1画像生成部20は、フーリエ変換部21と、画像生成部22と、2値化処理部23とを備えており、これらが処理対象画像D2に対する処理を順次行うことで第1画像を生成する。 The first image generation unit 20 generates a first image representing the spatial frequency component of the input image D1 based on the processing target image D2 output from the image acquisition unit 15. The first image generation unit 20 includes a Fourier transform unit 21, an image generation unit 22, and a binarization processing unit 23, which sequentially perform processing on the image D2 to be processed to produce a first image. Generate.

フーリエ変換部21は、処理対象画像D2に対して離散フーリエ変換(DFT)を行う。これにより、処理対象画像D2が周波数データに変換される。フーリエ変換部21は、その周波数データを、フーリエ変換後データD3としてRAM13などに一時的に保存する。また、フーリエ変換部21は、フーリエ変換後データD3を画像生成部22へ出力する。 The Fourier transform unit 21 performs a discrete Fourier transform (DFT) on the image D2 to be processed. As a result, the image D2 to be processed is converted into frequency data. The Fourier transform unit 21 temporarily stores the frequency data in the RAM 13 or the like as the data D3 after the Fourier transform. Further, the Fourier transform unit 21 outputs the data D3 after the Fourier transform to the image generation unit 22.

画像生成部22は、フーリエ変換後データD3に基づき、入力画像D1の空間周波数成分を濃淡画像で表したパワースペクトル画像D4を生成する。図6は、パワースペクトル画像の概念を示す図である。パワースペクトル画像は、横軸を水平方向周波数とし、縦軸を垂直方向周波数として、入力画像D1における各方向の周波数成分の大きさを輝度で表した画像である。このパワースペクトル画像では、中央の原点が入力画像D1のDC成分を表し、原点からの距離Rが離れるほど高い周波数成分を表している。 The image generation unit 22 generates a power spectrum image D4 in which the spatial frequency component of the input image D1 is represented by a grayscale image based on the Fourier transform data D3. FIG. 6 is a diagram showing the concept of a power spectrum image. The power spectrum image is an image in which the horizontal axis is the horizontal frequency and the vertical axis is the vertical frequency, and the magnitude of the frequency component in each direction in the input image D1 is represented by the brightness. In this power spectrum image, the central origin represents the DC component of the input image D1, and the farther the distance R from the origin is, the higher the frequency component is represented.

図7は、図5の入力画像D1から生成されるパワースペクトル画像D4を示す図である。一般に、入力画像D1に含まれる有効な画像要素(文字、図形、絵画等)は、網点に比べると低周波であるため、図7に示すパワースペクトル画像D4のように、原点近傍の低周波領域における輝点として現れる。これに対し、入力画像D1に含まれる網点は、有効な画像要素よりも高周波であるため、図7に示すパワースペクトル画像D4のように、原点から離れた高周波領域における輝点として現れる。 FIG. 7 is a diagram showing a power spectrum image D4 generated from the input image D1 of FIG. In general, effective image elements (characters, figures, paintings, etc.) included in the input image D1 have a lower frequency than the halftone dots, so that the frequency is low near the origin as shown in the power spectrum image D4 shown in FIG. Appears as a bright spot in the area. On the other hand, since the halftone dots included in the input image D1 have higher frequencies than the effective image elements, they appear as bright spots in a high frequency region away from the origin as shown in the power spectrum image D4 shown in FIG.

画像生成部22は、フーリエ変換後データD3に基づいてパワースペクトル画像D4を生成すると、そのパワースペクトル画像D4を2値化処理部23へ出力する。 When the image generation unit 22 generates the power spectrum image D4 based on the Fourier transform data D3, the image generation unit 22 outputs the power spectrum image D4 to the binarization processing unit 23.

2値化処理部23は、パワースペクトル画像D4を所定の閾値で2値化することにより、第1画像D5を生成する。例えば、2値化処理部23は、パワースペクトル画像D4において原点から所定距離Rの範囲内である中央の領域P1(図6参照)を「0」の値に変換する。つまり、2値化処理部23は、有効な画像要素が存在する部分の周波数領域に対して後述するマスク処理が行われないようにするために、中央の領域P1を「0」に変換しておくのである。そして、2値化処理部23は、中央の領域P1よりも外側の領域に対して所定の閾値に基づく2値化処理を行う。これにより、2値化処理部23は、図7に示すパワースペクトル画像D4から、図8に示す2値画像を第1画像D5として生成することができる。尚、図8では、階調値が「0」の画素を黒色で示しており、階調値が「1」の画素を白色で示している。 The binarization processing unit 23 generates the first image D5 by binarizing the power spectrum image D4 with a predetermined threshold value. For example, the binarization processing unit 23 converts the central region P1 (see FIG. 6) within a predetermined distance R from the origin in the power spectrum image D4 into a value of “0”. That is, the binarization processing unit 23 converts the central region P1 to "0" in order to prevent the mask processing described later from being performed on the frequency domain of the portion where the valid image element exists. I will leave it. Then, the binarization processing unit 23 performs binarization processing based on a predetermined threshold value on the region outside the central region P1. As a result, the binarization processing unit 23 can generate the binary image shown in FIG. 8 as the first image D5 from the power spectrum image D4 shown in FIG. 7. In FIG. 8, the pixel having the gradation value “0” is shown in black, and the pixel having the gradation value “1” is shown in white.

2値化処理部23は、パワースペクトル画像D4を2値化して第1画像D5を生成すると、その第1画像D5を、第2画像生成部30及びマスクデータ生成部40のそれぞれに出力する。 When the binarization processing unit 23 binarizes the power spectrum image D4 to generate the first image D5, the binarization processing unit 23 outputs the first image D5 to each of the second image generation unit 30 and the mask data generation unit 40.

第2画像生成部30は、第1画像D5から第2画像D6を生成する。上述したように、入力画像D1をパワースペクトル画像D4に変換すると、入力画像D1に含まれる網点は、上述したように有効な画像要素が存在する中央の領域P1よりも外側の領域において輝点として現れる。この網点による輝点は、パワースペクトル画像D4を90度回転させた場合であっても同じ位置に現れるという特性がある。つまり、元のパワースペクトル画像と、90度回転させたパワースペクトル画像とを重ね合わせたとき、中央の領域P1よりも外側の領域において輝点が重なる周波数成分があれば、その重なった周波数成分が網点の周波数成分であるということになる。そこで、第2画像生成部30は、第1画像D5を回転させて第2画像D6を生成する画像回転部31を備えている。 The second image generation unit 30 generates the second image D6 from the first image D5. As described above, when the input image D1 is converted to the power spectrum image D4, the halftone dots included in the input image D1 are bright spots in a region outside the central region P1 in which a valid image element is present as described above. Appears as. The bright spots formed by the halftone dots have the characteristic that they appear at the same position even when the power spectrum image D4 is rotated by 90 degrees. That is, when the original power spectrum image and the power spectrum image rotated by 90 degrees are superposed, if there is a frequency component in which the bright spots overlap in a region outside the central region P1, the overlapped frequency component is present. It means that it is the frequency component of the halftone dot. Therefore, the second image generation unit 30 includes an image rotation unit 31 that rotates the first image D5 to generate the second image D6.

画像回転部31は、第1画像D5を所定角度回転させることにより第2画像D6を生成する。上述のようにパワースペクトル画像に現れる網点による輝点は、90度回転させても同じ位置に現れる。そのため、画像回転部31は、第1画像D5を90度回転させることにより第2画像D6を生成する。第1画像D5を回転させる方向は、時計回りであっても良いし、反時計回りであっても良い。すなわち、画像回転部31は、第1画像D5を時計回り又は反時計回りに90度回転させることにより、第2画像D6を生成する。ただし、画像回転部31が第1画像D5を回転させる回転角度は、必ずしも90度でなくても構わない。例えば、画像回転部31は、第1画像D5を時計回り又は反時計回りに270度回転させることにより、同様の第2画像D6を生成することが可能である。そして第2画像生成部30は、画像回転部31によって生成される第2画像D6をマスクデータ生成部40へ出力する。 The image rotation unit 31 generates the second image D6 by rotating the first image D5 by a predetermined angle. As described above, the bright spots due to the halftone dots appearing in the power spectrum image appear at the same position even when rotated by 90 degrees. Therefore, the image rotation unit 31 generates the second image D6 by rotating the first image D5 by 90 degrees. The direction in which the first image D5 is rotated may be clockwise or counterclockwise. That is, the image rotation unit 31 generates the second image D6 by rotating the first image D5 clockwise or counterclockwise by 90 degrees. However, the rotation angle at which the image rotation unit 31 rotates the first image D5 does not necessarily have to be 90 degrees. For example, the image rotation unit 31 can generate a similar second image D6 by rotating the first image D5 clockwise or counterclockwise by 270 degrees. Then, the second image generation unit 30 outputs the second image D6 generated by the image rotation unit 31 to the mask data generation unit 40.

図9は、図8に示す第1画像D5を反時計回りに90度回転させることによって生成される第2画像D6を示す図である。このように第2画像D6は、第1画像D5を回転させることによって生成される。そして第1画像D5と第2画像D6との2つの画像が、マスクデータ生成部40へ出力される。 FIG. 9 is a diagram showing a second image D6 generated by rotating the first image D5 shown in FIG. 8 counterclockwise by 90 degrees. In this way, the second image D6 is generated by rotating the first image D5. Then, two images, the first image D5 and the second image D6, are output to the mask data generation unit 40.

マスクデータ生成部40は、第1画像D5と第2画像D6とを比較することにより、入力画像D1に含まれる網点の周波数成分に対応するマスクデータを生成する。このマスクデータ生成部40は、画像比較部41と、マスク調整部42とを備えている。 The mask data generation unit 40 generates mask data corresponding to the frequency component of the halftone dots included in the input image D1 by comparing the first image D5 and the second image D6. The mask data generation unit 40 includes an image comparison unit 41 and a mask adjustment unit 42.

画像比較部41は、第1画像D5と第2画像D6とを比較し、マスクデータの元となる中間データを生成する。例えば、画像比較部41は、第1画像D5と第2画像D6との間で画素毎の論理籍演算を行うことで、マスクデータの元となる中間データを生成する。第1画像D5及び第2画像D6は共に画素毎の階調値が「0」又は「1」に2値化されている。そのため、画素毎の論理積演算を行うことで、画像比較部41は、第1画像D5における輝点(階調値「1」の点)と第2画像D6における輝点(階調値「1」の点)とが重なった部分だけを抽出した中間データを生成する。そして画像比較部41は、その中間データをマスク調整部42へ出力する。 The image comparison unit 41 compares the first image D5 and the second image D6, and generates intermediate data that is the source of the mask data. For example, the image comparison unit 41 generates intermediate data that is the source of mask data by performing a logical registration calculation for each pixel between the first image D5 and the second image D6. In both the first image D5 and the second image D6, the gradation value for each pixel is binarized to "0" or "1". Therefore, by performing the logical product calculation for each pixel, the image comparison unit 41 uses the bright spot (point of gradation value “1”) in the first image D5 and the bright spot (gradation value “1”) in the second image D6. "Point)) and the part that overlaps with are extracted to generate intermediate data. Then, the image comparison unit 41 outputs the intermediate data to the mask adjustment unit 42.

マスク調整部42は、画像比較部41から出力される中間データからマスクデータD7を生成する。マスク調整部42は、例えば中間データに対してオープニング処理を施すことにより、中間データに含まれるノイズを除去する処理を行う。オープニング処理は、例えば中間データに対し、収縮処理(erosion)を行った後に、膨張処理(dilation)を行う処理である。 The mask adjusting unit 42 generates the mask data D7 from the intermediate data output from the image comparison unit 41. The mask adjusting unit 42 performs a process of removing noise included in the intermediate data, for example, by performing an opening process on the intermediate data. The opening process is, for example, a process in which an intermediate data is subjected to a shrinkage process (erosion) and then an expansion process (dilation).

また、マスク調整部42は、例えば中間データに対してクロージング処理を施すことにより、網点に対応する輝点の内側にある小さな黒点を埋める処理を行う。クロージング処理は、例えば中間データに対し、膨張処理(dilation)を行った後に収縮処理(erosion)を行う処理である。 Further, the mask adjusting unit 42 performs a process of filling small black spots inside the bright spots corresponding to the halftone dots by, for example, performing a closing process on the intermediate data. The closing process is, for example, a process of performing an expansion process (dilation) and then a contraction process (erosion) on the intermediate data.

マスク調整部42は、中間データに対し、オープニング処理とクロージング処理との双方を行うようにしても良いし、いずれか一方のみを行うようにしても良い。また、マスク調整部42は、中間データにノイズが少なく、且つ、網点に対応する輝点の内側に小さな黒点が存在しない場合には、オープニング処理及びクロージン処理を省略しても構わない。 The mask adjusting unit 42 may perform both the opening process and the closing process on the intermediate data, or may perform only one of them. Further, the mask adjusting unit 42 may omit the opening process and the closing process when there is little noise in the intermediate data and there are no small black dots inside the bright spots corresponding to the halftone dots.

そして、マスク調整部42は、中間データに対し、膨張処理(dilation)を行い、中間データにおける網点に対応する輝点のサイズを所定割合大きいサイズに変換することにより、マスクデータD7を生成する。 Then, the mask adjusting unit 42 performs expansion processing (dilation) on the intermediate data, and converts the size of the bright spots corresponding to the halftone dots in the intermediate data into a size larger by a predetermined ratio to generate the mask data D7. ..

図10は、マスク調整部42によって生成されるマスクデータD7を示す図である。図10に示すように、マスクデータD7は、入力画像D1に含まれる網点の周波数成分を塗り潰すことができるデータとして生成される。マスクデータ生成部40は、図10に示すようなマスクデータD7を生成すると、そのマスクデータD7を出力画像生成部50へ出力する。 FIG. 10 is a diagram showing mask data D7 generated by the mask adjusting unit 42. As shown in FIG. 10, the mask data D7 is generated as data that can fill the frequency component of the halftone dots included in the input image D1. When the mask data generation unit 40 generates the mask data D7 as shown in FIG. 10, the mask data generation unit 40 outputs the mask data D7 to the output image generation unit 50.

出力画像生成部50は、マスクデータD7に基づいて入力画像D1に対するマスク処理を行い、網点の影響を低減させた出力画像D9を生成する。この出力画像生成部50は、マスク処理部51と、逆フーリエ変換部52とを備えている。 The output image generation unit 50 performs mask processing on the input image D1 based on the mask data D7, and generates an output image D9 in which the influence of halftone dots is reduced. The output image generation unit 50 includes a mask processing unit 51 and an inverse Fourier transform unit 52.

マスク処理部51は、マスクデータD7に基づいて入力画像D1に対するマスク処理を行う。例えば、マスク処理部51は、図11に示すように、マスクデータD7に基づき、網点の周波数成分に対応する部分を黒く塗り潰すことにより、網点の周波数成分を減衰させる処理を行う。尚、図11は、図7のパワースペクトル画像D4に対してマスク処理を施した例を示している。 The mask processing unit 51 performs mask processing on the input image D1 based on the mask data D7. For example, as shown in FIG. 11, the mask processing unit 51 performs a process of attenuating the frequency component of the halftone dots by painting the portion corresponding to the frequency component of the halftone dots in black based on the mask data D7. Note that FIG. 11 shows an example in which the power spectrum image D4 of FIG. 7 is masked.

例えば、マスク処理部51は、マスクデータD7の白黒を反転させたデータ(マスクデータD7の「0」と「1」とを入れ替えたマスクデータ)を生成する。これにより、図10に示したマスクデータD7は、白黒が反転した画像となる。そしてマスク処理部51は、その白黒を反転させたマスクデータと、入力画像D1(より厳密には、入力画像D1の周波数データ)との論理演算を行うことにより、マスク処理後データを生成する。より、具体的に説明すると、マスク処理部51は、フーリエ変換部21によって生成されたフーリエ変換後データD3をRAM13から読み出し、白黒を反転させたマスクデータにおける各周波成分の値と、フーリエ変換後データにおける各周波成分の値との論理積を演算することでマスク処理後データD8を生成する。マスクデータにおける黒が「0」であり、白が「1」であることから、論理積演算によって網点の周波数成分が0となるのに対し、網点以外の周波数成分をそのまま残すことができる。そのため、このマスク処理によって網点の周波数成分をピンポイントで減衰させることができる。 For example, the mask processing unit 51 generates data in which the black and white of the mask data D7 is inverted (mask data in which "0" and "1" of the mask data D7 are exchanged). As a result, the mask data D7 shown in FIG. 10 becomes an image in which black and white are inverted. Then, the mask processing unit 51 generates post-mask processing data by performing a logical operation between the mask data in which the black and white are inverted and the input image D1 (more strictly, the frequency data of the input image D1). More specifically, the mask processing unit 51 reads the post-Fourier transform data D3 generated by the Fourier transform unit 21 from the RAM 13, and sets the values of each frequency component in the mask data in which black and white are inverted, and after the Fourier transform. The post-mask data D8 is generated by calculating the logical product with the value of each frequency component in the data. Since black is "0" and white is "1" in the mask data, the frequency component of the halftone dots becomes 0 by the logical product operation, whereas the frequency components other than the halftone dots can be left as they are. .. Therefore, the frequency component of halftone dots can be attenuated pinpointly by this mask processing.

またこの他にも、例えば、マスク処理部51は、白黒を反転させたマスクデータにおいて値が「0」である座標に相当するフーリエ変換後データD3の実数部及び虚数部の値を「0」に置換しても良いし、また係数Mを用いて実数部及び虚数部との論理積を演算することにより、網点の周波数成分を減衰させたマスク処理後データD8を生成するようにしても良い。尚、減衰させるという観点から、係数Mの値は、0<M<1を満たす値である。そしてマスク処理部51は、マスク処理後データD8を逆フーリエ変換部52へ出力する。 In addition to this, for example, the mask processing unit 51 sets the values of the real part and the imaginary part of the Fourier transform data D3 corresponding to the coordinates where the value is "0" in the mask data in which black and white are inverted to "0". Alternatively, the post-masking data D8 in which the frequency component of the net point is attenuated may be generated by calculating the logical product of the real part and the imaginary part using the coefficient M. good. From the viewpoint of attenuation, the value of the coefficient M is a value satisfying 0 <M <1. Then, the mask processing unit 51 outputs the masked data D8 to the inverse Fourier transform unit 52.

逆フーリエ変換部52は、マスク処理後データD8を逆離散フーリエ変換(IDFT)することにより、出力画像D9を生成する。図12は、逆フーリエ変換部52によって生成される出力画像D9の一例を示す図である。図12に示す出力画像D9では、網点の周波数成分が減衰しているため、網点による影響が低減された画像となる。 The inverse Fourier transform unit 52 generates an output image D9 by performing an inverse discrete Fourier transform (IDFT) on the masked data D8. FIG. 12 is a diagram showing an example of the output image D9 generated by the inverse Fourier transform unit 52. In the output image D9 shown in FIG. 12, since the frequency component of the halftone dots is attenuated, the image is an image in which the influence of the halftone dots is reduced.

尚、画像取得部15においてRGB色空間からYCrCb色空間への色変換が行われた場合、逆フーリエ変換部52によって生成される出力画像D9は、Y(明度)成分の画像となる。そのため、R,G,Bの3原色で表された画像データを出力する必要がある場合、出力画像生成部50は、逆フーリエ変換部52によって生成されるY成分と、画像取得部15で生成されたCr成分及びCb成分とに基づき、YCrCb色空間をRGB色空間に再変換することにより、RGBで表現された画像データを生成すれば良い。 When the color conversion from the RGB color space to the YCrCb color space is performed in the image acquisition unit 15, the output image D9 generated by the inverse Fourier transform unit 52 becomes an image of the Y (brightness) component. Therefore, when it is necessary to output image data represented by the three primary colors of R, G, and B, the output image generation unit 50 is generated by the Y component generated by the inverse Fourier conversion unit 52 and the image acquisition unit 15. Image data expressed in RGB may be generated by reconverting the YCrCb color space into the RGB color space based on the Cr component and the Cb component obtained.

以上のように、本実施形態の画像処理装置1は、従来のように文字領域と網点領域とを判別することなく、網点特有の周波数成分をピンポイントで減衰させることが可能である。そのため、本実施形態の画像処理装置1は、文字等のエッジ部分が平滑化されてしまうことを最小限に抑えつつ、入力画像D1に含まれる網点の影響を低減することができる。さらに、本実施形態の画像処理装置1は、図4に示したように、第1画像生成部20による処理と、第2画像生成部30による処理と、マスクデータ生成部40による処理と、出力画像生成部50による処理とを順次行っていくことにより出力画像D9を生成することができるため、従来のような並列処理を伴わない。それ故、画像処理部10がソフトウェア処理によって上述した画像処理を行う場合、処理速度が低下してしまうことを抑制することが可能であり、処理効率を向上させることができる。また、画像処理部10における上述した画像処理をハードウェアで実現する場合であっても、並列処理を行う必要がないため、簡単な回路構成で実現することが可能であり、回路規模の増大化を防ぐことができるという利点もある。 As described above, the image processing apparatus 1 of the present embodiment can pinpoint the frequency component peculiar to the halftone dots without discriminating between the character area and the halftone dot area as in the conventional case. Therefore, the image processing apparatus 1 of the present embodiment can reduce the influence of halftone dots included in the input image D1 while minimizing the smoothing of edge portions such as characters. Further, as shown in FIG. 4, the image processing apparatus 1 of the present embodiment has processing by the first image generation unit 20, processing by the second image generation unit 30, processing by the mask data generation unit 40, and output. Since the output image D9 can be generated by sequentially performing the processing by the image generation unit 50, the parallel processing as in the conventional case is not involved. Therefore, when the image processing unit 10 performs the above-mentioned image processing by software processing, it is possible to suppress a decrease in the processing speed and improve the processing efficiency. Further, even when the above-mentioned image processing in the image processing unit 10 is realized by hardware, it is possible to realize it with a simple circuit configuration because it is not necessary to perform parallel processing, and the circuit scale is increased. There is also an advantage that it can be prevented.

次に、画像処理部10において行われる処理手順について説明する。図13は、画像処理部10において行われる画像処理シーケンスの一例を示すフローチャートである。画像処理部10は、この処理を開始すると、網点を含む入力画像D1を取得する(ステップS10)。このとき、画像処理部10は、必要に応じて入力画像D1のRGB色空間をYCrCb色空間に変換する処理を行う。 Next, the processing procedure performed by the image processing unit 10 will be described. FIG. 13 is a flowchart showing an example of an image processing sequence performed by the image processing unit 10. When the image processing unit 10 starts this processing, it acquires an input image D1 including halftone dots (step S10). At this time, the image processing unit 10 performs a process of converting the RGB color space of the input image D1 into the YCrCb color space, if necessary.

次に、画像処理部10は、入力画像D1にフーリエ変換処理を行い(ステップS11)、フーリエ変換後データD3をRAM13に保存する(ステップS12)。また、画像処理部10は、フーリエ変換後データD3に基づいて入力画像D1のパワースペクトル画像D4を生成し(ステップS13)、そのパワースペクトル画像D4に対する2値化処理を行う(ステップS14)。 Next, the image processing unit 10 performs a Fourier transform process on the input image D1 (step S11), and saves the data D3 after the Fourier transform in the RAM 13 (step S12). Further, the image processing unit 10 generates a power spectrum image D4 of the input image D1 based on the Fourier transform data D3 (step S13), and performs binarization processing on the power spectrum image D4 (step S14).

図14は、2値化処理(ステップS14)の詳細な処理手順の2つの例を示す図である。まず図14(a)に示す2値化処理について説明する。画像処理部10は、図14(a)の2値化処理を開始すると、パワースペクトル画像D4の原点から所定距離Rの範囲内の領域P1を「0」に変換する(ステップS20)。これにより、入力画像D1において有効な画像要素を構成する低周波数成分が減衰してしまうことを防止する。続いて、画像処理部10は、2値化を行う際の基準となる閾値を取得する(ステップS21)。そして画像処理部10は、パワースペクトル画像D4において原点から所定距離Rの範囲外の領域を、ステップS21で取得した閾値で2値化する(ステップS22)。これにより、パワースペクトル画像D4を2値化した第1画像D5が生成される。 FIG. 14 is a diagram showing two examples of the detailed processing procedure of the binarization process (step S14). First, the binarization process shown in FIG. 14A will be described. When the binarization process of FIG. 14A is started, the image processing unit 10 converts the region P1 within a predetermined distance R from the origin of the power spectrum image D4 to “0” (step S20). This prevents the low frequency components constituting the effective image element in the input image D1 from being attenuated. Subsequently, the image processing unit 10 acquires a threshold value as a reference when performing binarization (step S21). Then, the image processing unit 10 binarizes the region outside the range of the predetermined distance R from the origin in the power spectrum image D4 with the threshold value acquired in step S21 (step S22). As a result, the first image D5 obtained by binarizing the power spectrum image D4 is generated.

次に図14(b)に示す2値化処理について説明する。画像処理部10は、図14(b)の2値化処理を開始すると、パワースペクトル画像D4の原点から所定距離Rの範囲内に適用する閾値T1を取得すると共に(ステップS24)、パワースペクトル画像D4の原点から所定距離Rの範囲外に適用する閾値T2を取得する(ステップS25)。つまり、この例では、入力画像D1において有効な画像要素を構成する低周波数成分に対して適用される閾値T1と、網点を含む高周波数成分に対して適用される閾値T2とが異なる値として取得される。ここで、閾値T1は、閾値T2よりも高い値である。そして画像処理部10は、パワースペクトル画像D4の原点から所定距離Rの範囲内の領域P1を閾値T1に基づいて2値化する(ステップS26)。また、画像処理部10は、パワースペクトル画像D4の原点から所定距離Rの範囲外の領域を閾値T2に基づいて2値化する(ステップS27)。これにより、パワースペクトル画像D4を2値化した第1画像D5が生成される。 Next, the binarization process shown in FIG. 14B will be described. When the binarization process of FIG. 14B is started, the image processing unit 10 acquires the threshold value T1 to be applied within a predetermined distance R from the origin of the power spectrum image D4 (step S24), and also obtains the power spectrum image. Acquire the threshold value T2 to be applied outside the range of the predetermined distance R from the origin of D4 (step S25). That is, in this example, the threshold value T1 applied to the low frequency component constituting the effective image element in the input image D1 and the threshold value T2 applied to the high frequency component including halftone dots are set as different values. To be acquired. Here, the threshold value T1 is a higher value than the threshold value T2. Then, the image processing unit 10 binarizes the region P1 within a predetermined distance R from the origin of the power spectrum image D4 based on the threshold value T1 (step S26). Further, the image processing unit 10 binarizes a region outside the range of a predetermined distance R from the origin of the power spectrum image D4 based on the threshold value T2 (step S27). As a result, the first image D5 obtained by binarizing the power spectrum image D4 is generated.

ステップS14では、上述した2つの2値化処理のうちのいずれか一方が採用され、パワースペクトル画像D4が2値化された第1画像D5が生成される。図13のフローチャートに戻り、画像処理部10は、第1画像D5を生成すると、その第1画像D5をRAM13に保存する(ステップS15)。 In step S14, one of the two binarization processes described above is adopted, and the first image D5 in which the power spectrum image D4 is binarized is generated. Returning to the flowchart of FIG. 13, when the image processing unit 10 generates the first image D5, the image processing unit 10 saves the first image D5 in the RAM 13 (step S15).

次に画像処理部10は、第1画像D5を時計回り方向又は反時計回り方向に90度回転させ、第2画像D6を生成し(ステップS16)、その第2画像D6をRAM13に保存する(ステップS17)。 Next, the image processing unit 10 rotates the first image D5 90 degrees clockwise or counterclockwise to generate a second image D6 (step S16), and stores the second image D6 in the RAM 13 (step S16). Step S17).

続いて、画像処理部10は、マスクデータ生成処理を実行する(ステップS18)。図15は、マスクデータ生成処理(ステップS18)の詳細な処理手順の2つの例を示す図である。 Subsequently, the image processing unit 10 executes a mask data generation process (step S18). FIG. 15 is a diagram showing two examples of detailed processing procedures of the mask data generation processing (step S18).

まず図15(a)に示すマスクデータ生成処理について説明する。画像処理部10は、図15(a)のマスクデータ生成処理を開始すると、第1画像D5と第2画像D6とを読み出し(ステップS30)、画素毎に第1画像D5と第2画像D6との論理積演算を行う(ステップS31)。これにより、第1画像D5と第2画像D6とで同じ位置に輝点を形成する網点の周波数成分が抽出されることになる。そして画像処理部10は、論理積演算によって得られる画像に対して輝点を膨張させる膨張処理を実行する(ステップS32)。つまり、画像処理部10は、網点の周波数成分に対応する輝点のサイズよりも若干大きいサイズのマスクデータD7を生成するのである。これにより、後段のマスク処理において網点の周波数成分を不足なく減衰させることができるようになる。そして画像処理部10は、膨張処理を行って生成したマスクデータD7をRAM13に保存する(ステップS33)。 First, the mask data generation process shown in FIG. 15A will be described. When the image processing unit 10 starts the mask data generation process of FIG. 15A, the first image D5 and the second image D6 are read out (step S30), and the first image D5 and the second image D6 are displayed for each pixel. (Step S31). As a result, the frequency components of the halftone dots forming the bright spots at the same positions in the first image D5 and the second image D6 are extracted. Then, the image processing unit 10 executes an expansion process for expanding the bright spot on the image obtained by the logical product operation (step S32). That is, the image processing unit 10 generates mask data D7 having a size slightly larger than the size of the bright spot corresponding to the frequency component of the halftone dot. As a result, the frequency component of the halftone dots can be attenuated without any shortage in the mask processing in the subsequent stage. Then, the image processing unit 10 stores the mask data D7 generated by performing the expansion processing in the RAM 13 (step S33).

次に図15(b)に示すマスクデータ生成処理について説明する。画像処理部10は、図15(b)のマスクデータ生成処理を開始すると、第1画像D5と第2画像D6とを読み出し(ステップS35)、画素毎に第1画像D5と第2画像D6との論理積演算を行って中間データを生成する(ステップS36)。そして画像処理部10は、中間データに対し、オープニング処理又はクロージング処理を実行する(ステップS37)。尚、画像処理部10は、中間データに対してオープニング処理とクロージング処理との双方を行うようにしても良い。その後、画像処理部10は、オープニング処理又はクロージング処理がなされた中間データに対して膨張処理を実行し、マスクデータD7を生成する(ステップS38)。そして画像処理部10は、膨張処理を行って生成したマスクデータD7をRAM13に保存する(ステップS39)。 Next, the mask data generation process shown in FIG. 15B will be described. When the image processing unit 10 starts the mask data generation process of FIG. 15B, the first image D5 and the second image D6 are read out (step S35), and the first image D5 and the second image D6 are displayed for each pixel. (Step S36), the intermediate data is generated by performing the logical product operation of. Then, the image processing unit 10 executes an opening process or a closing process on the intermediate data (step S37). The image processing unit 10 may perform both the opening process and the closing process on the intermediate data. After that, the image processing unit 10 executes expansion processing on the intermediate data to which the opening processing or closing processing has been performed, and generates mask data D7 (step S38). Then, the image processing unit 10 stores the mask data D7 generated by performing the expansion processing in the RAM 13 (step S39).

ステップS18では、上述した2つのマスクデータ生成処理のうちのいずれか一方が採用され、マスクデータD7が生成される。図13のフローチャートに戻り、画像処理部10は、マスクデータD7を生成すると、マスク処理を実行する(ステップS19)。図16は、マスク処理(ステップS19)の詳細な処理手順の2つの例を示す図である。 In step S18, one of the two mask data generation processes described above is adopted, and the mask data D7 is generated. Returning to the flowchart of FIG. 13, when the image processing unit 10 generates the mask data D7, the image processing unit 10 executes the mask processing (step S19). FIG. 16 is a diagram showing two examples of the detailed processing procedure of the mask processing (step S19).

まず図16(a)に示すマスク処理について説明する。画像処理部10は、図16(a)のマスク処理を開始すると、RAM13に保存されているフーリエ変換後データD3と、マスクデータD7とを読み出す(ステップS40)。このとき、画像処理部10は、マスクデータD7の白黒を反転させたマスクデータを生成する。そして画像処理部10は、フーリエ変換後データD3の実数部と、白黒を反転させたマスクデータとの論理積演算を画素毎(周波数毎)に行うと共に(ステップS41)、フーリエ変換後データD3の虚数部と、白黒を反転させたマスクデータD7との論理積演算も画素毎(周波数毎)に行う(ステップS42)。そして画像処理部10は、論理演算によって得られた実数部と虚数部とを逆フーリエ変換対象のデータとしてRAM13に保存する(ステップS43)。尚、図16(a)に示すマスク処理は、マスクデータの論理演算を画素毎(周波数毎)に行う必要があり、比較的処理時間を要する処理である。 First, the mask processing shown in FIG. 16A will be described. When the mask processing of FIG. 16A is started, the image processing unit 10 reads out the Fourier transform data D3 and the mask data D7 stored in the RAM 13 (step S40). At this time, the image processing unit 10 generates mask data in which the black and white of the mask data D7 is inverted. Then, the image processing unit 10 performs a logical product calculation of the real number part of the data D3 after the Fourier transform and the mask data in which black and white are inverted for each pixel (every frequency) (step S41), and the data D3 after the Fourier transform. The logical product calculation of the imaginary part and the mask data D7 in which black and white is inverted is also performed for each pixel (for each frequency) (step S42). Then, the image processing unit 10 stores the real number part and the imaginary number part obtained by the logical operation in the RAM 13 as data to be subjected to the inverse Fourier transform (step S43). The mask process shown in FIG. 16A requires a logical operation of the mask data for each pixel (every frequency), which requires a relatively long processing time.

次に図16(b)に示すマスク処理について説明する。画像処理部10は、図16(b)のマスク処理を開始すると、RAM13に保存されているフーリエ変換後データD3と、マスクデータD7とを読み出す(ステップS45)。そして画像処理部10は、白黒を反転させたマスクデータにおいて0の座標に相当するフーリエ変換後データD3の実数部の値を0に変換し(ステップS46)、また白黒を反転させたマスクデータにおいて0の座標に相当するフーリエ変換後データD3の虚数部の値を0に変換する(ステップS47)。すなわち、図16(b)のマスク処理では、白黒を反転させたマスクデータにおいて0の値となっている座標を特定し、その座標に対応するフーリエ変換後データD3の実数部及び虚数部の値を0に置換するだけであるため、図16(a)のマスク処理に比べると短時間で処理を行うことが可能であり、処理効率を向上させることができる。そして画像処理部10は、ステップS46,S47で得られた実数部と虚数部とを逆フーリエ変換対象のデータとしてRAM13に保存する(ステップS48)。 Next, the mask processing shown in FIG. 16B will be described. When the mask processing of FIG. 16B is started, the image processing unit 10 reads out the Fourier transform data D3 and the mask data D7 stored in the RAM 13 (step S45). Then, the image processing unit 10 converts the value of the real part of the Fourier transform data D3 corresponding to the coordinates of 0 in the black and white inverted mask data to 0 (step S46), and in the black and white inverted mask data. The value of the imaginary part of the Fourier transform data D3 corresponding to the coordinates of 0 is converted to 0 (step S47). That is, in the mask processing of FIG. 16B, the coordinates having a value of 0 in the mask data in which black and white are inverted are specified, and the values of the real part and the imaginary part of the Fourier transform data D3 corresponding to the coordinates are specified. Is simply replaced with 0, so that the processing can be performed in a shorter time than the mask processing of FIG. 16A, and the processing efficiency can be improved. Then, the image processing unit 10 stores the real number part and the imaginary number part obtained in steps S46 and S47 in the RAM 13 as data to be subjected to the inverse Fourier transform (step S48).

尚、図16(b)のマスク処理では、ステップS46,S47においてフーリエ変換後データD3の実数部と虚数部とを0に置換する例を挙げたが、これに限られるものではない。例えば、ステップS46では、白黒を反転させたマスクデータにおいて0の座標に相当するフーリエ変換後データD3の実数部の値と係数Mとの論理積演算を行うようにしても良いし、またステップS47では、白黒を反転させたマスクデータにおいて0の座標に相当するフーリエ変換後データD3の実数部の値と係数Mとの論理積演算を行うようにしても良い。 In the mask processing of FIG. 16B, an example in which the real part and the imaginary part of the Fourier transform data D3 are replaced with 0 is given in steps S46 and S47, but the present invention is not limited to this. For example, in step S46, the logical product operation of the value of the real part of the Fourier transform data D3 corresponding to the coordinate of 0 and the coefficient M may be performed in the mask data in which black and white are inverted, or in step S47. Then, in the mask data in which black and white are inverted, the logical product operation of the value of the real part of the Fourier transform data D3 corresponding to the coordinate of 0 and the coefficient M may be performed.

再び図13のフローチャートに戻り、次に画像処理部10は、RAM13から逆フーリエ変換対象のデータを読み出し、そのデータに対して逆フーリエ変換処理を実行する(ステップS20)。これにより、網点による影響が低減された出力画像D9が生成される。そして画像処理部10は、出力画像D9を画像メモリ7に保存する(ステップS21)。これにより、制御部8は、画像メモリ7から出力画像D9を取得することができる。尚、画像処理部10は、出力画像D9を生成するとき、逆フーリエ変換処理を行った後、必要に応じて出力画像D9の色空間をYCrCb色空間からRGB色空間に変換する処理を行う。 Returning to the flowchart of FIG. 13 again, the image processing unit 10 then reads the data to be inverted Fourier transformed from the RAM 13 and executes the inverse Fourier transform process on the data (step S20). As a result, the output image D9 in which the influence of halftone dots is reduced is generated. Then, the image processing unit 10 saves the output image D9 in the image memory 7 (step S21). As a result, the control unit 8 can acquire the output image D9 from the image memory 7. When the output image D9 is generated, the image processing unit 10 performs an inverse Fourier transform process and then, if necessary, converts the color space of the output image D9 from the YCrCb color space to the RGB color space.

その後、画像処理部10は、画像処理を終了させるか否かを判断する(ステップS22)。例えば、スキャナ部2によって複数枚の原稿の連続読み取りが行われる場合、2枚目以降の画像に対して同様の処理を行う必要がある。この場合、画像処理部10は、画像処理を継続させると判断し(ステップS22でNO)、ステップS10へ戻り、2枚目以降の画像に対して上述したステップS10~S21の処理を繰り返す。一方、スキャナ部2によって読み取られた全ての原稿の画像に対する画像処理が終了した場合、画像処理部10は、画像処理を終了させると判断し(ステップS22でYES)、全ての処理が終了する。このように本実施形態の画像処理は、全ての処理をシーケンシャルで行うことが可能である。 After that, the image processing unit 10 determines whether or not to end the image processing (step S22). For example, when the scanner unit 2 continuously scans a plurality of original images, it is necessary to perform the same processing on the second and subsequent images. In this case, the image processing unit 10 determines that the image processing is to be continued (NO in step S22), returns to step S10, and repeats the processing of steps S10 to S21 described above for the second and subsequent images. On the other hand, when the image processing for the images of all the originals scanned by the scanner unit 2 is completed, the image processing unit 10 determines that the image processing is completed (YES in step S22), and all the processing is completed. As described above, in the image processing of the present embodiment, all the processing can be performed sequentially.

次に、画像処理装置1においてスキャンジョブが実行される際の制御部8の処理手順について説明する。図17は、制御部8によって行われる処理手順の一例を示すフローチャートである。制御部8は、この処理を開始すると、ユーザーによるジョブの設定操作に基づいて原稿の読み取りモードを設定する(ステップS50)。そして、制御部8は、設定した読み取りモードが印刷原稿読み取りモードであるか否かを判断する(ステップS51)。印刷原稿読み取りモードとは、画像処理装置1で印刷された原稿の画像を読み取るモードである。上記判断の結果、印刷原稿読み取りモードではない場合(ステップS51でNO)、制御部8は、次にコピー原稿読み取りモードであるか否かを判断する(ステップS52)。コピー原稿読み取りモードとは、画像処理装置1においてコピー出力された原稿の画像を読み取るモードである。 Next, the processing procedure of the control unit 8 when the scan job is executed in the image processing device 1 will be described. FIG. 17 is a flowchart showing an example of a processing procedure performed by the control unit 8. When the control unit 8 starts this process, the control unit 8 sets the document scanning mode based on the job setting operation by the user (step S50). Then, the control unit 8 determines whether or not the set reading mode is the print document reading mode (step S51). The print document reading mode is a mode for scanning an image of a document printed by the image processing apparatus 1. As a result of the above determination, if the print document reading mode is not set (NO in step S51), the control unit 8 next determines whether or not the copy document reading mode is set (step S52). The copy document reading mode is a mode for scanning the image of the document copied and output by the image processing apparatus 1.

読み取りモードが印刷原稿読み取りモード又はコピー原稿読み取りモードである場合(ステップS51でYES、又は、ステップS52でYES)、制御部8は、ユーザーによるスキャンジョブの実行開始指示に基づいてスキャンジョブの実行を開始すると(ステップS53)、画像処理部10を機能させ、画像処理部10による網点平滑化処理を実行させる(ステップS54)。したがって、スキャンジョブの実行が開始されると、画像処理部10において上述した網点平滑化処理(図13~図16の処理)が行われる。制御部8は、スキャンジョブが終了するまで画像処理部10による画像処理を継続させる(ステップS55でNO)。一方、スキャンジョブが終了すると(ステップS55でYES)、制御部8は、画像処理部10による画像処理を終了させ、ジョブの実行を終了する。 When the scanning mode is the print document scanning mode or the copy document scanning mode (YES in step S51 or YES in step S52), the control unit 8 executes the scan job based on the user's instruction to start executing the scan job. When started (step S53), the image processing unit 10 is made to function, and the halftone dot smoothing process by the image processing unit 10 is executed (step S54). Therefore, when the execution of the scan job is started, the halftone dot smoothing process (process of FIGS. 13 to 16) described above is performed in the image processing unit 10. The control unit 8 continues the image processing by the image processing unit 10 until the scan job is completed (NO in step S55). On the other hand, when the scan job is completed (YES in step S55), the control unit 8 ends the image processing by the image processing unit 10 and ends the job execution.

これに対し、読み取りモードが印刷原稿読み取りモード及びコピー原稿読み取りモードのいずれでもない場合(ステップS51でNO、且つ、ステップS52でNO)、制御部8は、ユーザーによるスキャンジョブの実行開始指示に基づいてスキャンジョブの実行を開始する(ステップS56)。この場合、制御部8は、画像処理部10を機能させない。つまり、スキャナ部2によって読み取られる原稿の画像が網点を含まない画像である場合、制御部8は、スキャンジョブの実行中に画像処理部10を機能させず、上述した画像処理が行われないように制御する。そしてスキャンジョブの実行が終了すると(ステップS57でYES)、制御部8による処理が終了する。 On the other hand, when the scanning mode is neither the print document scanning mode nor the copy document scanning mode (NO in step S51 and NO in step S52), the control unit 8 is based on the user's instruction to start executing the scan job. And start the execution of the scan job (step S56). In this case, the control unit 8 does not function the image processing unit 10. That is, when the image of the original document read by the scanner unit 2 is an image that does not include halftone dots, the control unit 8 does not operate the image processing unit 10 during the execution of the scan job, and the above-mentioned image processing is not performed. To control. When the execution of the scan job is completed (YES in step S57), the processing by the control unit 8 is completed.

このように本実施形態の画像処理装置1では、ユーザーによって指定される読み取りモードに応じて、制御部8が網点による影響を低減する必要があるか否かを判断し、網点による影響を低減する必要があると判断した場合に、スキャンジョブの実行中に画像処理部10を機能させ、スキャナ部2から出力される画像データを入力画像D1として、上述した網点平滑化処理が行われるように制御する。 As described above, in the image processing device 1 of the present embodiment, the control unit 8 determines whether or not it is necessary to reduce the influence of the halftone dots according to the reading mode specified by the user, and the influence of the halftone dots is determined. When it is determined that the reduction is necessary, the image processing unit 10 is made to function during the execution of the scan job, and the image data output from the scanner unit 2 is used as the input image D1 to perform the halftone dot smoothing process described above. To control.

以上のように本実施形態の画像処理装置1は、網点を含む入力画像D1を取得すると、その入力画像D1に基づいて入力画像D1の空間周波数成分を表した第1画像D5を生成する。そして画像処理装置1は、第1画像D5を所定角度回転させた第2画像D6を生成し、第1画像D5と第2画像D6とを比較することにより、入力画像D1の空間周波数成分に対応するマスクデータD7を生成する。更に画像処理装置1は、そのマスクデータD7に基づいて入力画像D1に対するマスク処理を行い、出力画像D9を生成するように構成される。このような構成を有する画像処理装置1は、入力画像D1に含まれる網点の周波数成分に対してピンポイントでマスク処理を行うことが可能であり、文字等のエッジ部分が平滑化されてしまうことを最小限に抑えつつ、従来よりも効率的に網点の影響を低減させた出力画像D9を得ることができる。 As described above, when the image processing apparatus 1 of the present embodiment acquires the input image D1 including halftone dots, it generates a first image D5 representing the spatial frequency component of the input image D1 based on the input image D1. Then, the image processing device 1 generates a second image D6 obtained by rotating the first image D5 by a predetermined angle, and compares the first image D5 with the second image D6 to correspond to the spatial frequency component of the input image D1. The mask data D7 to be processed is generated. Further, the image processing apparatus 1 is configured to perform mask processing on the input image D1 based on the mask data D7 and generate an output image D9. The image processing device 1 having such a configuration can perform pinpoint mask processing on the frequency components of halftone dots included in the input image D1, and the edge portions such as characters are smoothed. It is possible to obtain an output image D9 in which the influence of halftone dots is reduced more efficiently than in the past while minimizing this.

(第2実施形態)
次に本発明の第2実施形態について説明する。上記第1実施形態では、第1画像D5を90度回転させて第2画像D6を生成し、第1画像D5と第2画像D6との画素毎の論理積を演算することによってマスクデータを生成する処理を説明した。そのような処理を適切に行う場合、第1画像D5の縦方向及び横方向のサイズと、第2画像D6の縦方向及び横方向のサイズが互いに等しいことが前提となる。つまり、第1実施形態で説明した処理は、入力画像D1が正方形の画像である場合に好適に利用し得るものである。しかしながら、スキャナ部2が読み取る原稿は、正方形ではなく、長方形であることが多いのが実情である。このような実情に鑑み、本実施形態では、スキャナ部2が長方形の原稿を読み取って生成した画像に対して適用可能とする形態について説明する。尚、本実施形態における画像処理装置1の全体的な構成は第1実施形態で説明したものと同様である。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. In the first embodiment, the first image D5 is rotated 90 degrees to generate the second image D6, and the mask data is generated by calculating the logical product of the first image D5 and the second image D6 for each pixel. The process to be performed was explained. When such processing is appropriately performed, it is premised that the vertical and horizontal sizes of the first image D5 and the vertical and horizontal sizes of the second image D6 are equal to each other. That is, the process described in the first embodiment can be suitably used when the input image D1 is a square image. However, the actual situation is that the document read by the scanner unit 2 is not a square but a rectangle in many cases. In view of such circumstances, the present embodiment describes a mode in which the scanner unit 2 can be applied to an image generated by scanning a rectangular original. The overall configuration of the image processing apparatus 1 in this embodiment is the same as that described in the first embodiment.

図18は、本実施形態における画像処理部10における機能構成を例示するブロック図である。画像処理部10のCPU11は、プログラム14を実行することにより、第1実施形態と同様に、画像取得部15、第1画像生成部20、第2画像生成部30、マスクデータ生成部40、及び、出力画像生成部50として機能する。これらのうち、第1実施形態と異なるのは、画像取得部15と、出力画像生成部50である。すなわち、画像取得部15がブロック分割部16を備えており、出力画像生成部50が合成処理部53を備えている点が第1実施形態と異なる。 FIG. 18 is a block diagram illustrating a functional configuration of the image processing unit 10 in the present embodiment. By executing the program 14, the CPU 11 of the image processing unit 10 executes the image acquisition unit 15, the first image generation unit 20, the second image generation unit 30, the mask data generation unit 40, and the mask data generation unit 40, as in the first embodiment. , Functions as an output image generation unit 50. Of these, the image acquisition unit 15 and the output image generation unit 50 are different from the first embodiment. That is, the image acquisition unit 15 includes the block division unit 16, and the output image generation unit 50 includes the composition processing unit 53, which is different from the first embodiment.

画像取得部15のブロック分割部16は、画像メモリ7から入力画像D1を取得すると、その入力画像D1を複数のブロック画像に分割する。例えば、入力画像D1が長方形であり、縦方向及び横方向のサイズが異なる場合、ブロック分割部16は、入力画像D1を、縦方向及び横方向のサイズが等しい複数のブロック画像に分割する。したがって、ブロック分割部16によって生成される複数のブロック画像は、いずれも正方形である。画像取得部15は、ブロック分割部16によって複数のブロック画像が生成されると、それら複数のブロック画像のそれぞれを処理対象画像D2として第1画像生成部20へ順次出力する。 When the block division unit 16 of the image acquisition unit 15 acquires the input image D1 from the image memory 7, the block division unit 16 divides the input image D1 into a plurality of block images. For example, when the input image D1 is rectangular and the vertical and horizontal sizes are different, the block division unit 16 divides the input image D1 into a plurality of block images having the same vertical and horizontal sizes. Therefore, the plurality of block images generated by the block dividing unit 16 are all square. When a plurality of block images are generated by the block division unit 16, the image acquisition unit 15 sequentially outputs each of the plurality of block images as a processing target image D2 to the first image generation unit 20.

図19は、ブロック分割部16による分割方法の例を示す図である。まず、図19(a)に示す例は、入力画像D1の横方向(X方向)と縦方向(Y方向)のそれぞれを予め定められた基準長さで分割することで複数のブロック画像を生成する。この場合、入力画像D1の横方向及び縦方向のそれぞれの長さが基準長さの整数倍とならないことがある。そのような場合、横方向及び縦方向における最後のブロック画像を1つ前のブロック画像と重なった状態のブロック画像とすることにより、全てのブロック画像を正方形として生成することができる。図19(a)に示す分割方法の場合、ブロック分割部16によって入力画像D1から多数のブロック画像が生成されることになる。 FIG. 19 is a diagram showing an example of a division method by the block division unit 16. First, in the example shown in FIG. 19A, a plurality of block images are generated by dividing each of the horizontal direction (X direction) and the vertical direction (Y direction) of the input image D1 by a predetermined reference length. do. In this case, the lengths of the input image D1 in the horizontal direction and the vertical direction may not be an integral multiple of the reference length. In such a case, by making the last block image in the horizontal direction and the vertical direction a block image in a state of overlapping with the previous block image, all the block images can be generated as a square. In the case of the division method shown in FIG. 19A, a large number of block images are generated from the input image D1 by the block division unit 16.

次に、図19(b)に示す例は、入力画像D1から2つのブロック画像を生成する分割方法である。図19(b)に示す入力画像D1は、横方向よりも縦方向のサイズの方が大きい。この場合、ブロック分割部16は、入力画像D1の横方向の長さと同じ長さで縦方向を分割する。このときも、入力画像D1の縦方向の長さが横方向の長さの整数倍とならないことがある。そのような場合、ブロック分割部16は、入力画像D1の上端を基準として下方に向かって横方向の長さと同じ長さの位置で分割した第1のブロック画像と、入力画像D1の下端を基準として上方に向かって横方向の長さと同じ長さの位置で分割した第2のブロック画像とに分割する。つまり、第1のブロック画像及び第2のブロック画像は、互いに重なった状態の画像として生成される。尚、横方向よりも縦方向のサイズの方が小さい場合には、横方向に入力画像D1を分割すれば良い。 Next, the example shown in FIG. 19B is a division method for generating two block images from the input image D1. The size of the input image D1 shown in FIG. 19B is larger in the vertical direction than in the horizontal direction. In this case, the block dividing unit 16 divides the input image D1 in the vertical direction by the same length as the horizontal length. Also at this time, the vertical length of the input image D1 may not be an integral multiple of the horizontal length. In such a case, the block dividing unit 16 refers to the first block image divided downward at a position having the same length as the lateral length with respect to the upper end of the input image D1 and the lower end of the input image D1. It is divided into a second block image divided upward at a position having the same length as the lateral length. That is, the first block image and the second block image are generated as images in a state of being overlapped with each other. If the size in the vertical direction is smaller than that in the horizontal direction, the input image D1 may be divided in the horizontal direction.

ブロック分割部16は、上記2つの分割方法のうちのいずれを採用しても構わない。ただし、図19(a)に示した分割方法の場合には、ブロック分割によって生成されるブロック画像の数が多くなると共に、1つ当たりのブロック画像の面積が小さくなる。第1実施形態で説明したように、個々のブロック画像を、処理対象画像D2としてフーリエ変換を行い、パワースペクトル画像を生成する場合、ブロック画像のサイズが小さくなると、網点の周波数成分を適切に検知することができなくなる可能性がある。また、ブロック画像の数が増加すると、ブロック画像に対するフーリエ変換から逆フーリエ変換までの処理を行う回数が増加するため、処理効率が低下する。そのため、図19(a)に示した分割方法よりも、図19(b)に示した分割方法を採用することが好ましい。図19(b)に示した分割方法の場合には、ブロック分割によって生成されるブロック画像の数を最小にし、しかも1つ当たりのブロック画像の面積を最大にすることができるため、網点の周波数成分を適切に検知することができなくなる可能性を低減し、しかも処理効率の低下も抑制することができるという利点がある。 The block division unit 16 may adopt either of the above two division methods. However, in the case of the division method shown in FIG. 19A, the number of block images generated by the block division increases, and the area of each block image becomes small. As described in the first embodiment, when the individual block images are subjected to Fourier transform as the processing target image D2 to generate a power spectrum image, when the size of the block image becomes small, the frequency component of the halftone dots is appropriately adjusted. It may not be possible to detect. Further, as the number of block images increases, the number of times of processing from the Fourier transform to the inverse Fourier transform on the block images increases, so that the processing efficiency decreases. Therefore, it is preferable to adopt the division method shown in FIG. 19 (b) rather than the division method shown in FIG. 19 (a). In the case of the division method shown in FIG. 19B, the number of block images generated by block division can be minimized, and the area of each block image can be maximized. There is an advantage that the possibility that the frequency component cannot be detected properly can be reduced, and the decrease in processing efficiency can be suppressed.

ブロック分割部16によって生成される複数のブロック画像が処理対象画像D2として第1画像生成部20に順次出力されると、それら複数のブロック画像のそれぞれに対して第1実施形態で説明した画像処理が行われる。そして出力画像生成部50の逆フーリエ変換部52によって生成される出力画像D9は、個々のブロック画像に対応する出力ブロック画像となる。そこで本実施形態では、出力画像生成部50に合成処理部53が設けられており、逆フーリエ変換部52から順次出力される複数の出力ブロック画像を合成する。すなわち、合成処理部53は、ブロック分割部16において適用された分割方法に基づいて、個々のブロック画像に対応する出力ブロック画像を合成することにより、入力画像D1に対応する出力画像D10を生成する。 When a plurality of block images generated by the block division unit 16 are sequentially output to the first image generation unit 20 as the image to be processed D2, the image processing described in the first embodiment is performed for each of the plurality of block images. Is done. The output image D9 generated by the inverse Fourier transform unit 52 of the output image generation unit 50 becomes an output block image corresponding to each block image. Therefore, in the present embodiment, the output image generation unit 50 is provided with a composition processing unit 53, and a plurality of output block images sequentially output from the inverse Fourier transform unit 52 are combined. That is, the composition processing unit 53 generates the output image D10 corresponding to the input image D1 by synthesizing the output block images corresponding to the individual block images based on the division method applied in the block division unit 16. ..

以上のように本実施形態の画像処理装置1は、入力画像D1が正方形でない場合、入力画像D1を分割して正方形のブロック画像を生成し、そのブロック画像を処理対象として、フーリエ変換部21から逆フーリエ変換部52までの画像処理を行うようにしている。そのため、第1画像D5と第2画像D6との画素毎の論理積を演算することによってマスクデータを生成する処理等を適切に行うことが可能であり、入力画像D1に含まれる網点の周波数成分を適切に減衰させることができる。 As described above, when the input image D1 is not a square, the image processing apparatus 1 of the present embodiment divides the input image D1 to generate a square block image, and the block image is used as a processing target from the Fourier transform unit 21. Image processing up to the inverse Fourier transform unit 52 is performed. Therefore, it is possible to appropriately perform processing such as generating mask data by calculating the logical product of the first image D5 and the second image D6 for each pixel, and the frequency of the halftone dots included in the input image D1. The components can be appropriately attenuated.

尚、本実施形態において上述した点以外の構成及び動作については、第1実施形態で説明したものと同様である。 The configurations and operations other than those described above in the present embodiment are the same as those described in the first embodiment.

(第3実施形態)
次に本発明の第3実施形態について説明する。上記第2実施形態では、入力画像D1が正方形でない場合に、入力画像D1を正方形のブロック画像に分割することにより、適切な画像処理を行えるようにした例を説明した。これに対し、本実施形態では、入力画像D1が正方形でない場合に、入力画像D1の縦方向及び横方向のいずれか一方を拡大又は縮小することにより、正方形の画像を生成する形態について説明する。尚、本実施形態における画像処理装置1の全体的な構成は第1実施形態で説明したものと同様である。
(Third Embodiment)
Next, a third embodiment of the present invention will be described. In the second embodiment, when the input image D1 is not a square, an example is described in which the input image D1 is divided into square block images so that appropriate image processing can be performed. On the other hand, in the present embodiment, when the input image D1 is not a square, a mode for generating a square image by enlarging or reducing either the vertical direction or the horizontal direction of the input image D1 will be described. The overall configuration of the image processing apparatus 1 in this embodiment is the same as that described in the first embodiment.

図20は、本実施形態における画像処理部10における機能構成を例示するブロック図である。画像処理部10のCPU11は、プログラム14を実行することにより、第1実施形態と同様に、画像取得部15、第1画像生成部20、第2画像生成部30、マスクデータ生成部40、及び、出力画像生成部50として機能する。これらのうち、第1実施形態と異なるのは、画像取得部15と、出力画像生成部50である。すなわち、画像取得部15が倍率変換部17を備えており、出力画像生成部50も倍率変換部54を備えている点が第1実施形態と異なる。 FIG. 20 is a block diagram illustrating a functional configuration of the image processing unit 10 in the present embodiment. By executing the program 14, the CPU 11 of the image processing unit 10 executes the image acquisition unit 15, the first image generation unit 20, the second image generation unit 30, the mask data generation unit 40, and the mask data generation unit 40, as in the first embodiment. , Functions as an output image generation unit 50. Of these, the image acquisition unit 15 and the output image generation unit 50 are different from the first embodiment. That is, the image acquisition unit 15 is provided with the magnification conversion unit 17, and the output image generation unit 50 is also provided with the magnification conversion unit 54, which is different from the first embodiment.

画像取得部15の倍率変換部17は、画像メモリ7から入力画像D1を取得すると、その入力画像D1の縦方向及び横方向のサイズを検知し、一方のサイズを他方のサイズの合わせるように入力画像D1に対して一軸方向の拡大処理又は縮小処理を行うことで正方形の画像を生成する。つまり、本実施形態では、1つの入力画像D1から、1つの正方形の画像が生成される。そして画像取得部15は、倍率変換部17によって正方形の画像が生成されると、その画像を処理対象画像D2として第1画像生成部20へ出力する。 When the magnification conversion unit 17 of the image acquisition unit 15 acquires the input image D1 from the image memory 7, it detects the vertical and horizontal sizes of the input image D1 and inputs one size so as to match the other size. A square image is generated by performing enlargement processing or reduction processing in the uniaxial direction with respect to the image D1. That is, in the present embodiment, one square image is generated from one input image D1. Then, when the magnification conversion unit 17 generates a square image, the image acquisition unit 15 outputs the image to the first image generation unit 20 as the image to be processed D2.

図21は、倍率変換部17による倍率変換の例を示す図である。図21に示す入力画像D1は、横方向(X方向)のサイズよりも縦方向(Y方向)のサイズが大きい長方形の画像である。この場合、倍率変換部17は、例えば縦方向のサイズが横方向のサイズに合致するように、Y方向に対する縮小処理を行う。これにより、図21に示すように、長方形の入力画像D1が正方形の画像に変換されるので、その正方形の画像を処理対象画像D2とすることができる。尚、図21では、縦方向のサイズが横方向のサイズに合致するように、Y方向に対する縮小処理を行う場合を例示したが、正方形の画像を得る手法はこれに限られない。例えば、倍率変換部17は、横方向のサイズが縦方向のサイズに合致するように、X方向に対する拡大処理を行うようにしても良い。 FIG. 21 is a diagram showing an example of magnification conversion by the magnification conversion unit 17. The input image D1 shown in FIG. 21 is a rectangular image in which the size in the vertical direction (Y direction) is larger than the size in the horizontal direction (X direction). In this case, the magnification conversion unit 17 performs reduction processing in the Y direction so that the size in the vertical direction matches the size in the horizontal direction, for example. As a result, as shown in FIG. 21, the rectangular input image D1 is converted into a square image, so that the square image can be used as the processing target image D2. Note that FIG. 21 illustrates a case where the reduction process in the Y direction is performed so that the size in the vertical direction matches the size in the horizontal direction, but the method for obtaining a square image is not limited to this. For example, the magnification conversion unit 17 may perform enlargement processing in the X direction so that the size in the horizontal direction matches the size in the vertical direction.

倍率変換部17によって生成される正方形の画像が処理対象画像D2として第1画像生成部20に出力されると、その正方形の画像に対して第1実施形態で説明した画像処理が行われる。そして出力画像生成部50の逆フーリエ変換部52によって生成される出力画像D9は、正方形の画像に対応する出力対象画像となる。そこで本実施形態では、出力画像生成部50に倍率変換部54が設けられており、逆フーリエ変換部52から出力される出力対象画像の倍率を変換する。すなわち、倍率変換部54は、出力対象画像に対し、倍率変換部17で行われた倍率変換処理(拡大又は縮小)と逆の倍率変換処理(縮小又は拡大)を行うことにより、元の入力画像D1に対応する出力画像D10を生成する。 When the square image generated by the magnification conversion unit 17 is output to the first image generation unit 20 as the image to be processed D2, the image processing described in the first embodiment is performed on the square image. The output image D9 generated by the inverse Fourier transform unit 52 of the output image generation unit 50 is an output target image corresponding to a square image. Therefore, in the present embodiment, the output image generation unit 50 is provided with a magnification conversion unit 54 to convert the magnification of the output target image output from the inverse Fourier transform unit 52. That is, the magnification conversion unit 54 performs the magnification conversion processing (reduction or enlargement) opposite to the magnification conversion processing (enlargement or reduction) performed by the magnification conversion unit 17 on the output target image, thereby performing the original input image. The output image D10 corresponding to D1 is generated.

以上のように本実施形態の画像処理装置1は、入力画像D1が正方形でない場合、入力画像D1に対して縦方向及び横方向のいずれか一方に対する倍率変換処理を行うことにより、正方形の画像を生成し、その正方形の画像を処理対象画像D2とし、フーリエ変換部21から逆フーリエ変換部52までの画像処理を行うようにしている。そのため、第1画像D5と第2画像D6との画素毎の論理積を演算することによってマスクデータを生成する処理等を適切に行うことが可能であり、入力画像D1に含まれる網点の周波数成分を適切に減衰させることができる。尚、本実施形態のように、入力画像D1に対する倍率変換処理を行っても網点の周波数成分に関する情報は失われないため、正常に網点の周波数成分を減衰させることができる。 As described above, when the input image D1 is not a square, the image processing device 1 of the present embodiment performs a magnification conversion process on the input image D1 in either the vertical direction or the horizontal direction to obtain a square image. The generated square image is used as the image to be processed D2, and the image processing from the Fourier transform unit 21 to the inverse Fourier transform unit 52 is performed. Therefore, it is possible to appropriately perform processing such as generating mask data by calculating the logical product of the first image D5 and the second image D6 for each pixel, and the frequency of the halftone dots included in the input image D1. The components can be appropriately attenuated. Since the information regarding the frequency component of the halftone dots is not lost even if the magnification conversion process for the input image D1 is performed as in the present embodiment, the frequency component of the halftone dots can be attenuated normally.

また、本実施形態の画像処理装置1は、1つの入力画像D1から1つの正方形の画像を生成するため、フーリエ変換部21から逆フーリエ変換部52までの画像処理を行う回数が1つの入力画像D1につき1回で済むため、処理効率に優れている。つまり、本実施形態による手法は、第2実施形態で説明した手法よりも効率的に画像処理を行うことが可能である。 Further, since the image processing device 1 of the present embodiment generates one square image from one input image D1, the number of times of image processing from the Fourier transform unit 21 to the inverse Fourier transform unit 52 is one input image. It is excellent in processing efficiency because it only needs to be performed once per D1. That is, the method according to the present embodiment can perform image processing more efficiently than the method described in the second embodiment.

尚、本実施形態において上述した点以外の構成及び動作については、第1実施形態で説明したものと同様である。 The configurations and operations other than those described above in the present embodiment are the same as those described in the first embodiment.

(変形例)
以上、本発明に関する実施形態について説明したが、本発明は、上記実施形態において説明した内容のものに限られるものではなく、種々の変形例が適用可能である。
(Modification example)
Although the embodiments relating to the present invention have been described above, the present invention is not limited to the contents described in the above embodiments, and various modifications can be applied.

例えば上記第1実施形態では、第1画像生成部20においてパワースペクトル画像D4を2値化して第1画像D5を生成するときに、パワースペクトル画像D4における周波数座標軸の原点から所定距離Rの範囲内の領域P1を予め定められた値(例えば「0」の値)に変換する例を説明した。しかし、周波数座標軸の原点から所定距離Rの範囲内の領域P1を予め定められた値(例えば「0」の値)に変換する処理は、必ずしも2値化処理の際に行われるものに限られない。例えば、マスクデータ生成部40がマスクデータD7を生成するときに、第1画像D5又は第2画像D6における周波数座標軸の原点から所定距離Rの範囲内の領域P1を予め定められた値(例えば「0」の値)に設定するものであっても構わない。この場合であっても、第1実施形態で説明した作用効果に何ら変わりはない。 For example, in the first embodiment, when the power spectrum image D4 is binarized in the first image generation unit 20 to generate the first image D5, the power spectrum image D4 is within a predetermined distance R from the origin of the frequency coordinate axis. An example of converting the region P1 of the above into a predetermined value (for example, a value of “0”) has been described. However, the process of converting the region P1 within the range of the predetermined distance R from the origin of the frequency coordinate axis to a predetermined value (for example, the value of "0") is not necessarily limited to the process performed at the time of the binarization process. do not have. For example, when the mask data generation unit 40 generates the mask data D7, the region P1 within a predetermined distance R from the origin of the frequency coordinate axis in the first image D5 or the second image D6 is set to a predetermined value (for example, "" It may be set to the value of "0"). Even in this case, there is no change in the action and effect described in the first embodiment.

また、上記実施形態では、主として画像処理部10がソフトウェア処理によって画像処理を行う場合を例示したが、これに限られるものではない。すなわち、画像処理部10は、画像取得部15、第1画像生成部20、第2画像生成部30、マスクデータ生成部40、及び、出力画像生成部50のそれぞれをハードウェア構成で実現したものであっても構わない。 Further, in the above embodiment, the case where the image processing unit 10 mainly performs image processing by software processing is illustrated, but the present invention is not limited to this. That is, the image processing unit 10 realizes each of the image acquisition unit 15, the first image generation unit 20, the second image generation unit 30, the mask data generation unit 40, and the output image generation unit 50 in a hardware configuration. It doesn't matter.

また、上記実施形態では、網点の影響を低減する画像処理部10の機能がMFPとして構成される画像処理装置1に実装される場合を例示した。しかし、上述した画像処理部10は、必ずしもMFPなどの画像処理装置1に実装されるものに限られない。例えば、上述した画像処理部10の機能は、一般的なパーソナルコンピュータなどのコンピュータによって実現されるものであっても構わない。 Further, in the above embodiment, a case where the function of the image processing unit 10 for reducing the influence of halftone dots is mounted on the image processing device 1 configured as an MFP is illustrated. However, the above-mentioned image processing unit 10 is not necessarily limited to that mounted on an image processing device 1 such as an MFP. For example, the function of the image processing unit 10 described above may be realized by a computer such as a general personal computer.

また、上記実施形態では、画像処理部10のCPU11によって実行されるプログラム14が予めROM12に記憶されている場合を例示した。しかし、プログラム14は、事後的に画像処理部10にインストールされるものであっても構わない。この場合、プログラム14は、ネットワークなどを介して画像処理部10にインストール可能な態様で提供されるものであっても良いし、またCD-ROMやUSBメモリなどのコンピュータ読み取り可能な記録媒体に記録された状態で提供されるものであっても構わない。 Further, in the above embodiment, the case where the program 14 executed by the CPU 11 of the image processing unit 10 is stored in the ROM 12 in advance is illustrated. However, the program 14 may be installed in the image processing unit 10 after the fact. In this case, the program 14 may be provided in a manner that can be installed in the image processing unit 10 via a network or the like, or is recorded on a computer-readable recording medium such as a CD-ROM or a USB memory. It may be provided in the state of being provided.

1 画像処理装置
2 スキャナ部
4 画像読取部(画像読取手段)
8 制御部(制御手段)
10 画像処理部
15 画像取得部(画像取得手段)
20 第1画像生成部(第1画像生成手段)
30 第2画像生成部(第2画像生成手段)
40 マスクデータ生成部(マスクデータ生成手段)
50 出力画像生成部(出力画像生成手段)
1 Image processing device 2 Scanner unit 4 Image reading unit (image reading means)
8 Control unit (control means)
10 Image processing unit 15 Image acquisition unit (image acquisition means)
20 First image generation unit (first image generation means)
30 Second image generation unit (second image generation means)
40 Mask data generation unit (mask data generation means)
50 Output image generation unit (output image generation means)

Claims (19)

網点を含む入力画像を取得する画像取得手段と、
前記入力画像に基づいて前記入力画像の空間周波数成分を表した第1画像を生成する第1画像生成手段と、
前記第1画像を所定角度回転させた第2画像を生成する第2画像生成手段と、
前記第1画像と前記第2画像とを比較し、前記入力画像の空間周波数成分に対応するマスクデータを生成するマスクデータ生成手段と、
前記マスクデータに基づいて前記入力画像に対するマスク処理を行い、出力画像を生成する出力画像生成手段と、
を備えることを特徴とする画像処理装置。
Image acquisition means for acquiring input images including halftone dots, and
A first image generation means for generating a first image representing the spatial frequency component of the input image based on the input image, and
A second image generation means for generating a second image obtained by rotating the first image by a predetermined angle,
A mask data generation means that compares the first image with the second image and generates mask data corresponding to the spatial frequency component of the input image.
An output image generation means that performs mask processing on the input image based on the mask data and generates an output image.
An image processing device characterized by comprising.
前記第2画像生成手段は、前記第1画像を時計回りに90度回転させることにより、前記第2画像を生成することを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the second image generation means generates the second image by rotating the first image 90 degrees clockwise. 前記第2画像生成手段は、前記第1画像を反時計回りに90度回転させることにより、前記第2画像を生成することを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the second image generation means generates the second image by rotating the first image 90 degrees counterclockwise. 前記第1画像生成手段は、前記第1画像を生成するとき、所定の閾値に基づいて前記第1画像に対する2値化処理を行うことを特徴とする請求項1乃至3のいずれかに記載の画像処理装置。 The first image generation means according to any one of claims 1 to 3, wherein when the first image is generated, the first image is binarized based on a predetermined threshold value. Image processing device. 前記第1画像生成手段は、前記2値化処理を行うとき、前記第1画像における周波数座標軸の原点を中心とする所定範囲の領域を予め定められた値に置換することを特徴とする請求項4に記載の画像処理装置。 The first image generation means is characterized in that, when performing the binarization process, a region in a predetermined range centered on the origin of the frequency coordinate axis in the first image is replaced with a predetermined value. The image processing apparatus according to 4. 前記マスクデータ生成手段は、前記マスクデータを生成するとき、前記第1画像又は前記第2画像における周波数座標軸の原点を中心とする所定範囲の領域に予め定められた値を設定することを特徴とする請求項1乃至5のいずれかに記載の画像処理装置。 The mask data generation means is characterized in that when the mask data is generated, a predetermined value is set in a predetermined range region centered on the origin of the frequency coordinate axis in the first image or the second image. The image processing apparatus according to any one of claims 1 to 5. 前記マスクデータ生成手段は、前記第1画像と前記第2画像との論理演算を行うことにより前記マスクデータを生成することを特徴とする請求項1乃至6のいずれかに記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 6, wherein the mask data generation means generates the mask data by performing a logical operation between the first image and the second image. 前記マスクデータ生成手段は、前記第1画像と前記第2画像とを比較して得られるデータに対し、オープニング処理又はクロージング処理を行うことによって前記マスクデータを生成することを特徴とする請求項1乃至7のいずれかに記載の画像処理装置。 Claim 1 is characterized in that the mask data generation means generates the mask data by performing an opening process or a closing process on the data obtained by comparing the first image and the second image. 7. The image processing apparatus according to any one of 7. 前記マスクデータ生成手段は、前記第1画像と前記第2画像とを比較して得られるデータに対し、膨張処理を行うことによって前記マスクデータを生成することを特徴とする請求項1乃至8のいずれかに記載の画像処理装置。 The mask data generation means according to claim 1 to 8, wherein the mask data generation means generates the mask data by performing an expansion process on the data obtained by comparing the first image and the second image. The image processing apparatus according to any one. 前記出力画像生成手段は、前記マスクデータと前記入力画像との論理演算を行うことにより前記出力画像を生成することを特徴とする請求項1乃至9のいずれかに記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 9, wherein the output image generation means generates the output image by performing a logical operation between the mask data and the input image. 前記第1画像生成手段は、前記入力画像に対するフーリエ変換を行い、前記入力画像をパワースペクトル画像に変換することにより前記第1画像を生成することを特徴とする請求項1乃至10のいずれかに記載の画像処理装置。 The first image generation means according to any one of claims 1 to 10, wherein the first image generation means performs a Fourier transform on the input image and generates the first image by converting the input image into a power spectrum image. The image processing device described. 前記出力画像生成手段は、前記マスクデータと、前記入力画像のフーリエ変換後データとの論理演算を行って得られるデータに基づいて逆フーリエ変換を行うことにより前記出力画像を生成することを特徴とする請求項11に記載の画像処理装置。 The output image generation means is characterized in that the output image is generated by performing an inverse Fourier transform based on the data obtained by performing a logical calculation between the mask data and the data after Fourier transform of the input image. The image processing apparatus according to claim 11. 原稿の画像を読み取る画像読取手段、
を更に備え、
前記画像取得手段は、前記画像読取手段が原稿を読み取ることによって生成する画像を前記入力画像として取得することを特徴とする請求項1乃至12のいずれかに記載の画像処理装置。
Image reading means for reading the image of the original,
Further prepare
The image processing apparatus according to any one of claims 1 to 12, wherein the image acquisition means acquires an image generated by the image reading means reading a document as the input image.
前記画像読取手段が原稿の読み取りを行う際の読み取りモードに応じて、前記第1画像生成手段、前記第2画像生成手段、前記マスクデータ生成手段、及び、前記出力画像生成手段を動作させるか否かを切り替える制御手段、
を更に備えることを特徴とする請求項13に記載の画像処理装置。
Whether or not the first image generation means, the second image generation means, the mask data generation means, and the output image generation means are operated according to the reading mode when the image reading means reads the original. Control means to switch between
The image processing apparatus according to claim 13, further comprising.
前記制御手段は、前記読み取りモードが印刷原稿読み取りモード又はコピー原稿読み取りモードである場合、前記第1画像生成手段、前記第2画像生成手段、前記マスクデータ生成手段、及び、前記出力画像生成手段を動作させることを特徴とする請求項14に記載の画像処理装置。 When the reading mode is a print document reading mode or a copy document reading mode, the control means obtains the first image generation means, the second image generation means, the mask data generation means, and the output image generation means. The image processing apparatus according to claim 14, wherein the image processing apparatus is operated. 前記画像取得手段は、前記入力画像を、縦方向及び横方向のサイズが等しい複数のブロック画像に分割し、
前記第1画像生成手段は、前記複数のブロック画像のそれぞれに基づいて前記第1画像を生成し、
前記出力画像生成手段は、前記複数のブロック画像のそれぞれから生成される複数の出力ブロック画像を合成することにより前記出力画像を生成することを特徴とする請求項1乃至15のいずれかに記載の画像処理装置。
The image acquisition means divides the input image into a plurality of block images having the same vertical and horizontal sizes.
The first image generation means generates the first image based on each of the plurality of block images.
The output image generation means according to any one of claims 1 to 15, wherein the output image generation means generates the output image by synthesizing a plurality of output block images generated from each of the plurality of block images. Image processing device.
前記画像取得手段は、前記入力画像の縦方向及び横方向のサイズが異なる場合、前記入力画像に対して縦方向及び横方向のいずれか一方に対する倍率変換処理を行うことにより、縦方向及び横方向のサイズが等しい処理対象画像を生成し、
前記第1画像生成手段は、前記処理対象画像に基づいて前記第1画像を生成し、
前記出力画像生成手段は、前記処理対象画像から生成される出力対象画像に対し、前記倍率変換処理の逆変換となる処理を行うことにより、前記出力画像を生成することを特徴とする請求項1乃至15のいずれかに記載の画像処理装置。
When the vertical and horizontal sizes of the input image are different, the image acquisition means performs magnification conversion processing for either the vertical direction or the horizontal direction on the input image in the vertical direction and the horizontal direction. Generates processed images of equal size and
The first image generation means generates the first image based on the image to be processed.
The output image generation means is characterized in that the output image is generated by performing a process that is an inverse conversion of the magnification conversion process on the output target image generated from the process target image. The image processing apparatus according to any one of 15.
網点を含む入力画像を取得する第1ステップと、
前記入力画像に基づいて前記入力画像の空間周波数成分を表した第1画像を生成する第2ステップと、
前記第1画像を所定角度回転させた第2画像を生成する第3ステップと、
前記第1画像と前記第2画像とを比較し、前記入力画像の空間周波数成分に対応するマスクデータを生成する第4ステップと、
前記マスクデータに基づいて前記第1画像に対するマスク処理を行い、出力画像を生成する第5ステップと、
を有することを特徴とする画像処理方法。
The first step to acquire an input image including halftone dots,
A second step of generating a first image representing the spatial frequency component of the input image based on the input image, and
A third step of generating a second image obtained by rotating the first image by a predetermined angle,
A fourth step of comparing the first image with the second image and generating mask data corresponding to the spatial frequency component of the input image.
In the fifth step of performing mask processing on the first image based on the mask data and generating an output image,
An image processing method characterized by having.
コンピュータに、
網点を含む入力画像を取得する第1ステップと、
前記入力画像に基づいて前記入力画像の空間周波数成分を表した第1画像を生成する第2ステップと、
前記第1画像を所定角度回転させた第2画像を生成する第3ステップと、
前記第1画像と前記第2画像とを比較し、前記入力画像の空間周波数成分に対応するマスクデータを生成する第4ステップと、
前記マスクデータに基づいて前記第1画像に対するマスク処理を行い、出力画像を生成する第5ステップと、
を実行させることを特徴とするプログラム。
On the computer
The first step to acquire an input image including halftone dots,
A second step of generating a first image representing the spatial frequency component of the input image based on the input image, and
A third step of generating a second image obtained by rotating the first image by a predetermined angle,
A fourth step of comparing the first image with the second image and generating mask data corresponding to the spatial frequency component of the input image.
In the fifth step of performing mask processing on the first image based on the mask data and generating an output image,
A program characterized by executing.
JP2020130117A 2020-07-31 2020-07-31 Image processing device, image processing method, and program Pending JP2022026577A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020130117A JP2022026577A (en) 2020-07-31 2020-07-31 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020130117A JP2022026577A (en) 2020-07-31 2020-07-31 Image processing device, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2022026577A true JP2022026577A (en) 2022-02-10

Family

ID=80263641

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020130117A Pending JP2022026577A (en) 2020-07-31 2020-07-31 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2022026577A (en)

Similar Documents

Publication Publication Date Title
US7944588B2 (en) Image correction processing apparatus, image correction processing method, program, and storage medium
JP4886053B2 (en) CONTROL DEVICE, IMAGE READING DEVICE, IMAGE FORMING DEVICE, IMAGE READING DEVICE CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM
EP1154634A2 (en) Method and system for see-through image correction in image duplication
US8384964B2 (en) Image processing apparatus and image processing method
JP6781406B2 (en) Image processing equipment and computer programs
JP2000175031A (en) Image processing unit, image processing method and image input device
JP4589896B2 (en) Image processing apparatus, image processing method, and program
JP6628279B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium
US8554007B2 (en) Image processing apparatus, image processing method, and computer-readable storage medium for computer program
JP2009044616A (en) Image processing apparatus and image processing method
JP6976824B2 (en) Image processing equipment, image processing methods, and programs
JP4487003B2 (en) Image data output processing apparatus, image data output processing method, program, and recording medium
JP2008305099A (en) Image processing method, image processor, image forming device, computer program and recording medium
JP7034742B2 (en) Image forming device, its method and program
JP2022026577A (en) Image processing device, image processing method, and program
JP4659789B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP2004350240A (en) Image processing apparatus and image processing method
JP2010278933A (en) Image processing device, image forming device, image processing method, program and recording medium
JP2009017208A (en) Image processing apparatus, image forming apparatus, image processing method, computer program, and computer readable recording medium
JP5025611B2 (en) Image processing apparatus, image forming apparatus, computer program, recording medium, and image processing method
JP4792893B2 (en) Image processing apparatus and program
JP3944032B2 (en) Image processing apparatus and method
JP4160887B2 (en) Image processing apparatus and image processing method
JP2010263313A (en) Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium
JP2004274398A (en) Image processor, image forming device, image processing method, image processing program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230517

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240418

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240521