JP2017038167A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2017038167A
JP2017038167A JP2015157532A JP2015157532A JP2017038167A JP 2017038167 A JP2017038167 A JP 2017038167A JP 2015157532 A JP2015157532 A JP 2015157532A JP 2015157532 A JP2015157532 A JP 2015157532A JP 2017038167 A JP2017038167 A JP 2017038167A
Authority
JP
Japan
Prior art keywords
image data
pixel
value
edge detection
background removal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015157532A
Other languages
Japanese (ja)
Inventor
歩 橋本
Ayumi Hashimoto
歩 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2015157532A priority Critical patent/JP2017038167A/en
Publication of JP2017038167A publication Critical patent/JP2017038167A/en
Pending legal-status Critical Current

Links

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce a mosquito noise while maintaining the image quality of extended image data.SOLUTION: There is provided an image forming apparatus 10 processing extended image data obtained by extending compressed image data, the image forming apparatus comprising: a white background detection part 302 that detects a white background image area in the extended image data; an edge detection part 303 that detects an edge part in the extended image data; a background removal parameter determination part 304 that determines the value of a background removal parameter to be applied to each of areas of the extended image data for each of the areas on the basis of results of detection performed by the white background detection part 302 and the edge detection part 303; and a background removal processing part 305 that performs background removal processing on the extended image data by using the value of the background removal parameter determined by the background removal parameter determination part 304.SELECTED DRAWING: Figure 3

Description

この発明は、画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

従来より、画像データをネットワーク等を用いて第三者との間で送受信する際、データ容量を削減し、容易に送受信を可能とするために、その画像データを圧縮する処理が行われている。
しかし、非可逆圧縮を行った場合は、圧縮処理された画像データを伸長すると、文字や線のエッジ周辺の高周波成分が多い部分(下地と色が急激に異なる部分)に、いわゆるモスキートノイズが発生し、その伸長した画像データをそのまま出力すると出力画像が劣化するという問題があった。
Conventionally, when image data is transmitted / received to / from a third party using a network or the like, processing for compressing the image data has been performed in order to reduce the data capacity and enable easy transmission / reception. .
However, when irreversible compression is performed, when the compressed image data is decompressed, so-called mosquito noise occurs in a portion with a lot of high-frequency components around the edges of characters and lines (a portion where the color of the background is abruptly different). However, if the decompressed image data is output as it is, there is a problem that the output image deteriorates.

この問題を解決する方法としては、圧縮率に応じた下地除去処理方法が既に知られている。しかし、この下地除去処理方法では、高い圧縮率で圧縮された画像データを伸長する場合は、ハイライト部の階調が飛んで擬似輪郭が発生しやすくなってしまうという問題がある。
このため、そもそもモスキートノイズの発生率が低い、即ち高周波成分が少ない画像データが、高い圧縮率で圧縮されている場合は、高い圧縮率に応じた下地処理を行うと、モスキートノイズを除去する効果よりも、擬似輪郭が発生しやすいという悪影響のほうが大きくなってしまうという問題があった。
As a method for solving this problem, a background removal processing method according to the compression rate is already known. However, in this background removal processing method, when image data compressed at a high compression rate is decompressed, there is a problem that the gradation of the highlight portion is skipped and a pseudo contour is likely to occur.
For this reason, when image data with a low mosquito noise generation rate, that is, with low high-frequency components is compressed at a high compression rate, the effect of removing the mosquito noise can be achieved by performing background processing according to the high compression rate. There was a problem that the adverse effect that pseudo contours are likely to occur is greater.

そこで、このような問題を解消する技術として、特許文献1に、非可逆圧縮時のパラメータを利用して、下地除去処理のパラメータを切り替える方法が開示されている。この方法では、量子化マトリックス等の非可逆圧縮時に用いたパラメータから、予め求めておいた最適な関係の下地除去パラメータを選択して、下地除去を行う。
この方法によれば、擬似輪郭の発生等の悪影響を最小限に留めつつ、モスキートノイズを軽減することが可能となる。
Therefore, as a technique for solving such a problem, Patent Document 1 discloses a method of switching a background removal processing parameter using a parameter at the time of irreversible compression. In this method, background removal is performed by selecting an optimum background removal parameter obtained in advance from parameters used during lossy compression such as a quantization matrix.
According to this method, it is possible to reduce mosquito noise while minimizing adverse effects such as generation of pseudo contours.

この特許文献1に記載の下地除去処理方法は、同一のコンピュータシステム内で画像データの圧縮と伸長を行う場合のように、非可逆圧縮時のパラメータを取得できる場合は有効である。
しかし、他のコンピュータシステムで圧縮された画像データをメールやUSBメモリ等を介して入手した場合のように、非可逆圧縮時のパラメータを取得できない場合もある。そして、そのような場合には、特許文献1に記載の下地除去処理方法は適用できないという問題があった。
The background removal processing method described in Patent Document 1 is effective when parameters for irreversible compression can be acquired, such as when image data is compressed and decompressed in the same computer system.
However, there are cases where parameters for lossy compression cannot be acquired, as in the case where image data compressed by another computer system is obtained via e-mail, USB memory, or the like. In such a case, there is a problem that the background removal processing method described in Patent Document 1 cannot be applied.

この発明は、このような問題を解決し、圧縮した画像データを伸長する場合に、圧縮処理に用いたパラメータを参照できない場合でも、伸長した画像データの画質を維持しつつ、モスキートノイズを低減できるようにすることを目的とする。   The present invention solves such a problem and can reduce mosquito noise while maintaining the image quality of the decompressed image data even when the parameters used for the compression processing cannot be referred to when decompressing the compressed image data. The purpose is to do so.

以上の目的を達成するため、この発明による画像処理装置は、圧縮された画像データを伸長して得られた伸長画像データを処理する画像処理装置において、上記伸長画像データ中の白地画像領域を検出する白地検出手段と、上記伸長画像データ中のエッジ部を検出するエッジ検出手段と、上記白地検出手段及び上記エッジ検出手段の検出結果に基づき、上記伸長画像データの各領域に適用する下地除去パラメータの値を該領域毎に決定する決定手段と、上記決定手段が決定した下地除去パラメータの値を使用して上記伸長画像データに対する下地除去処理を行う処理手段とを設けたものである。   In order to achieve the above object, an image processing apparatus according to the present invention detects a white background image area in the decompressed image data in an image processing apparatus that processes decompressed image data obtained by decompressing compressed image data. White background detecting means, edge detecting means for detecting edge portions in the decompressed image data, and background removal parameters to be applied to each area of the decompressed image data based on detection results of the white background detecting means and the edge detecting means. And a processing means for performing background removal processing on the decompressed image data using the background removal parameter value determined by the determination means.

上記の構成によれば、圧縮した画像データを伸長する場合に、伸長した画像データの画質を維持しつつ、モスキートノイズを低減することができる。   According to the above configuration, when decompressing compressed image data, it is possible to reduce mosquito noise while maintaining the image quality of the decompressed image data.

この発明の画像処理装置の第1実施形態である画像形成装置のハードウェア構成を示すブロック図である。1 is a block diagram illustrating a hardware configuration of an image forming apparatus that is a first embodiment of an image processing apparatus according to the present invention; FIG. 図1に示した画像形成装置の機能のうち、圧縮された画像データに基づき用紙に画像を形成するための機能の概略構成を示すブロック図である。FIG. 2 is a block diagram illustrating a schematic configuration of functions for forming an image on a sheet based on compressed image data among the functions of the image forming apparatus illustrated in FIG. 1. 図2で示したモスキートノイズ低減処理部の機能構成をより詳細に示すブロック図である。It is a block diagram which shows in more detail the function structure of the mosquito noise reduction process part shown in FIG. 画像形成装置が扱う伸長画像データの一部分の状態を模式的に示す図である。FIG. 3 is a diagram schematically illustrating a state of a part of decompressed image data handled by the image forming apparatus. エッジ検出用のフィルタマトリクスの一例を示す図である。It is a figure which shows an example of the filter matrix for edge detection. ノイズ低減画素用ガンマテーブルの内容の一例を示す図である。It is a figure which shows an example of the content of the gamma table for noise reduction pixels. 非ノイズ低減画素用ガンマテーブルの内容の一例を示す図である。It is a figure which shows an example of the content of the gamma table for non-noise reduction pixels. 図1に示した画像形成装置が実行するモスキートノイズ低減処理の手順を示すフローチャートである。3 is a flowchart showing a procedure of mosquito noise reduction processing executed by the image forming apparatus shown in FIG. 伸長画像データの内容とエッジ量との関係について説明するための図である。It is a figure for demonstrating the relationship between the content of the expansion | extension image data, and the amount of edges. 第2実施形態で用いるノイズ低減画素用ガンマテーブルの内容の一例を示す図である。It is a figure which shows an example of the content of the gamma table for noise reduction pixels used in 2nd Embodiment. その別の例を示す図である。It is a figure which shows the other example. この発明の第2実施形態の画像形成装置が実行するモスキートノイズ低減処理の手順を示す、図7と対応するフローチャートである。FIG. 8 is a flowchart corresponding to FIG. 7, showing a procedure of mosquito noise reduction processing executed by the image forming apparatus of the second embodiment of the present invention. 第3実施形態で用いるガンマテーブルの内容の一例を示す図である。It is a figure which shows an example of the content of the gamma table used by 3rd Embodiment. その別の例を示す図である。It is a figure which shows the other example. そのさらに別の例を示す図である。It is a figure which shows another example. そのさらに別の例を示す図である。It is a figure which shows another example. この発明の第3実施形態の画像形成装置が実行するモスキートノイズ低減処理の手順を示す、図10と対応するフローチャートである。FIG. 11 is a flowchart corresponding to FIG. 10 showing a procedure of mosquito noise reduction processing executed by the image forming apparatus of the third embodiment of the present invention. エッジ検出領域内のエッジ量の分布について説明するための図である。It is a figure for demonstrating distribution of the edge amount in an edge detection area | region. この発明の第4施形態の画像形成装置が実行するモスキートノイズ低減処理の手順を示す、図12と対応するフローチャートである。FIG. 13 is a flowchart corresponding to FIG. 12 showing a procedure of mosquito noise reduction processing executed by the image forming apparatus of the fourth embodiment of the present invention. この発明の第1変形例の画像形成装置におけるモスキートノイズ低減処理部の機能構成を示す、図3と対応する図である。It is a figure corresponding to FIG. 3 which shows the function structure of the mosquito noise reduction process part in the image forming apparatus of the 1st modification of this invention. この発明の第1変形例の画像形成装置におけるエッジ検出領域の配置について説明するための図である。It is a figure for demonstrating arrangement | positioning of the edge detection area | region in the image forming apparatus of the 1st modification of this invention. この発明の画像処理装置の第2変形例である携帯端末装置のハードウェア構成を示す、図1と対応するブロック図である。It is a block diagram corresponding to FIG. 1 which shows the hardware constitutions of the portable terminal device which is the 2nd modification of the image processing apparatus of this invention. この発明の画像処理装置の第2変形例である携帯端末装置の機能構成を示す、図2と対応するブロック図である。It is a block diagram corresponding to FIG. 2 which shows the function structure of the portable terminal device which is the 2nd modification of the image processing apparatus of this invention.

以下、図面を用いて、本発明を実施するための形態について説明をしていく。
〔第1実施形態:図1乃至図7〕
まず、この発明の第1実施形態である画像処理装置について説明する。図1は、その画像形成装置のハードウェア構成を示すブロック図である。
図1に示す画像形成装置10は、コントローラ101、エンジン制御部110、画像読取部111、プロッタ部112、画像処理部113を備える。また、コントローラ101は、CPU102、RAM103、ROM104、HDD(ハードディスクドライブ)105、通信I/F(インターフェース)106及び操作部I/F107を備え、操作部I/F107は操作部108と接続する。そして、これらは、システムバス109によって接続されている。
Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.
[First Embodiment: FIGS. 1 to 7]
First, an image processing apparatus according to a first embodiment of the present invention will be described. FIG. 1 is a block diagram illustrating a hardware configuration of the image forming apparatus.
An image forming apparatus 10 illustrated in FIG. 1 includes a controller 101, an engine control unit 110, an image reading unit 111, a plotter unit 112, and an image processing unit 113. The controller 101 includes a CPU 102, a RAM 103, a ROM 104, an HDD (hard disk drive) 105, a communication I / F (interface) 106, and an operation unit I / F 107, and the operation unit I / F 107 is connected to the operation unit 108. These are connected by a system bus 109.

上記構成のうち、CPU102は、RAM103をワークエリアとしてROM104又はHDD105に記憶されたプログラムを実行することにより、画像形成装置10全体を制御し、後述する種々の機能を実現する。
ROM104及びHDD105は、不揮発性記憶媒体(記憶手段)であり、CPU102が実行する各種プログラムや後述する各種データを格納している。
通信I/F106は、画像形成装置10をネットワークと接続するためのインターフェースである。
Of the above configuration, the CPU 102 controls the entire image forming apparatus 10 by executing a program stored in the ROM 104 or the HDD 105 using the RAM 103 as a work area, and realizes various functions to be described later.
The ROM 104 and the HDD 105 are non-volatile storage media (storage means) and store various programs executed by the CPU 102 and various data described later.
The communication I / F 106 is an interface for connecting the image forming apparatus 10 to a network.

操作部I/F107は、操作部108をシステムバス109に接続してCPU102から制御可能とするためのインターフェースである。
操作部108は、ユーザからの操作を受け付けるためのキー、ボタン、タッチセンサ等の操作手段と、ユーザに対して情報を提示するためのディスプレイ等の表示手段とを備えるユーザインタフェースである。
The operation unit I / F 107 is an interface for connecting the operation unit 108 to the system bus 109 and enabling control from the CPU 102.
The operation unit 108 is a user interface including an operation unit such as a key, a button, and a touch sensor for receiving an operation from a user, and a display unit such as a display for presenting information to the user.

画像読取部111は、原稿の画像を読み取ってその画像データを取得する機能を備える画像読取手段である。プロッタ部112は、入力された画像データに基づき印刷により用紙に画像を形成する機能を備える画像形成手段である。画像処理部113は、画像読取部111で読み取った画像データやプロッタ部112における画像形成に用いる画像データに対し、後述するモスキートノイズの低減処理を含む種々の画像処理を行う画像処理手段である。
エンジン制御部110は、画像読取部111、プロッタ部112及び画像処理部113を、システムバス109を介してCPU102から供給されるコマンドに従って制御する制御手段である。
The image reading unit 111 is an image reading unit having a function of reading an image of a document and acquiring the image data. The plotter unit 112 is an image forming unit having a function of forming an image on a sheet by printing based on input image data. The image processing unit 113 is an image processing unit that performs various image processes including a mosquito noise reduction process described later on the image data read by the image reading unit 111 and the image data used for image formation in the plotter unit 112.
The engine control unit 110 is a control unit that controls the image reading unit 111, the plotter unit 112, and the image processing unit 113 in accordance with commands supplied from the CPU 102 via the system bus 109.

以上の画像形成装置10は、例えばプリンタ、ファクシミリ通信装置、デジタル複合機(MFP)等として構成することができる。
この画像形成装置10において特徴的な点の1つは、圧縮された画像データを伸長する際に行う、モスキートノイズの低減処理である。以下、この点について説明する。
The image forming apparatus 10 described above can be configured as, for example, a printer, a facsimile communication apparatus, a digital multifunction peripheral (MFP), or the like.
One characteristic point of the image forming apparatus 10 is mosquito noise reduction processing performed when decompressing compressed image data. Hereinafter, this point will be described.

まず、モスキートノイズについて簡単に説明する。一般に、画像データを非可逆圧縮する場合、圧縮時に高周波成分を間引いてデータ量を少なくすることが行われる。しかし、そのような画像データを伸長しても、伸長時には、間引いた高周波成分を復元することができず、ノイズが発生する。これがいわゆるモスキートノイズである。このモスキートノイズはグラデーションのある自然画像ではあまり発生せず、文字や線などの境界部分(下地と色が急激に異なる部分)において発生しやすいことが知られている。
そこで、この実施形態の画像処理装置では、モスキートノイズが発生しやすい場所とそうでない場所で下地除去処理の方法を切り替えて、画素毎に、その画素に適した下地除去パラメータを決定し、決定した下地除去パラメータで画素毎に下地処理を実行することで、画質を維持しつつ、モスキートノイズを低減するようにしている。
First, mosquito noise will be briefly described. Generally, when irreversibly compressing image data, the amount of data is reduced by thinning out high-frequency components during compression. However, even if such image data is expanded, the thinned high-frequency component cannot be restored at the time of expansion, and noise is generated. This is so-called mosquito noise. It is known that this mosquito noise does not occur so much in a natural image with gradation, and is likely to occur in a boundary portion (a portion where the color is abruptly different from the background) such as characters and lines.
Therefore, in the image processing apparatus of this embodiment, the background removal processing method is switched between a place where mosquito noise is likely to occur and a place where it is not, and a background removal parameter suitable for the pixel is determined for each pixel. By executing background processing for each pixel using the background removal parameter, mosquito noise is reduced while maintaining image quality.

次に、図2及び図3を用いて、画像形成装置10が備える、上記のモスキートノイズの低減処理に関連する機能について説明する。
まず図2に、圧縮された画像データに基づき用紙に画像を形成するための機能の概略構成を示した。
図2に示すように、画像形成装置10は、圧縮画像取得部201、デコーダ部202、モスキートノイズ低減処理部203、その他処理部204、および印刷実行部205を備える。これら各部の機能と、圧縮画像取得部201及びデコーダ部202の機能は、コントローラ101のハードウェアにより、モスキートノイズ低減処理部203及びその他処理部204の機能は、コントローラ101が画像処理部113を制御することにより、印刷実行部205の機能は、コントローラ101がプロッタ部112を制御することにより、それぞれ実現される。
Next, functions related to the mosquito noise reduction process provided in the image forming apparatus 10 will be described with reference to FIGS. 2 and 3.
First, FIG. 2 shows a schematic configuration of functions for forming an image on a sheet based on compressed image data.
As shown in FIG. 2, the image forming apparatus 10 includes a compressed image acquisition unit 201, a decoder unit 202, a mosquito noise reduction processing unit 203, another processing unit 204, and a print execution unit 205. The functions of these units, the functions of the compressed image acquisition unit 201 and the decoder unit 202 are controlled by the hardware of the controller 101, and the functions of the mosquito noise reduction processing unit 203 and the other processing unit 204 are controlled by the controller 101. Thus, the function of the print execution unit 205 is realized by the controller 101 controlling the plotter unit 112, respectively.

また、圧縮画像取得部201は、圧縮された画像データを取得し、デコーダ部202に渡す機能を備える。この取得は、画像形成装置10の内部において圧縮され、予め保存された画像データを取得する場合と、PC(Personal Computer)やスマートフォン等の携帯端末やスキャナ等の外部装置からネットワーク等の通信経路を介して、圧縮された画像データを取得する場合とを含む。   The compressed image acquisition unit 201 has a function of acquiring compressed image data and passing it to the decoder unit 202. This acquisition is performed by acquiring communication data such as a network from an external device such as a personal computer (PC) (Personal Computer) or a smartphone, or an external device such as a scanner. And acquiring compressed image data.

デコーダ部202は、圧縮画像取得部201が取得した画像に対し、圧縮符号化方法(以下、「圧縮方法」)に応じて、逆量子化や逆DCT等の伸長復号処理(以下、「伸長処理」)を行い、伸長画像データを生成する機能を備える。また、圧縮が非可逆圧縮である場合は、伸長した画像データをモスキートノイズ低減処理部203に渡す機能を備える。
更に、デコーダ部202は、圧縮が可逆圧縮である場合は、伸長画像データをモスキートノイズ低減処理部203をバイバスしてその他処理部204に渡す機能も備える。直接印刷実行部205に渡すのは、可逆圧縮は、圧縮前の画像データと伸長後の画像データが完全に等しくなる圧縮方法のため、圧縮と伸長によりモスキートノイズは発生せず、画像の修正を考慮する必要がないからである。
The decoder unit 202 performs decompression decoding processing (hereinafter referred to as “decompression processing”) such as inverse quantization or inverse DCT on the image acquired by the compressed image acquisition unit 201 in accordance with a compression encoding method (hereinafter referred to as “compression method”). )) To generate decompressed image data. When the compression is lossy compression, a function of passing the decompressed image data to the mosquito noise reduction processing unit 203 is provided.
Further, the decoder unit 202 has a function of bypassing the decompressed image data to the other processing unit 204 by bypassing the mosquito noise reduction processing unit 203 when the compression is lossless compression. Since the lossless compression is a compression method in which the image data before compression and the image data after decompression are completely equal, the mosquito noise is not generated by the compression and decompression, and the image is corrected. It is not necessary to consider.

モスキートノイズ低減処理部203は、非可逆圧縮された画像データの伸長時に生じるモスキートノイズを低減する処理を実行し、その処理後の画像データをその他処理部204に渡す機能を備える。モスキートノイズ低減処理部203の機能については、図3で詳細に説明する。
その他処理部204は、デコーダ部202あるいはモスキートノイズ低減処理部203から渡された伸長画像データについて、ガンマ補正処理など、印刷に適した画像データに加工するための補正処理を行う機能を備える。また、補正処理を行った伸長画像データを印刷実行部205に渡す機能も備える。
印刷実行部205は、その他処理部204から受け取った画像データに基づき印刷を実行して用紙に画像を形成する機能を備える。
The mosquito noise reduction processing unit 203 has a function of executing processing for reducing mosquito noise that occurs when decompressing irreversibly compressed image data and passing the processed image data to the other processing unit 204. The function of the mosquito noise reduction processing unit 203 will be described in detail with reference to FIG.
The other processing unit 204 has a function of performing correction processing for processing the expanded image data passed from the decoder unit 202 or the mosquito noise reduction processing unit 203 into image data suitable for printing, such as gamma correction processing. In addition, a function of passing the decompressed image data subjected to the correction process to the print execution unit 205 is also provided.
The print execution unit 205 has a function of executing printing based on the image data received from the other processing unit 204 and forming an image on a sheet.

次に、図3に、図2に示したモスキートノイズ低減処理部203の機能構成をより詳細に示す。
図3に示すように、モスキートノイズ低減処理部203は、伸長画像受付部301、白地検出部302、エッジ検出部303、下地除去パラメータ決定部304及び下地除去処理部305を備える。
これらのうち伸長画像受付部301は、デコーダ部202から供給される伸長画像データを受け付ける機能を備える。
Next, FIG. 3 shows in more detail the functional configuration of the mosquito noise reduction processing unit 203 shown in FIG.
As shown in FIG. 3, the mosquito noise reduction processing unit 203 includes an expanded image reception unit 301, a white background detection unit 302, an edge detection unit 303, a background removal parameter determination unit 304, and a background removal processing unit 305.
Among these, the expanded image receiving unit 301 has a function of receiving expanded image data supplied from the decoder unit 202.

白地検出部302は、伸長画像受付部301が受け付けた伸長画像データについて、その画像データ中の白地画像領域を検出する白地検出手段の機能を備える。白地画像領域の検出は、適宜公知の方法を用いて行えばよい。例えば、特開2003−46772に記載のように、注目画素の周辺領域を参照し、周辺領域の画素に対して閾値比較で白画素判定を行い、白画素判定された画素があるパターンで並ぶ場合に注目画素を白地として判定することが考えられる。この場合、白地検出部302は、注目画素が白画素ではなくても、周辺画素の情報から白地上であることがわかれば、その注目画素が白地画像領域であるとして判定を行う。   The white background detection unit 302 has a function of a white background detection unit that detects a white background image area in the image data of the expanded image data received by the expanded image reception unit 301. The detection of the white background image region may be appropriately performed using a known method. For example, as described in Japanese Patent Application Laid-Open No. 2003-46772, when the surrounding area of the target pixel is referred to, white pixels are determined by threshold comparison for the pixels in the surrounding area, and the pixels determined as white pixels are arranged in a certain pattern It is conceivable to determine the target pixel as a white background. In this case, even if the target pixel is not a white pixel, the white background detection unit 302 determines that the target pixel is a white background image area if it is known from the surrounding pixel information that the target pixel is white.

エッジ検出部303は、伸長画像受付部301が受け付けた伸長画像データ中のエッジ部を構成する画素を検出するエッジ検出手段の機能を備える。エッジ部とは、文字や線と背景部分との境界など、概ね一定の画素値で構成される2つの領域の境界にあって画像の画素値が急激に変化する部分のことである。
また、この実施形態では、エッジ検出部303は、伸長画像データ中の各画素について、その画素周辺における画素値の変動度合いの急峻さを示す特徴量(エッジ量)を求める演算を行う。そして、そのエッジ量に基づき、各画素がエッジ部を構成する画素であるか否かを判定する。このエッジ量の計算方法については、後に詳述する。
The edge detection unit 303 has a function of an edge detection unit that detects pixels constituting the edge portion in the expanded image data received by the expanded image reception unit 301. The edge portion is a portion where the pixel value of the image changes abruptly at the boundary between two regions composed of substantially constant pixel values, such as a boundary between a character or a line and a background portion.
In this embodiment, the edge detection unit 303 performs a calculation for each pixel in the decompressed image data to obtain a feature amount (edge amount) indicating the steepness of the variation degree of the pixel value around the pixel. Then, based on the edge amount, it is determined whether each pixel is a pixel constituting the edge portion. The method for calculating the edge amount will be described in detail later.

下地除去パラメータ決定部304は、白地検出部302及びエッジ検出部303の検出結果に基づいて、伸長画像データの各領域に適用する下地除去パラメータの値を、該領域毎に決定する決定手段の機能を備える。この実施形態では、領域のサイズは1画素とし、下地除去パラメータ決定部304が、画素毎に下地除去パラメータの値を決定する。しかし、これに限られることはなく、複数の画素からなる領域毎に下地除去パラメータの値を決定するようにしてもよい。   The background removal parameter determination unit 304 is a function of a determination unit that determines the value of the background removal parameter to be applied to each region of the expanded image data based on the detection results of the white background detection unit 302 and the edge detection unit 303. Is provided. In this embodiment, the size of the region is one pixel, and the background removal parameter determination unit 304 determines the value of the background removal parameter for each pixel. However, the present invention is not limited to this, and the background removal parameter value may be determined for each region composed of a plurality of pixels.

下地除去処理部305は、下地除去パラメータ決定部304が決定した下地除去パラメータの値を用いて、伸長画像受付部301が受け付けた伸長画像データに対して下地除去処理を実行する機能を備える。ここでは、下地除去処理としてガンマ処理を行うものとし、その処理に用いる下地除去パラメータは、画素値の入力と出力の対応関係を規定したガンマ補正テーブルであるが、これに限られることはない。
下地除去処理部305は、以上の下地除去処理後の画像データを、図2のその他処理部204へ出力する機能も備える。
以上が、画像形成装置10が備える機能である。
The background removal processing unit 305 has a function of performing background removal processing on the decompressed image data received by the decompressed image receiving unit 301 using the value of the background removal parameter determined by the background removal parameter determining unit 304. Here, gamma processing is performed as background removal processing, and the background removal parameter used for the processing is a gamma correction table that defines the correspondence between input and output of pixel values, but is not limited thereto.
The background removal processing unit 305 also has a function of outputting the image data after the above background removal processing to the other processing unit 204 in FIG.
The above is the function of the image forming apparatus 10.

次に、図4乃至図6Bを用いて、以上の各部が実行するモスキートノイズ低減処理の具体例について説明する。
図4に示すのは、伸長画像データが示す画像の一例である。図4には、画像中の10画素×10画素の領域のみを示している。また、Wで示す濃度の高い領域が、文字領域(文字又は線を構成する画素が集合している領域)であり、伸長に伴ってその周辺に生じたモスキートノイズの画素を、ハッチングにより示している。
またここでは、モスキートノイズ低減処理は1画素単位で行うので、処理対象とする画素をP1、P1を含むM×M画素のエッジ検出領域をQ1により示した。なお、エッジ検出領域Q1のサイズは、ここでは5画素×5画素だが、サイズはこれに限られない。また、処理対象の画素P1がエッジ検出領域Q1の中心にあることも必須ではない。
Next, a specific example of mosquito noise reduction processing executed by each of the above units will be described with reference to FIGS. 4 to 6B.
FIG. 4 shows an example of an image indicated by the expanded image data. FIG. 4 shows only a region of 10 pixels × 10 pixels in the image. A high density area indicated by W is a character area (area where pixels constituting a character or a line are gathered), and pixels of mosquito noise generated around the area due to expansion are indicated by hatching. Yes.
Here, since the mosquito noise reduction processing is performed in units of one pixel, the pixel to be processed is indicated by P1, and the edge detection region of M × M pixels including P1 is indicated by Q1. The size of the edge detection region Q1 is 5 pixels × 5 pixels here, but the size is not limited to this. Further, it is not essential that the pixel P1 to be processed is in the center of the edge detection region Q1.

画像形成装置10のモスキートノイズ低減処理部203において、白地検出部302は、伸長画像データ中の処理対象の画素P1が白地画像領域内にあるか否かを検出する。
エッジ検出部303は、処理対象の画素P1を含むエッジ検出領域Q1内の各画素について求めたエッジ量に基づき、エッジ検出領域Q1内にエッジ部を構成する画素があるか否かを検出する。
In the mosquito noise reduction processing unit 203 of the image forming apparatus 10, the white background detection unit 302 detects whether or not the pixel P1 to be processed in the decompressed image data is within the white background image region.
The edge detection unit 303 detects whether or not there is a pixel constituting the edge portion in the edge detection region Q1 based on the edge amount obtained for each pixel in the edge detection region Q1 including the pixel P1 to be processed.

各画素のついてのエッジ量は、ここでは、注目画素を中心とする5×5画素の領域内の各画素の画素値に対し、図5に示すようなフィルタマトリクスを畳み込み演算(領域内の各画素の画素値と対応する位置のフィルタの値とを乗算した値を領域内の全画素について加える)して得る。
図5(a)のフィルタは、縦方向のエッジを検出するためのフィルタであり、5×5の領域内に縦方向のエッジ部が存在する場合、畳み込み演算により絶対値の大きな値が得られる。図5(b)については同様に横方向のエッジ部が存在する場合に絶対値の大きな値が得られる。
Here, the edge amount for each pixel is calculated by convolving a filter matrix as shown in FIG. 5 with each pixel value in a 5 × 5 pixel region centered on the target pixel (each region in the region). A value obtained by multiplying the pixel value of the pixel by the filter value at the corresponding position is added to all the pixels in the region).
The filter in FIG. 5A is a filter for detecting a vertical edge, and when a vertical edge exists in a 5 × 5 region, a large absolute value can be obtained by a convolution operation. . Similarly, in FIG. 5B, a large absolute value is obtained when a lateral edge portion exists.

従って、この実施形態では、図5(a)のフィルタを用いた畳み込み演算の結果の絶対値と、図5(b)のフィルタを用いた畳み込み演算の結果の絶対値とを加算した値を、エッジ量として求めるようにしている。従って、このエッジ量は、注目画素の近傍に縦方向又は横方向のエッジ部が存在する場合に大きな値となり、いずれの方向のエッジ部も存在しない場合に小さな値となる。
エッジ検出部303は、以上のエッジ量が所定値以上となる画素を、エッジ部を構成する画素として検出する。
なお、この実施形態では、フィルタマトリクスのサイズがエッジ検出領域Q1のサイズと同じく5×5画素であるが、同じである必要はないし、サイズ自体も5×5に限られない
Therefore, in this embodiment, a value obtained by adding the absolute value of the result of the convolution operation using the filter of FIG. 5A and the absolute value of the result of the convolution operation using the filter of FIG. The edge amount is obtained. Therefore, this edge amount becomes a large value when the edge portion in the vertical direction or the horizontal direction exists in the vicinity of the target pixel, and becomes a small value when the edge portion in any direction does not exist.
The edge detection unit 303 detects pixels in which the above edge amount is equal to or greater than a predetermined value as pixels constituting the edge part.
In this embodiment, the size of the filter matrix is 5 × 5 pixels, which is the same as the size of the edge detection region Q1, but it is not necessary to be the same, and the size itself is not limited to 5 × 5.

下地除去パラメータ決定部304は、以上の白地検出部302及びエッジ検出部303の検出結果に基づき、表1に示すように、処理対象の画素P1に適用する下地除去パラメータを決定する。
Based on the detection results of the white background detection unit 302 and the edge detection unit 303, the background removal parameter determination unit 304 determines the background removal parameter to be applied to the pixel P1 to be processed as shown in Table 1.

図6A及び図6Bに、ノイズ低減画素用ガンマテーブルと非ノイズ低減画素用ガンマテーブルの内容をそれぞれ示す。図6A及び図6Bには、ガンマ処理の際の入力画像データの画素値と出力画像データの画素値との対応関係を示している。なお、後述のものも含む全ての実施形態において、画素値「0」が最小濃度(ここでは白)を、「255」が最大濃度(ここでは黒とするが、カラー画像の場合プレーン毎に異なる色となる)を示すものとする。   6A and 6B show the contents of the noise reduction pixel gamma table and the non-noise reduction pixel gamma table, respectively. 6A and 6B show the correspondence between the pixel value of the input image data and the pixel value of the output image data at the time of gamma processing. In all embodiments including those described later, the pixel value “0” is the minimum density (in this case, white), and “255” is the maximum density (here, black). Color).

これらのうち図6Aに示したノイズ低減画素用のガンマテーブルでは、入力値が0から適当な閾値までの間は出力値を0に保ち、入力値が閾値より大きい範囲では、入力値が255で出力値が255となるように、入力値の増加につれて出力値を直線的に増加させるようになっている。
即ち、ノイズ低減画素用ガンマテーブルでは、階調値が上記閾値よりも白側にある画素については、ガンマ処理により階調値がより白側の値になるように変更することを規定している。このことにより、階調値が大きい(濃度の高い)ドットは残しつつ、モスキートノイズとして形成されると考えられる、階調値の低いドットを削除することができる。
Among these, in the noise reduction pixel gamma table shown in FIG. 6A, the output value is kept at 0 when the input value is from 0 to an appropriate threshold value, and the input value is 255 when the input value is larger than the threshold value. The output value is linearly increased as the input value increases so that the output value becomes 255.
That is, the noise reduction pixel gamma table stipulates that a pixel whose gradation value is on the white side of the threshold value is changed so that the gradation value becomes a white value by gamma processing. . As a result, it is possible to delete dots having low gradation values that are considered to be formed as mosquito noise while leaving dots having large gradation values (high density).

図6Aの例では入力値が0から適当な閾値までの間は出力値を0にしているが、必ずしも0にしなくても、入力値より出力値を低くすれば、モスキートノイズの低減効果を得られる。
また、図6Bに示した非ノイズ低減画素用のガンマテーブルでは、全ての入力値について、入力値と出力値とが等しくしている。すなわち、このガンマテーブルを用いる場合は、画像の内容を変更しないことになる。
In the example of FIG. 6A, the output value is set to 0 when the input value is between 0 and an appropriate threshold. However, even if it is not necessarily set to 0, if the output value is made lower than the input value, the effect of reducing mosquito noise can be obtained. It is done.
In the gamma table for non-noise reduction pixels shown in FIG. 6B, the input value and the output value are the same for all input values. That is, when this gamma table is used, the contents of the image are not changed.

ここで、非可逆圧縮した画像データを伸長すると、圧縮時に高周波成分の信号を落としているので、復号時に高周波成分の復元ができないため、文字や線などの画素値の変化が急峻な部分のまわりに、モスキートノイズが発生する。一方、グラデーションなどの自然画像ではあまり発生しない。
この実施形態では、文字や線などのモスキートノイズが発生しやすい場所とそうでない場所で下地除去処理の方法を切り替えることで、グラデーションのハイライト部の画質を損なわずに、モスキートノイズを低減するようにしている。
Here, when decompressing irreversibly compressed image data, the high-frequency component signal is dropped at the time of compression, so the high-frequency component cannot be restored at the time of decoding. In addition, mosquito noise is generated. On the other hand, it does not occur much in natural images such as gradation.
In this embodiment, the mosquito noise is reduced without degrading the image quality of the highlight portion of the gradation by switching the background removal processing method between the place where the mosquito noise such as characters and lines is likely to occur and the place where the mosquito noise is not likely to occur. I have to.

具体的には、表1に示したように、白地領域内にあってエッジの近傍にある(エッジ検出領域内にエッジ部を構成する画素がある)画素には、モスキートノイズが発生しやすいことから、このような画素にノイズ低減画素用ガンマテーブルを適用するようにしている。また、それ以外の画素には非ノイズ低減画素用ガンマテーブルを適用するようにしている。
このことにより、簡単な処理で、モスキートノイズが発生しやすい画素に対して選択的にモスキートノイズを低減でき、伸長した画像データの画質を維持しつつ、モスキートノイズを低減することができる。また、この処理は、伸長画像データに含まれる情報及び、画像形成装置10に予め記憶させておける情報のみに基づいて行うことができ、圧縮処理に用いたパラメータを参照する必要はない。
Specifically, as shown in Table 1, mosquito noise is likely to occur in pixels that are in the white area and in the vicinity of the edge (the pixels that form the edge portion in the edge detection area). Therefore, the noise reduction pixel gamma table is applied to such pixels. In addition, the non-noise reduction pixel gamma table is applied to other pixels.
As a result, mosquito noise can be selectively reduced with respect to pixels that are likely to generate mosquito noise by simple processing, and mosquito noise can be reduced while maintaining the image quality of the expanded image data. Further, this process can be performed based only on information included in the decompressed image data and information stored in advance in the image forming apparatus 10, and it is not necessary to refer to parameters used in the compression process.

なお、エッジだけでなく白地領域を考慮するのは、下地除去処理によって画像の濃度を変更してしまわないようにするためである。図6Bからわかるように、ノイズ低減画素用ガンマテーブルを適用したガンマ補正処理を行うと、特に画素値が低い範囲において、画素値が変動することになる。しかし、画素値の入力が「0」であれば、出力も「0」であって変動がない。このため、白地領域内であればノイズ低減画素用ガンマテーブルを適用しても、画像に対する影響が少ない。このことを考慮して、この実施形態では、ノイズ低減画素用ガンマテーブルを提供する範囲を、白地領域の画素に限っている。   The reason for considering not only the edge but also the white background region is to prevent the image density from being changed by the background removal process. As can be seen from FIG. 6B, when the gamma correction process using the noise reduction pixel gamma table is performed, the pixel value fluctuates particularly in a low pixel value range. However, if the input pixel value is “0”, the output is also “0” and there is no fluctuation. For this reason, even if the noise reduction pixel gamma table is applied within the white background region, the influence on the image is small. In consideration of this, in this embodiment, the range for providing the noise reduction pixel gamma table is limited to pixels in the white background region.

次に、図7に、以上説明してきたモスキートノイズ低減処理の手順を示す。この処理は、画像処理部113が備えるプロセッサが実行するものである。ただし、複数の部分を並列に実行するなど、必ずしも図7に示す通りの実行順である必要はない。また、図7の処理は、この発明の画像処理方法の実施形態に係る処理であり、モスキートノイズ低減処理部203の機能と対応する処理である。
図7の処理においてまず、画像処理部113は、伸長画像データの画素のうちまだ処理対象としていない一の画素を処理対象とする(S101)。
次に、画像処理部113は、処理対象の画素が白地画素領域内にあるか否かを検出する白地検出処理を行う(S102)。この処理は、白地検出手順の処理であり、白地検出部302の機能と対応する。
Next, FIG. 7 shows the procedure of the mosquito noise reduction process described above. This process is executed by a processor included in the image processing unit 113. However, the execution order does not necessarily have to be as shown in FIG. 7, for example, a plurality of parts are executed in parallel. 7 is processing according to the embodiment of the image processing method of the present invention, and corresponds to the function of the mosquito noise reduction processing unit 203.
In the process of FIG. 7, first, the image processing unit 113 sets one pixel that has not yet been processed among the pixels of the decompressed image data as a processing target (S101).
Next, the image processing unit 113 performs white background detection processing for detecting whether or not the processing target pixel is in the white background pixel region (S102). This process is a white background detection procedure and corresponds to the function of the white background detection unit 302.

そして、その判定結果が白地画像領域内である場合(S103のYes)、画像処理部113は、処理対象の画素を含む所定サイズのエッジ検出領域内に存在する画素のうち、まだエッジ量を算出していない画素についてエッジ量を算出する(S104)。この処理は、エッジ検出手順の処理であり、エッジ検出部303の機能と対応する。このステップS104の処理によりエッジ検出領域内の各画素についてのエッジ量が得られる。   If the determination result is in the white background image area (Yes in S103), the image processing unit 113 still calculates the edge amount among the pixels existing in the edge detection area of a predetermined size including the pixel to be processed. The edge amount is calculated for pixels that have not been processed (S104). This process is an edge detection procedure process and corresponds to the function of the edge detection unit 303. The amount of edge for each pixel in the edge detection area is obtained by the processing in step S104.

次に、画像処理部113は、エッジ検出領域内でエッジ量が所定値以上である画素があるか否か判断する(S105)。ここでYesであれば、画像処理部113は、処理対象の画素の近傍にエッジ部を構成する画素があると判断し、処理対象の画素用の下地除去パラメータとして、ノイズ低減画素用ガンマテーブルを適用することを決定する(S106)。   Next, the image processing unit 113 determines whether there is a pixel whose edge amount is equal to or larger than a predetermined value in the edge detection region (S105). If Yes here, the image processing unit 113 determines that there is a pixel constituting the edge portion in the vicinity of the pixel to be processed, and uses the noise reduction pixel gamma table as a background removal parameter for the pixel to be processed. It is determined to apply (S106).

一方、ステップS103又はS105のいずれかでNoの場合、画像処理部113は、処理対象の画素用の下地除去パラメータとして、非ノイズ低減画素用ガンマテーブルを適用することを決定する(S107)。
以上のステップS104乃至S107の処理は、決定手順の処理であり、下地除去パラメータ決定部304の機能と対応する。
On the other hand, in the case of No in either step S103 or S105, the image processing unit 113 determines to apply the non-noise-reduced pixel gamma table as the background removal parameter for the pixel to be processed (S107).
The processes in steps S104 to S107 described above are determination procedure processes and correspond to the function of the background removal parameter determination unit 304.

また、画像処理部113は、ステップS106又はS107の後、これらのステップで決定したガンマテーブルを用いて、処理対象の画素に対し、下地除去処理としてガンマ補正を実行する(S108)。この処理は、処理手順の処理であり、下地除去処理部305の機能と対応するものである。   Further, after step S106 or S107, the image processing unit 113 performs gamma correction as background removal processing on the pixel to be processed using the gamma table determined in these steps (S108). This processing is processing of the processing procedure, and corresponds to the function of the background removal processing unit 305.

その後、画像処理部113は、まだ処理対象としていない画素があれば(S109のYes)、ステップS101に戻り、次の画素を処理対象として処理を繰り返す。全ての画素について、ステップS101乃至S108の処理が終了すると、ステップS109の判断がNoとなり、処理を終了する。
以上の処理により、図4乃至図6Bを用いて説明したモスキートノイズ低減処理を実行することができる。
Thereafter, if there is a pixel that is not yet a processing target (Yes in S109), the image processing unit 113 returns to step S101 and repeats the processing using the next pixel as a processing target. When the processes in steps S101 to S108 are completed for all the pixels, the determination in step S109 is No and the process ends.
By the above process, the mosquito noise reduction process described with reference to FIGS. 4 to 6B can be executed.

なお、エッジ検出領域Q1のサイズは、1×1画素でもよい。この場合、処理対象とする画素P1を含むエッジ検出領域Q1の範囲は、画素P1自身のみとなる。そして、画素P1について求めたエッジ量に従い、ステップS105の判断を行うことになる。この場合でも、フィルタマトリクスのサイズに応じた範囲の画素についてエッジの有無を検出できるので、ある程度の精度でモスキートノイズ低減処理を行うことができる。   The size of the edge detection area Q1 may be 1 × 1 pixel. In this case, the range of the edge detection region Q1 including the pixel P1 to be processed is only the pixel P1 itself. Then, the determination in step S105 is performed according to the edge amount obtained for the pixel P1. Even in this case, since the presence / absence of an edge can be detected for pixels in a range corresponding to the size of the filter matrix, mosquito noise reduction processing can be performed with a certain degree of accuracy.

〔第2実施形態:図8乃至図10〕
次に、この発明の画像処理装置の第2実施形態について説明する。
この第2実施形態は、基本的な構成は第1実施形態と同じであるが、各画素に適用する下地除去パラメータの値(ガンマテーブルの内容)を、算出したエッジ量に基づき決定する点が異なる。そこで、共通部分に関する説明は省略し、相違点に関連する事項のみ説明する。また、第1実施形態と共通の又は対応する構成については、同じ符号を用いる。
[Second Embodiment: FIGS. 8 to 10]
Next, a second embodiment of the image processing apparatus of the present invention will be described.
The basic configuration of the second embodiment is the same as that of the first embodiment, except that the background removal parameter value (content of the gamma table) applied to each pixel is determined based on the calculated edge amount. Different. Therefore, the description regarding the common part is omitted, and only matters related to the differences will be described. Moreover, the same code | symbol is used about the structure which is common or respond | corresponds with 1st Embodiment.

まず、第2実施形態における下地除去パラメータの値の決定に関する基本的な考え方について説明する。
ここで、図8に示す2種類の画像400,410について考える。画像400は、画素値が「0」の白領域400aと画素値が「255」の黒領域400bとからなるものであり、図で水平方向の位置毎に画素値をプロットすると、グラフ401のようになる。この白領域400aと黒領域400bとの境界がエッジ部である。なお、水平方向の位置が同じ画素は、全て同じ画素値を持つものとする(白領域400aと黒領域400bとの境界線は図で垂直方向である)。
一方、画像410は、画素値が「0」の白領域410aと画素値が「127」のグレー領域410bとからなるものであり、その境界は画像400の場合と同じ位置であり、図で水平方向の位置毎に各画素の画素値をプロットすると、グラフ411のようになる。
First, the basic concept regarding the determination of the value of the background removal parameter in the second embodiment will be described.
Here, consider two types of images 400 and 410 shown in FIG. The image 400 includes a white region 400a having a pixel value “0” and a black region 400b having a pixel value “255”. When pixel values are plotted for each horizontal position in the figure, a graph 401 is obtained. become. The boundary between the white area 400a and the black area 400b is an edge portion. It is assumed that the pixels having the same horizontal position have the same pixel value (the boundary line between the white area 400a and the black area 400b is the vertical direction in the figure).
On the other hand, the image 410 is composed of a white area 410a having a pixel value of “0” and a gray area 410b having a pixel value of “127”, and the boundary is the same position as in the case of the image 400. When the pixel value of each pixel is plotted for each position in the direction, a graph 411 is obtained.

これらの各画像について、水平方向の位置毎に各画素についてエッジ量を第1実施形態の場合と同様に求めてグラフ401,411と同様にプロットすると、グラフ402,412のようになる。すなわち、フィルタマトリクスと畳み込み演算を行う5×5画素の領域内に白領域400aと黒領域400bとの境界線がある場合にはエッジ量が大きな値となり、それ以外の場合には、エッジ検出領域内において画素値の変動がないためエッジ量は0となる。
しかし、エッジ要素を構成する画素の画素値が異なるため、画像400と画像410では、得られるエッジ量の値が異なり、画素値の差が大きい画像400の場合の方が、エッジ量の値は大きくなる。
For each of these images, the edge amount for each pixel for each horizontal position is obtained in the same manner as in the first embodiment and plotted in the same manner as in the graphs 401 and 411, so that graphs 402 and 412 are obtained. That is, when there is a boundary line between the white area 400a and the black area 400b within the 5 × 5 pixel area where the convolution calculation is performed with the filter matrix, the edge amount becomes a large value, and in other cases, the edge detection area The edge amount is 0 because there is no change in the pixel value.
However, since the pixel values of the pixels constituting the edge element are different, the value of the edge amount is different between the image 400 and the image 410, and the value of the edge amount is larger in the case of the image 400 having a larger difference in pixel value. growing.

ここで、エッジの近傍にある画素に対し、文字や線の濃淡の違いによるエッジ量を無視して、一律に図6Aに示したノイズ低減画素用ガンマテーブルを使用してガンマ補正を行うと、そのことにより色の薄い文字部分の画素値が変動して、その文字部分の色が飛んでしまう可能性がある。しかし、色の濃淡の違いを考慮して、この濃淡の違いが反映されるエッジ量を用いて下地除去パラメータとして使用するガンマテーブルを決定することにすれば、そのような事態を防ぐことができる。
そこで、この第2実施形態においては、処理対象の画素P1を含むエッジ検出領域Q1内の画素のうちエッジ量が最大の画素のエッジ量Eを、エッジ検出領域Q1内にあるエッジ部の急峻さを示す特徴量として用いて下地除去レベルを算出するようにしている。また、その下地除去レベルを用いて、画素P1に適用するノイズ低減画素用ガンマテーブルを決定するようにしている。
Here, for the pixels in the vicinity of the edge, ignoring the edge amount due to the difference in density of characters and lines, and performing gamma correction uniformly using the noise reduction pixel gamma table shown in FIG. 6A, As a result, the pixel value of the light-colored character portion may fluctuate and the color of the character portion may be lost. However, if a gamma table to be used as a background removal parameter is determined using an edge amount that reflects the difference in shade in consideration of the difference in shade of color, such a situation can be prevented. .
Therefore, in the second embodiment, the edge amount E of the pixel having the maximum edge amount among the pixels in the edge detection region Q1 including the pixel P1 to be processed is set as the steepness of the edge portion in the edge detection region Q1. The background removal level is calculated using the feature amount indicating the. Further, the noise reduction pixel gamma table to be applied to the pixel P1 is determined using the background removal level.

下地除去レベルth_sの算出は、下記の式Aに従って行う。
th_s=(エッジ量E÷エッジ量が取り得る最大値)×max_th (A)
なお、「エッジ量が取り得る最大値」とは、エッジ量の算出に用いるフィルタマトリクスを用いて得られるエッジ量の理論上の最大値である。max_thは、エッジ量がその最大値である場合に設定する下地除去レベルである。
The background removal level th_s is calculated according to the following formula A.
th_s = (edge amount E ÷ maximum value that edge amount can take) × max_th (A)
The “maximum value that the edge amount can take” is the theoretical maximum value of the edge amount obtained by using the filter matrix used for calculating the edge amount. max_th is a background removal level set when the edge amount is the maximum value.

以上の下地除去レベルth_sを用い、ノイズ低減画素用のガンマテーブルを、入力値が0からth_sまでの間は出力値を0に保ち、入力値がth_sより大きい範囲では、入力値が255で出力値が255となるように、入力値の増加につれて出力値を直線的に増加させるように生成するとよい。すなわち、th_sの値を、図6Aを用いて説明した閾値としている。
また、エッジ量Eが大きいほどth_sの値も大きくなるため、上記閾値を、より白側から遠い値に定めることができる。
Using the above background removal level th_s, the gamma table for the noise reduction pixel keeps the output value 0 when the input value is from 0 to th_s, and the input value is 255 when the input value is larger than th_s. The output value may be generated so as to increase linearly as the input value increases so that the value becomes 255. That is, the value of th_s is the threshold described with reference to FIG. 6A.
Further, since the value of th_s increases as the edge amount E increases, the threshold value can be set to a value farther from the white side.

例えば、th_s=20の場合のノイズ低減画素用ガンマテーブルは、図9Aに示す内容となり、th_s=10の場合のノイズ低減画素用ガンマテーブルは、図9Bに示す内容となる。
また、画像400の白領域400aと黒領域400bとの境界付近の画素のエッジ量の場合にth_s=20であるとすれば、画像410の対応箇所ではエッジ量が約半分であるのでth_s=10となる。従って、以上の考え方に従い、文字や線の濃淡に応じて下地除去処理の強度を調整し、下地除去処理によって色の薄い文字や線が消えないようにすることができる。
なお、ノイズ低減画素用のガンマテーブルは、画素毎に算出してもよいし、下地除去レベルth_sの値毎に適当な記憶手段に予め記憶させておき、下地除去レベルth_sの値に応じたテーブルを読み出すようにしてもよい。
For example, the noise reduction pixel gamma table for th_s = 20 has the contents shown in FIG. 9A, and the noise reduction pixel gamma table for th_s = 10 has the contents shown in FIG. 9B.
In addition, if th_s = 20 in the case of the edge amount of the pixel near the boundary between the white region 400a and the black region 400b of the image 400, the edge amount is about half at the corresponding portion of the image 410, so th_s = 10. It becomes. Therefore, according to the above concept, the strength of the background removal process can be adjusted according to the density of the characters and lines, and the light color characters and lines can be prevented from disappearing by the background removal process.
The noise reduction pixel gamma table may be calculated for each pixel, or stored in advance in an appropriate storage unit for each value of the background removal level th_s, and a table corresponding to the value of the background removal level th_s. May be read out.

次に、図10に、以上説明してきた第2実施形態のモスキートノイズ低減処理の手順を示す。
この手順は、第1実施形態で説明した図7の手順と対応するものであり、ステップS106に代えてステップS121及びS122を実行する点が図7の処理と異なるものである。
すなわち、ステップS105でYesの場合に、画像処理部113は、エッジ検出領域内でエッジ量が最大の画素のエッジ量Eに応じた下地除去レベルth_sを持つノイズ低減画素用ガンマテーブルを生成する(S121)。その詳細な生成手順は既に述べた通りである。
Next, FIG. 10 shows the procedure of the mosquito noise reduction process of the second embodiment described above.
This procedure corresponds to the procedure of FIG. 7 described in the first embodiment, and is different from the process of FIG. 7 in that steps S121 and S122 are executed instead of step S106.
That is, in the case of Yes in step S105, the image processing unit 113 generates a noise reduction pixel gamma table having a background removal level th_s corresponding to the edge amount E of the pixel having the maximum edge amount in the edge detection region ( S121). The detailed generation procedure is as described above.

そして、画像処理部113は、処理対象の画素用の下地除去パラメータとして、ステップS121で生成したノイズ低減画素用ガンマテーブルを適用することを決定して(S122)、ステップS108へ進む。
以上の処理により、図8乃至図9Bを用いて説明したモスキートノイズ低減処理を実行することができる。なお、ステップS103又はS105でNoの場合には、第1実施形態の場合と同様、非ノイズ低減画素用ガンマテーブルを適用する。
Then, the image processing unit 113 determines to apply the noise reduction pixel gamma table generated in step S121 as the background removal parameter for the pixel to be processed (S122), and proceeds to step S108.
With the above processing, the mosquito noise reduction processing described with reference to FIGS. 8 to 9B can be executed. In the case of No in step S103 or S105, the non-noise reduction pixel gamma table is applied as in the case of the first embodiment.

〔第3実施形態:図11A乃至図12〕
次に、この発明の画像処理装置の第3実施形態について説明する。
この第3実施形態は、基本的な構成は第2実施形態と同じであり、各画素に適用する下地除去パラメータの値(ガンマテーブルの内容)を、算出したエッジ量に基づき決定する方法が異なる。以下、この相違点に関連する事項のみ説明する。また、第2実施形態と共通の又は対応する構成については、同じ符号を用いる。
[Third Embodiment: FIGS. 11A to 12]
Next, a third embodiment of the image processing apparatus of the present invention will be described.
This third embodiment has the same basic configuration as that of the second embodiment, but differs in a method for determining the value of the background removal parameter (content of the gamma table) applied to each pixel based on the calculated edge amount. . Only matters related to this difference will be described below. Moreover, the same code | symbol is used about the structure which is common or respond | corresponds with 2nd Embodiment.

第2実施形態のように、処理対象の画素P1を含むエッジ検出領域Q1内の画素のうちエッジ量が最大の画素のエッジ量Eの値に応じて下地除去パラメータを連続的に変化させるとすると、細かな調整は可能となるが、データ伝送のためのビット数が多く必要となり、回路のコストが高くなってしまう。
そこで、画質に対するモスキートノイズの影響が第2実施形態の例ほどの精密な調整を必要としない程度である場合には、ビット数を低減するため、エッジ量Eを例えば2ビット程度のエッジ判定結果に換算して出力することが考えられる。第3実施形態においては、この構成を採用すると共に、各エッジ判定結果と対応するガンマテーブルを予め適当な記憶手段に記憶させておき、出力されるエッジ判定結果と対応するガンマテーブルを下地除去処理に適用するようにしている。
Assume that the background removal parameter is continuously changed according to the value of the edge amount E of the pixel having the maximum edge amount among the pixels in the edge detection region Q1 including the pixel P1 to be processed as in the second embodiment. Although fine adjustment is possible, a large number of bits are required for data transmission, which increases the cost of the circuit.
Therefore, when the influence of the mosquito noise on the image quality is such that the adjustment as precise as the example of the second embodiment is not required, in order to reduce the number of bits, the edge determination result of the edge amount E is, for example, about 2 bits. It is conceivable that the data is output after being converted to. In the third embodiment, this configuration is adopted, and a gamma table corresponding to each edge determination result is stored in advance in an appropriate storage unit, and the output gamma table corresponding to the edge determination result is subjected to background removal processing. To apply to.

表2に、エッジ量Eとエッジ判定結果との対応関係の一例を示す。
Table 2 shows an example of the correspondence between the edge amount E and the edge determination result.

また、図11A乃至図11Dに、各エッジ判定結果と対応するガンマテーブルの内容の例を示す。
図11Aに示すのは、エッジ判定結果が「11」のときに用いるもので、第2実施形態で説明した下地除去レベルth_sが40であるノイズ低減画素用ガンマテーブルに該当する。
In addition, FIGS. 11A to 11D show examples of the contents of the gamma table corresponding to each edge determination result.
11A is used when the edge determination result is “11”, and corresponds to the noise reduction pixel gamma table having the background removal level th_s of 40 described in the second embodiment.

図11B及び図11Cに示すのは、それぞれエッジ判定結果が「10」及び「01」のときに用いるもので、それぞれ下地除去レベルth_sが30及び20であるノイズ低減画素用ガンマテーブルに該当する。
図11Dに示すのは、エッジ判定結果が「00」のときに用いるもので、下地除去レベルth_sが0であるノイズ低減画素用ガンマテーブルに該当するが、これは、第1及び第2実施形態で説明した非ノイズ低減画素用ガンマテーブルと同じものである。すなわち、エッジ判定結果の「00」は、図10のステップS105でNoの場合と対応する。
FIG. 11B and FIG. 11C are used when the edge determination results are “10” and “01”, respectively, and correspond to the noise reduction pixel gamma table with the background removal level th_s of 30 and 20, respectively.
FIG. 11D is used when the edge determination result is “00” and corresponds to the noise reduction pixel gamma table with the background removal level th_s being 0. This is the case in the first and second embodiments. This is the same as the non-noise-reducing pixel gamma table described in the above. That is, the edge determination result “00” corresponds to the case of No in step S105 of FIG.

次に、図12に、以上説明してきた第3実施形態のモスキートノイズ低減処理の手順を示す。
この手順は、第2実施形態で説明した図10の手順と対応するものであり、ステップS105乃至S122に代えてステップS131及びS132を実行する点が図10の処理と異なるものである。
Next, FIG. 12 shows the procedure of the mosquito noise reduction process of the third embodiment described above.
This procedure corresponds to the procedure of FIG. 10 described in the second embodiment, and is different from the process of FIG. 10 in that steps S131 and S132 are executed instead of steps S105 to S122.

すなわち、画像処理部113は、ステップS104の後、エッジ検出領域内でエッジ量が最大の画素のエッジ量Eに応じて、表2を用いて説明した方法で、図11A乃至図11Dに示したガンマテーブルのいずれかを選択する(S131)。そして、画像処理部113は、処理対象の画素用の下地除去パラメータとして、ステップS131で選択したガンマテーブルを適用することを決定して(S132)、ステップS108へ進む。
以上の処理により、表2及び図11A乃至図11Dを用いて説明したモスキートノイズ低減処理を実行することができる。なお、ステップS103でNoの場合には、第2実施形態の場合と同様、非ノイズ低減画素用ガンマテーブルを適用する。
That is, after step S104, the image processing unit 113 uses the method described with reference to Table 2 according to the edge amount E of the pixel having the maximum edge amount in the edge detection region, as illustrated in FIGS. 11A to 11D. One of the gamma tables is selected (S131). Then, the image processing unit 113 determines to apply the gamma table selected in step S131 as the background removal parameter for the pixel to be processed (S132), and proceeds to step S108.
With the above processing, the mosquito noise reduction processing described with reference to Table 2 and FIGS. 11A to 11D can be executed. In the case of No in step S103, the non-noise reduction pixel gamma table is applied as in the case of the second embodiment.

〔第4実施形態:図13及び図14〕
次に、この発明の画像処理装置の第4実施形態について説明する。
この第4実施形態は、基本的な構成は第3実施形態と同じであり、下地除去パラメータを決定する際に、エッジ検出領域内の画素のうちエッジ要素を構成する画素を特定し、それらの画素について求めたエッジ量の中央値に基づき下地除去パラメータを決定する点が異なる。以下、相違点に関連する事項のみ説明する。また、第3実施形態と共通の又は対応する構成については、同じ符号を用いる。
[Fourth Embodiment: FIGS. 13 and 14]
Next, a description will be given of a fourth embodiment of the image processing apparatus according to the present invention.
In the fourth embodiment, the basic configuration is the same as that of the third embodiment. When determining the background removal parameter, the pixels constituting the edge element are specified from among the pixels in the edge detection region, The difference is that the background removal parameter is determined based on the median edge amount obtained for the pixel. Only matters related to the differences will be described below. Moreover, the same code | symbol is used about the structure which is common or respond | corresponds with 3rd Embodiment.

ここまでの第1乃至第3実施形態では、各画素に適用する下地除去パラメータを、処理対象の画素P1を含むエッジ検出領域Q1内の画素のうちエッジ量が最大の画素のエッジ量Eに基づき決定していた。しかし、カメラやスキャナ等で取得した画像の場合、撮像や読取の際にノイズが発生することがある。このため、そのノイズの影響で、同じ1の文字を構成している複数画素であっても、画素同士の画素値が異なり、これに応じて、同じエッジ部の近傍の画素でも、算出されるエッジ量が異なってしまうことがある。   In the first to third embodiments so far, the background removal parameter applied to each pixel is based on the edge amount E of the pixel having the maximum edge amount among the pixels in the edge detection region Q1 including the pixel P1 to be processed. It was decided. However, in the case of an image acquired by a camera, a scanner, or the like, noise may occur during imaging or reading. For this reason, due to the influence of the noise, even in the case of a plurality of pixels constituting the same character, the pixel values of the pixels are different, and accordingly, the pixels in the vicinity of the same edge portion are also calculated. Edge amount may be different.

一例として、図13に、処理対象の画素P2を含むエッジ検出領域Q2内の各画素について求めたエッジ量の例を示す。
図13の例では、破線より左側のハッチングを付した領域で、フィルタマトリクスとの畳み込み演算を行う範囲が白地部と文字部とにまたがって設定され、エッジ量の算出結果が閾値を超えるとする。このような、エッジ量が閾値を超える画素を、エッジ部の画素と呼ぶことにする。
As an example, FIG. 13 shows an example of the edge amount obtained for each pixel in the edge detection region Q2 including the pixel P2 to be processed.
In the example of FIG. 13, it is assumed that the range for performing the convolution operation with the filter matrix is set across the white background portion and the character portion in the hatched region on the left side of the broken line, and the calculation result of the edge amount exceeds the threshold value. . Such a pixel whose edge amount exceeds a threshold value is referred to as an edge pixel.

しかし、エッジ部の画素内でも、位置によってエッジ量のばらつきがあるし、画素P2′は、ノイズを拾って、同じ列の画素よりも極端にエッジ量の値が大きくなっている。この状態で、エッジ量が最大の画素のエッジ量Eを求めると、画素画素P2′の「230」となるが、これはエッジ検出領域Q2内のエッジ部の急峻さを示す特徴量としては適切でないと言える。   However, even within the pixels in the edge portion, the edge amount varies depending on the position, and the pixel P2 ′ picks up noise and has an extremely large edge amount value than the pixels in the same column. In this state, when the edge amount E of the pixel having the maximum edge amount is obtained, “230” of the pixel pixel P2 ′ is obtained. This is an appropriate feature amount indicating the sharpness of the edge portion in the edge detection region Q2. Not so.

そこで、エッジ部の各画素の中央値を取るようにすれば、ノイズにより極端に大きな値となっているエッジ量を排除して、エッジ検出領域Q2内のエッジ部の急峻さを示す特徴量として適切な値を得ることができる。図13の例では、エッジ部の10画素のうちエッジ量の値が大きい方から5番目の「85」と6番目の「180」の平均値である「132.5」を採用すればよい。
なお、エッジ部のみで中央値を取るのは、エッジがない部分の値を考慮すると、かえって算出結果にエッジ部の急峻さが反映されづらくなるためである。
第4実施形態では、以上のように中央値に基づき各画素に適用する下地除去パラメータを決定することにより、画像の撮影や読取の際に生じるノイズの影響を受けずに、モスキートノイズの除去を行うことができる。
Therefore, if the median value of each pixel in the edge portion is taken, the edge amount that is extremely large due to noise is eliminated, and the feature amount indicating the sharpness of the edge portion in the edge detection region Q2 is obtained. Appropriate values can be obtained. In the example of FIG. 13, “132.5” that is an average value of the fifth “85” and the sixth “180” from the one with the larger edge amount value among the ten pixels of the edge portion may be employed.
The reason why the median value is obtained only at the edge portion is that the steepness of the edge portion is hardly reflected in the calculation result when the value of the portion without the edge is taken into consideration.
In the fourth embodiment, by determining the background removal parameter to be applied to each pixel based on the median value as described above, it is possible to remove mosquito noise without being affected by noise generated during image shooting or reading. It can be carried out.

次に、図14に、以上説明してきた第4実施形態のモスキートノイズ低減処理の手順を示す。
この手順は、第3実施形態で説明した図12の手順と対応するものであり、ステップS131及びS132に代えてステップS141乃至S143を実行する点が図12の処理と異なるものである。
Next, FIG. 14 shows the procedure of the mosquito noise reduction process of the fourth embodiment described above.
This procedure corresponds to the procedure of FIG. 12 described in the third embodiment, and is different from the process of FIG. 12 in that steps S141 to S143 are executed instead of steps S131 and S132.

すなわち、画像処理部113は、ステップS104の後、エッジ検出領域内の画素のうち、エッジ量が基準値を超えている画素を、エッジ要素を構成する画素として特定する(S141)。次に、画像処理部113は、エッジ要素を構成する各画素のエッジ量の中央値に応じて、第3実施形態で表2を用いて説明した方法で、図11A乃至図11Dに示したガンマテーブルのいずれかを選択する(S142)。
そして、画像処理部113は、処理対象の画素用の下地除去パラメータとして、ステップS142で選択したガンマテーブルを適用することを決定して(S143)、ステップS108へ進む。
以上の処理により、図13を用いて説明したモスキートノイズ低減処理を実行することができる。なお、ステップS103でNoの場合には、第3実施形態の場合と同様、非ノイズ低減画素用ガンマテーブルを適用する。
また、ステップS142において、第2実施形態の場合と同様、エッジ量の中央値を用いた下地除去レベルth_sを持つノイズ低減画素用ガンマテーブルを生成するようにしてもよい。ただしこの場合、エッジ量が基準値を超えた画素が1つもなければ、ステップS107に進んで非ノイズ低減画素用ガンマテーブルを適用することを決定する。
That is, after step S104, the image processing unit 113 identifies a pixel whose edge amount exceeds the reference value among the pixels in the edge detection region as a pixel constituting the edge element (S141). Next, the image processing unit 113 uses the method described with reference to Table 2 in the third embodiment according to the median value of the edge amount of each pixel constituting the edge element, and the gamma shown in FIGS. 11A to 11D. One of the tables is selected (S142).
Then, the image processing unit 113 determines to apply the gamma table selected in step S142 as the background removal parameter for the pixel to be processed (S143), and proceeds to step S108.
With the above processing, the mosquito noise reduction processing described with reference to FIG. 13 can be executed. In the case of No in step S103, the non-noise reduction pixel gamma table is applied as in the case of the third embodiment.
In step S142, as in the case of the second embodiment, a noise reduction pixel gamma table having a background removal level th_s using the median edge amount may be generated. However, in this case, if there is no pixel whose edge amount exceeds the reference value, the process proceeds to step S107 to determine to apply the non-noise reduction pixel gamma table.

〔第1変形例:図15及び図16〕
次に、上述した各実施形態の第1変形例について説明する。
第1変形例は、上述した第1乃至第4実施形態のいずれにも適用可能であり、処理対象の圧縮画像データの圧縮に用いられた圧縮方式に応じて、エッジ検出領域のサイズを変更するようにしたものである。以下、この変更点に関連する事項のみ説明する。また、第1実施形態と共通の又は対応する構成については、同じ符号を用いる。
[First Modification: FIGS. 15 and 16]
Next, a first modification of each embodiment described above will be described.
The first modification can be applied to any of the first to fourth embodiments described above, and the size of the edge detection region is changed according to the compression method used for compressing the compressed image data to be processed. It is what I did. Only the matters related to this change will be described below. Moreover, the same code | symbol is used about the structure which is common or respond | corresponds with 1st Embodiment.

一般に画像データの圧縮処理は、所定数の画素からなるブロック単位で行う。したがって、モスキートノイズも、そのブロック内の画素のエッジ要素に影響を受けて発生する。そこで、非可逆圧縮に用いられた圧縮方法に応じて、圧縮処理のブロックをエッジ検出領域とすることにより、より効率的にモスキートノイズの低減が可能となる。   In general, compression processing of image data is performed in units of blocks including a predetermined number of pixels. Therefore, mosquito noise is also generated by being affected by the edge elements of the pixels in the block. Therefore, by using the compression processing block as an edge detection region in accordance with the compression method used for lossy compression, mosquito noise can be reduced more efficiently.

なお、ブロックのサイズは、表3に示すように圧縮方式によって異なる。伸長処理を行う際には圧縮方式は既知であるから、この第1変形例においては、デコーダ部202がその情報をモスキートノイズ低減処理部203に伝えるようにしている。
The block size varies depending on the compression method as shown in Table 3. Since the compression method is known when the decompression process is performed, in the first modification, the decoder unit 202 transmits the information to the mosquito noise reduction processing unit 203.

ここで、図15に、第1変形例におけるモスキートノイズ低減処理部203の機能構成を示す。
第1変形例においては、モスキートノイズ低減処理部203に、図3の構成に加え、エッジ検出領域設定部306を備える。このエッジ検出領域設定部306は、デコーダ部202から供給される圧縮方式の情報と、表3とから、処理対象の伸長画像データに設定すべきエッジ検出領域のサイズを取得する機能を備える。そして、その取得したサイズに従い、処理対象の伸長画像データに設けるエッジ検出領域の位置を決定し、下地除去パラメータ決定部304へ供給する機能も備える。
下地除去パラメータ決定部304は、エッジ検出領域設定部306から供給されるエッジ検出領域の位置の情報に従い、図7等のステップS104以降の処理を実行する。
Here, FIG. 15 shows a functional configuration of the mosquito noise reduction processing unit 203 in the first modification.
In the first modification, the mosquito noise reduction processing unit 203 includes an edge detection region setting unit 306 in addition to the configuration of FIG. The edge detection area setting unit 306 has a function of acquiring the size of the edge detection area to be set in the decompressed image data to be processed from the compression method information supplied from the decoder unit 202 and Table 3. A function of determining the position of the edge detection area provided in the decompressed image data to be processed according to the acquired size and supplying the position to the background removal parameter determination unit 304 is also provided.
The background removal parameter determination unit 304 executes the processing after step S104 in FIG. 7 and the like according to the information on the position of the edge detection region supplied from the edge detection region setting unit 306.

図16に、第1変形例におけるエッジ検出領域の配置例を示す。
図16に示すのは、JPEG(Joint Photographic Experts Group)方式で圧縮された画像データを伸長した場合の例である。この場合、表3に示したように、圧縮処理のブロック単位が8×8画素であるので、エッジ検出領域のサイズもこれに合わせて8×8画素とする。従って、図16に示した16×16画素の範囲には、B1〜B4の4つのエッジ検出領域が配置されることになる。配置位置も、圧縮処理の際のブロックの配置と同じように行う。
そして、例えば画素P3を処理対象とする場合、その画素P3を含むエッジ検出領域B4について、図7のステップS105等のエッジ量の分析を行う。注目画素が移動しても、エッジ検出領域B4の中にある間は、同じエッジ検出領域B4を用いて分析を行う。注目画素がエッジ検出領域の中心にある必要はない。
FIG. 16 shows an arrangement example of the edge detection areas in the first modification.
FIG. 16 shows an example in which image data compressed by the JPEG (Joint Photographic Experts Group) method is expanded. In this case, as shown in Table 3, since the block unit of the compression process is 8 × 8 pixels, the size of the edge detection area is also set to 8 × 8 pixels accordingly. Therefore, four edge detection areas B1 to B4 are arranged in the range of 16 × 16 pixels shown in FIG. Arrangement is performed in the same manner as the arrangement of blocks in the compression process.
For example, when the pixel P3 is a processing target, the edge amount analysis in step S105 of FIG. 7 is performed on the edge detection region B4 including the pixel P3. Even if the pixel of interest moves, analysis is performed using the same edge detection region B4 while it is in the edge detection region B4. The pixel of interest does not need to be in the center of the edge detection area.

以上の第1変形例においては、エッジ検出領域設定部306が、エッジ検出領域のサイズを、圧縮された画像データの圧縮方式に基づき決定することにより、各画素におけるノイズの原因となる画像の範囲について求めたエッジ量に従って下地除去処理に用いるパラメータの値を決定することができる。そして、このことにより、モスキートノイズを精度よく低減することができる。   In the first modified example described above, the edge detection area setting unit 306 determines the size of the edge detection area based on the compression method of the compressed image data, and thereby the range of the image that causes noise in each pixel. The value of the parameter used for the background removal process can be determined according to the edge amount obtained for. As a result, mosquito noise can be accurately reduced.

〔第2変形例:図17及び図18〕
次に、上述した各実施形態の第2変形例について説明する。
第1変形例は、上述した第1乃至第4実施形態のいずれにも適用可能であり、画像処理装置を携帯端末装置として構成し、モスキートノイズ低減処理後の画像データを、用紙への画像形成ではなく画面への画像表示に用いるようにしたものである。以下、この変更点に関連する事項のみ説明する。また、第1実施形態と共通の又は対応する構成については、同じ符号を用いる。
[Second Modification: FIGS. 17 and 18]
Next, a second modification of each embodiment described above will be described.
The first modification can be applied to any of the first to fourth embodiments described above, and the image processing apparatus is configured as a portable terminal device, and image data after mosquito noise reduction processing is formed on a sheet. Rather than being used for image display on the screen. Only the matters related to this change will be described below. Moreover, the same code | symbol is used about the structure which is common or respond | corresponds with 1st Embodiment.

図17に、第2変形例における携帯端末装置のハードウェア構成を示す。
図17に示すように、携帯端末装置50は、図1に示したCPU102〜システムバス109と同趣旨の構成(具体的な性能や構造は異なっていてよい)に加え、表示部I/F121を介してシステムバス109に接続される表示部122を備える。この表示部122は、液晶ディスプレイなど、画像データに基づき画面に画像を表示する表示手段である。
FIG. 17 shows a hardware configuration of the mobile terminal device in the second modification.
As illustrated in FIG. 17, the mobile terminal device 50 includes a display unit I / F 121 in addition to the configuration having the same meaning as the CPU 102 to the system bus 109 illustrated in FIG. 1 (specific performance and structure may be different). The display unit 122 is connected to the system bus 109 via the interface. The display unit 122 is a display unit that displays an image on a screen based on image data, such as a liquid crystal display.

このような携帯端末装置50は、例えばスマートフォンやタブレット型コンピュータ、ラップトップ型コンピュータとして構成することができる。また、図17に示した構成に加え、撮像手段を設けてデジタルカメラとして構成するなど、画像処理機能を備える任意の装置として構成することができる。   Such a portable terminal device 50 can be configured as, for example, a smartphone, a tablet computer, or a laptop computer. Further, in addition to the configuration shown in FIG. 17, it can be configured as an arbitrary apparatus having an image processing function, such as providing an imaging unit and configuring as a digital camera.

図18に、携帯端末装置50が備える、圧縮された画像データに基づき画面に画像を表示するための機能の概略構成を示した。
図18に示す機能のうち、圧縮画像取得部201〜その他処理部204の機能は、図2に示した同名の機能と対応するものである。ただし、携帯端末装置50は、画像処理部113を備えないため、モスキートノイズ低減処理部203及びその他処理部204の機能を含め、圧縮画像取得部201〜その他処理部204の機能は、主にCPU102が所要のプログラムを実行することにより実現される。
FIG. 18 shows a schematic configuration of functions provided in the mobile terminal device 50 for displaying an image on a screen based on compressed image data.
Among the functions shown in FIG. 18, the functions of the compressed image acquisition unit 201 to the other processing unit 204 correspond to the functions of the same name shown in FIG. 2. However, since the mobile terminal device 50 does not include the image processing unit 113, the functions of the compressed image acquisition unit 201 to the other processing unit 204 including the functions of the mosquito noise reduction processing unit 203 and the other processing unit 204 are mainly performed by the CPU 102. Is realized by executing a required program.

画面表示部206は、その他処理部204から受け取った画像データに基づき表示部122により画像を表示する機能を備える。これに対応し、その他処理部204は、デコーダ部202あるいはモスキートノイズ低減処理部203から渡された伸長画像データを、表示に適した画像データに加工するための補正処理を行って、画面表示部206に渡す機能を備える。   The screen display unit 206 has a function of displaying an image on the display unit 122 based on the image data received from the other processing unit 204. In response to this, the other processing unit 204 performs a correction process for processing the decompressed image data passed from the decoder unit 202 or the mosquito noise reduction processing unit 203 into image data suitable for display, and performs a screen display unit. The function to pass to 206 is provided.

以上の携帯端末装置50によれば、非可逆圧縮を行った画像データを伸長して表示に用いる場合でも、上述した各実施形態における画像形成の場合と同様、効果的にモスキートノイズを低減し、品質のよい画像を表示することができる。
なお、画像の表示を行う装置が携帯可能である必要はないし、画像形成と表示を選択的に又は並行して行うことができる装置であってもよいことは、もちろんである。据え置き型のPCにも、本発明は適用可能である。
According to the above mobile terminal device 50, even when image data subjected to irreversible compression is decompressed and used for display, mosquito noise is effectively reduced as in the case of image formation in each of the embodiments described above. A high-quality image can be displayed.
Of course, it is not necessary that the device for displaying an image is portable, and it may be a device capable of performing image formation and display selectively or in parallel. The present invention can also be applied to a stationary PC.

〔その他の変形例〕
以上で本発明の実施形態の説明を終了するが、この発明において、装置の具体的な構成、具体的な処理の手順、処理に用いる計算式、各領域のサイズ、圧縮方式等は、実施形態で説明したものに限るものではない。
例えば、下地除去パラメータとしてガンマテーブルを用いる例について説明したが、これに限られることはなく、閾値を設定してその閾値をパラメータとし、処理対象の画素の画素値がその設定した閾値以下の値の場合は0でクリップするようにしても良い。
また、下地除去処理も、ガンマ補正処理には限られない。
[Other variations]
This is the end of the description of the embodiment of the present invention. In this invention, the specific configuration of the apparatus, the specific processing procedure, the calculation formula used for the processing, the size of each area, the compression method, etc. It is not limited to the one described in.
For example, an example using a gamma table as a background removal parameter has been described. However, the present invention is not limited to this, and a threshold value is set and the threshold value is used as a parameter. In this case, it may be clipped with 0.
The background removal process is not limited to the gamma correction process.

また、上述した各実施形態の画像形成装置10(以下、特に断らない限り、携帯端末装置50でも同様)の機能を、複数の装置に分散して設け、それらの装置に協働して画像形成装置10と同様な機能を実現させるようにしてもよい。特に、モスキートノイズ低減処理部203の機能を、画像形成装置10の外部の画像処理装置に設け、画像形成装置10から必要に応じて伸長後の画像データを当該画像処理装置に送信して、モスキートノイズ低減処理を行わせるようにしてもよい。また、画像形成装置10が、当該画像処理装置から、モスキートノイズ低減処理後の画像データを受信して、画像形成に用いるようにしてもよい。このような外部の画像処理装置も、この発明の画像処理装置の実施形態である。   In addition, the functions of the image forming apparatus 10 of each of the above-described embodiments (hereinafter, the same applies to the portable terminal device 50 unless otherwise specified) are distributed to a plurality of apparatuses, and image formation is performed in cooperation with these apparatuses. You may make it implement | achieve the function similar to the apparatus 10. FIG. In particular, the function of the mosquito noise reduction processing unit 203 is provided in an image processing apparatus external to the image forming apparatus 10, and the decompressed image data is transmitted from the image forming apparatus 10 to the image processing apparatus as necessary, so that the mosquito is reduced. Noise reduction processing may be performed. Further, the image forming apparatus 10 may receive image data after mosquito noise reduction processing from the image processing apparatus and use it for image formation. Such an external image processing apparatus is also an embodiment of the image processing apparatus of the present invention.

また、この発明のプログラムは、コンピュータに所要のハードウェアを制御させて上述した画像形成装置10が備える機能、特に図3に示した機能を実現させるためのプログラムである。このようなプログラムは、ROM104に記憶しておく他、外部の記憶媒体等に記憶しておいてもよい。また、メモリカード、CD、DVD、ブルーレイディスク等の任意の不揮発性記録媒体に記録して提供することもできる。それらの記録媒体に記録されたプログラムを他の画像形成装置にインストールして実行させることにより、上述した各手順を実行させることができる。   Further, the program of the present invention is a program for causing a computer to control required hardware to realize the functions provided in the image forming apparatus 10 described above, particularly the functions shown in FIG. Such a program may be stored not only in the ROM 104 but also in an external storage medium. Further, it can be provided by being recorded on an arbitrary nonvolatile recording medium such as a memory card, CD, DVD, or Blu-ray disc. Each procedure described above can be executed by installing the program recorded in the recording medium in another image forming apparatus and executing the program.

また、ネットワークに接続され、プログラムを記録した記録媒体を備える外部装置あるいはプログラムを記憶手段に記憶した外部装置からダウンロードし、コンピュータにインストールして実行させることも可能である。
また、以上説明してきた実施形態及び変形例の構成は、相互に矛盾しない限り任意に組み合わせて実施可能であることは勿論である。
It is also possible to download the program from an external device connected to a network and provided with a recording medium that records the program or from an external device that stores the program in a storage means, and install and execute the program on a computer.
Moreover, it is needless to say that the configurations of the embodiment and the modified examples described above can be arbitrarily combined and implemented as long as they do not contradict each other.

10:画像形成装置、50:携帯端末装置、101:コントローラ、102:CPU、103:RAM、104:ROM、105:HDD、106:通信I/F、107:操作部I/F、108:操作部、109:システムバス、110:エンジン制御部、111:画像読取部、112:プロッタ部、113:画像処理部、121:表示部I/F、122:表示部、201:圧縮画像取得部、202:デコーダ部、203:モスキートノイズ低減処理部、204:その他処理部、205:印刷実行部、206:画面表示部、301:伸長画像受付部、302:白地検出部、303:エッジ検出部、304:下地除去パラメータ決定部、305:下地除去処理部、306:エッジ検出領域設定部 10: image forming apparatus, 50: portable terminal device, 101: controller, 102: CPU, 103: RAM, 104: ROM, 105: HDD, 106: communication I / F, 107: operation unit I / F, 108: operation 109: System bus 110: Engine control unit 111: Image reading unit 112: Plotter unit 113: Image processing unit 121: Display unit I / F 122: Display unit 201: Compressed image acquisition unit 202: Decoder unit, 203: Mosquito noise reduction processing unit, 204: Other processing unit, 205: Print execution unit, 206: Screen display unit, 301: Expanded image reception unit, 302: White background detection unit, 303: Edge detection unit, 304: Background removal parameter determination unit, 305: Background removal processing unit, 306: Edge detection region setting unit

特開2006−352279号公報JP 2006-352279 A

Claims (9)

圧縮された画像データを伸長して得られた伸長画像データを処理する画像処理装置であって、
前記伸長画像データ中の白地画像領域を検出する白地検出手段と、
前記伸長画像データ中のエッジ部を検出するエッジ検出手段と、
前記白地検出手段及び前記エッジ検出手段の検出結果に基づき、前記伸長画像データの各領域に適用する下地除去パラメータの値を該領域毎に決定する決定手段と、
前記決定手段が決定した下地除去パラメータの値を使用して前記伸長画像データに対する下地除去処理を行う処理手段とを備える画像処理装置。
An image processing apparatus that processes decompressed image data obtained by decompressing compressed image data,
A white background detecting means for detecting a white background image area in the decompressed image data;
Edge detection means for detecting an edge portion in the decompressed image data;
A determination unit that determines a value of a background removal parameter to be applied to each region of the decompressed image data based on the detection result of the white background detection unit and the edge detection unit;
An image processing apparatus comprising: processing means for performing background removal processing on the decompressed image data using the value of the background removal parameter determined by the determination means.
請求項1に記載の画像処理装置であって、
前記白地検出手段は、画素毎に該画素が白地画像領域にあるか否か検出し、
前記エッジ検出手段は、複数画素からなるエッジ検出領域内にエッジ部を構成する画素があるか否かを検出し、
前記決定手段は、前記伸長画像データの画素毎に該画素に適用する下地除去パラメータの値を決定し、ある画素を含むエッジ検出領域内にエッジ部を構成する画素があるか否かに従ってその画素に適用する下地除去パラメータの値を決定することを特徴とする画像処理装置。
The image processing apparatus according to claim 1,
The white background detecting means detects whether the pixel is in a white background image area for each pixel,
The edge detection means detects whether or not there is a pixel constituting an edge portion in an edge detection region composed of a plurality of pixels,
The determining unit determines a value of a background removal parameter to be applied to each pixel of the decompressed image data, and determines whether or not there is a pixel constituting an edge portion in an edge detection region including a certain pixel. An image processing apparatus that determines a value of a background removal parameter to be applied to the image processing apparatus.
請求項2に記載の画像処理装置であって、
前記下地除去処理は、各画素の階調値を、前記下地除去パラメータの値に従って変更する処理であり、
前記決定手段は、前記ある画素を含むエッジ検出領域内にエッジ部を構成する画素がある場合、その画素に適用する下地除去パラメータの値を、前記伸長画像データにおいて階調値が所定の閾値よりも白側にある画素について、その階調値をより白側の値に変更することを規定した値に決定することを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
The background removal process is a process of changing the gradation value of each pixel according to the value of the background removal parameter,
When there is a pixel constituting an edge portion in an edge detection region including the certain pixel, the determining unit determines a background removal parameter value to be applied to the pixel from a predetermined threshold value in a gradation value in the decompressed image data. An image processing apparatus characterized in that, for a pixel on the white side, the gradation value is determined to be a value that defines a change to a white side value.
請求項3に記載の画像処理装置であって、
前記エッジ検出手段は、エッジ検出領域内にあるエッジ部の急峻さを示す特徴量を求める手段を備え、
前記決定手段は、前記閾値を、前記ある画素を含むエッジ検出領域について求めた前記特徴量に基づき定めることを特徴とする画像処理装置。
The image processing apparatus according to claim 3,
The edge detection means includes means for obtaining a feature amount indicating the steepness of the edge portion in the edge detection region,
The image processing apparatus according to claim 1, wherein the determination unit determines the threshold based on the feature amount obtained for an edge detection region including the certain pixel.
請求項4に記載の画像処理装置であって、
前記決定手段は、前記ある画素を含むエッジ検出領域について求めた前記特徴量が大きいほど、前記閾値を、より白側から遠い値に定めることを特徴とする画像処理装置。
The image processing apparatus according to claim 4,
The image processing apparatus according to claim 1, wherein the determination unit sets the threshold value to a value farther from the white side as the feature amount obtained for the edge detection region including the certain pixel is larger.
請求項3に記載の画像処理装置であって、
前記エッジ検出手段は、前記ある画像を含むエッジ検出領域内にある各画素についてその画素周辺における画素値の変動度合いの急峻さを示す特徴量を求める手段を備え、
前記決定手段は、前記ある画像を含むエッジ検出領域内の各画素の前記特徴量のうち、所定の基準値を超える特徴量の中央値に基づき、前記閾値を定めることを特徴とする画像処理装置。
The image processing apparatus according to claim 3,
The edge detection means includes means for obtaining a feature amount indicating a steepness of a variation degree of a pixel value around each pixel in an edge detection area including the certain image,
The determination means determines the threshold based on a median value of feature values exceeding a predetermined reference value among the feature values of each pixel in an edge detection region including the certain image. .
請求項2乃至6のいずれか一項に記載の画像処理装置であって、
前記エッジ検出領域のサイズを、前記圧縮された画像データの圧縮方式に基づき決定する手段を備えることを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 2 to 6,
An image processing apparatus comprising: means for determining a size of the edge detection area based on a compression method of the compressed image data.
圧縮された画像データを伸長して得られた伸長画像データを処理する画像処理方法であって、
前記伸長画像データ中の白地画像領域を検出する白地検出手順と、
前記伸長画像データ中のエッジ部を構成する画素を検出するエッジ検出手順と、
前記白地検出手順及び前記エッジ検出手順の検出結果に基づき、前記伸長画像データの各領域に適用する下地除去パラメータの値を該領域毎に決定する決定手順と、
前記決定手順が決定した下地除去パラメータの値を使用して前記伸長画像データに対する下地除去処理を行う処理手順とを備える画像処理方法。
An image processing method for processing decompressed image data obtained by decompressing compressed image data,
A white background detection procedure for detecting a white background image region in the decompressed image data;
An edge detection procedure for detecting pixels constituting an edge portion in the decompressed image data;
A determination procedure for determining a value of a background removal parameter to be applied to each region of the decompressed image data based on the detection result of the white background detection procedure and the edge detection procedure;
A processing procedure for performing a background removal process on the decompressed image data using the value of the background removal parameter determined by the determination procedure.
コンピュータに、圧縮された画像データを伸長して得られた伸長画像データを処理する機能を実現させるためのプログラムであって、
前記コンピュータを、
前記伸長画像データ中の白地画像領域を検出する白地検出手段と、
前記伸長画像データ中のエッジ部を構成する画素を検出するエッジ検出手段と、
前記白地検出手段及び前記エッジ検出手段の検出結果に基づき、前記伸長画像データの各領域に適用する下地除去パラメータの値を該領域毎に決定する決定手段と、
前記決定手段が決定した下地除去パラメータの値を使用して前記伸長画像データに対する下地除去処理を行う処理手段として機能させるためのプログラム。
A program for causing a computer to realize a function of processing decompressed image data obtained by decompressing compressed image data,
The computer,
A white background detecting means for detecting a white background image area in the decompressed image data;
Edge detection means for detecting pixels constituting an edge portion in the decompressed image data;
A determination unit that determines a value of a background removal parameter to be applied to each region of the decompressed image data based on the detection result of the white background detection unit and the edge detection unit;
A program for functioning as processing means for performing background removal processing on the decompressed image data using the value of the background removal parameter determined by the determination means.
JP2015157532A 2015-08-07 2015-08-07 Image processing apparatus, image processing method, and program Pending JP2017038167A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015157532A JP2017038167A (en) 2015-08-07 2015-08-07 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015157532A JP2017038167A (en) 2015-08-07 2015-08-07 Image processing apparatus, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2017038167A true JP2017038167A (en) 2017-02-16

Family

ID=58047965

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015157532A Pending JP2017038167A (en) 2015-08-07 2015-08-07 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2017038167A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108469231A (en) * 2017-02-23 2018-08-31 香港商台本机械有限公司 Detecting system
CN111062878A (en) * 2019-10-31 2020-04-24 深圳先进技术研究院 Image denoising method and device and computer readable storage medium
JP2020162025A (en) * 2019-03-27 2020-10-01 キヤノン株式会社 Image processing system, image processing method, and image processing device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108469231A (en) * 2017-02-23 2018-08-31 香港商台本机械有限公司 Detecting system
CN108469231B (en) * 2017-02-23 2020-05-08 香港商台本机械有限公司 Detection system
JP2020162025A (en) * 2019-03-27 2020-10-01 キヤノン株式会社 Image processing system, image processing method, and image processing device
CN111062878A (en) * 2019-10-31 2020-04-24 深圳先进技术研究院 Image denoising method and device and computer readable storage medium
CN111062878B (en) * 2019-10-31 2023-04-18 深圳先进技术研究院 Image denoising method and device and computer readable storage medium

Similar Documents

Publication Publication Date Title
US20090245679A1 (en) Image processing apparatus
JP2017092872A (en) Image processing apparatus and image processing method
US8594446B2 (en) Method for enhancing a digitized document
US9176935B2 (en) Image forming apparatus capable of displaying print preview on screen
JP2017038167A (en) Image processing apparatus, image processing method, and program
JP2006129105A (en) Visual processing device, method and program, and semiconductor device
JP5914843B2 (en) Image processing apparatus and image processing method
US9621763B2 (en) Image processing apparatus, image processing system, image processing method, and recording medium converting gradation of image data in gradation conversion range to emphasize or reduce shine appearance
JP6129337B2 (en) Image compression / decompression apparatus and image forming apparatus
JP5480102B2 (en) Image processing apparatus, image forming apparatus, and image processing method
JP5515552B2 (en) Pixel interpolation device, pixel interpolation method, and image reading device
JP2015041200A (en) Image processor, image forming apparatus, and program
JP2009124576A (en) Image processing apparatus and control method thereof
US20110103705A1 (en) Image encoding method and apparatus, and image decoding method and apparatus
US9723310B2 (en) Image processing device, image processing method, and non-transitory computer-readable medium
JP6541387B2 (en) PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM
JP2007215001A (en) Unit, system, and method for processing image
JP5557792B2 (en) Image processing apparatus and image forming apparatus
US11900655B2 (en) Information processing device, information processing method, and recording medium recorded with information processing program
US9521290B2 (en) Image processing apparatus, image forming apparatus, image processing method, and non-transitory computer readable medium for detecting difference between images
JP6164024B2 (en) Image processing apparatus and program
US10872216B2 (en) Image output device, image output method, and output image data production method
JP2012095172A (en) Image processing device, image forming apparatus, and image processing method
JP6128319B2 (en) Image processing apparatus and program
JP6805874B2 (en) Image processing equipment, image processing methods and programs