JP2023034014A - Image processing device, control method of the same, and program - Google Patents

Image processing device, control method of the same, and program Download PDF

Info

Publication number
JP2023034014A
JP2023034014A JP2021140062A JP2021140062A JP2023034014A JP 2023034014 A JP2023034014 A JP 2023034014A JP 2021140062 A JP2021140062 A JP 2021140062A JP 2021140062 A JP2021140062 A JP 2021140062A JP 2023034014 A JP2023034014 A JP 2023034014A
Authority
JP
Japan
Prior art keywords
image
pixel
value
show
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021140062A
Other languages
Japanese (ja)
Inventor
聖人 小林
Seito Kobayashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021140062A priority Critical patent/JP2023034014A/en
Publication of JP2023034014A publication Critical patent/JP2023034014A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

To improve show-through correction to execute on an image of image data obtained by scanning, in an image processing device 100.SOLUTION: An image processing device 100, which acquires image data obtained by scanning and outputs it, extracts image areas obtained by dividing into a plurality of pieces an image of the image data obtained by scanning out of the image, divides the image by each extracted image area, executes show-through correction concerning the image of the image data obtained by scanning, and outputs show-through-corrected image data.SELECTED DRAWING: Figure 2

Description

本発明は、画像処理装置、その制御方法、およびプログラムに関する。 The present invention relates to an image processing device, its control method, and a program.

特許文献1は、原稿をスキャンして、スキャンによる画像データを取得して出力する複写機を開示する。また、特許文献1の複写機では、スキャンによる画像データの画像について、裏写りの補正処理を実行することができる。裏写りとは、スキャンした原稿の表面についての画像データに、その原稿の裏面の画像成分が含まれている状態をいう。 Japanese Patent Application Laid-Open No. 2002-200000 discloses a copier that scans a document, acquires image data from the scan, and outputs the image data. Further, in the copier disclosed in Japanese Patent Application Laid-Open No. 2002-200011, show-through correction processing can be executed for an image of image data obtained by scanning. Show-through refers to a state in which the image data of the front side of the scanned document contains the image component of the back side of the document.

特許第6182092号公報Japanese Patent No. 6182092

しかしながら、特許文献1の裏写りの補正処理を用いたとしても、たとえば原稿が複数の色で色分けされているような場合には、裏写りの補正処理後の画像データにおいて色が再現され難くなることがある。また、このような色落ちを抑制するように裏写りの補正処理を実行させようとすると、特許文献1の裏写りの補正処理では、裏写り成分が良好に抑制できなくなることがある。 However, even if the show-through correction process of Patent Document 1 is used, it is difficult to reproduce the colors in the image data after the show-through correction process when the document is color-coded with a plurality of colors, for example. Sometimes. Also, if the show-through correction process is executed to suppress such color fading, the show-through correction process of Japanese Patent Application Laid-Open No. 2002-200013 may not be able to satisfactorily suppress the show-through component.

このように画像処理装置では、裏写りの補正処理を改善することが求められる。 As described above, the image processing apparatus is required to improve the show-through correction process.

本発明に係る画像処理装置は、スキャンによって得られる画像データを出力する画像処理装置であって、スキャンによって得られる画像データの画像から、該画像を複数に分けてなる画像領域を抽出する抽出手段と、抽出手段によって抽出された画像領域ごとに分けて、スキャンによって得られる画像データの画像についての裏写り補正処理を実行する補正手段と、補正手段によって裏写り補正された画像データを出力する出力手段とを有する。 An image processing apparatus according to the present invention is an image processing apparatus for outputting image data obtained by scanning, and extracting means for extracting an image area obtained by dividing the image into a plurality of parts from the image of the image data obtained by scanning. a correcting means for performing show-through correction processing on the image of the image data obtained by scanning, divided into image regions extracted by the extracting means; and an output for outputting image data corrected for show-through by the correcting means. means.

本発明では、スキャンによる画像データの画像を、画像領域ごとに裏写り補正することにより、裏写りの補正処理を改善できる。 According to the present invention, the show-through correction process can be improved by correcting the show-through for each image area of the scanned image data.

本発明の第一実施形態に係る画像処理装置の構成を示すブロック図である。1 is a block diagram showing the configuration of an image processing device according to a first embodiment of the present invention; FIG. 図1の画像処理装置による裏写り除去制御のフローチャートである。2 is a flowchart of show-through removal control by the image processing apparatus of FIG. 1; 注目画素と周辺画素とによる画素群の例の説明図である。FIG. 4 is an explanatory diagram of an example of a pixel group made up of a pixel of interest and peripheral pixels; 分散値画像での画像領域ごとのラベリング制御のフローチャートである。4 is a flow chart of labeling control for each image area in a variance image. 連続する分散値による画像領域の抽出処理とラベル付与との説明図である。FIG. 10 is an explanatory diagram of image region extraction processing and labeling using continuous variance values; 図2の画像領域抽出制御のフローチャートである。3 is a flowchart of image area extraction control in FIG. 2; ラベルが付与される画像領域ごとの画素抽出の例の説明図である。FIG. 4 is an explanatory diagram of an example of pixel extraction for each image region to which a label is assigned; 本発明の第二実施形態に係る画像処理装置での、裏写り除去制御のフローチャートである。9 is a flow chart of show-through removal control in the image processing apparatus according to the second embodiment of the present invention;

以下、本発明の実施形態について図面を参照しながら詳細に説明する。しかしながら、以下の実施形態に記載されている構成はあくまで例示に過ぎず、本発明の範囲は実施形態に記載されている構成によって限定されることはない。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. However, the configurations described in the following embodiments are merely examples, and the scope of the present invention is not limited by the configurations described in the embodiments.

[第一実施形態]
図1は、本発明の第一実施形態に係る画像処理装置100の構成を示すブロック図である。図1の画像処理装置100は、外部記憶装置105、RAM111、ROM113、および、これらがたとえば不図示の内部バスにより接続されるCPU112、を有する。CPU112、RAM111、およびROM113は、1チップマイクロコンピュータにより画像処理装置100に設けられてよい。CPU112には、コンピュータ装置111が接続されるコンピュータインタフェース101、スキャナ102、ユーザインタフェース(UI)103、プリントエンジン104、が接続されてよい。
[First embodiment]
FIG. 1 is a block diagram showing the configuration of an image processing apparatus 100 according to the first embodiment of the invention. The image processing apparatus 100 of FIG. 1 has an external storage device 105, a RAM 111, a ROM 113, and a CPU 112 to which these are connected, for example, by an internal bus (not shown). The CPU 112, RAM 111, and ROM 113 may be provided in the image processing apparatus 100 by a one-chip microcomputer. A computer interface 101 to which the computer device 111 is connected, a scanner 102, a user interface (UI) 103, and a print engine 104 may be connected to the CPU 112 .

図1の画像処理装置100は、MFP(MultiFunction Peripheral)と呼ばれる画像形成装置の例である。このような図1の画像処理装置100は、たとえば、スキャナ102により原稿をスキャンして、スキャンによる原稿の画像データを取得できる。また、画像処理装置100は、コンピュータインタフェース101を通じてコンピュータ装置111から、スキャンによる画像データを取得してもよい。また、図1の画像処理装置100は、取得した画像データを、プリントエンジン104により用紙などに印刷したり、コンピュータインタフェース101を通じてコンピュータ装置111へ出力したりできる。ユーザインタフェース103は、画像処理装置100を使用するユーザにより操作されるたとえばタッチパネル、テンキー、スタートボタン、を有する。タッチパネルには、操作画面が切り替えて表示可能である。外部記憶装置105は、たとえば画像処理装置100から取り外し交換可能なものであればよく、SSDなどの半導体メモリ、HDD、などでよい。RAM111は、CPU112の主メモリ、ワークエリアなどの一時記憶領域として用いられる。ROM113は、制御プログラムおよびデータを記憶する。CPU112は、ROM113に記憶されている制御プログラムを読み込んでRAM111に展開し、制御プログラムを実行する。これにより、CPU112は、画像処理装置100の全体的な動作を制御する制御部として機能する。そして、CPU112には、画像処理装置100の制御部の機能として図1に示すように、画像データ取得部106、裏写り除去部107、色変換部108、ガンマ補正部109、画像形成部110、が実現される。 An image processing apparatus 100 in FIG. 1 is an example of an image forming apparatus called an MFP (MultiFunction Peripheral). Such an image processing apparatus 100 in FIG. 1 can, for example, scan a document with the scanner 102 and acquire image data of the document by scanning. Further, the image processing apparatus 100 may acquire scanned image data from the computer device 111 through the computer interface 101 . Further, the image processing apparatus 100 in FIG. 1 can print the acquired image data on paper or the like using the print engine 104 and output the data to the computer apparatus 111 through the computer interface 101 . The user interface 103 has, for example, a touch panel, numeric keys, and a start button operated by the user using the image processing apparatus 100 . The operation screen can be switched and displayed on the touch panel. The external storage device 105 may be, for example, a device that can be removed from the image processing apparatus 100 and replaced, and may be a semiconductor memory such as an SSD, an HDD, or the like. The RAM 111 is used as a main memory of the CPU 112 and a temporary storage area such as a work area. ROM 113 stores control programs and data. The CPU 112 reads the control program stored in the ROM 113, develops it in the RAM 111, and executes the control program. Thereby, the CPU 112 functions as a control unit that controls the overall operation of the image processing apparatus 100 . 1, the CPU 112 includes an image data acquisition unit 106, a show-through removal unit 107, a color conversion unit 108, a gamma correction unit 109, an image forming unit 110, is realized.

画像データ取得部106は、スキャナ102で読み取った原稿から生成されるRGB画像データを取得する。RGB画像データは、R、G、Bそれぞれの色成分として、0~255のいずれかの値を持つ8bitのデータを有する。RGB画像データは、この他にもたとえば、色成分ごとの10bitのデータ、色成分ごとの16bitのデータを有してよい。なお、スキャナ102で読み取った原稿の画像データは、上述したRGB画像データでなくともよい。スキャナ102で読み取った原稿の画像データは、後述するCMYK空間へ変換可能な色空間を持つ画像データであればよい。画像データ取得部106は、コンピュータ装置111から、スキャナ102で読み取った原稿の画像データしてよい。また、画像データ取得部106は、ユーザインタフェース103から送信される各種の設定値を取得してよい。 An image data acquisition unit 106 acquires RGB image data generated from a document read by the scanner 102 . The RGB image data has 8-bit data having any value from 0 to 255 as each of R, G, and B color components. RGB image data may also include, for example, 10-bit data for each color component and 16-bit data for each color component. Note that the image data of the document read by the scanner 102 may not be the RGB image data described above. The image data of the document read by the scanner 102 may be image data having a color space that can be converted into a CMYK space, which will be described later. The image data acquisition unit 106 may obtain the image data of the document read by the scanner 102 from the computer device 111 . Also, the image data acquisition unit 106 may acquire various setting values transmitted from the user interface 103 .

裏写り除去部107は、画像データ取得部106がスキャナ102から取得したRGB画像データの画像に対して、裏写り除去処理を実行し、裏写りを除去したRGB画像データを生成する。裏写り除去部107による裏写り除去制御の詳細は、後述する。 The show-through removal unit 107 performs show-through removal processing on the image of the RGB image data acquired by the image data acquisition unit 106 from the scanner 102, and generates RGB image data from which show-through has been removed. Details of the show-through removal control by the show-through removal unit 107 will be described later.

色変換部108は、裏写り除去部107により処理したRGB画像データの各画素値についての、RGBの各色の値を、CMYKの各色の値へ変換して、CMYK画像データを生成する。色変換部108は、たとえばRGBとCMYKとを対応づけるLUT(Look Up Table)を用いて補間演算を実行して、各画素値についてのRGBの各色の値を、CMYKの各色の値へ変換してよい。ガンマ補正部109は、色変換部108により処理したCMYK画像データに対して、プリントエンジン104における階調特性を一定に保つための補正処理を実行する。画像形成部110は、ガンマ補正部109により処理したCMYK画像データを、プリンタに適したN(整数)ビットのハーフトーン画像データへ変換して、プリントエンジン104へ出力する。画像形成部110は、ハーフトーン処理として、濃度パターン法、組織的ディザ法、誤差拡散法などのさまざまな処理方法を用いて、ハーフトーン画像データへ変換してよい。なお、ここではプリントエンジン104は、CMYKトナーを用いたエンジンであるものとして説明する。ただし、プリントエンジン104は、CMYKインクを用いたエンジンであってもよい。 The color conversion unit 108 converts each RGB color value for each pixel value of the RGB image data processed by the show-through removal unit 107 into each CMYK color value to generate CMYK image data. The color conversion unit 108 performs an interpolation calculation using, for example, an LUT (Look Up Table) that associates RGB and CMYK, and converts each RGB color value for each pixel value into each CMYK color value. you can A gamma correction unit 109 performs correction processing on the CMYK image data processed by the color conversion unit 108 to keep the gradation characteristics of the print engine 104 constant. The image forming unit 110 converts the CMYK image data processed by the gamma correction unit 109 into N (integer)-bit halftone image data suitable for a printer, and outputs the halftone image data to the print engine 104 . The image forming unit 110 may convert to halftone image data using various processing methods such as a density pattern method, a systematic dither method, an error diffusion method, etc. as halftone processing. Note that the print engine 104 will be described here as an engine using CMYK toners. However, the print engine 104 may be an engine using CMYK inks.

図2は、図1の画像処理装置100による裏写り除去制御のフローチャートである。画像処理装置100のCPU112は、裏写り除去部107として、画像処理装置100で処理するスキャンによる画像データについて、図2の裏写り除去制御を実行してよい。CPU112は、ROM113に記憶されている制御プログラムを読み出してRAM111に展開して実行する。 FIG. 2 is a flow chart of the show-through removal control by the image processing apparatus 100 of FIG. The CPU 112 of the image processing apparatus 100 may act as the show-through removal unit 107 to perform the show-through removal control of FIG. The CPU 112 reads the control program stored in the ROM 113, develops it in the RAM 111, and executes it.

ステップS201において、CPU112は、画像データ取得部106から、スキャナ102で読み取った原稿のRGB画像データを取得する。 In step S<b>201 , the CPU 112 acquires RGB image data of the document read by the scanner 102 from the image data acquiring unit 106 .

ステップS202において、CPU112は、ステップ201で取得したRGB画像データから、一つの画素を注目画素として取得する。本実施形態では、RGB画像データの各画素位置は(x,y)の座標位置で表す。xは、画像の横方向での画素位置であり、画像の右側であるほど数値が大きくなる。yは、画像の縦方向での画素位置であり、画像の下側であるほど数値が大きくなる。CPU112は、RGB画像データの処理において、まずxを0から1ずつカウントアップしていき、xが最大値(画像の横方向の最大画素数)になったらxを0に戻すとともにyを0から1ずつカウントアップする、ようにしてよい。これを繰り返すことにより、CPU112は、RGB画像データのすべての画素を一つずつ順番に取得することができる。 In step S202, the CPU 112 acquires one pixel as a pixel of interest from the RGB image data acquired in step S201. In this embodiment, each pixel position of the RGB image data is represented by a (x, y) coordinate position. x is the pixel position in the horizontal direction of the image, and the value increases toward the right side of the image. y is the pixel position in the vertical direction of the image, and the lower the image, the larger the numerical value. In processing the RGB image data, the CPU 112 first counts up x by 1 from 0, and when x reaches the maximum value (the maximum number of pixels in the horizontal direction of the image), returns x to 0 and y from 0 to 0. You can count up by 1. By repeating this, the CPU 112 can sequentially acquire all the pixels of the RGB image data one by one.

ステップS203において、CPU112は、ステップS202で取得した注目画素の周囲の周辺画素を取得する。ここでは、CPU112は、たとえば注目画素を中心とした5×5画素(注目画素を含む25画素)を、RGB画像データから取得してよい。 In step S203, the CPU 112 acquires peripheral pixels around the target pixel acquired in step S202. Here, the CPU 112 may acquire, for example, 5×5 pixels (25 pixels including the pixel of interest) centered on the pixel of interest from the RGB image data.

図3は、注目画素と周辺画素とによる画素群の例の説明図である。図3は、RGB画像データから取得する5×5画素のイメージ図である。図3(A)は、RGB画像データによる画像401である。CPU112は、基本的に、図3(B)に示すように、画像データの画像401から、注目画素402とともに、注目画素402を中心とする周囲24個の周辺画素403を取得する。ただし、注目画素404が、たとえば図3(C)に示すように画像の端に位置するものである場合、CPU112は、注目画素404の周囲24個の周辺画素405のすべてを取得することができない。この場合、CPU112は、取得できない周辺画素のRGB値を0で補って扱ってよい。たとえば図3(C)のように注目画素404が画像データの画像401の左端である場合、注目画素404よりも左側には画素が存在しないので、CPU112は、存在しない2×5画素分の周辺画素405のRGB値を0として取得する。なお、ここでの説明では、ステップS202およびステップS203において取得する画素群の画素数を5×5の25画素としているが、CPU112は、これ以外の画素数を取得するようにしてもよい。CPU112は、画像データの総画素数やサイズなどに応じて、ステップS202およびステップS203において取得する画素数を変更するようにしてもよい。 FIG. 3 is an explanatory diagram of an example of a pixel group made up of a pixel of interest and peripheral pixels. FIG. 3 is an image diagram of 5×5 pixels obtained from RGB image data. FIG. 3A is an image 401 based on RGB image data. The CPU 112 basically acquires a pixel of interest 402 and 24 peripheral pixels 403 around the pixel of interest 402 from an image 401 of image data, as shown in FIG. 3B. However, if the pixel of interest 404 is positioned at the edge of the image, as shown in FIG. . In this case, the CPU 112 may supplement the RGB values of peripheral pixels that cannot be acquired with zeros. For example, when the pixel of interest 404 is at the left edge of the image 401 of the image data as shown in FIG. The RGB value of pixel 405 is taken as 0. In the description here, the number of pixels in the pixel group acquired in steps S202 and S203 is 5×5=25 pixels, but the CPU 112 may acquire other number of pixels. The CPU 112 may change the number of pixels acquired in steps S202 and S203 according to the total number of pixels and size of the image data.

ステップS204において、CPU112は、ステップS202およびS203で取得している注目画素とその周囲の画素による画素群に基づいて、注目画素の分散値を演算する。CPU112は、R,G,Bそれぞれについて、注目画素の分散値を演算する。CPU112は、下記数式1に示す数式群により、各色成分ごとに分散値を演算してよい。ここで、σr[n]は、画像データのn番目に処理する画素のR(赤色)の分散値である。xriは、5×5の画素群でのi番目のRの画素値である。μrは、5×5の画素群のRの平均値である。同様に、σg[n]は、画像データのn番目に処理する画素のG(緑色)の分散値である。xgiは、5×5の画素群でのi番目のGの画素値である。μgは、5×5の画素群のGの平均値である。σb[n]は、画像データのn番目に処理する画素のB(青色)の分散値である。xbiは、5×5の画素群でのi番目のBの画素値である。μbは、5×5の画素群のBの平均値である。Nは、5×5の画素群の総画素数(ここでは、25)である。Σは、総和の計算を表している。これにより、CPU112は、分散値生成手段として、スキャンによる画像データの画像において順番に選択する中心画素の値とその周辺画素の値とから、中心画素の分散値を生成することができる。 In step S204, the CPU 112 calculates the variance of the pixel of interest based on the pixel group of the pixel of interest and its surrounding pixels acquired in steps S202 and S203. The CPU 112 calculates the variance value of the pixel of interest for each of R, G, and B. FIG. The CPU 112 may calculate a variance value for each color component using a group of formulas shown in Formula 1 below. Here, σr[n] is the R (red) variance value of the n-th pixel to be processed in the image data. xri is the i-th R pixel value in the 5×5 pixel group. μr is the average value of R for a group of 5×5 pixels. Similarly, σg[n] is the G (green) variance value of the n-th pixel of the image data to be processed. xgi is the i-th G pixel value in the 5×5 pixel group. μg is the average value of G of a 5×5 pixel group. σb[n] is the B (blue) variance value of the n-th pixel of the image data to be processed. xbi is the i-th B pixel value in the 5×5 pixel group. μb is the average value of B for a group of 5×5 pixels. N is the total number of pixels in the 5×5 pixel group (here, 25). Σ represents the summation calculation. As a result, the CPU 112 can generate the variance value of the center pixel from the value of the center pixel and the values of the peripheral pixels sequentially selected in the image of the scanned image data.

Figure 2023034014000002
Figure 2023034014000002

ステップS205において、CPU112は、ステップS202で取得したRGB画像データのすべての画素について、ステップS202からステップS204までの処理を実行し終えたか否かを判断する。CPU112は、各画素に処理済みかどうかを表すフラグを付与して、全ての画素のフラグが処理済みとなっている場合に、全ての画素を処理したと判断してよい。または、CPU112は、画像データを取得する際に画像データの全画素数をカウントして保持しておき、ステップS202からステップS204までのループ処理回数がカウント値と一致することにより、全ての画素を処理したと判断してよい。全ての画素を処理していない場合、CPU112は、処理をステップS202へ戻す。全ての画素を処理し終えると、CPU112は、処理をステップS206へ進める。これにより、CPU112は、分散値生成手段として、スキャンによる画像データの画像と同じ画素配列であって、各画像についての分散値を有する分散値画像を生成することができる。CPU112は、分散値画像のデータを、外部記憶装置105に記録して保持してよい。 In step S205, the CPU 112 determines whether the processes from steps S202 to S204 have been executed for all pixels of the RGB image data acquired in step S202. The CPU 112 may assign a flag indicating whether or not processing has been completed to each pixel, and may determine that all pixels have been processed when the flags of all pixels indicate that processing has been completed. Alternatively, the CPU 112 counts and holds the total number of pixels of the image data when obtaining the image data, and when the number of times of loop processing from step S202 to step S204 matches the count value, all the pixels are counted. can be considered to have been processed. If all pixels have not been processed, CPU 112 returns the process to step S202. After processing all pixels, CPU 112 advances the process to step S206. As a result, the CPU 112 can generate a variance value image having the same pixel arrangement as that of the scanned image data and having variance values for each image. The CPU 112 may record and hold the variance value image data in the external storage device 105 .

ステップS206において、CPU112は、スキャンによる画像データの画像について、1または複数の画像領域を抽出する。CPU112は、分散値画像において、たとえば同じ分散値を持つ連続する画像領域を抽出する。CPU112は、分散値画像とスキャンによる画像データの画像との対応関係に基づいて、分散値画像において抽出した画像領域に対応する領域を、画像領域として抽出する。これにより、CPU112は、抽出手段として、スキャンによる画像データの画像から、該画像を複数に分けてなる画像領域を抽出することができる。CPU112は、スキャンによる画像データの画像と同じ画素配列で対応する分散値画像における分散値の分布に基づいて、分散値に連続性がある範囲を、1つの画像領域として抽出できる。画像領域を抽出制御の詳細については、後述する。 In step S206, CPU 112 extracts one or more image regions from the scanned image data. The CPU 112 extracts continuous image regions having, for example, the same variance value in the variance value image. The CPU 112 extracts an area corresponding to the image area extracted from the variance value image as an image area based on the correspondence relationship between the variance value image and the scanned image data. As a result, the CPU 112 can extract an image area obtained by dividing the image into a plurality of parts from the image of the scanned image data. The CPU 112 can extract a range in which the variance values are continuous as one image region based on the distribution of the variance values in the corresponding variance value image with the same pixel arrangement as the scanned image data. The details of image area extraction control will be described later.

ステップS207において、CPU112は、ステップS207において抽出した画像領域の中の一つを、選択する。 In step S207, the CPU 112 selects one of the image regions extracted in step S207.

ステップS208において、CPU112は、選択した画像領域の画素の最大値を抽出する。これにより、CPU112は、補正量取得手段として、画像領域ごとの裏写りを補正するための裏写り補正量として、画像領域ごとの画素の最大値を抽出できる。 In step S208, the CPU 112 extracts the maximum pixel value of the selected image area. As a result, the CPU 112 can extract the maximum pixel value for each image area as a show-through correction amount for correcting show-through for each image area.

ステップS209において、CPU112は、選択している画像領域の画素ごとに、裏写り補正値を演算する。ここで、CPU112は、裏写り補正量として抽出されている画素の最大値に所定の割合を乗算したものを用いて、抽出された画像領域に含まれる各画素の値を補正してよい。 In step S209, the CPU 112 calculates a show-through correction value for each pixel in the selected image area. Here, the CPU 112 may correct the value of each pixel included in the extracted image area using the maximum value of the pixels extracted as the show-through correction amount multiplied by a predetermined ratio.

ステップS210において、CPU112は、選択している画像領域の画素ごとの裏写り補正値を用いて、選択している画像領域の各画素の値を補正演算する。 In step S210, the CPU 112 uses the show-through correction value for each pixel in the selected image area to correct the value of each pixel in the selected image area.

ステップS211において、CPU112は、ステップS207において抽出した画像領域のすべてについて裏写り補正処理をし終えたか否かを判断する。すべての画像領域について処理を終えていない場合、CPU112は、処理をステップS207へ戻す。CPU112は、すべての画像領域についての処理を終えるまで、ステップS207からステップS211までの抽出された画像領域ごとの、裏写り補正処理を繰返しに実行する。これにより、CPU112は、補正手段として、抽出された画像領域ごとに、抽出された画像領域に含まれる各画素の値を、裏写り補正量として抽出されている画素の最大値を用いて補正できる。すべての画像領域についての処理を終えると、CPU112は、処理をステップS212へ進める。 In step S211, the CPU 112 determines whether or not the show-through correction processing has been completed for all of the image regions extracted in step S207. If the processing has not been completed for all image areas, the CPU 112 returns the processing to step S207. The CPU 112 repeatedly executes the show-through correction process for each extracted image area from step S207 to step S211 until the process for all image areas is completed. As a result, the CPU 112 can correct the value of each pixel included in each extracted image area using the maximum value of the extracted pixels as the show-through correction amount for each extracted image area. . After completing the processing for all image regions, CPU 112 advances the processing to step S212.

ステップS212において、CPU112は、裏写り補正をした画像データを、スキャンによる画像データとして出力する。裏写り補正をした画像データは、たとえば色変換部108、ガンマ補正部109、画像形成部110、により続いて処理されて、たとえばプリントエンジン104へ出力される。これにより、画像処理装置100は、原稿をスキャンする際の裏写りを抑制した画像データに基づく画像を、用紙などへ印刷することができる。 In step S212, the CPU 112 outputs the image data after the show-through correction as scanned image data. The image data that has undergone show-through correction is successively processed by, for example, the color conversion unit 108, the gamma correction unit 109, and the image forming unit 110, and is output to the print engine 104, for example. As a result, the image processing apparatus 100 can print an image on paper or the like based on image data in which show-through is suppressed when scanning a document.

図4は、分散値画像での画像領域ごとのラベリング制御のフローチャートである。画像処理装置100のCPU112は、抽出手段として図2のステップS206の画像領域抽出制御において、まず図4の画像領域ごとのラベリング制御を実行する。ステップS205までの処理により、CPU112は、スキャンによる画像データのすべての画素について、図3の画素群により分散値を演算し終えている。CPU112は、スキャンによる画像データと同じ画素数の分散値画像を生成している。 FIG. 4 is a flow chart of labeling control for each image area in a variance image. The CPU 112 of the image processing apparatus 100, as an extracting unit, first executes labeling control for each image area in FIG. 4 in image area extraction control in step S206 in FIG. By the processing up to step S205, the CPU 112 has finished calculating variance values for all pixels of the scanned image data using the pixel group in FIG. The CPU 112 generates a variance image having the same number of pixels as the scanned image data.

ステップS301において、CPU112は、外部記憶装置105に記憶されている分散値画像を、外部記憶装置105から読み出して取得する。 In step S<b>301 , the CPU 112 reads and acquires the variance image stored in the external storage device 105 from the external storage device 105 .

ステップS302において、CPU112は、ステップS301で取得した分散値画像を、所定の階調数に変換する。ここでの階調数の変換は、各画素についての0~255の値をとるとこができる8bitのデータ形式を変更することなく、各画素についての値(ここでは分散値)を代表値へ変更する処理をいう。また、所定の階調数を8階調とする場合、8つの代表値は、互いに離散的な値とすればよい。ここでは、8つの代表値、たとえば0、36、73、109、146、182、219、255とすればよい。この場合、CPU112は、各画素の値を、それら8つの代表値の中から選択した1つの値に変換する。このように階調数の値に離散化するように変換することで、分散値が連続している範囲に含まれる画素の値は、本来の値が異なる場合であっても分散値の近さに基づいて、同じ代表値へ変換され得る。CPU112は、変換手段として、分散値画像の各画像の分散値を、離散的な階調数へ変換する。 In step S302, the CPU 112 converts the variance value image acquired in step S301 into a predetermined number of gradations. The conversion of the number of gradations here changes the value of each pixel (distribution value here) to a representative value without changing the 8-bit data format that can take values from 0 to 255 for each pixel. It means the process to do. Moreover, when the predetermined number of gradations is 8 gradations, the eight representative values may be mutually discrete values. Here, eight representative values, such as 0, 36, 73, 109, 146, 182, 219, and 255, may be used. In this case, the CPU 112 converts the value of each pixel into one value selected from those eight representative values. In this way, the values of the pixels included in the range where the variance values are continuous are similar to the variance values, even if the original values are different. can be converted to the same representative value based on As conversion means, the CPU 112 converts the variance value of each image of the variance value image into discrete gradation numbers.

CPU112は、下記数式2の数式群により、各画素の分散値を、分散値の範囲ごとに代表値へ変換するとよい。ここで、mは、階調数である。階調数mは任意に設定することができる。階調数の変換をしない場合には、mを255に設定すればよい。round(X)は、Xの小数点以下第一位の桁を四捨五入する演算である。Dis[i]は、変換する階調数に合わせたi番目の代表値である。Spr[n]は、階調数変換後のn番目の画素のR(赤)の画素値(分散値)である。σr[n]は、画像データのn番目の画素のRの分散値を表す。同様に、Spg[n]は階調数変換後のn番目の画素のG(緑)の画素値(分散値)である。σg[n]は、画像データのn番目の画素のGの分散値である。Spb[n]は、階調数変換後のn番目の画素のB(青)の画素値(分散値)である。σb[n]は、画像データのn番目の画素のBの分散値である。この数式2の数式群は、0から255の値の範囲を均等に分ける複数の代表値へ変換するものである。CPU112は、均等ではない任意の離散関係にある複数の代表値へ変換するようにしてもよい。 The CPU 112 preferably converts the variance value of each pixel into a representative value for each range of variance values using the group of equations 2 below. Here, m is the number of gradations. The number m of gradations can be set arbitrarily. If the number of gradations is not converted, m should be set to 255. round(X) is an operation for rounding X to the first decimal place. Dis[i] is the i-th representative value corresponding to the number of gradations to be converted. Spr[n] is the R (red) pixel value (variance value) of the n-th pixel after tone number conversion. σr[n] represents the R variance value of the n-th pixel of the image data. Similarly, Spg[n] is the G (green) pixel value (variance value) of the n-th pixel after tone number conversion. σg[n] is the G variance value of the n-th pixel of the image data. Spb[n] is the B (blue) pixel value (dispersion value) of the n-th pixel after tone number conversion. σb[n] is the B variance value of the n-th pixel of the image data. This group of formulas 2 is for conversion into a plurality of representative values that equally divide the range of values from 0 to 255. The CPU 112 may convert to a plurality of representative values having arbitrary discrete relationships that are not equal.

Dis[i]=round(255/(m-1))×i (iは0<=i<=m-1の整数)
Spr[n]=Dis[i] (Dis[i]<=σr[n]<Dis[i+1]の場合)
Spr[n]=255 (σr[n]=255の場合)
Spg[n]=Dis[i] (Dis[i]<=σg[n]<Dis[i+1]の場合)
Spg[n]=255 (σg[n]=255の場合)
Spb[n]=Dis[i] (Dis[i]<=σb[n]<Dis[i+1]の場合)
Spb[n]=255 (σb[n]=255の場合) ・・・数式2
Dis[i]=round(255/(m-1))×i (i is an integer 0<=i<=m-1)
Spr[n]=Dis[i] (if Dis[i]<=σr[n]<Dis[i+1])
Spr[n]=255 (when σr[n]=255)
Spg[n]=Dis[i] (if Dis[i]<=σg[n]<Dis[i+1])
Spg[n]=255 (if σg[n]=255)
Spb[n]=Dis[i] (if Dis[i]<=σb[n]<Dis[i+1])
Spb[n]=255 (when σb[n]=255) ・・・Formula 2

ステップS303において、CPU112は、階調数変換をした分散値画像から、一つの注目画素とその周囲の周辺画素とを含む、たとえば3×3の画素群(9画素)を選択する。これにより、CPU112は、選択手段として、分散値画像における任意の画素を注目画素として選択するとともに注目画素の周辺の画素を選択する。なお、CPU112は、ステップS303からステップS305までの処理を、各画素の分散値によるR,G,Bそれぞれの色成分ごとに実行する。また、選択する画素群は3×3に限られるものではなく、この他にもたとえば5×5、7×7でもよい。ここで、CPU112は、分散値画像の左上の画素、すなわち(x,y)=(0,0)の画素を含む画素群を開始位置としてよい。また、CPU112は、開始位置からxを0からカウントアップしていき、xが最大値(画像の横方向の最大画素数)になったらxを0に戻しつつyを0からカウントアップするように、全画素を画素群ごとに順番に選択することができる。これにより、CPU112は、分散値画像のすべての画素を順番に選択することができる。 In step S303, the CPU 112 selects, for example, a 3×3 pixel group (9 pixels) including one pixel of interest and its surrounding pixels from the variance value image that has undergone tone number conversion. As a result, the CPU 112, as a selection unit, selects an arbitrary pixel in the variance value image as the pixel of interest and selects pixels surrounding the pixel of interest. Note that the CPU 112 executes the processing from step S303 to step S305 for each of the R, G, and B color components based on the variance value of each pixel. Also, the pixel group to be selected is not limited to 3.times.3, and may be 5.times.5 or 7.times.7, for example. Here, the CPU 112 may set the pixel group including the upper left pixel of the variance value image, that is, the pixel of (x, y)=(0, 0) as the starting position. Also, the CPU 112 counts up x from 0 from the starting position, and when x reaches the maximum value (maximum number of pixels in the horizontal direction of the image), returns x to 0 and counts up y from 0. , all pixels can be selected in turn by pixel groups. This allows the CPU 112 to sequentially select all pixels of the variance value image.

ステップS304において、CPU112は、ステップS303において階調数変換をした分散値画像から選択した画素群について、連続性を検出する。CPU112は、ステップS303において階調数変換をした分散値画像から選択した画素群において、同じ分散値が連続している場合に、連続性があると判定してよい。これにより、CPU112は、判定手段として、分散値画像における注目画素と周辺画素とを比較して、分散値画像における分散値の連続性を判定する。 In step S304, the CPU 112 detects continuity for the pixel group selected from the variance value image subjected to the tone number conversion in step S303. The CPU 112 may determine that there is continuity when the same variance values are continuous in the pixel group selected from the variance value image subjected to gradation number conversion in step S303. Thereby, the CPU 112, as a determination unit, compares the pixel of interest and the peripheral pixels in the variance value image to determine the continuity of the variance values in the variance value image.

ステップS305において、CPU112は、ステップS304の判定結果に応じたラベルを付与する。CPU112は、選択した画素群において連続性を有する複数の画素には、連続していることを示す同じラベルを付与する。選択した画素群において連続性を有してない複数の画素には、CPU112は、連続していないことを示す異なるラベルを付与する。これにより、たとえば隣接している複数の画素が連続性を有する場合、これら複数の画素には、同じ値のラベルが付されることになる。逆に、隣接している複数の画素が連続性を有していない場合、これら複数の画素には、異なる値のラベルが付されることになる。ラベルの値は、本制御の処理開始時の初期値を0として、連続していない画素が生じるたびに1,2,3・・・と1つずつ順番にインクリメントされた値とすればよい。これにより、CPU112は、ラベル手段として、分散値画像において判定手段により分散値の連続性があると判定された画素範囲に対して、1つの画像領域としてのラベルを付与する。 In step S305, the CPU 112 assigns a label according to the determination result of step S304. The CPU 112 assigns the same label indicating continuity to a plurality of pixels having continuity in the selected pixel group. Pixels that are not continuous in the selected group of pixels are given different labels by the CPU 112 to indicate that they are not continuous. Thus, for example, if adjacent pixels have continuity, these pixels will be labeled with the same value. Conversely, if adjacent pixels are discontinuous, they will be labeled with different values. The value of the label may be a value that is incremented by 1, ie, 1, 2, 3, . As a result, the CPU 112, as the labeling means, assigns a label as one image area to the pixel range in the variance value image determined by the determining means to have continuity in the variance values.

ステップS306において、CPU112は、階調数変換をした分散値画像のすべての画素について上述した処理を実行したか否かを判断する。CPU112は、たとえば階調数変換をした分散値画像の全画素数をカウントして保持しておき、ステップS303からステップS306までのループ処理回数がカウント値と一致することにより、全ての画素を処理したと判断してよい。階調数変換をした分散値画像のすべての画素について上述した処理を実行し終えていない場合、CPU112は、処理をステップS303へ戻す。階調数変換をした分散値画像のすべての画素について上述した処理を実行し終えると、CPU112は、処理をステップS307へ進める。 In step S306, the CPU 112 determines whether or not the above-described processing has been performed for all pixels of the variance value image that has undergone tone number conversion. For example, the CPU 112 counts and holds the total number of pixels of the variance value image subjected to the tone number conversion, and processes all the pixels when the number of times of loop processing from step S303 to step S306 matches the count value. It can be judged that If the above-described processing has not been completed for all the pixels of the variance value image that has undergone gradation number conversion, the CPU 112 returns the processing to step S303. After executing the above-described processing for all the pixels of the variance value image subjected to the tone number conversion, the CPU 112 advances the processing to step S307.

ステップS307において、CPU112は、階調数変換をした分散値画像のすべての画素について最後に付与しているラベル番号を、外部記憶装置105に記録して保持する。たとえばラベルが0から5までインクリメントされている場合、CPU112は、最終のラベル番号「5」を、外部記憶装置105に記録して保持する。 In step S307, the CPU 112 records and retains in the external storage device 105 the last label number assigned to all pixels of the variance value image subjected to the tone number conversion. For example, if the label is incremented from 0 to 5, CPU 112 records and holds the final label number “5” in external storage device 105 .

図5は、連続する分散値による画像領域の抽出処理とラベル付与との説明図である。図5(A)は、3×3の画素群である。図5(A)の画素群には、注目画素501と、その周辺の一週分の周辺画素502とが含まれる。図5(B)は、階調数変換をした分散値画像についての処理を開始した直後の初期状態での、3×3の画素群506での階調数変換をした分散値と、それに対して3×3の画素群508に付与されるラベル値と、を説明するものである。図5(B)の3×3の画素群506は、階調数変換をした分散値として36を有する画素と、73を有する画素と、を含んでいる。処理開始直後では、これに対応する3×3の画素群508には、各画素の分散値に応じて0と1とが付与される。図5(C)は、階調数変換をした分散値画像についての処理が進んだ後での、3×3の画素群509での階調数変換をした分散値と、それに対して付与される3×3の画素群511のラベル値と、を説明するものである。図5(C)の3×3の画素群509は、図5(B)と同様に、階調数変換をした分散値として36を有する画素と、73を有する画素と、を含んでいる。処理が進んだ後では、これに対応する3×3の画素群511には、各画素の分散値に応じて1と2とが付与される。 FIG. 5 is an explanatory diagram of image region extraction processing and labeling using continuous variance values. FIG. 5A shows a 3×3 pixel group. The pixel group in FIG. 5A includes a pixel of interest 501 and surrounding pixels 502 for one week. FIG. 5B shows the variance values subjected to the tone number conversion in the 3×3 pixel group 506 in the initial state immediately after starting the processing of the variance value image subjected to the tone number conversion, and and the label value given to the 3×3 pixel group 508 . A 3×3 pixel group 506 in FIG. 5B includes pixels having a variance value of 36 and pixels having a variance value of 73 after tone number conversion. Immediately after the start of processing, 0 and 1 are given to the corresponding 3×3 pixel group 508 according to the variance value of each pixel. FIG. 5C shows the variance values subjected to the gradation number conversion in the 3×3 pixel group 509 after the processing of the variance value image subjected to the gradation number conversion has progressed, and the values assigned thereto. and the label values of the 3×3 pixel group 511 . A 3×3 pixel group 509 in FIG. 5C includes pixels having a variance value of 36 and pixels having a variance value of 73 after tone number conversion, as in FIG. 5B. After the processing has progressed, the corresponding 3×3 pixel group 511 is given 1 and 2 according to the variance value of each pixel.

なお、ここでは、CPU112は、注目画素のみに対して、その周囲の周辺画素の分散値との異同に応じた値のラベルを付与している。これに対し、CPU112は、複数の画素に対して、その周囲の周辺画素の分散値との異同に応じた値のラベルを付与するようにしてもよい。この場合、CPU112は、ステップS303からステップS306のループ回数を減らすことができる。また、ここでは、CPU112は、分散値画像についての左上位置(x,y)=(0,0)の画素を開始位置として一画素ずつ注目画素をずらしながら連続性を検出している。この他にもたとえば、CPU112は、分散値画像についての左上ではない画素から処理を開始してもよい。また、CPU112は、既にラベルが付与されている画素について注目画素の選択から除外してもよい。このように階調数変換をした1つの分散値画像に代表値による分散値が複数で含まれている場合、最終のラベル番号は、少なくとも分散値画像に含まれる代表値の種類の数以上の値にインクリメントされ得る。たとえば、分散値画像の左上の領域がラベル0の値の領域となり、その右側の領域がラベル1の値の領域となり、さらにその右側の領域がラベル2の値の領域となり得る。分散値画像の上下方向においても同様に、ラベルの値がインクリメントされてよい。 Note that here, the CPU 112 assigns only the target pixel a label with a value corresponding to the difference with the variance values of the surrounding pixels. On the other hand, the CPU 112 may label a plurality of pixels with values corresponding to differences with the variance values of surrounding pixels. In this case, the CPU 112 can reduce the number of loops from step S303 to step S306. Also, here, the CPU 112 detects continuity while shifting the pixel of interest pixel by pixel starting from the pixel at the upper left position (x, y)=(0, 0) of the variance image. Alternatively, for example, CPU 112 may start processing from a pixel other than the upper left pixel of the variance image. Further, the CPU 112 may exclude pixels that have already been labeled from the selection of the pixel of interest. When one variance value image subjected to tone number conversion in this way contains a plurality of variance values based on representative values, the final label number must be at least equal to or greater than the number of types of representative values contained in the variance value image. value can be incremented. For example, the upper left region of the variance value image can be labeled 0 value region, the region to the right of it can be labeled 1 value region, and the region to the right of it can be labeled 2 value region. Label values may be similarly incremented in the vertical direction of the variance value image.

図6は、図2の画像領域抽出制御のフローチャートである。CPU112は、ステップS206においてまず、図4の分散値画像での画像領域ごとのラベリング制御を実行する。CPU112は、階調数変換をした分散値画像において、連続性がある複数の画素には、共通の値のラベルを付与し、連続性がない複数の画素には、異なる値のラベルを付与することができる。これにより、CPU112は、分散値画像において、画像データの画像における画像領域を認識するための情報を得ることができる。その後、CPU112は、ステップS206において、図6の画像領域抽出制御を実行する。これらの一連の処理により、CPU112は、階調数変換をした分散値画像での画像領域に基づいて、画像データから画像領域を抽出することができる。そして、CPU112は、たとえば図4のステップS207において画像データから抽出されている1つの画像領域を選択して、その後の裏写り補正処理を、選択した画像領域ごとに分けて繰返しに実行することが可能になる。 FIG. 6 is a flow chart of image area extraction control in FIG. In step S206, the CPU 112 first executes labeling control for each image area in the variance image of FIG. The CPU 112 assigns a label with a common value to a plurality of continuous pixels in the variance value image subjected to the tone number conversion, and assigns a label with a different value to a plurality of non-continuous pixels. be able to. Thereby, the CPU 112 can obtain information for recognizing the image area in the image of the image data in the variance image. After that, the CPU 112 executes the image area extraction control of FIG. 6 in step S206. Through this series of processing, the CPU 112 can extract an image region from the image data based on the image region in the variance value image that has undergone tone number conversion. Then, the CPU 112 can select one image area extracted from the image data in step S207 of FIG. 4, for example, and repeatedly execute the subsequent show-through correction processing for each selected image area. be possible.

ステップS801において、CPU112は、基準とするラベル番号を取得する。ここで取得するラベル番号は、図4の処理において階調数変換をした分散値画像について付与している複数のラベルの値の中の1つの番号でよい。まず、CPU112は、たとえば最初の基準にするラベル番号として、0を取得してよい。 In step S801, the CPU 112 acquires a reference label number. The label number acquired here may be one number among a plurality of label values given to the variance value image subjected to the tone number conversion in the processing of FIG. First, the CPU 112 may acquire 0 as the first reference label number, for example.

ステップS802において、CPU112は、図2のステップS202からステップS205で演算されて外部記憶装置105に保持された分散値画像を、外部記憶装置105から読み出して取得し、分散値画像の画素を一つ選択する。分散値画像の画素の選択において、図2のステップS202と同様に、各画素位置を分散値画像での(x,y)の座標位置で表現し、xが横軸で右方向をプラス方向、yが縦軸で下方向をプラス方向とする。分散値画像の画素を順番に選択する場合、CPU112は、まずxを0からカウントアップしていき、xが最大値(画像の横方向の最大画素数)になったら、xを0に戻しつつyを0からカウントアップする。これを繰返すことにより、CPU112は、分散値画像のすべての画素を一つずつ順番に選択することができる。 In step S802, the CPU 112 reads out from the external storage device 105 the variance value image calculated in steps S202 to S205 of FIG. select. In selecting the pixels of the variance value image, as in step S202 in FIG. 2, each pixel position is represented by the coordinate position of (x, y) in the variance value image. y is the vertical axis, and the downward direction is the positive direction. When the pixels of the variance value image are selected in order, the CPU 112 first counts up x from 0, and when x reaches the maximum value (the maximum number of pixels in the horizontal direction of the image), returns x to 0. Count up y from 0. By repeating this, the CPU 112 can sequentially select all the pixels of the variance value image one by one.

ステップS803において、CPU112は、ステップS802において分散値画像について選択した画素に付与されているラベル番号を取得する。 In step S803, the CPU 112 acquires the label number assigned to the pixel selected for the variance value image in step S802.

ステップS804において、CPU112は、ステップS801で取得している基準のラベル番号と、ステップS803で取得している選択画素のラベル番号とが等しく一致するか否かを判断する。これらのラベル番号が等しく一致する場合、CPU112は、処理をステップS805へ進める。これらのラベル番号が等しくない場合、CPU112は、ステップS805を飛ばして、処理をステップS806へ進める。 In step S804, the CPU 112 determines whether the reference label number acquired in step S801 and the label number of the selected pixel acquired in step S803 are identical. If these label numbers match equally, CPU 112 advances the process to step S805. If these label numbers are not equal, CPU 112 skips step S805 and advances the process to step S806.

ステップS805において、CPU112は、基準のラベル番号と等しいと判定された取得画素を、外部記憶装置105に保持する。CPU112は、たとえば元の画像データから該当する画素をコピーして、外部記憶装置105に保持してよい。この他にもたとえば、CPU112は、画像データにおける該当する画素の座標情報などのように、画像データの該当する画素を参照するための情報を、外部記憶装置105に保持してもよい。 In step S<b>805 , the CPU 112 stores in the external storage device 105 acquired pixels determined to have the same label number as the reference. CPU 112 may, for example, copy the corresponding pixels from the original image data and store them in external storage device 105 . In addition, for example, the CPU 112 may hold information for referring to the corresponding pixel of the image data, such as coordinate information of the corresponding pixel of the image data, in the external storage device 105 .

ステップS806において、CPU112は、分散値画像のすべての画素について上述した選択を終えたか否かを判断する。CPU112は、たとえば各画素に選択済みかどうかを表すフラグを付与して、全ての画素のフラグが選択済みとなっている場合に、分散値画像のすべての画素についての選択を終えたと判断してよい。また、CPU112は、全画素数を保持し、選択した回数が全画素数と一致する場合に、分散値画像のすべての画素についての選択を終えたと判断してよい。分散値画像のすべての画素についての選択を終えていない場合、CPU112は、処理をステップS802へ戻す。CPU112は、分散値画像のすべての画素についての選択を終えるまで、ステップS802からステップS806の処理を繰り返す。 In step S806, the CPU 112 determines whether or not the selection described above has been completed for all pixels of the variance image. For example, the CPU 112 assigns a flag indicating whether or not each pixel has been selected, and determines that all pixels of the variance image have been selected when the flags of all pixels indicate that they have been selected. good. Further, the CPU 112 may hold the total number of pixels, and when the number of times of selection matches the total number of pixels, it may be determined that the selection of all pixels of the variance value image has been completed. If the selection of all pixels of the variance value image has not been completed, the CPU 112 returns the process to step S802. The CPU 112 repeats the processing from step S802 to step S806 until all pixels of the variance image are selected.

そして、CPU112は、ステップS801で取得する基準のラベル番号を、1ずつカウントアップしながら、図6の画像領域抽出制御を繰り返す。また、CPU112は、ステップS801で取得する基準のラベル番号が図4のステップS307で記憶させた最終のラベル番号と一致している場合での図6の画像領域抽出制御を実行し終えると、CPU112は、図6の制御を終了する。 Then, the CPU 112 repeats the image area extraction control in FIG. 6 while incrementing the reference label number obtained in step S801 by one. 6 when the reference label number acquired in step S801 matches the final label number stored in step S307 of FIG. terminates the control of FIG.

これにより、その結果、外部記憶装置105には、分散値画像のすべての画素を、ラベル番号ごとに分類して整理する情報が、保持されることになる。画像データの複数の画素は、ラベル番号ごとに分類される。ラベル番号ごとの画像領域の情報が、外部記憶装置105において生成されて保持される。 As a result, the external storage device 105 retains information for classifying and organizing all the pixels of the variance value image for each label number. A plurality of pixels of image data are classified by label number. Image area information for each label number is generated and held in the external storage device 105 .

図7は、ラベルが付与される画像領域ごとの画素抽出の例の説明図である。図7(A)は、階調数変換をした分散値画像701である。図7(A)の分散値画像701のすべての画素には、1から3までのラベル番号が付与されている。CPU112は、基準のラベル番号を選択するとともに、図7(A)の分散値画像701のたとえば左上の画素から順番に選択して、図6の画像領域抽出制御を実行してよい。図7(B)は、図7(A)の分散値画像701から選択されたラベル番号が1の画素による画像領域702である。CPU112は、基準のラベル番号を1としてステップS801からステップS806の処理を全画素について繰り返すことにより、図7(B)のラベル番号が1の画素による画像領域702の情報を、外部記憶装置105において生成して保持できる。画像領域702は、ラベル番号が1が付与されている複数の画素により構成される。図7(C)は、図7(A)の分散値画像701から選択されたラベル番号が2の画素による画像領域703である。CPU112は、基準のラベル番号を2としてステップS801からステップS806の処理を全画素について繰り返すことにより、図7(C)のラベル番号が2の画素による画像領域703の情報を、外部記憶装置105において生成して保持できる。画像領域703は、ラベル番号が2が付与されている複数の画素により構成される。図7(D)は、図7(A)の分散値画像701から選択されたラベル番号が3の画素による画像領域704である。CPU112は、基準のラベル番号を3としてステップS801からステップS806の処理を全画素について繰り返すことにより、図7(D)のラベル番号が3の画素による画像領域704の情報を、外部記憶装置105において生成して保持できる。画像領域704は、ラベル番号が3が付与されている複数の画素により構成される。 FIG. 7 is an explanatory diagram of an example of pixel extraction for each labeled image region. FIG. 7A is a variance value image 701 that has undergone tone number conversion. Label numbers from 1 to 3 are assigned to all pixels of the variance value image 701 in FIG. The CPU 112 may select a reference label number, select pixels in order from, for example, the upper left pixel of the variance value image 701 in FIG. 7A, and execute the image region extraction control in FIG. FIG. 7B shows an image region 702 of pixels with label number 1 selected from the variance value image 701 of FIG. 7A. The CPU 112 sets the reference label number to 1 and repeats the processing from step S801 to step S806 for all pixels. can be generated and stored. An image area 702 is composed of a plurality of pixels labeled with a number of 1. FIG. FIG. 7C is an image area 703 of pixels with label number 2 selected from the variance value image 701 of FIG. 7A. The CPU 112 sets the reference label number to 2 and repeats the processing from step S801 to step S806 for all pixels. can be generated and stored. An image area 703 is composed of a plurality of pixels to which the label number 2 is assigned. FIG. 7(D) is an image area 704 of pixels with label number 3 selected from the variance value image 701 of FIG. 7(A). The CPU 112 sets the reference label number to 3 and repeats the processing from step S801 to step S806 for all pixels. can be generated and stored. An image area 704 is composed of a plurality of pixels labeled with the number 3. FIG.

図6の処理によって画像領域を生成した後、CPU112は、図2の裏写り除去制御のステップS207以降の処理を実行して、画像データの各画素の画素値に含まれる裏写り成分を、画像領域ごとに抑制するための制御を実行する。以下、上述した説明を踏まえて、画像領域ごとについて繰り返される、ステップS207からステップS210までの処理について、説明する。 After generating the image area by the processing in FIG. 6, the CPU 112 executes the processing after step S207 of the show-through removal control in FIG. Execute control for suppression for each region. Based on the above description, the processing from step S207 to step S210, which is repeated for each image area, will be described below.

ステップS207において、CPU112は、画像データについて抽出されている1乃至複数の画像領域から、1つの画像領域を選択する。 In step S207, the CPU 112 selects one image area from one or more image areas extracted from the image data.

ステップS208において、CPU112は、ステップS207で選択した画像領域の画素の中で、最大の画素値を抽出する。CPU112は、たとえば、画像データについての選択した画像領域に含まれている複数の画素の中から、1つの画素の画素値を選択し、同じ画像領域に含まれている他の画素の画素値と比較する。そして、CPU112は、それら2つの画素値の中の大きい方を選択し、さらに他の画素の画素値と比較する。CPU112は、画像データについての選択した画像領域に含まれている複数のすべての画素について、画素の比較を繰り返す。画像領域に含まれている複数のすべての画素の画素値の比較が完了すると、CPU112は、画像領域において最大となる画素値を選択して抽出していることになる。なお、CPU112は、他の方法により、画像領域において最大となる画素値を抽出してもよい。 In step S208, the CPU 112 extracts the maximum pixel value among the pixels in the image area selected in step S207. For example, the CPU 112 selects the pixel value of one pixel from among a plurality of pixels included in the selected image area of the image data, and compares the pixel values of other pixels included in the same image area. compare. The CPU 112 then selects the larger one of these two pixel values and compares it with the pixel values of other pixels. CPU 112 repeats the pixel comparison for all of the plurality of pixels contained in the selected image region of the image data. When the comparison of the pixel values of all the pixels included in the image area is completed, the CPU 112 selects and extracts the maximum pixel value in the image area. Note that the CPU 112 may extract the maximum pixel value in the image area by another method.

ステップS209において、CPU112は、画像データについて選択している画像領域の画素ごとの裏写り補正値を演算する。本実施形態では、CPU112は、ステップS208で抽出した領域内の最大画素値と、処理している注目画素の画素値との差の大きさ(絶対値)を、裏写り補正値として演算する。 In step S209, the CPU 112 calculates a show-through correction value for each pixel in the image area selected for the image data. In this embodiment, the CPU 112 calculates the magnitude (absolute value) of the difference between the maximum pixel value in the region extracted in step S208 and the pixel value of the target pixel being processed as the show-through correction value.

CPU112は、下記数式3の数式群により、裏写り補正値を演算してよい。ここで、nは、画像領域におけるn番目の画素を表す。abs(X)は、Xの絶対値演算を意味する。Dr[n]は、n番目の画素についてのR(赤)の裏写り補正値である。Zr[n]は、n番目の画素のR(赤)の画素値である。MAXr[n]は、ステップS208で抽出した領域内のRの最大画素値である。Zg[n]は、n番目の画素のG(緑)の画素値である。MAXg[n]は、ステップS208で抽出した領域内のGの最大画素値である。Zb[n]は、n番目の画素のB(青)の画素値である。MAXb[n]は、ステップS208で抽出した領域内のBの最大画素値である。 The CPU 112 may calculate the show-through correction value by using the following formula 3. where n represents the nth pixel in the image area. abs(X) means the absolute value operation of X. Dr[n] is the R (red) show-through correction value for the n-th pixel. Zr[n] is the R (red) pixel value of the n-th pixel. MAXr[n] is the maximum pixel value of R in the region extracted in step S208. Zg[n] is the G (green) pixel value of the n-th pixel. MAXg[n] is the maximum pixel value of G in the region extracted in step S208. Zb[n] is the B (blue) pixel value of the n-th pixel. MAXb[n] is the maximum pixel value of B in the region extracted in step S208.

Dr[n]=abs(Zr[n]-MAXr[n])
Dg[n]=abs(Zg[n]-MAXg[n])
Db[n]=abs(Zb[n]-MAXb[n]) ・・・数式3
Dr[n]=abs(Zr[n]-MAXr[n])
Dg[n]=abs(Zg[n]-MAXg[n])
Db[n]=abs(Zb[n]-MAXb[n]) ・・・Formula 3

ステップS210において、CPU112は、ステップS209で演算した裏写り補正値を用いて、画像領域の各画素の画素値を補正する。CPU112は、下記数式4の数式群により、裏写り補正値を演算してよい。ここで、Mは、ステップS209で演算したDr,Dg,Dbの中で最も小さい値である。Min(X1,X2,X3)は、X1からX3の中の最小値を選択する関数を意味する。Epは、裏写り除去パラメータである。裏写り除去パラメータは、裏写り箇所の各画素の補正割合を制御するための値であり、対象画素のR、G、Bそれぞれの値に対する補正割合を示す。たとえば、裏写り除去強度が弱に設定されている場合、補正量の20%を、対象画素のRGB値に加算する。この場合の裏写り除去パラメータは、0.2になる。裏写り除去パラメータにより、たとえばそもそも裏写りが発生しづらい濃い色の画素などは、裏写り補正量を小さくするなどの調整をすることが可能になる。Xmr[n]は、n番目の画素についての補正後のR(赤)の画素値である。Xmg[n]は、n番目の画素についての補正後のG(緑)の画素値である。Xmb[n]は、n番目の画素についての補正後のB(青)の画素値である。 In step S210, the CPU 112 corrects the pixel value of each pixel in the image area using the show-through correction value calculated in step S209. The CPU 112 may calculate the show-through correction value using the following formula 4. Here, M is the smallest value among Dr, Dg, and Db calculated in step S209. Min(X1, X2, X3) means a function that selects the minimum value among X1 to X3. Ep is a show-through removal parameter. The show-through removal parameter is a value for controlling the correction rate of each pixel at the show-through location, and indicates the correction rate for each of the R, G, and B values of the target pixel. For example, when the show-through removal strength is set to weak, 20% of the correction amount is added to the RGB values of the target pixel. The show-through removal parameter in this case is 0.2. By using the show-through removal parameter, it is possible to make adjustments such as reducing the show-through correction amount for dark color pixels in which show-through is unlikely to occur in the first place. Xmr[n] is the corrected R (red) pixel value for the n-th pixel. Xmg[n] is the corrected G (green) pixel value for the n-th pixel. Xmb[n] is the corrected B (blue) pixel value for the n-th pixel.

M=Min(Dr[n],Dg[n],Db[n])
Xmr[n] = Zr[n] + (M × Ep)
Xmg[n] = Zg[n] + (M × Ep)
Xmb[n] = Zb[n] + (M × Ep) …数式4
M=Min(Dr[n], Dg[n], Db[n])
Xmr[n] = Zr[n] + (M x Ep)
Xmg[n] = Zg[n] + (M x Ep)
Xmb[n]=Zb[n]+(M×Ep) Equation 4

CPU112は、このような裏写り補正処理を、スキャンによる画像データの画像についての画像領域ごとに繰り返す。これにより、CPU112は、スキャンによる画像データの画像に含まれる裏写り画像成分を、画像データの画像の全体で一律にではなく、画像データの画像領域ごとに良好に除去することができる。 The CPU 112 repeats such show-through correction processing for each image area of the scanned image data. As a result, the CPU 112 can satisfactorily remove the show-through image component included in the image of the scanned image data for each image area of the image data rather than uniformly from the entire image of the image data.

以上のように、本実施形態では、スキャンによる画像データの画像について、該画像を複数に分けてなる画像領域を抽出して、抽出された画像領域ごとに分けて、スキャンによる画像データの画像についての裏写り補正処理を実行する。本実施形態では、画像データの画像を、その全体に対して1つの裏写り補正処理を実行するのではなく、画像領域ごとに分けて裏写り補正処理を実行することができる。その結果、本実施形態では、たとえば複数の色で色分けされているような原稿をスキャンした画像データの画像において、裏写り補正量の演算において、補正に係る裏写りと関係がない部分が参照されてしまうことを抑制できる。本実施形態では、複数の色で色分けされているような原稿をスキャンした画像データの画像において、画像領域ごとの色の再現性を確保しつつ裏写り成分を抑制できるように裏写り補正処理を実行することができる。 As described above, in the present embodiment, an image of image data obtained by scanning is extracted into a plurality of image regions obtained by dividing the image, and the image of image data obtained by scanning is divided into each of the extracted image regions. perform the show-through correction process. In this embodiment, the show-through correction process can be performed on each image area of the image of the image data instead of performing one show-through correction process on the entire image. As a result, in the present embodiment, for example, in an image of image data obtained by scanning a document that is color-coded with a plurality of colors, in calculating the show-through correction amount, a portion that is not related to show-through related to correction is referred to. It is possible to suppress In this embodiment, in an image of image data obtained by scanning a document that is color-coded with a plurality of colors, show-through correction processing is performed so as to suppress show-through components while ensuring color reproducibility for each image area. can be executed.

たとえば図3(A)のRGB画像データによる画像401には、画像中に、裏写りによる矩形の画像成分406と、裏写りによる文字の画像成分407、とが含まれている。そして、この裏写りによる矩形の画像成分406、または裏写りによる文字の画像成分407は、画像データの画像に含まれている濃色による矩形の画像成分408と、近い濃度および近い色となっている。この場合、裏写りによる矩形の画像成分406の画像領域、または裏写りによる文字の画像成分407の画像領域は、矩形の画像成分408の画像領域と同じような値になる。このため、画像の全体に対して一律に裏写り補正処理をかけた場合、裏写りがある画像成分406の画像領域や、裏写りがある画像成分407の画像領域だけでなく、画像データの本来の画像成分408についても、裏写り補正処理により画質が変化してしまう。これに対して、本実施形態では、これらの画像成分406~408を個別の画像領域として抽出して、画像領域ごとに裏写り補正処理を実行している。本実施形態では、画像成分406の画像領域についての裏写り補正処理や、画像成分407の画像領域についての裏写り補正処理が、画像成分408の画像領域についての裏写り補正処理に影響しない。本実施形態では、裏写りがある画像成分406の画像領域と画像成分407の画像領域とについては良好に裏写りを補正しつつ、裏写りがない画像成分408の画像領域についてはその画質を変化させないように裏写り補正を抑えることができる。 For example, an image 401 of RGB image data in FIG. 3A includes a rectangular image component 406 due to show-through and a character image component 407 due to show-through. The rectangular image component 406 due to the show-through or the character image component 407 due to the show-through has a density and color close to the dark-colored rectangular image component 408 included in the image of the image data. there is In this case, the image area of the rectangular image component 406 due to show-through or the image area of the character image component 407 due to show-through has the same value as the image area of the rectangular image component 408 . Therefore, when the show-through correction process is uniformly applied to the entire image, not only the image area of the image component 406 with show-through and the image area of the image component 407 with show-through, but also the original image data The image quality of the image component 408 also changes due to the show-through correction processing. On the other hand, in the present embodiment, these image components 406 to 408 are extracted as individual image areas, and show-through correction processing is executed for each image area. In this embodiment, the show-through correction process for the image area of the image component 406 and the show-through correction process for the image area of the image component 407 do not affect the show-through correction process for the image area of the image component 408 . In this embodiment, the image area of the image component 406 with show-through and the image area of the image component 407 are satisfactorily corrected for show-through, and the image quality of the image area of the image component 408 without show-through is changed. You can suppress the show-through correction so as not to cause it.

[第二実施形態]
次に、本発明の第二実施形態に係る画像処理装置100を説明する。以下の説明では、主に上述した実施形態との相違点について説明する。
[Second embodiment]
Next, an image processing apparatus 100 according to a second embodiment of the invention will be described. In the following description, differences from the above-described embodiment will be mainly described.

図8は、本発明の第二実施形態に係る画像処理装置100での、裏写り除去制御のフローチャートである。画像処理装置100のCPU112は、裏写り除去部107として、画像処理装置100で処理するスキャンによる画像データについて、図8の裏写り除去制御を実行してよい。ステップS601からステップS605、およびステップS609からステップS614の処理は、図2のステップS201からステップS205、およびステップS207からステップS212の処理と、同じである。CPU112は、ステップS605において全ての画素の処理をし終えたと判断すると、処理をステップS606へ進める。 FIG. 8 is a flowchart of show-through removal control in the image processing apparatus 100 according to the second embodiment of the invention. The CPU 112 of the image processing apparatus 100 may act as the show-through removal unit 107 to perform the show-through removal control of FIG. The processing from step S601 to step S605 and from step S609 to step S614 are the same as the processing from step S201 to step S205 and from step S207 to step S212 in FIG. When CPU 112 determines that all pixels have been processed in step S605, the process proceeds to step S606.

ステップS606において、CPU112は、縮小手段として、スキャンによる画像データの画像に基づいて生成されて画素ごとの分散値を有する分散値画像を縮小する。CPU112は、分散値画像の画素をサンプリングすることにより間引いて、分散値画像の画素数を減らして縮小してよい。CPU112は、予め設定された縮小率の値、たとえば80%や50%といった縮小率の値に基づいて、線形補間法を用いて分散値画像を縮小してよい。CPU112は、縮小率として、予め設定した値を用いるのではなく、画像データの色分布や分散値分布などに基づいて画像データごとに自動的に生成した値を用いてもよい。 In step S606, the CPU 112, as reduction means, reduces a variance value image having a variance value for each pixel generated based on the scanned image data image. The CPU 112 may thin out the pixels of the variance value image by sampling them to reduce the number of pixels in the variance value image. The CPU 112 may reduce the variance value image using a linear interpolation method based on a preset reduction ratio value, such as 80% or 50%. Instead of using a preset value as the reduction ratio, the CPU 112 may use a value automatically generated for each image data based on the color distribution or variance value distribution of the image data.

ステップS607において、CPU112は、ステップS606にて縮小されている分散値画像について、1または複数の画像領域を抽出する。CPU112は、上述した実施形態と同様の抽出制御により、縮小されている分散値画像において、たとえば分散値に連続性がある範囲の複数の画素を、同じ分散値を持つ連続した画像領域として抽出してよい。CPU112は、分散値画像の各画像について得られている分散値を、離散的な階調数へ変換し、分散値画像の任意の画素を注目画素として選択し、注目画素と周辺画素とを比較することにより、分散値の連続性を判定してよい。そして、分散値の連続性があると判定された画素範囲に対して、CPU112は、1つの画像領域としてのラベルを付与してよい。CPU112は、処理対象の分散値画像が縮小されて、処理対象の画素数が削減されているため、縮小前の分散値画像を処理対象とする場合に比べて短時間で処理を終えることができる。 In step S607, the CPU 112 extracts one or more image regions from the variance image reduced in step S606. The CPU 112 extracts, for example, a plurality of pixels in a range in which the variance values are continuous in the reduced variance value image, as continuous image regions having the same variance value, by the same extraction control as in the above-described embodiment. you can The CPU 112 converts the variance value obtained for each image of the variance value image into discrete gradation numbers, selects an arbitrary pixel of the variance value image as the pixel of interest, and compares the pixel of interest with the surrounding pixels. By doing so, the continuity of the variance values may be determined. Then, the CPU 112 may assign a label as one image area to the pixel range determined to have continuity in variance values. Since the variance value image to be processed is reduced and the number of pixels to be processed is reduced, the CPU 112 can complete the process in a shorter time than when processing the variance value image before reduction. .

ステップS608において、CPU112は、ステップS607において画像領域を抽出した分散値画像を、スキャンによる画像データの画像と同サイズとなるように拡大する。CPU112は、たとえば拡大のために値がない画素の値を、周辺の値がある複数の画素の値を用いた線形補間処理により、生成してよい。CPU112は、ラベルの値を補間してよい。その後、CPU112は、処理をステップS609へ進めて、拡大した分散値画像の画素ごとのラベルの値を用いて、画像データの画像において同じ値のラベルが対応している複数の画素を、画像領域として選択する。また、CPU112は、選択した画像領域での最大の画素値と各画素の画素値との差の大きさに応じて、選択した画像領域の各画素の画素値を補正する。これにより、CPU112は、画像領域ごとに、裏写り除去処理を実行することができる。 In step S608, the CPU 112 enlarges the variance value image from which the image area is extracted in step S607 so as to have the same size as the scanned image data. The CPU 112 may generate, for example, the value of a pixel with no value for enlargement by linear interpolation processing using the values of a plurality of surrounding pixels with values. CPU 112 may interpolate the label values. After that, the CPU 112 advances the process to step S609, and uses the label value for each pixel of the enlarged variance value image to extract a plurality of pixels corresponding to the label of the same value in the image of the image data from the image area. Select as Also, the CPU 112 corrects the pixel value of each pixel in the selected image area according to the magnitude of the difference between the maximum pixel value in the selected image area and the pixel value of each pixel. Thereby, the CPU 112 can execute the show-through removal process for each image area.

以上のように、本実施形態では、スキャンによる画像データのサイズのままの分散値画像ではなく、それを縮小した分散値画像において離散的な階調数への変換、分散値の連続性の判定、画素ごとのラベル付与、といった処理を実行している。CPU112は、これらの処理を短い時間で完了し得る。処理負荷が軽減できることにより、本実施形態の裏写り補正処理は、様々な実行環境において利用することが可能である。 As described above, in the present embodiment, the variance value image obtained by reducing the size of the scanned image data is not converted into a discrete gradation number, and the continuity of the variance value is determined. , labeling for each pixel, and so on. CPU 112 can complete these processes in a short time. Since the processing load can be reduced, the show-through correction processing of this embodiment can be used in various execution environments.

以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。 Although the present invention has been described in detail based on its preferred embodiments, the present invention is not limited to these specific embodiments, and various forms without departing from the gist of the present invention can be applied to the present invention. included.

本発明は、上述の実施の形態の1以上の機能を実現するプログラムを、ネットワークや記憶媒体を介してシステムや装置に供給し、そのシステム又は装置のコンピュータの1つ以上のプロセッサーがプログラムを読み出して実行する処理でも実現可能である。また、本発明は、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors of the computer of the system or device reads the program. It is also possible to implement the process executed by The invention can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.

100 画像処理装置
102 スキャナ
104 プリントエンジン
105 外部記憶装置
107 裏写り除去部
112 CPU
113 ROM
100 image processing device 102 scanner 104 print engine 105 external storage device 107 show-through removal unit 112 CPU
113 ROMs

Claims (9)

スキャンによって得られる画像データを取得して出力する画像処理装置であって、
スキャンによって得られる画像データの画像から、該画像を複数に分けてなる画像領域を抽出する抽出手段と、
前記抽出手段によって抽出された画像領域ごとに分けて、スキャンによる画像データの画像についての裏写り補正処理を実行する補正手段と、
前記補正手段によって裏写り補正された画像データを出力する出力手段とを有することを特徴とする画像処理装置。
An image processing device that acquires and outputs image data obtained by scanning,
extracting means for extracting an image area obtained by dividing the image into a plurality from an image of image data obtained by scanning;
correcting means for performing show-through correction processing on an image of image data obtained by scanning by dividing the image area extracted by the extracting means;
and output means for outputting image data corrected for show-through by the correction means.
スキャンによって得られる画像データの画像から選択する中心画素の値とその周辺画素の値とから、前記中心画素の分散値を生成する分散値生成手段、を有し、
前記抽出手段は、スキャンによって得られる画像データの画像に対応する分散値画像における分散値の分布に基づいて、分散値に連続性がある範囲を、1つの前記画像領域として抽出することを特徴とする請求項1記載の画像処理装置。
a variance value generation means for generating a variance value of the center pixel from the value of the center pixel selected from the image of the image data obtained by scanning and the values of the surrounding pixels;
The extraction means is characterized in that, based on a distribution of variance values in a variance value image corresponding to an image of image data obtained by scanning, a range in which variance values are continuous is extracted as one image region. 2. The image processing apparatus according to claim 1.
前記分散値生成手段は、スキャンによる画像データの画像と同じ画素配列であって、各画像についての分散値を有する分散値画像を生成し、
前記抽出手段は、
前記分散値画像の各画像について得られている分散値を、離散的な階調数へ変換する変換手段と、
前記分散値画像における任意の画素を注目画素として選択するとともに前記注目画素の周辺の画素を選択する選択手段と、
前記分散値画像における前記注目画素と前記周辺画素とを比較して、前記分散値画像における分散値の連続性を判定する判定手段と、
前記分散値画像において前記判定手段により分散値の連続性があると判定された画素範囲に対して、1つの前記画像領域としてのラベルを付与するラベル手段とを有することを特徴とする請求項2記載の、画像処理装置。
The variance value generating means generates a variance value image having the same pixel arrangement as that of the scanned image data and having variance values for each image,
The extraction means is
conversion means for converting the variance value obtained for each image of the variance value image into a discrete number of gradations;
selection means for selecting an arbitrary pixel in the variance value image as a pixel of interest and selecting pixels surrounding the pixel of interest;
determining means for determining continuity of variance values in the variance value image by comparing the pixel of interest and the peripheral pixels in the variance value image;
3. Labeling means for assigning a label as one image region to a range of pixels in said variance value image determined by said determination means to have continuity of variance values. image processing apparatus as described.
前記分散値画像の画素数を減らすように縮小する縮小手段、を有し、
前記抽出手段の前記変換手段、前記選択手段、および前記判定手段は、縮小された前記分散値画像について各々の処理を実行し、
前記ラベル手段は、縮小前の前記分散値画像において、縮小された前記分散値画像について前記判定手段により判定された分散値の連続性を有する範囲に対応する画素範囲に対して、1つの前記画像領域としてのラベルを付与することを特徴とする請求項3記載の画像処理装置。
reducing means for reducing the number of pixels of the variance value image,
the converting means, the selecting means, and the determining means of the extracting means perform respective processes on the reduced variance value image;
The label means assigns one image to a pixel range corresponding to a range having continuity of variance values determined by the determining means for the reduced variance value image in the variance value image before reduction. 4. The image processing apparatus according to claim 3, wherein a label is given as an area.
抽出された画像領域ごとに、該画像領域の裏写りを補正するための裏写り補正量を取得する補正量取得手段、を有し、
前記補正手段は、抽出された画像領域ごとに、抽出された画像領域に含まれる各画素の値を、前記裏写り補正量を用いて補正することを特徴とする請求項1から4のいずれか一項記載の画像処理装置。
correction amount acquisition means for acquiring a show-through correction amount for correcting show-through in each extracted image area;
5. The correction unit according to claim 1, wherein, for each extracted image area, the correction means corrects the value of each pixel included in the extracted image area using the show-through correction amount. 1. The image processing apparatus according to item 1.
前記補正量取得手段は、画像領域ごとの裏写りを補正するための裏写り補正量として、画像領域ごとの画素の最大値を抽出し、
前記補正手段は、抽出された画像領域に含まれる各画素の値を、前記裏写り補正量として抽出されている前記画素の最大値を用いて補正することを特徴とする請求項5記載の画像処理装置。
The correction amount acquisition means extracts a maximum value of pixels in each image area as a show-through correction amount for correcting show-through in each image area,
6. An image according to claim 5, wherein said correcting means corrects the value of each pixel included in the extracted image area using the maximum value of said pixels extracted as said show-through correction amount. processing equipment.
前記補正手段は、裏写り補正量として抽出されている前記画素の最大値に所定の割合を乗算したものを用いて、抽出された画像領域に含まれる各画素の値を補正することを特徴とする請求項6記載の画像処理装置。 The correcting means corrects the value of each pixel included in the extracted image area using the maximum value of the pixels extracted as the show-through correction amount multiplied by a predetermined ratio. 7. The image processing apparatus according to claim 6. スキャンによって得られる画像データを取得して出力する画像処理装置の制御方法であって、
スキャンによって得られる画像データの画像から、該画像を複数に分けてなる画像領域を抽出する処理と、
抽出された画像領域ごとに分けて、スキャンによって得られる画像データの画像についての裏写り補正処理を実行する処理と、
裏写り補正された画像データを出力する処理とを有することを特徴とする画像処理装置の制御方法。
A control method for an image processing device that acquires and outputs image data obtained by scanning,
A process of extracting an image area obtained by dividing the image into a plurality of parts from an image of image data obtained by scanning;
a process of dividing each extracted image area and executing a show-through correction process on the image of the image data obtained by scanning;
A control method for an image processing apparatus, comprising a process of outputting image data for which show-through has been corrected.
スキャンによって得られる画像データを取得して出力する画像処理装置の制御方法をコンピュータに実行させるプログラムであって、
前記画像処理装置の制御方法は、
スキャンによって得られる画像データの画像から、該画像を複数に分けてなる画像領域を抽出する処理と、
抽出された画像領域ごとに分けて、スキャンによって得られる画像データの画像についての裏写り補正処理を実行する処理と、
裏写り補正された画像データを出力する処理とを有することを特徴とするプログラム。

A program for causing a computer to execute a control method for an image processing device that acquires and outputs image data obtained by scanning,
The method for controlling the image processing device includes:
A process of extracting an image area obtained by dividing the image into a plurality of parts from an image of image data obtained by scanning;
a process of dividing each extracted image area and executing a show-through correction process on the image of the image data obtained by scanning;
and outputting image data for which show-through has been corrected.

JP2021140062A 2021-08-30 2021-08-30 Image processing device, control method of the same, and program Pending JP2023034014A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021140062A JP2023034014A (en) 2021-08-30 2021-08-30 Image processing device, control method of the same, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021140062A JP2023034014A (en) 2021-08-30 2021-08-30 Image processing device, control method of the same, and program

Publications (1)

Publication Number Publication Date
JP2023034014A true JP2023034014A (en) 2023-03-13

Family

ID=85504458

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021140062A Pending JP2023034014A (en) 2021-08-30 2021-08-30 Image processing device, control method of the same, and program

Country Status (1)

Country Link
JP (1) JP2023034014A (en)

Similar Documents

Publication Publication Date Title
JP2004005694A (en) Image processing method, digital image processor, digital camera, digital photograph finishing system, and program
JP4018755B2 (en) Method and apparatus for creating tone curve for color signal conversion
JP6808325B2 (en) Image processing equipment, image processing methods and programs
JP3671616B2 (en) Image processing device
JP2012249133A (en) Image processing device, and method of generating color conversion table
JP6089491B2 (en) Image processing apparatus, image processing system, image processing method, program, and storage medium
JP4525541B2 (en) Image processing device
EP1465107A2 (en) Method and circuit for scaling raster images
CN111917934B (en) Image processing method, image processing apparatus, image forming apparatus, and storage medium
CN110971782B (en) Image processing apparatus, control method thereof, and computer-readable storage medium
JP4387907B2 (en) Image processing method and apparatus
JP2023034014A (en) Image processing device, control method of the same, and program
JP4501822B2 (en) Image processing device
JPH10283470A (en) Image processor, image processing method and recording medium
EP0537887A1 (en) Improvements relating to image screening
JP4083823B2 (en) Image processing device
JP4345027B2 (en) Image processing program and image processing apparatus
JP2020088709A (en) Image processing apparatus, image processing method and program
JP3783815B2 (en) Image processing device
JP5181722B2 (en) Image processing method, image processing apparatus, and image processing program
JP2011130087A (en) Image processing apparatus and image processing method
JP2001320593A (en) Image processing unit, and image forming device provided with it, and image processing method
JPH07162684A (en) Picture forming device
JP4315704B2 (en) Plate inspection apparatus, printing system, print data plate inspection method, and program
JP2023103126A (en) Image processing device, image processing method and program