JP2008067101A - Image processor, image processing method, and program for performing the method - Google Patents

Image processor, image processing method, and program for performing the method Download PDF

Info

Publication number
JP2008067101A
JP2008067101A JP2006243329A JP2006243329A JP2008067101A JP 2008067101 A JP2008067101 A JP 2008067101A JP 2006243329 A JP2006243329 A JP 2006243329A JP 2006243329 A JP2006243329 A JP 2006243329A JP 2008067101 A JP2008067101 A JP 2008067101A
Authority
JP
Japan
Prior art keywords
value
standard deviation
color
image
average value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006243329A
Other languages
Japanese (ja)
Inventor
Kiminori Matsuzaki
公紀 松▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2006243329A priority Critical patent/JP2008067101A/en
Publication of JP2008067101A publication Critical patent/JP2008067101A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor for reducing nonuniformity to be caused by a specified channel without sacrificing color reproducibility, and correcting the nonuniformity in response to a specified image and an individual device, and to provide an image processing method, and a program for performing the method. <P>SOLUTION: The image processor includes: a correction table generating means for generating a correction table to correct a luminance value; and a reading means for reading sheets with a black and white image printed thereon by color, so as to obtain the images by color. The image processor also includes: an average value acquiring means for acquiring an average value by color, based on the luminance value in each image obtained by the reading means; and a standard deviation acquiring means for acquiring a standard deviation value by color, based on the luminance value in each image obtained by the reading means. The correction table is generated, so as to allow the luminance values in the circumference of the average value of a certain color, which is acquired by the average value acquiring means, to be converged after correction. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、スキャナを用いて色変換処理を実行する画像処理装置、画像処理方法ならびに画像処理方法を実行するプログラムに関する。   The present invention relates to an image processing apparatus that executes color conversion processing using a scanner, an image processing method, and a program that executes the image processing method.

カラーMFP(マルチファンクションプリンタ)に代表されるスキャナ搭載デバイスにおいて、原稿を読み込んだ際に特定の周期でムラが発生することがある。特に原稿の写真部において読み取りのムラが発生すると、原稿そのものが持つ網点の周期やプリンタ部で用いられるスクリーンの周期と干渉を起こし、コピー画像などでモアレが発生してしまう。そこで従来の技術ではフィルタ処理等を利用してスムージングを行い、ムラを軽減させていた。   In a scanner-mounted device typified by a color MFP (multifunction printer), unevenness may occur at a specific cycle when a document is read. In particular, when uneven reading occurs in the photograph portion of the document, it interferes with the period of halftone dots of the document itself or the period of the screen used in the printer section, and moire occurs in a copy image. Therefore, in the conventional technique, smoothing is performed using filter processing or the like to reduce unevenness.

また、読み取り時のムラには光量が関係していることが多いため、従来の技術では光量を検知する装置を用いて光量を検知し、その検知結果に基づいて読み取り値を補正する技術も採用されていた(特許文献1参照)。   In addition, since the amount of light is often related to unevenness at the time of reading, the conventional technology also uses a technology that detects the amount of light using a device that detects the amount of light and corrects the read value based on the detection result. (See Patent Document 1).

特開平10−112802号公報JP 10-118022 A

しかしながら、上述した従来のフィルタ処理では、例えばムラの周期が非常に大きい場合にはフィルタのサイズを大きくしなければならず、コストが増大するという問題があった。また、光量を検知する装置など追加の装置を導入した場合も、同様にコストが増大するという問題があった。   However, the above-described conventional filter processing has a problem in that, for example, when the period of unevenness is very large, the size of the filter must be increased, resulting in an increase in cost. Further, when an additional device such as a device for detecting the amount of light is introduced, there is a problem that the cost similarly increases.

また、ムラは特定色の特定チャネルにのみ存在する場合がある。図1は、特定チャネルに発生するムラについて説明した図である。   In addition, unevenness may exist only in a specific channel of a specific color. FIG. 1 is a diagram illustrating unevenness that occurs in a specific channel.

原稿データ101は、RGBで表されるスキャンされた原稿データであり、原稿データ101上にはオブジェクト102、103、104が存在している。ここで、オブジェクト102に着目すると、オブジェクト102は、周期的なムラのある画像105となっている。この画像105を、R、G、Bの各信号チャネルに分解したものが画像データ106、107、108である。これらの各画像データの画素値の分布を標準偏差で表すと、チャネルごとに異なっていることがわかる。図1の例では、R信号、G信号の分散値が小さいのに対して、B信号の分散値が大きくなっている。したがって、オブジェクト102で発生しているムラは、B信号に起因していると考えられる。   The document data 101 is scanned document data expressed in RGB, and objects 102, 103, and 104 exist on the document data 101. Here, paying attention to the object 102, the object 102 is an image 105 with periodic unevenness. Image data 106, 107, and 108 are obtained by decomposing the image 105 into R, G, and B signal channels. When the distribution of the pixel values of these image data is expressed by standard deviation, it can be seen that the channel data differs for each channel. In the example of FIG. 1, the dispersion value of the B signal is large while the dispersion value of the R signal and the G signal is small. Therefore, the unevenness occurring in the object 102 is considered to be caused by the B signal.

このようなデータに対してR、G、B等量にフィルタリング処理を行った場合、ムラを発生させる原因となっていないデータに対してもフィルタ処理が行われてしまう。そのため、ムラを発生させる原因となっていないデータの信号値も変わってしまい、色再現性に対して重大な影響を与えてしまう。   When filtering processing is performed on such data with R, G, B equal amounts, filtering processing is performed even on data that does not cause unevenness. For this reason, the signal value of data that does not cause unevenness also changes, which has a significant effect on color reproducibility.

また、このようなムラを少なくするために、1次元LUT(ルックアップテーブル)を用いる方法もある。図8は、ムラを少なくするために用いられる1次元LUTの入力と出力の関係を示すグラフである。   In order to reduce such unevenness, there is a method using a one-dimensional LUT (lookup table). FIG. 8 is a graph showing the relationship between the input and output of a one-dimensional LUT used to reduce unevenness.

図8(a)の1次元LUT801は、入力と出力が等しい関係にある。このようなLUTを用いた場合、入力と出力のRGB値は変わらないため、図1のようなムラもそのまま残ってしまう。そこで、図8(b)の1次元LUT802のように高濃度部をつぶしたLUTを用意する。このようなLUTを用いると、高濃度部における信号のばらつきが同じ値になるため、ムラを抑えることが可能となる。図1のオブジェクト102は高濃度部のデータであるので、図8(b)の1次元LUT802を用いればムラを無くすことが可能となる。しかし、このような手法でムラを解消すると高濃度部の階調性が無くなるため、色再現性が大きく損なわれてしまう。図8(b)の1次元LUT802を特定のチャネルにのみ用いることで、色再現性が損なわれる範囲を狭めることも可能だが、例えばB信号のLUTのみ高濃度部をつぶした場合でも、黒や青の階調性は無くなるため、色再現性の犠牲はなお大きい。したがって、ムラの解消と色再現性とを両立させることは従来の技術では難しかった。   In the one-dimensional LUT 801 in FIG. 8A, the input and the output are in the same relationship. When such an LUT is used, the RGB values of input and output do not change, and the unevenness as shown in FIG. 1 remains as it is. Therefore, an LUT in which the high density portion is crushed is prepared like a one-dimensional LUT 802 in FIG. When such an LUT is used, the variation in the signal in the high density portion becomes the same value, so that unevenness can be suppressed. Since the object 102 in FIG. 1 is data of a high density portion, unevenness can be eliminated by using the one-dimensional LUT 802 in FIG. However, if the unevenness is eliminated by such a method, the gradation property of the high density portion is lost, and the color reproducibility is greatly impaired. Although the range in which the color reproducibility is impaired can be narrowed by using the one-dimensional LUT 802 in FIG. 8B only for a specific channel, for example, even if the high density portion is crushed only in the B signal LUT, Since the gradation of blue is lost, the sacrifice of color reproducibility is still great. Therefore, it has been difficult for the conventional technique to achieve both elimination of unevenness and color reproducibility.

また、特定のチャネルに対して生じるムラは全ての画像に対して生じるわけではなく、デバイスごとにムラの度合いも異なるため、ムラが発生する特定の画像に合わせ、かつ、個別のデバイスに合わせたムラを補正する方法が望ましい。しかし、上述した方法では、特定の画像に合わせ、かつ、個別のデバイスに合わせた補正は行えないという問題があった。   In addition, unevenness that occurs for a specific channel does not occur for all images, and the degree of unevenness varies from device to device. A method of correcting unevenness is desirable. However, the above-described method has a problem in that correction cannot be performed according to a specific image and according to an individual device.

本発明は、このような問題を鑑みてなされたものである。その目的とするところは、色再現性を犠牲にせずに特定のチャネルに起因するムラを減少させ、かつ、特定の画像及び個別のデバイスに合わせてムラの補正を行う画像処理装置、画像処理方法ならびに画像処理方法を実行するプログラムを提供することである。   The present invention has been made in view of such problems. The object is to reduce the unevenness caused by a specific channel without sacrificing color reproducibility, and to correct the unevenness according to a specific image and an individual device, and an image processing method And providing a program for executing the image processing method.

このような目的を達成するために、本発明は、輝度値の補正を行うための補正テーブルを作成する補正テーブル作成手段を有する画像処理装置であって、白黒画像の印刷されたシートを色別に読取り、色別の画像を得る読取手段を有することを特徴とする。さらに、本発明の画像処理装置は、前記読取手段で得られた各画像内の輝度値から色別に平均値を得る平均値取得手段と、前記読取手段で得られた各画像内の輝度値から色別に標準偏差値を得る標準偏差取得手段とを有することを特徴とする。また、前記標準偏差取得手段で取得したある色の標準偏差値が、他の色の標準偏差値より閾値以上大きい場合に、平均値取得手段で取得された前記ある色の平均値の周辺の輝度値が、補正後収束するように補正テーブルを作成することを特徴とする。   In order to achieve such an object, the present invention provides an image processing apparatus having a correction table creating means for creating a correction table for correcting a luminance value, wherein a sheet on which a monochrome image is printed is classified by color. It has a reading means for reading and obtaining images according to colors. Further, the image processing apparatus of the present invention includes an average value obtaining unit that obtains an average value for each color from the luminance values in each image obtained by the reading unit, and a luminance value in each image obtained by the reading unit. It has a standard deviation acquisition means for obtaining a standard deviation value for each color. In addition, when the standard deviation value of a certain color acquired by the standard deviation acquisition unit is larger than the standard deviation value of other colors by a threshold or more, the luminance around the average value of the certain color acquired by the average value acquisition unit A correction table is created so that values converge after correction.

本発明によって、色再現性を犠牲にせずに特定のチャネルに起因するムラを減少させ、かつ、特定の画像及び個別のデバイスに合わせてムラの補正を行う画像処理装置、画像処理方法ならびに画像処理方法を実行するプログラムを提供することが可能になる。   According to the present invention, an image processing apparatus, an image processing method, and an image processing that reduce unevenness due to a specific channel without sacrificing color reproducibility and correct unevenness according to a specific image and an individual device. It becomes possible to provide a program for executing the method.

さらに、本発明ではサイズの大きいフィルタや追加の装置を必要としないため、より低コストでムラを補正することが可能となる。   Furthermore, since the present invention does not require a large filter or an additional device, the unevenness can be corrected at a lower cost.

本発明の実施形態は、多次元LUT(ルックアップテーブル)を備え、多次元LUTを用いて色変換を行う。本発明の一実施形態は、予め作成されている多次元LUTを個別のデバイスに合わせて調整し、再作成した多次元LUTを用いてムラを補正する。   The embodiment of the present invention includes a multidimensional LUT (lookup table), and performs color conversion using the multidimensional LUT. In one embodiment of the present invention, a multi-dimensional LUT created in advance is adjusted according to an individual device, and unevenness is corrected using the re-created multi-dimensional LUT.

以下、図面を参照しながら本発明の実施形態について詳細に説明する。
(第1の実施形態)
図2に、本実施形態に係るカラーMFPの概略構成図を示す。オートドキュメントフィーダーを含む画像読み取り部201は、束状の、または一枚の原稿画像を図示されてない光源で照射し、原稿反射像をレンズで固定撮像素子上に結像し、固定撮像素子からラスター状の画像読み取り信号をイメージ情報として得る。通常の複写機能は、この画像読み取り信号をデータ処理装置205において記録信号へ画像処理し、記録装置203に順次出力して記録媒体上に画像を形成する。この一連の処理がコピー動作である。本明細書では、この処理を対象として説明する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(First embodiment)
FIG. 2 is a schematic configuration diagram of the color MFP according to the present embodiment. An image reading unit 201 including an auto document feeder irradiates a bundled or single original image with a light source (not shown), forms an original reflection image on a fixed image sensor with a lens, and A raster-like image reading signal is obtained as image information. In a normal copying function, the image reading signal is image-processed into a recording signal in the data processing device 205 and sequentially output to the recording device 203 to form an image on a recording medium. This series of processes is a copy operation. In this specification, this process will be described.

カラーMFPへの操作者の指示は、カラーMFPに装備されたキー操作部である入力装置206に入力され、一連の動作はデータ処理装置205内の図示されてない制御部で制御される。より詳細には、制御部は、種々の演算、制御、判別などの処理動作を実行するCPU、制御プログラム等を格納するROM、処理動作中のデータや入力データなどを一時的に格納するRAMなどを備える。   An operator's instruction to the color MFP is input to an input device 206 which is a key operation unit provided in the color MFP, and a series of operations is controlled by a control unit (not shown) in the data processing device 205. More specifically, the control unit includes a CPU that executes processing operations such as various operations, control, and discrimination, a ROM that stores control programs, and a RAM that temporarily stores data during processing operations and input data. Is provided.

一方、操作入力の状態表示及び処理中の画像データの表示は、表示装置204で行われる。また、記憶装置202には、画像読み取り部201で取り込んだ画像データ等を保存することができる。   On the other hand, the display device 204 displays the operation input status and the image data being processed. In addition, the storage device 202 can store image data captured by the image reading unit 201.

ネットワークI/F207は、カラーMFPとネットワークとを接続するためのインターフェースである。これを用いることでPC等から画像データを受け取り、データ処理装置205で処理を行って、記録装置203にてプリントを行うことができる。また、画像読み取り部201で原稿画像を読み取り、データ処理装置205で処理した画像データをネットワークI/F207を介してPC等に送信することもできる。本実施形態では、プリント処理や送信処理については説明しないが、コピー処理と同様に本実施形態に適用することができる。   A network I / F 207 is an interface for connecting the color MFP and the network. By using this, image data can be received from a PC or the like, processed by the data processing device 205, and printed by the recording device 203. Further, it is also possible to read a document image by the image reading unit 201 and transmit the image data processed by the data processing device 205 to a PC or the like via the network I / F 207. In the present embodiment, print processing and transmission processing will not be described, but the present embodiment can be applied to the present embodiment in the same manner as copy processing.

図3に、カラーMFPにおける画像処理の流れを示す。図3に示した画像処理は、データ処理装置205で行われる。   FIG. 3 shows a flow of image processing in the color MFP. The image processing shown in FIG. 3 is performed by the data processing device 205.

まず、スキャナ301にて原稿データをスキャンしてデータの読み込みを行い、デバイス依存RGB302を得る。スキャナ301は、図2の画像読み取り部201に相当する。次にステップ303の色変換1にて、デバイス依存RGB302を共通RGB305へ色変換する。ここで、共通RGBとはデバイス非依存色空間であり、L*a*b*などの一般的なデバイス非依存色空間と可逆の関係にある規格化されたRGBのことである。ステップ303の色変換1では、3D−LUT(3次元ルックアップテーブル)304を用いる。図4に、3D−LUT304の例を示す。図4の3D−LUT401は、18×18×18の大きさのLUTである。ステップ303の色変換処理では、入力されるデバイス依存のRGBデータに対していくつか候補となる入力格子点を選び、補間演算を行って出力値を求める。ここで出力値とは共通RGB305のことである。また、補間演算に関してはどのような手段を用いても問題はない。   First, the scanner 301 scans document data and reads the data to obtain a device-dependent RGB 302. The scanner 301 corresponds to the image reading unit 201 in FIG. Next, in color conversion 1 in step 303, device-dependent RGB 302 is color-converted to common RGB 305. Here, the common RGB is a device-independent color space, and is a standardized RGB having a reversible relationship with a general device-independent color space such as L * a * b *. In color conversion 1 in step 303, a 3D-LUT (three-dimensional lookup table) 304 is used. FIG. 4 shows an example of the 3D-LUT 304. The 3D-LUT 401 in FIG. 4 is an LUT having a size of 18 × 18 × 18. In the color conversion process of step 303, several candidate input grid points are selected for input device-dependent RGB data, and an interpolation operation is performed to obtain an output value. Here, the output value is the common RGB 305. Further, there is no problem even if any means is used for the interpolation calculation.

次にステップ306にて、共通RGB305に変換した画像データを記憶装置307に格納する。次いでステップ308にて、記憶装置307から画像データの読み出しを行う。次にステップ309にて、3D−LUT310を用いて色変換2を行い、CMYK(多値)311を得る。図5に、3D−LUT310の例を示す。図5の3D−LUT501は、図4と同様に18×18×18の大きさである。図4の3D−LUT401と図5の3D−LUT501とを比較すると、入力側は同じ3次元だが出力側の次元が異なる。ステップ309の色変換処理では、入力される共通RGBデータに対していくつか候補となる入力格子点を選び、補間演算を行って出力値を求める。ここで、出力値とはCMYK(多値)311のことである。また、補間演算に関してはステップ303の例と同様に、どのような手段を用いても問題はない。   In step 306, the image data converted into the common RGB 305 is stored in the storage device 307. In step 308, image data is read from the storage device 307. Next, in step 309, color conversion 2 is performed using the 3D-LUT 310 to obtain a CMYK (multi-value) 311. FIG. 5 shows an example of the 3D-LUT 310. The 3D-LUT 501 in FIG. 5 has a size of 18 × 18 × 18 as in FIG. Comparing the 3D-LUT 401 in FIG. 4 and the 3D-LUT 501 in FIG. 5, the input side has the same three dimensions but the output side has different dimensions. In the color conversion process at step 309, several candidate input grid points are selected for the input common RGB data, and an interpolation operation is performed to obtain an output value. Here, the output value is CMYK (multivalue) 311. As for the interpolation calculation, there is no problem even if any means is used as in the example of step 303.

次いでステップ312にて、CMYK(多値)311に対してガンマ補正処理を行って階調補正を行い、ステップ313にてスクリーン処理を行ってCMYK(二値)314を得る。このデータをプリンタ315に送り、処理が終了する。   Next, in step 312, gamma correction processing is performed on CMYK (multivalue) 311 to perform tone correction, and in step 313, screen processing is performed to obtain CMYK (binary) 314. This data is sent to the printer 315, and the process ends.

本実施形態では、特にステップ303の色変換1で用いる3D−LUT304に着目し、このLUTを補正する。   In the present embodiment, the LUT is corrected by paying particular attention to the 3D-LUT 304 used in the color conversion 1 in step 303.

図6に、本実施形態におけるLUT補正処理の流れを示す。図6に示したLUT補正処理は、データ処理装置205で行われる。   FIG. 6 shows a flow of LUT correction processing in the present embodiment. The LUT correction process illustrated in FIG. 6 is performed by the data processing device 205.

まず、ステップ601にてサンプル画像を読み込む。ここで、サンプル画像とは、LUTを補正するための原稿画像である。
図7に、サンプル画像の例を示す。図7では、用紙701上に、パッチデータ702〜707がプリントされている。パッチデータ702〜707は、低濃度から高濃度までの様々な濃度のデータで構成されている。このサンプル画像は、RGB各信号のばらつきが同じ画像である。ここで、パッチデータの種類や数は、例示したものに限定されるわけではない。
First, in step 601, a sample image is read. Here, the sample image is a document image for correcting the LUT.
FIG. 7 shows an example of a sample image. In FIG. 7, patch data 702 to 707 are printed on a sheet 701. The patch data 702 to 707 are composed of various density data from low density to high density. This sample image is an image having the same variation in RGB signals. Here, the type and number of patch data are not limited to those illustrated.

次にステップ602にて、パッチデータの切り出しを行う。パッチデータの切り出し処理については、どのような手法を用いても問題ない。例えば図7のようなサンプル画像の場合、パッチデータ702〜707が個別に取り出され、RAMに格納される。次いでステップ603にて、RAMに格納された、補正処理が行われていないパッチを選択する。選択された個別のパッチデータに対して、後続の処理が行われる。   In step 602, the patch data is cut out. Any method may be used for the patch data extraction process. For example, in the case of a sample image as shown in FIG. 7, patch data 702 to 707 are individually taken out and stored in the RAM. Next, in step 603, a patch that is stored in the RAM and that has not been subjected to correction processing is selected. Subsequent processing is performed on the selected individual patch data.

パッチデータはムラのある画像データであるので、ステップ604にて、パッチデータ702〜707の各々に対して、RGB各色についての画素値の平均化を行う。   Since the patch data is uneven image data, in step 604, the pixel values of the RGB colors are averaged for each of the patch data 702 to 707.

次にステップ605にて、ステップ604にて取得された画素値の平均値に基づき、3D−LUT304を用いて注目格子点を特定し、該特定された注目格子点に関する情報(注目格子点情報)をRAMに格納する。ここで注目格子点とは、補間演算を行う際に最も寄与率が大きくなる格子点のことである。また、後述の3D−LUTの補正の際に、テーブルの値が変わらない格子点である。図4の3D−LUT401のような18×18×18の格子点で8bitの画像データの画素値の平均値が(R,G,B)=(0,15,30)の場合、格子点間隔は255÷17=15となる。したがって、注目格子点を図4の3D−LUT401の入力格子点アドレスで表すと、(R,G,B)=(0,1,2)となる。すなわち、ステップ605では、パッチデータ702〜707の各々に対して、注目格子点を特定する。   Next, in step 605, based on the average value of the pixel values acquired in step 604, a target grid point is specified using the 3D-LUT 304, and information on the specified target grid point (target grid point information). Is stored in the RAM. Here, the attention lattice point is a lattice point having the largest contribution rate when performing the interpolation calculation. In addition, the grid points are those whose table values do not change when correcting the 3D-LUT described later. When the average value of pixel values of 8-bit image data is (R, G, B) = (0, 15, 30) at 18 × 18 × 18 lattice points as in the 3D-LUT 401 in FIG. Becomes 255 ÷ 17 = 15. Therefore, if the target lattice point is represented by the input lattice point address of the 3D-LUT 401 in FIG. 4, (R, G, B) = (0, 1, 2). That is, in step 605, a target lattice point is specified for each of the patch data 702 to 707.

一方、ステップ606にて、ステップ603で選択されるパッチデータ702〜707に対してチャネル分割を行う。本実施形態ではRGBを例としているので、パッチデータはR信号とG信号とB信号とに分割される。次いでステップ607にて、各チャネルに対して分散値を計算する。ここではパッチデータの画素値のばらつき度合いを調べることが目的であるため、ばらつき度合いを調べることができる計算式であれば、例えば標準偏差などを用いることもできる。次いでステップ608にて、全てのチャネルを処理したかどうか、すなわち全てのチャネルについての分散値の計算を終了したか否かの判定を行い、処理をしていない場合はステップ607へ戻り、まだ計算していないチャネルの分散値を計算する。全てのチャネルの分散値を計算した後、ステップ609にて各チャネルの分散値を比較し、最も分散値の大きいチャネルを特定し、特定したチャネルとその分散値とをチャネル情報610としてRAMに格納する。   On the other hand, in step 606, channel division is performed on the patch data 702 to 707 selected in step 603. Since RGB is used as an example in the present embodiment, the patch data is divided into an R signal, a G signal, and a B signal. Next, at step 607, a dispersion value is calculated for each channel. Here, since the purpose is to examine the degree of variation of the pixel values of the patch data, a standard deviation or the like can be used as long as it is a calculation formula that can examine the degree of variation. Next, in step 608, it is determined whether or not all channels have been processed, that is, whether or not the dispersion value calculation has been completed for all channels. If not, the process returns to step 607 and is still calculated. Calculate the variance value of the unused channels. After calculating the dispersion values of all the channels, in step 609, the dispersion values of the respective channels are compared, the channel having the largest dispersion value is identified, and the identified channel and the dispersion value are stored in the RAM as channel information 610. To do.

次にステップ611にて、特定した注目格子点とチャネル情報610とを用いて、補正対象格子点を抽出し、RAMに格納する。   Next, at step 611, the correction target grid point is extracted using the identified grid point of interest and the channel information 610, and stored in the RAM.

図9に、補正対象格子点の抽出処理の流れの例を示す。図9に示す補正対象格子点の抽出処理も、図6と同様にデータ処理装置205で行われる。   FIG. 9 shows an example of the flow of extraction processing of correction target grid points. 9 is also performed by the data processing device 205 in the same manner as in FIG.

まず、ステップ901にて、ステップ605にてRAMに格納された注目格子点情報を抽出する。次にステップ902にて、チャネル情報610を抽出する。ここでは、ステップ609で特定したチャネルと、ステップ607で計算した分散値とを抽出する。次いでステップ903にて、分散値テーブル904を抽出する。   First, in step 901, attention grid point information stored in the RAM in step 605 is extracted. Next, in step 902, channel information 610 is extracted. Here, the channel specified in step 609 and the variance value calculated in step 607 are extracted. Next, at step 903, the variance value table 904 is extracted.

図10に、分散値テーブル904の例1001を示す。分散レベルは分散値の大きさを表しており、分散レベルの値が大きければ大きいほど信号値の分散、すなわちムラが大きいデータを対象としている。閾値は、算出した分散値に対する閾値であり、分散レベルが大きくなるにつれて閾値も大きくなる。分散値テーブル1001では、閾値はa<b<cという関係となる。例えば、算出した分散値が閾値aよりも大きく、閾値b以下である場合、分散レベルは2となる。また、格子点範囲は、注目格子点を中心にして補正対象とする格子点の数を表す。分散値テーブル904は図10の例に限らず、どのような形式であってもよい。   FIG. 10 shows an example 1001 of the variance value table 904. The dispersion level represents the size of the dispersion value, and the larger the dispersion level value, the more the dispersion of signal values, that is, data with greater unevenness. The threshold is a threshold for the calculated variance value, and the threshold increases as the variance level increases. In the variance value table 1001, the threshold values have a relationship of a <b <c. For example, when the calculated variance value is greater than the threshold value a and less than or equal to the threshold value b, the variance level is 2. The grid point range represents the number of grid points to be corrected around the target grid point. The variance value table 904 is not limited to the example of FIG.

次にステップ905にて、分散レベルを決定する。ここではステップ902で抽出したチャネル情報610の分散値を参照して、分散値テーブル1001の閾値情報を基に分散レベルを決定する。すなわち、チャネル情報610に含まれる分散値と、分散値テーブル904の閾値とを比較して、該当する分散レベルを取得する。次いでステップ906にて、ステップ905にて決定された分散レベルに基づいて、分散値テーブル1001から分散レベルに対応した格子点範囲を抽出する。最後にステップ907にて、注目格子点と抽出した格子点範囲の情報とを基に、補正対象格子点を決定し、RAMに格納して処理が終了する。補正対象格子点を決定する際に、マイナスや格子点数以上の値が算出された場合は、抽出対象から除外する。例えば、18×18×18のLUTを対象としている場合、(0,0,0)〜(17,17,17)までの範囲の格子点が補正対象となり得る。   Next, at step 905, the dispersion level is determined. Here, with reference to the dispersion value of the channel information 610 extracted in step 902, the dispersion level is determined based on the threshold value information of the dispersion value table 1001. That is, the variance value included in the channel information 610 is compared with the threshold value of the variance value table 904 to obtain the corresponding variance level. Next, in step 906, based on the dispersion level determined in step 905, a grid point range corresponding to the dispersion level is extracted from the dispersion value table 1001. Finally, in step 907, the correction target grid point is determined based on the target grid point and the extracted grid point range information, stored in the RAM, and the process ends. When the correction target grid point is determined, if a value greater than minus or the number of grid points is calculated, it is excluded from the extraction target. For example, when an 18 × 18 × 18 LUT is targeted, lattice points in the range from (0, 0, 0) to (17, 17, 17) can be corrected.

例として、注目格子点が(R,G,B)=(1,1,3)で、チャネル情報のチャネルがB信号であり、分散値がbよりも大きくcよりも小さい場合について説明する。分散値テーブル1001を参照すると分散レベルは3となり、格子点範囲が2に決まる。チャネルはB信号であるので、(1,1,1)、(1,1,2)、(1,1,4)、(1,1,5)が補正対象格子点となる。   As an example, a case where the target lattice point is (R, G, B) = (1, 1, 3), the channel of the channel information is a B signal, and the variance value is larger than b and smaller than c will be described. Referring to the dispersion value table 1001, the dispersion level is 3, and the lattice point range is determined to be 2. Since the channel is a B signal, (1, 1, 1), (1, 1, 2), (1, 1, 4), and (1, 1, 5) are correction target lattice points.

以上のようにして、ステップ611にて補正対象格子点を決定した後、ステップ612にて補正対象格子点の補正処理を実行する。   As described above, after the correction target lattice point is determined in step 611, the correction processing of the correction target lattice point is executed in step 612.

図11に、補正対象格子点の補正処理の流れの例を示す。図11に示す補正対象格子点の補正処理も、図6と同様にデータ処理装置205で行われる。
まず、ステップ1101にて注目格子点AをRAMから抽出する。次にステップ1102にて、RAMから補正対象格子点Bを抽出する。次いでステップ1103にて、各チャネルに対応したデータを抽出する。本実施形態では、出力値がRGBであるテーブルを対象としているので、R信号、G信号、B信号のそれぞれのデータを3D−LUT304から抽出する。次にステップ1104にて、注目格子点Aと補正対象格子点Bとを用いて補正対象格子点の補正後の格子点Cを算出する。ここで、補正後の格子点Cは、次式を用いて算出することができる。
C=(A+B)÷2
この式は、補正対象格子点の値を、注目格子点の値に近づけることを目的としている。しかしながら、この式では注目格子点と補正対象格子点との距離が考慮されないため、補正後の格子点の値と、補正対象外の格子点の値との違いが大きくなってしまう。そこで、注目格子点と補正対象格子点との距離を考慮した重み(ここでは、Wとする。)を用いて、次式により補正後の格子点Cを算出することもできる。
C=(WA+B)÷2
ここでは、補正後の格子点Cの算出式を2つ例示したが、算出式はこれらに限定されるものではない。
FIG. 11 shows an example of the flow of correction processing of a correction target grid point. 11 is also performed by the data processing device 205 in the same manner as in FIG.
First, in step 1101, the target lattice point A is extracted from the RAM. Next, in step 1102, the correction target grid point B is extracted from the RAM. Next, at step 1103, data corresponding to each channel is extracted. In this embodiment, since a table whose output values are RGB is targeted, each data of the R signal, the G signal, and the B signal is extracted from the 3D-LUT 304. Next, in step 1104, the corrected lattice point C of the correction target lattice point is calculated using the target lattice point A and the correction target lattice point B. Here, the corrected lattice point C can be calculated using the following equation.
C = (A + B) / 2
This equation is intended to bring the value of the correction target lattice point closer to the value of the target lattice point. However, since the distance between the target lattice point and the correction target lattice point is not considered in this expression, the difference between the value of the corrected lattice point and the value of the lattice point outside the correction target becomes large. Therefore, the corrected lattice point C can be calculated by the following equation using a weight (in this case, W) taking into account the distance between the target lattice point and the correction target lattice point.
C = (WA + B) / 2
Here, two calculation formulas for the corrected lattice point C are illustrated, but the calculation formulas are not limited to these.

次にステップ1105にて、補正対象格子点の補正後の格子点Cを3D−LUT304に格納する。次いでステップ1106にて、全てのチャネルを処理したかどうかの判定を行い、処理していない場合はステップ1103に戻り新しいチャネルデータを抽出する。全てのチャネルを処理している場合は、ステップ1107にて全ての補正対象格子点を処理したかどうかの判定を行う。全ての補正対象格子点を処理していない場合はステップ1102にて補正対象格子点を新たに抽出する。全ての補正対象格子点を処理している場合は、処理を終了する。   In step 1105, the corrected grid point C of the correction target grid point is stored in the 3D-LUT 304. Next, in step 1106, it is determined whether or not all channels have been processed. If not, the process returns to step 1103 to extract new channel data. If all channels are processed, it is determined in step 1107 whether all correction target grid points have been processed. If all the correction target grid points have not been processed, new correction target grid points are extracted in step 1102. If all the correction target grid points have been processed, the process ends.

図12に、補正対象格子点の補正処理を実行した後の3D−LUT304の例を示す。ここでは3D−LUT304を図4の3D−LUT401として補正処理を実行した例を示している。また、注目格子点は(R,G,B)=(1,1,3)で、補正対象格子点は(1,1,1)、(1,1,2)、(1,1,4)、(1,1,5)としている。3D−LUT1201は、補正対象格子点を平滑化した後の3D−LUTである。斜体と下線で示す出力値が補正処理後の出力値であり、図4の3D−LUT401に比べて注目格子点(R,G,B)=(1,1,3)に近い値となっている。   FIG. 12 shows an example of the 3D-LUT 304 after executing the correction processing of the correction target lattice points. Here, an example in which the 3D-LUT 304 is corrected as the 3D-LUT 401 in FIG. 4 is shown. Further, the target lattice point is (R, G, B) = (1, 1, 3), and the correction target lattice points are (1, 1, 1), (1, 1, 2), (1, 1, 4). ), (1, 1, 5). The 3D-LUT 1201 is a 3D-LUT after smoothing the correction target lattice points. The output values indicated by italics and underline are the output values after the correction processing, and are closer to the target lattice point (R, G, B) = (1, 1, 3) than the 3D-LUT 401 in FIG. Yes.

図6のステップ612にて補正対象格子点の補正処理を行った後、補正された格子点と補正された格子点の周囲にある画素との間で画素値のギャップが大きくなる。そのため、ステップ613にてスムージング処理を行う。   After performing the correction processing of the correction target grid point in step 612 in FIG. 6, the gap between the corrected grid points and the pixels around the corrected grid points is increased. Therefore, a smoothing process is performed at step 613.

図13に、スムージング処理の流れの例を示す。まず、ステップ1301にて、3D−LUT304の格子点を抽出する。次にステップ1302にて、抽出した格子点がステップ612で補正した格子点か否かを判定する。補正した格子点か否かの判定は、補正前と補正後のテーブルの比較を行うなど、どのような手段を使ってもよい。抽出した格子点が補正した格子点である場合はその後の処理を行わず、ステップ1306にて全ての格子点をチェックしたかどうかの判定を行う。抽出した格子点が補正した格子点ではない場合は、ステップ1303にて近傍格子点を抽出する。次いでステップ1304にて、補正した格子点が近傍にあるかどうかの判定を行う。近傍に格子点がない場合はスムージング処理を行わずにステップ1306へ進む。近傍に格子点がある場合はステップ1305にて、スムージング処理を行う。ここで、スムージング処理はどのようなものであってもよい。スムージング処理を行った後、ステップ1306にて全ての格子点をチェックしたかどうかを判定し、チェックしていない場合はステップ1301へと戻り次の格子点を抽出する。全ての格子点をチェックした場合は処理を終了する。   FIG. 13 shows an example of the flow of the smoothing process. First, at step 1301, grid points of the 3D-LUT 304 are extracted. Next, in step 1302, it is determined whether or not the extracted lattice point is the lattice point corrected in step 612. Any means such as comparing the table before and after the correction may be used to determine whether or not the lattice point is corrected. If the extracted lattice point is a corrected lattice point, the subsequent processing is not performed, and it is determined in step 1306 whether all the lattice points have been checked. If the extracted grid point is not a corrected grid point, a neighboring grid point is extracted in step 1303. Next, in step 1304, it is determined whether or not the corrected grid point is in the vicinity. If there is no grid point in the vicinity, the process proceeds to step 1306 without performing the smoothing process. If there are grid points in the vicinity, smoothing processing is performed in step 1305. Here, any smoothing process may be used. After performing the smoothing process, it is determined in step 1306 whether or not all the lattice points have been checked. If not, the process returns to step 1301 to extract the next lattice point. If all grid points are checked, the process is terminated.

以上の処理により、補正された格子点と補正されていない格子点との間に発生する画素値のギャップを軽減することができる。補正対象格子点を補正した時点でギャップが発生していない場合には、スムージング処理を省略してもよい。   With the above processing, it is possible to reduce a gap between pixel values generated between a corrected lattice point and an uncorrected lattice point. If no gap is generated when the correction target grid point is corrected, the smoothing process may be omitted.

このようにしてスムージング処理を行った後、ステップ614にて、補正した3D−LUT304を格納する。次いでステップ615にて、全てのパッチデータを処理したかどうかの判定を行い、まだ処理していないパッチデータがある場合はステップ603に戻り、補正処理が行われていないパッチを選択する。全てのパッチデータを処理している場合は、処理を終了する。   After performing the smoothing process in this manner, in step 614, the corrected 3D-LUT 304 is stored. Next, in step 615, it is determined whether or not all patch data has been processed. If there is patch data that has not yet been processed, the process returns to step 603 to select a patch that has not been subjected to correction processing. If all patch data has been processed, the process ends.

本実施形態ではコピー動作を例として説明したが、デバイス依存RGBを共通RGBに変換する3D−LUTを用いる処理であれば、送信処理など、どのような動作に対しても適用することができる。また、色変換に用いるLUTが多次元であれば、どのようなLUTに対しても適用することができる。例えば、入力がCMYKの4次元のLUTに対しても適用することができる。   Although the copy operation has been described as an example in the present embodiment, any processing such as transmission processing can be applied as long as the processing uses a 3D-LUT that converts device-dependent RGB into common RGB. Further, any LUT can be applied as long as the LUT used for color conversion is multidimensional. For example, the present invention can be applied to a CMYK four-dimensional LUT.

以上説明したように、本実施形態によれば、3D−LUTの特定の格子点の補正を行うことで、色再現性を犠牲にする事無くスキャン時に発生するムラを軽減させることが可能になる。また、画素値のばらつき度合いを調べて特定したチャネルを処理することで、特定の画像及び個別のデバイスに合わせてムラを軽減させることが可能となる。   As described above, according to the present embodiment, by correcting specific grid points of the 3D-LUT, it is possible to reduce unevenness that occurs during scanning without sacrificing color reproducibility. . Further, by processing the channel specified by examining the degree of variation in pixel values, it is possible to reduce unevenness in accordance with a specific image and an individual device.

(第2の実施形態)
第1の実施形態では、デバイス依存RGBを共通RGBに変換する3D−LUT304を補正する例を説明したが、本実施形態では、共通RGBをCMYK(多値)に変換する3D−LUT310を補正対象とした場合について説明する。
(Second Embodiment)
In the first embodiment, the example of correcting the 3D-LUT 304 that converts device-dependent RGB into common RGB has been described. However, in this embodiment, the 3D-LUT 310 that converts common RGB into CMYK (multivalue) is corrected. The case will be described.

LUTの補正処理の流れは、第1の実施形態と同様に図6のようになっているため、詳細な説明は省略する。本実施形態では、図6の3D−LUT304は、3D−LUT310である。また、図14に、ステップ612における補正対象格子点の補正処理を実行した後の3D−LUT1401を示す。ここでは図6の3D−LUT304を図5の3D−LUT501とした例を示している。また、注目格子点が(R,G,B)=(1,1,3)で、補正対象格子点は(1,1,1),(1,1,2)、(1,1,4)、(1,1,5)である。斜体と下線で示す出力値が補正後の出力値であり、図5の3D−LUT501に比べて注目格子点(R,G,B)=(1,1,3)に近い値となっている。   Since the flow of the LUT correction process is as shown in FIG. 6 as in the first embodiment, detailed description thereof is omitted. In the present embodiment, the 3D-LUT 304 in FIG. FIG. 14 shows the 3D-LUT 1401 after executing the correction processing of the correction target grid point in step 612. Here, an example in which the 3D-LUT 304 in FIG. 6 is changed to the 3D-LUT 501 in FIG. 5 is shown. Further, the target lattice point is (R, G, B) = (1, 1, 3), and the correction target lattice points are (1, 1, 1), (1, 1, 2), (1, 1, 4). ), (1, 1, 5). The output values indicated in italics and underline are corrected output values, which are close to the target lattice point (R, G, B) = (1, 1, 3) compared to the 3D-LUT 501 in FIG. .

本実施形態では特に、UCR処理(アンダーカラー除去処理)におけるK(黒)の量を直接補正することができるため、第1の実施形態に比べてより効果的にムラを補正することが可能となる。さらに、スキャンされた画像に対してだけではなく、ドライバを介して得られる画像データに対してもムラの補正を行うことができる。   In the present embodiment, in particular, the amount of K (black) in the UCR process (under color removal process) can be directly corrected, so that unevenness can be corrected more effectively than in the first embodiment. Become. Furthermore, unevenness correction can be performed not only on a scanned image but also on image data obtained via a driver.

(その他の実施形態)
さらに本発明は、複数の機器(例えばコンピュータ、インターフェース機器、リーダ、プリンタなど)から構成されるシステムに適用することも、1つの機器からなる装置(複合機、プリンタ、ファクシミリ装置など)に適用することも可能である。
(Other embodiments)
Furthermore, the present invention can be applied to a system constituted by a plurality of devices (for example, a computer, an interface device, a reader, a printer, etc.) or an apparatus (multifunction device, printer, facsimile machine, etc.) comprising a single device. It is also possible.

また、本発明の目的は、上述の実施例で示したフローチャートの手順を実現するプログラムを記憶した記憶媒体から、システムまたは装置のコンピュータ(または、CPUやMPU)が、そのプログラムを読み出し、実行することによっても達成される。この場合、記憶媒体から読み出されたプログラム自体が上述した実施形態の機能を実現することになる。そのため、このプログラム、およびプログラムを格納した記憶媒体も本発明の一つを構成する。   Another object of the present invention is to read and execute a program of a system or apparatus (or CPU or MPU) from a storage medium storing a program for realizing the procedure of the flowchart shown in the above-described embodiment. Can also be achieved. In this case, the program itself read from the storage medium realizes the functions of the above-described embodiment. Therefore, this program and a storage medium storing the program also constitute one aspect of the present invention.

プログラムを供給するための記憶媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。   As a storage medium for supplying the program, for example, a floppy (registered trademark) disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like is used. Can do.

コンピュータが読み出したプログラムを実行することにより、上述した実施形態の機能が実現される。加えて、そのプログラムの指示に基づきコンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって上述した実施形態の機能が実現される場合も含まれる。   The functions of the above-described embodiment are realized by executing the program read by the computer. In addition, an OS (operating system) running on the computer based on the instruction of the program performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing. It is.

さらに、記憶媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる場合も可能である。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって上述した実施形態の機能が実現される。   Furthermore, the program read from the storage medium may be written to a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instructions of the program, and the functions of the above-described embodiments are realized by the processing.

従来の、特定チャネルに発生するムラについて説明した図である。It is the figure explaining the conventional nonuniformity which generate | occur | produces in a specific channel. 本発明の一実施形態に係る、カラーMFPの概略構成図である。1 is a schematic configuration diagram of a color MFP according to an embodiment of the present invention. FIG. 本発明の一実施形態に係る、カラーMFPにおける画像処理の流れを示した図である。FIG. 6 is a diagram illustrating a flow of image processing in a color MFP according to an embodiment of the present invention. デバイス依存RGBを共通RGBに変換する処理で用いられるLUTの例を示した図である。It is the figure which showed the example of LUT used by the process which converts device dependence RGB into common RGB. 共通RGBをCMYKに変換する処理で用いられるLUTの例を示した図である。It is the figure which showed the example of LUT used by the process which converts common RGB into CMYK. 本発明の一実施形態に係る、LUT補正処理の流れを示した図である。It is the figure which showed the flow of the LUT correction process based on one Embodiment of this invention. 本発明の一実施形態に係る、サンプル画像の例を示した図である。It is the figure which showed the example of the sample image based on one Embodiment of this invention. ムラを少なくするために用いられる1次元LUTの例を示した図である。It is the figure which showed the example of the one-dimensional LUT used in order to reduce nonuniformity. 補正対象格子点の抽出処理の流れの例を示した図である。It is the figure which showed the example of the flow of the extraction process of the correction | amendment object grid point. 分散値テーブルの例を示した図である。It is the figure which showed the example of the dispersion | distribution value table. 補正対象格子点の補正処理の流れの例を示した図である。It is the figure which showed the example of the flow of the correction process of the correction | amendment object grid point. 補正対象格子点の補正処理を実行した後の3D−LUTの例を示した図である。It is the figure which showed the example of 3D-LUT after performing the correction process of the correction | amendment object grid point. スムージング処理の流れの例を示した図である。It is the figure which showed the example of the flow of a smoothing process. 本発明の一実施形態に係る、補正処理を実行した後の3D−LUTを示した図である。It is the figure which showed 3D-LUT after performing the correction process based on one Embodiment of this invention.

符号の説明Explanation of symbols

304 3D−LUT
610 チャネル情報(分散値・チャネル)
304 3D-LUT
610 Channel information (dispersion value / channel)

Claims (5)

輝度値の補正を行うための補正テーブルを作成する補正テーブル作成手段を有する画像処理装置であって、
白黒画像の印刷されたシートを色別に読取り、色別の画像を得る読取手段と、
前記読取手段で得られた各画像内の輝度値から色別に平均値を得る平均値取得手段と、
前記読取手段で得られた各画像内の輝度値から色別に標準偏差値を得る標準偏差取得手段とを有し、
前記標準偏差取得手段で取得したある色の標準偏差値が、前記標準偏差取得手段で取得した他の色の標準偏差値より閾値以上大きい場合に、
前記補正テーブル作成手段は、
平均値取得手段で取得された前記ある色の平均値の周辺の輝度値が、補正後収束するように補正テーブルを作成することを特徴とする画像処理装置。
An image processing apparatus having a correction table creating means for creating a correction table for correcting a luminance value,
Reading means for reading a printed sheet of a black and white image by color and obtaining an image by color;
Average value obtaining means for obtaining an average value for each color from the luminance values in each image obtained by the reading means;
Standard deviation obtaining means for obtaining a standard deviation value for each color from the luminance value in each image obtained by the reading means,
When the standard deviation value of a certain color acquired by the standard deviation acquisition unit is larger than a threshold value by a standard deviation value of another color acquired by the standard deviation acquisition unit,
The correction table creating means includes
An image processing apparatus that creates a correction table so that luminance values around the average value of the certain color acquired by the average value acquisition unit converge after correction.
前記補正テーブル作成手段は、
前記標準偏差取得手段で取得したある色の標準偏差値が、前記標準偏差取得手段で取得した他の色の標準偏差値より閾値以上大きい場合に、
前記補正テーブル作成手段は、
前記平均値取得手段で取得された前記他の色の平均値に相当する輝度値を制約条件とした上で、平均値取得手段で取得された前記ある色の平均値の周辺の輝度値が、補正後収束するように補正テーブルを作成することを特徴とする請求項1に記載の画像処理装置。
The correction table creating means includes
When the standard deviation value of a certain color acquired by the standard deviation acquisition unit is larger than a threshold value by a standard deviation value of another color acquired by the standard deviation acquisition unit,
The correction table creating means includes
With the luminance value corresponding to the average value of the other color acquired by the average value acquisition unit as a constraint, the luminance value around the average value of the certain color acquired by the average value acquisition unit is The image processing apparatus according to claim 1, wherein a correction table is created so as to converge after correction.
輝度値の補正を行うための補正テーブルを作成する補正テーブル作成ステップを有する画像処理方法であって、
白黒画像の印刷されたシートを色別に読取り、色別の画像を得る読取ステップと、
前記読取ステップで得られた各画像内の輝度値から色別に平均値を得る平均値取得ステップと、
前記読取ステップで得られた各画像内の輝度値から色別に標準偏差値を得る標準偏差取得ステップとを有し、
前記標準偏差取得ステップで取得したある色の標準偏差値が、前記標準偏差取得ステップで取得した他の色の標準偏差値より閾値以上大きい場合に、
前記補正テーブル作成ステップは、
平均値取得ステップで取得された前記ある色の平均値の周辺の輝度値が、補正後収束するように補正テーブルを作成することを特徴とする画像処理方法。
An image processing method having a correction table creation step for creating a correction table for correcting a luminance value,
Reading a printed sheet of a black and white image by color and obtaining an image by color; and
An average value obtaining step of obtaining an average value for each color from the luminance value in each image obtained in the reading step;
A standard deviation obtaining step of obtaining a standard deviation value for each color from the luminance value in each image obtained in the reading step,
When the standard deviation value of a certain color acquired in the standard deviation acquisition step is larger than a threshold value by a standard deviation value of another color acquired in the standard deviation acquisition step,
The correction table creation step includes
An image processing method, wherein a correction table is created so that luminance values around the average value of the certain color acquired in the average value acquisition step converge after correction.
前記補正テーブル作成ステップは、
前記標準偏差取得ステップで取得したある色の標準偏差値が、前記標準偏差取得ステップで取得した他の色の標準偏差値より閾値以上大きい場合に、
前記補正テーブル作成ステップは、
前記平均値取得ステップで取得された前記他の色の平均値に相当する輝度値を制約条件とした上で、平均値取得ステップで取得された前記ある色の平均値の周辺の輝度値が、補正後収束するように補正テーブルを作成することを特徴とする請求項3に記載の画像処理方法。
The correction table creation step includes
When the standard deviation value of a certain color acquired in the standard deviation acquisition step is larger than a threshold value by a standard deviation value of another color acquired in the standard deviation acquisition step,
The correction table creation step includes
With the luminance value corresponding to the average value of the other color acquired in the average value acquisition step as a constraint, the luminance value around the average value of the certain color acquired in the average value acquisition step is The image processing method according to claim 3, wherein a correction table is created so as to converge after correction.
請求項3または4に記載の画像処理方法を実行するプログラム。   A program for executing the image processing method according to claim 3.
JP2006243329A 2006-09-07 2006-09-07 Image processor, image processing method, and program for performing the method Pending JP2008067101A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006243329A JP2008067101A (en) 2006-09-07 2006-09-07 Image processor, image processing method, and program for performing the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006243329A JP2008067101A (en) 2006-09-07 2006-09-07 Image processor, image processing method, and program for performing the method

Publications (1)

Publication Number Publication Date
JP2008067101A true JP2008067101A (en) 2008-03-21

Family

ID=39289397

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006243329A Pending JP2008067101A (en) 2006-09-07 2006-09-07 Image processor, image processing method, and program for performing the method

Country Status (1)

Country Link
JP (1) JP2008067101A (en)

Similar Documents

Publication Publication Date Title
US7903872B2 (en) Image-processing apparatus and method, computer program, and storage medium
US8175155B2 (en) Image processing apparatus, image processing method, image processing program, and storage medium
US9036199B2 (en) Image processing apparatus for performing color matching processing, image processing method, and computer-readable medium
JP4883789B2 (en) Image processing apparatus and image processing method
JP4700721B2 (en) Image processing device
JP6379794B2 (en) Image processing apparatus, image processing method, and image processing system
JP2009100026A (en) Image processor
JP6808325B2 (en) Image processing equipment, image processing methods and programs
US7940984B2 (en) Image processing apparatus, image processing method, and computer program product
JP2018007123A (en) Image processing device, image processing method, and program
US8189235B2 (en) Apparatus, method and program product that calculates a color blending ratio so security dots reproduced in a monochrome image are substantially undetectable
JP4659789B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP2019134232A (en) Image formation device, and method and program for the device
JP4814162B2 (en) Image processing apparatus and image processing method
JP2006011754A (en) Image processing device and image processing method
JP2008067101A (en) Image processor, image processing method, and program for performing the method
JP2004112140A (en) Image processing apparatus
JP4029997B2 (en) Color conversion apparatus, color conversion method, program, and recording medium
US20100188670A1 (en) Image processing apparatus, image processing method and program executing the image processing method
JP7077925B2 (en) Image processing equipment, image processing methods, and programs
JP2009065559A (en) Image processing apparatus, image processing method, and storage medium with image processing program stored thereon
JP6350877B2 (en) Image forming apparatus
JP2004336714A (en) Original image identifying apparatus, color copying machine, and original image identifying method
US7616343B2 (en) Image data conversion apparatus, image forming apparatus, image data conversion method and program
JP2021197717A (en) Image processing device and computer program