JP2008067101A - Image processor, image processing method, and program for performing the method - Google Patents
Image processor, image processing method, and program for performing the method Download PDFInfo
- Publication number
- JP2008067101A JP2008067101A JP2006243329A JP2006243329A JP2008067101A JP 2008067101 A JP2008067101 A JP 2008067101A JP 2006243329 A JP2006243329 A JP 2006243329A JP 2006243329 A JP2006243329 A JP 2006243329A JP 2008067101 A JP2008067101 A JP 2008067101A
- Authority
- JP
- Japan
- Prior art keywords
- value
- standard deviation
- color
- image
- average value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、スキャナを用いて色変換処理を実行する画像処理装置、画像処理方法ならびに画像処理方法を実行するプログラムに関する。 The present invention relates to an image processing apparatus that executes color conversion processing using a scanner, an image processing method, and a program that executes the image processing method.
カラーMFP(マルチファンクションプリンタ)に代表されるスキャナ搭載デバイスにおいて、原稿を読み込んだ際に特定の周期でムラが発生することがある。特に原稿の写真部において読み取りのムラが発生すると、原稿そのものが持つ網点の周期やプリンタ部で用いられるスクリーンの周期と干渉を起こし、コピー画像などでモアレが発生してしまう。そこで従来の技術ではフィルタ処理等を利用してスムージングを行い、ムラを軽減させていた。 In a scanner-mounted device typified by a color MFP (multifunction printer), unevenness may occur at a specific cycle when a document is read. In particular, when uneven reading occurs in the photograph portion of the document, it interferes with the period of halftone dots of the document itself or the period of the screen used in the printer section, and moire occurs in a copy image. Therefore, in the conventional technique, smoothing is performed using filter processing or the like to reduce unevenness.
また、読み取り時のムラには光量が関係していることが多いため、従来の技術では光量を検知する装置を用いて光量を検知し、その検知結果に基づいて読み取り値を補正する技術も採用されていた(特許文献1参照)。 In addition, since the amount of light is often related to unevenness at the time of reading, the conventional technology also uses a technology that detects the amount of light using a device that detects the amount of light and corrects the read value based on the detection result. (See Patent Document 1).
しかしながら、上述した従来のフィルタ処理では、例えばムラの周期が非常に大きい場合にはフィルタのサイズを大きくしなければならず、コストが増大するという問題があった。また、光量を検知する装置など追加の装置を導入した場合も、同様にコストが増大するという問題があった。 However, the above-described conventional filter processing has a problem in that, for example, when the period of unevenness is very large, the size of the filter must be increased, resulting in an increase in cost. Further, when an additional device such as a device for detecting the amount of light is introduced, there is a problem that the cost similarly increases.
また、ムラは特定色の特定チャネルにのみ存在する場合がある。図1は、特定チャネルに発生するムラについて説明した図である。 In addition, unevenness may exist only in a specific channel of a specific color. FIG. 1 is a diagram illustrating unevenness that occurs in a specific channel.
原稿データ101は、RGBで表されるスキャンされた原稿データであり、原稿データ101上にはオブジェクト102、103、104が存在している。ここで、オブジェクト102に着目すると、オブジェクト102は、周期的なムラのある画像105となっている。この画像105を、R、G、Bの各信号チャネルに分解したものが画像データ106、107、108である。これらの各画像データの画素値の分布を標準偏差で表すと、チャネルごとに異なっていることがわかる。図1の例では、R信号、G信号の分散値が小さいのに対して、B信号の分散値が大きくなっている。したがって、オブジェクト102で発生しているムラは、B信号に起因していると考えられる。
The
このようなデータに対してR、G、B等量にフィルタリング処理を行った場合、ムラを発生させる原因となっていないデータに対してもフィルタ処理が行われてしまう。そのため、ムラを発生させる原因となっていないデータの信号値も変わってしまい、色再現性に対して重大な影響を与えてしまう。 When filtering processing is performed on such data with R, G, B equal amounts, filtering processing is performed even on data that does not cause unevenness. For this reason, the signal value of data that does not cause unevenness also changes, which has a significant effect on color reproducibility.
また、このようなムラを少なくするために、1次元LUT(ルックアップテーブル)を用いる方法もある。図8は、ムラを少なくするために用いられる1次元LUTの入力と出力の関係を示すグラフである。 In order to reduce such unevenness, there is a method using a one-dimensional LUT (lookup table). FIG. 8 is a graph showing the relationship between the input and output of a one-dimensional LUT used to reduce unevenness.
図8(a)の1次元LUT801は、入力と出力が等しい関係にある。このようなLUTを用いた場合、入力と出力のRGB値は変わらないため、図1のようなムラもそのまま残ってしまう。そこで、図8(b)の1次元LUT802のように高濃度部をつぶしたLUTを用意する。このようなLUTを用いると、高濃度部における信号のばらつきが同じ値になるため、ムラを抑えることが可能となる。図1のオブジェクト102は高濃度部のデータであるので、図8(b)の1次元LUT802を用いればムラを無くすことが可能となる。しかし、このような手法でムラを解消すると高濃度部の階調性が無くなるため、色再現性が大きく損なわれてしまう。図8(b)の1次元LUT802を特定のチャネルにのみ用いることで、色再現性が損なわれる範囲を狭めることも可能だが、例えばB信号のLUTのみ高濃度部をつぶした場合でも、黒や青の階調性は無くなるため、色再現性の犠牲はなお大きい。したがって、ムラの解消と色再現性とを両立させることは従来の技術では難しかった。
In the one-
また、特定のチャネルに対して生じるムラは全ての画像に対して生じるわけではなく、デバイスごとにムラの度合いも異なるため、ムラが発生する特定の画像に合わせ、かつ、個別のデバイスに合わせたムラを補正する方法が望ましい。しかし、上述した方法では、特定の画像に合わせ、かつ、個別のデバイスに合わせた補正は行えないという問題があった。 In addition, unevenness that occurs for a specific channel does not occur for all images, and the degree of unevenness varies from device to device. A method of correcting unevenness is desirable. However, the above-described method has a problem in that correction cannot be performed according to a specific image and according to an individual device.
本発明は、このような問題を鑑みてなされたものである。その目的とするところは、色再現性を犠牲にせずに特定のチャネルに起因するムラを減少させ、かつ、特定の画像及び個別のデバイスに合わせてムラの補正を行う画像処理装置、画像処理方法ならびに画像処理方法を実行するプログラムを提供することである。 The present invention has been made in view of such problems. The object is to reduce the unevenness caused by a specific channel without sacrificing color reproducibility, and to correct the unevenness according to a specific image and an individual device, and an image processing method And providing a program for executing the image processing method.
このような目的を達成するために、本発明は、輝度値の補正を行うための補正テーブルを作成する補正テーブル作成手段を有する画像処理装置であって、白黒画像の印刷されたシートを色別に読取り、色別の画像を得る読取手段を有することを特徴とする。さらに、本発明の画像処理装置は、前記読取手段で得られた各画像内の輝度値から色別に平均値を得る平均値取得手段と、前記読取手段で得られた各画像内の輝度値から色別に標準偏差値を得る標準偏差取得手段とを有することを特徴とする。また、前記標準偏差取得手段で取得したある色の標準偏差値が、他の色の標準偏差値より閾値以上大きい場合に、平均値取得手段で取得された前記ある色の平均値の周辺の輝度値が、補正後収束するように補正テーブルを作成することを特徴とする。 In order to achieve such an object, the present invention provides an image processing apparatus having a correction table creating means for creating a correction table for correcting a luminance value, wherein a sheet on which a monochrome image is printed is classified by color. It has a reading means for reading and obtaining images according to colors. Further, the image processing apparatus of the present invention includes an average value obtaining unit that obtains an average value for each color from the luminance values in each image obtained by the reading unit, and a luminance value in each image obtained by the reading unit. It has a standard deviation acquisition means for obtaining a standard deviation value for each color. In addition, when the standard deviation value of a certain color acquired by the standard deviation acquisition unit is larger than the standard deviation value of other colors by a threshold or more, the luminance around the average value of the certain color acquired by the average value acquisition unit A correction table is created so that values converge after correction.
本発明によって、色再現性を犠牲にせずに特定のチャネルに起因するムラを減少させ、かつ、特定の画像及び個別のデバイスに合わせてムラの補正を行う画像処理装置、画像処理方法ならびに画像処理方法を実行するプログラムを提供することが可能になる。 According to the present invention, an image processing apparatus, an image processing method, and an image processing that reduce unevenness due to a specific channel without sacrificing color reproducibility and correct unevenness according to a specific image and an individual device. It becomes possible to provide a program for executing the method.
さらに、本発明ではサイズの大きいフィルタや追加の装置を必要としないため、より低コストでムラを補正することが可能となる。 Furthermore, since the present invention does not require a large filter or an additional device, the unevenness can be corrected at a lower cost.
本発明の実施形態は、多次元LUT(ルックアップテーブル)を備え、多次元LUTを用いて色変換を行う。本発明の一実施形態は、予め作成されている多次元LUTを個別のデバイスに合わせて調整し、再作成した多次元LUTを用いてムラを補正する。 The embodiment of the present invention includes a multidimensional LUT (lookup table), and performs color conversion using the multidimensional LUT. In one embodiment of the present invention, a multi-dimensional LUT created in advance is adjusted according to an individual device, and unevenness is corrected using the re-created multi-dimensional LUT.
以下、図面を参照しながら本発明の実施形態について詳細に説明する。
(第1の実施形態)
図2に、本実施形態に係るカラーMFPの概略構成図を示す。オートドキュメントフィーダーを含む画像読み取り部201は、束状の、または一枚の原稿画像を図示されてない光源で照射し、原稿反射像をレンズで固定撮像素子上に結像し、固定撮像素子からラスター状の画像読み取り信号をイメージ情報として得る。通常の複写機能は、この画像読み取り信号をデータ処理装置205において記録信号へ画像処理し、記録装置203に順次出力して記録媒体上に画像を形成する。この一連の処理がコピー動作である。本明細書では、この処理を対象として説明する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(First embodiment)
FIG. 2 is a schematic configuration diagram of the color MFP according to the present embodiment. An
カラーMFPへの操作者の指示は、カラーMFPに装備されたキー操作部である入力装置206に入力され、一連の動作はデータ処理装置205内の図示されてない制御部で制御される。より詳細には、制御部は、種々の演算、制御、判別などの処理動作を実行するCPU、制御プログラム等を格納するROM、処理動作中のデータや入力データなどを一時的に格納するRAMなどを備える。
An operator's instruction to the color MFP is input to an
一方、操作入力の状態表示及び処理中の画像データの表示は、表示装置204で行われる。また、記憶装置202には、画像読み取り部201で取り込んだ画像データ等を保存することができる。
On the other hand, the
ネットワークI/F207は、カラーMFPとネットワークとを接続するためのインターフェースである。これを用いることでPC等から画像データを受け取り、データ処理装置205で処理を行って、記録装置203にてプリントを行うことができる。また、画像読み取り部201で原稿画像を読み取り、データ処理装置205で処理した画像データをネットワークI/F207を介してPC等に送信することもできる。本実施形態では、プリント処理や送信処理については説明しないが、コピー処理と同様に本実施形態に適用することができる。
A network I /
図3に、カラーMFPにおける画像処理の流れを示す。図3に示した画像処理は、データ処理装置205で行われる。
FIG. 3 shows a flow of image processing in the color MFP. The image processing shown in FIG. 3 is performed by the
まず、スキャナ301にて原稿データをスキャンしてデータの読み込みを行い、デバイス依存RGB302を得る。スキャナ301は、図2の画像読み取り部201に相当する。次にステップ303の色変換1にて、デバイス依存RGB302を共通RGB305へ色変換する。ここで、共通RGBとはデバイス非依存色空間であり、L*a*b*などの一般的なデバイス非依存色空間と可逆の関係にある規格化されたRGBのことである。ステップ303の色変換1では、3D−LUT(3次元ルックアップテーブル)304を用いる。図4に、3D−LUT304の例を示す。図4の3D−LUT401は、18×18×18の大きさのLUTである。ステップ303の色変換処理では、入力されるデバイス依存のRGBデータに対していくつか候補となる入力格子点を選び、補間演算を行って出力値を求める。ここで出力値とは共通RGB305のことである。また、補間演算に関してはどのような手段を用いても問題はない。
First, the
次にステップ306にて、共通RGB305に変換した画像データを記憶装置307に格納する。次いでステップ308にて、記憶装置307から画像データの読み出しを行う。次にステップ309にて、3D−LUT310を用いて色変換2を行い、CMYK(多値)311を得る。図5に、3D−LUT310の例を示す。図5の3D−LUT501は、図4と同様に18×18×18の大きさである。図4の3D−LUT401と図5の3D−LUT501とを比較すると、入力側は同じ3次元だが出力側の次元が異なる。ステップ309の色変換処理では、入力される共通RGBデータに対していくつか候補となる入力格子点を選び、補間演算を行って出力値を求める。ここで、出力値とはCMYK(多値)311のことである。また、補間演算に関してはステップ303の例と同様に、どのような手段を用いても問題はない。
In
次いでステップ312にて、CMYK(多値)311に対してガンマ補正処理を行って階調補正を行い、ステップ313にてスクリーン処理を行ってCMYK(二値)314を得る。このデータをプリンタ315に送り、処理が終了する。
Next, in
本実施形態では、特にステップ303の色変換1で用いる3D−LUT304に着目し、このLUTを補正する。
In the present embodiment, the LUT is corrected by paying particular attention to the 3D-
図6に、本実施形態におけるLUT補正処理の流れを示す。図6に示したLUT補正処理は、データ処理装置205で行われる。
FIG. 6 shows a flow of LUT correction processing in the present embodiment. The LUT correction process illustrated in FIG. 6 is performed by the
まず、ステップ601にてサンプル画像を読み込む。ここで、サンプル画像とは、LUTを補正するための原稿画像である。
図7に、サンプル画像の例を示す。図7では、用紙701上に、パッチデータ702〜707がプリントされている。パッチデータ702〜707は、低濃度から高濃度までの様々な濃度のデータで構成されている。このサンプル画像は、RGB各信号のばらつきが同じ画像である。ここで、パッチデータの種類や数は、例示したものに限定されるわけではない。
First, in
FIG. 7 shows an example of a sample image. In FIG. 7,
次にステップ602にて、パッチデータの切り出しを行う。パッチデータの切り出し処理については、どのような手法を用いても問題ない。例えば図7のようなサンプル画像の場合、パッチデータ702〜707が個別に取り出され、RAMに格納される。次いでステップ603にて、RAMに格納された、補正処理が行われていないパッチを選択する。選択された個別のパッチデータに対して、後続の処理が行われる。
In
パッチデータはムラのある画像データであるので、ステップ604にて、パッチデータ702〜707の各々に対して、RGB各色についての画素値の平均化を行う。
Since the patch data is uneven image data, in
次にステップ605にて、ステップ604にて取得された画素値の平均値に基づき、3D−LUT304を用いて注目格子点を特定し、該特定された注目格子点に関する情報(注目格子点情報)をRAMに格納する。ここで注目格子点とは、補間演算を行う際に最も寄与率が大きくなる格子点のことである。また、後述の3D−LUTの補正の際に、テーブルの値が変わらない格子点である。図4の3D−LUT401のような18×18×18の格子点で8bitの画像データの画素値の平均値が(R,G,B)=(0,15,30)の場合、格子点間隔は255÷17=15となる。したがって、注目格子点を図4の3D−LUT401の入力格子点アドレスで表すと、(R,G,B)=(0,1,2)となる。すなわち、ステップ605では、パッチデータ702〜707の各々に対して、注目格子点を特定する。
Next, in
一方、ステップ606にて、ステップ603で選択されるパッチデータ702〜707に対してチャネル分割を行う。本実施形態ではRGBを例としているので、パッチデータはR信号とG信号とB信号とに分割される。次いでステップ607にて、各チャネルに対して分散値を計算する。ここではパッチデータの画素値のばらつき度合いを調べることが目的であるため、ばらつき度合いを調べることができる計算式であれば、例えば標準偏差などを用いることもできる。次いでステップ608にて、全てのチャネルを処理したかどうか、すなわち全てのチャネルについての分散値の計算を終了したか否かの判定を行い、処理をしていない場合はステップ607へ戻り、まだ計算していないチャネルの分散値を計算する。全てのチャネルの分散値を計算した後、ステップ609にて各チャネルの分散値を比較し、最も分散値の大きいチャネルを特定し、特定したチャネルとその分散値とをチャネル情報610としてRAMに格納する。
On the other hand, in
次にステップ611にて、特定した注目格子点とチャネル情報610とを用いて、補正対象格子点を抽出し、RAMに格納する。
Next, at
図9に、補正対象格子点の抽出処理の流れの例を示す。図9に示す補正対象格子点の抽出処理も、図6と同様にデータ処理装置205で行われる。
FIG. 9 shows an example of the flow of extraction processing of correction target grid points. 9 is also performed by the
まず、ステップ901にて、ステップ605にてRAMに格納された注目格子点情報を抽出する。次にステップ902にて、チャネル情報610を抽出する。ここでは、ステップ609で特定したチャネルと、ステップ607で計算した分散値とを抽出する。次いでステップ903にて、分散値テーブル904を抽出する。
First, in
図10に、分散値テーブル904の例1001を示す。分散レベルは分散値の大きさを表しており、分散レベルの値が大きければ大きいほど信号値の分散、すなわちムラが大きいデータを対象としている。閾値は、算出した分散値に対する閾値であり、分散レベルが大きくなるにつれて閾値も大きくなる。分散値テーブル1001では、閾値はa<b<cという関係となる。例えば、算出した分散値が閾値aよりも大きく、閾値b以下である場合、分散レベルは2となる。また、格子点範囲は、注目格子点を中心にして補正対象とする格子点の数を表す。分散値テーブル904は図10の例に限らず、どのような形式であってもよい。 FIG. 10 shows an example 1001 of the variance value table 904. The dispersion level represents the size of the dispersion value, and the larger the dispersion level value, the more the dispersion of signal values, that is, data with greater unevenness. The threshold is a threshold for the calculated variance value, and the threshold increases as the variance level increases. In the variance value table 1001, the threshold values have a relationship of a <b <c. For example, when the calculated variance value is greater than the threshold value a and less than or equal to the threshold value b, the variance level is 2. The grid point range represents the number of grid points to be corrected around the target grid point. The variance value table 904 is not limited to the example of FIG.
次にステップ905にて、分散レベルを決定する。ここではステップ902で抽出したチャネル情報610の分散値を参照して、分散値テーブル1001の閾値情報を基に分散レベルを決定する。すなわち、チャネル情報610に含まれる分散値と、分散値テーブル904の閾値とを比較して、該当する分散レベルを取得する。次いでステップ906にて、ステップ905にて決定された分散レベルに基づいて、分散値テーブル1001から分散レベルに対応した格子点範囲を抽出する。最後にステップ907にて、注目格子点と抽出した格子点範囲の情報とを基に、補正対象格子点を決定し、RAMに格納して処理が終了する。補正対象格子点を決定する際に、マイナスや格子点数以上の値が算出された場合は、抽出対象から除外する。例えば、18×18×18のLUTを対象としている場合、(0,0,0)〜(17,17,17)までの範囲の格子点が補正対象となり得る。
Next, at
例として、注目格子点が(R,G,B)=(1,1,3)で、チャネル情報のチャネルがB信号であり、分散値がbよりも大きくcよりも小さい場合について説明する。分散値テーブル1001を参照すると分散レベルは3となり、格子点範囲が2に決まる。チャネルはB信号であるので、(1,1,1)、(1,1,2)、(1,1,4)、(1,1,5)が補正対象格子点となる。 As an example, a case where the target lattice point is (R, G, B) = (1, 1, 3), the channel of the channel information is a B signal, and the variance value is larger than b and smaller than c will be described. Referring to the dispersion value table 1001, the dispersion level is 3, and the lattice point range is determined to be 2. Since the channel is a B signal, (1, 1, 1), (1, 1, 2), (1, 1, 4), and (1, 1, 5) are correction target lattice points.
以上のようにして、ステップ611にて補正対象格子点を決定した後、ステップ612にて補正対象格子点の補正処理を実行する。
As described above, after the correction target lattice point is determined in
図11に、補正対象格子点の補正処理の流れの例を示す。図11に示す補正対象格子点の補正処理も、図6と同様にデータ処理装置205で行われる。
まず、ステップ1101にて注目格子点AをRAMから抽出する。次にステップ1102にて、RAMから補正対象格子点Bを抽出する。次いでステップ1103にて、各チャネルに対応したデータを抽出する。本実施形態では、出力値がRGBであるテーブルを対象としているので、R信号、G信号、B信号のそれぞれのデータを3D−LUT304から抽出する。次にステップ1104にて、注目格子点Aと補正対象格子点Bとを用いて補正対象格子点の補正後の格子点Cを算出する。ここで、補正後の格子点Cは、次式を用いて算出することができる。
C=(A+B)÷2
この式は、補正対象格子点の値を、注目格子点の値に近づけることを目的としている。しかしながら、この式では注目格子点と補正対象格子点との距離が考慮されないため、補正後の格子点の値と、補正対象外の格子点の値との違いが大きくなってしまう。そこで、注目格子点と補正対象格子点との距離を考慮した重み(ここでは、Wとする。)を用いて、次式により補正後の格子点Cを算出することもできる。
C=(WA+B)÷2
ここでは、補正後の格子点Cの算出式を2つ例示したが、算出式はこれらに限定されるものではない。
FIG. 11 shows an example of the flow of correction processing of a correction target grid point. 11 is also performed by the
First, in
C = (A + B) / 2
This equation is intended to bring the value of the correction target lattice point closer to the value of the target lattice point. However, since the distance between the target lattice point and the correction target lattice point is not considered in this expression, the difference between the value of the corrected lattice point and the value of the lattice point outside the correction target becomes large. Therefore, the corrected lattice point C can be calculated by the following equation using a weight (in this case, W) taking into account the distance between the target lattice point and the correction target lattice point.
C = (WA + B) / 2
Here, two calculation formulas for the corrected lattice point C are illustrated, but the calculation formulas are not limited to these.
次にステップ1105にて、補正対象格子点の補正後の格子点Cを3D−LUT304に格納する。次いでステップ1106にて、全てのチャネルを処理したかどうかの判定を行い、処理していない場合はステップ1103に戻り新しいチャネルデータを抽出する。全てのチャネルを処理している場合は、ステップ1107にて全ての補正対象格子点を処理したかどうかの判定を行う。全ての補正対象格子点を処理していない場合はステップ1102にて補正対象格子点を新たに抽出する。全ての補正対象格子点を処理している場合は、処理を終了する。
In
図12に、補正対象格子点の補正処理を実行した後の3D−LUT304の例を示す。ここでは3D−LUT304を図4の3D−LUT401として補正処理を実行した例を示している。また、注目格子点は(R,G,B)=(1,1,3)で、補正対象格子点は(1,1,1)、(1,1,2)、(1,1,4)、(1,1,5)としている。3D−LUT1201は、補正対象格子点を平滑化した後の3D−LUTである。斜体と下線で示す出力値が補正処理後の出力値であり、図4の3D−LUT401に比べて注目格子点(R,G,B)=(1,1,3)に近い値となっている。
FIG. 12 shows an example of the 3D-
図6のステップ612にて補正対象格子点の補正処理を行った後、補正された格子点と補正された格子点の周囲にある画素との間で画素値のギャップが大きくなる。そのため、ステップ613にてスムージング処理を行う。
After performing the correction processing of the correction target grid point in
図13に、スムージング処理の流れの例を示す。まず、ステップ1301にて、3D−LUT304の格子点を抽出する。次にステップ1302にて、抽出した格子点がステップ612で補正した格子点か否かを判定する。補正した格子点か否かの判定は、補正前と補正後のテーブルの比較を行うなど、どのような手段を使ってもよい。抽出した格子点が補正した格子点である場合はその後の処理を行わず、ステップ1306にて全ての格子点をチェックしたかどうかの判定を行う。抽出した格子点が補正した格子点ではない場合は、ステップ1303にて近傍格子点を抽出する。次いでステップ1304にて、補正した格子点が近傍にあるかどうかの判定を行う。近傍に格子点がない場合はスムージング処理を行わずにステップ1306へ進む。近傍に格子点がある場合はステップ1305にて、スムージング処理を行う。ここで、スムージング処理はどのようなものであってもよい。スムージング処理を行った後、ステップ1306にて全ての格子点をチェックしたかどうかを判定し、チェックしていない場合はステップ1301へと戻り次の格子点を抽出する。全ての格子点をチェックした場合は処理を終了する。
FIG. 13 shows an example of the flow of the smoothing process. First, at
以上の処理により、補正された格子点と補正されていない格子点との間に発生する画素値のギャップを軽減することができる。補正対象格子点を補正した時点でギャップが発生していない場合には、スムージング処理を省略してもよい。 With the above processing, it is possible to reduce a gap between pixel values generated between a corrected lattice point and an uncorrected lattice point. If no gap is generated when the correction target grid point is corrected, the smoothing process may be omitted.
このようにしてスムージング処理を行った後、ステップ614にて、補正した3D−LUT304を格納する。次いでステップ615にて、全てのパッチデータを処理したかどうかの判定を行い、まだ処理していないパッチデータがある場合はステップ603に戻り、補正処理が行われていないパッチを選択する。全てのパッチデータを処理している場合は、処理を終了する。
After performing the smoothing process in this manner, in
本実施形態ではコピー動作を例として説明したが、デバイス依存RGBを共通RGBに変換する3D−LUTを用いる処理であれば、送信処理など、どのような動作に対しても適用することができる。また、色変換に用いるLUTが多次元であれば、どのようなLUTに対しても適用することができる。例えば、入力がCMYKの4次元のLUTに対しても適用することができる。 Although the copy operation has been described as an example in the present embodiment, any processing such as transmission processing can be applied as long as the processing uses a 3D-LUT that converts device-dependent RGB into common RGB. Further, any LUT can be applied as long as the LUT used for color conversion is multidimensional. For example, the present invention can be applied to a CMYK four-dimensional LUT.
以上説明したように、本実施形態によれば、3D−LUTの特定の格子点の補正を行うことで、色再現性を犠牲にする事無くスキャン時に発生するムラを軽減させることが可能になる。また、画素値のばらつき度合いを調べて特定したチャネルを処理することで、特定の画像及び個別のデバイスに合わせてムラを軽減させることが可能となる。 As described above, according to the present embodiment, by correcting specific grid points of the 3D-LUT, it is possible to reduce unevenness that occurs during scanning without sacrificing color reproducibility. . Further, by processing the channel specified by examining the degree of variation in pixel values, it is possible to reduce unevenness in accordance with a specific image and an individual device.
(第2の実施形態)
第1の実施形態では、デバイス依存RGBを共通RGBに変換する3D−LUT304を補正する例を説明したが、本実施形態では、共通RGBをCMYK(多値)に変換する3D−LUT310を補正対象とした場合について説明する。
(Second Embodiment)
In the first embodiment, the example of correcting the 3D-
LUTの補正処理の流れは、第1の実施形態と同様に図6のようになっているため、詳細な説明は省略する。本実施形態では、図6の3D−LUT304は、3D−LUT310である。また、図14に、ステップ612における補正対象格子点の補正処理を実行した後の3D−LUT1401を示す。ここでは図6の3D−LUT304を図5の3D−LUT501とした例を示している。また、注目格子点が(R,G,B)=(1,1,3)で、補正対象格子点は(1,1,1),(1,1,2)、(1,1,4)、(1,1,5)である。斜体と下線で示す出力値が補正後の出力値であり、図5の3D−LUT501に比べて注目格子点(R,G,B)=(1,1,3)に近い値となっている。
Since the flow of the LUT correction process is as shown in FIG. 6 as in the first embodiment, detailed description thereof is omitted. In the present embodiment, the 3D-
本実施形態では特に、UCR処理(アンダーカラー除去処理)におけるK(黒)の量を直接補正することができるため、第1の実施形態に比べてより効果的にムラを補正することが可能となる。さらに、スキャンされた画像に対してだけではなく、ドライバを介して得られる画像データに対してもムラの補正を行うことができる。 In the present embodiment, in particular, the amount of K (black) in the UCR process (under color removal process) can be directly corrected, so that unevenness can be corrected more effectively than in the first embodiment. Become. Furthermore, unevenness correction can be performed not only on a scanned image but also on image data obtained via a driver.
(その他の実施形態)
さらに本発明は、複数の機器(例えばコンピュータ、インターフェース機器、リーダ、プリンタなど)から構成されるシステムに適用することも、1つの機器からなる装置(複合機、プリンタ、ファクシミリ装置など)に適用することも可能である。
(Other embodiments)
Furthermore, the present invention can be applied to a system constituted by a plurality of devices (for example, a computer, an interface device, a reader, a printer, etc.) or an apparatus (multifunction device, printer, facsimile machine, etc.) comprising a single device. It is also possible.
また、本発明の目的は、上述の実施例で示したフローチャートの手順を実現するプログラムを記憶した記憶媒体から、システムまたは装置のコンピュータ(または、CPUやMPU)が、そのプログラムを読み出し、実行することによっても達成される。この場合、記憶媒体から読み出されたプログラム自体が上述した実施形態の機能を実現することになる。そのため、このプログラム、およびプログラムを格納した記憶媒体も本発明の一つを構成する。 Another object of the present invention is to read and execute a program of a system or apparatus (or CPU or MPU) from a storage medium storing a program for realizing the procedure of the flowchart shown in the above-described embodiment. Can also be achieved. In this case, the program itself read from the storage medium realizes the functions of the above-described embodiment. Therefore, this program and a storage medium storing the program also constitute one aspect of the present invention.
プログラムを供給するための記憶媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。 As a storage medium for supplying the program, for example, a floppy (registered trademark) disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like is used. Can do.
コンピュータが読み出したプログラムを実行することにより、上述した実施形態の機能が実現される。加えて、そのプログラムの指示に基づきコンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって上述した実施形態の機能が実現される場合も含まれる。 The functions of the above-described embodiment are realized by executing the program read by the computer. In addition, an OS (operating system) running on the computer based on the instruction of the program performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing. It is.
さらに、記憶媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる場合も可能である。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって上述した実施形態の機能が実現される。 Furthermore, the program read from the storage medium may be written to a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instructions of the program, and the functions of the above-described embodiments are realized by the processing.
304 3D−LUT
610 チャネル情報(分散値・チャネル)
304 3D-LUT
610 Channel information (dispersion value / channel)
Claims (5)
白黒画像の印刷されたシートを色別に読取り、色別の画像を得る読取手段と、
前記読取手段で得られた各画像内の輝度値から色別に平均値を得る平均値取得手段と、
前記読取手段で得られた各画像内の輝度値から色別に標準偏差値を得る標準偏差取得手段とを有し、
前記標準偏差取得手段で取得したある色の標準偏差値が、前記標準偏差取得手段で取得した他の色の標準偏差値より閾値以上大きい場合に、
前記補正テーブル作成手段は、
平均値取得手段で取得された前記ある色の平均値の周辺の輝度値が、補正後収束するように補正テーブルを作成することを特徴とする画像処理装置。 An image processing apparatus having a correction table creating means for creating a correction table for correcting a luminance value,
Reading means for reading a printed sheet of a black and white image by color and obtaining an image by color;
Average value obtaining means for obtaining an average value for each color from the luminance values in each image obtained by the reading means;
Standard deviation obtaining means for obtaining a standard deviation value for each color from the luminance value in each image obtained by the reading means,
When the standard deviation value of a certain color acquired by the standard deviation acquisition unit is larger than a threshold value by a standard deviation value of another color acquired by the standard deviation acquisition unit,
The correction table creating means includes
An image processing apparatus that creates a correction table so that luminance values around the average value of the certain color acquired by the average value acquisition unit converge after correction.
前記標準偏差取得手段で取得したある色の標準偏差値が、前記標準偏差取得手段で取得した他の色の標準偏差値より閾値以上大きい場合に、
前記補正テーブル作成手段は、
前記平均値取得手段で取得された前記他の色の平均値に相当する輝度値を制約条件とした上で、平均値取得手段で取得された前記ある色の平均値の周辺の輝度値が、補正後収束するように補正テーブルを作成することを特徴とする請求項1に記載の画像処理装置。 The correction table creating means includes
When the standard deviation value of a certain color acquired by the standard deviation acquisition unit is larger than a threshold value by a standard deviation value of another color acquired by the standard deviation acquisition unit,
The correction table creating means includes
With the luminance value corresponding to the average value of the other color acquired by the average value acquisition unit as a constraint, the luminance value around the average value of the certain color acquired by the average value acquisition unit is The image processing apparatus according to claim 1, wherein a correction table is created so as to converge after correction.
白黒画像の印刷されたシートを色別に読取り、色別の画像を得る読取ステップと、
前記読取ステップで得られた各画像内の輝度値から色別に平均値を得る平均値取得ステップと、
前記読取ステップで得られた各画像内の輝度値から色別に標準偏差値を得る標準偏差取得ステップとを有し、
前記標準偏差取得ステップで取得したある色の標準偏差値が、前記標準偏差取得ステップで取得した他の色の標準偏差値より閾値以上大きい場合に、
前記補正テーブル作成ステップは、
平均値取得ステップで取得された前記ある色の平均値の周辺の輝度値が、補正後収束するように補正テーブルを作成することを特徴とする画像処理方法。 An image processing method having a correction table creation step for creating a correction table for correcting a luminance value,
Reading a printed sheet of a black and white image by color and obtaining an image by color; and
An average value obtaining step of obtaining an average value for each color from the luminance value in each image obtained in the reading step;
A standard deviation obtaining step of obtaining a standard deviation value for each color from the luminance value in each image obtained in the reading step,
When the standard deviation value of a certain color acquired in the standard deviation acquisition step is larger than a threshold value by a standard deviation value of another color acquired in the standard deviation acquisition step,
The correction table creation step includes
An image processing method, wherein a correction table is created so that luminance values around the average value of the certain color acquired in the average value acquisition step converge after correction.
前記標準偏差取得ステップで取得したある色の標準偏差値が、前記標準偏差取得ステップで取得した他の色の標準偏差値より閾値以上大きい場合に、
前記補正テーブル作成ステップは、
前記平均値取得ステップで取得された前記他の色の平均値に相当する輝度値を制約条件とした上で、平均値取得ステップで取得された前記ある色の平均値の周辺の輝度値が、補正後収束するように補正テーブルを作成することを特徴とする請求項3に記載の画像処理方法。 The correction table creation step includes
When the standard deviation value of a certain color acquired in the standard deviation acquisition step is larger than a threshold value by a standard deviation value of another color acquired in the standard deviation acquisition step,
The correction table creation step includes
With the luminance value corresponding to the average value of the other color acquired in the average value acquisition step as a constraint, the luminance value around the average value of the certain color acquired in the average value acquisition step is The image processing method according to claim 3, wherein a correction table is created so as to converge after correction.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006243329A JP2008067101A (en) | 2006-09-07 | 2006-09-07 | Image processor, image processing method, and program for performing the method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006243329A JP2008067101A (en) | 2006-09-07 | 2006-09-07 | Image processor, image processing method, and program for performing the method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008067101A true JP2008067101A (en) | 2008-03-21 |
Family
ID=39289397
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006243329A Pending JP2008067101A (en) | 2006-09-07 | 2006-09-07 | Image processor, image processing method, and program for performing the method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008067101A (en) |
-
2006
- 2006-09-07 JP JP2006243329A patent/JP2008067101A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7903872B2 (en) | Image-processing apparatus and method, computer program, and storage medium | |
US8175155B2 (en) | Image processing apparatus, image processing method, image processing program, and storage medium | |
US9036199B2 (en) | Image processing apparatus for performing color matching processing, image processing method, and computer-readable medium | |
JP4883789B2 (en) | Image processing apparatus and image processing method | |
JP4700721B2 (en) | Image processing device | |
JP6379794B2 (en) | Image processing apparatus, image processing method, and image processing system | |
JP2009100026A (en) | Image processor | |
JP6808325B2 (en) | Image processing equipment, image processing methods and programs | |
US7940984B2 (en) | Image processing apparatus, image processing method, and computer program product | |
JP2018007123A (en) | Image processing device, image processing method, and program | |
US8189235B2 (en) | Apparatus, method and program product that calculates a color blending ratio so security dots reproduced in a monochrome image are substantially undetectable | |
JP4659789B2 (en) | Image processing apparatus, image processing method, program, and recording medium | |
JP2019134232A (en) | Image formation device, and method and program for the device | |
JP4814162B2 (en) | Image processing apparatus and image processing method | |
JP2006011754A (en) | Image processing device and image processing method | |
JP2008067101A (en) | Image processor, image processing method, and program for performing the method | |
JP2004112140A (en) | Image processing apparatus | |
JP4029997B2 (en) | Color conversion apparatus, color conversion method, program, and recording medium | |
US20100188670A1 (en) | Image processing apparatus, image processing method and program executing the image processing method | |
JP7077925B2 (en) | Image processing equipment, image processing methods, and programs | |
JP2009065559A (en) | Image processing apparatus, image processing method, and storage medium with image processing program stored thereon | |
JP6350877B2 (en) | Image forming apparatus | |
JP2004336714A (en) | Original image identifying apparatus, color copying machine, and original image identifying method | |
US7616343B2 (en) | Image data conversion apparatus, image forming apparatus, image data conversion method and program | |
JP2021197717A (en) | Image processing device and computer program |