JP4637686B2 - Color conversion apparatus, image forming apparatus, color conversion method, and computer program - Google Patents

Color conversion apparatus, image forming apparatus, color conversion method, and computer program Download PDF

Info

Publication number
JP4637686B2
JP4637686B2 JP2005246743A JP2005246743A JP4637686B2 JP 4637686 B2 JP4637686 B2 JP 4637686B2 JP 2005246743 A JP2005246743 A JP 2005246743A JP 2005246743 A JP2005246743 A JP 2005246743A JP 4637686 B2 JP4637686 B2 JP 4637686B2
Authority
JP
Japan
Prior art keywords
color
pixel
region
unit
dimensional lut
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005246743A
Other languages
Japanese (ja)
Other versions
JP2006197549A (en
Inventor
岳 古市
千鶴 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2005246743A priority Critical patent/JP4637686B2/en
Publication of JP2006197549A publication Critical patent/JP2006197549A/en
Application granted granted Critical
Publication of JP4637686B2 publication Critical patent/JP4637686B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Description

本発明は、テーブル参照法により色補正処理を行う色変換装置、該色変換装置を備えた画像形成装置、前記色変換装置を実現するための色変換方法及びコンピュータプログラムに関する。   The present invention relates to a color conversion apparatus that performs color correction processing by a table reference method, an image forming apparatus including the color conversion apparatus, a color conversion method for realizing the color conversion apparatus, and a computer program.

デジタルカラー複写機、デジタルカラー複合機等の画像処理装置では、通常、第1の表色系のRGB信号(複写機の場合はスキャナRGB、プリンタ装置の場合はsRGBなど)を受け取り、その信号を第2の表色系のCMY信号又はCMYK信号に変換して所望の出力画像を得る。この変換は現在の主流としては3次元ルックアップテーブルを用いた線形補間で行われている。この補間は線形補間であるため、第1の表色系の色空間と第2の表色系の色空間の関係が線形である場合には、良好な色変換が行えるが、そうでない場合は計算誤差が大きくなるという問題点がある。通常、第1の表色系のRGB信号と第2の表色系のCMY信号又はCMYK信号との間の関係は線形でないため、計算誤差が大きくなる。   Image processing apparatuses such as digital color copiers and digital color multifunction peripherals usually receive RGB signals of the first color system (scanner RGB in the case of copiers, sRGB in the case of printer apparatuses, etc.) and receive the signals. A desired output image is obtained by converting into a CMY signal or CMYK signal of the second color system. This conversion is currently performed by linear interpolation using a three-dimensional lookup table. Since this interpolation is linear interpolation, good color conversion can be performed when the relationship between the color space of the first color system and the color space of the second color system is linear. There is a problem that calculation error becomes large. Usually, since the relationship between the RGB signal of the first color system and the CMY signal or CMYK signal of the second color system is not linear, the calculation error increases.

そこで通常は3次元ルックアップテーブルを用いた補間の前に、1次元ルックアップテーブルを置き、第1の表色系のRGB信号と第2の表色系のCMY信号又はCMYK信号との間の非線形性を補正することで、計算誤差の増加を防いでいる(例えば、特許文献1参照)。   Therefore, a one-dimensional lookup table is usually placed before interpolation using a three-dimensional lookup table, and between the first color system RGB signal and the second color system CMY signal or CMYK signal. By correcting the non-linearity, an increase in calculation error is prevented (see, for example, Patent Document 1).

また、文字画像又は網点画像と写真画像とでは、使われる色材が異なるため、それ自身が持つ分光特性が異なっている。そのため、人にとっては同じ色に見えても、スキャナの分光感度が人の目の分光感度と異なるため、スキャナ装置の読取り値が異なることがある。逆に、スキャナ装置の読取り値は同じでも、人にとっては見え方が異なる場合がある。このような問題から、色材が異なる場合は色補正テーブルを変更した方が各画像を良好に再現できることが知られている。   Further, since the color material used differs between the character image or halftone dot image and the photographic image, the spectral characteristics of the character image or halftone dot image are different. For this reason, even if it looks to the same color for humans, the scanner's spectral sensitivity is different from that of the human eye, so the reading value of the scanner device may be different. Conversely, even if the reading value of the scanner device is the same, it may be viewed differently by humans. From such a problem, it is known that when the color material is different, each image can be reproduced well by changing the color correction table.

また、文字画像又は網点画像と写真画像とでは、最適な中間調処理が異なる。例えば、文字に対してはエッジ効果を高めるような中間調処理、網点画像に対してはモアレを目立たなくする処理、写真画像に対してはハイライト部や階調再現を重視した中間調処理になっている。このように、各画像の特徴に合わせて中間調を変えると、色補正処理もそれに合わせて処理を行わない場合には、色差が大きくなり、高精度な色再現を行うことが難しい。つまり、高画質な色変換を行うためには、入力画像の色材(印刷、又は銀塩写真の区別)、及びその特徴(例えば、文字画像、網点画像、写真画像等の区別)により、色変換処理を変更することが要求される。   Further, the optimum halftone processing differs between a character image or halftone dot image and a photographic image. For example, halftone processing that enhances the edge effect for text, processing that makes moire inconspicuous for halftone images, and halftone processing that emphasizes highlight and tone reproduction for photographic images It has become. As described above, when the halftone is changed in accordance with the characteristics of each image, if the color correction processing is not performed in accordance with that, the color difference becomes large, and it is difficult to perform high-precision color reproduction. In other words, in order to perform color conversion with high image quality, depending on the color material of the input image (printing or silver salt photography distinction) and its characteristics (for example, distinction between character images, halftone dot images, photographic images, etc.), It is required to change the color conversion process.

このような問題を解決するために、原稿画像に含まれる写真画像および文字画像の特徴に応じた色処理及び中間調処理を行い、原稿画像を良好に再現する画像処理装置が知られている(例えば、特許文献2参照)。図51及び図52は従来の画像処理装置の要部構成を示すブロック図である。図51に示した画像処理装置は、1次元LUT計算部101と3次元LUT計算部102とからなる色変換部100を備えている。1次元LUT計算部101には、デジタルのRGB信号、及び文字・網点領域(第1領域とする)と写真領域(第2領域とする)との区別を示す領域識別信号が入力される。1次元LUT計算部101のアドレス参照部101aは、入力された領域識別信号に基づき、利用する1次元ルックアップテーブルを第1領域用または第2領域用のものに切替え、切替えた1次元ルックアップテーブルに基づき非線形性の補正の補正を行う。   In order to solve such a problem, there is known an image processing apparatus that performs color processing and halftone processing according to the characteristics of a photographic image and a character image included in a document image and reproduces the document image satisfactorily ( For example, see Patent Document 2). 51 and 52 are block diagrams showing the configuration of main parts of a conventional image processing apparatus. The image processing apparatus shown in FIG. 51 includes a color conversion unit 100 including a one-dimensional LUT calculation unit 101 and a three-dimensional LUT calculation unit 102. The one-dimensional LUT calculation unit 101 receives a digital RGB signal and a region identification signal indicating a distinction between a character / halftone dot region (referred to as a first region) and a photograph region (referred to as a second region). Based on the input region identification signal, the address reference unit 101a of the one-dimensional LUT calculation unit 101 switches the one-dimensional lookup table to be used to the one for the first region or the one for the second region, and performs the switched one-dimensional lookup. Based on the table, non-linearity correction is performed.

また、3次元LUT計算部102では、1次元LUT計算部101から出力されるRGB信号を受取り、重み付け計算部102aによって所望の重み付けを計算すると共に、アドレス計算部102bが領域識別信号に基づき、利用する3次元ルックアップテーブルを第1領域用または第2領域用のものに切替え、切替えた3次元ルックアップテーブルにアクセスすることによって色補正値を取得する。そして、重み付け計算部102aが計算した重み付け、及びアドレス計算部102bが取得した色補正値に基づき、補間演算部102cが補間演算を行うことによって出力画像信号であるCMY信号を取得する。   The three-dimensional LUT calculation unit 102 receives the RGB signal output from the one-dimensional LUT calculation unit 101, calculates a desired weight by the weight calculation unit 102a, and uses the address calculation unit 102b based on the region identification signal. The color correction value is acquired by switching the three-dimensional lookup table to be used for the first region or the second region and accessing the switched three-dimensional lookup table. Then, based on the weight calculated by the weight calculation unit 102a and the color correction value acquired by the address calculation unit 102b, the interpolation calculation unit 102c performs an interpolation calculation to acquire a CMY signal that is an output image signal.

図52に示した画像処理装置は、所定の色補正を行う数種類の色変換部110a〜110dを備えており、領域識別信号により切替部111が出力を切替えることによって、領域に応じて良好に色補正した出力画像信号(CMY信号)を取得する構成となっている。
特開2003−110865号公報 特許第2989611号公報 特開平10−70669号公報
The image processing apparatus shown in FIG. 52 includes several types of color conversion units 110a to 110d that perform predetermined color correction, and the switching unit 111 switches the output according to the region identification signal, so that the color can be favorably selected according to the region. The corrected output image signal (CMY signal) is obtained.
Japanese Patent Laid-Open No. 2003-110865 Japanese Patent No. 2999611 JP-A-10-70669

しかしながら、図51及び図52に示した画像処理装置では、色変換の精度を上げることが可能であるが、色補正テーブル(又はマトリックス)の色変換回路を必要な画像分だけ回路を持つことになる。すなわち、切替える画像種別の数ほど、同じ色変換回路が必要となる。そのため、切替処理によって、回路が冗長となり、回路規模が大きくなるため、コスト高を招くといった問題点が挙げられる。   However, in the image processing apparatus shown in FIGS. 51 and 52, it is possible to improve the accuracy of color conversion, but the color conversion circuit of the color correction table (or matrix) has a circuit for a necessary image. Become. That is, the same number of color conversion circuits is required as the number of image types to be switched. For this reason, the switching process makes the circuit redundant and increases the circuit scale, resulting in an increase in cost.

このような問題点に対処するため、特定色領域の入力に対し演算処理を行い、入力色空間において色の存在しない別の領域内に線形に写像して補間演算を行い、単位体積あたりの頂点数を増やして色変換を行う色変換装置が提案されている(例えば、特許文献3参照)。   In order to deal with such problems, arithmetic processing is performed on the input of a specific color area, interpolation is performed by linear mapping in another area where no color exists in the input color space, and vertices per unit volume A color conversion device that performs color conversion by increasing the number has been proposed (see, for example, Patent Document 3).

しかしながら、特定色領域を判定するための手段が複雑になると同時に、演算を施してマッピングするため、演算手段が必要になる。また、入力画像データの色再現域の形状によっては、特定色領域を色の存在しない領域にマッピングする際の演算方法が複雑になる可能性があり、回路規模が大きくなり、コストの上昇を招いてしまう。また、データのない領域にマッピングするため、格納するデータの大きさや数が限定され、精度が低下する虞があるといった問題点を有している。   However, the means for determining the specific color region is complicated, and at the same time, the calculation means is necessary because the calculation is performed and the mapping is performed. In addition, depending on the shape of the color gamut of the input image data, the calculation method for mapping a specific color area to an area where no color exists may be complicated, resulting in an increase in circuit scale and an increase in cost. I will. In addition, since mapping is performed in an area without data, there is a problem that the size and number of data to be stored are limited, and the accuracy may be reduced.

本発明は斯かる事情に鑑みてなされたものであり、効率的なテーブルメモリの保持を可能とし、色補正テーブルの切替えを実行せずに簡易な回路構成により色変換を行える色変換装置、該色変換装置を備えた画像形成装置、前記色変換装置を実現するための色変換方法及びコンピュータプログラムを提供することを目的とする。   SUMMARY OF THE INVENTION The present invention has been made in view of such circumstances, and a color conversion device capable of efficiently holding a table memory and performing color conversion with a simple circuit configuration without executing switching of a color correction table, An object of the present invention is to provide an image forming apparatus provided with a color conversion apparatus, a color conversion method for realizing the color conversion apparatus, and a computer program.

本発明に係る色変換装置は、複数の画素からなり、識別可能な1又は複数の領域を含む入力画像の各画素に色変換を施して出力画像を生成する色変換装置において、各画素の属する領域の特徴に応じて変換後の画素値が一意に定まり、しかも変換後の画素値の範囲が領域間で連続するように入力画像の各画素の画素値を変換する変換手段と、変換後の画素値の範囲により定まる色空間を均等に分割した格子点での色補正値を格納してあり、色成分毎の格子点数を予め定めてある色補正テーブルと、該色補正テーブルから読出した色補正値を用いて前記画素に対する補間演算を行う演算手段とを備えることを特徴とする。 The color conversion device according to the present invention is a color conversion device that includes a plurality of pixels and performs color conversion on each pixel of an input image including one or more identifiable regions to generate an output image. A conversion means for converting the pixel value of each pixel of the input image so that the pixel value after conversion is uniquely determined according to the characteristics of the region and the range of the converted pixel value is continuous between the regions ; Stores color correction values at grid points obtained by equally dividing the color space determined by the range of pixel values, a color correction table in which the number of grid points for each color component is predetermined, and colors read from the color correction table And a calculation means for performing an interpolation calculation on the pixel using a correction value.

本発明にあっては、各画素の属する領域の特徴に応じて変換後の画素値の範囲が異なるような変換を行い、変換後の画素値の範囲により定まる色空間について規定した色補正テーブルを用いて補間演算を行うようにしているため、例えば、各画素が属する領域の特徴に応じて定めた複数種の1次元ルックアップテーブルと、1次元ルックアップテーブルによって変換した後の画素値の範囲に応じて規定した1つの3次元ルックアップテーブルとを用いることにより、入力画像の各画素が属する領域又は原稿種別に応じた適切な色変換処理が行える。また、各格子点の間隔が全色成分で一定であるため、入力画像における各画素の近傍の格子点を算出する場合は各色成分を同じ数で除算すればよく、1つの演算回路により全色成分の格子点が算出される。   In the present invention, conversion is performed such that the range of pixel values after conversion differs according to the characteristics of the area to which each pixel belongs, and a color correction table that defines a color space determined by the range of pixel values after conversion is defined. Therefore, for example, a plurality of types of one-dimensional lookup tables determined according to the characteristics of the region to which each pixel belongs and a range of pixel values after conversion by the one-dimensional lookup table By using one three-dimensional lookup table defined according to the above, it is possible to perform an appropriate color conversion process according to the area or document type to which each pixel of the input image belongs. Further, since the interval between the grid points is constant for all color components, when calculating the grid points in the vicinity of each pixel in the input image, it is sufficient to divide each color component by the same number so that all the colors are obtained by one arithmetic circuit. Component grid points are calculated.

本発明に係る色変換装置は、前記変換手段は、前記入力画像の各画素の画素値に加算すべきオフセットを前記領域に応じて設定する手段と、設定したオフセットを前記画素値に加算する手段と、前記オフセットを加算した各画素の画素値と変換後の画素値との関係を規定した1次元ルックアップテーブルと、該1次元ルックアップテーブルに基づいて画素値を変換する手段とを備えることを特徴とする。   In the color conversion apparatus according to the present invention, the conversion means sets means for setting an offset to be added to the pixel value of each pixel of the input image according to the region, and means for adding the set offset to the pixel value. And a one-dimensional lookup table defining the relationship between the pixel value of each pixel to which the offset is added and the pixel value after conversion, and means for converting the pixel value based on the one-dimensional lookup table It is characterized by.

本発明にあっては、入力画像の各画素の画素値に加算すべきオフセットを領域に応じて設定し、設定したオフセットを加算した後、1次元ルックアップテーブルに基づいて画素値の変換を行うようにしているため、複数の1次元ルックアップテーブルを用意しない場合であっても、領域に応じて画素値の範囲を異ならせたデータが得られる。   In the present invention, the offset to be added to the pixel value of each pixel of the input image is set according to the region, and after the set offset is added, the pixel value is converted based on the one-dimensional lookup table. Therefore, even when a plurality of one-dimensional lookup tables are not prepared, data with different pixel value ranges according to the regions can be obtained.

本発明に係る色変換装置は、前記変換手段は、変換前後の画素値の関係を規定した1次元ルックアップテーブルと、該1次元ルックアップテーブルに基づいて前記入力画像の各画素の画素値を変換する手段と、該手段により変換した画素値に対して加算すべきオフセットを前記領域に応じて設定する手段と、設定したオフセットを前記画素値に加算する手段とを備えることを特徴とする。   In the color conversion apparatus according to the present invention, the conversion means determines a pixel value of each pixel of the input image based on a one-dimensional lookup table that defines a relationship between pixel values before and after the conversion, and the one-dimensional lookup table. A conversion unit; a unit for setting an offset to be added to the pixel value converted by the unit according to the region; and a unit for adding the set offset to the pixel value.

本発明にあっては、入力画像の各画素に対して1次元ルックアップテーブルを用いた画素値の変換を行い、変換後の画素値に加算すべきオフセットを設定し、設定したオフセットを画素値に加算するようにしているため、複数の1次元ルックアップテーブルを用意しない場合であっても、領域に応じて画素値の範囲を異ならせたデータが得られる。   In the present invention, pixel value conversion using a one-dimensional lookup table is performed for each pixel of the input image, an offset to be added to the pixel value after conversion is set, and the set offset is set to the pixel value. Therefore, even if a plurality of one-dimensional lookup tables are not prepared, data with different pixel value ranges can be obtained depending on the region.

本発明に係る色変換装置は、前記格子点の間隔は2n (ただし、nは入力画像の各色成分のビット数kより小さい整数)であり、格子点数Dnは、2(m-1)+1<Dn<2(m+1) +1(ただし、Dn≠2m +1であり、m=k−n)を満たす整数であることを特徴とする。 In the color conversion apparatus according to the present invention, the interval between the lattice points is 2 n (where n is an integer smaller than the number k of bits of each color component of the input image), and the number of lattice points Dn is 2 (m−1) +1. <Dn <2 (m + 1) +1 (where Dn ≠ 2 m +1 and m = k−n).

本発明にあっては、格子点の間隔が2n であるため、各色成分を2n で除算することにより、各画素の近傍の格子点が算出される。また、格子点数Dnは、2(m-1)+1<Dn<2(m+1) +1(ただし、Dn≠2m +1であり、m=k−n)を満たす整数であり、格子点数に応じて入力画像の色成分の変換を行う。例えば、入力画像のR,G,Bの画素値の範囲がそれぞれ0〜255、格子点の間隔が16(n=4)であり、色補正テーブルにおけるR,G,Bの各格子点数が18(画素値の範囲は0〜272に増加)の場合、分割数17(=272/ (24 ))を基準に増加した各格子点数に応じて、入力画像の色成分の変換が実行される。格子点数は、(2m +1)±1、(2m+1)±2、(2m +1)±3など、細かく設定することが可能である。格子点数を増加させた場合、変換精度は向上するが、色補正テーブルのメモリ容量は増加する。また、格子点を減少させた場合、変換精度は低下するが、色補正テーブルのメモリ容量は減少する。 In the present invention, since the interval between the lattice points is 2 n , the lattice points near each pixel are calculated by dividing each color component by 2 n . The number of grid points Dn is an integer satisfying 2 (m−1) +1 <Dn <2 (m + 1) +1 (where Dn ≠ 2 m +1 and m = k−n). In response, the color component of the input image is converted. For example, the range of R, G, and B pixel values in the input image is 0 to 255, the interval between lattice points is 16 (n = 4), and the number of R, G, and B lattice points in the color correction table is 18. In the case of (the pixel value range increases from 0 to 272), the conversion of the color components of the input image is executed according to the number of grid points increased with the division number 17 (= 272 / (2 4 )) as a reference. . The number of grid points can be set finely such as (2 m +1) ± 1, (2 m +1) ± 2, (2 m +1) ± 3, and the like. When the number of grid points is increased, the conversion accuracy is improved, but the memory capacity of the color correction table is increased. Further, when the lattice points are reduced, the conversion accuracy is lowered, but the memory capacity of the color correction table is reduced.

本発明に係る色変換装置は、前記入力画像の各画素が属する領域の特徴を、前記画素の画素値に基づいて識別する手段を備えることを特徴とする。   The color conversion apparatus according to the present invention is characterized by comprising means for identifying the characteristics of the region to which each pixel of the input image belongs based on the pixel value of the pixel.

本発明にあっては、入力画像の各画素が属する領域の特徴を、画素値に基づいて識別するようにしているため、領域の自動判定が可能となる。   In the present invention, since the feature of the area to which each pixel of the input image belongs is identified based on the pixel value, the area can be automatically determined.

本発明に係る色変換装置は、前記入力画像に含まれる領域は、網点領域、文字領域、写真領域の何れかであることを特徴とする。   The color conversion apparatus according to the present invention is characterized in that the area included in the input image is any one of a halftone dot area, a character area, and a photograph area.

本発明にあっては、入力画像に含まれる領域は、網点領域、文字領域、写真領域の何れかであるため、これらの領域に応じた適切な色変換が施される。   In the present invention, since an area included in the input image is any one of a halftone dot area, a character area, and a photograph area, appropriate color conversion is performed according to these areas.

本発明に係る色変換装置は、識別すべき領域の特徴を画素値の範囲により規定してあり、規定してある範囲に前記入力画像の各画素の画素値が含まれるか否かを判定する手段を備えることを特徴とする。   The color conversion device according to the present invention defines a feature of a region to be identified by a range of pixel values, and determines whether or not a pixel value of each pixel of the input image is included in the defined range. Means are provided.

本発明にあっては、1次元ルックアップテーブルの切替えのみで入力画像データが属する領域に応じて適切な色補正処理が行えるため、ハードウェアを簡略化することができる。   In the present invention, hardware can be simplified because appropriate color correction processing can be performed according to the region to which the input image data belongs only by switching the one-dimensional lookup table.

本発明に係る色変換装置は、識別すべき領域の特徴を色分布により規定してあり、前記入力画像の各画素の色情報を取得する手段と、規定してある色分布に各画素が属するか否かを取得した色情報に基づいて判定する手段とを備えることを特徴とする。   In the color conversion device according to the present invention, the characteristics of the region to be identified are defined by color distribution, and each pixel belongs to the defined color distribution and means for obtaining color information of each pixel of the input image Means for determining whether or not based on the acquired color information.

本発明にあっては、予め規定してある色分布に各画素が属するか否かを判定するようにしているため、入力画像に含まれる領域が色分布によって識別される。また、識別した領域に応じて色変換を行うため、例えば、入力画像のコンテンツに応じた適切な色変換が施される。   In the present invention, since it is determined whether or not each pixel belongs to a color distribution defined in advance, a region included in the input image is identified by the color distribution. In addition, in order to perform color conversion according to the identified area, for example, appropriate color conversion according to the content of the input image is performed.

本発明に係る色変換装置は、前記入力画像に含まれる領域を、前記入力画像の元となる原稿の種別に基づいて識別するようにしてあることを特徴とする。   The color conversion apparatus according to the present invention is characterized in that an area included in the input image is identified based on a type of document that is a source of the input image.

本発明にあっては、入力画像に含まれる領域を、入力画像の元となる原稿の種別に基づいて識別するようにしているため、原稿の種別に応じた適切な色変換が施される。   In the present invention, since the area included in the input image is identified based on the type of document that is the source of the input image, appropriate color conversion is performed according to the type of document.

本発明に係る画像形成装置は、前述した発明の何れか1つに記載の色変換装置と、該色変換装置により色変換して得られた画像に基づきシート上に画像形成を行う手段とを備えることを特徴とする。   An image forming apparatus according to the present invention includes the color conversion apparatus according to any one of the above-described inventions, and a unit that forms an image on a sheet based on an image obtained by color conversion by the color conversion apparatus. It is characterized by providing.

本発明にあっては、色変換して得られた画像に基づきシート上に画像形成を行う手段を備えるため、デジタル複写機、プリンタ装置、デジタル複合機等への適用が可能となる。   Since the present invention includes means for forming an image on a sheet based on an image obtained by color conversion, the present invention can be applied to a digital copying machine, a printer device, a digital multi-function peripheral, and the like.

本発明に係る色変換方法は、複数の画素からなり、識別可能な1又は複数の領域を含む入力画像の各画素に色変換を施して出力画像を生成する色変換方法において、各画素の属する領域の特徴に応じて変換後の画素値の範囲が一意に定まり、しかも変換後の画素値の範囲が領域間で連続するように入力画像の各画素の画素値を変換する第1ステップと、変換後の画素値の範囲により定まる色空間を均等に分割した格子点での色補正値を格納してあり、色成分毎の格子点数を予め定めてある色補正テーブルから読出した色補正値を用いて前記画素に対する補間演算を行う第2ステップとを有することを特徴とする。 The color conversion method according to the present invention is a color conversion method in which each pixel of an input image including a plurality of pixels and including one or more identifiable areas is subjected to color conversion to generate an output image. A first step of converting the pixel value of each pixel of the input image so that the range of pixel values after conversion is uniquely determined according to the characteristics of the region and the range of pixel values after conversion is continuous between the regions ; Stores color correction values at grid points obtained by equally dividing the color space determined by the range of pixel values after conversion, and reads color correction values read from a color correction table in which the number of grid points for each color component is determined in advance. And a second step of performing an interpolation operation on the pixel.

本発明にあっては、各画素の属する領域の特徴に応じて変換後の画素値の範囲が異なるような変換を行い、変換後の画素値の範囲により定まる色空間について規定した色補正テーブルを用いて補間演算を行うようにしているため、例えば、各画素が属する領域の特徴に応じて定めた複数種の1次元ルックアップテーブルと、1次元ルックアップテーブルによって変換した後の画素値の範囲に応じて規定した1つの3次元ルックアップテーブルとを用いることにより、入力画像の各画素が属する領域又は原稿種別に応じた適切な色変換処理が行える。   In the present invention, conversion is performed such that the range of pixel values after conversion differs according to the characteristics of the area to which each pixel belongs, and a color correction table that defines a color space determined by the range of pixel values after conversion is defined. Therefore, for example, a plurality of types of one-dimensional lookup tables determined according to the characteristics of the region to which each pixel belongs and a range of pixel values after conversion by the one-dimensional lookup table By using one three-dimensional lookup table defined according to the above, it is possible to perform an appropriate color conversion process according to the area or document type to which each pixel of the input image belongs.

本発明に係る色変換方法は、前記第1ステップは、前記入力画像の各画素の画素値に加算すべきオフセットを前記領域に応じて設定し、設定したオフセットを前記画素値に加算し、前記オフセットを加算した各画素の画素値と変換後の画素値との関係を規定した1次元ルックアップテーブルに基づいて画素値の変換を行うことを特徴とする。   In the color conversion method according to the present invention, in the first step, an offset to be added to a pixel value of each pixel of the input image is set according to the region, and the set offset is added to the pixel value. The pixel value is converted based on a one-dimensional lookup table that defines the relationship between the pixel value of each pixel to which the offset is added and the pixel value after conversion.

本発明にあっては、第1ステップでは、入力画像の各画素の画素値に加算すべきオフセットを領域に応じて設定し、設定したオフセットを加算した後、1次元ルックアップテーブルに基づいて画素値の変換を行うようにしているため、複数の1次元ルックアップテーブルを用意しない場合であっても、領域に応じて画素値の範囲を異ならせたデータが得られる。   In the present invention, in the first step, an offset to be added to the pixel value of each pixel of the input image is set according to the area, and after adding the set offset, the pixel is determined based on the one-dimensional lookup table. Since value conversion is performed, even when a plurality of one-dimensional lookup tables are not prepared, data with different pixel value ranges can be obtained depending on the region.

本発明に係る色変換方法は、前記第1ステップは、変換前後の画素値の関係を規定した1次元ルックアップテーブルに基づいて前記入力画像の各画素の画素値を変換し、変換した画素値に対して加算すべきオフセットを前記領域に応じて設定し、設定したオフセットを前記画素値に加算することを特徴とする。   In the color conversion method according to the present invention, the first step converts the pixel value of each pixel of the input image based on a one-dimensional lookup table that defines the relationship between the pixel values before and after the conversion, and the converted pixel value The offset to be added is set in accordance with the region, and the set offset is added to the pixel value.

本発明にあっては、第1ステップでは、入力画像の各画素に対して1次元ルックアップテーブルを用いた画素値の変換を行い、変換後の画素値に加算すべきオフセットを設定し、設定したオフセットを画素値に加算するようにしているため、複数の1次元ルックアップテーブルを用意しない場合であっても、領域に応じて画素値の範囲を異ならせたデータが得られる。   In the present invention, in the first step, pixel values are converted using a one-dimensional lookup table for each pixel of the input image, and an offset to be added to the converted pixel value is set and set. Since the offset is added to the pixel value, even if a plurality of one-dimensional lookup tables are not prepared, data with different pixel value ranges depending on the area can be obtained.

本発明に係るコンピュータプログラムは、コンピュータに、複数の画素からなり、識別可能な1又は複数の領域を含む入力画像の各画素に色変換を施して出力画像を生成させるコンピュータプログラムにおいて、コンピュータに、各画素の属する領域の特徴に応じて変換後の画素値の範囲が一意に定まり、しかも変換後の画素値の範囲が領域間で連続するように入力画像の各画素の画素値を変換させるステップと、コンピュータに、変換後の画素値の範囲により定まる色空間を均等に分割した格子点での色補正値を格納してあり、色成分毎の格子点数を予め定めてある色補正テーブルから読出した色補正値を用いて前記画素に対する補間演算を実行させるステップとを有することを特徴とする。 A computer program according to the present invention causes a computer, a plurality of pixels, the computer program for generating an output image by performing color conversion on each pixel of the input image including an identifiable region or regions, the computer, A step of converting the pixel value of each pixel of the input image so that the range of pixel values after conversion is uniquely determined according to the characteristics of the region to which each pixel belongs , and the range of pixel values after conversion is continuous between the regions. And the computer stores color correction values at grid points obtained by equally dividing the color space determined by the converted pixel value range, and reads the number of grid points for each color component from a predetermined color correction table. A step of performing an interpolation operation on the pixel using the color correction value.

本発明にあっては、各画素の属する領域の特徴に応じて変換後の画素値の範囲が異なるような変換をコンピュータに実行させ、変換後の画素値の範囲により定まる色空間について規定した色補正テーブルを用いて補間演算をコンピュータに実行させるようにしているため、例えば、各画素が属する領域の特徴に応じて定めた複数種の1次元ルックアップテーブルと、1次元ルックアップテーブルによって変換した後の画素値の範囲に応じて規定した1つの3次元ルックアップテーブルとを用いることにより、入力画像の各画素が属する領域又は原稿種別に応じた適切な色変換処理が行える。   In the present invention, the computer executes a conversion in which the range of pixel values after conversion differs depending on the characteristics of the region to which each pixel belongs, and the color specified for the color space determined by the range of pixel values after conversion Since the interpolation calculation is executed by the computer using the correction table, for example, conversion is performed using a plurality of types of one-dimensional lookup tables and one-dimensional lookup tables determined according to the characteristics of the region to which each pixel belongs. By using a single three-dimensional lookup table defined according to the range of pixel values later, appropriate color conversion processing according to the area or document type to which each pixel of the input image belongs can be performed.

本発明による場合は、各画素の属する領域の特徴に応じて変換後の画素値の範囲が異なるような変換を行い、変換後の画素値の範囲により定まる色空間について規定した色補正テーブルを用いて補間演算を行うようにしている。したがって、例えば、各画素が属する領域の特徴に応じて定めた複数種の1次元ルックアップテーブルと、1次元ルックアップテーブルによって変換した後の画素値の範囲に応じて規定した1つの3次元ルックアップテーブルとを用いることにより、入力画像の各画素が属する領域又は原稿種別に応じた適切な色変換処理を実行することができる。また、各格子点の間隔が全色成分で一定であるため、入力画像における各画素の近傍の格子点を算出する場合は各色成分を同じ数で除算すればよく、1つの演算回路により全色成分の格子点を算出することができる。すなわち、領域に応じて1次元ルックアップテーブルの切替えを行う場合、複数の演算回路を用いて色成分毎の格子点を算出する場合と比較してハードウェアの簡略化が可能となり、コストの上昇を抑えることが可能となる。   In the case of the present invention, conversion is performed such that the range of pixel values after conversion differs according to the characteristics of the region to which each pixel belongs, and a color correction table that defines a color space determined by the range of pixel values after conversion is used. Interpolation calculation is performed. Therefore, for example, a plurality of types of one-dimensional lookup tables determined according to the characteristics of the region to which each pixel belongs, and a single three-dimensional look defined according to the range of pixel values converted by the one-dimensional lookup table. By using the uptable, it is possible to execute an appropriate color conversion process according to the region to which each pixel of the input image belongs or the document type. Further, since the interval between the grid points is constant for all color components, when calculating the grid points in the vicinity of each pixel in the input image, it is sufficient to divide each color component by the same number so that all the colors are obtained by one arithmetic circuit. Component lattice points can be calculated. That is, when switching the one-dimensional lookup table according to the area, hardware can be simplified and cost can be increased as compared with a case where a grid point for each color component is calculated using a plurality of arithmetic circuits. Can be suppressed.

本発明による場合は、入力画像の各画素の画素値に加算すべきオフセットを領域に応じて設定し、設定したオフセットを加算した後、1次元ルックアップテーブルに基づいて画素値の変換を行うようにしている。したがって、複数の1次元ルックアップテーブルを用意しない場合であっても、領域に応じて画素値の範囲を異ならせたデータを得ることができる。   In the case of the present invention, the offset to be added to the pixel value of each pixel of the input image is set according to the region, and after the set offset is added, the pixel value is converted based on the one-dimensional lookup table. I have to. Therefore, even when a plurality of one-dimensional lookup tables are not prepared, data with different pixel value ranges can be obtained according to the region.

本発明による場合は、入力画像の各画素に対して1次元ルックアップテーブルを用いた画素値の変換を行い、変換後の画素値に加算すべきオフセットを設定し、設定したオフセットを画素値に加算するようにしている。したがって、複数の1次元ルックアップテーブルを用意しない場合であっても、領域に応じて画素値の範囲を異ならせたデータを得ることができる。   In the case of the present invention, pixel values are converted using a one-dimensional lookup table for each pixel of the input image, an offset to be added to the pixel value after conversion is set, and the set offset is set as the pixel value. I try to add. Therefore, even when a plurality of one-dimensional lookup tables are not prepared, data with different pixel value ranges can be obtained according to the region.

本発明による場合は、格子点の間隔が2n であるため、各色成分を2n で除算することにより、各画素の近傍の格子点を算出することができる。また、色補正テーブルのメモリ容量の制限内で格子点数を増加させて色変換の精度を向上させることができ、逆に色補正テーブルのメモリ容量制限に応じて減少させる格子点数を最小限に抑え、色変換精度の低下を最小限に抑えることができる。 According to the present invention, since the interval between the lattice points is 2 n , the lattice points near each pixel can be calculated by dividing each color component by 2 n . In addition, the accuracy of color conversion can be improved by increasing the number of grid points within the limit of the memory capacity of the color correction table, and conversely, the number of grid points to be decreased according to the memory capacity limit of the color correction table is minimized. Therefore, a decrease in color conversion accuracy can be minimized.

本発明による場合は、入力画像の各画素が属する領域の特徴を画素値に基づいて識別するようにしているため、領域を自動的に判定することができる。   According to the present invention, since the feature of the region to which each pixel of the input image belongs is identified based on the pixel value, the region can be automatically determined.

本発明による場合は、入力画像に含まれる領域は、網点領域、文字領域、写真領域の何れかであるため、これらの領域に応じた適切な色変換を施すことができる。   In the case of the present invention, since the area included in the input image is any one of a halftone dot area, a character area, and a photograph area, appropriate color conversion according to these areas can be performed.

本発明による場合は、識別すべき領域の特徴を画素値の範囲により規定してあり、規定してある範囲に前記入力画像の各画素の画素値が含まれるか否かを判定する手段を備えているため、1次元ルックアップテーブルの切替えのみで入力画像データが属する領域に応じて適切な色補正処理が行えるため、ハードウェアを簡略化することができる。   According to the present invention, the feature of the region to be identified is defined by the range of pixel values, and means for determining whether or not the pixel value of each pixel of the input image is included in the defined range. Therefore, the hardware can be simplified because appropriate color correction processing can be performed according to the region to which the input image data belongs only by switching the one-dimensional lookup table.

本発明による場合は、予め規定してある色分布に各画素が属するか否かを判定するようにしているため、入力画像に含まれる領域を色分布に応じて識別することができる。このように色分布に応じて領域を識別することにより、例えば、青領域に属する場合には空または海、緑色領域に属する場合には植物または葉、肌色領域に属する場合には人物と入力画像のコンテンツを判断することができ、コンテンツに応じた適切な色変換処理が可能となる。   In the case of the present invention, since it is determined whether each pixel belongs to a color distribution defined in advance, the area included in the input image can be identified according to the color distribution. Thus, by identifying the area according to the color distribution, for example, the sky or the sea when belonging to the blue area, the plant or leaf when belonging to the green area, and the person and the input image when belonging to the skin color area Content can be determined, and appropriate color conversion processing according to the content can be performed.

本発明による場合は、入力画像に含まれる領域を、入力画像の元となる原稿の種別に基づいて識別するようにしているため、原稿の種別に応じた適切な色変換を施すことができる。   According to the present invention, since the area included in the input image is identified based on the type of document that is the source of the input image, appropriate color conversion can be performed according to the type of document.

本発明による場合は、色変換して得られた画像に基づきシート上に画像形成を行う手段を備えるため、デジタル複写機、プリンタ装置、デジタル複合機等への適用が可能となる。   In the case of the present invention, since a means for forming an image on a sheet based on an image obtained by color conversion is provided, it can be applied to a digital copying machine, a printer device, a digital multi-function peripheral, and the like.

以下、本発明をその実施の形態を示す図面に基づいて具体的に説明する。
実施の形態1.
図1は本発明に係る画像形成装置の内部構成を説明するブロック図である。本発明に係る画像形成装置は、制御部1、画像入力部2、画像処理部3、画像出力部7、記憶部8、及び操作部9を備えている。制御部1は、前記ハードウェア各部を制御するCPUと、制御の際に必要なデータ等を一時的に保持するRAMとにより構成されている。記憶部8は、例えば、不揮発性の半導体メモリであり、ハードウェア各部を制御するための制御プログラム、色変換処理に必要な各種テーブル等を記憶している。制御部1は電源投入時等に記憶部8から制御プログラム、各種テーブルをロードし、ロードした制御プログラムを実行することにより、全体として本発明に係る画像形成装置として動作させる。また、操作部9は、利用者からの操作指示を受付けるための各種ハードウェアキーを備えている。
Hereinafter, the present invention will be specifically described with reference to the drawings showing embodiments thereof.
Embodiment 1 FIG.
FIG. 1 is a block diagram illustrating the internal configuration of an image forming apparatus according to the present invention. The image forming apparatus according to the present invention includes a control unit 1, an image input unit 2, an image processing unit 3, an image output unit 7, a storage unit 8, and an operation unit 9. The control unit 1 is composed of a CPU that controls each part of the hardware and a RAM that temporarily holds data necessary for the control. The storage unit 8 is, for example, a nonvolatile semiconductor memory, and stores a control program for controlling each unit of hardware, various tables necessary for color conversion processing, and the like. The control unit 1 loads the control program and various tables from the storage unit 8 when the power is turned on and the like, and executes the loaded control program, thereby operating the image forming apparatus according to the present invention as a whole. The operation unit 9 includes various hardware keys for receiving operation instructions from the user.

画像入力部2は、原稿の画像を光学的に読取る手段であり、読取用の原稿に光を照射する光源、CCD(Charge Coupled Device)のようなイメージセンサ等を備えている。画像入力部2では、所定の読取り位置にセットされた原稿からの反射光像を当該イメージセンサに結像させ、RGB(R : Red, G : Green, B : Blue)のアナログ電気信号を出力する。画像入力部2が出力したアナログ電気信号は画像処理部3に入力される。   The image input unit 2 is a unit that optically reads an image of a document, and includes a light source that irradiates light to a document for reading, an image sensor such as a CCD (Charge Coupled Device), and the like. In the image input unit 2, a reflected light image from a document set at a predetermined reading position is formed on the image sensor, and RGB (R: Red, G: Green, B: Blue) analog electrical signals are output. . The analog electrical signal output from the image input unit 2 is input to the image processing unit 3.

画像処理部3は、画像入力部2から出力されるアナログ電気信号をデジタル信号に変換した後、画像の種類に応じた各種の処理を施し、出力用の画像信号を生成する。生成した画像信号は画像出力部7に出力される。本実施の形態では、出力用の画像信号としてCMYK信号(C : Cyan, M : Magenta, Y : Yellow, K : Black)を生成するようにしている。なお、画像処理部3の内部構成、動作等については後述することとする。   The image processing unit 3 converts the analog electrical signal output from the image input unit 2 into a digital signal, and then performs various processes according to the type of image to generate an output image signal. The generated image signal is output to the image output unit 7. In the present embodiment, CMYK signals (C: Cyan, M: Magenta, Y: Yellow, K: Black) are generated as output image signals. The internal configuration and operation of the image processing unit 3 will be described later.

画像出力部7は、画像処理部3が出力する画像信号に基づいて用紙、OHPフィルム等のシート上に画像形成を行う手段である。そのため、画像出力部7は、感光体ドラム、該感光体ドラムを所定の電位に帯電させる帯電器、外部から受付けた画像データに応じてレーザ光を発して感光体ドラム上に静電潜像を生成させるレーザ書込装置、感光体ドラム表面に形成された静電潜像にトナーを供給して顕像化する現像器、感光体ドラム表面に形成されたトナー像を用紙上に転写する転写器等(不図示)を備えており、電子写真方式にて利用者が所望する画像を用紙上に形成する。なお、レーザ書込装置を用いた電子写真方式により画像形成を行う他、インクジェット方式、熱転写方式、昇華方式等により画像形成を行う構成であってもよい。   The image output unit 7 is a unit that forms an image on a sheet such as paper or an OHP film based on the image signal output from the image processing unit 3. Therefore, the image output unit 7 generates a latent image on the photosensitive drum by emitting a laser beam in accordance with the photosensitive drum, a charger for charging the photosensitive drum to a predetermined potential, and image data received from the outside. Laser writing device to be generated, developing device for supplying toner to the electrostatic latent image formed on the surface of the photosensitive drum to make it visible, transfer device for transferring the toner image formed on the surface of the photosensitive drum onto the paper Etc. (not shown), and an image desired by the user is formed on a sheet by electrophotography. In addition to image formation by an electrophotographic method using a laser writing apparatus, an image formation may be performed by an inkjet method, a thermal transfer method, a sublimation method, or the like.

なお、本実施の形態では、画像入力部2を画像の読取手段として構成し、画像出力部7を画像形成手段として構成したが、外部から画像データを受信する手段、外部に画像データを送信する手段として構成するようにしてもよい。   In this embodiment, the image input unit 2 is configured as an image reading unit and the image output unit 7 is configured as an image forming unit. However, the image input unit 2 receives image data from the outside, and transmits the image data to the outside. You may make it comprise as a means.

図2は画像処理部3の構成を説明するブロック図である。画像処理部3は、AD変換部31、シェーディング補正部32、入力階調補正部33、領域分離処理部34、色補正部35A、黒生成・下色除去部36、空間フィルタ処理部37、出力階調補正部38、階調再現処理部39を備えている。   FIG. 2 is a block diagram illustrating the configuration of the image processing unit 3. The image processing unit 3 includes an AD conversion unit 31, a shading correction unit 32, an input tone correction unit 33, a region separation processing unit 34, a color correction unit 35A, a black generation / under color removal unit 36, a spatial filter processing unit 37, and an output. A gradation correction unit 38 and a gradation reproduction processing unit 39 are provided.

AD変換部31は、画像入力部2から入力されたアナログRGB信号をデジタルRGB信号に変換する。シェーディング補正部32は、AD変換部31から出力されたデジタル形式のRGB信号に対して、画像入力部2の照明系、結像系、撮像系で生じる各種の歪みを取り除く処理を施す。なお、本実施の形態では、AD変換、シェーディング補正を画像処理部3の内部で行う構成としたが、AD変換及びシェーディング補正を施して得られたデジタルRGB信号を外部から受付ける構成であってもよい。   The AD conversion unit 31 converts the analog RGB signal input from the image input unit 2 into a digital RGB signal. The shading correction unit 32 performs processing for removing various distortions generated in the illumination system, the imaging system, and the imaging system of the image input unit 2 on the digital RGB signal output from the AD conversion unit 31. In the present embodiment, AD conversion and shading correction are performed inside the image processing unit 3, but a digital RGB signal obtained by performing AD conversion and shading correction may be received from the outside. Good.

入力階調補正部33は、RGBの反射率信号を濃度信号に変換すると共に、下地濃度の補正やコントラストなどの画質調整処理を実行する。入力階調補正部33では、前述した処理に加えてカラーバランスを整える処理を行っても良い。   The input tone correction unit 33 converts the RGB reflectance signal into a density signal, and executes image quality adjustment processing such as background density correction and contrast. The input tone correction unit 33 may perform processing for adjusting color balance in addition to the processing described above.

領域分離処理部34は、RGB信号に基づいて入力画像中の各画素を文字領域、網点領域、写真領域の何れかに分離するものである。領域分離処理部34は、分離結果に基づき、各画素がどの領域に属しているかを示す領域識別信号を色補正部35A、黒生成・下色除去部36、空間フィルタ処理部37、出力階調補正部38、及び階調再現処理部39に出力すると共に、入力階調補正部33が出力したRGB信号をそのまま後段の色補正部35Aに出力する。   The region separation processing unit 34 separates each pixel in the input image into one of a character region, a halftone dot region, and a photographic region based on the RGB signal. Based on the separation result, the region separation processing unit 34 outputs a region identification signal indicating which region each pixel belongs to, a color correction unit 35A, a black generation / under color removal unit 36, a spatial filter processing unit 37, an output gradation While outputting to the correction | amendment part 38 and the gradation reproduction process part 39, the RGB signal output from the input gradation correction | amendment part 33 is output to the color correction part 35A of a back | latter stage as it is.

以下、領域分離処理部34が実行する処理について説明する。入力画像を文字領域、網点領域、写真領域に分離する手法としては、例えば、特開2002−232708号公報に記載されている方法を用いることができる。この方法は、注目画素を含むn×mのブロック(例えば、15×15)における最小濃度値と最大濃度値との差分である最大濃度差と、隣接する画素の濃度差の絶対値の総和である総和濃度繁雑度とを算出し、予め定められる複数の閾値と比較することにより下地領域・印画紙(写真)領域と文字エッジ領域・網点領域に分離するものである。   Hereinafter, processing executed by the region separation processing unit 34 will be described. As a method for separating an input image into a character area, a halftone dot area, and a photographic area, for example, a method described in JP-A-2002-232232 can be used. This method is the sum of the maximum density difference that is the difference between the minimum density value and the maximum density value in an n × m block (for example, 15 × 15) including the target pixel and the absolute value of the density difference between adjacent pixels. A certain total density busyness is calculated and compared with a plurality of predetermined threshold values to separate the background area / printing paper (photo) area from the character edge area / halftone dot area.

領域分離を行うにあたっては、下記の特徴量を用いる。
(1)下地領域の濃度分布は、通常、濃度変化が少ないので最大濃度差及び総和濃度繁雑度ともに非常に小さくなる。
(2)印画紙写真領域の濃度分布は、滑らかな濃度変化をしており、最大濃度差及び総和濃度繁雑度はともに小さく、かつ、下地領域よりは多少大きくなる。
(3)網点領域の濃度分布は、最大濃度差は網点によりさまざまであるが、総和濃度繁雑度が網点の数だけ濃度変化が存在するので、最大濃度差に対する総和濃度繁雑度の割合が大きくなる。したがって、最大濃度差と文字・網点判定閾値(上記複数の閾値の1つ)との積よりも総和濃度繁雑度が大きい場合には、網点画素であると判別することが可能である。
(4)文字領域の濃度分布は、最大濃度差が大きく、それに伴い総和濃度繁雑度も大きくなるが、網点領域よりも濃度変化が少ないため、網点領域よりも総和濃度繁雑度は小さくなる。したがって、最大濃度差と文字・網点判定閾値との積よりも総和濃度繁雑度が小さい場合には、文字エッジ画素であると判別することが可能である。
In performing the region separation, the following feature amount is used.
(1) Since the density distribution of the background region is usually small in density change, both the maximum density difference and the total density busyness become very small.
(2) The density distribution of the photographic paper photographic area has a smooth density change, and the maximum density difference and the total density busyness are both small and slightly larger than the background area.
(3) Concentration distribution in the halftone dot area varies depending on the halftone dot, but the total density busyness varies by the number of halftone dots, so the ratio of the total density busyness to the maximum density difference Becomes larger. Therefore, when the total density busyness is larger than the product of the maximum density difference and the character / halftone dot determination threshold (one of the plurality of thresholds), it can be determined that the pixel is a halftone pixel.
(4) In the density distribution of the character area, the maximum density difference is large, and the total density busyness increases accordingly. However, since the density change is smaller than that of the halftone dot area, the total density busyness is smaller than that of the halftone dot area. . Therefore, when the total density busyness is smaller than the product of the maximum density difference and the character / halftone dot determination threshold, it is possible to determine that the pixel is a character edge pixel.

前述の特徴量を用いて領域分離を下記の通り実行することができる。
まず、算出された最大濃度差と最大濃度差閾値との比較、及び算出された総和濃度繁雑度と総和濃度繁雑度閾値との比較を行う。そして、最大濃度差が最大濃度差閾値よりも小さく、かつ、総和濃度繁雑度が総和濃度繁雑度閾値よりも小さいと判断されたときは、注目画素は下地・印画紙領域であると判定し、そうでない場合は、文字・網点領域であると判定する。
Region separation can be performed as follows using the above-described feature amount.
First, the calculated maximum density difference is compared with the maximum density difference threshold, and the calculated total density busyness is compared with the total density busyness threshold. When it is determined that the maximum density difference is smaller than the maximum density difference threshold and the total density busyness is smaller than the total density busyness threshold, it is determined that the target pixel is the background / printing paper region, Otherwise, it is determined to be a character / halftone dot region.

次に、上記下地・印画紙領域であると判断された場合、算出された最大濃度差と下地・印画紙判定閾値との比較を行い、最大濃度差の方が小さければ下地領域であると判定し、最大濃度差の方が大きければ印画紙領域であると判定する。   Next, when it is determined that the area is the background / printing paper area, the calculated maximum density difference is compared with the background / printing paper determination threshold, and if the maximum density difference is smaller, the background area is determined. If the maximum density difference is larger, it is determined that the area is a photographic paper area.

そして、上記文字・網点領域であると判断された場合、算出された総和濃度繁雑度と最大濃度差に文字・網点判定閾値を掛けた値との比較を行い、総和濃度繁雑度の方が小さければ文字エッジ領域であると判定し、総和濃度繁雑度の方が大きければ、網点領域であると判定する。   If it is determined that the region is the character / halftone dot region, the calculated total density busyness is compared with the value obtained by multiplying the maximum density difference by the character / halftone determination threshold value. Is small, it is determined to be a character edge region, and if the total density busyness is larger, it is determined to be a halftone dot region.

以下、説明を図2に戻して画像処理部3の残りのハードウェア構成について説明する。
色補正部35Aは、色再現の忠実化実現のために不要吸収成分を含むCMY色材の分光特性に基づいた色濁りを取り除く処理を行うものである。本発明は、特にこの色補正部35Aに関わるものであり、1次元ルックアップテーブル(以下、1次元LUTという)を用いた非線形性の補正を、領域分離処理部34から出力される領域識別信号に応じて行い、続いて3次元ルックアップテーブル(以下、3次元LUTという)に基づいて色変換を行う。なお、色補正部35Aの詳細については後述することとする。
Hereinafter, the description will be returned to FIG. 2 to describe the remaining hardware configuration of the image processing unit 3.
The color correction unit 35A performs a process of removing color turbidity based on the spectral characteristics of CMY color materials including unnecessary absorption components in order to realize faithful color reproduction. The present invention relates particularly to the color correction unit 35A, and a region identification signal output from the region separation processing unit 34 is used to correct nonlinearity using a one-dimensional lookup table (hereinafter referred to as a one-dimensional LUT). Then, color conversion is performed based on a three-dimensional lookup table (hereinafter referred to as a three-dimensional LUT). Details of the color correction unit 35A will be described later.

黒生成・下色除去部36は、色補正後のCMYの3色信号から黒(K)信号を生成する黒生成処理、元のCMY信号から黒生成で得たK信号を差し引いて新たなCMY信号を生成する処理を行うものであり、CMYの3色信号をCMYKの4色信号に変換する。黒生成・下色除去処理の一例として、スケルトンブラックによる方法が知られている。この方法では、スケルトンカーブの入力特性をy=f(x)、入力されるデータをC,M,Y、出力されるデータをC’,M’,Y’,K’、下色除去率をα(0<α<1)とすると、黒生成・下色除去処理は、K’=f{min(C,M,Y)}、C’=C−αK’、M’=M−αK’、Y’=Y−αK’のように表すことができる。   The black generation / undercolor removal unit 36 performs black generation processing for generating a black (K) signal from the CMY three-color signals after color correction, and subtracts the K signal obtained by black generation from the original CMY signal to create a new CMY. A signal generation process is performed, and a CMY three-color signal is converted into a CMYK four-color signal. As an example of black generation / undercolor removal processing, a method using skeleton black is known. In this method, the input characteristic of the skeleton curve is y = f (x), the input data is C, M, Y, the output data is C ′, M ′, Y ′, K ′, and the undercolor removal rate is If α (0 <α <1), the black generation / under color removal processing is K ′ = f {min (C, M, Y)}, C ′ = C−αK ′, M ′ = M−αK ′. , Y ′ = Y−αK ′.

空間フィルタ処理部37は、黒生成・下色除去部36より入力されるCMYK信号の画像データに対し、領域識別信号を基にデジタルフィルタによる空間フィルタ処理を行い、空間周波数特性を補正することによって出力画像のぼやけ、粒状性劣化等を防ぐ処理を行うものである。例えば、領域分離処理部34により文字として分離された領域は、特に黒文字又は色文字の再現性を高めるために鮮鋭強調処理を行い、高周波数成分を強調する。領域分離処理部34により網点領域として分離された領域に関しては、入力網点成分を除去するためのローパスフィルタ処理を施す。   The spatial filter processing unit 37 performs spatial filter processing using a digital filter on the image data of the CMYK signal input from the black generation / undercolor removal unit 36 based on the region identification signal, thereby correcting the spatial frequency characteristics. Processing for preventing blurring of output images, deterioration of graininess, and the like is performed. For example, a region separated as a character by the region separation processing unit 34 performs a sharp enhancement process to enhance the reproducibility of a black character or a color character, and emphasizes a high frequency component. For the region separated as a halftone dot region by the region separation processing unit 34, low-pass filter processing for removing the input halftone dot component is performed.

出力階調補正部38では、濃度信号などの信号を出力先の特性に応じた網点面積率に変換する出力階調補正処理を行う。   The output gradation correction unit 38 performs an output gradation correction process for converting a signal such as a density signal into a halftone dot area ratio corresponding to the characteristics of the output destination.

階調再現処理部39では、最終的に画像を画素に分離してそれぞれの階調を再現できるように処理する階調再現処理を行う。例えば、領域分離処理部34にて写真に分離された領域に関しては、階調再現性を重視したスクリーンでの二値化又は多値化処理を行い、領域分離処理部34にて文字に分離された領域に関しては、高周波数の再現性に適した高解像度のスクリーンでの二値化又は多値化処理を行う。   The gradation reproduction processing unit 39 performs gradation reproduction processing that finally separates an image into pixels and performs processing so that each gradation can be reproduced. For example, for a region separated into photographs by the region separation processing unit 34, binarization or multi-value processing is performed on the screen with an emphasis on gradation reproducibility, and the region separation processing unit 34 separates the characters into characters. The binarization or multi-value processing is performed on a high-resolution screen suitable for high-frequency reproducibility.

次に、色補正部35Aの動作について説明する。図3は実施の形態1に係る色補正部35Aの動作を説明する模式的説明図であり、図4は色補正部35Aで用いる1次元LUTの概念図、図5は同じく3次元LUTの概念図である。前述したように、色補正部35Aには領域分離処理部34から出力されるRGB信号及び領域識別信号が入力される。色補正部35Aでは、領域分離処理部34から出力される領域識別信号に基づいて補正対象の画素が網点領域、文字領域、写真領域の何れに属するかを識別することができ、この識別結果に基づいて利用する1次元LUTを切替え、非線形性の補正を各色成分毎(R,G,Bの各色成分毎)に行う。この1次元LUTを用いた補正では、識別した領域に応じてRGB色空間の異なる領域にマッピングされている3次元LUT(色補正テーブル)にアクセスできるように変換する。そして、3次元LUTを用いた色補正では、そのRGB色空間に対して規定した1つの3次元LUTを用いて色補正を行う。   Next, the operation of the color correction unit 35A will be described. 3 is a schematic explanatory diagram for explaining the operation of the color correction unit 35A according to the first embodiment. FIG. 4 is a conceptual diagram of a one-dimensional LUT used in the color correction unit 35A. FIG. 5 is a conceptual diagram of the three-dimensional LUT. FIG. As described above, the RGB signal and the region identification signal output from the region separation processing unit 34 are input to the color correction unit 35A. The color correction unit 35A can identify whether the pixel to be corrected belongs to a halftone dot region, a character region, or a photo region based on the region identification signal output from the region separation processing unit 34. The one-dimensional LUT to be used is switched based on the above, and nonlinearity correction is performed for each color component (for each color component of R, G, B). In the correction using the one-dimensional LUT, conversion is performed so that a three-dimensional LUT (color correction table) mapped to a different area in the RGB color space can be accessed according to the identified area. In color correction using a three-dimensional LUT, color correction is performed using one three-dimensional LUT defined for the RGB color space.

1次元LUTは、入力画像の各画素が属する領域に応じて出力信号の範囲が異なるように設定されている。例えば、入力画像の各画素が印画紙写真領域(第1領域とする)に属する場合、図4(a)に示した1次元LUTを用いて画素値の変換を行うことにより非線形性の補正を行い、入力画像の各画素が文字領域又は網点領域(第2領域とする)に属する場合、図4(b)に示した1次元LUTを用いて画素値の変換を行うことにより非線形性の補正を行う。なお、図4に示したグラフの横軸は入力信号の画素値、縦軸は出力信号の画素値を示しており、各グラフに描かれた曲線は入力信号と出力信号との間の変換曲線を示している。これらの変換曲線はルックアップテーブル(1次元LUT)として規定されている。これらの変換曲線に従って画素値の変換を行った場合、第1領域に属する画素は、画素値が256〜511の範囲内に属するように変換され、第2領域に属する画素は、画素値が0〜255の範囲内に属するように変換される。   The one-dimensional LUT is set so that the range of the output signal varies depending on the region to which each pixel of the input image belongs. For example, when each pixel of the input image belongs to a photographic paper photograph area (referred to as a first area), the nonlinearity is corrected by converting the pixel value using the one-dimensional LUT shown in FIG. If each pixel of the input image belongs to a character area or a halftone dot area (referred to as a second area), nonlinearity can be reduced by converting the pixel value using the one-dimensional LUT shown in FIG. Make corrections. Note that the horizontal axis of the graph shown in FIG. 4 indicates the pixel value of the input signal, and the vertical axis indicates the pixel value of the output signal, and the curve drawn in each graph is a conversion curve between the input signal and the output signal. Is shown. These conversion curves are defined as a look-up table (one-dimensional LUT). When pixel values are converted according to these conversion curves, the pixels belonging to the first region are converted so that the pixel values belong to the range of 256 to 511, and the pixels belonging to the second region have a pixel value of 0. To be within the range of ~ 255.

このように画素の属する領域に応じて異なる範囲の値を出力する1次元LUTを用いることにより、色空間上では互いに異なる領域内の点にマッピングされることとなる。すなわち、第1領域用の1次元LUTを用いた場合、図5に示したように、256≦R≦511、256≦G≦511、256≦B≦511(ここで、R,G,Bは1次元LUTによって変換した各色成分の画素値を示す)を満たす領域内の点にマッピングされ、第2領域用の1次元LUTを用いた場合、0≦R≦255、0≦G≦255、0≦B≦255を満たす領域内の点にマッピングされることとなる。そこで、各領域内の点に対応させた色補正テーブル(すなわち、第1領域用3次元LUT及び第2領域用3次元LUTを1つのテーブルで記述した3次元LUT)を用意しておくことにより、領域識別信号に応じた3次元LUTの切替えが不要となり、それぞれの領域に対する適切な色補正処理が可能となる。   In this way, by using a one-dimensional LUT that outputs values in different ranges depending on the region to which the pixel belongs, mapping is performed on points in different regions on the color space. That is, when the one-dimensional LUT for the first region is used, as shown in FIG. 5, 256 ≦ R ≦ 511, 256 ≦ G ≦ 511, 256 ≦ B ≦ 511 (where R, G, B are When a one-dimensional LUT for the second region is used and mapped to a point in a region satisfying (which indicates a pixel value of each color component converted by the one-dimensional LUT), 0 ≦ R ≦ 255, 0 ≦ G ≦ 255, 0 It is mapped to a point in the region that satisfies ≦ B ≦ 255. Therefore, by preparing a color correction table corresponding to the points in each region (that is, a three-dimensional LUT in which the first region three-dimensional LUT and the second region three-dimensional LUT are described in one table). Therefore, it is not necessary to switch the three-dimensional LUT according to the area identification signal, and appropriate color correction processing can be performed for each area.

次に、3次元LUTを用いた色補正について説明する。図6は入力色空間を示す模式図である。本実施の形態ではRGB色空間を入力色空間としており、原点PK [0,0,0]をブラック、対角の点PW [1,1,1]をホワイトとし、PKR をR成分、PKG をG成分、PKBをB成分として色空間を形成している。このRGB色空間において、任意の色は、0〜1の間のパラメータr,g,bを用いてrPR +gPG +bPB のように表すことができる。入力色空間をRGB色空間とすることにより、PK[0,0,0]とPW [1,1,1]とを結ぶ軸が対角線上となり、このグレー軸を保持することでK成分の連続性を保つことができ、画質が落ちないという利点を有する。 Next, color correction using a three-dimensional LUT will be described. FIG. 6 is a schematic diagram showing an input color space. In the present embodiment has an input color space to RGB color space, the origin P K [0,0,0] black, the P W [1,1,1] point of the diagonal and white, the P K P R A color space is formed with the R component, P K P G as the G component, and P K P B as the B component. In this RGB color space, an arbitrary color can be expressed as rP R + gP G + bP B using parameters r, g, and b between 0 and 1. By making the input color space an RGB color space, the axis connecting P K [0,0,0] and P W [1,1,1] is on a diagonal line, and the K component is maintained by maintaining this gray axis. Can be maintained, and the image quality does not deteriorate.

本実施の形態では、入力色空間上の点(画素)に対し前述した1次元LUTにより画素値の変換を行い、図5に示す3次元LUTを用いて色変換処理を行う。この色変換処理で用いる3次元LUTとしては、本出願人が特願2004−160043にて提案している色補正テーブルを利用することができる。この色補正テーブルでは、色補正値が格納されている格子点数が従来のように17や33に固定されるものではなく、例えば、ある色成分の格子点数を他の色成分を基準に増加又は減少させるなど、色成分毎に決められており、格子点数の増加又は減少に応じて入力画像データの色成分の変換を行う。なお、格子点の間隔は全色成分で一定である。そのため、領域分離結果である文字領域、網点領域、写真領域に応じて、又は後述する原稿種別判定結果に応じて、3次元LUTを柔軟に設定することができるので、色変換精度の低下(画質の低下)を抑制しつつメモリ容量を効率的に使用することができる。   In the present embodiment, pixel values are converted with respect to points (pixels) in the input color space using the above-described one-dimensional LUT, and color conversion processing is performed using the three-dimensional LUT shown in FIG. As the three-dimensional LUT used in this color conversion process, a color correction table proposed by the present applicant in Japanese Patent Application No. 2004-160043 can be used. In this color correction table, the number of grid points in which color correction values are stored is not fixed to 17 or 33 as in the prior art. For example, the number of grid points of a certain color component is increased based on other color components, or It is determined for each color component, such as decreasing, and the color component of the input image data is converted in accordance with the increase or decrease in the number of grid points. Note that the interval between grid points is constant for all color components. For this reason, the three-dimensional LUT can be flexibly set according to the character region, halftone dot region, and photo region that are the region separation results, or according to the document type determination result described later. It is possible to efficiently use the memory capacity while suppressing deterioration in image quality.

3次元LUTを用いた色補正では色空間の分割方法に応じて数種類に分類されるが、ここでは四面体を用いた色補正について説明する。四面体を用いた色補正では、入力色空間を3色の軸に沿って単純に8つの格子点からなる複数の単位格子に分割した後、更にその単位格子を四面体により分割する。図7は単位格子を四面体により分割した様子を示す模式図である。図7(a)〜図7(f)の各図において破線は単位格子を表し、実線は分割した四面体を表している。例えば、図7(a)に示した四面体T1は、入力信号のRGB値がR≧G≧Bの条件を満たす四面体である。他の四面体T2〜T6についても同様である。   Color correction using a three-dimensional LUT is classified into several types according to the color space dividing method. Here, color correction using a tetrahedron will be described. In color correction using a tetrahedron, the input color space is simply divided into a plurality of unit cells each having eight lattice points along the three color axes, and then the unit cell is further divided by the tetrahedron. FIG. 7 is a schematic diagram showing the unit cell divided by a tetrahedron. In each of FIGS. 7A to 7F, a broken line represents a unit cell, and a solid line represents a divided tetrahedron. For example, the tetrahedron T1 shown in FIG. 7A is a tetrahedron that satisfies the condition that the RGB value of the input signal is R ≧ G ≧ B. The same applies to the other tetrahedrons T2 to T6.

図8は出力信号の算出手法を説明する説明図であり、図9は出力信号を算出する際に用いるパラメータをまとめた図表である。出力信号を算出する場合、入力信号の色成分の大小によって何れの四面体(T1〜T6)に属するかを判定した後、4つの頂点に対応させて予め3次元LUTに格納してある色補正値と、入力信号によって計算された重み付けとの積和を算出し、出力信号(補間値)としている。例えば、単位格子の各頂点PK ,PR ,PG ,PB,PC ,PM ,PY ,PW の座標を図8に示したように規定した場合、この単位格子に属する任意の点P(x,y,z)の補間結果は、 FIG. 8 is an explanatory diagram for explaining an output signal calculation method, and FIG. 9 is a table summarizing parameters used when calculating an output signal. When calculating the output signal, after determining which tetrahedron (T1 to T6) belongs to the size of the color component of the input signal, color correction stored in the three-dimensional LUT in advance corresponding to the four vertices The product sum of the value and the weight calculated by the input signal is calculated and used as the output signal (interpolated value). For example, when the coordinates of each vertex P K , P R , P G , P B , P C , P M , P Y , P W of the unit cell are defined as shown in FIG. The interpolation result of point P (x, y, z) is

bK×PK +bP×PP +bS×PS +bW×PW bK × P K + bP × P P + bS × P S + bW × P W

のように表すことができる。ここで、PP は、点Pが属する四面体に応じて選択される一次色(RGB)の座標を、PS は、点Pが属する四面体に応じて選択される二次色(CMY)の座標を表している(図9参照)。また、bK,bW,bP,bSは、それぞれ、点PK,PW ,PP ,PS の重み付けを示し、点Pが属する四面体に応じて図9に示した値をとる。ここで、図9の図表に示したfR,fG,fBは、ベクトルPKPの各軸方向の長さを表しており、fR=(x−x0 )/(x1 −x0 )、fG=(y−y0)/(y1 −y0 )、fB=(z−z0 )/(z1 −z0)となる。 It can be expressed as Here, P P is the coordinate of the primary color (RGB) selected according to the tetrahedron to which the point P belongs, and P S is the secondary color (CMY) selected according to the tetrahedron to which the point P belongs. (See FIG. 9). Further, bK, bW, bP, and bS indicate weights of the points P K , P W , P P , and P S , respectively, and take the values shown in FIG. 9 according to the tetrahedron to which the point P belongs. Here, fR, fG, and fB shown in the chart of FIG. 9 represent the lengths of the vectors P K P in the respective axial directions, and fR = (x−x 0 ) / (x 1 −x 0 ), fG = (y−y 0 ) / (y 1 −y 0 ) and fB = (z−z 0 ) / (z 1 −z 0 ).

なお、本実施の形態では、3次元LUTを用いた色補正として四面体補間を用いる構成としたが、四面体補間では、3次元空間を形成する最小の立体であり、一度にアクセスする個数が4つであるため、計算コストが少なくてすむというメリットがある反面、3次元空間を細かく分割することとなるため境界での不連続性が生じる虞が生じる。そのため、採用する補間方法は、四面体補間に限定せずに、計算コスト、精度、デバイス特性等を考慮して柔軟に定めることが望ましい。   In this embodiment, tetrahedral interpolation is used for color correction using a three-dimensional LUT. However, tetrahedral interpolation is the smallest solid that forms a three-dimensional space, and the number of accesses at one time is small. Since there are four, there is a merit that the calculation cost can be reduced. However, since the three-dimensional space is finely divided, there is a possibility that discontinuity occurs at the boundary. Therefore, it is desirable that the interpolation method to be adopted is not limited to tetrahedral interpolation but is determined flexibly in consideration of calculation cost, accuracy, device characteristics, and the like.

本実施の形態では、このような色補正をハードウェアの処理により実現する。図10は実施の形態1に係る色補正部35Aの内部構成を説明するブロック図である。色補正部35Aは、1次元LUTを用いて非線形性の補正を行う1次元LUT計算部351と3次元LUTを用いた色補正を行う3次元LUT計算部352とにより構成される。なお、1次元LUT計算部351で用いる1次元LUT、及び3次元LUT計算部352で用いる3次元LUTは予め記憶部8に格納されており、画像形成装置の電源が投入されたときに制御部1内のRAMにロードするように構成されている。   In the present embodiment, such color correction is realized by hardware processing. FIG. 10 is a block diagram illustrating the internal configuration of the color correction unit 35A according to the first embodiment. The color correction unit 35A includes a one-dimensional LUT calculation unit 351 that performs nonlinear correction using a one-dimensional LUT and a three-dimensional LUT calculation unit 352 that performs color correction using a three-dimensional LUT. The one-dimensional LUT used in the one-dimensional LUT calculation unit 351 and the three-dimensional LUT used in the three-dimensional LUT calculation unit 352 are stored in the storage unit 8 in advance, and the control unit is turned on when the image forming apparatus is turned on. 1 is configured to be loaded into the RAM in the memory.

1次元LUT計算部351には、領域分離処理部34から出力されるRGB信号、及び領域識別信号が入力される。1次元LUT計算部351のアドレス参照部351aは、入力されたRGB信号及び領域識別信号に基づき、制御部1内にロードされた第1領域用又は第2領域用の1次元LUTにアクセスし、非線形性を補正したRGB信号を取得する。すなわち、1次元LUT計算部351は、本発明の色変換装置における変換手段として機能する。1次元LUT計算部351によって非線形性が補正されたRGB信号は、3次元LUT計算部352の重み付け計算部352a及びアドレス計算部352bに出力される。   The one-dimensional LUT calculation unit 351 receives the RGB signal output from the region separation processing unit 34 and the region identification signal. The address reference unit 351a of the one-dimensional LUT calculation unit 351 accesses the one-dimensional LUT for the first region or the second region loaded in the control unit 1 based on the input RGB signal and region identification signal. An RGB signal whose nonlinearity is corrected is acquired. That is, the one-dimensional LUT calculation unit 351 functions as conversion means in the color conversion apparatus of the present invention. The RGB signal whose nonlinearity is corrected by the one-dimensional LUT calculation unit 351 is output to the weighting calculation unit 352a and the address calculation unit 352b of the three-dimensional LUT calculation unit 352.

重み付け計算部352aは、入力された信号から所望の重み付けを算出し、補間演算部352cに値を渡す。一方、アドレス計算部352bは、入力された信号からアクセスすべきアドレスを算出し、制御部1内のRAMにアクセスすることによって3次元LUTに保持されている色補正値を取得する。アドレス計算部352bが取得した色補正値は補間演算部352cに出力される。補間演算部352cは、重み付け計算部352aから出力された重み付けとアドレス計算部352bから出力された色補正値とに基づいて3次元補間演算を行い、出力信号(CMY信号)を生成する。すなわち、3次元LUT計算部352は本発明の色変換装置における演算手段として機能する。   The weight calculation unit 352a calculates a desired weight from the input signal and passes the value to the interpolation calculation unit 352c. On the other hand, the address calculation unit 352b calculates an address to be accessed from the input signal, and obtains the color correction value held in the three-dimensional LUT by accessing the RAM in the control unit 1. The color correction value acquired by the address calculation unit 352b is output to the interpolation calculation unit 352c. The interpolation calculation unit 352c performs a three-dimensional interpolation calculation based on the weighting output from the weighting calculation unit 352a and the color correction value output from the address calculation unit 352b, and generates an output signal (CMY signal). That is, the three-dimensional LUT calculation unit 352 functions as a calculation unit in the color conversion apparatus of the present invention.

なお、本実施の形態の3次元LUT計算部352では、補間演算により出力信号を求める構成であったが、補間演算を行わずに、全ての入力画像データの組み合わせに対する出力画像データを予め計算したテーブルを用いる直接変換法によって色補正値を取得する構成であってもよい。この場合、3次元LUT計算部352には重み付け計算部352a及び補間演算部352cが不要であり、アドレス計算部352bのみにより構成されることとなる。   In the three-dimensional LUT calculation unit 352 of the present embodiment, the output signal is obtained by interpolation calculation, but output image data for all combinations of input image data is calculated in advance without performing interpolation calculation. The color correction value may be acquired by a direct conversion method using a table. In this case, the three-dimensional LUT calculation unit 352 does not need the weighting calculation unit 352a and the interpolation calculation unit 352c, and is configured only by the address calculation unit 352b.

実施の形態2.
実施の形態1に示した色補正部35Aでは、領域識別信号に応じて1次元LUTを切替える構成としたが、1次元LUTを切替える代わりに入力信号(RGB信号)に対して異なるオフセット量を加算し、1つの1次元LUTを用いて非線形性の補正を行う構成であってもよい。本実施の形態で用いる色補正部35Bの動作については図11で説明し、内部構成については図13で説明する。色補正部35B以外の構成については実施の形態1と同様であるため、その説明を省略することとする。
Embodiment 2. FIG.
In the color correction unit 35A shown in the first embodiment, the one-dimensional LUT is switched according to the region identification signal, but a different offset amount is added to the input signal (RGB signal) instead of switching the one-dimensional LUT. In addition, a configuration in which nonlinearity correction is performed using one one-dimensional LUT may be employed. The operation of the color correction unit 35B used in this embodiment will be described with reference to FIG. 11, and the internal configuration will be described with reference to FIG. Since the configuration other than the color correction unit 35B is the same as that of the first embodiment, the description thereof will be omitted.

図11は実施の形態2に係る色補正部35Bの動作を説明する模式的説明図であり、図12は色補正部35Bで用いる1次元LUTの概念図である。色補正部35Bには領域分離処理部34から出力されるRGB信号及び領域識別信号が入力される。色補正部35Bでは、領域識別信号に基づいて補正対象の画素が網点領域、文字領域、写真領域の何れに属するかを識別することができ、この識別結果に基づいてRGB信号に加算すべきオフセット量を設定する。そして、設定されたオフセット量をRGB信号に加算した後、非線形性の補正を行うために1次元LUTを用いた画素値の変換を各色成分毎(R,G,Bの各色成分毎)に行う。この1次元LUTを用いた画素値の変換では、加算したオフセット量に応じてRGB色空間の異なる領域にマッピングされている3次元LUT(色補正テーブル)にアクセスできるように変換する。また、3次元LUTを用いた色補正では、そのRGB色空間に対して規定された1つの3次元LUTを用いて色補正を行う。   FIG. 11 is a schematic explanatory diagram for explaining the operation of the color correction unit 35B according to the second embodiment, and FIG. 12 is a conceptual diagram of a one-dimensional LUT used in the color correction unit 35B. The RGB signal and the region identification signal output from the region separation processing unit 34 are input to the color correction unit 35B. The color correction unit 35B can identify whether the pixel to be corrected belongs to a halftone dot region, a character region, or a photo region based on the region identification signal, and should be added to the RGB signal based on the identification result Set the offset amount. Then, after the set offset amount is added to the RGB signal, pixel value conversion using a one-dimensional LUT is performed for each color component (for each color component of R, G, and B) in order to correct nonlinearity. . In the conversion of the pixel value using the one-dimensional LUT, conversion is performed so that a three-dimensional LUT (color correction table) mapped in different regions of the RGB color space can be accessed according to the added offset amount. In color correction using a three-dimensional LUT, color correction is performed using one three-dimensional LUT defined for the RGB color space.

本実施の形態では、領域に応じてオフセット量を切替えることにより入出力の範囲を異ならせている。例えば、入力画像の各画素が印画紙写真領域(第1領域とする)に属する場合、オフセット量を256に設定することによって入力信号の画素値の範囲を256〜511に変換することができ、図12に示した1次元LUTを用いることで出力信号の画素値の範囲を256〜511に変換することができる。また、入力画像の各画素が文字領域又は網点領域(第1領域とする)に属する場合、オフセット量を0に設定することよって入力信号の画素値の範囲を0〜255にすることができ、同じく図12に示した1次元LUTを用いることで出力信号の画素値の範囲を0〜255にすることができる。   In this embodiment, the input / output ranges are made different by switching the offset amount according to the region. For example, when each pixel of the input image belongs to a photographic paper photograph area (first area), the pixel value range of the input signal can be converted to 256 to 511 by setting the offset amount to 256, By using the one-dimensional LUT shown in FIG. 12, the pixel value range of the output signal can be converted into 256 to 511. When each pixel of the input image belongs to a character area or a halftone dot area (first area), the pixel value range of the input signal can be set to 0 to 255 by setting the offset amount to 0. Similarly, by using the one-dimensional LUT shown in FIG. 12, the range of the pixel value of the output signal can be set to 0-255.

このように画素の属する領域に応じて異なる範囲の値を出力する1次元LUTを用いることにより、色空間上では互いに異なる領域内の点にマッピングされることとなる。すなわち、第1領域に属する画素に関しては、256≦R≦511、256≦G≦511、256≦B≦511(ここで、R,G,Bは1次元LUTによって変換した画素の各色成分の画素値を示す)を満たす領域内の点にマッピングされ、第2領域に属する画素に関しては、0≦R≦255、0≦G≦255、0≦B≦255を満たす領域内の点にマッピングされることとなる。そこで、各領域内の点に対応させた色補正テーブル(すなわち、第1領域用3次元LUT及び第2領域用3次元LUTを1つのテーブルで記述した3次元LUT)を用意しておくことにより、領域識別信号に応じた3次元LUTの切替えが不要となり、それぞれの領域に対する適切な色補正処理が可能となる。   In this way, by using a one-dimensional LUT that outputs values in different ranges depending on the region to which the pixel belongs, mapping is performed on points in different regions on the color space. That is, for pixels belonging to the first region, 256 ≦ R ≦ 511, 256 ≦ G ≦ 511, 256 ≦ B ≦ 511 (where R, G, and B are pixels of each color component of the pixel converted by the one-dimensional LUT. The pixels belonging to the second region are mapped to points in the region satisfying 0 ≦ R ≦ 255, 0 ≦ G ≦ 255, and 0 ≦ B ≦ 255. It will be. Therefore, by preparing a color correction table corresponding to the points in each region (that is, a three-dimensional LUT in which the first region three-dimensional LUT and the second region three-dimensional LUT are described in one table). Therefore, it is not necessary to switch the three-dimensional LUT according to the area identification signal, and appropriate color correction processing can be performed for each area.

図13は実施の形態2に係る色補正部35Bの内部構成を説明するブロック図である。色補正部35Bは、領域識別信号に応じたオフセット量を設定するオフセット計算部353、1次元LUTを用いて非線形性の補正を行う1次元LUT計算部354、及び3次元LUTを用いた色補正を行う3次元LUT計算部355により構成される。なお、1次元LUT計算部354で用いる1次元LUT、及び3次元LUT計算部355で用いる3次元LUTは予め記憶部8に格納されており、画像形成装置の電源が投入されたときに制御部1内のRAMにロードするように構成されている。   FIG. 13 is a block diagram illustrating an internal configuration of the color correction unit 35B according to the second embodiment. The color correction unit 35B includes an offset calculation unit 353 that sets an offset amount according to the region identification signal, a one-dimensional LUT calculation unit 354 that corrects nonlinearity using a one-dimensional LUT, and a color correction that uses a three-dimensional LUT. The three-dimensional LUT calculation unit 355 performs the above. The one-dimensional LUT used in the one-dimensional LUT calculation unit 354 and the three-dimensional LUT used in the three-dimensional LUT calculation unit 355 are stored in the storage unit 8 in advance, and the control unit is turned on when the image forming apparatus is turned on. 1 is configured to be loaded into the RAM in the memory.

オフセット計算部353には、領域分離処理部34から出力されるRGB信号、及び領域識別信号が入力される。オフセット計算部353のオフセット量切替部353bは、入力された領域識別信号に応じて加算すべきオフセット量を切替える。例えば、第1領域に属する画素の場合にはオフセット量を256に設定し、第2領域に属する画素の場合にはオフセット量を0に設定する。オフセット量切替部353bにて設定されたオフセット量はオフセット量加算部353aに出力され、入力されたRGB信号に加算される。   The offset calculation unit 353 receives the RGB signal and the region identification signal output from the region separation processing unit 34. The offset amount switching unit 353b of the offset calculation unit 353 switches the offset amount to be added according to the input region identification signal. For example, the offset amount is set to 256 for a pixel belonging to the first region, and the offset amount is set to 0 for a pixel belonging to the second region. The offset amount set by the offset amount switching unit 353b is output to the offset amount adding unit 353a and added to the input RGB signal.

オフセット量が加算されたRGB信号は、1次元LUT計算部354に出力される。1次元LUT計算部354のアドレス参照部354aは、RGB信号にオフセット量が加算された値に基づき、制御部1内にロードされた1次元LUTにアクセスし、非線形性を補正したRGB信号を取得する。1次元LUT計算部354によって非線形性が補正されたRGB信号は、3次元LUT計算部355の重み付け計算部355a及びアドレス計算部355bに出力される。   The RGB signal to which the offset amount is added is output to the one-dimensional LUT calculation unit 354. The address reference unit 354a of the one-dimensional LUT calculation unit 354 accesses the one-dimensional LUT loaded in the control unit 1 based on the value obtained by adding the offset amount to the RGB signal, and acquires the RGB signal corrected for nonlinearity. To do. The RGB signal whose nonlinearity is corrected by the one-dimensional LUT calculation unit 354 is output to the weighting calculation unit 355a and the address calculation unit 355b of the three-dimensional LUT calculation unit 355.

重み付け計算部355aは、入力された信号から所望の重み付けを算出し、補間演算部355cに値を渡す。一方、アドレス計算部355bは、入力された信号からアクセスすべきアドレスを算出し、制御部1内のRAMにアクセスすることによって3次元LUTに保持されている色補正値を取得する。アドレス計算部355bが取得した色補正値は補間演算部355cに出力される。補間演算部355cは、重み付け計算部355aから出力された重み付けとアドレス計算部355bから出力された色補正値とに基づいて3次元補間演算を行い、出力信号(CMY信号)を生成する。   The weight calculation unit 355a calculates a desired weight from the input signal and passes the value to the interpolation calculation unit 355c. On the other hand, the address calculation unit 355b calculates an address to be accessed from the input signal, and acquires the color correction value held in the three-dimensional LUT by accessing the RAM in the control unit 1. The color correction value acquired by the address calculation unit 355b is output to the interpolation calculation unit 355c. The interpolation calculation unit 355c performs a three-dimensional interpolation calculation based on the weighting output from the weighting calculation unit 355a and the color correction value output from the address calculation unit 355b, and generates an output signal (CMY signal).

以上のような構成で色補正を行う場合、オフセット量の切替のみを行えばよく、領域識別信号により1次元LUT及び3次元LUTを切り替えることなく、入力画像の各画素が属する領域に応じて適切な色補正処理を施すことが可能となる。   When performing color correction with the above-described configuration, it is only necessary to switch the offset amount, and it is appropriate according to the region to which each pixel of the input image belongs without switching between the one-dimensional LUT and the three-dimensional LUT by the region identification signal. It is possible to perform a color correction process.

実施の形態3.
実施の形態2に示した色補正部35Bでは、領域識別信号に応じて異なるオフセット量を入力信号(RGB信号)に加算し、1次元LUTを用いた非線形性の補正と、3次元LUTを用いた色補正とを順に行う構成としたが、1次元LUTを用いて非線形性の補正を行った後、領域識別信号に応じたオフセット量を加算し、3次元LUTを用いた色補正を行う構成としてもよい。本実施の形態で用いる色補正部35Cの動作については図14で説明し、内部構成については図16で説明する。色補正部35C以外の構成については実施の形態1と同様であるため、その説明を省略することとする。
Embodiment 3 FIG.
In the color correction unit 35B shown in the second embodiment, a different offset amount is added to the input signal (RGB signal) according to the region identification signal, and nonlinearity correction using a one-dimensional LUT and a three-dimensional LUT are used. However, after correcting nonlinearity using a one-dimensional LUT, an offset amount corresponding to a region identification signal is added and color correction using a three-dimensional LUT is performed. It is good. The operation of the color correction unit 35C used in the present embodiment will be described with reference to FIG. 14, and the internal configuration will be described with reference to FIG. Since the configuration other than the color correction unit 35C is the same as that of the first embodiment, the description thereof will be omitted.

図14は実施の形態3に係る色補正部35Cの動作を説明する模式的説明図であり、図15は色補正部35Cで用いる3次元LUTの概念図である。色補正部35Cには領域分離処理部34から出力されるRGB信号及び領域識別信号が入力される。色補正部35Cでは、まず、予め用意してある1次元LUTを用いて入力信号(RGB信号)に対する非線形性の補正を行う。また、色補正部35Cでは、領域識別信号に基づいて補正対象の画素が網点領域、文字領域、写真領域の何れに属するかを識別することができるため、この識別結果に基づいて、非線形性が補正されたRGB信号に加算すべきオフセット量を各色成分毎に設定する。そして、設定されたオフセット量をRGB信号に加算した後、3次元LUTを用いて色補正を行う。本実施の形態では、各画素の属する領域に応じてRGB色空間の異なる領域にマッピングされるようにオフセット量を設定する。   FIG. 14 is a schematic explanatory diagram for explaining the operation of the color correction unit 35C according to the third embodiment, and FIG. 15 is a conceptual diagram of a three-dimensional LUT used in the color correction unit 35C. The RGB signal and the region identification signal output from the region separation processing unit 34 are input to the color correction unit 35C. First, the color correction unit 35C corrects nonlinearity with respect to an input signal (RGB signal) using a one-dimensional LUT prepared in advance. Further, since the color correction unit 35C can identify whether the pixel to be corrected belongs to a halftone dot region, a character region, or a photographic region based on the region identification signal, the nonlinearity is determined based on the identification result. The offset amount to be added to the RGB signal corrected for is set for each color component. Then, after adding the set offset amount to the RGB signal, color correction is performed using a three-dimensional LUT. In the present embodiment, the offset amount is set so as to be mapped to different regions in the RGB color space according to the region to which each pixel belongs.

本実施の形態では、1次元LUTを用いて非線形性の補正を行った後、領域に応じたオフセット量を加算している。例えば、入力画像の各画素が印画紙写真領域(第1領域とする)に属する場合、R信号に対するオフセット量を256、G信号及びB信号に対するオフセット量を0に設定し、入力画像の各画素が文字領域又は網点領域(第2領域とする)に属する場合、RGBの各信号に対するオフセット量を0に設定する。その結果、図15に示すように、第1領域に属する画素に関しては、256≦R≦511、0≦G≦255、0≦B≦255を満たす領域内の点にマッピングされることとなり、第2領域に属する画素に関しては、0≦R≦255、0≦G≦255、0≦B≦255を満たす領域内の点にマッピングされることとなる。そこで、各領域内の点に対応させた色補正テーブル(すなわち、第1領域用3次元LUT及び第2領域用3次元LUTを1つのテーブルで記述した3次元LUT)を用意しておくことにより、領域識別信号に応じた3次元LUTの切替えが不要となり、それぞれの領域に対する適切な色補正処理が可能となる。また、前述した実施の形態とは異なり、色補正値を対角線上にしか保持できなかったため、無駄になっていたテーブルメモリを効率的に配置できるようになり、テーブルメモリの効率的な保持が可能となる。   In this embodiment, after correcting nonlinearity using a one-dimensional LUT, an offset amount corresponding to a region is added. For example, when each pixel of the input image belongs to a photographic paper photograph area (first area), the offset amount for the R signal is set to 256, the offset amount for the G signal and the B signal is set to 0, and each pixel of the input image is set. Is in the character area or halftone dot area (second area), the offset amount for each RGB signal is set to zero. As a result, as shown in FIG. 15, the pixels belonging to the first region are mapped to points in the region satisfying 256 ≦ R ≦ 511, 0 ≦ G ≦ 255, and 0 ≦ B ≦ 255. The pixels belonging to the two regions are mapped to points in the region satisfying 0 ≦ R ≦ 255, 0 ≦ G ≦ 255, and 0 ≦ B ≦ 255. Therefore, by preparing a color correction table corresponding to the points in each region (that is, a three-dimensional LUT in which the first region three-dimensional LUT and the second region three-dimensional LUT are described in one table). Therefore, it is not necessary to switch the three-dimensional LUT according to the area identification signal, and appropriate color correction processing can be performed for each area. In addition, unlike the above-described embodiment, since the color correction value can be held only on the diagonal line, the table memory that has been wasted can be arranged efficiently, and the table memory can be efficiently held. It becomes.

図16は実施の形態3に係る色補正部35Cの内部構成を説明するブロック図である。色補正部35Cは、1次元LUTを用いて非線形性の補正を行う1次元LUT計算部356、領域識別信号に応じたオフセット量を設定するオフセット計算部357、及び3次元LUTを用いた色補正を行う3次元LUT計算部358により構成される。なお、1次元LUT計算部356で用いる1次元LUT、及び3次元LUT計算部358で用いる3次元LUTは予め記憶部8に格納されており、画像形成装置の電源が投入されたときに制御部1内のRAMにロードするように構成されている。   FIG. 16 is a block diagram illustrating an internal configuration of the color correction unit 35C according to the third embodiment. The color correction unit 35C includes a one-dimensional LUT calculation unit 356 that corrects nonlinearity using a one-dimensional LUT, an offset calculation unit 357 that sets an offset amount according to a region identification signal, and color correction using a three-dimensional LUT. The three-dimensional LUT calculation unit 358 performs the above. The one-dimensional LUT used in the one-dimensional LUT calculation unit 356 and the three-dimensional LUT used in the three-dimensional LUT calculation unit 358 are stored in the storage unit 8 in advance, and the control unit is turned on when the power of the image forming apparatus is turned on. 1 is configured to be loaded into the RAM in the memory.

1次元LUT計算部356には、領域分離処理部34から出力されるRGB信号が入力される。1次元LUT計算部356のアドレス参照部356aは、入力されたRGB信号に基づき、制御部1内にロードされた1次元LUTにアクセスし、非線形性を補正したRGB信号を取得する。1次元LUT計算部356によって非線形性が補正されたRGB信号はオフセット計算部357へ出力される。   The one-dimensional LUT calculation unit 356 receives the RGB signal output from the region separation processing unit 34. The address reference unit 356a of the one-dimensional LUT calculation unit 356 accesses the one-dimensional LUT loaded in the control unit 1 based on the input RGB signal, and acquires an RGB signal in which nonlinearity is corrected. The RGB signal whose nonlinearity is corrected by the one-dimensional LUT calculation unit 356 is output to the offset calculation unit 357.

オフセット計算部357には、1次元LUT計算部356から出力されるRGB信号、領域分離処理部34から出力される領域識別信号が入力される。オフセット計算部357のオフセット量切替部357bは、入力された領域識別信号に応じて加算すべきオフセット量を切替える。例えば、第1領域に属する画素の場合にはR信号に対するオフセット量を256、G信号及びB信号に対するオフセット量を0に設定する。また、第2領域に属する画素の場合にはRGBの各信号に対してオフセット量を0に設定する。オフセット量切替部357bにて設定されたオフセット量はオフセット量加算部357aに出力され、入力されたRGB信号に加算される。オフセット量が加算されたRGB信号は、3次元LUT計算部358の重み付け計算部358a及びアドレス計算部358bに出力される。   The offset calculation unit 357 receives the RGB signal output from the one-dimensional LUT calculation unit 356 and the region identification signal output from the region separation processing unit 34. The offset amount switching unit 357b of the offset calculation unit 357 switches the offset amount to be added according to the input region identification signal. For example, in the case of a pixel belonging to the first region, the offset amount for the R signal is set to 256, and the offset amounts for the G signal and the B signal are set to 0. In the case of a pixel belonging to the second area, the offset amount is set to 0 for each RGB signal. The offset amount set by the offset amount switching unit 357b is output to the offset amount adding unit 357a and added to the input RGB signal. The RGB signal to which the offset amount is added is output to the weighting calculation unit 358a and the address calculation unit 358b of the three-dimensional LUT calculation unit 358.

重み付け計算部358aは、入力された信号から所望の重み付けを算出し、補間演算部358cに値を渡す。一方、アドレス計算部358bは、入力された信号からアクセスすべきアドレスを算出し、制御部1内にロードされた3次元LUTにアクセスし色補正値を取得する。アドレス計算部358bが取得した色補正値は補間演算部358cに出力される。補間演算部358cは、重み付け計算部358aから出力された重み付けとアドレス計算部358bから出力された色補正値とに基づいて3次元補間演算を行い、出力信号(CMY信号)を生成する。   The weight calculation unit 358a calculates a desired weight from the input signal and passes the value to the interpolation calculation unit 358c. On the other hand, the address calculation unit 358b calculates an address to be accessed from the input signal, accesses the three-dimensional LUT loaded in the control unit 1, and acquires a color correction value. The color correction value acquired by the address calculation unit 358b is output to the interpolation calculation unit 358c. The interpolation calculation unit 358c performs a three-dimensional interpolation calculation based on the weighting output from the weighting calculation unit 358a and the color correction value output from the address calculation unit 358b, and generates an output signal (CMY signal).

以上のような構成で色補正を行う場合、オフセット量の切替のみを行えばよく、領域識別信号により1次元LUT及び3次元LUTを切り替えることなく、入力画像の各画素が属する領域に応じて適切な色補正処理を施すことが可能となる。また、3次元LUTの効率的な保持が可能となる。   When performing color correction with the above-described configuration, it is only necessary to switch the offset amount, and it is appropriate according to the region to which each pixel of the input image belongs without switching between the one-dimensional LUT and the three-dimensional LUT by the region identification signal. It is possible to perform a color correction process. In addition, the three-dimensional LUT can be efficiently held.

図17は本実施の形態の変形例を説明する模式的説明図である。前述した実施の形態では、3次元LUT計算部358の前段でオフセット量を加算する構成としたが、1次元LUT計算部356の前段で第1のオフセット量を加算し、3次元LUT計算部358の前段で第2のオフセット量を加算する構成としてもよい。   FIG. 17 is a schematic explanatory view for explaining a modification of the present embodiment. In the embodiment described above, the offset amount is added before the three-dimensional LUT calculation unit 358. However, the first offset amount is added before the one-dimensional LUT calculation unit 356, and the three-dimensional LUT calculation unit 358 is added. The second offset amount may be added in the previous stage.

例えば、第1のオフセット量の加算では、実施の形態2と同様に、第1領域に属する画素の場合にはオフセット量を256に設定し、第2領域に属する画素の場合にはオフセット量を0に設定する。一方、第2のオフセット量の加算では、第1領域に属する画素の場合、R信号に対するオフセット量を0、G信号及びB信号に対するオフセット量を−256に設定し、第2領域に属する画素の場合、RGBの各信号に対するオフセット量を0に設定する。その結果、図15に示したものと同様に、第1領域に属する画素に関しては、256≦R≦511、0≦G≦255、0≦B≦255を満たす領域内の点にマッピングされることとなり、第2領域に属する画素に関しては、0≦R≦255、0≦G≦255、0≦B≦255を満たす領域内の点にマッピングされることとなる。そこで、各領域内の点に対応させた色補正テーブル(すなわち、第1領域用3次元LUT及び第2領域用3次元LUTを1つのテーブルで記述した3次元LUT)を用意しておくことにより、領域識別信号に応じた3次元LUTの切替えが不要となり、それぞれの領域に対する適切な色補正処理が可能となる。また、テーブルメモリを効率的に配置できるようになり、テーブルメモリの効率的な保持が可能となる。   For example, in the addition of the first offset amount, similarly to the second embodiment, the offset amount is set to 256 in the case of a pixel belonging to the first region, and the offset amount is set in the case of a pixel belonging to the second region. Set to 0. On the other hand, in the addition of the second offset amount, for pixels belonging to the first region, the offset amount for the R signal is set to 0, the offset amount for the G signal and the B signal is set to −256, and the pixels belonging to the second region are set. In this case, the offset amount for each RGB signal is set to zero. As a result, similar to that shown in FIG. 15, the pixels belonging to the first region are mapped to points in the region satisfying 256 ≦ R ≦ 511, 0 ≦ G ≦ 255, and 0 ≦ B ≦ 255. Thus, the pixels belonging to the second region are mapped to points in the region satisfying 0 ≦ R ≦ 255, 0 ≦ G ≦ 255, and 0 ≦ B ≦ 255. Therefore, by preparing a color correction table corresponding to the points in each region (that is, a three-dimensional LUT in which the first region three-dimensional LUT and the second region three-dimensional LUT are described in one table). Therefore, it is not necessary to switch the three-dimensional LUT according to the area identification signal, and appropriate color correction processing can be performed for each area. Further, the table memory can be arranged efficiently, and the table memory can be efficiently held.

実施の形態4.
前述した実施の形態では、領域識別信号に応じて適切な色補正処理を行う形態について説明したが、領域識別信号ではなく、入力画像の元となる原稿の種別に応じて適切な色補正処理を行う構成であってもよい。
Embodiment 4 FIG.
In the above-described embodiment, the mode in which appropriate color correction processing is performed in accordance with the region identification signal has been described. However, appropriate color correction processing is performed in accordance with the type of document that is the source of the input image, instead of the region identification signal. The structure to perform may be sufficient.

図18は実施の形態4に係る画像形成装置が備える画像処理部4の構成を示すブロック図である。なお、画像処理部4以外の構成については実施の形態1と全く同様であるため、その説明を省略することとする。画像処理部4は、AD変換部41、シェーディング補正部42、原稿種別判定部43、入力階調補正部44、領域分離処理部45、色補正部46、黒生成・下色除去部47、空間フィルタ処理部48、出力階調補正部49A、階調再現処理部49Bを備えている。   FIG. 18 is a block diagram illustrating a configuration of the image processing unit 4 included in the image forming apparatus according to the fourth embodiment. Since the configuration other than the image processing unit 4 is exactly the same as that of the first embodiment, the description thereof will be omitted. The image processing unit 4 includes an AD conversion unit 41, a shading correction unit 42, a document type determination unit 43, an input tone correction unit 44, a region separation processing unit 45, a color correction unit 46, a black generation / under color removal unit 47, a space A filter processing unit 48, an output tone correction unit 49A, and a tone reproduction processing unit 49B are provided.

本実施の形態の画像処理部4では、原稿種別判定部43の前段の処理として、AD変換部41にてアナログRGB信号をデジタルのRGB信号に変換し、シェーディング補正部42にて画像入力部2(図1参照)の照明系、結像系、撮像系で生じる各種の歪みを取り除く処理、及びカラーバランスを調整する処理を行う。   In the image processing unit 4 of the present embodiment, as a process preceding the document type determination unit 43, the analog RGB signal is converted into a digital RGB signal by the AD conversion unit 41, and the image input unit 2 is converted by the shading correction unit 42. A process of removing various distortions generated in the illumination system, the imaging system, and the imaging system (see FIG. 1) and a process of adjusting the color balance are performed.

原稿種別判定部43では、シェーディング補正部42にて各種の歪みが取り除かれ、カラーバランスの調整がなされたRGB信号(RGBの反射率信号)を濃度信号(例えば、CMY信号)に変換すると共に、入力された原稿画像が、文字原稿、印刷写真原稿、印画紙写真原稿であるか、又はそれらを組み合わせた文字/印刷写真原稿であるかなど原稿種別の判別を行うものである。   The document type determination unit 43 converts the RGB signal (RGB reflectance signal), from which various distortions have been removed by the shading correction unit 42 and the color balance has been adjusted, into a density signal (for example, a CMY signal). A document type is determined, for example, whether the input document image is a character document, a printed photograph document, a photographic paper photograph document, or a character / printed photograph document combining them.

原稿種別の判定方法としては、例えば、特開2002−218232号公報に記載された手法を用いることができる。この手法は、プレスキャンを行い、濃度ヒストグラムより、予め定められる閾値より小さい低度数濃度区分の数、第1の最大度数の濃度区分、第1の最大度数の濃度区分に隣接する濃度区分以外で最大度数値をもつ第2の最大度数の濃度区分を求め、第1の最大度数値の総画素数に対する割合、(第1の最大度数値−第2の最大度数値)の総画素数に対する割合を算出する。これらの値を予め定められる第1の閾値、第2の閾値、第3の閾値と比較することにより、原稿を文字、写真、文字/写真の何れかに分類する。   As a method for determining the document type, for example, a method described in JP-A-2002-218232 can be used. In this method, pre-scanning is performed, and from the density histogram, the number of low-frequency density sections that are smaller than a predetermined threshold value, the first maximum-frequency density section, and the density sections adjacent to the first maximum-frequency density section. A density category of the second maximum power having the maximum power value is obtained, and the ratio of the first maximum power value to the total number of pixels and the ratio of (first maximum power value−second maximum power value) to the total number of pixels. Is calculated. By comparing these values with predetermined first threshold value, second threshold value, and third threshold value, the document is classified into one of a character, a photograph, and a character / photo.

また、写真と判断された場合、入力画像データを二値化し、注目画素を含む複数の画素よりなるマスクを設定し、主走査方向・副走査方向での「0」から「1」、「1」から「0」への変化点数の和を求めて(高速化のために主走査方向の変化点数だけでも良い)、予め定められる閾値以上である場合には印刷写真(印刷写真の場合、局所領域における画像信号の変動が大きい。)、閾値未満である場合には印画紙写真と判別する。   If the image is determined to be a photograph, the input image data is binarized, a mask composed of a plurality of pixels including the target pixel is set, and “0” to “1”, “1” in the main scanning direction and the sub scanning direction are set. ”To“ 0 ”(only the number of change points in the main scanning direction may be used for speeding up), and if it is equal to or greater than a predetermined threshold value, a printed photograph (in the case of a printed photograph, local The image signal variation in the area is large.) If it is less than the threshold value, it is determined as a photographic paper photograph.

原稿種別の判定は前述にようにプレスキャンを行って判定しても良く、シェーディング補正後の画像信号をハードディスクなどの記憶媒体に格納しておき、格納されている画像信号を読出して行っても良い。   The document type may be determined by performing a pre-scan as described above, or by storing the image signal after shading correction in a storage medium such as a hard disk and reading the stored image signal. good.

原稿種別の判定結果としての原稿種別判定信号は色補正部46に出力される。色補正部46では、入力階調補正部44にて下地濃度、コントラスト等の画質の調整を行い、領域分離処理部45にて領域分離処理を行った後、原稿種別判定信号に応じた色補正処理を行う。この色補正処理では、例えば、印画紙写真原稿、文字印画紙写真原稿である場合、図4(a)に示した第1領域用の1次元LUTと、図5に示した第1領域用の3次元LUTとを用いて色補正処理を行う。また、文字原稿、文字印刷写真原稿、印刷写真原稿である場合には、図4(b)に示した第2領域用の1次元LUTと、図5に示した第2領域用の3次元LUTとを用いて色補正処理を行う。   A document type determination signal as a document type determination result is output to the color correction unit 46. The color correction unit 46 adjusts image quality such as background density and contrast in the input tone correction unit 44, performs region separation processing in the region separation processing unit 45, and then performs color correction according to the document type determination signal. Process. In this color correction processing, for example, in the case of a photographic paper photographic original or a character photographic paper photographic original, the one-dimensional LUT for the first area shown in FIG. 4A and the first area for the first area shown in FIG. Color correction processing is performed using a three-dimensional LUT. In the case of a character document, a character-printed photo document, or a printed photo document, the one-dimensional LUT for the second area shown in FIG. 4B and the three-dimensional LUT for the second area shown in FIG. Color correction processing is performed using

色補正部46にて色補正処理を施した後、黒生成・下色除去部47、空間フィルタ処理部48、出力階調補正部49A、階調再現処理部49Bにおいて、実施の形態1と同様の処理を行う。   After the color correction processing is performed by the color correction unit 46, the black generation / under color removal unit 47, the spatial filter processing unit 48, the output gradation correction unit 49A, and the gradation reproduction processing unit 49B are the same as in the first embodiment. Perform the process.

なお、本実施の形態では、原稿種別判定部43にて原稿の種別を判定する構成としたが、利用者によるマニュアル入力に基づいて原稿の種別を判定する構成であってもよい。この場合、操作部9を通じて原稿の種別に係る情報を受付け、受付けた情報に基づいて制御部1が原稿の種別を判定する構成となる。制御部1は判定結果としての原稿種別判定信号を色補正部46に出力し、色補正部46ではこの原稿種別判定信号に応じて適切な色補正処理を行う。   In the present embodiment, the document type determination unit 43 determines the document type. However, the document type may be determined based on a manual input by the user. In this case, information related to the type of document is received through the operation unit 9, and the control unit 1 determines the type of document based on the received information. The control unit 1 outputs a document type determination signal as a determination result to the color correction unit 46, and the color correction unit 46 performs an appropriate color correction process according to the document type determination signal.

また、図18では原稿種別の判定結果である原稿種別判定信号を色補正部46にのみフィードバックしているが、入力階調補正部44、領域分離処理部45、空間フィルタ処理部48、及び階調再現処理部49Bに入力し、原稿の種別に応じた処理を行う構成としてもよい。   In FIG. 18, a document type determination signal, which is a document type determination result, is fed back only to the color correction unit 46. However, the input tone correction unit 44, the region separation processing unit 45, the spatial filter processing unit 48, and the floor A configuration may be adopted in which processing is performed in accordance with the type of document input to the tone reproduction processing unit 49B.

実施の形態5.
前述した実施の形態では、何れもハードウェアにより構成した画像形成装置により本発明を実現する構成としたが、ソフトウェアの処理により本発明を実現する構成であってもよい。
Embodiment 5 FIG.
In the above-described embodiments, the present invention is realized by the image forming apparatus configured by hardware. However, the present invention may be configured by software processing.

図19は本発明に係るコンピュータプログラムがインストールされた画像処理装置の内部構成を説明するブロック図である。図中10は、本実施の形態に係る画像処理装置であり、具体的にはパーソナルコンピュータ、ワークステーション等である。画像処理装置10はCPU11を備えており、このCPU11がバス12に接続されたROM13から各種の制御プログラムをRAM14にロードして実行し、操作部15、補助記憶部16、記憶部17、画像入力IF18、画像出力IF19等のハードウェアを制御する。   FIG. 19 is a block diagram illustrating an internal configuration of an image processing apparatus in which a computer program according to the present invention is installed. In the figure, reference numeral 10 denotes an image processing apparatus according to the present embodiment, specifically a personal computer, a workstation, or the like. The image processing apparatus 10 includes a CPU 11. The CPU 11 loads various control programs from the ROM 13 connected to the bus 12 to the RAM 14 and executes them. The operation unit 15, auxiliary storage unit 16, storage unit 17, image input The hardware such as the IF 18 and the image output IF 19 is controlled.

操作部15は、処理対象となる画像データの選択、画像処理に必要なパラメータの入力、画像処理の開始指示等を受付けるために、キーボード、マウス等を備える。補助記憶部16は、本発明のコンピュータプログラムを記録した記録媒体20からコンピュータプログラムを読取るための読取装置を備えている。記録媒体20としては、FD(Flexible Disk)、CD−ROM等を用いることができる。記憶部17は、ディスク状の磁気記録媒体を有するハードディスク装置を備えており、補助記憶部16により読取られたコンピュータプログラム、画像入力IF18を通じて入力された画像データ等を記憶する。   The operation unit 15 includes a keyboard, a mouse, and the like in order to select image data to be processed, input parameters necessary for image processing, an instruction to start image processing, and the like. The auxiliary storage unit 16 includes a reading device for reading the computer program from the recording medium 20 on which the computer program of the present invention is recorded. As the recording medium 20, an FD (Flexible Disk), a CD-ROM, or the like can be used. The storage unit 17 includes a hard disk device having a disk-shaped magnetic recording medium, and stores a computer program read by the auxiliary storage unit 16, image data input through the image input IF 18, and the like.

画像入力IF18は、画像入力装置21を接続するためのインタフェースである。画像入力IF18としてSCSI、USBのようなインタフェースを利用することでき、この画像入力IF18に接続する画像入力装置21としては、スキャナ装置、デジタルスチルカメラ等を挙げることができる。画像出力IF19は、画像出力装置22を接続するためのインタフェースである。画像出力IF19としてUSBのようなインタフェースを利用することができ、この画像出力IF19に接続する画像出力装置22としては、プリンタ装置、デジタル複合機等を挙げることができる。   The image input IF 18 is an interface for connecting the image input device 21. An interface such as SCSI or USB can be used as the image input IF 18, and examples of the image input device 21 connected to the image input IF 18 include a scanner device and a digital still camera. The image output IF 19 is an interface for connecting the image output device 22. An interface such as USB can be used as the image output IF 19, and examples of the image output device 22 connected to the image output IF 19 include a printer device and a digital multi-function peripheral.

なお、本発明に係るコンピュータプログラムを記録する記録媒体20としては、前述したFD及びCD−ROMの他に、MO、MD、DVD等の光ディスク、ハードディスクのような磁気記録媒体、ICカード、メモリカード、光カード等のカード型記録媒体、マスクROM、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)、フラッシュROM等による半導体メモリの利用も可能である。   As the recording medium 20 for recording the computer program according to the present invention, in addition to the above-mentioned FD and CD-ROM, optical recording medium such as MO, MD, DVD, magnetic recording medium such as hard disk, IC card, memory card Further, it is also possible to use a semiconductor memory such as a card-type recording medium such as an optical card, a mask ROM, an EPROM (Erasable Programmable Read Only Memory), an EEPROM (Electrically Erasable Programmable Read Only Memory), a flash ROM, or the like.

また、画像処理装置10が通信ネットワークを介してサーバ装置等に接続するための通信手段としてモデム等を備えている場合には、サーバ装置に予め本発明のコンピュータプログラムを記憶させておき、当該サーバ装置から前記コンピュータプログラムをダウンロードし、画像処理装置10内にインストールする構成であってもよい。   When the image processing apparatus 10 includes a modem or the like as a communication means for connecting to a server apparatus or the like via a communication network, the computer program of the present invention is stored in advance in the server apparatus, and the server The computer program may be downloaded from the apparatus and installed in the image processing apparatus 10.

図20は画像処理装置10が実行する色補正処理の手順を説明するフローチャートである。画像処理装置10のCPU11は、記憶部17から読出した画像データ、画像入力IF18を通じて入力された画像データに対して領域分離処理を行う(ステップS11)。領域分離処理は、実施の形態1で説明した手法と同様の手法を用いることができ、各画素が属する領域に関する情報(領域識別情報)を生成する。なお、この領域分離処理の前処理として、シェーディング補正、入力階調補正等の処理を行う構成であってもよい。   FIG. 20 is a flowchart for explaining the procedure of color correction processing executed by the image processing apparatus 10. The CPU 11 of the image processing apparatus 10 performs a region separation process on the image data read from the storage unit 17 and the image data input through the image input IF 18 (step S11). For the region separation process, a method similar to the method described in the first embodiment can be used, and information (region identification information) about a region to which each pixel belongs is generated. In addition, as a pre-process of this region separation process, a configuration in which processes such as shading correction and input tone correction are performed may be employed.

次いで、CPU11は、領域識別情報に基づいて切替えた1次元LUTを用いて、入力画像データの変換を実行する(ステップS12)。例えば、対象の画素が印画紙写真領域(第1領域とする)に属すると判断できる場合、図4(a)に示したような1次元LUTを用いて画素値の変換を行うことにより非線形性の補正を行い、文字領域又は網点領域(第2領域とする)に属すると判断できる場合、図4(b)に示したような1次元LUTを用いて画素値の変換を行うことにより非線形性の補正を行う。
なお、この変換で用いる1次元LUTは本発明のコンピュータプログラムの内部パラメータとして提供される形態であってもよく、コンピュータプログラムとは別に提供される形態であってもよい。
Next, the CPU 11 performs conversion of input image data using the one-dimensional LUT switched based on the area identification information (step S12). For example, when it can be determined that the target pixel belongs to the photographic paper photograph area (referred to as the first area), nonlinearity is obtained by converting the pixel value using a one-dimensional LUT as shown in FIG. When it can be determined that the image belongs to the character region or the halftone dot region (referred to as the second region), the pixel value is converted using a one-dimensional LUT as shown in FIG. Perform sex correction.
Note that the one-dimensional LUT used in this conversion may be provided as an internal parameter of the computer program of the present invention, or may be provided separately from the computer program.

次いで、CPU11は、変換したデータを用いて重み付けを算出するとともに(ステップS13)、変換したデータを用いてアドレスを求め、3次元LUTから色補正値の読出しを行う(ステップS14)。すなわち、領域に応じた1次元LUTを用いて画素値の変換を行うことにより、変換先が色空間上の異なる領域にマッピングされることとなるため、例えば、図5に示したような3次元LUTを用いることによって領域に応じた適切な色変換を行うことができる。
なお、この色変換で用いる3次元LUTは本発明のコンピュータプログラムの内部パラメータとして形態される構成であってもよく、コンピュータプログラムとは別に提供される形態であってもよい。
Next, the CPU 11 calculates a weight using the converted data (step S13), obtains an address using the converted data, and reads a color correction value from the three-dimensional LUT (step S14). That is, by converting the pixel value using a one-dimensional LUT corresponding to the region, the conversion destination is mapped to a different region in the color space. For example, the three-dimensional as shown in FIG. By using the LUT, it is possible to perform appropriate color conversion according to the area.
The three-dimensional LUT used in the color conversion may be configured as an internal parameter of the computer program of the present invention, or may be provided separately from the computer program.

次いで、CPU11は、ステップS13で算出した重み付け、及びステップS14で読出した補正値に基づいて補間演算を実行し、出力画像データを生成する(ステップS15)。   Next, the CPU 11 performs an interpolation operation based on the weight calculated in step S13 and the correction value read in step S14, and generates output image data (step S15).

このように、本実施の形態では、領域識別情報に基づいて利用する1次元LUTを切替え、切替えた1次元LUTを用いて画素値の変換を行った後、3次元LUTを用いた色変換を行う。すなわち、実施の形態1で説明した画像形成装置をソフトウェアによる処理で実現している。   As described above, in the present embodiment, the one-dimensional LUT to be used is switched based on the region identification information, and after the pixel value is converted using the switched one-dimensional LUT, the color conversion using the three-dimensional LUT is performed. Do. In other words, the image forming apparatus described in the first embodiment is realized by software processing.

実施の形態6.
実施の形態5では、実施の形態1の画像形成装置を実現するコンピュータプログラムについて説明したが、実施の形態2で説明した色補正部35Bをコンピュータプログラムにより実現してもよい。なお、本実施の形態に係るコンピュータプログラムをインストールする画像処理装置10の内部構成は実施の形態5に説明したものと同様である。
Embodiment 6 FIG.
In the fifth embodiment, the computer program for realizing the image forming apparatus of the first embodiment has been described. However, the color correction unit 35B described in the second embodiment may be realized by a computer program. The internal configuration of the image processing apparatus 10 that installs the computer program according to the present embodiment is the same as that described in the fifth embodiment.

図21は画像処理装置10が実行する色変換処理の手順を説明するフローチャートである。画像処理装置10のCPU11は、記憶部17から読出した画像データ、画像入力IF18を通じて入力された画像データに対して領域分離処理を行う(ステップS21)。領域分離処理は、実施の形態1で説明した手法と同様の手法を用いることができ、各画素が属する領域に関する情報(領域識別情報)を生成する。なお、この領域分離処理の前処理として、シェーディング補正、入力階調補正等の処理を行う構成であってもよい。   FIG. 21 is a flowchart for explaining the procedure of color conversion processing executed by the image processing apparatus 10. The CPU 11 of the image processing apparatus 10 performs a region separation process on the image data read from the storage unit 17 and the image data input through the image input IF 18 (step S21). For the region separation process, a method similar to the method described in the first embodiment can be used, and information (region identification information) about a region to which each pixel belongs is generated. In addition, as a pre-process of this region separation process, a configuration in which processes such as shading correction and input tone correction are performed may be employed.

次いで、CPU11は、生成した領域識別情報に基づいて画素毎のオフセット量を設定し(ステップS22)、設定したオフセット量を入力画像データに加算する。(ステップS23)。そして、図12に示したような1次元LUTを用いて、オフセット量を加算したデータに対する変換を実行する(ステップS24)。例えば、入力画像データの各画素が印画紙写真領域(第1領域とする)に属する場合、オフセット量を256に設定することによって入力画像データの画素値の範囲を256〜511にすることができ、図12に示したような1次元LUTを用いることで出力画像データの画素値の範囲を256〜511にすることができる。また、入力画像データの各画素が文字領域又は網点領域(第2領域とする)に属する場合、オフセット量を0に設定することよって入力画像データの画素値の範囲を0〜255にすることができ、同じく図12に示したような1次元LUTを用いることで出力画像データの画素値の範囲を0〜255にすることができる。   Next, the CPU 11 sets an offset amount for each pixel based on the generated region identification information (step S22), and adds the set offset amount to the input image data. (Step S23). Then, using the one-dimensional LUT as shown in FIG. 12, conversion is performed on the data added with the offset amount (step S24). For example, when each pixel of the input image data belongs to the photographic paper photograph area (first area), the pixel value range of the input image data can be set to 256 to 511 by setting the offset amount to 256. By using the one-dimensional LUT as shown in FIG. 12, the pixel value range of the output image data can be set to 256 to 511. When each pixel of the input image data belongs to a character area or a halftone dot area (second area), the pixel value range of the input image data is set to 0 to 255 by setting the offset amount to 0. Similarly, by using a one-dimensional LUT as shown in FIG. 12, the range of pixel values of output image data can be set to 0-255.

次いで、CPU11は、変換したデータを用いて重み付けを算出するとともに(ステップS25)、変換したデータを用いてアドレスを求め、3次元LUTから色補正値の読出しを行う(ステップS26)。すなわち、ステップS24の処理では、領域に応じて変換先が色空間上の異なる領域にマッピングされるため、例えば、図5に示したような3次元LUTを用いることによって領域に応じた適切な色変換を行うことができる。   Next, the CPU 11 calculates a weight using the converted data (step S25), obtains an address using the converted data, and reads a color correction value from the three-dimensional LUT (step S26). That is, in the process of step S24, the conversion destination is mapped to a different area in the color space depending on the area. For example, an appropriate color corresponding to the area can be obtained by using a three-dimensional LUT as shown in FIG. Conversion can be performed.

次いで、CPU11は、ステップS25で算出した重み付け、及びステップS26で読出した補正値に基づいて補間演算を実行し、出力画像データを生成する(ステップS27)。   Next, the CPU 11 performs an interpolation operation based on the weight calculated in step S25 and the correction value read in step S26, and generates output image data (step S27).

このように、本実施の形態では、オフセット量の切替のみを行えばよく、領域識別情報により1次元LUT及び3次元LUTを切り替えることなく、入力画像の各画素が属する領域に応じて適切な色変換処理を施すことが可能となる。   Thus, in this embodiment, it is only necessary to switch the offset amount, and an appropriate color can be selected according to the region to which each pixel of the input image belongs without switching between the one-dimensional LUT and the three-dimensional LUT according to the region identification information. Conversion processing can be performed.

実施の形態7.
実施の形態5では、実施の形態1の画像形成装置を実現するコンピュータプログラムについて説明したが、実施の形態3で説明した色補正部35Cをコンピュータプログラムにより実現してもよい。なお、本実施の形態に係るコンピュータプログラムをインストールする画像処理装置10の内部構成は実施の形態5に説明したものと同様である。
Embodiment 7 FIG.
In the fifth embodiment, the computer program for realizing the image forming apparatus of the first embodiment has been described. However, the color correction unit 35C described in the third embodiment may be realized by a computer program. The internal configuration of the image processing apparatus 10 that installs the computer program according to the present embodiment is the same as that described in the fifth embodiment.

図22は画像処理装置10が実行する色変換処理の手順を説明するフローチャートである。画像処理装置10のCPU11は、記憶部17から読出した画像データ、画像入力IF18を通じて入力された画像データに対して領域分離処理を行う(ステップS31)。領域分離処理は、実施の形態1で説明した手法と同様の手法を用いることができ、各画素が属する領域に関する情報(領域識別情報)を生成する。なお、この領域分離処理の前処理として、シェーディング補正、入力階調補正等の処理を行う構成であってもよい。   FIG. 22 is a flowchart illustrating the procedure of the color conversion process executed by the image processing apparatus 10. The CPU 11 of the image processing apparatus 10 performs a region separation process on the image data read from the storage unit 17 and the image data input through the image input IF 18 (step S31). For the region separation process, a method similar to the method described in the first embodiment can be used, and information (region identification information) about a region to which each pixel belongs is generated. In addition, as a pre-process of this region separation process, a configuration in which processes such as shading correction and input tone correction are performed may be employed.

次いで、CPU11は、1次元LUTを用いて、入力画像データの変換を実行する(ステップS32)。この変換で用いる1次元LUTは一種類であり、領域識別情報による切替えは行わないものとする。   Next, the CPU 11 performs conversion of the input image data using the one-dimensional LUT (step S32). One-dimensional LUT used in this conversion is one type, and switching based on area identification information is not performed.

次いで、CPU11は、変換された入力画像データに対し、領域識別情報に応じたオフセット量を加算する(ステップS33)。例えば、領域識別情報に基づいて対象の画素が第1領域に属する場合、R信号に対してオフセット量256を加算し、G信号及びB信号に対してオフセット量0を加算する。また、領域識別情報に基づいて対象の画素が第2領域に属する場合、RGBの各信号に対してオフセット量0を加算する。   Next, the CPU 11 adds an offset amount corresponding to the area identification information to the converted input image data (step S33). For example, when the target pixel belongs to the first region based on the region identification information, the offset amount 256 is added to the R signal, and the offset amount 0 is added to the G signal and the B signal. Further, when the target pixel belongs to the second region based on the region identification information, an offset amount 0 is added to each of the RGB signals.

次いで、CPU11は、オフセット量を加算したデータを用いて重み付けを算出するとともに(ステップS34)、オフセット量を加算したデータを用いてアドレスを求め、3次元LUTから色補正値の読出しを行う(ステップS35)。すなわち、ステップS33で領域に応じたオフセット量を加算することにより、色空間上の異なる領域にマッピングすることができるため、例えば、図15に示したような3次元LUTを用いることによって領域に応じた適切な色変換を行うことができる。   Next, the CPU 11 calculates a weight using the data added with the offset amount (step S34), obtains an address using the data added with the offset amount, and reads the color correction value from the three-dimensional LUT (step S34). S35). That is, by adding an offset amount corresponding to the region in step S33, it is possible to map to a different region in the color space. For example, using a three-dimensional LUT as shown in FIG. It is possible to perform appropriate color conversion.

次いで、CPU11は、ステップS34で算出した重み付け、及びステップS35で読出した補正値に基づいて補間演算を実行し、出力画像データを生成する(ステップS36)。   Next, the CPU 11 performs an interpolation operation based on the weight calculated in step S34 and the correction value read in step S35, and generates output image data (step S36).

このように、本実施の形態では、オフセット量の切替のみを行えばよく、領域識別信号により1次元LUT及び3次元LUTを切り替えることなく、入力画像の各画素が属する領域に応じて適切な色補正処理を施すことが可能となる。また、3次元LUTを効率的な保持が可能となる。   Thus, in this embodiment, it is only necessary to switch the offset amount, and an appropriate color can be selected according to the region to which each pixel of the input image belongs without switching between the one-dimensional LUT and the three-dimensional LUT by the region identification signal. Correction processing can be performed. In addition, the three-dimensional LUT can be efficiently held.

実施の形態8.
前述した実施の形態では、領域識別信号または原稿種別判定信号に応じて適切な色補正処理を行う形態について説明したが、これらの信号を用いる代わりに入力画像のコンテンツに応じて色補正を行う構成としてもよい。ここで、入力画像のコンテンツとは、画像データを色空間と原稿画像平面上において、ある意味のあるまとまりとして、分類分けされたものである。例えば、色空間上で青色領域であり、それらの画素が原稿画像平面上でまとまりとなって画像全体を覆っている場合、海や空と予想ができる。また、肌色が原稿画像平面上でまとまっていれば、人物画像であると予想できる。そして、それらそれぞれに対して色補正で強調処理をすることにより好ましく見えるようになる。
Embodiment 8 FIG.
In the above-described embodiment, the mode in which appropriate color correction processing is performed according to the area identification signal or the document type determination signal has been described. However, instead of using these signals, color correction is performed according to the content of the input image. It is good. Here, the content of the input image is obtained by classifying image data as a meaningful group on the color space and the original image plane. For example, in the case of a blue region on the color space and those pixels grouped together on the original image plane to cover the entire image, it can be predicted as the sea or the sky. Further, if the skin color is gathered on the original image plane, it can be predicted that the image is a person image. Each of them can be seen favorably by performing an enhancement process with color correction.

このように特定のコンテンツに対して、人間は個人の先入観や期待観により経験的に養われた記憶色によって印象が左右される。これは、例えば、肌色は健康的で明るい色が、植物の花や葉は鮮やかな色が好まれることに基づいている。そして、特に肌色や植物の緑、空の青などは記憶色に近づくような選択的強調処理を施すことで視覚的に良い印象を与えるということが提案されている。そして、この実施の形態では、色分布情報を用いることで、例えば、画像データの色空間において青領域が多い場合、海や空であると判断し、その領域に対してのみ彩度を強調した色補正ができるようになる。また、肌色の領域が多い場合は、人物画像と判断し、人肌に対してのみ、明度を強調した色補正ができるようになる。このように入力画像のコンテンツごとに色補正処理を切り替えることで、好ましい色再現をすることが可能になるのである。   In this way, an impression of a specific content depends on a memory color empirically nurtured by an individual's preconception and expectation. This is based on the fact that, for example, a healthy and bright skin color is preferred, and a bright color is preferred for plant flowers and leaves. In particular, it has been proposed that skin color, plant green, sky blue, and the like give a visually good impression by performing selective emphasis processing that approaches a memory color. In this embodiment, by using the color distribution information, for example, when there are many blue areas in the color space of the image data, it is determined that the area is the sea or sky, and the saturation is emphasized only for the area. Color correction can be performed. In addition, when there are many skin color areas, it is determined that the image is a person image, and color correction with enhanced lightness can be performed only for human skin. In this way, by switching the color correction processing for each content of the input image, it is possible to perform preferable color reproduction.

図23は実施の形態8に係る画像形成装置が備える画像処理部5の構成を示すブロック図である。画像処理部5は、AD変換部51、シェーディング補正部52、原稿種別判定部53、入力階調補正部54、色分布情報抽出部55、領域分離処理部56、色補正部57、黒生成・下色除去部58、空間フィルタ処理部59、出力階調補正部60A、階調再現処理部60Bを備えている。これらの構成要素のうち、色分布情報抽出部55以外の構成要素については、例えば、実施の形態4に示した画像処理部4の各構成要素と全く同様である。   FIG. 23 is a block diagram illustrating a configuration of the image processing unit 5 provided in the image forming apparatus according to the eighth embodiment. The image processing unit 5 includes an AD conversion unit 51, a shading correction unit 52, a document type determination unit 53, an input tone correction unit 54, a color distribution information extraction unit 55, a region separation processing unit 56, a color correction unit 57, a black generation / An under color removal unit 58, a spatial filter processing unit 59, an output tone correction unit 60A, and a tone reproduction processing unit 60B are provided. Among these components, the components other than the color distribution information extraction unit 55 are exactly the same as the respective components of the image processing unit 4 shown in the fourth embodiment, for example.

色分布情報抽出部55では、入力階調補正部54の出力信号(CMY信号)に基づいて入力画像中に青色領域、緑色領域、肌色領域など特定の領域が含まれているか否かを判定し、各画素がどの領域に属しているかを示す色分布情報信号を出力する。前述した特定の領域に含まれない場合、色分布情報信号は特定領域に含まれない領域として出力される。そして、色分布情報信号を色補正部57へ出力すると共に、入力階調補正部54から入力されたCMY信号をそのまま後段の領域分離処理部56に出力する。なお、図23では、色分布情報抽出部55は領域分離処理部56の前段に設けられているが、領域分離処理部56の後段に設けてもよい。また、原稿種別判定部53は必ずしも必要ではない。原稿種別判定部53を設けない場合には、シェーディング補正部52から出力されるRGB信号が入力階調補正部54に入力され、入力階調補正部54にて階調補正されたRGB信号が色分布情報抽出部55に入力される。   The color distribution information extraction unit 55 determines whether a specific region such as a blue region, a green region, or a skin color region is included in the input image based on the output signal (CMY signal) of the input tone correction unit 54. A color distribution information signal indicating which region each pixel belongs to is output. When not included in the specific area, the color distribution information signal is output as an area not included in the specific area. Then, the color distribution information signal is output to the color correction unit 57 and the CMY signal input from the input tone correction unit 54 is output to the subsequent region separation processing unit 56 as it is. In FIG. 23, the color distribution information extraction unit 55 is provided before the region separation processing unit 56, but may be provided after the region separation processing unit 56. The document type determination unit 53 is not always necessary. When the document type determination unit 53 is not provided, the RGB signal output from the shading correction unit 52 is input to the input tone correction unit 54, and the RGB signal whose tone is corrected by the input tone correction unit 54 is color. The information is input to the distribution information extraction unit 55.

以下、色分布情報抽出部55における処理について説明する。図24は色分布情報抽出部55の内部構成を説明するブロック図である。色分布情報抽出部55では、予めカラーチャート原稿の各カラーパッチを測色器で測色し、例えば、CIE1976L*** 信号(CIE : Commission International del'Eclairage、L* :明度、a* ,b*:色度)などを求め、入力階調補正部54から出力されるCMY信号(原稿種別判定部53を搭載しない場合にはRGB信号)から色空間変換特性を定式化しておく。色分布情報抽出部55の信号変換部551では、このような変換式を用いることにより、入力されたRGB信号を機器の特性に依存しないL*** 色信号に変換する。この変換はマスキング方程式で実現可能である。 Hereinafter, processing in the color distribution information extraction unit 55 will be described. FIG. 24 is a block diagram illustrating the internal configuration of the color distribution information extraction unit 55. The color distribution information extracting unit 55, and color measurement in advance of each color patch of the color chart document with calorimeter, for example, CIE1976L * a * b * signal (CIE: Commission International del'Eclairage, L *: lightness, a * , B * : chromaticity) and the like, and color space conversion characteristics are formulated from CMY signals output from the input tone correction unit 54 (RGB signals when the document type determination unit 53 is not installed). The signal conversion unit 551 of the color distribution information extraction unit 55 converts the input RGB signal to an L * a * b * color signal that does not depend on the characteristics of the device by using such a conversion formula. This conversion can be realized by a masking equation.

そして、判定部554は、抽出すべき絵柄部分(この場合、青色領域、緑色領域、肌色領域であり、入力画像のコンテンツを表す)を構成する色空間内、すなわちCIE1976L*** 色空間内の領域を特定し、L*** 色信号に基づいてその領域内に含まれる画素を抽出する。具体的な抽出方法は、以下の通りである。予めサンプル画像などから抽出すべき絵柄部分における各輝度(L* )とそれに対応する色差情報(色度)の平均値(a* バー,b* バー)、分散値(σa* ,σb*)とを求める。そして、これを各輝度(L* )に対応したLUT553として保持しておく。入力階調補正部54の出力信号を色変換した信号をL*,a* ,b* とした場合、抽出すべき絵柄部分に属しているか否かの判定は、以下の式に当てはめて同時に満たすか否かによって行う。 Then, the determination unit 554 is within a color space constituting a pattern portion to be extracted (in this case, a blue region, a green region, and a skin color region and represents the content of the input image), that is, the CIE 1976 L * a * b * color space. A region in the region is specified, and pixels included in the region are extracted based on the L * a * b * color signal. A specific extraction method is as follows. The average value (a * bar, b * bar), variance value (σa * , σb * ) of each luminance (L *) and corresponding color difference information (chromaticity) in a pattern portion to be extracted from a sample image or the like in advance Ask for. This is held as an LUT 553 corresponding to each luminance (L *). When the signal obtained by color-converting the output signal of the input tone correction unit 54 is L * , a * , b * , whether or not it belongs to the pattern part to be extracted is satisfied by applying the following formula at the same time. Depending on whether or not.

Figure 0004637686
Figure 0004637686

ここで、nは自然数である。この式は、色度a* ,b* が所定の範囲内にあるか否か判定する判定式を表している。色分布情報抽出部55では、色変換した輝度信号L* に対する色差情報の平均値(a* バー,b* バー)と分散値(σa* ,σb*)とをLUT553を参照することにより求める。なお、予め各輝度に対して色差情報の平均値及び分散値を定式化しておけば、LUT553を持たず、各輝度に応じた色差情報の平均値及び計算部552で直接求めることも可能である。そして、計算部552では、数式1に示したように色差情報の分散値(σa*,σb* )に自然数nを掛け、色差情報の平均値(a* バー,b* バー)に加減算した値を求めて判定部554に出力する。判定部554では、色変換した色差情報(a*,b* )が数式1のように計算部552で求めた値の範囲内にあるか否かを判定する。更に、判定部554では、数式1により抽出された画素の総数が全画像の画素数に対して予め定めた閾値より大きいかどうか判定も行う。例えば、数式1により抽出された画素が青領域にあっても、全画像の画素数に対して、ほんのわずか(例えば、約1%)である場合、青領域は画像全体を覆っていないため、空や海であると判断できない(むしろ、突発的なノイズと判定する)。逆に、全画像の画素数に対して、例えば約50%以上であれば、画像全体を覆っていると考えられ、空や海であると判断できる。このように抽出された画素の総数が予め定めた閾値より大きい場合、判定部は抽出された画素が抽出すべき絵柄部分に属していると判定し、抽出すべき絵柄部分の領域を示す値を色分布情報信号として出力する。 Here, n is a natural number. This expression represents a determination expression for determining whether the chromaticities a * and b * are within a predetermined range. The color distribution information extraction unit 55 obtains an average value (a * bar, b * bar) and variance value (σa * , σb * ) of color difference information with respect to the color-converted luminance signal L * by referring to the LUT553. If the average value and variance value of the color difference information are formulated in advance for each luminance, it is possible to directly obtain the average value and the calculation unit 552 of the color difference information corresponding to each luminance without having the LUT 553. . Then, the calculation unit 552 multiplies the variance value (σa * , σb * ) of the color difference information by a natural number n and adds / subtracts the average value (a * bar, b * bar) of the color difference information as shown in Equation 1. Is output to the determination unit 554. The determination unit 554 determines whether the color-converted color difference information (a * , b * ) is within the range of values obtained by the calculation unit 552 as in Equation 1. Further, the determination unit 554 also determines whether or not the total number of pixels extracted by Equation 1 is greater than a predetermined threshold with respect to the number of pixels of all images. For example, even if the pixel extracted by Equation 1 is in the blue region, if it is only a small amount (for example, about 1%) with respect to the number of pixels in the entire image, the blue region does not cover the entire image. It cannot be judged as sky or sea (rather, it is judged as sudden noise). On the contrary, if it is about 50% or more with respect to the number of pixels of the whole image, it is considered that the whole image is covered, and it can be judged that it is the sky or the sea. When the total number of pixels thus extracted is larger than a predetermined threshold, the determination unit determines that the extracted pixels belong to the pattern part to be extracted, and sets a value indicating the area of the pattern part to be extracted. Output as a color distribution information signal.

色分布情報抽出はプレスキャン時に行ってもよく、シェーディング補正処理が施された後の画像信号をハードディスクなどの記憶媒体に格納しておき、格納している画像信号を読み出して行ってもよい。   The color distribution information extraction may be performed at the time of pre-scanning, or may be performed by storing the image signal after the shading correction processing is performed in a storage medium such as a hard disk and reading out the stored image signal.

次に、色補正部57(色変換装置)の動作について説明する。図25は実施の形態8に係る色補正部57の動作を説明する模式的説明図であり、図26は色補正部57で用いる1次元LUTの概念図、図27は同じく3次元LUTの概念図である。前述したように、色補正部57には領域分離処理部56からのCMY信号、及び色分布情報抽出部55から出力される色分布情報信号が入力される。本実施の形態では、まず、色分布情報信号に応じて切替えたオフセット量を入力されたCMY信号に加算し(第1のオフセット加算)、オフセットを加算したCMY信号について1次元LUTを用いたデータ変換を行う。そして、変換されたデータに対し、色分布情報信号に応じて切り替えたオフセット量を加算し(第2のオフセット加算)、オフセットを加算したCMYについて3次元LUTを用いた色補正を行う。本実施の形態で用いる3次元LUTは、格子点の間隔(格子幅)全てが2n で構成されていて(nは整数)、格子点数は任意である。例えば、3次元LUTの格子幅が16(=24)である場合、前段の1次元LUTの出力値の範囲が0〜255であれば、格子点数は17点(256/16+1)になり、前段の1次元LUTの出力値の範囲が0〜335であれば、格子点数は22点(336/16+1=22)になる。 Next, the operation of the color correction unit 57 (color conversion device) will be described. 25 is a schematic explanatory diagram for explaining the operation of the color correction unit 57 according to the eighth embodiment. FIG. 26 is a conceptual diagram of a one-dimensional LUT used in the color correction unit 57. FIG. 27 is a conceptual diagram of the three-dimensional LUT. FIG. As described above, the color correction unit 57 receives the CMY signal from the region separation processing unit 56 and the color distribution information signal output from the color distribution information extraction unit 55. In the present embodiment, first, the offset amount switched according to the color distribution information signal is added to the input CMY signal (first offset addition), and data using the one-dimensional LUT is added to the CMY signal to which the offset is added. Perform conversion. Then, an offset amount switched according to the color distribution information signal is added to the converted data (second offset addition), and color correction using the three-dimensional LUT is performed on the CMY to which the offset is added. In the three-dimensional LUT used in the present embodiment, all lattice point intervals (lattice width) are 2 n (n is an integer), and the number of lattice points is arbitrary. For example, when the grid width of the three-dimensional LUT is 16 (= 2 4 ), if the output value range of the preceding one-dimensional LUT is 0 to 255, the number of grid points is 17 (256/16 + 1), If the output value range of the one-dimensional LUT in the previous stage is 0 to 335, the number of grid points is 22 (336/16 + 1 = 22).

図28は実施の形態8に係る色補正部57の内部構成を示すブロック図である。例えば、入力階調補正部54の出力信号CMYが(255,255,30)であり、青色領域(図26に示した第1領域とする)に属するものとした場合、オフセット計算部571内のオフセット量切替部571bは、色分布情報信号によりオフセット量を(0,0,0)に切替える。このオフセット量をオフセット量加算部571aがCMY信号に加算することにより、オフセット計算部571が出力する信号は(255,255,30)となる。加算された信号は1次元LUT計算部572に入力されて、加算された信号値に基づいてアドレス参照部572aが1次元LUTにアクセスし、それに対応する値を取得する。このとき、加算された信号は、図26に示した第1領域(0〜255の範囲)内であるため、第1領域用の1次元LUTを用いることになる。今、1次元LUTから取得した信号を(255、255、20)とする。次に、オフセット計算部573内のオフセット量切替部573bが色分布情報信号に基づいて設定するオフセット量を(256、0、0)とした場合、オフセット量加算部573aは、そのオフセット量を1次元LUTから取得した信号(255、255、20)に加算するため、オフセット計算部573が出力する信号は(511、255、20)になる。オフセット計算部573の出力信号は、3次元LUT計算部574に入力される。3次元LUT計算部574に信号(511、255、20)が入力された場合、その信号は図27に示した第1領域用(Cは256〜511、Mは0〜255、Yは0〜255の範囲)に属していることから、第1領域用の3次元LUTを用いて色補正処理を行う。なお、3次元LUTを用いた色補正処理方法は、実施の形態1に記載されている補間演算方法と同様の方法を用いることができる。この第1領域用の3次元LUTは、例えば、青色の彩度が高くなるようなデータを保持している。   FIG. 28 is a block diagram showing an internal configuration of the color correction unit 57 according to the eighth embodiment. For example, if the output signal CMY of the input tone correction unit 54 is (255, 255, 30) and belongs to the blue region (referred to as the first region shown in FIG. 26), the offset calculation unit 571 The offset amount switching unit 571b switches the offset amount to (0, 0, 0) based on the color distribution information signal. When the offset amount adding unit 571a adds the offset amount to the CMY signal, the signal output from the offset calculating unit 571 is (255, 255, 30). The added signal is input to the one-dimensional LUT calculation unit 572, and the address reference unit 572a accesses the one-dimensional LUT based on the added signal value and acquires a value corresponding thereto. At this time, since the added signal is in the first area (range 0 to 255) shown in FIG. 26, the one-dimensional LUT for the first area is used. Now, let the signal acquired from the one-dimensional LUT be (255, 255, 20). Next, when the offset amount set by the offset amount switching unit 573b in the offset calculation unit 573 based on the color distribution information signal is (256, 0, 0), the offset amount adding unit 573a sets the offset amount to 1. Since the signal is added to the signal (255, 255, 20) acquired from the dimension LUT, the signal output from the offset calculation unit 573 is (511, 255, 20). The output signal of the offset calculation unit 573 is input to the three-dimensional LUT calculation unit 574. When signals (511, 255, 20) are input to the three-dimensional LUT calculation unit 574, the signals are for the first area shown in FIG. 27 (C is 256 to 511, M is 0 to 255, and Y is 0 to 0). Therefore, the color correction process is performed using the three-dimensional LUT for the first area. Note that the color correction processing method using the three-dimensional LUT can use the same method as the interpolation calculation method described in the first embodiment. This three-dimensional LUT for the first area holds data such that, for example, blue saturation is high.

緑色(第2領域)、肌色(第3領域)、そして、いずれにも属さない領域(第4領域)においても、同様にして色補正処理が行われる。第2領域用の3次元LUTは、第1領域の場合と同様、緑色の彩度が高くなるようなデータを保持しており、第3領域用の3次元LUTは肌色の明度が高くなるようなデータを保持している。   Color correction processing is performed in the same manner for green (second region), skin color (third region), and regions that do not belong to any one (fourth region). As in the case of the first area, the 3D LUT for the second area holds data that increases the saturation of the green color, and the 3D LUT for the third area has a higher skin color brightness. Data is stored.

色補正部57にて色補正処理を施した後、黒生成・下色除去部58、空間フィルタ処理部59、出力階調補正部60A、階調再現処理部60Bにおいて、実施の形態1と同様の処理を行う。   After the color correction processing is performed by the color correction unit 57, the black generation / under color removal unit 58, the spatial filter processing unit 59, the output gradation correction unit 60A, and the gradation reproduction processing unit 60B are the same as in the first embodiment. Perform the process.

なお、図23では色分布情報抽出の判定結果である色分布情報信号を色補正部57にのみフィードバックしているが、空間フィルタ処理部59、及び階調再現処理部60Bに入力し、入力画像のコンテンツに応じた処理を行う構成としてもよい。また、前述の実施の形態で用いられている領域分離識別信号や原稿種別判定信号と組み合わせることにより、様々な原稿とコンテンツに適応した色補正も可能になる。   In FIG. 23, the color distribution information signal, which is the determination result of the color distribution information extraction, is fed back only to the color correction unit 57, but is input to the spatial filter processing unit 59 and the gradation reproduction processing unit 60B, and the input image It is good also as a structure which performs the process according to this content. Further, by combining with the region separation identification signal and the document type determination signal used in the above-described embodiment, color correction adapted to various documents and contents can be performed.

また、この実施の形態では、オフセット計算部571,573を1次元LUT計算部572の前後に配置した構成としたが、実施の形態2のようにオフセット計算部が1次元LUT計算部572の前だけにある構成であってもよく、実施の形態3のようにオフセット計算部が1次元LUT計算部572の後だけにある構成であってもよい。なお、1次元LUTにおける入出力関係は、図26だけでなく、図4や図12のようにすることも可能である。 In this embodiment, the offset calculation units 571 and 573 are arranged before and after the one-dimensional LUT calculation unit 572. However, the offset calculation unit is arranged in front of the one-dimensional LUT calculation unit 572 as in the second embodiment. The offset calculation unit may be configured only after the one-dimensional LUT calculation unit 572 as in the third embodiment. The input / output relationship in the one-dimensional LUT can be as shown in FIG. 4 and FIG. 12 as well as FIG.

以上のような構成で色補正を行う場合、オフセット量の切替のみを行えばよく、色分布情報信号により1次元LUT及び3次元LUTを切り替えることなく、入力画像の各画素が属する色の領域に応じて適切な色補正処理を施すことが可能となる。また、3次元LUTを効率的な保持が可能となる。   When performing color correction with the above configuration, it is only necessary to switch the offset amount, and without switching the one-dimensional LUT and the three-dimensional LUT by the color distribution information signal, the color region to which each pixel of the input image belongs is assigned. Accordingly, appropriate color correction processing can be performed. In addition, the three-dimensional LUT can be efficiently held.

実施の形態9.
実施の形態8では、ハードウェアにより本発明を実現する構成としたが、実施の形態8で行った処理をコンピュータプログラムにより実現してもよい。なお、本実施の形態に係るコンピュータプログラムをインストールする画像処理装置の内部構成は実施の形態5に説明したものと同様である。すなわち、本実施の形態に係るコンピュータプログラムがインストールされる画像処理装置10は、CPU11を備えており、このCPU11がRAM14上に前記コンピュータプログラムをロードして実行することにより、記憶部17から読み出した画像データ、又は画像入力IF18を通じて入力された画像データに対して色補正処理を施すように構成される。
Embodiment 9 FIG.
In the eighth embodiment, the present invention is realized by hardware. However, the processing performed in the eighth embodiment may be realized by a computer program. The internal configuration of the image processing apparatus that installs the computer program according to the present embodiment is the same as that described in the fifth embodiment. That is, the image processing apparatus 10 in which the computer program according to the present embodiment is installed includes a CPU 11. The CPU 11 loads the computer program on the RAM 14 and executes the computer program, which is read from the storage unit 17. The image data or the image data input through the image input IF 18 is configured to perform color correction processing.

図29は画像処理装置10が実行する色補正処理の処理手順を説明するフローチャートである。画像処理装置10内のCPU11は、記憶部17から読出した画像データ、画像入力IF18を通じて入力された画像データに対して色分布情報抽出処理を行う(ステップS41)。色分布情報抽出処理は、実施の形態8で説明した手法と同様の手法を用いることができ、各画素が属する領域に関する情報(色分布情報)を生成する。なお、この色分布情報抽出処理の前処理として、シェーディング補正、入力階調補正等の処理を行う構成であってもよい。また、領域分離処理と組み合わせてもよい。   FIG. 29 is a flowchart for explaining the color correction processing procedure executed by the image processing apparatus 10. The CPU 11 in the image processing apparatus 10 performs color distribution information extraction processing on the image data read from the storage unit 17 and the image data input through the image input IF 18 (step S41). The color distribution information extraction process can use a method similar to the method described in the eighth embodiment, and generates information (color distribution information) regarding the region to which each pixel belongs. In addition, as a pre-process of this color distribution information extraction process, a configuration for performing processes such as shading correction and input tone correction may be employed. Further, it may be combined with region separation processing.

次いで、CPU11は、生成した色分布情報に基づいて画素毎のオフセット量を設定し(ステップS42)、設定したオフセット量を入力画像データに加算する。(ステップS43)。そして、図26に示したような1次元LUTを用いて、オフセット量を加算したデータに対してデータ変換を実行する(ステップS44)。例えば、入力画像データの各画素が青色領域(第1領域とする)に属する場合、CMY(RGB)の各信号に対してオフセット量を0に設定することによって入力画像データの画素値の範囲を0〜256にすることができ、図26に示す1次元LUTを用いることで出力画像データの画素値の範囲を0〜255にすることができる。また、入力画像データの各画素が緑色領域(第2領域とする)に属する場合、オフセット量を256に設定することよって入力画像データの画素値の範囲を256〜511にすることができ、同じく図26に示す1次元LUTを用いることで出力画像データの画素値の範囲を0〜255にすることができる。同様にして、肌色領域(第3領域とする)に属する場合はオフセット量を512に、それ以外の領域(第4領域とする)に属する場合はオフセット量を768に設定すればよい。   Next, the CPU 11 sets an offset amount for each pixel based on the generated color distribution information (step S42), and adds the set offset amount to the input image data. (Step S43). Then, using the one-dimensional LUT as shown in FIG. 26, data conversion is performed on the data added with the offset amount (step S44). For example, when each pixel of the input image data belongs to a blue region (referred to as a first region), the pixel value range of the input image data is set by setting the offset amount to 0 for each signal of CMY (RGB). The range of pixel values of the output image data can be set to 0 to 255 by using the one-dimensional LUT shown in FIG. In addition, when each pixel of the input image data belongs to the green region (referred to as the second region), the pixel value range of the input image data can be set to 256 to 511 by setting the offset amount to 256. By using the one-dimensional LUT shown in FIG. 26, the range of pixel values of output image data can be set to 0-255. Similarly, the offset amount may be set to 512 if it belongs to the skin color region (referred to as the third region), and to 768 if it belongs to the other region (referred to as the fourth region).

次いで、CPU11は、色分布情報に応じたオフセット量を変換後のデータに加算し(ステップS45)、オフセット量を加算したデータを用いて重み付けを算出する(ステップS46)。そして、オフセット量を加算したデータを用いてアドレスを求め、3次元LUTから色補正値の読出しを行う(ステップS47)。すなわち、ステップS45で色分布情報に応じたオフセット量を加算することにより、色空間上の異なる領域に振り分けることができるため、例えば、図27に示したような3次元LUTを用いることによって色分布情報に応じた適切な色補正を行うことができる。   Next, the CPU 11 adds an offset amount corresponding to the color distribution information to the converted data (step S45), and calculates a weight using the data obtained by adding the offset amount (step S46). Then, an address is obtained using the data added with the offset amount, and the color correction value is read from the three-dimensional LUT (step S47). That is, by adding an offset amount corresponding to the color distribution information in step S45, it can be distributed to different areas in the color space. For example, by using a three-dimensional LUT as shown in FIG. Appropriate color correction according to information can be performed.

次いで、CPU11は、ステップS46で算出した重み付け、及びステップS47で読出した補正値に基づいて補間演算を実行し、出力画像データを生成する(ステップS48)。なお、補間演算方法は、実施の形態1で説明した手法と同様の手法を用いることができる。
また、この実施の形態では、オフセット量の加算が1次元LUTによるデータ変換処理の前後にある工程であるが、実施の形態6のようにオフセット量の加算が1次元LUTによるデータ変換処理の前だけにある工程でも、実施の形態7のようにオフセット量の加算が1次元LUTによるデータ変換処理の後だけにある工程であってもよい。なお、1次元LUTにおける入出力関係は、図26だけでなく、図4や図12のようにすることも可能である。
Next, the CPU 11 performs an interpolation operation based on the weight calculated in step S46 and the correction value read in step S47, and generates output image data (step S48). Note that as the interpolation calculation method, a method similar to the method described in Embodiment 1 can be used.
In this embodiment, the offset amount is added before and after the data conversion processing by the one-dimensional LUT. However, as in the sixth embodiment, the offset amount addition is performed before the data conversion processing by the one-dimensional LUT. Even in a process that exists only in this case, as in the seventh embodiment, the offset amount may be added only after the data conversion process using the one-dimensional LUT. The input / output relationship in the one-dimensional LUT can be as shown in FIG. 4 and FIG. 12 as well as FIG.

このように、本実施の形態では、オフセット量の切替のみを行えばよく、色分布情により1次元LUT及び3次元LUTを切り替えることなく、入力画像の各画素が属する領域に応じて適切な色補正処理を施すことが可能となる。また、3次元LUTを効率的な保持が可能となる。   As described above, in this embodiment, it is only necessary to switch the offset amount, and an appropriate color is selected according to the region to which each pixel of the input image belongs without switching the one-dimensional LUT and the three-dimensional LUT according to the color distribution information. Correction processing can be performed. In addition, the three-dimensional LUT can be efficiently held.

実施の形態10.
前述した実施の形態では領域識別信号、原稿種別判定信号、色分布情報信号に応じて適切な色補正処理を行う形態について説明したが、これらの信号を用いる代わりに、入力画像データが色空間内の予め定めた領域に属するか否かを示す色空間内位置信号に応じて補正を行う構成としてもよい。
Embodiment 10 FIG.
In the above-described embodiment, the mode in which appropriate color correction processing is performed according to the area identification signal, the document type determination signal, and the color distribution information signal has been described. Instead of using these signals, the input image data is stored in the color space. The correction may be performed in accordance with the position signal in the color space indicating whether or not the image belongs to a predetermined region.

図30は実施の形態10に係る画像形成装置が備える画像処理部6の構成を示すブロック図である。画像処理部6は、AD変換部61、シェーディング補正部62、入力階調補正部63、色空間内位置信号生成部64、領域分離処理部65、色補正部66A、黒生成・下色除去部67、空間フィルタ処理部68、出力階調補正部69A、階調再現処理部69Bを備えている。これらの構成要素のうち、色空間内位置信号生成部64以外の構成要素については、例えば、実施の形態1に示した画像処理部3の各構成要素と全く同様である。   FIG. 30 is a block diagram illustrating a configuration of the image processing unit 6 provided in the image forming apparatus according to the tenth embodiment. The image processing unit 6 includes an AD conversion unit 61, a shading correction unit 62, an input gradation correction unit 63, a color space position signal generation unit 64, a region separation processing unit 65, a color correction unit 66A, a black generation / under color removal unit. 67, a spatial filter processing unit 68, an output tone correction unit 69A, and a tone reproduction processing unit 69B. Among these components, the components other than the color space position signal generation unit 64 are, for example, exactly the same as the respective components of the image processing unit 3 shown in the first embodiment.

色空間内位置信号生成部64では、入力階調補正部63の出力信号(RGB信号)に基づいてRGB色空間内の予め定められた領域に属するか否かを示す信号(色空間内位置信号)を生成し、後段の色補正部66Aに出力する。色補正部66Aでは、色空間内位置信号生成部64からの色空間内位置信号に応じて1次元LUTを切替え、切替えた1次元LUTを用いてデータ変換を行う。そして、変換されたデータに対して3次元LUTを用いた色補正を行う。   In the color space position signal generation unit 64, a signal (color space position signal indicating whether or not it belongs to a predetermined region in the RGB color space based on the output signal (RGB signal) of the input tone correction unit 63. ) And output to the subsequent color correction unit 66A. The color correction unit 66A switches the one-dimensional LUT in accordance with the position signal in the color space from the position signal generation unit 64 in the color space, and performs data conversion using the switched one-dimensional LUT. Then, color correction using a three-dimensional LUT is performed on the converted data.

以下、色空間内位置信号生成部64における処理を説明する。図31は色空間内位置信号生成部64の内部構成を説明するブロック図である。色空間内位置信号生成部64は信号生成部641を備えており、この信号生成部641には入力階調補正部63からのRGB信号が入力される。また、色空間内位置信号生成部64は、入力階調補正部63からのRGB信号をそのまま後段の領域分離処理部65へ出力する。   Hereinafter, processing in the color space position signal generation unit 64 will be described. FIG. 31 is a block diagram illustrating an internal configuration of the color space position signal generation unit 64. The color space position signal generation unit 64 includes a signal generation unit 641, and the RGB signal from the input tone correction unit 63 is input to the signal generation unit 641. Further, the color space position signal generation unit 64 outputs the RGB signal from the input tone correction unit 63 to the subsequent region separation processing unit 65 as it is.

色空間内位置信号生成部64内の信号生成部641は、判定テーブル641aに従って色空間内位置信号を生成し、色補正部66Aに出力する。図32は判定テーブル641aの一例を説明する概念図である。判定テーブル641aでは色空間内の特定の領域を画素値の範囲により規定している。図32に示した例では、240≦R≦255、240≦G≦255、240≦B≦255の範囲により示される領域をハイライト領域として規定してあり、その他の領域をベース領域として規定している。すなわち、信号生成部641は、判定テーブル641aを参照することにより入力されたRGB信号がハイライト領域に属するか、又はベース領域に属するかを判定することができ、ハイライト領域に属する場合には色空間内位置信号として「1」を、ベース領域に属する場合には色空間内位置信号として「0」を出力する。   The signal generation unit 641 in the color space position signal generation unit 64 generates a color space position signal according to the determination table 641a and outputs the color space position signal to the color correction unit 66A. FIG. 32 is a conceptual diagram illustrating an example of the determination table 641a. In the determination table 641a, a specific area in the color space is defined by a range of pixel values. In the example shown in FIG. 32, the region indicated by the ranges of 240 ≦ R ≦ 255, 240 ≦ G ≦ 255, 240 ≦ B ≦ 255 is defined as the highlight region, and the other regions are defined as the base region. ing. That is, the signal generation unit 641 can determine whether the input RGB signal belongs to the highlight area or the base area by referring to the determination table 641a. “1” is output as the position signal in the color space, and “0” is output as the position signal in the color space when it belongs to the base region.

なお、本実施の形態では、色空間内の領域を画素値の範囲により予め規定してあり、信号生成部641にて何れの領域に属するかを判定する構成としたが、利用者自身が識別すべき領域を任意に設定できるようにしてもよい。   In this embodiment, the region in the color space is defined in advance by the range of pixel values, and the signal generation unit 641 determines which region belongs to, but the user himself / herself identifies it. An area to be set may be arbitrarily set.

次に、色補正部66A(色変換装置)の動作について説明する。図33は実施の形態10に係る色補正部66Aの動作を説明する模式的説明図であり、図34は色補正部66Aで用いる1次元LUTの概念図、図35は同じく3次元LUTの概念図である。前述したように、色補正部66Aには領域分離処理部65からのRGB信号、及び色空間内位置信号生成部64から出力される色空間内位置信号が入力される。本実施の形態では、まず、色空間内位置信号に応じて切り替えた1次元LUTを用いてデータ変換を行い、次いで変換されたデータについて3次元LUTを用いた色補正を行う。   Next, the operation of the color correction unit 66A (color conversion device) will be described. FIG. 33 is a schematic explanatory diagram for explaining the operation of the color correction unit 66A according to the tenth embodiment, FIG. 34 is a conceptual diagram of a one-dimensional LUT used in the color correction unit 66A, and FIG. 35 is a conceptual diagram of the three-dimensional LUT. FIG. As described above, the RGB signal from the region separation processing unit 65 and the color space position signal output from the color space position signal generation unit 64 are input to the color correction unit 66A. In the present embodiment, first, data conversion is performed using a one-dimensional LUT switched according to a color space position signal, and then color correction is performed on the converted data using a three-dimensional LUT.

1次元LUTは、入力画像の各画素が属する領域に応じて出力信号の範囲が異なるように設定されている。例えば、入力画像の各画素がハイライト領域に属している場合、図34(a)に示した1次元LUTを用いて画素値の変換を行う。また、入力画像の各画素がベース領域に属している場合には、図34(b)に示した1次元LUTを用いて画素値の変換を行う。なお、図34に示したグラフの横軸は入力信号の画素値、縦軸は出力信号の画素値を示しており、各グラフに描かれた曲線は入力信号と出力信号との間の変換曲線を示している。これらの変換曲線はルックアップテーブル(1次元LUT)として規定されている。これらの変換曲線に従って画素値の変換を行った場合、ハイライト領域に属する画素は、画素値が256〜319の範囲内に属するように変換され、ベース領域に属する画素は、画素値が0〜255の範囲内に属するように変換される。   The one-dimensional LUT is set so that the range of the output signal varies depending on the region to which each pixel of the input image belongs. For example, when each pixel of the input image belongs to the highlight area, the pixel value is converted using the one-dimensional LUT shown in FIG. When each pixel of the input image belongs to the base region, the pixel value is converted using the one-dimensional LUT shown in FIG. Note that the horizontal axis of the graph shown in FIG. 34 indicates the pixel value of the input signal, and the vertical axis indicates the pixel value of the output signal, and the curve drawn in each graph is a conversion curve between the input signal and the output signal. Is shown. These conversion curves are defined as a look-up table (one-dimensional LUT). When the pixel values are converted according to these conversion curves, the pixels belonging to the highlight area are converted so that the pixel values are within the range of 256 to 319, and the pixels belonging to the base area are 0 to 0. It is converted to belong to the range of 255.

このように画素の属する領域に応じて異なる範囲の値を出力する1次元LUTを用いることにより、色空間上では互いに異なる領域内の点にマッピングされることとなる。すなわち、ハイライト用の1次元LUTを用いた場合、図35に示したように、256≦R≦319、256≦G≦319、256≦B≦319を満たす領域内の点にマッピングされ、ベース用の1次元LUTを用いた場合、0≦R≦255、0≦G≦255、0≦B≦255を満たす領域内の点にマッピングされることとなる。そこで、各領域内の点に対応させた色補正テーブル(すなわち、ハイライト用の3次元LUT、及びベース用の3次元LUT)を用意しておくことにより、色空間内位置信号に応じた3次元LUTの切替えが不要となり、それぞれの領域に対する適切な色補正処理が可能となる。   In this way, by using a one-dimensional LUT that outputs values in different ranges depending on the region to which the pixel belongs, mapping is performed on points in different regions on the color space. That is, when a one-dimensional LUT for highlighting is used, as shown in FIG. 35, the highlight is mapped to a point in an area that satisfies 256 ≦ R ≦ 319, 256 ≦ G ≦ 319, and 256 ≦ B ≦ 319. When the one-dimensional LUT is used, it is mapped to a point in the region that satisfies 0 ≦ R ≦ 255, 0 ≦ G ≦ 255, and 0 ≦ B ≦ 255. Therefore, by preparing a color correction table (that is, a highlight three-dimensional LUT and a base three-dimensional LUT) corresponding to the points in each region, 3 corresponding to the position signal in the color space is prepared. There is no need to switch the dimension LUT, and appropriate color correction processing for each region is possible.

本実施の形態で用いる3次元LUTは、格子点の間隔(格子幅)すべてが2n で構成されていて(nは整数)、格子点数は任意である。例えば、ベース用の3次元LUTは、格子幅が16(=24)であり、格子点数はRGBの各色成分あたり17点の大きさを持っている。一方、ハイライト領域では、1次元LUTにおいて色成分あたり15のレンジが色成分あたり63のレンジに拡大されている。そのため、格子幅を16として、色成分あたりの格子点を更に4点増やすことができる。すなわち、ハイライト領域については、細かい精度で色補正を行うことが可能となる。ハイライト領域の実際のレンジは15であるため、実際の格子幅は4(=16×16/64)となる。つまり、このハイライト領域の3次元LUTは、実際の格子幅が4となり、より詳細な補間を実行していることになる。 In the three-dimensional LUT used in the present embodiment, all the lattice point intervals (lattice width) are 2 n (n is an integer), and the number of lattice points is arbitrary. For example, the base three-dimensional LUT has a grid width of 16 (= 2 4 ), and the number of grid points is 17 for each RGB color component. On the other hand, in the highlight region, 15 ranges per color component are expanded to 63 ranges per color component in the one-dimensional LUT. Therefore, it is possible to further increase the number of grid points per color component by setting the grid width to 16. That is, it is possible to perform color correction with high accuracy for the highlight area. Since the actual range of the highlight area is 15, the actual grid width is 4 (= 16 × 16/64). In other words, the three-dimensional LUT in the highlight area has an actual grid width of 4, and more detailed interpolation is executed.

図36は実施の形態10に係る色補正部66Aの内部構成を説明するブロック図である。色補正部66Aは、1次元LUTを用いてデータ変換を行う1次元LUT計算部661と3次元LUTを用いた色補正を行う3次元LUT計算部662とにより構成される。   FIG. 36 is a block diagram illustrating an internal configuration of the color correction unit 66A according to the tenth embodiment. The color correction unit 66A includes a one-dimensional LUT calculation unit 661 that performs data conversion using a one-dimensional LUT and a three-dimensional LUT calculation unit 662 that performs color correction using a three-dimensional LUT.

1次元LUT計算部661には、色空間内位置信号生成部64から出力される色空間内位置信号、及び領域分離処理部65から出力されるRGB信号が入力される。1次元LUT計算部661のアドレス参照部661aは、入力されたRGB信号及び色空間内位置信号に基づき、ハイライト用又はベース用の1次元LUTにアクセスし、変換後のRGB信号を取得する。1次元LUT計算部661によって変換したRGB信号は、3次元LUT計算部662の重み付け計算部662a及びアドレス計算部662bに出力される。   The one-dimensional LUT calculation unit 661 receives the color space position signal output from the color space position signal generation unit 64 and the RGB signal output from the region separation processing unit 65. The address reference unit 661a of the one-dimensional LUT calculation unit 661 accesses the highlight or base one-dimensional LUT based on the input RGB signal and color space position signal, and acquires the converted RGB signal. The RGB signals converted by the one-dimensional LUT calculation unit 661 are output to the weighting calculation unit 662a and the address calculation unit 662b of the three-dimensional LUT calculation unit 662.

重み付け計算部662aは、入力された信号から所望の重み付けを算出し、補間演算部662cに値を渡す。一方、アドレス計算部662bは、入力された信号からアクセスすべきアドレスを算出し、そのアドレスを基に3次元LUTにアクセスすることにより色補正値を取得する。アドレス計算部662bが取得した色補正値は補間演算部662cに出力される。補間演算部662cは、重み付け計算部662aから出力された重み付けとアドレス計算部662bから出力された色補正値とに基づいて3次元補間演算を行い、出力信号(CMY信号)を生成する。   The weight calculation unit 662a calculates a desired weight from the input signal and passes the value to the interpolation calculation unit 662c. On the other hand, the address calculation unit 662b calculates an address to be accessed from the input signal, and acquires a color correction value by accessing the three-dimensional LUT based on the address. The color correction value acquired by the address calculation unit 662b is output to the interpolation calculation unit 662c. The interpolation calculation unit 662c performs a three-dimensional interpolation calculation based on the weighting output from the weighting calculation unit 662a and the color correction value output from the address calculation unit 662b, and generates an output signal (CMY signal).

このように、本実施の形態では、1次元LUTを用いることにより色空間内の位置ごとで異なる点にマッピングされるため、その位置に対応する点で色補正値を保持しておけば、色空間内位置信号に応じて適切な色補正処理を行うことができる。このとき、色空間内位置信号に応じて1次元LUTを切り替えるのみで3次元LUTの切り替えは不要となる。また、メモリのスタートアドレスなども保持する必要はなく、従来の技術を使えるため、複雑なメモリアクセスの計算を行う必要がない。そのため、簡易なハードウェアで適切な処理が行える色変換装置、画像形成装置を提供することができる。   As described above, in this embodiment, since a one-dimensional LUT is used to map to a different point for each position in the color space, if a color correction value is held at a point corresponding to that position, the color Appropriate color correction processing can be performed in accordance with the position signal in space. At this time, it is not necessary to switch the three-dimensional LUT simply by switching the one-dimensional LUT according to the position signal in the color space. Further, it is not necessary to hold the memory start address and the like, and the conventional technique can be used, so that it is not necessary to perform complicated memory access calculation. Therefore, it is possible to provide a color conversion apparatus and an image forming apparatus that can perform appropriate processing with simple hardware.

実施の形態11.
実施の形態10では、ハードウェアにより本発明を実現する構成としたが、実施の形態10で行った処理をコンピュータプログラムにより実現してもよい。なお、本実施の形態に係るコンピュータプログラムをインストールする画像処理装置の内部構成は実施の形態5に説明したものと同様である。すなわち、本実施の形態に係るコンピュータプログラムがインストールされる画像処理装置10は、CPU11を備えており、このCPU11がRAM14上に前記コンピュータプログラムをロードして実行することにより、記憶部17から読み出した画像データ、又は画像入力IF18を通じて入力された画像データに対して色補正処理を施すように構成される。
Embodiment 11 FIG.
In the tenth embodiment, the present invention is realized by hardware. However, the processing performed in the tenth embodiment may be realized by a computer program. The internal configuration of the image processing apparatus that installs the computer program according to the present embodiment is the same as that described in the fifth embodiment. That is, the image processing apparatus 10 in which the computer program according to the present embodiment is installed includes a CPU 11. The CPU 11 loads the computer program on the RAM 14 and executes the computer program, which is read from the storage unit 17. The image data or the image data input through the image input IF 18 is configured to perform color correction processing.

図37は画像処理装置10が実行する色補正処理の手順を説明するフローチャートである。画像処理装置10のCPU11は、記憶部17から読出した画像データ、画像入力IF18を通じて入力された画像データに対して領域判定処理を行う(ステップS51)。領域判定処理は、実施の形態10で説明した手法と同様の手法を用いることができ、各画素が色空間内の何れの領域に属するかを示す情報(色空間内位置情報)を生成する。なお、この領域判定処理の前処理として、シェーディング補正、入力階調補正等の処理を行う構成であってもよい。   FIG. 37 is a flowchart for explaining the procedure of color correction processing executed by the image processing apparatus 10. The CPU 11 of the image processing apparatus 10 performs area determination processing on the image data read from the storage unit 17 and the image data input through the image input IF 18 (step S51). The area determination process can use a technique similar to the technique described in the tenth embodiment, and generates information (position information in the color space) indicating which area in the color space each pixel belongs to. In addition, as a pre-process of this area determination process, a configuration in which processes such as shading correction and input tone correction are performed may be used.

次いで、CPU11は、領域判定情報に基づいて切替えた1次元LUTを用いて、入力画像データの変換を実行する(ステップS52)。例えば、対象の画素がハイライト領域に属すると判断できる場合、図34(a)に示したような1次元LUTを用いて画素値の変換を行う。また、ハイライト領域に属さないと判断できる場合、すなわち、ベース領域に属すると判断できる場合、図34(b)に示したような1次元LUTを用いて画素値の変換を行う。   Next, the CPU 11 performs conversion of the input image data using the one-dimensional LUT switched based on the area determination information (step S52). For example, when it can be determined that the target pixel belongs to the highlight area, the pixel value is converted using a one-dimensional LUT as shown in FIG. Further, when it can be determined that it does not belong to the highlight area, that is, when it can be determined that it belongs to the base area, pixel values are converted using a one-dimensional LUT as shown in FIG.

次いで、CPU11は、変換したデータを用いて重み付けを算出するとともに(ステップS53)、変換したデータを用いてアドレスを求め、3次元LUTから色補正値の読出しを行う(ステップS54)。すなわち、領域に応じた1次元LUTを用いて画素値の変換を行うことにより、変換先が色空間上の異なる領域にマッピングされることとなるため、例えば、図35に示したような3次元LUTを用いることによって領域に応じた適切な色変換を行うことができる。そして、CPU11は、ステップS53で算出した重み付け、及びステップS54で読出した補正値に基づいて補間演算を実行し、出力画像データを生成する(ステップS55)。   Next, the CPU 11 calculates a weight using the converted data (step S53), obtains an address using the converted data, and reads a color correction value from the three-dimensional LUT (step S54). That is, by converting the pixel value using a one-dimensional LUT corresponding to the region, the conversion destination is mapped to a different region in the color space. For example, the three-dimensional as shown in FIG. By using the LUT, it is possible to perform appropriate color conversion according to the area. Then, the CPU 11 performs an interpolation operation based on the weight calculated in step S53 and the correction value read in step S54, and generates output image data (step S55).

このように、本実施の形態では、色空間内位置情報に基づいて利用する1次元LUTを切替え、切替えた1次元LUTを用いて画素値の変換を行った後、3次元LUTを用いた色変換を行う。すなわち、実施の形態1で説明した画像形成装置をソフトウェアによる処理で実現している。   As described above, in this embodiment, the one-dimensional LUT to be used is switched based on the position information in the color space, the pixel value is converted using the switched one-dimensional LUT, and then the color using the three-dimensional LUT is used. Perform conversion. In other words, the image forming apparatus described in the first embodiment is realized by software processing.

実施の形態12.
実施の形態10に示した色補正部66Aでは、色空間内位置信号に応じて1次元LUTを切替える構成としたが、1次元LUTを切替える代わりに入力信号(RGB信号)に対して異なるオフセット量を加算し、1つの1次元LUTを用いて非線形性の補正を行う構成であってもよい。本実施の形態で用いる色補正部66Bの動作について図38で説明し、その内部構成について図39で説明する。色補正部66B以外の構成については実施の形態10と同様である。
Embodiment 12 FIG.
In the color correction unit 66A shown in the tenth embodiment, the one-dimensional LUT is switched in accordance with the position signal in the color space. Instead of switching the one-dimensional LUT, different offset amounts are used for the input signal (RGB signal). May be added, and nonlinearity correction may be performed using one one-dimensional LUT. The operation of the color correction unit 66B used in the present embodiment will be described with reference to FIG. 38, and the internal configuration will be described with reference to FIG. The configuration other than the color correction unit 66B is the same as that of the tenth embodiment.

図38は実施の形態12に係る色補正部66Bの動作を説明する模式的説明図であり、図39は色補正部66Bで用いる1次元LUTの概念図である。色補正部66Bには色空間内位置信号生成部64から出力される色空間内位置信号、及び領域分離処理部65から出力されるRGB信号が入力される。色補正部66Bでは、色空間内位置信号に基づいて色空間内の何れの領域(例えば、ハイライト領域、又はベース領域)に属するかを判定することができ、この判定結果に基づいてRGB信号に加算すべきオフセット量を設定する。そして、設定されたオフセット量をRGB信号に加算した後、非線形性の補正を行うために1次元LUTを用いた画素値の変換を各色成分毎に行う。この1次元LUTを用いた画素値の変換では、加算したオフセット量に応じてRGB色空間の異なる領域にマッピングされている3次元LUT(色補正テーブル)にアクセスできるように変換する。また、3次元LUTを用いた色補正では、そのRGB色空間に対して規定された1つの3次元LUTを用いて色補正を行う。   FIG. 38 is a schematic explanatory diagram for explaining the operation of the color correction unit 66B according to the twelfth embodiment, and FIG. 39 is a conceptual diagram of a one-dimensional LUT used in the color correction unit 66B. The color correction unit 66B receives the color space position signal output from the color space position signal generation unit 64 and the RGB signal output from the region separation processing unit 65. The color correction unit 66B can determine which region (for example, highlight region or base region) in the color space belongs based on the position signal in the color space, and the RGB signal based on the determination result. Set the offset amount to be added to. After the set offset amount is added to the RGB signal, pixel values are converted for each color component using a one-dimensional LUT in order to correct nonlinearity. In the conversion of the pixel value using the one-dimensional LUT, conversion is performed so that a three-dimensional LUT (color correction table) mapped in different regions of the RGB color space can be accessed according to the added offset amount. In color correction using a three-dimensional LUT, color correction is performed using one three-dimensional LUT defined for the RGB color space.

本実施の形態では、判定した領域に応じてオフセット量を切替えることにより入出力の範囲を異ならせている。例えば、入力画像の各画素がハイライト領域に属する場合、オフセット量を256に設定することによって入力信号の画素値の範囲を256〜271に変換することができ、図39に示した1次元LUTを用いることで出力信号の画素値の範囲を256〜319に変換することができる。また、入力画像の各画素がベース領域に属する場合、オフセット量を0に設定することによって入力信号の画素値の範囲を0〜255にすることができ、同じく図39に示した1次元LUTを用いることで出力信号の画素値の範囲を0〜255にすることができる。   In the present embodiment, the input / output ranges are made different by switching the offset amount according to the determined area. For example, when each pixel of the input image belongs to the highlight area, the pixel value range of the input signal can be converted to 256 to 271 by setting the offset amount to 256, and the one-dimensional LUT shown in FIG. Can be used to convert the pixel value range of the output signal to 256 to 319. Also, when each pixel of the input image belongs to the base region, the range of the pixel value of the input signal can be set to 0 to 255 by setting the offset amount to 0. Similarly, the one-dimensional LUT shown in FIG. By using it, the range of the pixel value of the output signal can be set to 0-255.

このように画素の属する領域に応じて異なる範囲の値を出力する1次元LUTを用いることにより、色空間上では互いに異なる領域内の点にマッピングされることとなる。すなわち、ハイライト領域に属する画素に関しては、256≦R≦511、256≦G≦511、256≦B≦511を満たす領域内の点にマッピングされ、ベース領域に属する画素に関しては、0≦R≦255、0≦G≦255、0≦B≦255を満たす領域内の点にマッピングされることとなる。そこで、各領域内の点に対応させた色補正テーブル(すなわち、ベース用3次元LUT及びハイライト用3次元LUTを1つのテーブルで記述した3次元LUT)を用意しておくことにより、色空間内位置信号に応じた3次元LUTの切替えが不要となり、それぞれの領域に対する適切な色補正処理が可能となる。   In this way, by using a one-dimensional LUT that outputs values in different ranges depending on the region to which the pixel belongs, mapping is performed on points in different regions on the color space. That is, the pixel belonging to the highlight region is mapped to a point in the region satisfying 256 ≦ R ≦ 511, 256 ≦ G ≦ 511, 256 ≦ B ≦ 511, and the pixel belonging to the base region is 0 ≦ R ≦ 255, 0 ≦ G ≦ 255, and 0 ≦ B ≦ 255. Therefore, by preparing a color correction table (that is, a three-dimensional LUT in which a base three-dimensional LUT and a highlight three-dimensional LUT are described in one table) corresponding to the points in each region, a color space is prepared. Switching of the three-dimensional LUT according to the internal position signal is not necessary, and appropriate color correction processing can be performed for each region.

図40は実施の形態12に係る色補正部66Bの内部構成を説明するブロック図である。色補正部66Bは、色空間内位置信号に応じたオフセット量を設定するオフセット計算部663、1次元LUTを用いて画素値の範囲を変換する1次元LUT計算部664、及び3次元LUTを用いた色補正を行う3次元LUT計算部665により構成される。   FIG. 40 is a block diagram illustrating the internal configuration of the color correction unit 66B according to the twelfth embodiment. The color correction unit 66B uses an offset calculation unit 663 that sets an offset amount according to a position signal in the color space, a one-dimensional LUT calculation unit 664 that converts a range of pixel values using a one-dimensional LUT, and a three-dimensional LUT. The three-dimensional LUT calculation unit 665 performs color correction.

オフセット計算部663には、領域分離処理部65から出力されるRGB信号、及び色空間内位置信号生成部64から出力される色空間内位置信号が入力される。オフセット計算部663のオフセット量切替部663bは、入力された色空間内位置信号に応じて加算すべきオフセット量を切替える。例えば、ハイライト領域に属する画素の場合にはオフセット量を256に設定し、ベース領域に属する画素の場合にはオフセット量を0に設定する。オフセット量切替部663bにて設定されたオフセット量はオフセット量加算部663aに出力され、入力されたRGB信号に加算される。   The offset calculation unit 663 receives the RGB signal output from the region separation processing unit 65 and the color space position signal output from the color space position signal generation unit 64. The offset amount switching unit 663b of the offset calculation unit 663 switches the offset amount to be added according to the input color space position signal. For example, the offset amount is set to 256 in the case of a pixel belonging to the highlight region, and the offset amount is set to 0 in the case of a pixel belonging to the base region. The offset amount set by the offset amount switching unit 663b is output to the offset amount adding unit 663a and added to the input RGB signal.

オフセット量が加算されたRGB信号は、1次元LUT計算部664に出力される。1次元LUT計算部664のアドレス参照部664aは、RGB信号にオフセット量が加算された値に基づいて1次元LUTにアクセスし、非線形性を補正したRGB信号を取得する。1次元LUT計算部664によって非線形性が補正されたRGB信号は、3次元LUT計算部665の重み付け計算部665a及びアドレス計算部665bに出力される。   The RGB signal to which the offset amount is added is output to the one-dimensional LUT calculation unit 664. The address reference unit 664a of the one-dimensional LUT calculation unit 664 accesses the one-dimensional LUT based on the value obtained by adding the offset amount to the RGB signal, and acquires the RGB signal whose nonlinearity is corrected. The RGB signal whose nonlinearity is corrected by the one-dimensional LUT calculation unit 664 is output to the weighting calculation unit 665a and the address calculation unit 665b of the three-dimensional LUT calculation unit 665.

重み付け計算部665aは、入力された信号から所望の重み付けを算出し、補間演算部665cに値を渡す。一方、アドレス計算部665bは、入力された信号からアクセスすべきアドレスを算出し、そのアドレスを基に3次元LUTにアクセスして色補正値を取得する。アドレス計算部665bが取得した色補正値は補間演算部665cに出力される。補間演算部665cは、重み付け計算部665aから出力された重み付けとアドレス計算部665bから出力された色補正値とに基づいて3次元補間演算を行い、出力信号(CMY信号)を生成する。   The weight calculation unit 665a calculates a desired weight from the input signal and passes the value to the interpolation calculation unit 665c. On the other hand, the address calculation unit 665b calculates an address to be accessed from the input signal, and accesses the three-dimensional LUT based on the address to obtain a color correction value. The color correction value acquired by the address calculation unit 665b is output to the interpolation calculation unit 665c. The interpolation calculation unit 665c performs a three-dimensional interpolation calculation based on the weighting output from the weighting calculation unit 665a and the color correction value output from the address calculation unit 665b, and generates an output signal (CMY signal).

以上のような構成で色補正を行う場合、オフセット量の切替のみを行えばよく、色空間内位置信号により1次元LUT及び3次元LUTを切り替えることなく、入力画像の各画素が属する領域に応じて適切な色補正処理を施すことが可能となる。   When performing color correction with the above-described configuration, it is only necessary to switch the offset amount. Depending on the region to which each pixel of the input image belongs without switching between the one-dimensional LUT and the three-dimensional LUT by the color space position signal. Therefore, it is possible to perform appropriate color correction processing.

実施の形態13.
実施の形態12では、ハードウェアにより本発明を実現する構成としたが、実施の形態12で行った処理をコンピュータプログラムにより実現してもよい。なお、本実施の形態に係るコンピュータプログラムをインストールする画像処理装置の内部構成は実施の形態5に説明したものと同様である。すなわち、本実施の形態に係るコンピュータプログラムがインストールされる画像処理装置10は、CPU11を備えており、このCPU11がRAM14上に前記コンピュータプログラムをロードして実行することにより、記憶部17から読み出した画像データ、又は画像入力IF18を通じて入力された画像データに対して色補正処理を施すように構成される。
Embodiment 13 FIG.
In the twelfth embodiment, the present invention is realized by hardware. However, the processing performed in the twelfth embodiment may be realized by a computer program. The internal configuration of the image processing apparatus that installs the computer program according to the present embodiment is the same as that described in the fifth embodiment. That is, the image processing apparatus 10 in which the computer program according to the present embodiment is installed includes a CPU 11. The CPU 11 loads the computer program on the RAM 14 and executes the computer program, which is read from the storage unit 17. The image data or the image data input through the image input IF 18 is configured to perform color correction processing.

図41は画像処理装置10が実行する色変換処理の手順を説明するフローチャートである。画像処理装置10のCPU11は、記憶部17から読出した画像データ、画像入力IF18を通じて入力された画像データに対して領域判定処理を行う(ステップS61)。領域判定処理は、実施の形態10で説明した手法と同様の手法を用いることができ、各画素が色空間内の何れの領域に属するかを示す情報(色空間内位置情報)を生成する。なお、この領域判定処理の前処理として、シェーディング補正、入力階調補正等の処理を行う構成であってもよい。   FIG. 41 is a flowchart for explaining the procedure of color conversion processing executed by the image processing apparatus 10. The CPU 11 of the image processing apparatus 10 performs region determination processing on the image data read from the storage unit 17 and the image data input through the image input IF 18 (step S61). The area determination process can use a technique similar to the technique described in the tenth embodiment, and generates information (position information in the color space) indicating which area in the color space each pixel belongs to. In addition, as a pre-process of this area determination process, a configuration in which processes such as shading correction and input tone correction are performed may be used.

次いで、CPU11は、生成した色空間内位置情報に基づいて画素毎のオフセット量を設定し(ステップS62)、設定したオフセット量を入力画像データに加算する。(ステップS63)。そして、1次元LUTを用いて、オフセット量を加算したデータに対する変換を実行する(ステップS64)。例えば、入力画像データの各画素がハイライト領域に属する場合、オフセット量を256に設定することによって入力画像データの画素値の範囲を256〜271にすることができ、図39に示したような1次元LUTを用いることで出力画像データの画素値の範囲を256〜319にすることができる。また、入力画像データの各画素がベース領域に属する場合、オフセット量を0に設定することよって入力画像データの画素値の範囲を0〜255にすることができ、同じく図39に示したような1次元LUTを用いることで出力画像データの画素値の範囲を0〜255にすることができる。   Next, the CPU 11 sets an offset amount for each pixel based on the generated position information in the color space (step S62), and adds the set offset amount to the input image data. (Step S63). Then, conversion is performed on the data to which the offset amount is added using the one-dimensional LUT (step S64). For example, when each pixel of the input image data belongs to the highlight area, the pixel value range of the input image data can be set to 256 to 271 by setting the offset amount to 256, as shown in FIG. By using the one-dimensional LUT, the pixel value range of the output image data can be set to 256 to 319. When each pixel of the input image data belongs to the base area, the pixel value range of the input image data can be set to 0 to 255 by setting the offset amount to 0, as shown in FIG. By using the one-dimensional LUT, the pixel value range of the output image data can be set to 0-255.

次いで、CPU11は、変換したデータを用いて重み付けを算出するとともに(ステップS65)、変換したデータを用いてアドレスを求め、3次元LUTから色補正値の読出しを行う(ステップS66)。すなわち、ステップS64の処理では、領域に応じて変換先が色空間上の異なる領域にマッピングされるため、例えば、図35に示したような3次元LUTを用いることによって領域に応じた適切な色変換を行うことができる。そして、CPU11は、ステップS65で算出した重み付け、及びステップS66で読出した補正値に基づいて補間演算を実行し、出力画像データを生成する(ステップS67)。   Next, the CPU 11 calculates a weight using the converted data (step S65), obtains an address using the converted data, and reads a color correction value from the three-dimensional LUT (step S66). That is, in the process of step S64, the conversion destination is mapped to a different area in the color space depending on the area. For example, an appropriate color corresponding to the area can be obtained by using a three-dimensional LUT as shown in FIG. Conversion can be performed. Then, the CPU 11 performs an interpolation operation based on the weight calculated in step S65 and the correction value read in step S66, and generates output image data (step S67).

このように、本実施の形態では、オフセット量の切替のみを行えばよく、色空間内位置情報により1次元LUT及び3次元LUTを切り替えることなく、入力画像の各画素が属する領域に応じて適切な色変換処理を施すことが可能となる。   As described above, in this embodiment, it is only necessary to switch the offset amount, and it is appropriate according to the region to which each pixel of the input image belongs without switching between the one-dimensional LUT and the three-dimensional LUT according to the position information in the color space. It is possible to perform a simple color conversion process.

実施の形態14.
実施の形態12に示した色補正部66Bでは、色空間内位置信号に応じて異なるオフセット量を入力信号(RGB信号)に加算し、1次元LUTを用いた非線形性の補正と、3次元LUTを用いた色補正とを順に行う構成としたが、1次元LUTを用いて非線形性の補正を行った後、色空間内位置信号に応じたオフセット量を加算し、3次元LUTを用いた色補正を行う構成としてもよい。本実施の形態で用いる色補正部66Cの動作については図42で説明し、内部構成については図44で説明する。色補正部66C以外の構成については実施の形態12と同様である。
Embodiment 14 FIG.
In the color correction unit 66B shown in the twelfth embodiment, a different offset amount is added to the input signal (RGB signal) according to the position signal in the color space, the nonlinearity correction using the one-dimensional LUT, and the three-dimensional LUT. However, after correcting nonlinearity using a one-dimensional LUT, an offset amount corresponding to a position signal in the color space is added, and a color using a three-dimensional LUT is used. It is good also as composition which performs amendment. The operation of the color correction unit 66C used in this embodiment will be described with reference to FIG. 42, and the internal configuration will be described with reference to FIG. The configuration other than the color correction unit 66C is the same as that of the twelfth embodiment.

図42は実施の形態14に係る色補正部66Cの動作を説明する模式的説明図であり、図43は色補正部66Cで用いる3次元LUTの概念図である。色補正部66Cには色空間内位置信号生成部64から出力される色空間内位置信号、及び領域分離処理部65から出力されるRGB信号が入力される。色補正部66Cでは、まず、予め用意してある1次元LUTを用いて入力信号(RGB信号)に対する非線形性の補正を行う。また、色補正部66Cでは、色空間内位置信号に基づいて対象の画素が色空間内の何れの領域(例えば、ハイライト領域、又はベース領域)に属するかを判定することができるため、この判定結果に基づいて非線形性が補正されたRGB信号に加算すべきオフセット量を各色成分毎に設定する。そして、設定されたオフセット量をRGB信号に加算した後、3次元LUTを用いて色補正を行う。本実施の形態では、各画素の属する領域に応じてRGB色空間の異なる領域にマッピングされるようにオフセット量を設定する。   FIG. 42 is a schematic explanatory diagram for explaining the operation of the color correction unit 66C according to the fourteenth embodiment, and FIG. 43 is a conceptual diagram of a three-dimensional LUT used in the color correction unit 66C. The color correction unit 66C receives the color space position signal output from the color space position signal generation unit 64 and the RGB signal output from the region separation processing unit 65. First, the color correction unit 66C corrects nonlinearity with respect to an input signal (RGB signal) using a one-dimensional LUT prepared in advance. In addition, since the color correction unit 66C can determine to which region (for example, a highlight region or a base region) in the color space the target pixel belongs based on the position signal in the color space. An offset amount to be added to the RGB signal whose nonlinearity is corrected based on the determination result is set for each color component. Then, after adding the set offset amount to the RGB signal, color correction is performed using a three-dimensional LUT. In the present embodiment, the offset amount is set so as to be mapped to different regions in the RGB color space according to the region to which each pixel belongs.

本実施の形態では、1次元LUTを用いて非線形性の補正を行った後、領域に応じたオフセット量を加算している。例えば、入力画像の各画素がハイライト領域に属する場合、R信号に対するオフセット量を256、G信号及びB信号に対するオフセット量を0に設定し、入力画像の各画素がベース領域に属する場合、RGBの各信号に対するオフセット量を0に設定する。その結果、図43に示すように、ハイライト領域に属する画素に関しては、256≦R≦319、0≦G≦255、0≦B≦255を満たす領域内の点にマッピングされることとなり、ベース領域に属する画素に関しては、0≦R≦255、0≦G≦255、0≦B≦255を満たす領域内の点にマッピングされることとなる。そこで、各領域内の点に対応させた色補正テーブル(すなわち、ハイライト用の3次元LUTとベース用3次元LUTとを1つのテーブルで記述した3次元LUT)を用意しておくことにより、色空間内位置信号に応じた3次元LUTの切替えが不要となり、それぞれの領域に対する適切な色補正処理が可能となる。また、前述した実施の形態とは異なり、色補正値を対角線上にしか保持できなかったため、無駄になっていたテーブルメモリを効率的に配置できるようになり、テーブルメモリの効率的な保持が可能となる。   In this embodiment, after correcting nonlinearity using a one-dimensional LUT, an offset amount corresponding to a region is added. For example, when each pixel of the input image belongs to the highlight region, the offset amount for the R signal is set to 256, the offset amount for the G signal and the B signal is set to 0, and when each pixel of the input image belongs to the base region, RGB The offset amount for each signal is set to zero. As a result, as shown in FIG. 43, the pixels belonging to the highlight region are mapped to points in the region satisfying 256 ≦ R ≦ 319, 0 ≦ G ≦ 255, and 0 ≦ B ≦ 255. The pixels belonging to the region are mapped to points in the region that satisfy 0 ≦ R ≦ 255, 0 ≦ G ≦ 255, and 0 ≦ B ≦ 255. Therefore, by preparing a color correction table corresponding to the points in each area (that is, a three-dimensional LUT in which a highlight three-dimensional LUT and a base three-dimensional LUT are described in one table), It is not necessary to switch the three-dimensional LUT according to the position signal in the color space, and appropriate color correction processing can be performed for each area. In addition, unlike the above-described embodiment, since the color correction value can be held only on the diagonal line, the table memory that has been wasted can be arranged efficiently, and the table memory can be efficiently held. It becomes.

図44は実施の形態14に係る色補正部66Cの内部構成を説明するブロック図である。色補正部66Cは、1次元LUTを用いて非線形性の補正を行う1次元LUT計算部666、領域識別信号に応じたオフセット量を設定するオフセット計算部667、及び3次元LUTを用いた色補正を行う3次元LUT計算部668により構成される。   FIG. 44 is a block diagram illustrating the internal configuration of the color correction unit 66C according to the fourteenth embodiment. The color correction unit 66C includes a one-dimensional LUT calculation unit 666 that corrects nonlinearity using a one-dimensional LUT, an offset calculation unit 667 that sets an offset amount according to a region identification signal, and color correction using a three-dimensional LUT. The three-dimensional LUT calculation unit 668 performs the above.

1次元LUT計算部666には、領域分離処理部65から出力されるRGB信号が入力される。1次元LUT計算部666のアドレス参照部666aは、入力されたRGB信号に基づいて1次元LUTにアクセスし、非線形性を補正したRGB信号を取得する。1次元LUT計算部666によって非線形性が補正されたRGB信号はオフセット計算部667へ出力される。   The RGB signal output from the region separation processing unit 65 is input to the one-dimensional LUT calculation unit 666. The address reference unit 666a of the one-dimensional LUT calculation unit 666 accesses the one-dimensional LUT based on the input RGB signal and acquires an RGB signal in which nonlinearity is corrected. The RGB signal whose nonlinearity is corrected by the one-dimensional LUT calculation unit 666 is output to the offset calculation unit 667.

オフセット計算部667には、1次元LUT計算部666から出力されるRGB信号、色空間内位置信号生成部64から出力される色空間内位置信号が入力される。オフセット計算部667のオフセット量切替部667bは、入力された色空間内信号に応じて加算すべきオフセット量を切替える。例えば、ハイライト領域に属する画素の場合にはR信号に対するオフセット量を256、G信号及びB信号に対するオフセット量を0に設定する。また、ベース領域に属する画素の場合にはRGBの各信号に対してオフセット量を0に設定する。オフセット量切替部667bにて設定されたオフセット量はオフセット量加算部667aに出力され、入力されたRGB信号に加算される。オフセット量が加算されたRGB信号は、3次元LUT計算部668の重み付け計算部668a及びアドレス計算部668bに出力される。   The offset calculation unit 667 receives the RGB signal output from the one-dimensional LUT calculation unit 666 and the color space position signal output from the color space position signal generation unit 64. The offset amount switching unit 667b of the offset calculation unit 667 switches the offset amount to be added according to the input color space signal. For example, in the case of a pixel belonging to the highlight area, the offset amount for the R signal is set to 256, and the offset amounts for the G signal and the B signal are set to 0. In the case of a pixel belonging to the base region, the offset amount is set to 0 for each RGB signal. The offset amount set by the offset amount switching unit 667b is output to the offset amount adding unit 667a and added to the input RGB signal. The RGB signal to which the offset amount is added is output to the weighting calculation unit 668a and the address calculation unit 668b of the three-dimensional LUT calculation unit 668.

重み付け計算部668aは、入力された信号から所望の重み付けを算出し、補間演算部668cに値を渡す。一方、アドレス計算部668bは、入力された信号からアクセスすべきアドレスを算出し、そのアドレスを基に3次元LUTにアクセスし色補正値を取得する。アドレス計算部668bが取得した色補正値は補間演算部668cに出力される。補間演算部668cは、重み付け計算部668aから出力された重み付けとアドレス計算部668bから出力された色補正値とに基づいて3次元補間演算を行い、出力信号(CMY信号)を生成する。   The weight calculation unit 668a calculates a desired weight from the input signal, and passes the value to the interpolation calculation unit 668c. On the other hand, the address calculation unit 668b calculates an address to be accessed from the input signal, and accesses the three-dimensional LUT based on the address to acquire a color correction value. The color correction value acquired by the address calculation unit 668b is output to the interpolation calculation unit 668c. The interpolation calculation unit 668c performs a three-dimensional interpolation calculation based on the weight output from the weight calculation unit 668a and the color correction value output from the address calculation unit 668b, and generates an output signal (CMY signal).

以上のような構成で色補正を行う場合、オフセット量の切替のみを行えばよく、領域識別信号により1次元LUT及び3次元LUTを切り替えることなく、入力画像の各画素が属する領域に応じて適切な色補正処理を施すことが可能となる。また、3次元LUTの効率的な保持が可能となる。   When performing color correction with the above-described configuration, it is only necessary to switch the offset amount, and it is appropriate according to the region to which each pixel of the input image belongs without switching between the one-dimensional LUT and the three-dimensional LUT by the region identification signal. It is possible to perform a color correction process. In addition, the three-dimensional LUT can be efficiently held.

実施の形態15.
実施の形態14では、ハードウェアにより本発明を実現する構成としたが、実施の形態14で行った処理をコンピュータプログラムにより実現してもよい。なお、本実施の形態に係るコンピュータプログラムをインストールする画像処理装置の内部構成は実施の形態5に説明したものと同様である。すなわち、本実施の形態に係るコンピュータプログラムがインストールされる画像処理装置10は、CPU11を備えており、このCPU11がRAM14上に前記コンピュータプログラムをロードして実行することにより、記憶部17から読み出した画像データ、又は画像入力IF18を通じて入力された画像データに対して色補正処理を施すように構成される。
Embodiment 15 FIG.
In the fourteenth embodiment, the present invention is realized by hardware. However, the processing performed in the fourteenth embodiment may be realized by a computer program. The internal configuration of the image processing apparatus that installs the computer program according to the present embodiment is the same as that described in the fifth embodiment. That is, the image processing apparatus 10 in which the computer program according to the present embodiment is installed includes a CPU 11. The CPU 11 loads the computer program on the RAM 14 and executes the computer program, which is read from the storage unit 17. The image data or the image data input through the image input IF 18 is configured to perform color correction processing.

図45は画像処理装置10が実行する色変換処理の手順を説明するフローチャートである。画像処理装置10のCPU11は、記憶部17から読出した画像データ、画像入力IF18を通じて入力された画像データに対して領域判定処理を行う(ステップS71)。領域判定処理は、実施の形態10で説明した手法と同様の手法を用いることができ、各画素が色空間内の何れの領域に属するかを示す情報(色空間内位置情報)を生成する。なお、この領域判定処理の前処理として、シェーディング補正、入力階調補正等の処理を行う構成であってもよい。   FIG. 45 is a flowchart for explaining the procedure of color conversion processing executed by the image processing apparatus 10. The CPU 11 of the image processing apparatus 10 performs a region determination process on the image data read from the storage unit 17 and the image data input through the image input IF 18 (step S71). The area determination process can use a technique similar to the technique described in the tenth embodiment, and generates information (position information in the color space) indicating which area in the color space each pixel belongs to. In addition, as a pre-process of this area determination process, a configuration in which processes such as shading correction and input tone correction are performed may be used.

次いで、CPU11は、予め用意してある1次元LUTを用いて入力画像データの変換を実行する(ステップS72)。また、CPU11は、色空間内位置情報に基づいて信号毎にオフセット量を設定し(ステップS73)、設定したオフセット量を信号毎に加算する(ステップS74)。例えば、入力画像の各画素がハイライト領域に属する場合、R信号に対するオフセット量を256、G信号及びB信号に対するオフセット量を0に設定し、1次元LUTを用いて変換されたデータに対してこれらのオフセットを加算する。また、入力画像の各画素がベース領域に属する場合、各信号に対するオフセット量を0に設定する。   Next, the CPU 11 performs conversion of input image data using a one-dimensional LUT prepared in advance (step S72). Further, the CPU 11 sets an offset amount for each signal based on the position information in the color space (step S73), and adds the set offset amount for each signal (step S74). For example, when each pixel of the input image belongs to the highlight region, the offset amount for the R signal is set to 256, the offset amount for the G signal and the B signal is set to 0, and the data converted using the one-dimensional LUT is used. Add these offsets. When each pixel of the input image belongs to the base region, the offset amount for each signal is set to zero.

次いで、CPU11は、オフセット量を加算したデータを用いて重み付けを算出するとともに(ステップS75)、オフセット量を加算したデータを用いてアドレスを求め、3次元LUTから色補正値の読出しを行う(ステップS76)。すなわち、ステップS73で領域に応じたオフセット量を加算することにより、色空間上の異なる領域にマッピングすることができるため、例えば、図43に示したような3次元LUTを用いることによって領域に応じた適切な色変換を行うことができる。そして、CPU11は、ステップS75で算出した重み付け、及びステップS76で読出した補正値に基づいて補間演算を実行し、出力画像データを生成する(ステップS77)。   Next, the CPU 11 calculates the weight using the data added with the offset amount (step S75), obtains an address using the data added with the offset amount, and reads the color correction value from the three-dimensional LUT (step S75). S76). That is, by adding an offset amount corresponding to a region in step S73, it is possible to map to a different region in the color space. For example, using a three-dimensional LUT as shown in FIG. It is possible to perform appropriate color conversion. Then, the CPU 11 performs an interpolation operation based on the weight calculated in step S75 and the correction value read in step S76, and generates output image data (step S77).

このように、本実施の形態では、オフセット量の切替のみを行えばよく、領域識別信号により1次元LUT及び3次元LUTを切り替えることなく、入力画像の各画素が属する領域に応じて適切な色補正処理を施すことが可能となる。また、3次元LUTを効率的な保持が可能となる。   Thus, in this embodiment, it is only necessary to switch the offset amount, and an appropriate color can be selected according to the region to which each pixel of the input image belongs without switching between the one-dimensional LUT and the three-dimensional LUT by the region identification signal. Correction processing can be performed. In addition, the three-dimensional LUT can be efficiently held.

実施の形態16.
前述した実施の形態では、入力画像データの各画素がハイライト領域又はベース領域の何れに属するかを判定する構成としたが、判定領域は必ずしも2つに限定する必要はなく、3つ以上の判定領域を設ける構成としてもよい。また、実施の形態12では、色空間内位置信号に応じて異なるオフセット量を入力信号(RGB信号)に加算した後、1次元LUTを用いた非線形性の補正、3次元LUTを用いた色補正を行う構成について説明し、実施の形態14では、1次元LUTを用いた非線形性の補正を行った後、色空間内位置信号に応じたオフセット量を加算し、その上で3次元LUTを用いた色補正を行う構成について説明したが、1次元LUTによる非線形性の補正の前後で色空間内位置信号に応じたオフセット量を加算する構成としてもよい。
Embodiment 16 FIG.
In the embodiment described above, it is configured to determine whether each pixel of the input image data belongs to the highlight area or the base area. However, the determination area is not necessarily limited to two, and three or more determination areas are not necessarily included. It is good also as a structure which provides a determination area | region. In the twelfth embodiment, a different offset amount is added to the input signal (RGB signal) according to the position signal in the color space, and then the nonlinearity correction using the one-dimensional LUT and the color correction using the three-dimensional LUT. In the fourteenth embodiment, after correcting nonlinearity using a one-dimensional LUT, an offset amount corresponding to the position signal in the color space is added, and then a three-dimensional LUT is used. However, a configuration may be adopted in which an offset amount corresponding to the position signal in the color space is added before and after the nonlinearity correction by the one-dimensional LUT.

図46は色空間内位置信号生成部64の信号生成部641が用いる判定テーブル641aの他の例を示す概念図である。図46に示した例では、0≦R≦47、0≦G≦47、0≦B≦47の範囲により示される領域をダーク領域、0≦R≦63、0≦G≦63、80≦B≦143の範囲により示される領域をブルー領域、240≦R≦255、240≦G≦255、240≦B≦255の範囲により示される領域をハイライト領域として規定している。また、これらの領域の何れにも属さない領域をベース領域として規定している。すなわち、信号生成部641は、判定テーブル641aを参照することにより入力されたRGB信号がダーク領域、ブルー領域、ハイライト領域、ベース領域の何れに属するかを判定することができ、判定された領域に応じて異なる色空間内位置信号を出力することができる。   FIG. 46 is a conceptual diagram illustrating another example of the determination table 641a used by the signal generation unit 641 of the position signal generation unit 64 in the color space. In the example shown in FIG. 46, the region indicated by the range of 0 ≦ R ≦ 47, 0 ≦ G ≦ 47, 0 ≦ B ≦ 47 is a dark region, 0 ≦ R ≦ 63, 0 ≦ G ≦ 63, 80 ≦ B. The region indicated by the range of ≦ 143 is defined as the blue region, and the region indicated by the ranges of 240 ≦ R ≦ 255, 240 ≦ G ≦ 255, and 240 ≦ B ≦ 255 is defined as the highlight region. Further, an area that does not belong to any of these areas is defined as a base area. That is, the signal generation unit 641 can determine whether the input RGB signal belongs to the dark region, the blue region, the highlight region, or the base region by referring to the determination table 641a. Different position signals in the color space can be output in accordance with.

図47は実施の形態16に係る色補正処理を説明する模式的説明図である。本実施の形態では、まず、色空間内位置信号に応じて切替えたオフセット量をRGB信号に加算し(第1のオフセット加算)、オフセットを加算したRGB信号について1次元LUTを用いたデータ変換を行う。そして、変換されたデータに対し、色空間内位置信号に応じて切り替えたオフセット量を加算し(第2のオフセット加算)、オフセットを加算したRGB信号について3次元LUTを用いた色補正を行う。   FIG. 47 is a schematic explanatory diagram illustrating color correction processing according to the sixteenth embodiment. In this embodiment, first, the offset amount switched according to the position signal in the color space is added to the RGB signal (first offset addition), and data conversion using the one-dimensional LUT is performed on the RGB signal to which the offset is added. Do. Then, an offset amount switched according to the position signal in the color space is added to the converted data (second offset addition), and color correction using the three-dimensional LUT is performed on the RGB signal to which the offset has been added.

本実施の形態では、まず、判定した領域に応じてオフセット量を切替え、1次元LUTを用いてデータ変換を行うことで入出力の範囲を異ならせている。図48は本実施の形態で用いる1次元LUTの一例を示す概念図であり、図49は各エリアについて規定したオフセットとマッピング先との関係をまとめた図表である。1次元LUTに格納する順番は、ベース領域、ダーク領域、ブルー領域、ハイライト領域と仮定する。ダーク領域用の1次元LUTがベース領域用の1次元LUTの直後に格納され、ベース領域用の1次元LUTは255までであるため、ダーク領域のオフセット量は256となる。すなわち、ダーク領域のRGBの最小値はそれぞれ256にマッピングされる。一方、最大値は、(ベースエリアの格子点距離)×(各色成分のグリッド数−1)+(各成分の最小値−1)で表すことができる。ダーク領域の入力信号の最大値は47であったが、格子点数が9になるため、16×(9−1)+256−1=383となる。   In this embodiment, first, the input / output ranges are made different by switching the offset amount according to the determined area and performing data conversion using a one-dimensional LUT. FIG. 48 is a conceptual diagram showing an example of a one-dimensional LUT used in the present embodiment, and FIG. 49 is a table summarizing the relationship between offsets and mapping destinations defined for each area. The order of storage in the one-dimensional LUT is assumed to be a base area, a dark area, a blue area, and a highlight area. Since the one-dimensional LUT for the dark area is stored immediately after the one-dimensional LUT for the base area and the one-dimensional LUT for the base area is up to 255, the offset amount of the dark area is 256. That is, the minimum RGB values in the dark area are mapped to 256, respectively. On the other hand, the maximum value can be expressed by (base point grid point distance) × (number of grids of each color component−1) + (minimum value of each component−1). Although the maximum value of the input signal in the dark region was 47, the number of grid points is 9, so that 16 × (9-1) + 256-1 = 383.

次に、ブルー領域の例について示す。ブルー領域は、ダーク領域の次に格納するようにしているため、ダークエリアの最大マッピング値である383の次の値である384から格納される。ブルーエリアのR成分、G成分の入力最小値はそれぞれ0のため、384がオフセット量となる。しかし、ブルー領域のB成分の最小値は80であるため、80が385にマッピングされるために、オフセット量を305としている。最大値に関しては、補間する格子点距離が8、各色成分のグリッド数が11、オフセット量がR成分、G成分については385、B成分には305であるため、R成分、G成分の最大値は、16×(11−1)+383−1=543、B成分の最大値は、16×(11−1)+383−1=543となる。   Next, an example of the blue area will be described. Since the blue area is stored next to the dark area, the blue area is stored from 384 which is the next value of 383 which is the maximum mapping value of the dark area. Since the minimum input values of the R component and G component in the blue area are 0, 384 is the offset amount. However, since the minimum value of the B component in the blue region is 80, 80 is mapped to 385, so the offset amount is 305. Regarding the maximum value, the grid point distance to be interpolated is 8, the number of grids of each color component is 11, the offset amount is 385 for the R component and G component, and 305 for the B component. Is 16 × (11-1) + 383-1 = 543, and the maximum value of the B component is 16 × (11-1) + 383-1 = 543.

このような計算手法により1次元LUT及びオフセット量を決定し、入力データの画素値の変換を行う。また、図50の概念図に示した3次元LUTを用いて色補正を行うことにより、各領域に応じて適切な色補正を行うことができる。   The one-dimensional LUT and the offset amount are determined by such a calculation method, and the pixel value of the input data is converted. Further, by performing color correction using the three-dimensional LUT shown in the conceptual diagram of FIG. 50, appropriate color correction can be performed according to each region.

以上では、色空間内位置信号に応じて適切な色補正処理を行う方法について説明したが、色空間内位置信号だけではなく領域識別信号と連動して、適切な色補正処理を行うようにしても良い。例えば、領域識別信号が写真領域(印画紙写真などの連続階調領域)であり、色空間内位置信号がハイライトである場合のみ、前述した何れかの方法を用いて格子点間隔を小さくして補間処理をするなどの、処理が可能となる。   In the above, the method for performing an appropriate color correction process according to the position signal in the color space has been described. However, the appropriate color correction process is performed in conjunction with not only the position signal in the color space but also the area identification signal. Also good. For example, only when the area identification signal is a photographic area (continuous tone area such as a photographic paper photograph) and the position signal in the color space is a highlight, the lattice point interval is reduced by using any of the methods described above. Thus, processing such as interpolation processing can be performed.

また、色空間内位置信号と原稿種別判定信号とに基づいて、適切な色補正処理を行うようにしてもよい。例えば、原稿種別が印画紙写真原稿、又は、文字印画紙写真原稿と判別され、色空間内位置信号が、ダーク領域、ブルー領域、ハイライト領域の場合に、図48及び図50に示される1次元LUT、3次元LUTを用いて処理を行うことが挙げられる。あるいは、印刷写真原稿、文字印刷写真原稿に対して、印画紙写真原稿、文字印画紙写真原稿とは異なる領域にダーク領域、ブルー領域、ハイライト領域用の色補正テーブルを設け、処理を行うようにしても良い。   Further, an appropriate color correction process may be performed based on the position signal in the color space and the document type determination signal. For example, when the document type is determined to be a photographic paper photographic document or a character photographic paper photographic document, and the color space position signal is a dark region, a blue region, or a highlight region, 1 shown in FIGS. Processing is performed using a three-dimensional LUT and a three-dimensional LUT. Alternatively, a color correction table for dark areas, blue areas, and highlight areas is provided in areas different from those for photographic paper photographic originals and character photographic paper photographic originals for printed photographic originals and character printed photographic originals to perform processing. Anyway.

本発明に係る画像形成装置の内部構成を説明するブロック図である。1 is a block diagram illustrating an internal configuration of an image forming apparatus according to the present invention. 画像処理部の構成を説明するブロック図である。It is a block diagram explaining the structure of an image process part. 実施の形態1に係る色補正部の動作を説明する模式的説明図である。6 is a schematic explanatory diagram for explaining the operation of the color correction unit according to Embodiment 1. FIG. 色補正部で用いる1次元LUTの概念図である。It is a conceptual diagram of the one-dimensional LUT used in a color correction part. 色補正部で用いる3次元LUTの概念図である。3 is a conceptual diagram of a three-dimensional LUT used in a color correction unit. FIG. 入力色空間を示す模式図である。It is a schematic diagram which shows an input color space. 単位格子を四面体により分割した様子を示す模式図である。It is a schematic diagram which shows a mode that the unit cell was divided | segmented by the tetrahedron. 出力信号の算出手法を説明する説明図である。It is explanatory drawing explaining the calculation method of an output signal. 出力信号を算出する際に用いるパラメータをまとめた図表である。It is the graph which put together the parameter used when calculating an output signal. 実施の形態1に係る色補正部の内部構成を説明するブロック図である。2 is a block diagram illustrating an internal configuration of a color correction unit according to Embodiment 1. FIG. 実施の形態2に係る色補正部の動作を説明する模式的説明図である。FIG. 10 is a schematic explanatory diagram for explaining an operation of a color correction unit according to Embodiment 2. 色補正部で用いる1次元LUTの概念図である。It is a conceptual diagram of the one-dimensional LUT used in a color correction part. 実施の形態2に係る色補正部の内部構成を説明するブロック図である。6 is a block diagram illustrating an internal configuration of a color correction unit according to Embodiment 2. FIG. 実施の形態3に係る色補正部の動作を説明する模式的説明図である。FIG. 10 is a schematic explanatory diagram for explaining an operation of a color correction unit according to Embodiment 3. 色補正部で用いる3次元LUTの概念図である。3 is a conceptual diagram of a three-dimensional LUT used in a color correction unit. FIG. 実施の形態3に係る色補正部の内部構成を説明するブロック図である。10 is a block diagram illustrating an internal configuration of a color correction unit according to Embodiment 3. FIG. 本実施の形態の変形例を示す模式的説明図である。It is typical explanatory drawing which shows the modification of this Embodiment. 実施の形態4に係る画像形成装置が備える画像処理部の構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of an image processing unit included in an image forming apparatus according to a fourth embodiment. 本発明に係るコンピュータプログラムがインストールされた画像処理装置の内部構成を説明するブロック図である。It is a block diagram explaining the internal structure of the image processing apparatus in which the computer program based on this invention was installed. 画像処理装置が実行する色補正処理の手順を説明するフローチャートである。6 is a flowchart illustrating a procedure of color correction processing executed by the image processing apparatus. 画像処理装置が実行する色補正処理の手順を説明するフローチャートである。6 is a flowchart illustrating a procedure of color correction processing executed by the image processing apparatus. 画像処理装置が実行する色補正処理の手順を説明するフローチャートである。6 is a flowchart illustrating a procedure of color correction processing executed by the image processing apparatus. 実施の形態8に係る画像形成装置が備える画像処理部の構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of an image processing unit included in an image forming apparatus according to an eighth embodiment. 色分布情報抽出部の内部構成を説明するブロック図である。It is a block diagram explaining the internal structure of a color distribution information extraction part. 実施の形態8に係る色補正部の動作を説明する模式的説明図である。FIG. 20 is a schematic explanatory diagram for explaining the operation of a color correction unit according to an eighth embodiment. 色補正部で用いる1次元LUTの概念図である。It is a conceptual diagram of the one-dimensional LUT used in a color correction part. 色補正部で用いる3次元LUTの概念図である。3 is a conceptual diagram of a three-dimensional LUT used in a color correction unit. FIG. 実施の形態8に係る色補正部の内部構成を示すブロック図である。FIG. 20 is a block diagram illustrating an internal configuration of a color correction unit according to an eighth embodiment. 画像処理装置が実行する色補正処理の処理手順を説明するフローチャートである。6 is a flowchart illustrating a processing procedure of color correction processing executed by the image processing apparatus. 実施の形態10に係る画像形成装置が備える画像処理部の構成を示すブロック図である。FIG. 16 is a block diagram illustrating a configuration of an image processing unit included in an image forming apparatus according to a tenth embodiment. 色空間内位置信号生成部の内部構成を説明するブロック図である。It is a block diagram explaining the internal structure of the position signal generation part in color space. 判定テーブルの一例を説明する概念図である。It is a conceptual diagram explaining an example of the determination table. 実施の形態10に係る色補正部の動作を説明する模式的説明図である。FIG. 20 is a schematic explanatory diagram for explaining the operation of a color correction unit according to the tenth embodiment. 色補正部で用いる1次元LUTの概念図である。It is a conceptual diagram of the one-dimensional LUT used in a color correction part. 色補正部で用いる3次元LUTの概念図である。3 is a conceptual diagram of a three-dimensional LUT used in a color correction unit. FIG. 実施の形態10に係る色補正部の内部構成を説明するブロック図である。FIG. 20 is a block diagram illustrating an internal configuration of a color correction unit according to Embodiment 10. 画像処理装置が実行する色補正処理の手順を説明するフローチャートである。6 is a flowchart illustrating a procedure of color correction processing executed by the image processing apparatus. 実施の形態12に係る色補正部の動作を説明する模式的説明図である。FIG. 20 is a schematic explanatory diagram for explaining the operation of a color correction unit according to Embodiment 12. 色補正部で用いる1次元LUTの概念図である。It is a conceptual diagram of the one-dimensional LUT used in a color correction part. 実施の形態12に係る色補正部の内部構成を説明するブロック図である。FIG. 20 is a block diagram illustrating an internal configuration of a color correction unit according to Embodiment 12. 画像処理装置が実行する色変換処理の手順を説明するフローチャートである。6 is a flowchart illustrating a color conversion process performed by the image processing apparatus. 実施の形態14に係る色補正部の動作を説明する模式的説明図である。FIG. 20 is a schematic explanatory diagram for explaining the operation of a color correction unit according to a fourteenth embodiment. 色補正部で用いる3次元LUTの概念図である。3 is a conceptual diagram of a three-dimensional LUT used in a color correction unit. FIG. 実施の形態14に係る色補正部の内部構成を説明するブロック図である。FIG. 25 is a block diagram illustrating an internal configuration of a color correction unit according to a fourteenth embodiment. 画像処理装置が実行する色変換処理の手順を説明するフローチャートである。6 is a flowchart illustrating a color conversion process performed by the image processing apparatus. 色空間内位置信号生成部の信号生成部が用いる判定テーブルの他の例を示す概念図である。It is a conceptual diagram which shows the other example of the determination table which the signal generation part of the position signal generation part in color space uses. 実施の形態16に係る色補正処理を説明する模式的説明図である。FIG. 20 is a schematic explanatory diagram for explaining color correction processing according to a sixteenth embodiment. 本実施の形態で用いる1次元LUTの一例を示す概念図である。It is a conceptual diagram which shows an example of the one-dimensional LUT used by this Embodiment. 各エリアについて規定したオフセットとマッピング先との関係をまとめた図表である。It is the table | surface which put together the relationship between the offset prescribed | regulated about each area, and a mapping destination. 3次元LUTの概念図である。It is a conceptual diagram of a three-dimensional LUT. 従来の画像処理装置の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the conventional image processing apparatus. 従来の画像処理装置の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the conventional image processing apparatus.

符号の説明Explanation of symbols

1 制御部
2 画像入力部
3 画像処理部
7 画像出力部
8 記憶部
9 操作部
35A,35B,35C 色補正部
351,354,356 1次元LUT計算部
352,355,358 3次元LUT計算部
353,357 オフセット計算部
DESCRIPTION OF SYMBOLS 1 Control part 2 Image input part 3 Image processing part 7 Image output part 8 Storage part 9 Operation part 35A, 35B, 35C Color correction part 351,354,356 One-dimensional LUT calculation part 352,355,358 Three-dimensional LUT calculation part 353 , 357 Offset calculator

Claims (14)

複数の画素からなり、識別可能な1又は複数の領域を含む入力画像の各画素に色変換を施して出力画像を生成する色変換装置において、
各画素の属する領域の特徴に応じて変換後の画素値が一意に定まり、しかも変換後の画素値の範囲が領域間で連続するように入力画像の各画素の画素値を変換する変換手段と、変換後の画素値の範囲により定まる色空間を均等に分割した格子点での色補正値を格納してあり、色成分毎の格子点数を予め定めてある色補正テーブルと、該色補正テーブルから読出した色補正値を用いて前記画素に対する補間演算を行う演算手段とを備えることを特徴とする色変換装置。
In a color conversion apparatus that includes a plurality of pixels and generates an output image by performing color conversion on each pixel of an input image including one or more identifiable regions,
Conversion means for converting the pixel value of each pixel of the input image so that the pixel value after conversion is uniquely determined according to the characteristics of the region to which each pixel belongs and the range of pixel values after conversion is continuous between the regions ; Storing color correction values at grid points obtained by equally dividing a color space determined by the range of pixel values after conversion, and a color correction table in which the number of grid points for each color component is predetermined, and the color correction table A color conversion apparatus comprising: a calculation unit that performs an interpolation calculation on the pixel using the color correction value read from the pixel.
前記変換手段は、前記入力画像の各画素の画素値に加算すべきオフセットを前記領域に応じて設定する手段と、設定したオフセットを前記画素値に加算する手段と、前記オフセットを加算した各画素の画素値と変換後の画素値との関係を規定した1次元ルックアップテーブルと、該1次元ルックアップテーブルに基づいて画素値を変換する手段とを備えることを特徴とする請求項1に記載の色変換装置。   The converting means includes means for setting an offset to be added to the pixel value of each pixel of the input image according to the region, means for adding the set offset to the pixel value, and each pixel to which the offset is added. 2. The apparatus according to claim 1, further comprising: a one-dimensional lookup table defining a relationship between the pixel value of the pixel and the pixel value after conversion; and means for converting the pixel value based on the one-dimensional lookup table. Color conversion device. 前記変換手段は、変換前後の画素値の関係を規定した1次元ルックアップテーブルと、該1次元ルックアップテーブルに基づいて前記入力画像の各画素の画素値を変換する手段と、該手段により変換した画素値に対して加算すべきオフセットを前記領域に応じて設定する手段と、設定したオフセットを前記画素値に加算する手段とを備えることを特徴とする請求項1に記載の色変換装置。   The conversion means includes a one-dimensional lookup table that defines a relationship between pixel values before and after conversion, means for converting the pixel value of each pixel of the input image based on the one-dimensional lookup table, and conversion by the means The color conversion apparatus according to claim 1, further comprising: means for setting an offset to be added to the pixel value according to the region; and means for adding the set offset to the pixel value. 前記格子点の間隔は2n (ただし、nは入力画像の各色成分のビット数kより小さい整数)であり、格子点数Dnは、2(m-1)+1<Dn<2(m+1) +1(ただし、Dn≠2m +1であり、m=k−n)を満たす整数であることを特徴とする請求項1又は請求項3の何れか1つに記載の色変換装置。 The interval between the lattice points is 2 n (where n is an integer smaller than the number k of bits of each color component of the input image), and the number of lattice points Dn is 2 (m−1) +1 <Dn <2 (m + 1). 4. The color conversion apparatus according to claim 1, wherein the color conversion apparatus is an integer satisfying +1 (where Dn ≠ 2 m +1 and m = k−n). 前記入力画像の各画素が属する領域の特徴を、前記画素の画素値に基づいて識別する手段を備えることを特徴とする請求項1乃至請求項4の何れか1つに記載の色変換装置。   5. The color conversion apparatus according to claim 1, further comprising a unit that identifies a feature of a region to which each pixel of the input image belongs based on a pixel value of the pixel. 前記入力画像に含まれる領域は、網点領域、文字領域、写真領域の何れかであることを特徴とする請求項5に記載の色変換装置。   6. The color conversion apparatus according to claim 5, wherein the area included in the input image is any one of a halftone dot area, a character area, and a photograph area. 識別すべき領域の特徴を画素値の範囲により規定してあり、規定してある範囲に前記入力画像の各画素の画素値が含まれるか否かを判定する手段を備えることを特徴とする請求項5に記載の色変換装置。   A feature of an area to be identified is defined by a range of pixel values, and means for determining whether or not a pixel value of each pixel of the input image is included in the defined range is provided. Item 6. The color conversion device according to Item 5. 識別すべき領域の特徴を色分布により規定してあり、前記入力画像の各画素の色情報を取得する手段と、規定してある色分布に各画素が属するか否かを取得した色情報に基づいて判定する手段とを備えることを特徴とする請求項5に記載の色変換装置。   The characteristics of the area to be identified are defined by color distribution, and means for acquiring color information of each pixel of the input image, and the acquired color information indicating whether each pixel belongs to the specified color distribution The color conversion apparatus according to claim 5, further comprising: a determination unit based on the determination unit. 前記入力画像に含まれる領域を、前記入力画像の元となる原稿の種別に基づいて識別するようにしてあることを特徴とする請求項1乃至請求項4の何れか1つに記載の色変換装置。   5. The color conversion according to claim 1, wherein an area included in the input image is identified based on a type of a document that is a source of the input image. 6. apparatus. 請求項1乃至請求項9の何れか1つに記載の色変換装置と、該色変換装置により色変換して得られた画像に基づきシート上に画像形成を行う手段とを備えることを特徴とする画像形成装置。   A color conversion device according to any one of claims 1 to 9, and means for forming an image on a sheet based on an image obtained by color conversion by the color conversion device. Image forming apparatus. 複数の画素からなり、識別可能な1又は複数の領域を含む入力画像の各画素に色変換を施して出力画像を生成する色変換方法において、
各画素の属する領域の特徴に応じて変換後の画素値の範囲が一意に定まり、しかも変換後の画素値の範囲が領域間で連続するように入力画像の各画素の画素値を変換する第1ステップと、変換後の画素値の範囲により定まる色空間を均等に分割した格子点での色補正値を格納してあり、色成分毎の格子点数を予め定めてある色補正テーブルから読出した色補正値を用いて前記画素に対する補間演算を行う第2ステップとを有することを特徴とする色変換方法。
In a color conversion method for generating an output image by performing color conversion on each pixel of an input image that includes a plurality of pixels and includes one or more identifiable regions,
The pixel value of each pixel of the input image is converted so that the range of pixel values after conversion is uniquely determined according to the characteristics of the region to which each pixel belongs , and the range of pixel values after conversion is continuous between the regions . Stores color correction values at grid points obtained by equally dividing the color space determined by one step and the converted pixel value range, and the number of grid points for each color component is read from a predetermined color correction table. And a second step of performing an interpolation operation on the pixel using a color correction value.
前記第1ステップは、前記入力画像の各画素の画素値に加算すべきオフセットを前記領域に応じて設定し、設定したオフセットを前記画素値に加算し、前記オフセットを加算した各画素の画素値と変換後の画素値との関係を規定した1次元ルックアップテーブルに基づいて画素値の変換を行うことを特徴とする請求項11に記載の色変換方法。   In the first step, an offset to be added to the pixel value of each pixel of the input image is set according to the region, the set offset is added to the pixel value, and the pixel value of each pixel obtained by adding the offset The color conversion method according to claim 11, wherein the pixel value is converted based on a one-dimensional lookup table that defines a relationship between the pixel value and the converted pixel value. 前記第1ステップは、変換前後の画素値の関係を規定した1次元ルックアップテーブルに基づいて前記入力画像の各画素の画素値を変換し、変換した画素値に対して加算すべきオフセットを前記領域に応じて設定し、設定したオフセットを前記画素値に加算することを特徴とする請求項11に記載の色変換方法。   The first step converts a pixel value of each pixel of the input image based on a one-dimensional lookup table that defines a relationship between pixel values before and after conversion, and adds an offset to be added to the converted pixel value. The color conversion method according to claim 11, wherein the color conversion method is set according to a region, and the set offset is added to the pixel value. コンピュータに、複数の画素からなり、識別可能な1又は複数の領域を含む入力画像の各画素に色変換を施して出力画像を生成させるコンピュータプログラムにおいて、
コンピュータに、各画素の属する領域の特徴に応じて変換後の画素値の範囲が一意に定まり、しかも変換後の画素値の範囲が領域間で連続するように入力画像の各画素の画素値を変換させるステップと、コンピュータに、変換後の画素値の範囲により定まる色空間を均等に分割した格子点での色補正値を格納してあり、色成分毎の格子点数を予め定めてある色補正テーブルから読出した色補正値を用いて前記画素に対する補間演算を実行させるステップとを有することを特徴とするコンピュータプログラム。
In a computer program that causes a computer to generate an output image by performing color conversion on each pixel of an input image that includes a plurality of pixels and includes one or more identifiable regions,
The computer determines the range of pixel values after conversion according to the characteristics of the region to which each pixel belongs , and sets the pixel value of each pixel of the input image so that the range of converted pixel values is continuous between the regions. The color correction value at grid points obtained by equally dividing the color space determined by the range of pixel values after conversion is stored in the computer, and the number of grid points for each color component is predetermined. And a step of executing an interpolation operation on the pixel using the color correction value read from the table.
JP2005246743A 2004-12-17 2005-08-26 Color conversion apparatus, image forming apparatus, color conversion method, and computer program Active JP4637686B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005246743A JP4637686B2 (en) 2004-12-17 2005-08-26 Color conversion apparatus, image forming apparatus, color conversion method, and computer program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004366766 2004-12-17
JP2005246743A JP4637686B2 (en) 2004-12-17 2005-08-26 Color conversion apparatus, image forming apparatus, color conversion method, and computer program

Publications (2)

Publication Number Publication Date
JP2006197549A JP2006197549A (en) 2006-07-27
JP4637686B2 true JP4637686B2 (en) 2011-02-23

Family

ID=36803213

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005246743A Active JP4637686B2 (en) 2004-12-17 2005-08-26 Color conversion apparatus, image forming apparatus, color conversion method, and computer program

Country Status (1)

Country Link
JP (1) JP4637686B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9129567B2 (en) 2011-11-15 2015-09-08 Samsung Display Co., Ltd. Liquid crystal display and method of displaying image thereon utilizing stored look-up tables to modify an input image signal

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4668973B2 (en) 2007-11-20 2011-04-13 シャープ株式会社 Image processing apparatus and computer program
JP4941331B2 (en) 2008-01-28 2012-05-30 セイコーエプソン株式会社 Printing method, printing apparatus, correspondence table generation method, and program
JP2011024202A (en) * 2009-06-18 2011-02-03 Victor Co Of Japan Ltd Color conversion apparatus, color conversion method, and image display system
JP5951327B2 (en) * 2012-04-06 2016-07-13 株式会社Pfu Image processing apparatus, image processing method, and image processing program
US9129208B2 (en) * 2013-03-15 2015-09-08 Kyocera Document Solutions Inc. Method and system for determining an object type from raster data in an image forming apparatus
JP5526251B1 (en) * 2013-03-25 2014-06-18 Eizo株式会社 Color conversion method, gradation value correction apparatus, computer program, and display apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9129567B2 (en) 2011-11-15 2015-09-08 Samsung Display Co., Ltd. Liquid crystal display and method of displaying image thereon utilizing stored look-up tables to modify an input image signal

Also Published As

Publication number Publication date
JP2006197549A (en) 2006-07-27

Similar Documents

Publication Publication Date Title
JP4067532B2 (en) Color conversion apparatus, image forming apparatus, color conversion method, computer program, and recording medium
US7940434B2 (en) Image processing apparatus, image forming apparatus, method of image processing, and a computer-readable storage medium storing an image processing program
US7945109B2 (en) Image processing based on object information
US7148997B2 (en) Image processing apparatus and method
JP3376194B2 (en) Image processing apparatus and method
JP4197346B2 (en) Image processing apparatus, image processing method, image forming apparatus, image processing program, and recording medium
JP4496239B2 (en) Image processing method, image processing apparatus, image forming apparatus, image reading apparatus, computer program, and recording medium
JP4637686B2 (en) Color conversion apparatus, image forming apparatus, color conversion method, and computer program
JP2003209708A (en) Image processing method, image processor, image forming device, program, and recording medium
JP4112413B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and computer-readable recording medium on which image processing program is recorded
JP4522978B2 (en) Image processing apparatus, image processing method, image forming apparatus, image processing program, and recording medium
JPH09233335A (en) Image data processor and image data processing method
JP4359730B2 (en) Monotone conversion apparatus, monotone conversion method, and medium recording monotone conversion program
JP4080252B2 (en) Image processing apparatus, image forming apparatus, image processing method, program, and recording medium
JP4149368B2 (en) Image processing method, image processing apparatus and image forming apparatus, computer program, and computer-readable recording medium
JP2004248103A (en) Image processing device, image reading device, image forming device, image processing method, image processing program, and computer readable record medium recording the same
JP4271644B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium recording image processing program
JP4101741B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium
JP5122507B2 (en) Image processing apparatus, image forming apparatus, image processing method, program, and recording medium
JPH10224648A (en) Picture processor and picture processing method
JP4958626B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium
JP2001119591A (en) Color image processing unit
JP4334504B2 (en) Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium
JP2003209707A (en) Image processing method, image processor, image forming device, program, and recording medium
JP5776379B2 (en) Image forming apparatus and image forming method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070822

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090224

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090424

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090609

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101124

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131203

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4637686

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150