JP2006173825A - Image processing apparatus and method thereof - Google Patents

Image processing apparatus and method thereof Download PDF

Info

Publication number
JP2006173825A
JP2006173825A JP2004360841A JP2004360841A JP2006173825A JP 2006173825 A JP2006173825 A JP 2006173825A JP 2004360841 A JP2004360841 A JP 2004360841A JP 2004360841 A JP2004360841 A JP 2004360841A JP 2006173825 A JP2006173825 A JP 2006173825A
Authority
JP
Japan
Prior art keywords
color
space
appearance
image processing
conversion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004360841A
Other languages
Japanese (ja)
Inventor
Takahiro Suzuki
隆広 鈴木
Osamu Yamada
修 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004360841A priority Critical patent/JP2006173825A/en
Publication of JP2006173825A publication Critical patent/JP2006173825A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To perform color gamut mapping suitable for the visual characteristic of a human being by introducing color gamut mapping using a color appearance space suitable for the visual characteristic of the human being. <P>SOLUTION: An image processing apparatus has an XYZ calculating means for converting color values represented by a first color space into CIE tristimulus values XYZ, a color appearance conversion means for converting the XYZ values calculated by the XYZ calculating means into appearance space values by using a color appearance conversion formula, and a color conversion means for converting the appearance space values acquired by the color appearance conversion means into color values represented by a second color space. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、カラーマッチングを行う画像処理装置および方法に関する。   The present invention relates to an image processing apparatus and method for performing color matching.

近年、パーソナルコンピュータの普及に伴い、デジタルカメラ、カラースキャナなどの画像入力デバイスによって画像を入力し、その画像をCRT、LCDなどの画像表示デバイスを用い画像を表示、確認、さらには、カラープリンタなどの画像出力デバイスによって画像を出力している。この際、入力デバイスと、表示、出力デバイスの色再現域の差による見えの違いを補正するために、カラーマッチング処理(色域マッピング)を行うのが通例である。このカラーマッチング処理を行うことにより、デバイス間の色の見えの差を吸収するのである。色域マッピングの方法の1つに通称Colorimetricと称される処理がある。Colorimetric処理は、入力デバイス色域と出力デバイス色域の共通領域に関してはそのまま表現し、非共通領域に関しては、出力デバイス色域の表面にマッピングするという方法である。マッピングの方法としては、様々な技術が提案されており、例えば、入力された色が対象とする出力デバイスの色域内であるか否かを判定し、色域外の色を出力デバイス色域の最近傍点にマッピングする方法や、色域外の色を明度と色相が同じで、彩度が最大の色にマッピングする方法などが提案されている。しかしながら、前者の方法では、色域外の色の色相が変わってしまう恐れがあり、出力された画像の色に違和感を感じることがある。また、後者の方法は、明度と色相は保たれているものの、圧縮領域によっては、彩度の低下が著しく、これもまた不自然な画像と感じてしまうことがある。また、両者とも出力デバイス色域外の色に関しては階調性を完全に無視してしまっているという問題もある。このような問題を解決するため、例えば、「E.G.Pariser,"An Investiation of Color Gamut Reduction Techniques",IS&T Symp. Elec. Prepress Tech. -Color Printing, pp.105-107(1991)」のように、CIELAB空間上のグレー軸の一点(50,0,0)の方向に向かって色域マッピングしていく方法が提案された。また、CIELAB空間上で色相毎に領域分割を行い、その領域毎に最適な圧縮方向へマッピングを行う手法も提案されている。
E.G.Pariser,"An Investiation of Color Gamut Reduction Techniques",IS&T Symp. Elec. Prepress Tech. -Color Printing, pp.105-107(1991)
In recent years, with the spread of personal computers, images are input using image input devices such as digital cameras and color scanners, and the images are displayed and confirmed using image display devices such as CRT and LCD. The image is output by the image output device. In this case, color matching processing (color gamut mapping) is usually performed in order to correct a difference in appearance due to a difference in color gamut between the input device and the display / output device. By performing this color matching process, the difference in color appearance between devices is absorbed. One method of color gamut mapping is a process commonly called Colorimetric. Colorimetric processing is a method in which the common area of the input device color gamut and the output device color gamut is expressed as it is, and the non-common area is mapped to the surface of the output device color gamut. Various techniques have been proposed as a mapping method. For example, it is determined whether or not an input color is within the color gamut of the target output device, and a color outside the color gamut is assigned to the latest in the output device color gamut. There have been proposed a method of mapping to a neighboring point, a method of mapping a color outside the color gamut to a color having the same lightness and hue and the highest saturation. However, in the former method, the hue of the color outside the color gamut may change, and the color of the output image may feel uncomfortable. In the latter method, brightness and hue are maintained, but depending on the compression area, the saturation is remarkably lowered, and this may also be felt as an unnatural image. In addition, both have a problem that gradation is completely ignored for colors outside the output device gamut. In order to solve such problems, for example, “IEPariser,“ An Investiation of Color Gamut Reduction Techniques ”, IS & T Symp. Elec. Prepress Tech. -Color Printing, pp. 105-107 (1991)” A method of mapping the color gamut toward the direction of one point (50,0,0) on the gray axis in space was proposed. In addition, a method has been proposed in which area division is performed for each hue in the CIELAB space and mapping is performed in an optimal compression direction for each area.
EGPariser, "An Investiation of Color Gamut Reduction Techniques", IS & T Symp. Elec. Prepress Tech.-Color Printing, pp.105-107 (1991)

上述したように、現在までにColorimetric手法における色域外のマッピング方法は多数提案されている。特に上述した2つの手法は、色域外の色に関しても色相を保存しており、また、若干ではあるが階調も表現しているため、違和感のない良好な画像を得ることが出来る。しかしながら、前述した手法を用いて色域圧縮した画像を実際に観察してみると、入力画像では同じ色相であった色の色相が曲がっているかのように見えることがある。これは、両手法が、CIELAB空間をもとに行われていることに起因する。CIELAB空間は、人間の視覚特性に適合するように考案されたデバイス非依存色空間であるが、実際には完全に人間の視覚特性には一致しない。例えば、図1に例示するように、人間の視覚で感じる青のグラデーションは、CIELAB空間上では、等色相すなわち、一直線にはならないのである。にもかかわらず、上記の方法では、図2に示すようにCIELAB空間上で等色相にマッピングを行うため、色相が曲がってしまうのである。   As described above, a large number of out-of-gamut mapping methods in the Colorimetric method have been proposed so far. In particular, the two methods described above preserve hues even for colors outside the color gamut, and also express gradations, albeit slightly, so that it is possible to obtain a good image with no sense of incongruity. However, when actually observing an image that has been color gamut compressed using the above-described method, it may appear as if the hue of the color having the same hue in the input image is bent. This is because both methods are based on the CIELAB space. CIELAB space is a device-independent color space devised to match human visual characteristics, but in reality it does not completely match human visual characteristics. For example, as illustrated in FIG. 1, the blue gradation felt by human vision does not have the same hue, that is, a straight line in the CIELAB space. Nevertheless, in the above method, as shown in FIG. 2, the hue is bent because the mapping is performed in the uniform hue on the CIELAB space.

さて、近年、色の見えモデルとして、従来のCIELABよりも人間の視覚特性を高精度にモデル化したカラーアピアランスモデルが発表されてきている。このカラーアピアランス空間の色値(例えば、J*a*b*値とする)は、概ねCIE三刺激値XYZから計算することができるようになっている。このJ*a*b*を利用することにより、より人間の視覚特性に適合した色域マッピングを行うことができる。カラーアピアランス空間の色値J*a*b*を得るための変換は、例えば、色順応変換や錐体応答変換、反対色応答変換を行って、値が人間の視覚特性に近付くように変換を行っていく。色順応変換の変換方法は、例えば、式(1)に示すようなマトリクス変換を代表とする線形変換であり、錐体応答変換は、マトリクス変換に加え、式(2)に示すような指数演算も行う。また、反対色応答変換は、錐体応答変換後の値を人間の視覚特性に適合した座標J*a*b*の値とするための変換であり、線形変換、及び三角関数変換が代表的な変換式となる。 In recent years, a color appearance model has been announced as a color appearance model that models human visual characteristics with higher accuracy than conventional CIELAB. The color value of the color appearance space (for example, J * a * b * value) can be calculated from the CIE tristimulus values XYZ. By using this J * a * b * , it is possible to perform color gamut mapping more suitable for human visual characteristics. The conversion to obtain the color value J * a * b * in the color appearance space is performed by, for example, chromatic adaptation conversion, cone response conversion, and opposite color response conversion, so that the value approaches human visual characteristics. Go. The conversion method of chromatic adaptation conversion is, for example, linear conversion represented by matrix conversion as shown in Expression (1), and cone response conversion is exponential operation as shown in Expression (2) in addition to matrix conversion. Also do. The inverse color response conversion is a conversion to make the value after the cone response conversion the value of the coordinates J * a * b * adapted to human visual characteristics, and linear conversion and trigonometric function conversion are typical. Conversion formula.

Figure 2006173825
Figure 2006173825

Figure 2006173825
ただし、a00, a01, a02, a10, a11, a12, a20, a21, a22,b,c,d,e,f,gは定数であり、Aは変換前の値、A'は変換後の値を表す。
Figure 2006173825
However, a 00 , a 01 , a 02 , a 10 , a 11 , a 12 , a 20 , a 21 , a 22 , b, c, d, e, f, g are constants, and A is before conversion The value A ′ represents the converted value.

このカラーアピアランス空間において、図1と同様に人間の視覚における青のグラデーションを表示すると、図3のようになる。すなわち、上述した色相が曲がって見える現象を改善するには、このカラーアピアランス空間において、等色相にマッピングを行う必要があるのである。   In this color appearance space, when a blue gradation in human vision is displayed as in FIG. 1, it is as shown in FIG. That is, in order to improve the above-described phenomenon in which the hue appears to be bent, it is necessary to perform mapping to the equal hue in this color appearance space.

本発明は、上述した問題を解決するためになされたものであり、入力色域を出力デバイス色域に色域マッピングする際に、色域外の色相及び階調の保存を目的とすると共に、人間の視覚特性に適合したカラーアピアランス空間を用いた色域マッピングを取り入れることにより、人間の視覚特性に適合した色域マッピングを行うことを目的とする。   The present invention has been made in order to solve the above-described problems, and is intended to preserve hues and gradations outside the color gamut when mapping the input color gamut to the output device color gamut, The purpose is to perform color gamut mapping that matches human visual characteristics by incorporating color gamut mapping using a color appearance space that is suitable for the visual characteristics of humans.

上記目的を達成するために、本発明は、画像の色を合わせるカラーマッチングを行う画像処理装置において、第一の色空間によって表現された色値をCIE三刺激値XYZに変換するXYZ算出手段と、前記XYZ算出手段で算出したXYZ値をカラーアピアランス変換式を用いてアピアランス空間値に変換するカラーアピアランス変換手段と、前記カラーアピアランス変換手段によって得られたアピアランス空間値を第二の色空間によって表現された色値に変換する色変換手段とを具備することを特徴とする。   To achieve the above object, the present invention provides an XYZ calculating means for converting a color value expressed by a first color space into a CIE tristimulus value XYZ in an image processing apparatus that performs color matching for matching the colors of an image. A color appearance conversion means for converting the XYZ values calculated by the XYZ calculation means into appearance space values using a color appearance conversion formula, and the appearance space value obtained by the color appearance conversion means is expressed by a second color space. And a color conversion means for converting the color value into a converted color value.

本発明によれば、入力色域をColorimetric処理を用いて出力デバイス色域にマッピングする際に、明度に重みを持たせ且つ色相を保存したマッピングを行うことにより、出力デバイス色域外の色に対しても良好な色相、及び階調性を持たせることが出来る。さらに、マッピングの際に用いるデバイス非色空間に、従来のCIELAB空間よりも人間の視覚特性に適合したカラーアピアランス空間を用いることにより、従来のように色相が曲がって見える現象を改善することが出来る。   According to the present invention, when mapping an input color gamut to an output device color gamut using Colorimetric processing, weighting is applied to the color outside the output device color gamut by weighting the brightness and preserving the hue. However, a good hue and gradation can be provided. Furthermore, by using a color appearance space that is more suitable for human visual characteristics than the conventional CIELAB space for the device non-color space used for mapping, it is possible to improve the phenomenon in which hues appear to be bent as before. .

(第一の実施例)
図4は、本願第一の実施例に係るハードウエア構成を示すブロック図である。
図4において、1は画像処理装置である。
(First embodiment)
FIG. 4 is a block diagram showing a hardware configuration according to the first embodiment of the present application.
In FIG. 4, reference numeral 1 denotes an image processing apparatus.

また、101は画像データを入力する入力手段、102は、前記入力手段101において入力された画像のRGB値をCIE三刺激値XYZ値に変換するXYZ算出手段、103は、前記XYZ算出手段102において算出されたXYZ値からカラーアピアランス変換式を用いてJ*a*b*値を算出するカラーアピアランス変換手段、104は、出力デバイスの色空間値に変換された画像を出力する出力手段、105は、前記カラーアピアランス変換手段103において得られたJ*a*b*値が、色域保持手段108に保持されている出力デバイスの色域内に存在するか否かを判定する色域内外判定手段、106は、前記カラーアピアランス変換手段103において算出されたJ*a*b*を、色域保持手段108に保持されている出力デバイスの色域へ色域マッピングする色域マッピング手段、107は、マッピング後のカラーアピアランス値から出力デバイスの色空間値を算出する色空間値算出手段、108は、出力デバイスの色域を保持する色域保持手段、109は、処理途中の演算結果を一時保存しておくバッファメモリ。 Further, 101 is an input means for inputting image data, 102 is an XYZ calculation means for converting the RGB value of the image input in the input means 101 into CIE tristimulus values XYZ values, and 103 is in the XYZ calculation means 102 Color appearance conversion means for calculating a J * a * b * value from the calculated XYZ values using a color appearance conversion formula, 104 is an output means for outputting an image converted to a color space value of an output device, 105 is A gamut inside / outside determination means for determining whether or not the J * a * b * value obtained in the color appearance conversion means 103 exists in the color gamut of the output device held in the gamut holding means 108; 106 is a color gamut mapping means for mapping J * a * b * calculated by the color appearance conversion means 103 to the color gamut of the output device held in the color gamut holding means 108, and 107 is a mapping Later color apia Color space value calculating means for calculating the color space value of the output device from the sensed value; 108, a color gamut holding means for holding the color gamut of the output device; and 109, a buffer memory for temporarily storing calculation results during processing .

<画像処理装置1における動作>
図5は、画像処理装置1により実行される例示的な処理のフローチャートである。
<Operation in the image processing apparatus 1>
FIG. 5 is a flowchart of exemplary processing executed by the image processing apparatus 1.

ステップS1において、データ入力手段101において画像データを入力する。   In step S1, image data is input by the data input means 101.

ステップS2において、XYZ算出手段102は、ステップ1において入力された画像のRGB値をCIE三刺激値XYZ値に変換する。変換式は画像を表現している色空間に固有のものを用いる。本実施例では、画像を表現している色空間を国際標準色空間であるsRGB色空間として以下の処理を説明する。sRGB色空間のXYZへの変換式を式(3)に示す。   In step S2, the XYZ calculation means 102 converts the RGB value of the image input in step 1 into a CIE tristimulus value XYZ value. The conversion formula is specific to the color space representing the image. In the present embodiment, the following processing will be described assuming that the color space representing an image is an sRGB color space which is an international standard color space. Formula (3) shows the conversion formula of sRGB color space to XYZ.

Figure 2006173825
式(3)に示した変換式を用いて入力画像の各画素のRGB値をXYZ値に変換する。得られたXYZ値はバッファメモリ109に保存する。
Figure 2006173825
The RGB value of each pixel of the input image is converted into an XYZ value using the conversion equation shown in Equation (3). The obtained XYZ values are stored in the buffer memory 109.

ステップS3において、カラーアピアランス変換手段103は、ステップS2においてXYZ算出手段102によって算出されたXYZ値をもとに、カラーアピアランス変換式を用いてJ*a*b*値に変換する。カラーアピアランス変換手段103の具体的な処理については後述する。 In step S3, the color appearance conversion means 103 converts it into a J * a * b * value using a color appearance conversion formula based on the XYZ value calculated by the XYZ calculation means 102 in step S2. Specific processing of the color appearance conversion means 103 will be described later.

ステップS4において、色域内外判定手段105は、ステップS3において得られた入力画像の各画素のJ*a*b*値を取得し、各画素の色が色域保持手段108に保持されている出力デバイスの色域内に存在するか否かを判定する。以下、色域内外判定法を説明する。 In step S4, the color gamut inside / outside determination means 105 acquires the J * a * b * value of each pixel of the input image obtained in step S3, and the color of each pixel is held in the color gamut holding means 108. It is determined whether or not it exists in the color gamut of the output device. Hereinafter, the color gamut inside / outside determination method will be described.

<色域内外判定法>
本実施例の出力デバイス色域は、色域保持手段108に保持されている。色域保持手段108に保持されている出力デバイス色域の形式を図6に示す。図6に示すように、0≦R,G,B≦255の範囲で9スライスしたRGBデータ(729色)と、それに対応する出力デバイスの出力J*a*b*値を記述したデータが格納されている。このJ*a*b*値は、あらかじめ該9スライスRGBデータをパッチ化し、該出力デバイスで出力、測色器等で測色したデータから算出する。すなわち、本実施例における出力デバイスの色域は、RGBを各9スライスした729点のデータすなわち、512個の六面体から成っている。つまり、色域内外判定を行う場合、入力画素のカラーアピアランス値J,a,bが該512個の六面体のいずれかに入っているか否かを判定すればよい。そこで、1つずつ該六面体の中に入っているか否かを判定する。本実施例では、該六面体をさらに6つの四面体に分割し(図7参照)、各々の四面体について内外判定処理を行うことで、六面体内に入っているか否かを判定する。
<Color gamut inside / outside judgment method>
The output device color gamut of this embodiment is held in the color gamut holding means 108. The format of the output device color gamut held in the color gamut holding means 108 is shown in FIG. As shown in Figure 6, RGB sliced data (729 colors) in the range of 0≤R, G, B≤255 and data describing the output J * a * b * value of the corresponding output device are stored. Has been. This J * a * b * value is calculated from data obtained by patching the 9-slice RGB data in advance, outputting the data from the output device, and measuring the color using a colorimeter or the like. That is, the color gamut of the output device in the present embodiment is composed of 729 points of data obtained by slicing RGB into nine slices, that is, 512 hexahedrons. That is, when performing the color gamut inside / outside determination, it is only necessary to determine whether the color appearance values J, a, and b of the input pixel are in any of the 512 hexahedrons. Therefore, it is determined whether the hexahedrons are included one by one. In this embodiment, the hexahedron is further divided into six tetrahedrons (see FIG. 7), and inside / outside determination processing is performed for each tetrahedron to determine whether or not the hexahedron is in the hexahedron.

以下、図8を用いて四面体の内外判定について説明する。   Hereinafter, tetrahedral inside / outside determination will be described with reference to FIG.

図8のように、四面体の各点をA、B、C、Dとし、入力データをPとすると、   As shown in Fig.8, if each point of the tetrahedron is A, B, C, D and the input data is P,

Figure 2006173825
と表すことができる。この時、点Pが四面体ABCDの中であれば、以下の式(5)、式(6)が成り立つ。
Figure 2006173825
It can be expressed as. At this time, if the point P is in the tetrahedron ABCD, the following equations (5) and (6) hold.

Figure 2006173825
Figure 2006173825

Figure 2006173825
式(5)、式(6)が成り立てば、四面体の中、成り立たなければ四面体の外と判定する。
Figure 2006173825
If equations (5) and (6) hold, it is determined that the tetrahedron is inside, and if not, it is determined that the tetrahedron is outside.

以上の四面体内外判定を6個の四面体に対して行うことで、六面体の内外判定が出来、さらに、該六面体内外判定を512個の六面体に対して適用することで、出力デバイス色域の内外判定が完了する。   By performing the above tetrahedron inside / outside judgment on six tetrahedrons, hexahedron inside / outside judgment can be performed, and furthermore, by applying this hexahedron inside / outside judgment to 512 hexahedrons, the output device color gamut The inside / outside judgment is completed.

このようにして、ステップS4では、入力画像の画素単位で出力デバイス色域の内外判定を行い、その結果をバッファメモリ109に保存する。   In this manner, in step S4, the inside / outside determination of the output device color gamut is performed in units of pixels of the input image, and the result is stored in the buffer memory 109.

ステップS5において、色域マッピング手段は、入力画像の各画素のJ*a*b*値を出力デバイス色域にマッピングする。色域マッピング手段106の具体的な処理については後述する。 In step S5, the color gamut mapping means maps the J * a * b * value of each pixel of the input image to the output device color gamut. Specific processing of the color gamut mapping means 106 will be described later.

ステップS6において、色空間値算出手段107は、ステップS5においてマッピングされたJ*a*b*値を出力デバイスの色空間値に変換する。色空間値算出手段107の具体的な処理については、後述する。 In step S6, the color space value calculation unit 107 converts the J * a * b * value mapped in step S5 into the color space value of the output device. Specific processing of the color space value calculating unit 107 will be described later.

ステップS7において、出力手段104は、バッファメモリ109に保存されている出力デバイスの色空間値に変換された画像を出力する。   In step S7, the output unit 104 outputs the image converted into the color space value of the output device stored in the buffer memory 109.

< カラーアピアランス変換手段103の動作 >
ステップS3のカラーアピアランス変換手段103の動作について図9を用いて詳細に説明する。
<Operation of color appearance conversion means 103>
The operation of the color appearance conversion means 103 in step S3 will be described in detail with reference to FIG.

図9に、ステップS3におけるカラーアピアランス変換手段103の処理の流れを示す。   FIG. 9 shows the flow of processing of the color appearance conversion means 103 in step S3.

ステップS31において、カラーアピアランス変換手段103は、バッファメモリ109からXYZ格子点データを取得する。   In step S31, the color appearance conversion unit 103 acquires XYZ lattice point data from the buffer memory 109.

ステップS32において、カラーアピアランス変換手段103は、ステップS31で取得したXYZ値をカラーアピアランス空間の色値であるJ*a*b*値に変換する。 In step S32, the color appearance conversion means 103 converts the XYZ values acquired in step S31 into J * a * b * values that are color values in the color appearance space.

ステップS33において、カラーアピアランス変換手段103は、ステップS32で計算されたJ*a*b*値をバッファメモリ109に保存する。 In step S33, the color appearance conversion unit 103 stores the J * a * b * value calculated in step S32 in the buffer memory 109.

ステップS34において、カラーアピアランス変換手段103は、バッファメモリ109に保持されている入力画像の全画素に対し、カラーアピアランス変換を行ったか否かの判定を行う。全ての画素を変換していた場合は、処理を終了する。そうでなかった場合は、ステップS31に戻る。   In step S34, the color appearance conversion unit 103 determines whether or not color appearance conversion has been performed on all pixels of the input image held in the buffer memory 109. If all the pixels have been converted, the process ends. If not, the process returns to step S31.

<色域マッピング手段106の動作>
図10に、ステップS5における色域マッピング手段106の具体的な処理の流れの例を示す。
<Operation of color gamut mapping means 106>
FIG. 10 shows an example of a specific processing flow of the color gamut mapping means 106 in step S5.

ステップS51において、色域マッピング手段106は、バッファメモリ109から、入力画像の各画素のJ*a*b*データJi,ai,bi、及び、色域内外判定手段105における判定結果を取得する。 In step S51, the color gamut mapping unit 106 receives, from the buffer memory 109, the J * a * b * data J i , a i , b i of each pixel of the input image and the determination result in the color gamut inside / outside determination unit 105. get.

ステップS52において、色域マッピング手段106は、色域保持手段108から、出力デバイスの色域を取得する。   In step S52, the color gamut mapping unit 106 acquires the color gamut of the output device from the color gamut holding unit 108.

ステップS53において、色域マッピング手段106は、ステップS51において取得した色域内外判定結果を参照する。色域内と判定されていた場合は、Ji,ai,biをマッピング先としてバッファメモリ109に保存し、ステップS55へ進む。色域外と判定されていた場合は、ステップS54に進む。 In step S53, the color gamut mapping means 106 refers to the color gamut inside / outside determination result obtained in step S51. If it is determined that it is within the color gamut, J i , a i , and b i are stored in the buffer memory 109 as mapping destinations, and the process proceeds to step S55. If it is determined that it is out of the color gamut, the process proceeds to step S54.

ステップS54において、色域マッピング手段106は、出力デバイス色域外と判定された入力Ji,ai,biに対し、出力デバイス色域へのマッピング処理を行う。マッピング処理には、例えば図11に示すような方法を用いる。図11のように、出力デバイス色域外の入力Ji,ai,biに対し、カラーアピアランス空間のグレー軸上の点(J*a*b*)=(Jt,0,0)を定義する。そして、図11に示すように、点Ji,ai,biと点Jt,0,0を結ぶ線分と出力デバイス色域の表面との交点にマッピングする。ここで、Jtは、入力点の明度、すなわちJiに依存して決定される値であり、例えば以下の式(7)を用いて算出する。 In step S54, the color gamut mapping means 106 performs mapping processing to the output device color gamut for the inputs J i , a i , and b i determined to be out of the output device color gamut. For the mapping process, for example, a method as shown in FIG. 11 is used. As shown in Fig. 11, the point (J * a * b * ) = (J t , 0, 0) on the gray axis of the color appearance space for the input J i , a i , b i outside the output device gamut Define. Then, as shown in FIG. 11, mapping is performed on the intersection of the line segment connecting the points J i , a i , b i and the points J t , 0, 0 and the surface of the output device color gamut. Here, J t is a value determined depending on the lightness of the input point, that is, J i , and is calculated using, for example, the following equation (7).

Figure 2006173825
式(7)によれば、該グレー軸上の点Jt,0,0は入力点Ji,ai,biの明度Ji ( 0≦Ji≦100 )によって、kから100-kの間を移動する。kが大きい場合、Jt,0,0はグレー軸上の広い範囲を動くようになり、一方、kが小さい場合は、Jt,0,0はグレー軸上の狭い範囲を動くことになる。このように定数kを用いるのは、明度に重みを持たせたマッピングを行うことが目的であり、これにより出力デバイス色域外の色の明度と彩度のトレードオフの解決を図ることが出来、さらに、良好な階調性を得ることが出来る。なお、定数kは自由に設定することができ、用途によって使い分けることが出来る。
Figure 2006173825
According to equation (7), the point J t , 0,0 on the gray axis is calculated from k to 100-k depending on the lightness J i (0 ≦ J i ≦ 100) of the input points J i , a i , b i. Move between. When k is large, J t , 0,0 will move over a wide range on the gray axis, whereas when k is small, J t , 0,0 will move over a narrow range on the gray axis. . The purpose of using the constant k in this way is to perform weighted mapping, which can solve the trade-off between brightness and saturation of colors outside the output device color gamut, Furthermore, good gradation can be obtained. The constant k can be set freely and can be used properly depending on the application.

次に、図11に示すように、点Ji,ai,biと点Jt,0,0を結ぶ線分を定義し、出力デバイス色域の表面との交点Jj,aj,bjを算出する。交点演算の方法を以下に示す。 Next, as shown in FIG. 11, a line segment connecting the points J i , a i , b i and the points J t , 0, 0 is defined, and the intersection points J j , a j , b Calculate j . The method of intersection calculation is shown below.

<交点演算方法>
交点演算に際し、まず、色域保持手段108から、出力デバイス色域の表面データを取得する。表面データは、RGBのいずれかが0、あるいは255を持つデータである。また、表面データは、図12に示すように、Rが255の表面(以下、R255表面)、Gが255の表面(以下、G255表面)、Bが255の表面(以下、B255表面)、Rが0の表面(以下、R0表面)、Gが0の表面(以下、G0表面)、Bが0の表面(以下、B0表面)の6つに分けられる。各表面は81個の格子点、すなわち128個の三角形パッチで構成されており、これらの三角形パッチをJ*a*b*値に変換したデータ(色域保持手段108に保持されている)を各表面ごとに取得する。
<Intersection calculation method>
In the intersection calculation, first, the surface data of the output device color gamut is acquired from the color gamut holding means 108. The surface data is data in which any of RGB has 0 or 255. In addition, as shown in FIG. 12, the surface data includes a surface with R of 255 (hereinafter referred to as R255 surface), a surface with G of 255 (hereinafter referred to as G255 surface), a surface with B of 255 (hereinafter referred to as B255 surface), R Is a surface with 0 (hereinafter referred to as R0 surface), a surface with G as 0 (hereinafter referred to as G0 surface), and a surface with B as 0 (hereinafter referred to as B0 surface). Each surface is composed of 81 lattice points, that is, 128 triangular patches, and data obtained by converting these triangular patches into J * a * b * values (held in the color gamut holding means 108). Acquire for each surface.

次に、各表面の128個の三角形に対し、直線との交点を計算する。交点は、各三角形の平面の方程式と、直線の方程式から容易に求めることが出来る。そして、交点が三角形内にあるか否かを判定する。この内外判定法は、前述した四面体の内外判定方法の2次元版である。すなわち、図13のように、三角形パッチの各点をA、B、Cとし、交点をPとすると、   Next, intersection points with straight lines are calculated for 128 triangles on each surface. The intersection can be easily obtained from the plane equation of each triangle and the equation of a straight line. Then, it is determined whether or not the intersection is within the triangle. This inside / outside determination method is a two-dimensional version of the above-described tetrahedron inside / outside determination method. That is, as shown in FIG. 13, if each point of the triangular patch is A, B, C and the intersection is P,

Figure 2006173825
と表すことができる。この時、点Pが三角形ABCの中であれば、以下の式(9)、式(10)が成り立つ。
Figure 2006173825
It can be expressed as. At this time, if the point P is in the triangle ABC, the following expressions (9) and (10) are established.

Figure 2006173825
Figure 2006173825

Figure 2006173825
このようにして各表面の三角形パッチ128個に対し、内外判定を行う。交点が三角形の中に入っている点が出力デバイス色域と直線の交点Jj,aj,bjとなる。
Figure 2006173825
In this way, the inside / outside determination is performed on 128 triangular patches on each surface. The point where the intersection point is in the triangle is the intersection point J j , a j , b j between the output device color gamut and the straight line.

ステップS54では、以上のようにして得た交点Jj,aj,bjをマッピング先として、バッファメモリ109に保存する。 In step S54, the intersections J j , a j , b j obtained as described above are stored in the buffer memory 109 as mapping destinations.

ステップS55において、色域マッピング手段106は、全画素のマッピングが終了したか否かを判定する。全画素のマッピングが終了していた場合は、処理を終了する。そうでない場合は、ステップS62に戻る。   In step S55, the color gamut mapping unit 106 determines whether or not the mapping of all the pixels has been completed. If all pixels have been mapped, the process is terminated. Otherwise, the process returns to step S62.

<色空間値算出手段107の動作>
図14に、ステップS6における色空間値算出手段107の具体的な処理の流れの例を示す。
<Operation of Color Space Value Calculation Means 107>
FIG. 14 shows an example of a specific processing flow of the color space value calculation means 107 in step S6.

ステップS61において、色空間値算出手段107は、バッファメモリ109から、色域マッピング手段106によって出力デバイス色域にマッピングされた入力画像の一画素のJ*a*b*値を取得する。 In step S61, the color space value calculating unit 107 acquires, from the buffer memory 109, the J * a * b * value of one pixel of the input image mapped to the output device color gamut by the color gamut mapping unit 106.

ステップS62において、色空間値算出手段107は、色域保持手段108から出力デバイス色域を取得する。   In step S 62, the color space value calculation unit 107 acquires the output device color gamut from the color gamut holding unit 108.

ステップS63において、色空間値算出手段107は、出力デバイス色域を構成する四面体のうち、ステップS61で取得したマッピング後データJm,am,bmを包含する四面体を探索する。包含する四面体の探索方法は、前述した四面体内外判定と同様であるので、説明は省略する。 In step S63, the color space value calculation unit 107 searches for tetrahedrons including the post-mapping data J m , a m , and b m acquired in step S61 among the tetrahedrons constituting the output device color gamut. Since the tetrahedron search method to be included is the same as the tetrahedron in-vivo determination described above, the description thereof is omitted.

ステップS64において、色空間値算出手段107は、マッピング後データJm,am,bmに対応する出力デバイスの色空間値を補完演算により算出する。色空間値算出法の例を図8を用いて説明する。前述したように、四面体内の点は、式(4)のように表すことができ、且つ式(5)、式(6)を満たす。そこで、式(4)におけるs,t,uを用いて、以下の式(11)を用いることで、対応する出力デバイスの色空間値を得ることが出来る。 In step S64, the color space value calculating unit 107 calculates the color space value of the output device corresponding to the post-mapping data J m , a m , and b m by a complementary operation. An example of the color space value calculation method will be described with reference to FIG. As described above, the points in the tetrahedron can be expressed as in Expression (4) and satisfy Expressions (5) and (6). Therefore, the color space value of the corresponding output device can be obtained by using the following equation (11) using s, t, u in equation (4).

Figure 2006173825
ただし、RA,GA,BAは点Aに対応する出力デバイス色空間値、RB,GB,BBは点Bに対応する出力デバイス色空間値、RC,GC,BCは点Cに対応する出力デバイス色空間値、RD,GD,BDは点Dに対応する出力デバイス色空間値であり、それぞれステップS62において取得している。
Figure 2006173825
However, R A , G A , B A are output device color space values corresponding to point A, R B , G B , BB are output device color space values corresponding to point B, R C , G C , B C Is an output device color space value corresponding to the point C, and R D , G D , and B D are output device color space values corresponding to the point D, and are obtained in step S62.

上記のように求めたマッピング後データJm,am,bmに対応する出力デバイス色空間値をバッファメモリ109に保存する。 Output device color space values corresponding to the post-mapping data J m , a m , and b m obtained as described above are stored in the buffer memory 109.

ステップS65において、色域マッピング手段106は、入力画像の全画素について処理が終了したか否かを判定する。全画素の処理が完了していた場合は、処理を終了する。全画素の処理が完了していなかった場合は、ステップS61に戻る。   In step S65, the color gamut mapping unit 106 determines whether or not the processing has been completed for all the pixels of the input image. If all pixels have been processed, the process ends. If all the pixels have not been processed, the process returns to step S61.

以上、説明した技術によれば、入力された画像をColorimetric処理を用いて出力デバイス色域にマッピングする際に、明度に重みを持たせ且つ色相を保存したマッピングを行うことにより、出力デバイス色域外の色に対しても良好な色相、及び階調性を持たせることが出来る。さらに、マッピングの際に用いるデバイス非依存色空間に、従来のCIELAB空間よりも人間の視覚特性に適合したカラーアピアランス空間を用いることにより、従来のように色相が曲がって見える現象を改善することが出来る。   According to the technology described above, when mapping an input image to an output device color gamut using Colorimetric processing, the mapping is performed by assigning a weight to the brightness and preserving the hue. A good hue and gradation can be imparted to the other colors. Furthermore, by using a color appearance space that is more suitable for human visual characteristics than the conventional CIELAB space for the device-independent color space used for mapping, it is possible to improve the phenomenon in which hues appear to be bent as before. I can do it.

(他の実施の形態)
前記実施例においては、入力された画像の表現色空間を国際標準色空間であるsRGB色空間としたが、本発明は、特にsRGB色空間に限定されるものではなく、どのような色空間で表現されていてもかまわない。
(Other embodiments)
In the above embodiment, the expression color space of the input image is the sRGB color space which is an international standard color space. However, the present invention is not particularly limited to the sRGB color space, and in any color space. It may be expressed.

また、前記実施例においては、データ入力手段101で画像を読み込むようにしていたが、入力データは画像のみならず、単なるRGBデータであっても良い。これは、例えば、本実施例で説明した技術を用いて色変換LookUpTableを作成する時等に用いる。   In the above embodiment, the image is read by the data input means 101. However, the input data may be not only an image but also simple RGB data. This is used, for example, when creating a color conversion LookUpTable using the technique described in the present embodiment.

また、前記実施例においては、出力デバイスの色域を色域保持手段108にあらかじめ保持しておいたが、入力手段101において画像データと共に読み込むようにしても良いことは言うまでもない。その際、読み込むデータは、カラーアピアランス値J*a*b*でなくてもよく、CIE三刺激値XYZ値でもかまわない。その場合、出力デバイス色域のカラーアピアランス値J*a*b*は、カラーアピアランス変換手段102で変換することになる。 In the above embodiment, the color gamut of the output device is held in advance in the color gamut holding means 108, but it goes without saying that the input means 101 may read it together with the image data. In this case, the data to be read may not be the color appearance value J * a * b * , but may be the CIE tristimulus value XYZ value. In that case, the color appearance value J * a * b * of the output device color gamut is converted by the color appearance conversion means 102.

また、前記実施例においては、出力デバイス色域をRGB各9スライスしたデータのカラーアピアランス値J*a*b*としたが、特に9スライスに限定せず、出力デバイスの色域がわかる程度のスライス数であれば何でもよい。例えば計算量を減らすためにスライス数を5や7に減らしてもよいし、精度を上げるために12や17に増やしてもよく、用途によって使い分けることが出来る。 In the above embodiment, the output device color gamut is the color appearance value J * a * b * of 9 slices of RGB. However, the color gamut of the output device is not limited to 9 slices. Any number of slices is acceptable. For example, the number of slices may be reduced to 5 or 7 in order to reduce the amount of calculation, or it may be increased to 12 or 17 in order to increase the accuracy.

また、前記実施例における色域マッピング手段においては、色域マッピングの際に、カラーアピアランス空間のグレー軸上に、マッピング元の明度に重みを持たせた点を式(7)を用いて定義し、マッピングに用いる直線を得ていたが、特に式(7)に限定せず、明度や彩度、色相に応じて重みを持たせるようにしてもかまわない。また、定義する点は特にグレー軸上に限らず、出力デバイスの色域内であれば、どこであってもかまわない。   Further, in the color gamut mapping means in the above-described embodiment, at the time of color gamut mapping, a point where the lightness of the mapping source is weighted on the gray axis of the color appearance space is defined using Equation (7). Although a straight line used for mapping is obtained, the present invention is not limited to the equation (7), and a weight may be given according to lightness, saturation, and hue. Also, the point to be defined is not limited to the gray axis, and may be anywhere within the color gamut of the output device.

また、本発明において、人間の視覚特性を高精度にモデル化したカラーアピアランス空間を用いたが、本発明におけるカラーアピアランス空間の例としては、例えばCIEで推奨されているCIECAM97s、CIECAM02等のカラーアピアランス空間がある。   Further, in the present invention, a color appearance space in which human visual characteristics are modeled with high accuracy is used. Examples of the color appearance space in the present invention include color appearances such as CIECAM97s and CIECAM02 recommended by CIE, for example. There is space.

また、本発明は、複数の機器(例えばホストコンピュータ、インタフェイス機器、リーダ、プリンタなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機、ファクシミリ装置など)に適用しても良い。   In addition, the present invention can be applied to a system composed of a plurality of devices (for example, a host computer, interface device, reader, printer, etc.), or a device composed of a single device (for example, a copier, a facsimile device, etc.). You may apply to.

また、本発明の目的は、前述した実施例の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUまたはMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても達成されることは言うまでもない。   Another object of the present invention is to supply a storage medium storing software program codes for realizing the functions of the above-described embodiments to a system or apparatus, and the computer (or CPU or MPU) of the system or apparatus stores the storage medium. Needless to say, this can also be achieved by reading and executing the program code stored in.

この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention.

プログラムコードを供給するための記憶媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD-ROM、CD-R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることが出来る。   As a storage medium for supplying the program code, for example, a floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, magnetic tape, nonvolatile memory card, ROM or the like is used. I can do it.

また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施例の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部を行い、その処理によって前述した実施例の機能が実現される場合も含まれることは言うまでもない。   In addition, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) running on the computer based on the instruction of the program code. It goes without saying that a part of the actual processing is performed and the functions of the above-described embodiments are realized by the processing.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施例の機能が実現される場合も含まれることは言うまでもない。   Further, after the program code read from the storage medium is written to a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.

人間の視覚における青のグラデーションをCIELAB空間のa*b*平面に投影した例を示す図。The figure which shows the example which projected the blue gradation in human vision on the a * b * plane of CIELAB space. 人間の視覚における青のグラデーションをCIELAB空間上で出力デバイス色域にマッピングした例を示す図。The figure which shows the example which mapped blue gradation in human vision to the output device color gamut in CIELAB space. 人間の視覚における青のグラデーションをカラーアピアランス空間のa*b*平面に投影した例を示す図。The figure which shows the example which projected the blue gradation in human vision on the a * b * plane of the color appearance space. 本願の実施例のブロック図。The block diagram of the Example of this application. 画像処理装置1における例示的な処理の流れを示す図。3 is a diagram illustrating an exemplary process flow in the image processing apparatus 1. FIG. 出力デバイスの色域データの例を示す図。The figure which shows the example of the color gamut data of an output device. 六面体を6つの四面体に分割する例を示す図。The figure which shows the example which divides | segments a hexahedron into six tetrahedrons. 四面体と入力データの関係の例を示す図。The figure which shows the example of the relationship between a tetrahedron and input data. カラーアピアランス変換手段103における例示的な処理の流れを示す図。The figure which shows the flow of the exemplary process in the color appearance conversion means 103. 色域マッピング手段106における例示的な処理の流れを示す図。FIG. 4 is a diagram showing an exemplary process flow in a color gamut mapping unit 106. 色域マッピング手段106における色域マッピングの概念図。3 is a conceptual diagram of color gamut mapping in a color gamut mapping unit 106. FIG. 出力デバイス色域の表面データをRGB空間において示した図。The figure which showed the surface data of the output device color gamut in RGB space. 三角形パッチと交点の関係の例を示した図。The figure which showed the example of the relationship between a triangle patch and an intersection. 色空間値算出手段107における例示的な処理の流れを示す図。The figure which shows the flow of the exemplary process in the color space value calculation means 107.

Claims (13)

画像の色を合わせるカラーマッチングを行う画像処理装置において、
第一の色空間によって表現された色値をCIE三刺激値XYZに変換するXYZ算出手段と、
前記XYZ算出手段で算出したXYZ値をカラーアピアランス変換式を用いてアピアランス空間値に変換するカラーアピアランス変換手段と、
前記カラーアピアランス変換手段によって得られたアピアランス空間値を第二の色空間によって表現された色値に変換する色変換手段とを有することを特徴とする画像処理装置。
In an image processing apparatus that performs color matching to match the color of an image,
XYZ calculating means for converting the color value represented by the first color space into CIE tristimulus values XYZ;
Color appearance conversion means for converting the XYZ values calculated by the XYZ calculation means into appearance space values using a color appearance conversion formula;
An image processing apparatus comprising: color conversion means for converting an appearance space value obtained by the color appearance conversion means into a color value expressed by a second color space.
前記色変換手段は、前記第一の色空間によって表現された色が第二の色空間の色域内か否かを判定する色域内外判定手段と、前記色域内外判定手段によって色域外と判定された場合に、第二の色空間の色域にマッピングする色域マッピング手段と、マッピング後のカラーアピアランス空間値を第二の色空間の色値に変換する色空間値算出手段とを有することを特徴とする請求項1に記載の画像処理装置。   The color conversion means determines whether the color expressed by the first color space is within the color gamut of the second color space, and determines whether the color is out of the color gamut by the color gamut inside / outside determination means. A color gamut mapping means for mapping to the color gamut of the second color space, and a color space value calculation means for converting the mapped color appearance space value to the color value of the second color space. 2. The image processing apparatus according to claim 1, wherein: 前記色域マッピング手段は、前記第一の色空間によって表現された色と第二の色空間内の所定の色とを結ぶ直線と、第二の色空間の色域表面との交点にマッピングすることを特徴とする請求項2に記載の画像処理装置。   The color gamut mapping means maps to a cross point between a straight line connecting a color expressed by the first color space and a predetermined color in the second color space and a color gamut surface of the second color space. The image processing apparatus according to claim 2. 前記カラーアピアランス変換手段におけるカラーアピアランス変換式は、CIECAM02変換式であることを特徴とする、請求項1乃至3のいずれかに記載の画像処理装置。   4. The image processing apparatus according to claim 1, wherein a color appearance conversion formula in the color appearance conversion means is a CIECAM02 conversion formula. 前記カラーアピアランス変換手段におけるカラーアピアランス変換式は、CIECAM97s変換式であることを特徴とする、請求項1乃至3のいずれかに記載の画像処理装置。   4. The image processing apparatus according to claim 1, wherein the color appearance conversion formula in the color appearance conversion means is a CIECAM97s conversion formula. 前記第二の色空間の色域は、色域保持手段に保持されていることを特徴とする、請求項1乃至5のいずれかに記載の画像処理装置。   6. The image processing apparatus according to claim 1, wherein the color gamut of the second color space is held in a color gamut holding unit. 画像の色を合わせるカラーマッチングを行う画像処理方法において、
第一の色空間によって表現された色値をCIE三刺激値XYZに変換するXYZ算出工程と、
前記XYZ算出工程で算出したXYZ値をカラーアピアランス変換式を用いてアピアランス空間値に変換するカラーアピアランス変換工程と、
前記カラーアピアランス変換工程によって得られたアピアランス空間値を第二の色空間によって表現された色値に変換する色変換工程とを有することを特徴とする画像処理方法。
In an image processing method that performs color matching to match the color of an image,
An XYZ calculation step of converting color values expressed by the first color space into CIE tristimulus values XYZ;
A color appearance conversion step of converting the XYZ values calculated in the XYZ calculation step into appearance space values using a color appearance conversion formula;
A color conversion step of converting the appearance space value obtained by the color appearance conversion step into a color value expressed by the second color space.
前記色変換工程は、前記第一の色空間によって表現された色が第二の色空間の色域内か否かを判定する色域内外判定工程と、前記色域内外判定工程によって色域外と判定された場合に、第二の色空間の色域にマッピングする色域マッピング工程と、マッピング後のカラーアピアランス空間値を第二の色空間の色値に変換する色空間値算出工程とを有することを特徴とする請求項7に記載の画像処理方法。   The color conversion step determines whether the color expressed by the first color space is within the color gamut of the second color space, and determines whether the color is out of the color gamut by the color gamut inside / outside determination step. A color gamut mapping step for mapping to the color gamut of the second color space, and a color space value calculation step for converting the color appearance space value after mapping into the color value of the second color space. The image processing method according to claim 7. 前記色域マッピング工程は、前記第一の色空間によって表現された色と第二の色空間内の所定の色とを結ぶ直線と、第二の色空間の色域表面との交点にマッピングすることを特徴とする請求項8に記載の画像処理方法。   The color gamut mapping step maps to a point of intersection between a straight line connecting a color represented by the first color space and a predetermined color in the second color space and a color gamut surface of the second color space. The image processing method according to claim 8. 前記カラーアピアランス変換工程におけるカラーアピアランス変換式は、CIECAM02変換式であることを特徴とする、請求項7乃至9のいずれかに記載の画像処理方法。   The image processing method according to claim 7, wherein the color appearance conversion formula in the color appearance conversion step is a CIECAM02 conversion formula. 前記カラーアピアランス変換工程におけるカラーアピアランス変換式は、CIECAM97s変換式であることを特徴とする、請求項7乃至9のいずれかに記載の画像処理方法。   The image processing method according to any one of claims 7 to 9, wherein the color appearance conversion formula in the color appearance conversion step is a CIECAM97s conversion formula. 前記第二の色空間の色域は、色域保持工程に保持されていることを特徴とする、請求項7乃至請求項11のいずれかに記載の画像処理方法。   12. The image processing method according to claim 7, wherein the color gamut of the second color space is held in a color gamut holding step. 画像処理プログラムを記録した記録媒体であって、画像の色を合わせるカラーマッチングを行う画像処理において、
第一の色空間によって表現された色値をCIE三刺激値XYZに変換するXYZ算出機能と、
前記XYZ算出機能で算出したXYZ値をカラーアピアランス変換式を用いてアピアランス空間値に変換するカラーアピアランス変換機能と、
前記カラーアピアランス変換機能によって得られたアピアランス空間値を第二の色空間によって表現された色値に変換する色変換機能とを実現するプログラムを記録することを特徴とする記録媒体。
In a recording medium on which an image processing program is recorded, in image processing for performing color matching for matching the color of an image,
XYZ calculation function that converts the color value expressed by the first color space into CIE tristimulus values XYZ;
A color appearance conversion function for converting the XYZ values calculated by the XYZ calculation function into appearance space values using a color appearance conversion formula;
A recording medium for recording a program for realizing a color conversion function for converting an appearance space value obtained by the color appearance conversion function into a color value expressed by a second color space.
JP2004360841A 2004-12-14 2004-12-14 Image processing apparatus and method thereof Withdrawn JP2006173825A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004360841A JP2006173825A (en) 2004-12-14 2004-12-14 Image processing apparatus and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004360841A JP2006173825A (en) 2004-12-14 2004-12-14 Image processing apparatus and method thereof

Publications (1)

Publication Number Publication Date
JP2006173825A true JP2006173825A (en) 2006-06-29

Family

ID=36674126

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004360841A Withdrawn JP2006173825A (en) 2004-12-14 2004-12-14 Image processing apparatus and method thereof

Country Status (1)

Country Link
JP (1) JP2006173825A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008099288A (en) * 2006-10-12 2008-04-24 Samsung Electronics Co Ltd Apparatus and method for calibrating gray data
JP2008165231A (en) * 2007-01-04 2008-07-17 Samsung Electronics Co Ltd Apparatus and method for correcting ambient light adaptive color
JP2009124326A (en) * 2007-11-13 2009-06-04 Ricoh Co Ltd Image processing device, image processing method, program, and recording medium
US8284466B2 (en) 2009-01-30 2012-10-09 Brother Kogyo Kabushiki Kaisha Image processor for correcting image data
US8416455B2 (en) 2009-01-30 2013-04-09 Brother Kogyo Kabushiki Kaisha Image processor for correcting image data
US8564860B2 (en) 2009-01-30 2013-10-22 Brother Kogyo Kabushiki Kaisha Image processor for correcting image data
US9584702B2 (en) 2013-07-11 2017-02-28 Kabushiki Kaisha Toshiba Image processing apparatus for correcting color information and method therefor

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008099288A (en) * 2006-10-12 2008-04-24 Samsung Electronics Co Ltd Apparatus and method for calibrating gray data
US8705152B2 (en) 2006-10-12 2014-04-22 Samsung Electronics Co., Ltd. System, medium, and method calibrating gray data
JP2008165231A (en) * 2007-01-04 2008-07-17 Samsung Electronics Co Ltd Apparatus and method for correcting ambient light adaptive color
JP2009124326A (en) * 2007-11-13 2009-06-04 Ricoh Co Ltd Image processing device, image processing method, program, and recording medium
US8284466B2 (en) 2009-01-30 2012-10-09 Brother Kogyo Kabushiki Kaisha Image processor for correcting image data
US8416455B2 (en) 2009-01-30 2013-04-09 Brother Kogyo Kabushiki Kaisha Image processor for correcting image data
US8564860B2 (en) 2009-01-30 2013-10-22 Brother Kogyo Kabushiki Kaisha Image processor for correcting image data
US9584702B2 (en) 2013-07-11 2017-02-28 Kabushiki Kaisha Toshiba Image processing apparatus for correcting color information and method therefor

Similar Documents

Publication Publication Date Title
US7983479B2 (en) Generating a look-up table for use in color processing
US5553199A (en) Method and apparatus for calibrating a four color printer
US8493619B2 (en) Hardware-accelerated color data processing
JP4565642B2 (en) Image processing method and image processing apparatus
JP2004112694A (en) Color control method, color control apparatus, color conversion definition editing apparatus, image processing apparatus, program, and storage medium
US8427696B2 (en) Color processing method and apparatus thereof
US7990575B2 (en) Color processing apparatus and method for performing gamut mapping
JP2006345187A (en) Color processing method and device thereof
JP2007074414A (en) Color processing method and its device
JP4961962B2 (en) Color processing apparatus and program
JP4481840B2 (en) Information processing method and apparatus
JP4592089B2 (en) Image processing method, profile creation method, and image processing apparatus
JP2006173825A (en) Image processing apparatus and method thereof
JP5068281B2 (en) Color conversion table adjustment device and color conversion table adjustment program
JP4618683B2 (en) Image processing apparatus, gamut correction method, image processing method, program, and recording medium
JP4501321B2 (en) Color gamut compression method
JP5457123B2 (en) Method for generating LUT, method for reading luminance value from LUT, program and apparatus
JPH0795427A (en) Method and device for picture processing
JP2008042835A (en) Image processor, image processing method, program, and recording medium
JP2006254369A (en) Color processing method and device thereof
JP2005005802A (en) Color image processing apparatus, color image processing method, program, and recording medium
US20220400187A1 (en) Updating a color profile
JP5112234B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP4227371B2 (en) Image processing apparatus and method
JP2018133668A (en) Image processing apparatus and adjustment method, and program therefor

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080304