JP2845523B2 - Color estimation method - Google Patents

Color estimation method

Info

Publication number
JP2845523B2
JP2845523B2 JP1296963A JP29696389A JP2845523B2 JP 2845523 B2 JP2845523 B2 JP 2845523B2 JP 1296963 A JP1296963 A JP 1296963A JP 29696389 A JP29696389 A JP 29696389A JP 2845523 B2 JP2845523 B2 JP 2845523B2
Authority
JP
Japan
Prior art keywords
color
combination
value
image data
color system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP1296963A
Other languages
Japanese (ja)
Other versions
JPH03158075A (en
Inventor
透 星野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP1296963A priority Critical patent/JP2845523B2/en
Publication of JPH03158075A publication Critical patent/JPH03158075A/en
Application granted granted Critical
Publication of JP2845523B2 publication Critical patent/JP2845523B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Color Electrophotography (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Description

【発明の詳細な説明】 [産業上の利用分野] この発明は、例えばカラーハードコピーのカラー画像
をカラーテレビ画像に再現する際に使用される色分解画
像修正装置に適用して好適な色推定方法に関する。
Description: BACKGROUND OF THE INVENTION The present invention relates to a color estimation method suitable for use in a color separation image correcting apparatus used for reproducing a color image of a color hard copy into a color television image, for example. About the method.

[発明の背景] カラーハードコピーのカラー画像をカラーテレビ画像
に再現する場合、それぞれの表色系が相違する。すなわ
ち、テレビ画像は加色法によりカラー画像が構成され、
その表色系としてはR,G,B表色系が使用される。これに
対して、ハードコピーは減色法によりカラー画像が構成
され、その表色系としては例えばY,M,C座標系が使用さ
れる。このような場合、これらの表色系で画像データの
変換、つまり色修正が行なわれる。
BACKGROUND OF THE INVENTION When a color image of a color hard copy is reproduced on a color television image, each color system is different. That is, a television image is formed into a color image by an additive method,
The R, G, B color system is used as the color system. On the other hand, a hard copy has a color image formed by a subtractive color method, and a Y, M, C coordinate system is used as a color system, for example. In such a case, conversion of image data, that is, color correction is performed in these color systems.

例えば、カラーハードコピーのカラー画像をカラーテ
レビ画像に再現する場合には、第21図に示すように、イ
エローY,マゼンタM,シアンC、スミKの画像データが色
分解画像修正装置200に供給され、この修正装置200より
赤R,緑G,青Bの画像データ(色修正データ)が出力さ
れ、この色修正データがテレビディスプレイ100に供給
される。
For example, when a color image of a color hard copy is reproduced as a color television image, the image data of yellow Y, magenta M, cyan C, and sumi K are supplied to the color separation image correcting device 200 as shown in FIG. Then, red R, green G, and blue B image data (color correction data) are output from the correction device 200, and the color correction data is supplied to the television display 100.

ここで、Y,M,C,Kの画像データより色修正データを得
る方法としてルックアップテーブルを参照する方法を用
いることが考えられる。このルックアップテーブルに格
納する色修正データを求める方法として、例えば特開昭
63−254864号公報に記載されるような方法が提案されて
いる。
Here, as a method of obtaining color correction data from the Y, M, C, and K image data, a method of referring to a lookup table may be used. As a method for obtaining the color correction data stored in the look-up table, for example,
A method as described in JP-A-63-254864 has been proposed.

すなわち、Y,M,C,Kの画像データの各組み合わせによ
るカラーパッチを出力して測色して表色系の値を求める
と共に、R,G,Bの画像データの各組み合わせによるカラ
ーパッチをカラーテレビディスプレイ上に表示して測色
して表色系の値を求める。そして、カラーテレビディス
プレイ上のカラーパッチを測色して求められた表色系の
値を用いて、Y,M,C,Kの画像データの各組み合わせに対
して、その組み合わせによるカラーハードコピーのカラ
ーパッチを測色して求められる表色系の値と同じ値また
はその表色系の値を基にして求めた値を得るR,G,Bの画
像データを補間演算によって求めるものである。
That is, a color patch based on each combination of Y, M, C, and K image data is output and colorimetrically determined to obtain a color system value, and a color patch based on each combination of R, G, and B image data is calculated. It is displayed on a color television display and colorimetrically measured to determine a color system value. Then, using the color system values obtained by measuring the color patches on the color television display, for each combination of the Y, M, C, and K image data, The image data of R, G, and B that obtain the same value as the color system obtained by measuring the color patches or the value obtained based on the value of the color system is obtained by interpolation.

[発明が解決しようとする課題] ところで、一般にカラーテレビディスプレイのR,G,B
の画像データによる色再現範囲は、カラーハードコピー
のY,M,C,Kによる色再現範囲よりも広くなっている。
[Problems to be Solved by the Invention] By the way, in general, R, G, B
The color reproduction range based on the image data is wider than the color reproduction range based on Y, M, C, and K of the color hard copy.

したがって、上述したようにY,M,C,Kの画像データに
対して求められた表色系の値を、そのままR,G,Bの画像
データに対する表色系の値に対応させてR,G,Bの画像デ
ータを求めるものによれば、R,G,Bの画像データによる
色再現範囲内の狭い範囲の色しか存在せず、明度や彩度
のレンジが狭いものとなり、低明度(高濃度)の色や、
高彩度の色を再現できなくなり、コントラストや彩やか
さに欠けた画像になる欠点があった。
Therefore, as described above, the values of the color system determined for the image data of Y, M, C, and K are directly associated with the values of the color system for the image data of R, G, and B. According to the method for obtaining the G and B image data, there is only a narrow range of colors within the color reproduction range based on the R, G and B image data, and the range of lightness and saturation is narrow, and low lightness ( High density) color,
There was a drawback that high-saturation colors could not be reproduced, resulting in images lacking in contrast and vividness.

そこで、この発明では、カラーハードコピーのカラー
画像をカラーテレビ画像に再現する場合に明度および彩
度を良好に再現できるようにすることを目的とするもの
である。
Accordingly, an object of the present invention is to enable good reproduction of lightness and saturation when a color image of a color hard copy is reproduced as a color television image.

[課題を解決するための手段] この発明に係る色推定方法によれば、複数の入力色分
解画像情報の各組み合わせに対する表色系の値を求める
と共に、複数の出力色分解画像情報の各組み合わせに対
する上記表色系の値を求め、複数の出力色分解画像情報
各組み合わせに対して求められた表色系の値を用いて、
入力色分解画像情報の任意の組み合わせに対する表色系
の値と同じ値またはその表色系の値を基にして求めた値
を得る出力色分解画像情報の組み合わせを求める色推定
方法であって、 複数の出力色分解画像情報の各組み合わせに対して求
められた表色系の値による出力側色再現範囲が複数の入
力色分解画像情報の各組み合わせに対して求められた表
色系の値による入力側色再現範囲より広いときには、入
出力側の色再現範囲の比に応じて入力側色再現範囲が拡
大するように、入力色分解画像情報の各組み合わせに対
して求められた表色系の値を拡大写像し、この拡大写像
した表色系の値と同じ表色系の値を得る出力色分解画像
情報の組み合わせを求めるものである。
[Means for Solving the Problems] According to the color estimation method according to the present invention, a color system value for each combination of a plurality of input color separation image information is obtained, and each combination of a plurality of output color separation image information is obtained. Using the color system values determined for each combination of a plurality of output color separation image information,
A color estimation method for obtaining a combination of output color separation image information that obtains a value obtained based on the same color system value or a value of the color system for an arbitrary combination of input color separation image information, The output color reproduction range based on the color system value obtained for each combination of the plurality of output color separation image information is based on the color system value obtained for each combination of the plurality of input color separation image information. When the color gamut is wider than the input color gamut, the colorimetric system determined for each combination of input color separation image information is expanded so that the input color gamut is expanded according to the ratio of the input / output color gamut. The values are enlarged and mapped, and a combination of output color separation image information that obtains the same color system value as the enlarged mapped color system value is obtained.

また、上述のよに拡大写像をする際、例えば、明度方
向に関してはレンジを合わせるように線形または非線形
に写像変換すると共に、彩度方向に関しては入出力側の
色再現範囲の重なる部分の中央部は写像変換せず、その
周辺部のみを写像変換するものである。
In addition, when performing the enlargement mapping as described above, for example, in the lightness direction, linear or non-linear mapping conversion is performed so as to match the range, and in the saturation direction, the central portion of the overlapping portion of the color reproduction range on the input / output side. Does not perform mapping conversion, but performs mapping conversion only on its peripheral portion.

[作 用] 上述方法によれば、出力色再現範囲が入力色再現範囲
より広い場合には、入出力側の色再現範囲の比に応じて
入力色再現範囲が拡大するように、入力色分解画像情報
の組み合わせに対して求められた表色系の値を拡大写像
し、この拡大写像した表色系の値に対応させて出力色分
解画像情報の組み合わせを求めるようにしているので、
求められる出力色分解画像情報による色再現は出力色再
現範囲全体をカバーするものとなり、充分な明度や彩度
を再現できるものとなる。
[Operation] According to the above method, when the output color gamut is wider than the input color gamut, the input color separation is expanded so as to expand the input color gamut according to the ratio of the input and output color gamut. Since the value of the color system obtained for the combination of image information is enlarged and mapped, and the combination of the output color separation image information is obtained in correspondence with the value of the enlarged color system,
The required color reproduction based on the output color separation image information covers the entire output color reproduction range, and can reproduce sufficient lightness and saturation.

[実 施 例] 以下、この発明の一実施例として、カラー印刷用のY,
M,C,Kの画像データに対応するカラーテレビディスプレ
イのR,G,Bの画像データを得る場合について、図面を参
照しながら説明する。
[Embodiment] Hereinafter, as one embodiment of the present invention, Y,
A case of obtaining R, G, B image data of a color television display corresponding to M, C, K image data will be described with reference to the drawings.

ここで、Y,M,C,K、R,G,Bの画像データは、いずれも8
ビットで0〜255の値をとるものとする。
Here, the image data of Y, M, C, K, R, G, and B are all 8
It is assumed that bits take values from 0 to 255.

第1図は、Y,M,C,Kの画像データに対応するR,G,Bの画
像データを得るようにした色分解画像修正装置を示すも
のである。
FIG. 1 shows a color-separated image correcting apparatus for obtaining R, G, B image data corresponding to Y, M, C, K image data.

同図において、イエローY,マゼンタM,シアンC、スミ
Kの画像データ(印刷データ)は第1の色変換手段を構
成するルックアップテーブル211〜213に供給されて、イ
エローY′,マゼンタM′,シアンC′の画像データ
(圧縮印刷データ)に変換される。また、この圧縮印刷
データY′,M′,C′はカラーマスキング装置220に供給
されて、赤R,緑G,青Bの画像データ(表示データ)に変
換される。
In the figure, image data (print data) of yellow Y, magenta M, cyan C and sumi K are supplied to look-up tables 211 to 213 constituting the first color conversion means, and yellow Y ', magenta M' , Cyan C '(compressed print data). The compressed print data Y ', M', and C 'are supplied to the color masking device 220 and converted into red R, green G, and blue B image data (display data).

ルックアップテーブル211〜213には、圧縮印刷データ
Y′,M′,C′がそれぞれ格納されており、印刷データ
(YとK)、(MとK)および(CとK)によってそれ
ぞれの圧縮印刷データY′,M′,C′が参照される。
The look-up tables 211 to 213 store compressed print data Y ', M', and C ', respectively, and use the print data (Y and K), (M and K), and (C and K) to compress each data. The print data Y ', M', and C 'are referred to.

このY′,M′,C′の画像データは、以下の方法で作成
される。
The image data of Y ', M', C 'is created by the following method.

まず、8ビットのY′,M′,C′の画像データによる各
組み合わせによるカラーパッチを測色し、X,Y,Z表色系
の値を求め、さらにL,u,v表色系の値を求める。
First, color patches of each combination based on 8-bit Y ', M', and C 'image data are measured, X, Y, and Z color system values are obtained, and L * , u * , and v * tables are obtained. Find the value of the color system.

この場合、Y′,M′,C′の画像データの各々に対し
て、0.64,128,192,255の5つの量子化レベルをとり、こ
れらの各組み合わせによる色(5×5×5=125)のカ
ラーパッチを作成する(第2図に図示)。
In this case, five quantization levels of 0.64, 128, 192, and 255 are taken for each of the image data of Y ', M', and C ', and a color patch (5 × 5 × 5 = 125) of a combination of these quantization levels is obtained. (Shown in FIG. 2).

そして、カラーパッチを測色計で測定し、以下のよう
にX,Y,Z表色系の値を求め、さらにL,u,v表色系
の値を求める。
Then, the color patches are measured by a colorimeter, and the values of the X, Y, Z color system are obtained as follows, and the values of the L * , u * , v * color system are obtained as follows.

ここで、5×5×5=125の中間を内挿処理して9×
9×9=729にする。9×9×9=729の色のカラーパッ
チを印刷して測色してもよいが、測定数が多くなり時間
がかかる。
Here, the middle of 5 × 5 × 5 = 125 is interpolated to 9 ×
9 × 9 = 729. Although color patches of 9 × 9 × 9 = 729 may be printed to measure the colors, the number of measurements increases and it takes time.

このようにしてL,u,v表色系の値がY′,M′,
C′の画像データによる9×9×9=729の色について求
まる。第3図は、その値をL,u,v表色系に示した
ものであり、以下これを印刷の色立体と呼ぶことにす
る。
In this way, the values of the L * , u * , v * color system are Y ', M',
It is obtained for 9 × 9 × 9 = 729 colors based on the image data of C ′. FIG. 3 shows the values in the L * , u * , v * color system, which will be hereinafter referred to as a printing color solid.

次に、Y,M,C,Kの画像データの各組み合わせによるカ
ラーパッチを測色し、X,Y,Z表色系の値を求め、さらに
,u,v表色系の値を求める。
Then, Y, M, C, and colorimetry color patches by each combination of image data of K, X, Y, determine the value of Z color system, further L *, u *, v * color system Find the value.

この場合、等量のY,M,Cについては0,64,128,192,255
の5つの量子化レベルをとると共に、それぞれに対して
Kの画像データも0,64,128,192,255のレベルをとってカ
ラーパッチを作成する。つまり、第4図に示すように、
5×5=25のカラーパッチが作成される。
In this case, 0,64,128,192,255 for equivalent Y, M, C
In addition to the five quantization levels described above, the color patch is created by taking the image data of K at the levels of 0, 64, 128, 192, and 255 for each. That is, as shown in FIG.
5 × 5 = 25 color patches are created.

そして、このカラーパッチを、の処理と同様に、測
色し、X,Y,Z表色系の値を求め、さらにL,u,v
色系の値を求める。
Then, the color patch is measured in the same manner as in the above process, the values of the X, Y, Z color system are obtained, and the values of the L * , u * , v * color system are obtained.

次に、で求められたL,u,v表色系の値の全て
がY′,M′,C′の組み合わせによる色立体に含まれるよ
うに、Y′,M′,C′の色立体のL値の最小値をより低
くするようL値を低L値側に比例拡張しておいて、
で求められたL,u,v表色系の値に対応する
Y′,M′,C′の画像データの組み合わせを算出する。
Next, Y ′, M ′, C ′ are set so that all the values of the L * , u * , v * color system obtained in the above are included in the color solid by the combination of Y ′, M ′, C ′. of the L * value to lower the minimum value of the color solid of L * value in advance in proportion extended to low L * value side,
A combination of the image data of Y ', M', and C 'corresponding to the values of the L * , u * , v * color system obtained in the above is calculated.

すなわち、Y,M,CとKとの各組み合わせの色(5×5
=25)に対応して求められたL,u,v表色系の値を
目標値T′として与え、収束演算によってY′,M′,C′
の値を求める。
That is, the color of each combination of Y, M, C and K (5 × 5
= 25), the values of the L * , u * , v * color system are given as target values T ', and Y', M ', C'
Find the value of

簡単のため、基本色を2色(例えば、Y′,M′)とし
て説明する。
For simplicity, the description will be made assuming that the basic colors are two colors (for example, Y ', M').

第5図はY,M座標系であり、の処理によって各格子
点(例えば5×5=25個)をL,u,v表色系に写像
すると、第6図に示すようになる。第7図は、の処理
によってY,M,CとKとの組み合わせ(5×5=25個)を
,u,v表色系に写像したものである。
FIG. 5 shows a Y, M coordinate system. When each grid point (for example, 5 × 5 = 25) is mapped to the L * , u * , v * color system by the processing shown in FIG. 6, as shown in FIG. Become. FIG. 7 shows a combination of Y, M, C and K (5 × 5 = 25) mapped to the L * , u * , v * color system by the processing of FIG.

まず、Y,M,CとKとの画像データの各組み合わせに対
するL,u,v表色系の値が、目標値T′として与え
られる(第6図および第7図参照)。
First, the values of the L * , u * , v * color system for each combination of the image data of Y, M, C and K are given as target values T '(see FIGS. 6 and 7).

この場合、目標値T′が、第6図に示すように格子点
a′〜d′で囲まれる領域内にあるとき、Y,M座標系に
おけるY′,M′の組み合わせ(目標値T)は、第5図に
示すように格子点a〜dで囲まれる領域内にあるものと
推定される。
In this case, when the target value T 'is in the area surrounded by the lattice points a' to d 'as shown in FIG. 6, the combination of the Y' and M 'in the Y and M coordinate systems (the target value T) Is assumed to be in the area surrounded by the lattice points a to d as shown in FIG.

そして、目標値Tが格子点a〜dによって形成される
領域のどこにあるかは、第6図の表色系を第5図の座標
系に対応付けながら、収束演算処理をして求める。この
ように収束演算処理をするのは、第5図の座標系から第
6図の表色系への変換が既知であるにも拘らず、この逆
の変換は非常に複雑で、未だ良好な変換式が知られてい
ないためである。
The location of the target value T in the area formed by the lattice points a to d is determined by performing convergence calculation processing while associating the color system of FIG. 6 with the coordinate system of FIG. The convergence calculation process is performed in such a way that, although the conversion from the coordinate system of FIG. 5 to the color system of FIG. 6 is known, the reverse conversion is very complicated and is still good. This is because the conversion formula is not known.

目標値T′が25個の格子点(第6図参照)によって形
成される複数の領域のうちどの領域にあるかを求める。
第9図に示すように領域S0′にあるときには、第8図に
示すように目標値Tは領域S0′に対応した領域S0にある
ものと推定する。
The target value T 'is determined as to which of a plurality of regions formed by the 25 grid points (see FIG. 6).
When it is in the area S0 'as shown in FIG. 9, it is estimated that the target value T is in the area S0 corresponding to the area S0' as shown in FIG.

次に、推定された領域S0を4つの領域S1〜S4に等分す
る。5個の分割点e〜iは既に求められている周囲の格
子点を利用して重み平均によって算出する。そして、こ
の分割点e〜iに対応する値をL,u,v表色系に変
換したときの値を第9図の表色系にプロットし、プロッ
トされた分割点e′〜i′によって形成された4つの領
域S1′〜S4′のうちどの領域に目標値T′があるかを求
める。第9図に示すように領域S2′にあるときには、第
8図に示すように目標値Tは領域S2′に対応した領域S2
にあるものと推定する。
Next, the estimated area S0 is equally divided into four areas S1 to S4. The five division points e to i are calculated by weighted averaging using surrounding grid points that have already been obtained. Then, values obtained by converting the values corresponding to the division points e to i into the L * , u * , v * color system are plotted in the color system of FIG. 9, and the plotted division points e 'to It is determined which of the four areas S1 'to S4' formed by i 'has the target value T'. When it is in the area S2 'as shown in FIG. 9, the target value T is in the area S2 corresponding to the area S2' as shown in FIG.
It is estimated that

次に、推定された領域S2を4つの領域S5〜S8に等分す
る。5個の分割点j〜nは既に求められている周囲の格
子点および分割点を利用して重み平均によって算出す
る。そして、この分割点j〜nに対応する値をL,
u,v表色系に変換したときの値を第9図の表色系に
プロットし、プロットされた分割点j′〜n′によって
形成された4つの領域S5′〜S8′のうちどの領域に目標
値T′があるかを求める。第9図に示すように領域S8′
にあるときには、第8図に示すように目標値Tは領域S
8′に対応した領域S8にあるものと推定する。
Next, the estimated area S2 is equally divided into four areas S5 to S8. The five division points j to n are calculated by weighted averaging using surrounding grid points and division points that have already been obtained. Then, values corresponding to the division points j to n are represented by L * ,
The values converted to the u * , v * color system are plotted in the color system of FIG. 9 and among the four regions S5 'to S8' formed by the plotted division points j 'to n'. In which area the target value T 'is located is determined. As shown in FIG. 9, the region S8 '
, The target value T is in the region S as shown in FIG.
It is estimated that it is in the area S8 corresponding to 8 '.

次に、推定された領域S8を4つの領域S9〜S12に等分
する。5個の分割点o〜sは既に求められている周囲の
格子点および分割点を利用して重み平均によって算出す
る。そして、この分割点o〜sに対応する値をL,
u,v表色系に変換したときの値を第9図の表色系に
プロットし、プロットされた分割点o′〜s′によって
形成された4つの領域S9′〜S12′のうちどの領域に目
標値T′があるかを求める。第9図に示すように領域S1
0′にあるときには、第8図に示すように目標値Tは領
域S10′に対応した領域S10にあるものと推定する。
Next, the estimated area S8 is equally divided into four areas S9 to S12. The five division points o to s are calculated by weighted averaging using surrounding grid points and division points that have already been obtained. Then, values corresponding to the division points o to s are represented by L * ,
The values converted to the u * , v * color system are plotted in the color system of FIG. 9, and among the four areas S9 'to S12' formed by the plotted division points o 'to s'. In which area the target value T 'is located is determined. As shown in FIG.
When it is at 0 ', it is estimated that the target value T is in the area S10 corresponding to the area S10' as shown in FIG.

このような領域の分割を繰り返すことによって格子は
次第に小さくなり、ついには収束する。そして、収束し
た領域を形成する4つの格子点あるいは分割点を平均す
ることによって目標値Tになる基本色の組み合せが求め
られる。
By repeating such division of the area, the grid gradually becomes smaller and finally converges. Then, by averaging the four grid points or the division points forming the converged region, a combination of the basic colors having the target value T is obtained.

以上のようにして求められたY,M,C等量とKとの組み
合せに対するY′,M′,C′の値を用いて、YとKから
Y′を、MとKからM′を、CとKからC′を求めるよ
うにしてY,M,C,KからY′,M′,C′への変換を行なうこ
とになる。
Using the values of Y ', M', and C 'for the combination of Y, M, and C equivalents and K obtained as described above, Y' is derived from Y and K, and M 'is derived from M and K. , C and K, the conversion from Y, M, C, K to Y ', M', C 'is performed.

以上のようにしてY,M,CとKの0,64,128,192,255の量
子化レベルの組み合せに対するY′,M′,C′の画像デー
タが得られるが、その他の量子化レベルに対応した
Y′,M′,C′の画像データは、内挿処理によって補間す
る。
As described above, the image data of Y ', M', and C 'for the combination of the quantization levels of 0, 64, 128, 192, and 255 of Y, M, C, and K are obtained. The image data of M 'and C' are interpolated by interpolation.

すなわち、補間処理は、補間すべき点を含む4つの格
子点のデータに基づいて行なわれる。そして、この補間
処理に際しては、第10図に示すように、入力(Y,K)が
与えられたとき、それを囲む4つの格子点による重み平
均をとる。例えば、U点であれば、格子点e,f,g,hの各
点の出力に重み係数を掛けて、U′点を求める。
That is, the interpolation processing is performed based on data of four grid points including points to be interpolated. In this interpolation processing, as shown in FIG. 10, when an input (Y, K) is given, a weighted average of four grid points surrounding the input (Y, K) is calculated. For example, in the case of the point U, the output of each point of the lattice points e, f, g, and h is multiplied by a weight coefficient to obtain the point U '.

以上の補間処理が格子点を除く0〜255の量子化レベ
ルの各点について行なわれ、入力(Y,K)の全ての点に
対応したY′の画像データが算出される。
The above interpolation processing is performed for each point of the quantization level of 0 to 255 excluding the lattice points, and Y ′ image data corresponding to all the points of the input (Y, K) is calculated.

入力(M,K)、(C,K)の全ての点に対応したM′、
C′に関しても同様にして算出される。
M ′ corresponding to all points of the input (M, K) and (C, K),
The same applies to C ′.

以上の〜の処理によって求められるY′,M′およ
びC′の画像データが、それぞれルックアップテーブル
211、212および213に格納され、(Y,K)、(M,K)およ
び(C,K)でそれぞれ参照されることになる。
The image data of Y ', M', and C 'obtained by the above processes (1) and (2) are respectively stored in lookup tables.
They are stored in 211, 212 and 213, respectively, and are referred to by (Y, K), (M, K) and (C, K), respectively.

また、第1図におけるカラーマスキング装置220内に
は、圧縮印刷データY′,M′,C′より表示データR,G,B
を得るのにルックアップテーブルを備えることが考えら
れる。つまり、このルックアップテーブルには表示デー
タR,G,Bが格納され、圧縮印刷データY′,M′,C′によ
って表示データR,G,Bが参照されることになる。
Also, in the color masking device 220 in FIG. 1, the display data R, G, B are obtained from the compressed print data Y ', M', C '.
It is conceivable to provide a look-up table to obtain That is, the display data R, G, and B are stored in the lookup table, and the display data R, G, and B are referred to by the compressed print data Y ', M', and C '.

このR,G,Bの画像データは、以下の方法で作成され
る。
The R, G, B image data is created by the following method.

まず、R,G,Bの画像データの各組み合わせによるカラ
ーパッチをテレビディスプレイに表示して測色し、X,Y,
Z表色系の値を求め、さらにL,u,v表色系の値を
求める。
First, a color patch based on each combination of R, G, and B image data is displayed on a television display to measure the color, and X, Y,
The value of the Z color system is obtained, and the value of the L * , u * , v * color system is further obtained.

この場合、R,G,Bの画像データの各々に対して、0,64,
128,192,255の5つの量子化レベルをとり、これらの各
組み合わせによる色(5×5×5=125)を1色ずつテ
レビディスプレイ上に表示し、1色ずつ分光放射計を用
いて測色し、以下のようにX,Y,Z表色系の値を求め、さ
らにL,u,v表色系の値を求める。
In this case, for each of the R, G, B image data, 0, 64,
The five quantization levels of 128, 192, and 255 are taken, and the colors (5 × 5 × 5 = 125) of each combination are displayed one by one on a television display, and the colors are measured one by one using a spectroradiometer. The values of the X, Y, Z color system are obtained, and the values of the L * , u * , v * color system are obtained.

この式で、Xn,Yn,Znは標準の光D65のx,yとなるような
X,Y,Zの値である。x,yとX,Y,Zとの関係は次のようにな
る。
In this equation, Xn, Yn, Zn are x, y of standard light D65
X, Y, and Z values. The relationship between x, y and X, Y, Z is as follows.

x=X/(X+Y+Z) y=Y/(X+Y+Z) D65の値は、x=0.3127、y=0.3290であるので、Xn,
Yn,Znは次式を満足するものとなる。
x = X / (X + Y + Z) y = Y / (X + Y + Z) Since the value of D65 is x = 0.3127 and y = 0.3290, Xn,
Yn and Zn satisfy the following equations.

Xn/(Xn+Yn+Zn)=0.3127 Yn/(Xn+Yn+Zn)=0.3290 Xn,Yn,Znの絶対値のレベルを決定しなければならない
が、X,Y,Zの測定値のレベルに合わせるようにするた
め、白色(R=G=B=255)を表示したときのX,Y,Zの
値のYにYnをほぼ等しくしている。
Xn / (Xn + Yn + Zn) = 0.3127 Yn / (Xn + Yn + Zn) = 0.3290 The level of the absolute value of Xn, Yn, Zn must be determined. When (R = G = B = 255) is displayed, Yn is made substantially equal to Y of X, Y, Z values.

なお、5×5×5=125の中間を内挿処理して9×9
×9=729にする。9×9×9=729の色を表示して測色
してもよいが、測定数が多くなり時間がかかる。
It should be noted that the intermediate of 5 × 5 × 5 = 125 is interpolated to 9 × 9
× 9 = 729. Color measurement may be performed by displaying 9 × 9 × 9 = 729 colors, but the number of measurements increases and it takes time.

このようにしてL,u,v表色系の値がR,G,Bの画
像データによる9×9×9=729の色について求まる。
このL,u,v表色系の値を、 Lout uout vout とする。第11図は、その値をL,u,v表色系に示し
たものであり、以下これをテレビディスプレイの色立体
と呼ぶことにする。
In this way, the values of the L * , u * , v * color system are obtained for 9 × 9 × 9 = 729 colors based on the R, G, B image data.
The values of the L * , u * , v * color system are defined as L * out u * out v * out. FIG. 11 shows the values in the L * , u * , v * color system, which will be hereinafter referred to as the color solid of the television display.

次に、でY′,M′,C′の画像データの各組み合わせ
のカラーパッチを測色して求めたL,u,v表色系の
値を用いて、Y′,M′,C′それぞれに0,8,16,・・・,24
0,248の32の量子化レベルをとったときの、これらの各
組み合わせによる色(32×32×32=32768)のL,u,
v表色系の値を内挿処理による補間によって求める。
Next, using the values of the L * , u * , v * color system obtained by measuring the color patches of each combination of the image data of Y ', M', and C ', Y', M ' , C ′ each 0,8,16, ・ ・ ・, 24
When the 32 quantization levels of 0,248 are taken, the L * , u * , and L * of the color (32 × 32 × 32 = 32768) by each of these combinations
v * The value of the color system is determined by interpolation through interpolation.

このL,u,v表色系の値を、 Lin1 uin1 vin1 とする。The values of the L * , u * , v * color system are defined as L * in1 u * in1 v * in1.

次に、第12図に示すように、カラーハードコピーから
カラーテレビディスプレイへの色再現においては、の
処理で求められるL,u,v表色系の値Lout,uo
ut,voutによる色再現範囲(出力側色再現範囲)Lout
は、一般にの処理で求められるL,u,v表色系の
値Lin1,uin1,vin1による色再現範囲(入力側色
再現範囲)Linより広くなる。そこで、入出力側の色再
現範囲の比に応じて入力側色再現範囲Linが拡大するよ
うに、の処理で求められる表色系の値Lin1,uin
1,vin1を拡大写像する。
Next, as shown in FIG. 12, in the color reproduction from color hard copy to a color television display, the obtained by processing L *, u *, v * color system value L * out, u * o
Color reproduction range by ut, v * out (output side color reproduction range) Lout
Is wider than the color reproduction range (input-side color reproduction range) Lin based on L * , u * , v * color system values L * in1, u * in1, v * in1 obtained by general processing. Therefore, the values L * in1, u * in of the color system obtained by the processing of such that the input-side color reproduction range Lin is expanded in accordance with the ratio of the input-output-side color reproduction range.
1, v * in1 is enlarged and mapped.

本例においては、拡大写像をする際、明度方向はレン
ジを合わせるように線形に写像変換すると共に、彩度方
向は入出力側色再現範囲の重なる部分の中央部は写像変
換せず、その周辺部のみを写像変換する。
In this example, when performing the enlargement mapping, the brightness direction is linearly mapped so as to match the range, and the saturation direction is not mapped at the center of the overlapping portion of the input / output color reproduction range, Only the part is transformed.

この場合、L,u,v表色系の値L,u,vを、
次式によって明度L,彩度Cおよび色相θに変換し
て写像変換を行なう。
In this case, L * , u * , v * color system values L * , u * , v * are
Mapping is performed by converting into lightness L * , saturation C *, and hue θ according to the following equation.

[明度方向の変換] 全体のレンジを合わせるように、次式によって線形に
変換する。
[Conversion in the lightness direction] Linear conversion is performed by the following equation so as to match the entire range.

ここで、Lin1は変換前の明度の値、Lin1は変換
後の明度の値である。
Here, L * in1 is the value of brightness before conversion, and L * in1 is the value of brightness after conversion.

また、LoutmaxおよびLoutminは、それぞれ出力
側色再現範囲LoutのL軸上の最大値および最小値であ
る(第13図参照)。Loutmaxは、R=G=B=255で
テレビディスプレイに表示される白色を測色したときの
outの値である。Loutminは、R=G=B=0で
テレビディスプレイに表示される黒色を測色したときの
outの値である。
L * outmax and L * outmin are the maximum value and the minimum value on the L * axis of the output-side color reproduction range Lout, respectively (see FIG. 13). L * outmax is the value of L * out when measuring white color displayed on the television display with R = G = B = 255. L * outmin is the value of L * out when measuring black color displayed on the television display with R = G = B = 0.

さらに、Lin1maxおよびLin1minは、それぞれ入
力側色再現範囲LinのL軸上の最大値および最小値で
ある(第13図参照)。Lin1maxは、Y=M=C=0で
白地のカラーパッチを測色したときのLin1の値であ
る。Lin1minは、Y=M=C=255で印刷される黒色
のカラーパッチを測色したときのLin1の値である。
Further, L * in1max and L * in1min are the maximum value and the minimum value on the L * axis of the input-side color reproduction range Lin, respectively (see FIG. 13). L * in1max is the value of L * in1 when a white background color patch is measured with Y = M = C = 0. L * in1min is a value of L * in1 when a black color patch printed at Y = M = C = 255 is measured.

[彩度方向の変換] 明度を上述したように変換したのち、uin1,vin1
による彩度Cin1を、彩度Cin2に変換する。
[Conversion of saturation direction] After converting the lightness as described above, u * in1, v * in1
The saturation C * in1 by, to convert to color saturation C * in2.

この場合、入力側色再現範囲Lin内で、変換しようと
する彩度Cin1に対応する明度および色相での彩度の
最大値Cinmaxおよびその2/3の値Cin 2/3を求める
(第14図参照)。
In this case, the input-side color reproduction range in Lin, the value C * in 2/3 of the maximum value C * INmax and 2/3 of the saturation in the corresponding brightness and hue saturation C * in1 to be converted (See FIG. 14).

また、出力側色再現範囲Lout内で、変換しようとする
彩度Cin1に対応する明度および色相での彩度の最大
値Coutmaxを求める(第14図参照)。
Further, within the output-side color reproduction range Lout, the maximum value C * outmax of the saturation at the lightness and hue corresponding to the saturation C * in1 to be converted is obtained (see FIG. 14).

そして、次のように彩度Cin2を求める。Then, the saturation C * in2 is obtained as follows.

in1≦Cin 2/3のときには、 Cin2=Cin1 とし、Cin1>Cin 2/3のときには、 とする。When C * in1 ≦ C * in 2/3, C * in2 = C * in1. When C * in1> C * in 2/3, And

なお、Cinmax(Y′,M′,C′)は次のようにして
求める。Coutmax(R,G,B)も同様にして求めること
ができる。
Note that C * inmax (Y ', M', C ') is obtained as follows. C * outmax (R, G, B) can be obtained in the same manner.

すなわち、Y′,M′,C′の画像データの各組み合わせ
についてのL,u,v表色系の値のうち、色立体の外
面となる組み合わせの値のみを明度L,彩度C、色
相θに変換してメモリに格納しておく。因みに、色立体
の外面になる面は8面あり、それはY′,M′,C′の画像
データのいずれかが0または最大になる面である。
That is, of the values of the L * , u * , v * color system for each combination of the image data of Y ', M', and C ', only the value of the combination which is the outer surface of the color solid is represented by the lightness L * , chromatic The degree C * is converted into the hue θ and stored in the memory. Incidentally, there are eight surfaces which become the outer surfaces of the color solid, which are the surfaces in which any of the Y ', M', and C 'image data becomes 0 or the maximum.

そして、第15図に示すように、変換しようとする彩度
in1に対応する明度Lおよび色相θが含まれる格
子上の位置を探しだし、その周囲の4点の彩度Cの値
から重み付け平均してCinmaxを求める。
Then, as shown in FIG. 15, a position on the grid containing the lightness L * and the hue θ corresponding to the saturation C * in1 to be converted is searched, and the saturation C * of the four surrounding points is found. C * inmax is obtained by weighted averaging from the values.

以上のようにして、求められた明度Lin2、彩度C
in2(色相θは変化せず)をL,u,v表色系の値
に変換する。これによりの処理で求められたL,
u,v表色系の値Lin1,uin1,vin1はLin2,u
in2,vin2に拡大写像される。
Lightness L * in2 and chroma C obtained as described above
* In2 (hue θ does not change) is converted to a value of L * , u * , v * color system. The L * ,
u * , v * color system value L * in1, u * in1, v * in1 is L * in2, u
* In2, v Enlarged mapping to * in2.

次に、で求められたL,u,v表色系の値Lin
2,uin2,vin2に対応するR,G,Bの画像データの組み合
わせを算出する。
Then, in the obtained L *, u *, v * color system of value L * in
A combination of R, G, B image data corresponding to 2, u * in2, v * in2 is calculated.

すなわち、Y′,M′,C′の各組み合わせの色(32×32
×32=32768)に対応して求められたLin2,uin2,v
in2を、テレビディスプレイの色立体(第11図に図
示)に目標値T′として与え、収束演算によってY′,
M′,C′の各組み合わせに対するR,G,Bの値を求める。収
束演算は、上述の第5図〜第9図で説明したと同様であ
るので、説明は省略する。
That is, the color of each combination of Y ', M', and C '(32 × 32
× 32 = 32768) L * in2, u * in2, v
* In2 is given as a target value T ′ to the color solid (shown in FIG. 11) of the television display, and Y ′,
The values of R, G, and B for each combination of M 'and C' are obtained. The convergence calculation is the same as that described with reference to FIGS. 5 to 9, and a description thereof will be omitted.

以上の〜の処理によって求められるY′,M′,C′
の画像データの各組み合せに対するR,G,Bの画像データ
がカラーマスキング装置220内のルックアップテーブル
(LUT)に格納され、Y′,M′,C′の画像データでそれ
ぞれ参照されることになる。
Y ', M', C 'obtained by the above processing
Are stored in a look-up table (LUT) in the color masking device 220, and are referred to by the image data of Y ', M', and C ', respectively. Become.

つぎに、Y′,M′,C′の画像データよりR,G,Bの画像
データを得るカラーマスキング装置220の一例について
説明する。
Next, an example of the color masking device 220 for obtaining R, G, B image data from Y ′, M ′, C ′ image data will be described.

ところで、LUTに全てのY′,M′,C′の画像データの
組み合わせに対応するR,G,Bの画像データを格納すると
すれば、LUTの容量が膨大となる。
By the way, if R, G, and B image data corresponding to all combinations of Y ', M', and C 'image data are stored in the LUT, the capacity of the LUT becomes enormous.

そこで、本出願人は、メモリ容量の削減化を図るた
め、Y′,M′,C′の画像データで形成される色空間を複
数の基本格子に分割し、LUTにはその頂点に位置する
Y′,M′,C′の画像データの組み合わせに対するR,G,B
の画像データを格納し、Y′,M′,C′の画像データの組
み合わせに対するR,G,Bの画像データが存在しないとき
には、このY′,M′,C′の画像データ(補間点)が含ま
れる基本格子の頂点のR,G,Bの画像データの重み平均に
よってR,G,Bの画像データを得ることを提案した。
In order to reduce the memory capacity, the present applicant divides the color space formed by the image data of Y ', M', and C 'into a plurality of basic lattices, and the LUT is located at the apex thereof. R, G, B for the combination of Y ', M', C 'image data
When there is no R, G, B image data for the combination of Y ', M', C 'image data, the image data of Y', M ', C' (interpolation points) It is proposed to obtain the R, G, B image data by the weighted average of the R, G, B image data of the vertices of the basic lattice containing.

この意味で、上述したようにY′,M′,C′の画像デー
タの32×32×32=23768個の組み合わせに対応するR,G,B
の画像データのみが求められ、これがLUTに格納され
る。
In this sense, as described above, R, G, B corresponding to 32 × 32 × 32 = 23,768 combinations of image data of Y ′, M ′, C ′.
Is obtained, and this is stored in the LUT.

例えば、第16図に示すように、頂点A〜Hで構成され
る基本格子内に補間点Pが存在する場合には、それぞれ
その頂点に対して対角位置の頂点と補間点Pとで作られ
る直方体の体積が、頂点A〜HのR,G,Bの画像データに
対する重み係数として使用される。
For example, as shown in FIG. 16, when an interpolation point P exists in a basic lattice formed of vertices A to H, each vertex at the diagonal position and the interpolation point P are formed with respect to that vertex. The volume of the rectangular parallelepiped is used as a weighting factor for the image data of R, G, and B at vertices A to H.

すなわち、この補間点Pが含まれる基本格子の頂点A
〜HのR,G,Bの画像データをRi,Gi,Bi(i=1〜8)、
頂点A〜HのR,G,Bの画像データに対する重み係数をAi
(i=1〜8)とすれば、補間点PのR,G,Bの画像デー
タRp,Gp,Bpは次式によって算出される。
That is, the vertex A of the basic lattice including the interpolation point P
To H, R, G, B image data Ri, Gi, Bi (i = 1 to 8),
The weighting factors for the image data of vertices A to H for R, G, B are Ai
If (i = 1 to 8), the image data Rp, Gp, Bp of R, G, B at the interpolation point P is calculated by the following equation.

このような補間処理では、補間点のR,G,Bの画像デー
タRp,Gp,Bpを算出する場合には、それぞれについて8回
の乗算累積処理が必要となる。
In such interpolation processing, when image data Rp, Gp, and Bp of R, G, and B at interpolation points are calculated, eight multiplication and accumulation processes are required for each.

本出願人は、この乗算累積処理の回数を少なくできる
補間処理を提案した。
The present applicant has proposed an interpolation process that can reduce the number of times of the multiplication and accumulation process.

第17図に示すように、頂点A〜Hで構成される基本格
子に対して、1点鎖線によって計6個の三角錐が形成さ
れる。補間点Pの座標が(5,1,2)であるときには、そ
の補間点Pは第18図に示すように頂点A,B,C,Gによって
形成される三角錐Tに含まれることわかる。
As shown in FIG. 17, a total of six triangular pyramids are formed by dashed lines with respect to the basic lattice constituted by vertices A to H. When the coordinates of the interpolation point P are (5, 1, 2), it is understood that the interpolation point P is included in the triangular pyramid T formed by the vertices A, B, C, and G as shown in FIG.

三角錐Tが決定されると、第18図に示すように、次に
補間点Pと頂点A,B,C,Gとが結ばれて、計4個の新たな
三角錐が形成され、それぞれの体積VBCGP,VACGP,VABG
P,VABCPが求められる。これらの体積と頂点A,B,C,GのR,
G,Bの画像データRA〜RG,GA〜GG,BA〜BGとから、補
間点PのR,G,Bの画像データRp,Gp,Bpは次式によって算
出される。
When the triangular pyramid T is determined, as shown in FIG. 18, the interpolation point P and the vertices A, B, C, and G are connected to form a total of four new triangular pyramids. Volume of VBCGP, VACGP, VABG
P and VABCP are required. These volumes and the vertices A, B, C, G R,
From the G and B image data RA to RG, GA to GG, and BA to BG, the R, G, and B image data Rp, Gp, and Bp of the interpolation point P are calculated by the following equations.

VABCGは三角錐Tの体積である。 VABCG is the volume of the triangular pyramid T.

Rp=1/VABCG(VBCGP・RA +VACGP・RB+VABGP・RC+VABCP・RG) Gp=1/VABCG(VBCGP・GA +VACGP・GB+VABGP・GC+VABCP・GG) Bp=1/VABCG(VBCGP・BA +VACGP・BB+VABGP・BC+VABCP・BG) ・・・(2) 補間点Pの座標が異なれば、使用する三角錐Tも異な
ることになる。例えば、補間点Pの座標が、P(3,1,
5)であるときには、この補間点Pは、第19図に示すよ
うに、頂点A,C,D,Gによって形成される三角錐Tに含ま
れるので、この三角錐Tが使用される。
Rp = 1 / VABCG (VBCGP · RA + VACGP · RB + VABGP · RC + VABCP · RG) Gp = 1 / VABCG (VBCGP · GA + VACGP · GB + VABGP · GC + VABCP · GG) Bp = 1 / VABCG (VBCGP · BA + VACGP · BC + VACGP · BC + BB · BC + BB · BB (2) If the coordinates of the interpolation point P are different, the triangular pyramid T used will also be different. For example, if the coordinates of the interpolation point P are P (3,1,
In the case of (5), since the interpolation point P is included in the triangular pyramid T formed by the vertices A, C, D, and G as shown in FIG. 19, the triangular pyramid T is used.

このように、三角錐を利用しての補間処理では、4回
の乗算累積処理によって補間点のR,G,Bの画像データRp,
Gp,Bpを算出できる。
As described above, in the interpolation processing using the triangular pyramid, the image data Rp, Rp,
Gp and Bp can be calculated.

第20図はカラーマスキング装置の具体構成例である。 FIG. 20 shows a specific configuration example of a color masking device.

同図において、20は色修正データ記憶手段であり、こ
の記憶手段20を構成するルックアップテーブル(MLUT)
21R〜21Bには、それぞれR,G,Bの色修正データが格納さ
れる。
In the figure, reference numeral 20 denotes a color correction data storage unit, and a look-up table (MLUT) constituting the storage unit 20
21R to 21B store R, G, and B color correction data, respectively.

ところで、MLUT21R〜21Bとしては、例えば256Kビット
容量のROMが使用され、上述したようにY′,M′,C′の
画像データの最小レベルから最大レベルまでの間の32点
だけが抽出され、MLUT21R〜21Bのそれぞれには32×32×
32=32768点の画像データが格納される。
By the way, as the MLUTs 21R to 21B, for example, a ROM having a capacity of 256K bits is used, and only 32 points between the minimum level and the maximum level of the image data of Y ', M', and C 'are extracted as described above. 32 × 32 × for each of MLUT21R ~ 21B
32 = 32768 image data are stored.

この場合、Y′,M′,C′の画像データは8ビットであ
り、256階調を有しており、32点の配分は、例えば0か
ら順に「8」ずつ区切って 0,8,16,・・・,240,248 の合計32個となるように等分に行なわれ、33点目となる
249以上255までは使用されないか、若しくは248として
扱われる。
In this case, the image data of Y ', M', and C 'is 8 bits and has 256 gradations. The distribution of 32 points is, for example, divided from "0" by "8" in the order of 0,8,16. , ..., 240, 248 are equally divided so that the total is 32, and it is the 33rd point
249 to 255 are not used or treated as 248.

このような各配分点の、つまり基本格子間隔が8量子
化レベルである基本格子の頂点のR,G,Bの画像データが
上述した〜の処理で算出され、この算出された画像
データがMLUT21R〜21Bに格納される。
Image data of R, G, and B at the vertices of the basic lattice in which each of the distribution points, that is, the basic lattice interval is 8 quantization levels, is calculated by the above-described processing, and the calculated image data is MLUT21R ~ 21B.

また、60は重み係数記憶手段を構成するルックアップ
テーブル(WLUT)である。WLUT60には、各補間点に対応
した重み係数が格納される。
Reference numeral 60 denotes a look-up table (WLUT) constituting the weight coefficient storage means. The WLUT 60 stores a weight coefficient corresponding to each interpolation point.

立方体を利用しての補間処理の場合、上述したように
基本格子間隔が8量子化レベルであるとき、8回の重み
係数の合計は、 8×8×8=512 となるが、これが256となるように正規化される。ま
た、WLUT60として、8ビットの汎用ICを使用できるよう
に、重み係数の最大値は255とされる。例えば、補間点
Pが、第16図の頂点Aと同じ位置にあった場合、重み係
数P1〜P8は次のようになる。
In the case of the interpolation processing using a cube, when the basic lattice spacing is 8 quantization levels as described above, the total of the eight weighting coefficients is 8 × 8 × 8 = 512, which is 256. Is normalized so that In addition, the maximum value of the weight coefficient is set to 255 so that an 8-bit general-purpose IC can be used as the WLUT 60. For example, when the interpolation point P is located at the same position as the vertex A in FIG. 16, the weighting factors P1 to P8 are as follows.

P1,P2,P3,P4,P5,P6,P7,P8 255,0,0,0,0,0,0,1 (512,0,0,0,0,0,0,0) となり、重み係数の総和は、常に256となる。 P1, P2, P3, P4, P5, P6, P7, P8 255,0,0,0,0,0,0,1 (512,0,0,0,0,0,0,0) The sum of the coefficients is always 256.

また、三角錐を利用しての補間処理の場合、上述した
ように基本格子間隔が8量子化レベルであるとき、4回
の重み係数の合計は、 8×8×8/6=512/6 となるが、これが256となるように正規化される。ま
た、WLUT60として、8ビットの汎用ICを使用できるよう
に、重み係数の最大値は255とされる。例えば、補間点
Pが、第17図の頂点Aと同じ位置にあった場合、重み係
数VBCGP,VACGP,VABGP,VABCPは次のようになる。
Further, in the case of the interpolation process using the triangular pyramid, when the basic lattice interval is 8 quantization levels as described above, the sum of the four weighting coefficients is 8 × 8 × 8/6 = 512/6. Which is normalized to 256. In addition, the maximum value of the weight coefficient is set to 255 so that an 8-bit general-purpose IC can be used as the WLUT 60. For example, when the interpolation point P is located at the same position as the vertex A in FIG. 17, the weighting factors VBCGP, VACGP, VABGP, VABCP are as follows.

VBCGP,VACGP,VABGP,VABCP 255,0,0,1 (512/6,0,0,0) となり、重み係数の総和は、常に256となる。 VBCGP, VACGP, VABGP, VABCP 255,0,0,1 (512 / 6,0,0,0), and the sum of the weighting factors is always 256.

Y′,M′,C′の画像データは、アドレス信号形成手段
40を構成するルックアップテーブル(PLUT)41Y〜41Cに
供給されると共に、このPLUT41Y〜41Cにはコントローラ
50より振り分け信号が供給される。
The image data of Y ', M', and C 'are used as address signal forming means.
The look-up tables (PLUTs) 41Y to 41C that constitute the 40 are supplied to the PUTs 41Y to 41C.
A distribution signal is supplied from 50.

PLUT41Y〜41CからはY′,M′,C′の画像データの上位
5ビット(補間点Pが含まれる基本格子の頂点の基準点
を表す)に対応した5ビットのアドレス信号が出力さ
れ、それぞれMLUT21R〜21Bに供給される。
From the PLUTs 41Y to 41C, 5-bit address signals corresponding to the upper 5 bits (representing the reference point of the vertex of the basic grid including the interpolation point P) of the image data of Y ', M', and C 'are output. It is supplied to MLUTs 21R-21B.

立方体を利用しての補間処理の場合、振り分け信号に
基づいて、補間点Pが含まれる基本格子の8個の頂点が
MLUT21R〜21Bで順次指定されるように、5ビットのアド
レス信号が順次出力される。
In the case of the interpolation processing using a cube, eight vertices of the basic lattice including the interpolation point P are determined based on the distribution signal.
As sequentially specified by the MLUTs 21R to 21B, 5-bit address signals are sequentially output.

三角錐を利用しての補間処理の場合、振り分け信号に
基づいて、補間点Pが含まれる三角錐の4個の頂点がML
UT21R〜21Bで順次指定されるように、5ビットのアドレ
ス信号が順次出力される。
In the case of the interpolation process using the triangular pyramid, four vertices of the triangular pyramid including the interpolation point P are ML based on the distribution signal.
As sequentially specified by the UTs 21R to 21B, 5-bit address signals are sequentially output.

MLUT21R〜21Bより出力されるR,G,Bの画像データは、
それぞれ乗算累積手段30を構成する乗算器(MTL)31R〜
31Bに供給される。
R, G, B image data output from MLUT21R-21B is
Multipliers (MTL) 31R constituting the multiplication / accumulation means 30, respectively
Supplied to 31B.

また、PLUT41Y〜41CからはY′,M′,C′の画像データ
の下位3ビット(補間点Pの基本格子内の位置を表す)
が重み係数指定信号として出力され、この重み係数指定
信号はWLUT60に供給される。このWLUT60にはコントロー
ラ50より振り分け信号が供給され、この振り分け信号に
基づいて重み係数が順次出力される。
From the PLUTs 41Y to 41C, the lower 3 bits of the image data of Y ', M', and C '(representing the position of the interpolation point P in the basic grid)
Is output as a weight coefficient designation signal, and this weight coefficient designation signal is supplied to the WLUT 60. A distribution signal is supplied from the controller 50 to the WLUT 60, and a weight coefficient is sequentially output based on the distribution signal.

立方体を利用しての補間処理の場合、補間点Pが含ま
れる基本格子の8個の頂点がMLUT21R〜21Bで順次指定さ
れるのに対応して、8個の重み係数P1〜P8が順次出力さ
れる。
In the case of an interpolation process using a cube, eight weighting factors P1 to P8 are sequentially output in correspondence with the eight vertices of the basic lattice including the interpolation point P being sequentially specified by the MLUTs 21R to 21B. Is done.

三角錐を利用しての補間処理の場合、補間点Pが含ま
れる三角錐の4個の頂点がMLUT21R〜21Bで順次指定され
るのに対応して、4個の重み係数が順次出力される。
In the case of the interpolation process using the triangular pyramid, four weighting factors are sequentially output in correspondence with the four vertices of the triangular pyramid including the interpolation point P being sequentially designated by the MLUTs 21R to 21B. .

WLUT60より出力される重み係数はMTL31R〜31Bに供給
される。そして、このMTL31R〜31Bでは、MLUT21R〜21B
より出力されるR,G,Bの画像データ(8ビット)と、WLU
T60からの重み係数(8ビット)との乗算が行なわれ
る。
The weight coefficients output from the WLUT 60 are supplied to the MTLs 31R to 31B. And in this MTL31R-31B, MLUT21R-21B
R, G, B image data (8 bits) output from WLU
Multiplication with the weight coefficient (8 bits) from T60 is performed.

MTL31R〜31Bの上位8ビットの乗算出力は、それぞれ
累積器(ALU)32R〜32Bに供給されて加算処理される。
このALU32R〜32Bには、コントローラ50よりリセット信
号が供給される。
The multiplied outputs of the upper 8 bits of the MTLs 31R to 31B are supplied to accumulators (ALUs) 32R to 32B, respectively, where they are added.
A reset signal is supplied from the controller 50 to the ALUs 32R to 32B.

立方体を利用しての補間処理の場合、補間点Pが含ま
れる基本格子の8個の頂点に対応して順次加算処理が行
なわれて、その結果が後述するラッチ回路でラッチされ
るたびにリセットされる。
In the case of an interpolation process using a cube, an addition process is sequentially performed corresponding to the eight vertices of the basic lattice including the interpolation point P, and the result is reset each time the result is latched by a latch circuit described later. Is done.

三角錐を利用しての補間処理の場合、補間点Pが含ま
れる三角錐の4個の頂点に対応して順次加算処理が行な
われて、その結果が後述するラッチ回路でラッチされる
たびにリセットされる。
In the case of an interpolation process using a triangular pyramid, an addition process is sequentially performed corresponding to four vertices of the triangular pyramid including the interpolation point P, and each time the result is latched by a latch circuit described later. Reset.

上述したように、立方体を利用しての補間処理の場合
の8個の重み係数の総和、および三角錐を利用しての補
間処理の場合の4個の重み係数の総和は256となるよう
にされている。本例においては、MTL31R〜31Bの乗算出
力の上位8ビットが使用され、いわゆる8ビットシフト
が行なわれるので、これによって(1)式における および(2)式における1/VABCGの処理が行なわれるこ
ととなる。
As described above, the sum of eight weighting factors in the case of interpolation using a cube and the sum of four weighting factors in the case of interpolation using a triangular pyramid become 256. Have been. In this example, the higher 8 bits of the multiplication output of the MTLs 31R to 31B are used, and a so-called 8-bit shift is performed. And the processing of 1 / VABCG in equation (2) is performed.

乗算累積手段30を構成するALU32R〜32Bの出力は、そ
れぞれラッチ回路71R〜71Bに供給される。このラッチ回
路71R〜71Bにはコントローラ50よりラッチパルスが供給
される。
Outputs of the ALUs 32R to 32B constituting the multiplication / accumulation means 30 are supplied to latch circuits 71R to 71B, respectively. A latch pulse is supplied from the controller 50 to the latch circuits 71R to 71B.

立方体を利用しての補間処理の場合、補間点Pが含ま
れる基本格子の8個の頂点に対応して順次加算処理され
た結果がラッチされる。
In the case of the interpolation processing using a cube, the result of the sequential addition processing corresponding to the eight vertices of the basic lattice including the interpolation point P is latched.

三角錐を利用しての補間処理の場合、補間点Pが含ま
れる三角錐の4個の頂点に対応して順次加算処理された
結果がラッチされる。
In the case of the interpolation processing using the triangular pyramid, the result of the sequential addition processing corresponding to the four vertices of the triangular pyramid including the interpolation point P is latched.

したがって、このラッチ回路71R〜71Bからは、立方体
を利用しての補間処理の場合には(1)式で示され、三
角錐を利用しての補間処理の場合には(2)式で示され
る補間点PのR,G,Bの画像データが出力される。
Therefore, from the latch circuits 71R to 71B, the interpolation processing using a cube is represented by equation (1), and the interpolation processing using a triangular pyramid is represented by equation (2). The image data of R, G, B at the interpolation point P to be output is output.

なお、本実施例においては、カラーハードコピーの色
分解画像の基本色をY,M,C,Kの4色として説明したが、
Y,M,Cの3色の場合にも同様に本方法を適用できる。そ
の場合には、Y′,M′,C′に直接にY,M,Cのデータを用
いればよく、そのときは、Y,M,C,KからY′,M′,C′を
求めるための部分が除かれることになる。
In the present embodiment, the basic colors of the color separation image of the color hard copy are described as four colors of Y, M, C, and K.
This method can be similarly applied to the case of three colors of Y, M, and C. In that case, the data of Y, M, C can be used directly for Y ', M', C ', and in that case, Y', M ', C' are obtained from Y, M, C, K. Part will be removed.

本例の方法においては、入出力側の色再現範囲Linお
よびLoutの比に応じて、Y′,M′,C′の画像データに対
して求められた表色系の値Lin1,uin1,vin1を拡
大写像し、この拡大写像で求められた値Lin2,uin
2,vin2に対応させてR,G,Bの画像データを求めるの
で、このR,G,Bの画像データによる色再現は、R,G,Bの画
像データによるテレビディスプレイの色再現範囲全体を
カバーすることができ、十分な明度や彩度のレンジを有
するものとできる。すなわち、充分なコントラストや彩
やかさを有するテレビ画像を再現することができる。
In the method of this example, the color system value L * in1, u obtained for the image data of Y ', M', C 'according to the ratio of the color reproduction ranges Lin and Lout on the input and output sides. * In1, v * in1 is enlarged and the value L * in2, u * in obtained by this enlarged mapping is obtained.
Since the image data of R, G, B is obtained corresponding to 2, v * in2, the color reproduction by the image data of R, G, B is the color reproduction range of the TV display by the image data of R, G, B. It can cover the entirety and can have a sufficient range of brightness and saturation. That is, a television image having a sufficient contrast and vividness can be reproduced.

なお、上述実施例においては、明度方向の変換を線形
に行なうものを示したが、これに限定されるものではな
い。場合によっては、非線形に変換を行なうことも考え
られる。
In the above embodiment, the conversion in the brightness direction is performed linearly. However, the present invention is not limited to this. In some cases, the conversion may be performed nonlinearly.

また、上述実施例においては、表色系として、L,u
,v表色系を用いたものであるが、この代わりにR,G,
B表色系、X,Y,Z表色系、L,a,b表色系等その他の
表色系を用いるものにも同様に適用することができる。
In the above embodiment, L * , u is used as the color system.
* , V * The color system is used, but instead of R, G,
The same can be applied to those using other color systems such as the B color system, the X, Y, Z color system, the L * , a * , b * color system.

[発明の効果] 以上説明したように、この発明によれば、入出力側の
色再現範囲の比に応じて入力色再現範囲が拡大するよう
に、入力色分解画像情報に対して求められた表色系の値
を拡大写像し、この拡大写像した表色系の値に対応させ
て出力色分解画像情報を求めるようにしているので、求
められる出力色分解画像情報による色再現は出力色再現
範囲全体をカバーするものとなり、十分な明度や彩度の
レンジを有するものとできる。
[Effects of the Invention] As described above, according to the present invention, the input color separation image information is obtained such that the input color reproduction range is expanded in accordance with the ratio of the color reproduction ranges on the input and output sides. Since the color system values are enlarged and mapped and the output color separation image information is obtained in correspondence with the enlarged and mapped color system values, the color reproduction based on the obtained output color separation image information is output color reproduction. This covers the entire range, and can have a sufficient range of brightness and saturation.

【図面の簡単な説明】[Brief description of the drawings]

第1図〜第15図はこの発明に係る色推定方法の説明のた
めの図、第16図〜第19図は補間処理の説明のための図、
第20図はカラーマスキング装置の構成図、第21図は従来
方法の説明のための図である。 100……テレビディスプレイ 200……色分解画像修正装置 220……カラーマスキング装置
1 to 15 are diagrams for explaining a color estimation method according to the present invention, FIGS. 16 to 19 are diagrams for explaining an interpolation process,
FIG. 20 is a configuration diagram of a color masking device, and FIG. 21 is a diagram for explaining a conventional method. 100 TV display 200 Color separation image correction device 220 Color masking device

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】複数の入力色分解画像情報の各組み合わせ
に対する表色系の値を求めると共に、複数の出力色分解
画像情報の各組み合せに対する上記表色系の値を求め、 上記複数の出力色分解画像情報の各組み合わせに対して
求められた表色系の値を用いて、上記入力色分解画像情
報の任意の組み合わせに対する表色系の値と同じ値また
はその表色系の値を基にして求めた値を得る上記出力色
分解画像情報の組み合わせを求める色推定方法におい
て、 上記複数の出力色分解画像情報の各組み合わせに対して
求められた表色系の値による出力側色再現範囲が上記複
数の入力色分解画像情報の各組み合わせに対して求めら
れた表色系の値による入力側色再現範囲より広いときに
は、 上記入出力側の色再現範囲の比に応じて上記入力側色再
現範囲が拡大するように、上記入力色分解画像情報の各
組み合わせに対して求められた表色系の値を拡大写像
し、 この拡大写像した表色系の値と同じ表色系の値を得る上
記出力色分解画像情報の組み合せを求めることを特徴と
する色推定方法。
1. A color system value for each combination of a plurality of input color separation image information is determined, and a color system value for each combination of a plurality of output color separation image information is determined. Using the color system value obtained for each combination of the separated image information, the same value as the color system value for the arbitrary combination of the input color separated image information or the value of the color system is used. In the color estimation method for obtaining the combination of the output color separation image information to obtain the value obtained by the above, the output color reproduction range based on the color system value obtained for each combination of the plurality of output color separation image information is When the input-side color reproduction range is wider than the input-side color reproduction range based on the color system value obtained for each combination of the plurality of input color separation image information, the input-side color reproduction is performed according to the ratio of the input-output color reproduction range. Range In order to increase the value of the color system obtained for each combination of the input color-separated image information, the output is obtained by enlarging and mapping the same color system value as the enlarged mapped color system value. A color estimating method characterized by determining a combination of color separation image information.
【請求項2】上記拡大写像をする際、明度方向に関して
はレンジを合わせるように線形または非線形に写像変換
すると共に、 彩度方向に関しては上記入出力側の色再現範囲の重なる
部分の中央部は写像変換せず、その周辺部のみを写像変
換することを特徴とする請求項1記載の色推定方法。
2. When performing the above-mentioned enlarged mapping, linear or non-linear mapping conversion is performed so as to adjust the range in the brightness direction, and in the chroma direction, the center of the overlapping portion of the input / output color reproduction ranges is 2. The color estimating method according to claim 1, wherein only the peripheral portion of the color is converted without performing the mapping conversion.
JP1296963A 1989-11-15 1989-11-15 Color estimation method Expired - Fee Related JP2845523B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1296963A JP2845523B2 (en) 1989-11-15 1989-11-15 Color estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1296963A JP2845523B2 (en) 1989-11-15 1989-11-15 Color estimation method

Publications (2)

Publication Number Publication Date
JPH03158075A JPH03158075A (en) 1991-07-08
JP2845523B2 true JP2845523B2 (en) 1999-01-13

Family

ID=17840467

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1296963A Expired - Fee Related JP2845523B2 (en) 1989-11-15 1989-11-15 Color estimation method

Country Status (1)

Country Link
JP (1) JP2845523B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7177465B1 (en) 1999-07-16 2007-02-13 Fuji Photo Film Co., Ltd. Method of compressing/extending color reproducing space, color reproducing method and color reproducing apparatus
US7623266B2 (en) 2006-04-07 2009-11-24 Canon Kabushiki Kaisha Gamut mapping with saturation intent
US8044968B2 (en) 2007-04-18 2011-10-25 Seiko Epson Corporation Image processing device, color correction table generation device, display device, image processing method, color correction table generation method, color adjustment method for display device, and image processing program

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5450216A (en) * 1994-08-12 1995-09-12 International Business Machines Corporation Color image gamut-mapping system with chroma enhancement at human-insensitive spatial frequencies
JP4140535B2 (en) 2004-02-27 2008-08-27 ブラザー工業株式会社 Color conversion table creation method, color conversion table creation device, program, color conversion table, color conversion device, and image forming system
EP2254090B1 (en) 2008-03-11 2015-08-26 Panasonic Corporation Color conversion output device, color conversion table and method for creating same

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7177465B1 (en) 1999-07-16 2007-02-13 Fuji Photo Film Co., Ltd. Method of compressing/extending color reproducing space, color reproducing method and color reproducing apparatus
US7623266B2 (en) 2006-04-07 2009-11-24 Canon Kabushiki Kaisha Gamut mapping with saturation intent
US8044968B2 (en) 2007-04-18 2011-10-25 Seiko Epson Corporation Image processing device, color correction table generation device, display device, image processing method, color correction table generation method, color adjustment method for display device, and image processing program
US8325202B2 (en) 2007-04-18 2012-12-04 Seiko Epson Corporation Color correction table generation for a display

Also Published As

Publication number Publication date
JPH03158075A (en) 1991-07-08

Similar Documents

Publication Publication Date Title
EP0488656A2 (en) Colour transformation method
JP3174604B2 (en) Color image reproducing apparatus and method
US5553199A (en) Method and apparatus for calibrating a four color printer
US5363218A (en) Color estimation method for compressing color image data for image reproduction
US5481655A (en) System for matching a picture on a monitor to a printed picture
US6072464A (en) Color reproduction method
JP3768630B2 (en) Color processing method and apparatus using two-dimensional chromaticity division
US6882445B1 (en) Color gamut compression apparatus and method
JPH05183742A (en) Device for deciding color compensation parameter
JP2845523B2 (en) Color estimation method
JP3354158B2 (en) Color correction device, color correction method, and color correction application device
JPH04196675A (en) Color estimate method
US5657068A (en) Color image processing apparatus and conversion method
JP2554366B2 (en) Method of estimating color reproduction characteristics using color patches
JP3987215B2 (en) Color conversion device
JP3152186B2 (en) Color conversion method, color conversion table creation device, color conversion device, and recording medium
JPS61281768A (en) Color masking parameter deciding device
KR100408508B1 (en) Method and apparatus for processing color, signal using color difference plane separation
JP2898030B2 (en) Color estimation method
JP2845522B2 (en) Color estimation method
JPH04196677A (en) Method of estimating color
JP2001148794A (en) Color conversion method, color conversion table generator, color converter and recording medium
JPH04196676A (en) Method of estimating color
JPH04196678A (en) Method of estimating color
JP3430178B2 (en) Color correction method and apparatus for image processing system

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees