JPH03158075A - Color estimate method - Google Patents

Color estimate method

Info

Publication number
JPH03158075A
JPH03158075A JP1296963A JP29696389A JPH03158075A JP H03158075 A JPH03158075 A JP H03158075A JP 1296963 A JP1296963 A JP 1296963A JP 29696389 A JP29696389 A JP 29696389A JP H03158075 A JPH03158075 A JP H03158075A
Authority
JP
Japan
Prior art keywords
color
combination
image data
output
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP1296963A
Other languages
Japanese (ja)
Other versions
JP2845523B2 (en
Inventor
Toru Hoshino
透 星野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP1296963A priority Critical patent/JP2845523B2/en
Publication of JPH03158075A publication Critical patent/JPH03158075A/en
Application granted granted Critical
Publication of JP2845523B2 publication Critical patent/JP2845523B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To reproduce luminance and chroma in an excellent way by mapping color specification system values with magnification obtained from each combination of input color separation picture information when an output color reproduction range is wider than an input side color reproduction range and obtaining the combination of the output color separation picture information to obtain the color specification system values the same as the color specification system subjected to magnification and mapping. CONSTITUTION:When the output color reproduction range is wider than the input color reproduction range, the color specification system values obtained with respect to the combination of input color separation information is magnified and mapped so as to expand the input color reproduction range in response to the ration of the input and output color reproduction ranges to obtain the combination of the output color separation picture information in response to the color specification system value subjected to magnification and mapping. Thus, the color reproduction by the obtained output color separation picture information covers whole of the output color reproduction range. Thus, sufficient luminance and chroma are reproduced in an excellent way.

Description

【発明の詳細な説明】 [産業上の利用分野] この発明は、例えばカラーハードコピーのカラー画像を
カラーテレビ画像に再現する際に使用される色分解画像
修正装置に適用して好適な色推定方法に間する。
Detailed Description of the Invention [Field of Industrial Application] The present invention provides color estimation suitable for application to a color separation image correction device used, for example, when reproducing a color image of a color hard copy into a color television image. Find out how.

[発明の背景コ カラーハードコピーのカラー画像をカラーテレビ画像に
再現する場合、それぞれの表色系が相違する。すなわち
、テレビ画像は加色法によりカラー画像が構成され、そ
の表色系としてはR,G。
[Background of the Invention] When reproducing a color image of a cocolor hard copy into a color television image, each color system is different. That is, television images are constructed using the additive color method, and the color system is R, G.

B表色系が使用される。これに対して、ハードコピーは
減色法によりカラー画像が構成され、その表色系として
は例えばY、  M、  C座標系が使用される。この
ような場合、これらの表色系で画像データの変喚、つま
り色修正が行なわれる。
The B color system is used. On the other hand, in a hard copy, a color image is constructed by a subtractive color method, and the Y, M, C coordinate system, for example, is used as the color system. In such a case, image data is transformed, that is, color correction is performed using these color systems.

例えば、カラーハードコピーのカラー画像をカラーテレ
ビ画像に再現する場合には、第21図に示すように、イ
エO−Y、  マゼンタM、シアンC、スミにのfe1
mデータが色分解画像修正装置200に供給され、この
修正装置200より赤R9緑G。
For example, when reproducing a color image from a color hard copy into a color TV image, as shown in FIG.
The m data is supplied to a color separation image correction device 200, and the correction device 200 outputs red R9 green G.

青Bの画像データ(色修正データ)が出力され、この色
修正データがテレビデイスプレィ100に供給される。
Blue B image data (color correction data) is output, and this color correction data is supplied to the television display 100.

ここで、Y、  M、  C,Kの画像データより色修
正データを得る方法としてルックアップテーブルを参照
する方法を用いることが考えられる。このルックアップ
テーブルに格納する色嬬正データを求める方法として、
例えば特開昭63−254864号公報に記載されるよ
うな方法が擾案されている。
Here, as a method of obtaining color correction data from Y, M, C, and K image data, it is conceivable to use a method of referring to a look-up table. As a method to obtain the correct color data to be stored in this lookup table,
For example, a method as described in Japanese Patent Laid-Open No. 63-254864 has been proposed.

すなわち、Y、  M、  C,Kの画像データの各組
み合わせによるカラーパッチを出力してtJN色して表
色系の値を求めると共に、R,G、  Bの画像データ
の各組み合わせによるカラーパッチをカラーテレビデイ
スプレィ上に表示して測色して表色系の値を求める。そ
して、カラーパッチとデイスプレィ上のカラーパッチを
測色して求められた表色系の値を用いて、Y、  M、
  C,Kの画像データの各組み合わせに対して、その
組み合わせによるカラーハードコピーのカラーパッチを
測色して求められる表色系の値と同じまたは近い表色系
の値を得るR、  G、  Bの画像データを補間演算
によって求めるものである。
That is, a color patch based on each combination of Y, M, C, and K image data is output, and the value of the color system is determined by tJN color, and a color patch based on each combination of R, G, and B image data is output. Measure the color by displaying it on a color television display to determine the value of the color system. Then, using the color system values obtained by colorimetrically measuring the color patch and the color patch on the display, Y, M,
For each combination of C, K image data, R, G, B obtains a color system value that is the same as or close to the color system value obtained by colorimetrically measuring the color patch of a color hard copy based on that combination. This image data is obtained by interpolation calculation.

[発明が解決しようとする課題] ところで、一般にカラーテレビデイスプレィのR,G、
  Bの画像データによる色再IJlii囲は、カラー
ハードコピーのY、  M、  C,Kによる色再現範
囲よりも広くなっている。
[Problem to be solved by the invention] By the way, in general, the R, G,
The color reproduction range of B image data is wider than the color reproduction range of Y, M, C, and K of a color hard copy.

したがって、上述したようにY、  M、  C,Kの
画像データに対して求められた表色系の値を、そのまま
R,G、  Bの画像データに対する表色系の値に対応
させてR,G、  Bの画像データを求めるものによれ
ば、R,G、  Bの画像データによる色再現範囲内の
狭い範囲の色しか存在せず、明度や彩度のレンジが狭い
ものとなり、低明度くi%+’lA度)の色や、高彩度
の色を再現できなくなり、コントラストや彩やかさに欠
けた画像になる欠点があった。
Therefore, as mentioned above, the values of the color system obtained for the Y, M, C, and K image data are directly corresponded to the color system values for the R, G, and B image data to obtain R, According to those who obtain G and B image data, there are only a narrow range of colors within the color reproduction range of R, G, and B image data, and the brightness and saturation ranges are narrow, resulting in low brightness and low brightness. This has the disadvantage that it is no longer possible to reproduce colors of i%+'lA degree) or colors of high saturation, resulting in images lacking in contrast and vividness.

そこで、この発明では、カラーハードコピーのカラー画
像をカラーテレビ画像に再現する場合に明度および彩度
を良好に再現できるようにすることを目的とするもので
ある。
Therefore, it is an object of the present invention to make it possible to reproduce brightness and saturation satisfactorily when reproducing a color image from a color hard copy into a color television image.

[!!題を解決するための手段] この発明しこ係る@、指定方法によれば、複数の入力色
分解画像情報の各組み合わせに対する表色系の値を求め
ると共に、複数の出力色分解画像情報の各組み合わせに
対する上記表色系の値を求め、複数の出力色分解画像情
報各組み合わせに対して求められた表色系の値を用いて
、入力色分解画像情報の任意の繍み合わせに対する表色
系の値と同じまたは近い表色系の値を得る出力色分解画
像情報の組み合わせを求める色推定方法であって、複数
の出力色分解画像情報の各組み合わせに対して求められ
た表色系の値による出力測色再現範囲が複数の入力色分
解画像情報の各組み合わせに対して求められた表色系の
値による入力測色再現範囲より広いときには、入出力儒
の色再現範囲の比に応じて入力端色再1!範囲が拡大す
るように、入力色分解W像情報の組み合わせに対して求
められた表色系の値を拡大写像し、この拡大写像した表
色系の値と同じ表色系の値を得る出力色分解画像情報の
鞘み合わせを求めるものである。
[! ! Means for Solving the Problem] According to the specification method according to the present invention, the value of the color system for each combination of a plurality of input color separation image information is determined, and the value of each combination of a plurality of output color separation image information is calculated. Calculate the values of the above color system for the combination, and use the values of the color system determined for each combination of multiple output color separation image information to determine the color system for any combination of input color separation image information. A color estimation method that calculates a combination of output color separation image information that yields a color system value that is the same as or close to the value of the color system, the color system value obtained for each combination of a plurality of output color separation image information. When the output colorimetric reproduction range is wider than the input colorimetric reproduction range based on the values of the color system determined for each combination of multiple input color separation image information, the Input end color again 1! The value of the color system obtained for the combination of input color separation W image information is expanded and mapped so that the range is expanded, and the output that obtains the same value of the color system as the value of the color system that has been expanded and mapped. This is to find a combination of color separated image information.

また、上述のよに拡大写像をする隙、例えば、明度方向
に関してはレンジを合わせるように線形または非線形に
写像変換すると共に、彩度方向に関しては入出力側の色
再現範囲の重なる部分の中央部は写像変換せず、その周
辺部のみを写像変換するものである。
In addition, for example, in the brightness direction, mapping is performed linearly or non-linearly to match the range, and in the saturation direction, the center of the overlapping color reproduction range on the input and output side is does not perform mapping transformation, but only its peripheral portion.

[作 用] 上述方法によれば、出力色再現範囲が入力色再現範囲よ
り広い場合には、入出力側の色再現範囲の比に応じて入
力色再現範囲が拡大するように、入力色分解画像情報の
組み合わせに対して求められた表色系の値を拡大写像し
、この拡大写像した表色系の値に対応させて出力色分解
画像情報の組み合わせを求めるようにしているので、求
められる出力色分解画像情報による色再現は出力色再現
範囲全体をカバーするものとなり、充分な明度や彩度を
再現できるものとなる。
[Operation] According to the above method, when the output color reproduction range is wider than the input color reproduction range, the input color separation is performed so that the input color reproduction range is expanded according to the ratio of the input and output color reproduction ranges. The values of the color system obtained for the combination of image information are enlarged and mapped, and the combination of output color separation image information is obtained in correspondence with the values of the color system that have been enlarged. Color reproduction based on output color separation image information covers the entire output color reproduction range, and can reproduce sufficient brightness and saturation.

[実  施  例] 以下、この発明の一実施例として、カラー印刷用のY、
  M、  C,Kの画像データに対応するカラーテレ
ビデイスプレィのR,G、  Hの画像データを得る場
合について、図面を参瞭しながら説明すここで、Y、 
 M、  C,K% R,G、  Bの画像データは、
いずれも8ビツトで0〜265の値をとるものとする。
[Example] Hereinafter, as an example of the present invention, Y for color printing,
With reference to the drawings, we will explain how to obtain R, G, and H image data for a color television display that corresponds to M, C, and K image data.
M, C, K% R, G, B image data is
Both are 8 bits and take values from 0 to 265.

第1図は、Y、  M、  C,Kの画像データに対応
するR、  G、  Bの画像データを得るようにした
色分解画像修正装置を示すものである。
FIG. 1 shows a color separation image correction apparatus which obtains R, G, and B image data corresponding to Y, M, C, and K image data.

同図において、イエローY、マゼンタM、シアンC、ス
ミにの画像データ(印刷データ)は第1の色変攬手段を
構成するルックアップテーブル211〜213に供給さ
れて、イエローY′、マゼンタM′、シアンC′の画像
データ(圧縮印刷データ)に変換される。  また、こ
の圧縮印刷データY’、M’、C’はカラーマスキング
装置220に供給されて、赤R9緑G、青Bの画像デー
タ(表示データ)に変換される。
In the same figure, image data (print data) for yellow Y, magenta M, cyan C, and ink are supplied to lookup tables 211 to 213 constituting the first color changing means, and the image data for yellow Y', magenta M ', cyan C' image data (compressed print data). Further, the compressed print data Y', M', and C' are supplied to the color masking device 220 and converted into red R9 green G and blue B image data (display data).

ルックアップテーブル211〜213には、圧縮印刷デ
ータY’、M’、C’がそれぞれ格納されており、印刷
データ(YとK)、 (MとK)および(C&W)によ
ってそれぞれの圧縮印刷データY’、M’、C’が金層
される。
Lookup tables 211 to 213 store compressed print data Y', M', and C', respectively, and each compressed print data is Y', M', and C' are gold layered.

このY’、M’  C’の画像データは、以下の方法で
作成される。
The image data of Y', M' and C' are created by the following method.

■まず、8ビツトのY’、M’、C’の画像データによ
る各組み合わせによるカラーパッチを測色し、X、  
Y、  Z表色系の値を求め、さらにL京u”、v車表
色系の埴を求める。
■First, color patches are measured for each combination of 8-bit Y', M', and C' image data, and
Find the values of the Y and Z color systems, and further find the values of the Lkyo u'' and v car color systems.

この場合、Y’、M’。C′の画像データの各々に対し
て、0.64. 128. 192.255の5つの量
子化レベルをとり、これらの各組み合わせによる色(5
X5X5= 125)のカラーパッチを作成する(第2
図に図示)。
In this case, Y', M'. For each of the image data of C', 0.64. 128. 192.255 quantization levels are taken, and the color (5
Create a color patch of x5x5=125 (second
(Illustrated in the figure).

そして、カラーパッチを測色計で測定し、以下のように
X、  Y、  Z表色系の埴を求め、さらにL本、0
本、■本表色系の値を求める。
Then, measure the color patch with a colorimeter, obtain the X, Y, and Z color system hani as shown below, and further measure L pieces, 0 pieces.
Book, ■Calculate the value of this color system.

二こで、5X5X5= 125の中間を内挿処理して9
X9X9=729にする。9X9X9=729の色のカ
ラーパッチを印刷して測色してもよいが、測定数が多く
なり時間がかかる。
Now, interpolate the middle of 5X5X5=125 and get 9
Set X9X9=729. Color measurement may be performed by printing color patches of 9×9×9=729 colors, but this requires a large number of measurements and takes time.

二のようにしてL本、0本、■車表色系の値がY’、M
’、C’の画像データによる9X9X9=729の色に
ついて求まる。第3図は、その値をL本、u*、  v
*表色系に示したものであり、以下これを印刷の色立体
と呼ぶことにする。
As shown in 2, L lines, 0 lines, ■ car color system values are Y', M
9X9X9=729 colors based on the image data ', C' are determined. Figure 3 shows the values L, u*, v
*This is shown in the color system, and will hereinafter be referred to as the color solid of printing.

■次に、Y、  M、  C,Kの画像データの各組み
合わせによるカラーパッチを測色し、X、  Y、  
Z表色系の値を求め、さらにL車、u*、v車表色系の
値を求める。
■Next, color patches based on each combination of Y, M, C, and K image data are measured, and X, Y,
The values of the Z color system are determined, and the values of the L car, u*, and v car color systems are also determined.

この場合、等量のY、  M、  Cについては0.6
4.128,192.255の5つの量子化レベルをと
ると共に、それぞれに対してKの画像データも0.64
.128,192.255のレベルをとってカラーバ・
ソチを作成する。つまり、第4図に示すように、5X5
=26のカラーパッチが作成される。
In this case, for equal amounts of Y, M, and C, 0.6
In addition to taking five quantization levels of 4.128 and 192.255, the image data of K is also 0.64 for each.
.. Take the level of 128,192.255 and move to Karaba.
Create Sochi. In other words, as shown in Figure 4, 5X5
=26 color patches are created.

そして、このカラーパッチを、■の処理と同様に、測色
し、X、  Y、  Z表色系の埴を求め、さらにL本
、u*、v車表色系の値を求める。
Then, this color patch is colorimetrically measured in the same way as in the process (2), and the values of the X, Y, and Z color systems are determined, and the values of the L, u*, and v color systems are also determined.

■次に、■で求められたL本、0本、■本表色系の埴に
対応するY′。M’、C’の画像データの組み合わせを
算出する。
■Next, Y' corresponding to the L pieces, 0 pieces, and clay of this color system obtained in ■. A combination of image data of M' and C' is calculated.

すなわち、Y、  M、  CとKとの各組み合わせの
色(5X5=25)に対応して求められたし*U本、■
車表色系の値を目標値T′として与え、収束演算によっ
てY’、M’、C’の値を求める。
In other words, it was found corresponding to each color combination of Y, M, C and K (5X5=25).
The value of the vehicle color system is given as the target value T', and the values of Y', M', and C' are determined by convergence calculation.

簡単のため、基本色を2色(例えば、Y’、M’)とし
て説明する。
For the sake of simplicity, the description will be made assuming that there are two basic colors (for example, Y', M').

第5t!IC!Y、M座標系であり、■の処理によって
各格子点(W4えば5X5=25個)をL本、U本V京
表色系に写像すると、第611!Iに示すようになる。
5th t! IC! It is a Y, M coordinate system, and if each lattice point (for example, W4, 5X5 = 25) is mapped to L, U, and V-kyo color systems using the process described in (2), the 611th! It becomes as shown in I.

第7図は、■の処理によってY、  M、  CとKと
の細み合わせ(5X5=25AI)をL *+  u車
V車表色系に写像したものである。
FIG. 7 shows the mapping of the fine adjustment of Y, M, C, and K (5X5=25AI) to the L*+ U-car V-car color system by the process (■).

まず、Y、  M、  CとKとの画像データの各組み
合わせに対するL*、u’+  v’表色系の値が、口
標1111T’として与えられる(第6図および第7図
参N)。
First, the values of the L*, u'+v' color system for each combination of image data of Y, M, C and K are given as the index mark 1111T' (see Figures 6 and 7, N). .

この場合、目標値T′が、第6図に示すように格子点a
′〜d′で囲まれる領域内にあるとき、Y、  M座標
系におけるY’、M’の組み合わせ(目標!fiT)は
、第5図に示すように格子点a−dで囲まれる領域内に
あるものと推定される。
In this case, the target value T' is set at the grid point a as shown in FIG.
' to d', the combination of Y' and M' in the Y, M coordinate system (target!fiT) is within the area surrounded by grid points a to d, as shown in Figure 5. It is estimated that the

そして、目標値Tが格子点a〜dによって形成される領
域のとこにあるかは、第6図の表色系を第5図の座標系
に対応付けながら、収束演算処理をして求める。このよ
うに収束演算処理をするのは、第6図の座標系から第6
図の表色系への変換が既知であるにも拘らず、この逆の
変換は非常に複雑で、未だ良好な変換式が知られていな
いためである。
Whether the target value T is in the area formed by the grid points a to d is determined by performing convergence calculation processing while associating the color system of FIG. 6 with the coordinate system of FIG. 5. The convergence calculation process is performed from the coordinate system shown in Figure 6 to the 6th coordinate system.
This is because although the conversion to the color system of the figure is known, the reverse conversion is very complicated and no good conversion formula is known yet.

目標WIT’が25個の格子点(第6図参照)によって
形成される複数の領域のうちどの領域にあるかを求める
。第9図に示すように領域SO′にあるときには、第8
図に示すように目標値Tは領域SO′に対応した領域S
Oにあるものと推定する。
It is determined in which region the target WIT' is located among a plurality of regions formed by 25 grid points (see FIG. 6). As shown in FIG. 9, when it is in the area SO', the eighth
As shown in the figure, the target value T is the area S corresponding to the area SO'.
It is assumed that it is located at O.

次に、推定された領域SOを4つの領域Sl〜S4に等
分する。51の分割点e〜iは既に求められている開開
の格子点を利用して重み平均によって算出する。そして
、この分割点e〜1に対応する値をL本、0本、V本表
色系に変換したときの値を第9図の表色系にプロットし
、プロットされた分割点e′〜i′によって形成された
4つの領域S1′〜S4’のうちどの領域に目標111
7’があるかを求める。第9図に示すように領域S2’
にあるときには、第8図に示すように目標値Tは領域S
2’に対応した領域S2にあるものと推定する。
Next, the estimated area SO is equally divided into four areas Sl to S4. The 51 division points e to i are calculated by weighted averaging using the open/open grid points that have already been found. Then, the values obtained by converting the values corresponding to this dividing point e~1 into the L-line, 0-line, and V-line color systems are plotted on the color system shown in FIG. 9, and the plotted dividing points e'~ In which area is the target 111 located among the four areas S1' to S4' formed by i'?
Find out if there is 7'. As shown in FIG. 9, the area S2'
When the target value T is in the area S as shown in FIG.
It is estimated that it is in the area S2 corresponding to 2'.

次に、推定された領域S2を4つの領域55〜S8に等
分する。51ilの分割点j〜nは既に求められている
周囲の格子点および分割点を利用して重み平均によフて
算出する。そして、この分割点j−nに対応する値をL
車、u*。V木表色糸に変換したときの値を第9図の表
色系にプロットし、プロットされた分割点j′〜n′に
よって形成された4つの領域S5’〜S8’のうちどの
領域に目標値T′があるかを求める。第9図に示すよう
にl域S8’にあるときには、第8図に示すように目標
111[Tは領域S8’に対応した領域S8にあるもの
と推定する。
Next, the estimated area S2 is equally divided into four areas 55 to S8. The division points j to n of 51il are calculated by weighted averaging using the surrounding grid points and division points that have already been determined. Then, the value corresponding to this dividing point j−n is L
car, u*. Plot the values when converted to V wood surface color thread on the color system shown in Fig. 9, and determine which region among the four regions S5' to S8' formed by the plotted division points j' to n'. Determine whether there is a target value T'. When the target 111 [T is in the region S8' as shown in FIG. 9, it is estimated that the target 111[T is in the region S8 corresponding to the region S8' as shown in FIG.

次に、推定された領域S8を4つの領域89〜S12に
等分する。5個の分割点0〜Sは既に求められている周
囲の格子点および分割点を利用して重み平均によって算
出する。そして、この分割点o”−sに対応する埴をL
木、U木、■本表色系に変喚したときの値を第9図の表
色系にプロットし、プロットされた分割点0′〜S′に
よって形成された4つの領域S9’〜S12′のうちど
の領域に目標IJT’があるかを求める。第9図に示す
ように領1aS10’にあるときには、第8図に示すよ
うに目標値Tは領域S 10’に対応した領域SlOに
あるものと推定する。
Next, the estimated region S8 is equally divided into four regions 89 to S12. The five division points 0 to S are calculated by weighted averaging using the surrounding grid points and division points that have already been determined. Then, the clay corresponding to this division point o”-s is L
Tree, U tree, ■ Plot the values when transformed into this color system on the color system in Figure 9, and create four areas S9' to S12 formed by the plotted division points 0' to S'. Find out in which region of ' the target IJT' is located. When the target value T is in the region 1aS10' as shown in FIG. 9, it is estimated that the target value T is in the region SIO corresponding to the region S10' as shown in FIG.

このような領域の分割を繰り返すことによって格子は次
第に小さくなり、ついには収束する。そして、収束した
領域を形成する4つの格子点あるいは分割点を平均する
ことによって目標[Tになる基本色の組み合せが求めら
れる。
By repeating this region division, the grid becomes smaller and smaller until it finally converges. Then, by averaging the four lattice points or division points forming the converged area, a combination of basic colors that yields the target [T] is obtained.

以上のようにして求められたY、  M、  C等量と
Kとの組み合せに対するY’、M’、C’の値を用いて
、Yと■(からY′を、N1とKからM′を、CとKか
らC′を求めるようにしてY、  M、  C。
Using the values of Y', M', and C' for the combination of Y, M, and C equivalences and K obtained in the above manner, , and find C' from C and K. Y, M, C.

KからY’、M’、C’への変喚を行なうことになる。The transformation from K to Y', M', and C' will be carried out.

■以上のようにしてY、  M、  CとKの0.64
゜128.192.255の量子化レベルの繕み合せに
対するY’、M’、C’の画像データが得られるが、そ
の他の量子化レベルに対応したY′M’、C’の画像デ
ータは、内挿処理によって補間する。
■As above, Y, M, C and K are 0.64
Y', M', and C' image data for the combination of quantization levels of ゜128.192.255 are obtained, but Y'M' and C' image data corresponding to other quantization levels are , interpolation is performed using interpolation processing.

すなわち、補間処理は、補間すべき点を含む4つの格子
点のデータに基づいて行なわれる。そして、この補間処
理に際しては、第10図に示すように、入力(Y、K)
が与えられたとき、それを囲む4つの格子点による重み
平均をとる。例えば、0点であれば、格子点el  f
、  L  hの各点の出力に重み係数を掛けて、U′
点を求める。
That is, the interpolation process is performed based on data of four grid points including the point to be interpolated. In this interpolation process, as shown in FIG.
When given, take the weighted average of the four grid points surrounding it. For example, if the point is 0, the grid point el f
, L h by multiplying the output of each point by the weighting coefficient to obtain U'
Find points.

以上の補間処理が格子点を除くθ〜255の量子化レベ
ルの各点について行なわれ、入力(Y。
The above interpolation process is performed for each point of quantization level of θ to 255 excluding the grid points, and input (Y.

K)の全ての点に対応したY′の画像データが算出され
る。
Image data of Y' corresponding to all points of K) is calculated.

人力(M、K)、 (C,K)の全ての点に対応したM
’  C’に間しても同様にして算出される。
M that corresponds to all points of human power (M, K) and (C, K)
It is calculated in the same way for 'C'.

以上の■〜■の処理によって求められるY′M′および
C′の画像データが、それぞれルックアップテーブル2
11.212および213に格納され、 (Y、K)、
 (M、K)お、[(C,K)でそれぞれ参照されるこ
とになる。
The image data of Y'M' and C' obtained by the above processing of
11. Stored in 212 and 213, (Y, K),
They will be referenced as (M, K) and [(C, K), respectively.

また、第1図におけるカラーマスキング装置220内に
は、圧縮印刷データY’、M’、C’より表示データR
,G、  Elを得るのにルックアップテーブルを備え
ることが考えられる。つまり、このルックアップテーブ
ルには表示データR,G。
Furthermore, in the color masking device 220 in FIG.
, G, and El, it is conceivable to provide a lookup table. In other words, this lookup table contains display data R and G.

Bが格納され、圧縮印刷データY’、M’、C’によっ
て表示データR,G、  Bが参照されることになる。
B is stored, and display data R, G, and B are referenced by compressed print data Y', M', and C'.

このR,G、  Bの画像データは、以下の方法で作成
される。
This R, G, and B image data is created by the following method.

■まず、R,G、  Bの画像データの各組み合わせに
よるカラーパッチをテレビデイスプレィに表示して測色
し、X、  Y、  Z表色系の+illを求め、さら
にL本、u*、v京表色系の値を求める。
■First, display color patches based on each combination of R, G, and B image data on a TV display, measure the colors, calculate +ill for the X, Y, and Z color systems, and then calculate the L colors, u*, and v. Find the value of Kyoto color system.

この場合、R,G、  Bのsitデータの各々に対し
て、0. 64. 128. 192. 255の5つ
の量子化レベルをとり、これらの各組み合わせによる色
(5X5X5=125)を1色ずつテレビデイスプレィ
上に表示し、1色ずつ分光反射計を用いて測色し、以下
のようにX、  Y、  Z表色系の値を求め、さらに
L本、1本、V本表色系の値を求める。
In this case, for each of the R, G, and B sit data, 0. 64. 128. 192. 5 quantization levels of 255 are taken, and the colors resulting from each combination of these (5X5X5=125) are displayed one by one on a TV display, and each color is measured using a spectral reflectometer, as shown below. The values of the X, Y, and Z color systems are determined, and the values of the L, 1, and V color systems are determined.

二の式で、Xn、Yn、Znは標準の光D65のx、 
 yとなるようなX、  Y、  Zの値である。x。
In the second equation, Xn, Yn, and Zn are x of standard light D65,
These are the values of X, Y, and Z such that y. x.

yとX、  Y、  Zとの関係は次のようになる。The relationship between y, X, Y, and Z is as follows.

x=X/ (X+Y+Z)y=Y/ (X+Y+Z)D
65の値は、 x=0. 3!27、 y:0.329
0であるので、Xn、Yn、Znは次式を満足するもの
となる。
x=X/ (X+Y+Z)y=Y/ (X+Y+Z)D
The value of 65 is x=0. 3!27, y:0.329
Since it is 0, Xn, Yn, and Zn satisfy the following formula.

Xn / (Xn+Yn+Zn ) =0. 3127
Yn / (Xn+Yn+Zn )=0.3290Xn
、Yn、Znの絶対値のレベルを決定しなければならな
いが、X、  Y、  Zの測定値のレベルに合わせる
ようにするため、白色(R=Q=[3=255)を表示
したときのx、  y、  zの罐のYにYnをほぼ等
しくしている。
Xn/(Xn+Yn+Zn)=0. 3127
Yn/(Xn+Yn+Zn)=0.3290Xn
, Yn, and Zn, but in order to match the levels of the measured values of X, Y, and Z, Yn is approximately equal to Y of the x, y, and z cans.

なお、5X585=125の中間を内挿処理して9X9
X9=729にする。9X9X9=729の色を表示し
て測色してもよいが、測定数が多くなり時間がかかる。
In addition, by interpolating the middle of 5X585=125, 9X9
Set X9=729. Although 9X9X9=729 colors may be displayed and measured, the number of measurements increases and it takes time.

このようにしてL車、1本、■本表色系の値がR,G、
  B(7)画像データによる9X9X9=729の色
ζこついて求まる。このL車、1本、■本表色系の値を
、 L*out u* out v’out とする、111図は、その値をL車 U木 V本表色系
に示したものであり、以下これをテレビデイスプレィの
色立体と呼ぶことにする。
In this way, one L car, ■ the values of this color system are R, G,
B(7) Calculate 9X9X9=729 colors ζ based on image data. The values of this L car, 1 book, ■ book color system are L*out u* out v'out, and Figure 111 shows the values in the L car, U tree, V book color system. , hereinafter this will be referred to as the color solid of a television display.

0次に、■でY’ 、M’ 、C’の画像データの多結
み合わせのカラーバッチを測色して求めたL車U本、V
本表色系の値を用いて、Y’、M’  C’それぞれに
0. 8. 18.  ◆・−240,248の32の
量子化レベルをとフたときの、これらの各線み合わせに
よる色(32X32X32=32788)の5本、U車
、■本表色系の値を内挿処理による補間によって求める
0 Next, the L car U book and V
Using the values of this color system, set 0.0 to each of Y', M' and C'. 8. 18. ◆・When removing 32 quantization levels of -240,248, 5 colors (32X32X32=32788) resulting from the combination of these lines, U wheel, ■ Values of this color system are interpolated Obtained by interpolation.

この5本、1本、■京表色系の値を、 L’1nl u*1nl v”inl とする。The values of these five lines, one line, ■ Kyoto color system, L’1nl u*1nl v”inl shall be.

■次に、第12図に示すように、カラーハードコピーか
らカラーテレビデイスプレィへの色再現においては、■
の処理で求められる5本、U本V*表色系のk[L” 
out、  u*ouL  v’ outによる色再現
範囲(出力劉色再IjEi!囲)Loutは、一般に■
の処理で求められる5本、1本、■本表色系のiiL”
 inl、  u” inl、  v” inlによる
色再現範囲(入力測色再現範囲)Linより広くなる。
■Next, as shown in Figure 12, in color reproduction from a color hard copy to a color television display, ■
5 lines, U book V* color system k [L” obtained by processing
out, u*ouL v' Out color reproduction range (output color reproduction IjEi!) Lout is generally ■
5 lines, 1 line, ■ iiL of this color system obtained by the processing of
It is wider than the color reproduction range (input colorimetric reproduction range) Lin by inl, u'' inl, v'' inl.

そこで、入出力側の色再現範囲の比に応じて入力測色再
現範囲Linが拡大するように、■の処理で求められる
表色系の1lIL本in1.u車in1.  V本n+
を拡大写像する。
Therefore, in order to expand the input colorimetric reproduction range Lin according to the ratio of the color reproduction range on the input and output side, 1lIL books in 1. U car in1. V book n+
Enlarge and map.

本例においては、拡大写像をする隙、明度方向はレンジ
を合わせるように線形に写像変換すると共に、彩度方向
は人出力測色再fall!囲の重なる部分の中央部は写
像変換せず、その周辺部のみを写像変換する。
In this example, while enlarging mapping is performed, the lightness direction is linearly mapped to match the range, and the saturation direction is recalculated using human output colorimetry. The central part of the overlapping area is not mapped, but only the peripheral part is mapped.

この場合、5本、1本、V本表色系の値し本u*  v
 *を、次式によって明度り本 彩度0本および色相θ
に変換して写像変換を行なう。
In this case, the values of the 5-line, 1-line, and V-line color systems u* v
*, the brightness is calculated by the following formula, the saturation is 0, and the hue is θ.
, and perform mapping transformation.

く明度〉5本 く彩度>C*=   u   +v2 く色相〉θ=arc tan(u木/V本)〔明度方向
の変換〕 全体のレンジを合わせるように、次式によって線形に変
換する。
Lightness>5 Saturation>C*=u+v2 Hue>θ=arc tan (u tree/V book) [Conversion in lightness direction] Linear conversion is performed using the following equation so as to match the entire range.

X(L京 1nf−L束 inlwin)+ L’ o
utminここて、L車inlは変換前の明度の値、L
京りn!は変換後の明度の値である。
X (Lkyo 1nf-L bundle inlwin) + L' o
utmin here, L car inl is the brightness value before conversion, L
Kyori n! is the brightness value after conversion.

またs  L ” outaaxおよびL ” out
minは、それぞれ出力銅色再現範囲LoutOL京軸
上の最大値および最小値である(第131!!参N )
 a  L ” out+waxは・R=G=B=25
5でテレビデイスプレィに表示される白色を測色したと
きのし本outの値である。
Also s L ” outaax and L ” out
min is the maximum value and minimum value on the output copper color reproduction range LoutOL axis (No. 131!! Part N)
a L” out+wax is・R=G=B=25
This is the out value when colorimetrically measuring the white color displayed on the television display in 5.

L本outsinは、R=G=B=0てテレビデイスプ
レィに表示される黒色を測色したときのし京outの値
である。
L outsin is the value of out when the black color displayed on the television display is measured with R=G=B=0.

さらに、 L本 inlwaxおよびL” inlwi
nは、 それぞれ入力端色再現範囲LinのL車軸上の
最大値および最小値である(第13図参照)。L本in
1maxは、Y=M=C=0で白地のカラーパッチを測
色したときのL本inlの値である。L車in1min
は、Y=M=C=255て1廟される黒色のカラーバ・
ソチを測色したときのL”inlの罐である。
In addition, L books inlwax and L” inlwi
n is the maximum value and minimum value on the L axle of the input end color reproduction range Lin, respectively (see FIG. 13). L book in
1max is the value of L inl when a white color patch is measured with Y=M=C=0. L car in 1 min
is the black color of Karaba, which is built as a mausoleum with Y=M=C=255.
This is the L"inl can when colorimetrically measured in Sochi.

[彩度方向の変換] 明度を上述したように変換したのち、U本inl 。[Saturation direction conversion] After converting the brightness as described above, U inl.

V車inlによる彩度C*inlを、彩度0本in2に
変換する。
Convert the saturation C*inl due to V car inl to saturation 0 line in2.

この場合、入力端色再現範囲Lin内で、変換しようと
する彩度C”inlに対応する明度および色相での彩度
の最大値C”1rvaxおよびその2/3のIdlC*
in2/3を求める(第14図参照)。
In this case, within the input end color reproduction range Lin, the maximum value C"1rvax of saturation at the lightness and hue corresponding to the saturation C"inl to be converted and IdlC* of 2/3 of it
Find in2/3 (see Figure 14).

また、出力測色再現範囲Lout内で、変換しようとす
る彩度C”inlに対応する明度および色相での彩度の
最大値C” outsaxを求める(第14図書wl)
Also, within the output colorimetric reproduction range Lout, find the maximum value C'' outsax of saturation at the lightness and hue corresponding to the saturation C''inl to be converted (Book 14 wl)
.

そして、次のように彩度C”in2を求める。Then, the saturation C''in2 is determined as follows.

C”inl ≦C車in2/3のときには、C” in
2 =C” inl とし、C” inl >C本in2/3のときには、X
(C”1nl−C本 in2/3)  + C*in2
/3とする。
When C”inl ≦C car in2/3, C”inl
2 = C" inl, and when C" inl > C books in 2/3, X
(C"1nl-C book in2/3) + C*in2
/3.

なお、C*1rvax  (Y’、  M’+  C’
 )は次のようにして求める*  C”outsax(
R,c、  B)も同様にして求めることができる。
In addition, C*1rvax (Y', M'+ C'
) is calculated as follows: *C”outsax(
R, c, B) can be obtained in the same way.

すなわち、Y’、M’、C’の画像データの各組み合わ
せについてのL本、U車、V本表色系の値のうち、色立
体の外面となる組み合わせの値のみを明度り本、彩度0
本 色相θに変換してメモリに格納しておく、因みに、
色立体の外面になる面は8面あり、それはY’  M’
、C’の!i画像データいずれかがOまたは最大になる
面である。
That is, among the values of the L, U, and V color systems for each combination of Y', M', and C' image data, only the values of the combination that forms the outer surface of the color solid are brightened, colored, and degree 0
Convert it to hue θ and store it in memory, by the way,
There are 8 surfaces that become the outer surfaces of the color solid, and they are Y'M'
,C''s! This is the surface where either i image data is O or maximum.

そして、第15図に示すように、変換しようとする彩度
0本inlに対応する明度り本および色相θが含まれる
格子上の位置を探しだし、その周囲の4点の彩度0本の
値から重み付は平均してC本II l a Xを求める
Then, as shown in Fig. 15, find the position on the grid that includes the lightness value and hue θ corresponding to the chroma 0 line inl to be converted, and then The weighted values are averaged to obtain C book II l a X.

以上のようにして、求められた明度L*in2、彩度C
車in2  (色相θは変化せず)をL本、U本V本表
色系の値に変換する。これにより■の処理で求められた
L”iu本、■本表色系のmLLinl *u” in
l、  v” inl はL* in2.  u’ i
n2.  v車量n2に拡大写像される。
As described above, the brightness L*in2 and the saturation C
Car in2 (hue θ does not change) is converted into values in the L-book, U-book, and V-book color systems. As a result, the L"iu book obtained by the processing in ■, the mLLinl *u" in this color system.
l, v” inl is L* in2. u' i
n2. It is enlarged and mapped to the v vehicle amount n2.

■次に、■で求められたL本、1本、Vx表色系のti
L’ in2.u” in2.v本in2に対応するR
、  G、  Bの画像データの組み合わせを算出する
■Next, L book obtained in ■, 1 book, ti of Vx color system
L'in2. u” in2.R corresponding to v book in2
, G, B image data combination is calculated.

すなわち、Y’、M’  C’の各組み合わせの色(3
2X32X32=32768)に対応して求められたL
” inL  u” in2.v本in2を、テレビデ
イスプレィの色立体(第11図に図示)に目標値T′と
して与え、収束演算によってY′M’、C’の各組み合
わせに対するR、  G、  Bの値を求める。収束演
算は、上述の第5図〜第9図で説明したと同様であるの
で、説明は省略する。
In other words, the colors of each combination of Y', M' and C' (3
2X32X32=32768)
"inL u" in2. v in2 is given as the target value T' to the color solid of the television display (shown in FIG. 11), and the values of R, G, and B for each combination of Y'M' and C' are determined by convergence calculation. Since the convergence calculation is the same as that explained in FIGS. 5 to 9 above, the explanation will be omitted.

以上の■〜■の処理によって求められるY′M’、C’
の画像データの各組み合せに対するRlG、  Bの画
像データがカラーマスキング装置220内のルックアッ
プテーブル(LUT)に格納され、Y’  M’、C’
の画像データでそれぞれ参照されることになる。
Y'M', C' obtained by the above processing of ■ to ■
RlG, B image data for each combination of image data are stored in a look-up table (LUT) within the color masking device 220, and Y'M',C'
will be referenced by the image data of each.

つぎに、Y’、M’、C’の画像データよりRoG、 
 Bの画像データを得るカラーマスキング装置220の
一例について説明する。
Next, from the image data of Y', M', and C', RoG,
An example of the color masking device 220 that obtains B image data will be described.

ところで、LUTに全てのY′。M’、C’の画像デー
タの組み合わせに対応するR、  G、  Bの画像デ
ータを格納するとすれば、LUTの容量が膨大となる。
By the way, all Y' in LUT. If R, G, and B image data corresponding to the combination of M' and C' image data are to be stored, the capacity of the LUT will be enormous.

そこで、本出願人は、メモリ容量の削減化を図るため、
Y’、M’  C’の画像データで形成される色空間を
複数の基本格子に分割し、LUTにはその頂点に位置す
るY’、M’、C’の画像データの組み合わせに対する
R、  G、  Bの画像データを格納し、Y’、M’
、C’の画像データの組み合わせに対するR、  G、
  Hの画像データが存在しないときには、このY’、
M’、C’の画像データ(補間点)が含まれる基本格子
の頂点のRoG、  Bの画像データの重み平均によっ
てR,G。
Therefore, in order to reduce the memory capacity, the applicant has
The color space formed by the image data of Y', M', and C' is divided into a plurality of basic grids, and the LUT contains R and G for the combination of the image data of Y', M', and C' located at the vertices. , store the image data of B, and store the image data of Y', M'
, C' for the combination of image data R, G,
When the image data of H does not exist, this Y',
RoG of the vertices of the basic lattice that includes the image data (interpolation points) of M' and C', and R and G by weighted average of the image data of B.

Bの画像データを得ることを提案した。We proposed to obtain image data of B.

この意味で、上述したようにY’、M’  C’の画像
データの32X32X32=32768個の組み合わせ
に対応するR、  G、  Bの画像データのみが求め
られ、これがLUTに格納される。
In this sense, as described above, only R, G, and B image data corresponding to 32X32X32=32768 combinations of Y', M', and C' image data are obtained and stored in the LUT.

例えば、第16図に示すように、頂点A−Hで構成され
る基本格子内に補間点Pが存在する場合には、それぞれ
その頂点に対して対角+1lilの頂点と補間点Pとで
作られる直方体の体積が、頂点A〜HのR,G、  B
の画像データに対する重み係数として使用される。
For example, as shown in Fig. 16, if there is an interpolation point P in the basic grid consisting of vertices A-H, then the interpolation point The volume of the rectangular parallelepiped is R, G, B of vertices A to H.
is used as a weighting factor for image data.

すなわち、この補間点Pが含まれる基本格子の頂点A〜
HのR,G、  Hの画像データをRi、  Gi、B
i  (i=1〜8)、頂点A−HのR,G。
That is, the vertices A~ of the basic lattice that include this interpolation point P
R, G of H, image data of H as Ri, Gi, B
i (i=1-8), R, G of vertices A-H.

Bの画像データに対する重み係数をAi  (i=1〜
8)とすれば、補間点PのR,G、  Bの画像データ
Rp、Gp、Bpは次式によって算出される。
The weighting coefficient for the image data of B is Ai (i=1~
8), the R, G, and B image data Rp, Gp, and Bp at the interpolation point P are calculated by the following equations.

Rp = (1/1.”、A i )、i’、A i 
RiGp = (1/、3:、Ai )、:、At G
Bρ=(]<よ、Ai )J:Ai Bi・ ・ ・ 
(1) このような補間処理では、補間点のR,G、  Bの画
像データRp+  Gpt  Bpを算出する場合には
、それぞれについて8回の乗算累積処理が必要となる。
Rp = (1/1.”, A i ), i', A i
RiGp = (1/, 3:, Ai),:, At G
Bρ=(]<yo, Ai) J:Ai Bi...
(1) In such an interpolation process, when calculating R, G, and B image data Rp+Gpt Bp at the interpolation point, eight multiplication and accumulation processes are required for each.

本出願人は、この乗算累積処理の回数を少なくできる補
間処理を提案した。
The present applicant has proposed an interpolation process that can reduce the number of times this multiplication and accumulation process is performed.

第17t!Iに示すように、頂点A−Hで構成される基
本格子に対して、1点鎖線によって計6個の五角錐が形
成される。補間点Pの座標が(5,j。
17th t! As shown in I, a total of six pentagonal pyramids are formed by one-dot chain lines for the basic lattice composed of vertices A-H. The coordinates of interpolation point P are (5, j.

2)であるときには、この補間点Pは第18図に示すよ
うに頂点A、  B、  C,Cによって形成される三
角*Tに含まれることわかる。
2), it can be seen that this interpolation point P is included in the triangle *T formed by vertices A, B, C, and C, as shown in FIG.

三角*Tが決定されると、118図に示すように、次に
補間点Pと頂点A、  B、  C,Gとが結ばれて、
!−)411i1の新たな五角錐が形成され、それぞれ
の体積V 8CGP、  V ACGP、  V AB
GP。V A[lCPカ求2ibられる。これらの体積
と頂点A、  B、  C,GのR2O,B(7)I1
mデータRA 〜RG、GA 〜GG、BA〜BGとか
ら、補間点PのR,G、  Bの画像データRt+、G
p、Bpは次式によって算出される。
Once the triangle *T is determined, as shown in Figure 118, the interpolation point P is then connected to the vertices A, B, C, and G.
! -) A new pentagonal pyramid of 411i1 is formed, with respective volumes V 8CGP, V ACGP, V AB
G.P. V A [lCP force 2ib is obtained. These volumes and vertices A, B, C, G R2O, B(7)I1
From m data RA ~RG, GA ~GG, BA ~BG, image data Rt+, G of R, G, B of interpolation point P
p and Bp are calculated by the following formula.

V ABCGは五角錐Tの体積である。V ABCG is the volume of the pentagonal pyramid T.

Rp = 1 / VABCG (V8CGP争RA+
 VACGP−RB+VABGPφRC+VABCP−
RG)Gp = 1 / VABCG (VBCGP−
GA+vACGP−GO+VABGP−GC+VABC
P−CG)Bp = 1 /VABCG (VBCGP
帝BA+ VACGP−Be + VABGP−BC+
 VABCP−BG )・ ・ ・ (2) 補間点Pの座標が異なれば、使用する三角11Tも異な
ることになる0例えば、補間点Pの座標が、P(3,1
,5)であるときには、この補間点Pは、第19図に示
すように、頂点A、  C,D、  Gによって形成さ
れる五角錐Tに含まれるので、この五角錐Tが使用され
る。
Rp = 1 / VABCG (V8CGP dispute RA+
VACGP-RB+VABGPφRC+VABCP-
RG) Gp = 1 / VABCG (VBCGP-
GA+vACGP-GO+VABGP-GC+VABC
P-CG) Bp = 1 /VABCG (VBCGP
Tei BA+ VACGP-Be + VABGP-BC+
VABCP-BG)・・・・(2) If the coordinates of the interpolation point P are different, the triangle 11T used will also be different. For example, if the coordinates of the interpolation point P are P(3,1
, 5), this interpolation point P is included in the pentagonal pyramid T formed by the vertices A, C, D, and G, as shown in FIG. 19, so this pentagonal pyramid T is used.

このように、五角錐を利用しての補間処理では、4回の
乗算累積処理によって補間点のR,G、  Bの画像デ
ータRp、Gp、Bpを算出できる。
In this way, in the interpolation process using a pentagonal pyramid, the R, G, and B image data Rp, Gp, and Bp at the interpolation point can be calculated by four times of multiplication and accumulation processing.

第20図はカラーマスキング装置の具体構成例である。FIG. 20 shows an example of a specific configuration of a color masking device.

同図において、20は色修正データ記憶手段であり、こ
の記憶手段20を構成するルックアップテーブル(ML
UT)21 R〜21Gには、それぞれR,G、  B
の色修正データが格納される。
In the same figure, reference numeral 20 denotes a color correction data storage means, and a lookup table (ML
UT) 21R to 21G have R, G, and B, respectively.
color correction data is stored.

ところで、MLUT21 R〜21Gとしては、例えば
256にビット容量のROMが使用され、上述したよう
にY’、M’  C’の画像データの最小レベルから最
大レベルまでの間の32点だけが抽出され、MLUT2
1R〜21Bのそれぞれには32X32X32=327
68点の画像データが格納される。
By the way, as MLUT21R to 21G, for example, a 256-bit capacity ROM is used, and as mentioned above, only 32 points between the minimum level and the maximum level of the image data of Y', M'C' are extracted. , MLUT2
32X32X32=327 for each of 1R to 21B
Image data of 68 points is stored.

この場合、Y’、M’、C’の画像データは8ビツトで
あり、25eRI調を有しており、32点の配分は、例
えば0から順に「8」ずつ区切って0、 8. 16.
  φΦ・、240.248の合計321[1となるよ
うに等分に行なわれ、33点目となる249以上255
までは使用されないか、若しくは24日として扱われる
In this case, the image data of Y', M', and C' are 8 bits and have a 25eRI tone, and the distribution of 32 points is, for example, divided into "8" units starting from 0 and divided into 0, 8, . 16.
φΦ・, 240.248 is divided into equal parts so that the total is 321 [1, and the 33rd point is 249 or more 255
Until the end of the day, it will not be used or it will be treated as the 24th.

このような各配分点の、つまり基本格子間隔が8量子化
レベルである基本格子の頂点のR,G。
R and G of each such distribution point, that is, the vertices of the basic lattice whose basic lattice spacing is 8 quantization levels.

Bの画像データが上述した■〜■の処理で算出され、こ
の算出された画像データがMLUT21R〜21Hに格
納される。
The image data of B is calculated by the above-mentioned processes 1 to 2, and the calculated image data is stored in the MLUTs 21R to 21H.

また、60は重み係数記憶手段を構成するルックアップ
テーブル(WLUT)である。WLUT60には、各補
間点に対応した重み係数が格納される。
Further, 60 is a look-up table (WLUT) constituting the weighting coefficient storage means. The WLUT 60 stores weighting coefficients corresponding to each interpolation point.

立方体を利用しての補間処理の場合、上述したように基
本格子間隔が8量子化レベルであるとき、8回の重み係
数の合計は、 8X8X8=512 となるが、これが256となるように正規化される。ま
た、WLUT60として、8ビツトの汎用ICを使用で
きるように、重み係数の最大値は256とされる。例え
ば、補間点Pが、第16図の頂点Aと同じ位置にあった
場合、重み係数P1〜P8は次のようになる。
In the case of interpolation processing using a cube, when the basic lattice spacing is 8 quantization levels as described above, the sum of the 8 weighting coefficients is 8X8X8=512, but this is normalized to 256. be converted into Further, the maximum value of the weighting coefficient is set to 256 so that an 8-bit general-purpose IC can be used as the WLUT 60. For example, when the interpolation point P is at the same position as the vertex A in FIG. 16, the weighting coefficients P1 to P8 are as follows.

Pl、 P2. Pa、 Pa、 P5. Pa、 P
7. P8255、0  、0  、0  、0  、
0  、0  、1(512,0,0,0,0,0,0
,0)となり、重み係数の総和は、常に256となる。
Pl, P2. Pa, Pa, P5. Pa, P
7. P8255, 0 , 0 , 0 , 0 ,
0, 0, 1 (512, 0, 0, 0, 0, 0, 0
, 0), and the sum of the weighting coefficients is always 256.

また、三角錐を利用しての補間処理の場合、上述したよ
うに基本格子間隔が8量子化レベルであるとき、4回の
重み係数の合計は、 5x8x8=512/6 となるが、これが256となるように正規化される。ま
た、WLUT60として、8ビツトの汎用ICを使用で
きるように、重み係数の最大値は255とされる0例え
ば、補間点Pが、第17図の頂点Aと同じ位置にあった
場合、重み係数V BCGP。
In addition, in the case of interpolation processing using a triangular pyramid, when the basic grid spacing is 8 quantization levels as described above, the sum of the four weighting coefficients is 5x8x8=512/6, which is 256 It is normalized so that In addition, so that an 8-bit general-purpose IC can be used as the WLUT 60, the maximum value of the weighting coefficient is set to 255. For example, if the interpolation point P is at the same position as the vertex A in FIG. VBCGP.

V ACGP、  V ABGP、  V ABCPは
次のようニする。
V ACGP, V ABGP, and V ABCP are as follows.

V BCGP、  V ACGP、  V ABGP、
  V ABCP255、   0.   0.   
1(512/6.   0  、   0  、   
0)となり、重み係数の総和は、常に256となる。
V BCGP, V ACGP, V ABGP,
V ABCP255, 0. 0.
1 (512/6. 0, 0,
0), and the sum of the weighting coefficients is always 256.

Y’  M’、C’の画像データは、アドレス信号形成
手段40を構成するルックアップテーブル<PI、LI
T)41Y〜41Cに供給されると共に、このPLUT
41Y〜41Cにはコントローラ50より掘り分は信号
が供給される。
The image data of Y'M' and C' are stored in the lookup table <PI, LI which constitutes the address signal forming means 40.
T) 41Y to 41C and this PLUT
A signal is supplied from the controller 50 to 41Y to 41C.

PLUT41 Y〜41CからはY’、M’、C’の画
像データの上位5ビツト(補間点Pが含まれる基本格子
の頂点の基準点を表す)に対応した5ビツトのアドレス
信号が出力され、それぞれMLUT21 R〜21Bに
供給される。
PLUTs 41Y to 41C output a 5-bit address signal corresponding to the upper 5 bits of the image data of Y', M', and C' (representing the reference point of the vertex of the basic grid including the interpolation point P), Each is supplied to MLUTs 21R to 21B.

立方体を利用しての補間処理の場合、厖り分は信号に基
づいて、補間点Pが含まれる基本格子の811(7)頂
点力ML U T 21 R〜21 Bテ曙次m定され
るように、5ビツトのアドレス信号が順次出力される。
In the case of interpolation processing using a cube, the interpolation is determined based on the signal by the 811(7) vertex force ML U T 21 R ~ 21 B Te Akebono of the basic lattice that includes the interpolation point P. 5-bit address signals are sequentially output.

三角錐を利用しての補間処理の場合、撮り分は信号に基
づいて、補間点Pが含まれる三角錐の4個の頂点がML
UT21R〜21Bで順次指定されるように、5ビツト
のアドレス信号が順次出力される。
In the case of interpolation processing using a triangular pyramid, the four vertices of the triangular pyramid that include the interpolation point P are ML based on the signal.
Five-bit address signals are sequentially output as specified by the UTs 21R to 21B.

MLUT21R〜21Bより出力されるR、  G。R and G output from MLUT21R to 21B.

Bの画像データは、それぞれ乗算累積手段30を構成す
る乗算W(MTL)31R〜31Bに供給される。
The B image data is supplied to multipliers W (MTL) 31R to 31B constituting the multiplication and accumulation means 30, respectively.

また、PLUT41Y〜4ICからはY’、M’C′の
画像データの下位3ビツト(補間点Pの基本格子内の位
置を表す)が重み係数指定信号として出力され、この重
み係数指定信号はWLLIT60に供給される。このW
LUT60にはコントローラ50より振り分は信号が供
給され、この掘り分は信号に基づいて重み係数が順次出
力される。
Furthermore, the lower 3 bits of the image data of Y' and M'C' (indicating the position of the interpolation point P in the basic grid) are output from PLUT41Y to 4IC as a weighting coefficient designation signal, and this weighting coefficient designation signal is sent to the WLLIT60. is supplied to This W
A signal is supplied from the controller 50 to the LUT 60, and weighting coefficients are sequentially outputted based on the signal.

立方体を利用しての補間処理の場合、補間点Pが含まれ
る基本格子の8個の頂点がMLUT21R〜21Bで順
次指定されるのに対応して、8個の重み係数PI〜P8
が順次出力される。
In the case of interpolation processing using a cube, the eight vertices of the basic grid including the interpolation point P are sequentially specified by MLUTs 21R to 21B, and the eight weighting coefficients PI to P8 are
are output sequentially.

三角錐を利用しての補間処理の場合、補間点Pが含まれ
る五角錐の4個の頂点がMLUT21 R〜21Bで順
次指定されるのに対応して、4@の重み係数が順次出力
される。
In the case of interpolation processing using a triangular pyramid, the four vertices of the pentagonal pyramid containing the interpolation point P are sequentially specified in the MLUTs 21 R to 21B, and the weighting coefficients of 4@ are sequentially output. Ru.

WLUT60より出力される重み係数はMTL31R〜
31Bに供給される。そして、このMTL31R〜31
Bでは、 MLUT21 R〜21Bより出力されるR
、  G、  Bの画像データ(8ビツト)と、WLU
T60からの重み係数(8ビツト)との乗算が行なわれ
る。
The weighting coefficients output from WLUT60 are MTL31R~
31B. And this MTL31R~31
In B, R output from MLUT21 R~21B
, G, B image data (8 bits) and WLU
Multiplication with the weighting coefficient (8 bits) from T60 is performed.

MTL3JR〜31Bの上位8ビツトの乗算出力は、そ
れぞれ累積器(ALU)32R〜32Bに供給されて加
算処理される。このALtJ32R〜32Bには、コン
トa−ラ50よりリセット1言号が供給される。
The multiplication outputs of the upper 8 bits of the MTLs 3JR to 31B are supplied to accumulators (ALUs) 32R to 32B, respectively, for addition processing. A reset 1 word is supplied from the controller 50 to the ALtJs 32R to 32B.

立方体を利用しての補間処理の場合、補間点Pが含まれ
る基本格子の8個の頂点に対応して順次加算処理が行な
われて、その結果が後述するラッチ回路でラッチされる
たびにリセットされる。
In the case of interpolation processing using a cube, addition processing is performed sequentially corresponding to the eight vertices of the basic lattice that includes the interpolation point P, and is reset each time the result is latched by the latch circuit described later. be done.

五角錐を利用しての補間処理の場合、補間点Pが含まれ
る五角錐の4個の頂点に対応して順次加算処理が行なわ
れて、その結果が後述するラッチ回路でラッチされるた
びにリセットされる。
In the case of interpolation processing using a pentagonal pyramid, addition processing is performed sequentially corresponding to the four vertices of the pentagonal pyramid that include the interpolation point P, and each time the result is latched by a latch circuit described later. will be reset.

上述したように、立方体を利用しての補間処理の場合の
8111の重み係数の総和、および五角錐を利用しての
補間処理の場合の4個の重み係数の総和は256となる
ようにされている0本例においては、MTL31R〜3
1Bの乗算出力の上位8ビツトが使用され、いわゆる8
ビツトシフトが行なわれるので、これによって(1)式
におけるl/、 p、 A iおよび(2)式における
! / V ABCGの処理が行なわれることとなる。
As mentioned above, the sum of 8111 weighting coefficients in the case of interpolation processing using a cube and the sum of 4 weighting coefficients in the case of interpolation processing using a pentagonal pyramid is set to 256. In this example, MTL31R~3
The upper 8 bits of the 1B multiplication output are used, so-called 8
Since a bit shift is performed, this results in l/, p, A i in equation (1) and ! in equation (2). /VABCG processing will be performed.

乗算累積手段30を構成するALU32R〜32Bの出
力は、それぞれラッチ回路71R〜71Bに供給される
。このラッチ回171R〜71Bにはコントローラ50
よりラッチパルスが供給される。
The outputs of the ALUs 32R to 32B constituting the multiplication/accumulation means 30 are supplied to latch circuits 71R to 71B, respectively. The controller 50 is used for these latch times 171R to 71B.
A latch pulse is supplied.

立方体を利用しての補間処理の場合、補間点Pが含まれ
る基本格子の8個の頂点に対応して順次加算処理された
結果がラッチされる。
In the case of interpolation processing using a cube, the results of sequential addition processing corresponding to eight vertices of the basic lattice including the interpolation point P are latched.

五角錐を利用しての補間処理の場合、補間点Pが含まれ
る五角錐の4個の頂点に対応して順次加算処理された結
果がラッチされる。
In the case of interpolation processing using a pentagonal pyramid, the results of sequential addition processing corresponding to the four vertices of the pentagonal pyramid including the interpolation point P are latched.

したがって、このラッチ回#71R〜71E+からは、
立方体を利用しての補間処理の場合には(1)式で示さ
れ、五角錐を利用しての補間処理の場合には(2)式で
示される補間点PのR,G。
Therefore, from this latch times #71R to 71E+,
In the case of interpolation processing using a cube, the R and G of the interpolation point P are shown by equation (1), and in the case of interpolation processing using a pentagonal pyramid, the equation (2) is shown.

Bの画像データが出力される。Image data of B is output.

なお、本実施例においては、カラーハードコピーの色分
解画像の基本色をY、  M、  C,Kの4色として
説明したが、Y、  M、  Cの3色の場合にも同様
に本方法を適用できる。その場合には、Y′M’、C’
に直接にY、  M、  Cのデータを用いればよく、
そのときは、Y、  M、  C,KからY′M’、C
’を求めるための部分が除かれることになる。
In this example, the basic colors of the color separation image of the color hard copy are explained as four colors, Y, M, C, and K. However, this method can be applied similarly in the case of the three colors of Y, M, and C. can be applied. In that case, Y'M', C'
It is sufficient to directly use the data of Y, M, and C.
At that time, Y, M, C, K to Y'M', C
' will be removed.

本例の方法においては、入出力側の色再現範囲Linお
よびLoutの比に応じて、Y’、M’、C’の画像デ
ータに対して求められた表色系のML本n1.  u*
in1.  v車inlを拡大写像し、この拡大写像で
求められた値L’ in2.  u” in2.  v
”in2に対応させてR,G、  Bの画像データを求
めるので、このR,G、  Bの画像データによる色再
現は、R,G、  Bの画像データによるテレビデイス
プレィの色再現範囲全体をカバーすることができ、十分
な明度や彩度のレンジを有するものとできる。すなわち
、充分なコントラストや彩やかさを冑するテレビ画像を
再現することができる。
In the method of this example, ML books n1. u*
in1. The v car inl is enlarged and mapped, and the value L' in2. u”in2.v
” Since R, G, and B image data are obtained in correspondence with in2, color reproduction using this R, G, and B image data covers the entire color reproduction range of the television display using R, G, and B image data. In other words, it is possible to reproduce a television image with sufficient contrast and vividness.

なお、上述実施例においては、明度方向の変換を線形に
行なうものを示したが、これに限定されるものではない
、場合によっては、非線形に変換を行なうことも考えら
れる。
In the above-mentioned embodiments, the brightness direction is linearly converted, but the invention is not limited to this. Depending on the case, it may be possible to perform the conversion non-linearly.

また、上述実施例においては、表色系として、し’* 
 u”+  v’表色系を用いたものであるが、この代
わりにR,G、  B表色系、x、  y、  z表色
系、L本、a車、b本表色系等その他の表色系を用いる
ものにも同様に適用することができる。
In addition, in the above embodiment, as the color system,
The u"+v' color system is used, but instead of this, other color systems such as R, G, B color system, x, y, z color system, L book, a car, b book color system etc. It can be similarly applied to those using the color system.

[発明の効果] 以上説明したように、この発明によれば、入出力側の色
再現範囲の比に応じて入力色再現範囲が拡大するように
、入力色分解画像情報に対して求められた表色系の値を
拡大写像し、この拡大写像した表色系の値に対応させて
出力色分解画像情報を求めるようにしているので、求め
られる出力色分解画像情報による色再現は出力色再現l
I!囲全体をカバーするものとなり、十分な明度や彩度
のレンジを有するものとできる。
[Effects of the Invention] As explained above, according to the present invention, the input color separation image information is calculated so that the input color reproduction range is expanded in accordance with the ratio of the input and output color reproduction ranges. Since the values of the color system are expanded and mapped, and the output color separation image information is determined in correspondence with the values of the color system that has been expanded and mapped, the color reproduction based on the obtained output color separation image information is the output color reproduction. l
I! It can cover the entire area and have a sufficient range of brightness and saturation.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図〜第15(!lはこの発明に係る色推を方法の説
明のための図、第16図〜第19図は補間処理の説明の
ための図、第20図はカラーマスキング装置の構成図、
第21図は従来方法の説明のための図である。 100  ・ ・ ・ 200φ・争 220 ・ l
Figures 1 to 15 (!l are diagrams for explaining the color estimation method according to the present invention, Figures 16 to 19 are diagrams for explaining the interpolation process, and Figure 20 is a diagram for explaining the color masking device. Diagram,
FIG. 21 is a diagram for explaining the conventional method. 100 ・ ・ ・ 200φ・War 220 ・ l

Claims (2)

【特許請求の範囲】[Claims] (1)複数の入力色分解画像情報の各組み合わせに対す
る表色系の値を求めると共に、複数の出力色分解画像情
報の各組み合せに対する上記表色系の値を求め、 上記複数の出力色分解画像情報の各組み合わせに対して
求められた表色系の値を用いて、上記入力色分解画像情
報の任意の組み合わせに対する表色系の値と同じまたは
近い表色系の値を得る上記出力色分解画像情報の組み合
わせを求める色推定方法において、 上記複数の出力色分解画像情報の各組み合わせに対して
求められた表色系の値による出力側色再現範囲が上記複
数の入力色分解画像情報の各組み合わせに対して求めら
れた表色系の値による入力測色再現範囲より広いときに
は、 上記入出力側の色再現範囲の比に応じて上記入力側色再
現範囲が拡大するように、上記入力色分解画像情報の各
組み合わせに対して求められた表色系の値を拡大写像し
、 この拡大写像した表色系の値と同じ表色系の値を得る上
記出力色分解画像情報の組み合せを求めることを特徴と
する色推定方法。
(1) Calculate the value of the color system for each combination of the plurality of input color separation image information, and calculate the value of the color system for each combination of the plurality of output color separation image information, and calculate the value of the color system for each combination of the plurality of output color separation image information, The output color separation method uses the color system values obtained for each combination of information to obtain a color system value that is the same as or close to the color system value for any combination of the input color separation image information. In a color estimation method for determining a combination of image information, the output side color reproduction range based on the value of the color system determined for each combination of the plurality of output color separation image information is equal to that of each of the plurality of input color separation image information. When the input colorimetric reproduction range is wider than the input colorimetric reproduction range based on the colorimetric values obtained for the combination, the input color is The values of the color system obtained for each combination of separated image information are enlarged and mapped, and the combination of the above output color separated image information that obtains the same value of the color system as the value of the enlarged and mapped color system is obtained. A color estimation method characterized by:
(2)上記拡大写像をする際、明度方向に関してはレン
ジを合わせるように線形または非線形に写像変換すると
共に、 彩度方向に関しては上記入出力側の色再現範囲の重なる
部分の中央部は写像変換せず、その周辺部のみを写像変
換することを特徴とする請求項1記載の色推定方法。
(2) When performing the above enlarged mapping, in the lightness direction, mapping is performed linearly or non-linearly to match the range, and in the chroma direction, the central part of the overlapping color reproduction range on the input and output side is subjected to mapping transformation. 2. The color estimation method according to claim 1, wherein only the peripheral portion is subjected to mapping transformation.
JP1296963A 1989-11-15 1989-11-15 Color estimation method Expired - Fee Related JP2845523B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1296963A JP2845523B2 (en) 1989-11-15 1989-11-15 Color estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1296963A JP2845523B2 (en) 1989-11-15 1989-11-15 Color estimation method

Publications (2)

Publication Number Publication Date
JPH03158075A true JPH03158075A (en) 1991-07-08
JP2845523B2 JP2845523B2 (en) 1999-01-13

Family

ID=17840467

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1296963A Expired - Fee Related JP2845523B2 (en) 1989-11-15 1989-11-15 Color estimation method

Country Status (1)

Country Link
JP (1) JP2845523B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5450216A (en) * 1994-08-12 1995-09-12 International Business Machines Corporation Color image gamut-mapping system with chroma enhancement at human-insensitive spatial frequencies
US7177465B1 (en) 1999-07-16 2007-02-13 Fuji Photo Film Co., Ltd. Method of compressing/extending color reproducing space, color reproducing method and color reproducing apparatus
US7623266B2 (en) 2006-04-07 2009-11-24 Canon Kabushiki Kaisha Gamut mapping with saturation intent
US7626723B2 (en) 2004-02-27 2009-12-01 Brother Kogyo Kabushiki Kaisha Color-conversion-table creating method
US8542246B2 (en) 2008-03-11 2013-09-24 Panasonic Corporation Color conversion device, color conversion table and color conversion method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4400644B2 (en) 2007-04-18 2010-01-20 セイコーエプソン株式会社 Image processing apparatus, color correction table generation apparatus, display apparatus, and image processing method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5450216A (en) * 1994-08-12 1995-09-12 International Business Machines Corporation Color image gamut-mapping system with chroma enhancement at human-insensitive spatial frequencies
US7177465B1 (en) 1999-07-16 2007-02-13 Fuji Photo Film Co., Ltd. Method of compressing/extending color reproducing space, color reproducing method and color reproducing apparatus
US7626723B2 (en) 2004-02-27 2009-12-01 Brother Kogyo Kabushiki Kaisha Color-conversion-table creating method
US7623266B2 (en) 2006-04-07 2009-11-24 Canon Kabushiki Kaisha Gamut mapping with saturation intent
US8542246B2 (en) 2008-03-11 2013-09-24 Panasonic Corporation Color conversion device, color conversion table and color conversion method

Also Published As

Publication number Publication date
JP2845523B2 (en) 1999-01-13

Similar Documents

Publication Publication Date Title
US5317426A (en) Color estimation method for expanding a color image for reproduction in a different color gamut
JPH02226870A (en) Color estimating method
JPH03158075A (en) Color estimate method
JPH04196675A (en) Color estimate method
JP3354158B2 (en) Color correction device, color correction method, and color correction application device
JP2008527919A (en) How to convert color recipe
US5657068A (en) Color image processing apparatus and conversion method
JP2575134B2 (en) Color estimation method by color patch
JP2005287069A (en) Color converting method, color conversion unit, and recording medium
JPH04196677A (en) Method of estimating color
JPH0622124A (en) Conversion method, color conversion method, color conversion table generating method, color converter and color conversion table generating device
JP2898030B2 (en) Color estimation method
JP2005269443A (en) Method and apparatus for image processing, program and recording medium
JPH03158073A (en) Color estimate method
JPH04196676A (en) Method of estimating color
JPH04196679A (en) Method of estimating color
JP3611890B2 (en) Color conversion device
JPH04196678A (en) Method of estimating color
JPH03158074A (en) Color estimate method
JP3205054B2 (en) Color image processing apparatus and method
JP5041538B2 (en) System and method for adjusting color image quality
JPH0591309A (en) Color correcting method
JP2000341550A (en) Color image signal processor
JPH03244292A (en) Chrominance signal processing method
JP2014099753A (en) Color conversion device

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees