JP2001258049A - Image data conversion method, compression method and its device - Google Patents

Image data conversion method, compression method and its device

Info

Publication number
JP2001258049A
JP2001258049A JP2000070492A JP2000070492A JP2001258049A JP 2001258049 A JP2001258049 A JP 2001258049A JP 2000070492 A JP2000070492 A JP 2000070492A JP 2000070492 A JP2000070492 A JP 2000070492A JP 2001258049 A JP2001258049 A JP 2001258049A
Authority
JP
Japan
Prior art keywords
image data
visual condition
image
data
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000070492A
Other languages
Japanese (ja)
Inventor
Norihide Miyamura
紀秀 宮村
Nobuhito Matsushiro
信人 松代
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Data Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Data Corp filed Critical Oki Data Corp
Priority to JP2000070492A priority Critical patent/JP2001258049A/en
Publication of JP2001258049A publication Critical patent/JP2001258049A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Color Television Systems (AREA)
  • Processing Of Color Television Signals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a conversion method and a compression method, that can convert and compress received image data into image data with less average information amount using a color appearance model(CAM), while providing appearance in the same color to each image under each visual condition, because the average information amount is high in images which do not take visual condition into account. SOLUTION: An input image data section 1 records image data, and an input visual condition section 2 records visual condition data. A CAM conversion section 3 uses the image data and the visual condition data and a sending amount data section 4 converts image data into a sensing amount and records the sensing amount. A virtual visual condition data section 6 records the visual condition data obtained by a visual condition calculation section 5. A CAM inverse conversion section 7 uses the visual condition data recorded by the sensing amount data and the visual condition data recorded by the virtual vision condition data section 6. An image data recording section 8 records the image data obtained by the CAM inverse conversion section, and an image data compression section 9 compresses the recorded data.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は画像データの変換
および圧縮に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to conversion and compression of image data.

【0002】[0002]

【従来の技術】カラーテレビジョンシステムは、カラー
画像に対し、送信側で画像を三原色の信号に分解して送
り出し、受信側ではその信号を合成して元の色の画像に
再現しているものである。そして、カラー画像はデータ
量が大きく、そのままのデータ量で画像データとして種
々の信号処理や情報処理を行うには扱いにくいので、カ
ラー画像をデジタル化し、送信側で圧縮し、受信側で復
元するようになってきた。
2. Description of the Related Art A color television system is a system in which, on a transmission side, a picture is decomposed into signals of three primary colors and sent out, and the reception side combines the signals to reproduce the original color picture. It is. Since the color image has a large data amount and is difficult to perform various signal processing and information processing as image data with the data amount as it is, the color image is digitized, compressed on the transmission side, and decompressed on the reception side. It has become.

【0003】また、カラープリンタは、上位装置でカラ
ー画像を圧縮した信号として送り出し、印刷装置でその
信号を伸長して元の色の画像に再現するようにしてい
る。
In a color printer, a high-level apparatus sends a color image as a compressed signal, and the printing apparatus expands the signal to reproduce an original color image.

【0004】さらに、カラー画像をデジタル化すると、
元の色とは異なった色の画像を容易に作り出すことがで
きるので、積極的に色を操作し、思い通りの色とするよ
うにもなってきた。
Further, when a color image is digitized,
Since it is possible to easily create an image having a color different from the original color, the user has been actively manipulating the colors to achieve the desired color.

【0005】近年、国際照明委員会の会議 CIE-TC1‐34
にて、「The CIE 1997 Interim Colour Appearance Mod
el (Simple Version),CIECAM97s」(April,1998)とい
う報告書が発表されるに至った。
In recent years, the International Commission on Illumination Conference CIE-TC1-34
`` The CIE 1997 Interim Color Appearance Mod
el (Simple Version), CIECAM97s "(April, 1998).

【0006】カラーアピアレンスモデルは、ある色の三
刺激値からその視覚条件パラメータを考慮し、明度、色
相などの人間の知覚属性を表す数学的相対量に変換する
計算モデルである。例えば、図1に示すように、視覚条
件 A 下で画像 A を変換したものに対し、視覚条件 B
を用いた逆変換で得られる画像 B では、画像 A とは異
なるが視覚条件 B で見たときに視覚条件 A で画像 A
を見たときと同じ色の見えを持つ。このカラーアピアレ
ンスモデルの暫定的単一モデルとして推奨されているの
が、この報告書で論じられている CIECAM97s である。
The color appearance model is a calculation model that converts tristimulus values of a certain color into mathematical relative quantities representing human perceptual attributes such as lightness and hue in consideration of the visual condition parameters. For example, as shown in FIG.
Is different from image A, but when viewed under visual condition B, image A
It has the same color appearance as when you see it. Recommended as a provisional single model of this color appearance model is the CIECAM97s discussed in this report.

【0007】[0007]

【発明が解決しようとする課題】前述のように、カラー
アピアレンスモデルを用いれば、様々な視覚条件下で同
じ色の見えを持つ様々な画像を作成することができる。
しかし、各視覚条件下における各画像は同じ色の見えを
持つが、画像に関する平均情報量は視覚条件に依存す
る。一般に、視覚条件を考慮しない画像では、平均情報
量が大きくなるという問題があった。
As described above, by using the color appearance model, various images having the same color appearance under various visual conditions can be created.
However, while each image under each visual condition has the same color appearance, the average amount of information about the image depends on the visual condition. Generally, there is a problem that an average information amount becomes large in an image in which a visual condition is not considered.

【0008】[0008]

【課題を解決するための手段】本発明は、入力画像に変
換を施し出力画像を得る画像データ圧縮方法において、
観察視覚条件が与えられた入力画像に対し、新たな視覚
条件を作成し、カラーアピアレンスモデルにより,その
視覚条件下で同じ色の見えを持ち、平均情報量の少ない
画像に変換し、その変換した画像を圧縮することを特徴
とするものである。
SUMMARY OF THE INVENTION The present invention provides an image data compression method for converting an input image to obtain an output image.
A new visual condition is created for the input image given the observation visual condition, and the image is converted to an image with the same color appearance under the visual condition and a small amount of average information using the color appearance model. The compressed image is compressed.

【0009】第1の実施の形態につき説明する。図2
は、カラーアピアレンスモデルを用いた圧縮装置の構成
を示している。ここでは、カラーテレビジョンシステム
にて用いられている NTSC 方式の三原色である赤緑青 R
GB によって表された画像データを扱うものとする。こ
の圧縮装置は、入力画像データを記録する入力画像デー
タ部1、入力画像の観察視覚条件データを記録する入力
視覚条件部2、入力画像データ部1に記録された入力画
像データと、入力視覚条件部2に記録された観察視覚条
件データを用いて、人間の感覚量に変換するCAM変換
部3、CAM変換部3により導出された人間の感覚量を
記録する感覚量データ部4からなる。
The first embodiment will be described. FIG.
1 shows a configuration of a compression apparatus using a color appearance model. Here, the three primary colors of the NTSC system used in the color television system, red green blue R
The image data represented by GB shall be handled. This compression apparatus includes an input image data unit 1 for recording input image data, an input visual condition unit 2 for recording observation visual condition data of an input image, input image data recorded in the input image data unit 1, and input visual conditions. The CAM conversion unit 3 converts the visual sense condition data recorded in the unit 2 into a human sensation amount, and the sensory amount data unit 4 records the human sensation amount derived by the CAM conversion unit 3.

【0010】さらに、入力視覚条件部2に記録された視
覚条件データを用いて、新たな視覚条件データを算出す
る視覚条件算出部5、視覚条件算出部5で算出された視
覚条件データを記録する仮想視覚条件データ部6、感覚
量データ部4に記録された人間の感覚量と仮想視覚条件
データ部6に記録された視覚条件データを用いて、画像
データを作成するCAM逆変換部7、CAM逆変換部7
で作成された画像データを記録する画像データ記録部
8、画像データ記録部8に記録されている画像データを
圧縮する画像データ圧縮部9からなる。
Further, using the visual condition data recorded in the input visual condition unit 2, a visual condition calculating unit 5 for calculating new visual condition data, and the visual condition data calculated by the visual condition calculating unit 5 are recorded. A virtual visual condition data unit 6, a CAM inverse conversion unit 7 for creating image data using a human sense amount recorded in the sense amount data unit 4 and visual condition data recorded in the virtual visual condition data unit 6, a CAM Inversion unit 7
An image data recording unit 8 for recording the image data created in step 1 and an image data compression unit 9 for compressing the image data recorded in the image data recording unit 8.

【0011】なお、これら各部は、中央処理装置や記憶
部などを備えたパーソナルコンピュータにより実現さ
れ、また、コンピュータプログラムによっても実現され
る。
Each of these units is realized by a personal computer including a central processing unit and a storage unit, and also by a computer program.

【0012】第1の実施の形態につき、動作を説明す
る。図2に示すように、NTSC方式の RGB によって表さ
れた画像データが図示せぬインターフェースから入力さ
れると、まず入力画像データ部1にその画像データが記
録される。また、同時にその画像データの観察視覚条件
が図示せぬ入力装置から入力されると入力視覚条件部2
にその視覚条件データが記録される。ここでは、カラー
アピアレンスモデル CIECAM97s を用いるので、視覚条
件とは、順応視野の輝度 LA1、白色に対する三刺激値 X
w1,Yw1,Zw1、背景に対する相対輝度 Yb1、順応度合い係
数 F1、周囲影響定数 c1、色彩誘導係数 Nc1、明度コ
ントラスト係数 FLL1である。
The operation of the first embodiment will be described. As shown in FIG. 2, when image data represented by NTSC RGB is input from an interface (not shown), the image data is first recorded in the input image data unit 1. At the same time, when an observation visual condition of the image data is input from an input device (not shown), the input visual condition unit 2
The visual condition data is recorded in the. Here, since the color appearance model CIECAM97s is used, the visual conditions are the luminance of the adaptive visual field L A 1 and the tristimulus value X for white.
w 1, Y w 1, Z w 1, the relative luminance Y b 1 to the background, adaptation degree coefficient F1, ambient influences constants c1, color induction factor N c 1, a lightness contrast factor F LL 1.

【0013】CAM 変換部3において、入力画像データ部
1に記録された画像データと入力視覚条件部2に記録さ
れた視覚条件データ LA1,Xw1,Yw1,Zw1,Yb1,F1,c1,Nc1,F
LL1を用いて、明度 J1、クロマ C1、色相角 h1 といっ
た感覚量に変換する。この変換は CIECAM97s のモデル
に基づき実行される。ただし、CIECAM97s では、CIE-19
31 XYZ 表色系の三刺激値 X,Y,Z を入力としているの
で、NTSC 方式の RGB を次の式(1)によって変換す
る。
[0013] In CAM conversion unit 3, the visual condition was recorded as the image data recorded in the input image data unit 1 in the input viewing conditions section 2 data L A 1, X w 1, Y w 1, Z w 1, Y b 1, F1, c1, N c 1, F
With LL 1, lightness J1, chroma C1, into a sensory quantity such hue angle h1. This conversion is performed based on the CIECAM97s model. However, in CIECAM97s, CIE-19
31 Since the tristimulus values X, Y, Z of the XYZ color system are input, the RGB of the NTSC system is converted by the following equation (1).

【0014】[0014]

【数1】 (Equation 1)

【0015】また、CIECAM97s による変換では、明度 J
1、クロマ C1、色相角 h1 の以外に、明るさ Q、彩度
s、色相弧 H、カラフルネス Mといった感覚量も得られ
るが、ここでは、逆変換に必要な感覚量だけを用いる。
感覚量データ部4では CAM変換部3によって得られた感
覚量、明度 J1、クロマ C1、色相角 h1 を記録する。視
覚条件算出部5では、入力視覚条件部2の視覚条件デー
タ LA1,Xw1,Yw1,Zw1,Yb1,F1,c1,Nc1,FLL1 を用いて、
新しい視覚条件データである順応視野の輝度LA2、白色
に対する三刺激値 Xw2,Yw2,Zw2、背景の相対輝度 Yb2、
順応度合い係数 F2、周囲影響定数 c2、色彩誘導係数 N
c2、明度コントラスト係数 FLL2 を作成する。
In the conversion by CIECAM97s, the brightness J
1, chroma C1, hue angle h1, brightness Q, saturation
Although sensations such as s, hue arc H, and colorfulness M can be obtained, here, only the sensation required for the inverse transformation is used.
The sensory amount data unit 4 records the sensory amount, brightness J1, chroma C1, and hue angle h1 obtained by the CAM converter 3. The visual condition calculating unit 5, using the input visual visual condition of the conditional part 2 data L A 1, X w 1, Y w 1, Z w 1, Y b 1, F1, c1, N c 1, F LL 1 ,
Luminance L A 2 of the adaptation field is a new visual condition data, the tristimulus values X w 2 with respect to white, Y w 2, Z w 2 , the relative luminance Y b 2 background,
Adaptation degree coefficient F2, ambient influence constant c2, color induction coefficient N
c 2, Create lightness contrast coefficient FLL2 .

【0016】上記の視覚条件は、次の式(2)〜(4)
で示す条件式 (cond1)〜(cond3) を満たす条件をあらか
じめ用意した N 個(例えば100個)の条件から選択し、
その中で条件 (cond1)〜(cond3) の左辺の和が最大とな
る条件を選択することで、視覚条件を作成する。
The above visual conditions are expressed by the following equations (2) to (4).
The condition that satisfies the conditional expressions (cond1) to (cond3) is selected from N (for example, 100) conditions prepared in advance.
The visual condition is created by selecting the condition that maximizes the sum of the left sides of the conditions (cond1) to (cond3).

【0017】[0017]

【数2】 (Equation 2)

【0018】ここで、br0,・・・,br45,bg0,・・・,b
g45,bb0,・・・,bb45 は重み係数である。この重み係数
は、視覚条件の変化量を説明変数とし RGB それぞれの
平均情報量の変化量を目的関数とした回帰分析の結果で
あり、あらかじめ求めておいたものである。その導出
は、多数のデータ(例えば30,000個)を用いて行われ
る。
Here, b r0 ,..., B r45 , b g0 ,.
g45, b b0, ···, b b45 is a weighting coefficient. This weighting factor is the result of a regression analysis using the amount of change in the visual condition as an explanatory variable and the amount of change in the average information amount of each of the RGB as an objective function, and is obtained in advance. The derivation is performed using a large number of data (for example, 30,000).

【0019】そのデータを作成するフローを図3に示
す。まず、ステップ11にて、元となる画像(例えば、ISO
/JIS-SCID の標準画像 N1 )の R,G,B それぞれの平均情
報量 E R',EG',EB' を導出する。次にステップ12にて、
その元となる画像の各画素を観察視覚条件である順応視
野の輝度 LA'(例えば 318.31 cd/m2)、白色に対する三
刺激値 Xw'(例えば 95.05),Yw'(例えば 100.00),Zw'(例
えば 108.88)、背景の相対輝度 Yb'(例えば 20.00)、順
応度合い係数 F'(例えば 1.0)、周囲影響定数 c'(例え
ば 0.59)、色彩誘導係数 Nc'(例えば 1.0)、明度コント
ラスト係数 FLL'(例えば 1.0)の下で、CIECAM97s の変
換法を用いて、明度 J',クロマ C',色相角h'に変換す
る。
FIG. 3 shows a flow for creating the data.
You. First, in step 11, the original image (for example, ISO
/ JIS-SCID standard image N1) R, G, B average information
Report E R', EG', EB'Is derived. Next, in step 12,
Observation of each pixel of the original image
Field brightness LA'(E.g. 318.31 cd / mTwo), Three against white
Stimulus value Xw'(E.g. 95.05), Yw'(E.g. 100.00), Zw'(Example
108.88), the relative luminance Y of the backgroundb'(E.g. 20.00), order
Sensitivity factor F '(for example, 1.0), ambient effect constant c' (for example,
0.59), color induction coefficient Nc'(E.g. 1.0), brightness control
Last coefficient FLL'Under (e.g. 1.0), change of CIECAM97s
To the lightness J ', the chroma C', and the hue angle h '
You.

【0020】ステップ13にて、元画像の各画素に対応す
る明度 J',クロマ C',色相角 h'を元に、参照視覚条件
である順応視野の輝度 LA"(例えば 31.83 cd/m2)、白色
に対する三刺激値 Xw"(例えば 109.85),Yw"(例えば 93.
50),Zw"(例えば 35.58)、背景の相対輝度 Yb"(例えば 3
0.00)、順応度合い係数 F"(例えば 0.9)、周囲影響定数
c"(例えば 0.525)、色彩誘導係数 Nc"(例えば 0.8)、
明度コントラスト係数 FLL"(例えば 1.0)の下で、CIECA
M97s の逆変換を用いて、新たな画像を作成する。
In step 13, based on the brightness J ', the chroma C', and the hue angle h 'corresponding to each pixel of the original image, the luminance L A "of the adaptive visual field as the reference visual condition (for example, 31.83 cd / m 2 ), tristimulus values for white X w "(e.g. 109.85), Y w " (e.g. 93.
50), Z w "(for example, 35.58), the relative luminance Y b " (for example, 3
0.00), adaptation factor F "(e.g. 0.9), ambient influence constant
c "(e.g., 0.525), the color derivation coefficient Nc " (e.g., 0.8),
Under lightness contrast factor F LL "(eg 1.0), CIECA
Create a new image using the inverse transform of M97s.

【0021】ステップ14にて、この作成された画像に対
し、R,G,B のそれぞれの平均情報量 ER",EG",EB" を導
出する。ここで、ステップ15にて、平均情報量の変化
量、各視覚条件パラメータの変化量 (ER'-ER",EG'-EG",
EB'-EB",LA'-LA",Xw'-Xw",Yw'-Yw",Zw'-Zw",Yb'-Yb",F'
-F",c'-c",Nc'-Nc",FLL'-FLL") をひとつのデータとし
保存する。
In step 14, an average information amount E R ", E G ", E B "of each of R, G, and B is derived from the created image. The change amount of the average information amount, the change amount of each visual condition parameter (E R '-E R ", E G ' -E G ",
E B '-E B ", L A ' -L A ", X w '-X w ", Y w ' -Y w ", Z w '-Z w ", Y b ' -Y b ", F '
-F ", c'-c", N c '-N c ", F LL ' -F LL ") as one data.

【0022】このデータを作成する作業を画像や観察視
覚条件、参照条件を変え、繰り返すことにより、多数の
データを作成し保存する。保存した多数のデータに対
し、平均情報量の変化量、順応輝度の変化量といった各
データ要素での最大値、最小値を導出し、各データ要素
を各データ要素毎の最大値及び最小値を用いて 0〜1 の
間に正規化する。このように正規化された、i番目のデ
ータを次の式(5)のように表すものとする。
A large number of data are created and stored by repeating the work of creating the data by changing the image, the visual observation condition, and the reference condition. For a large number of stored data, derive the maximum value and minimum value of each data element such as the amount of change in average information amount and the amount of change in adaptation luminance, and calculate the maximum value and minimum value for each data element And normalized to between 0 and 1. The i-th data thus normalized is represented as in the following expression (5).

【0023】[0023]

【数3】 (Equation 3)

【0024】そして、正規化することで得られた多数の
データを用いて、重み係数を導出する。R のエントロピ
ーに対する重み係数は br0,・・・,br45 は、次の式
(6)で示す連立方程式を解くことによって導出され
る。
Then, a weight coefficient is derived using a large number of data obtained by normalization. The weighting factors for the entropy of R, b r0 ,..., B r45, are derived by solving the simultaneous equations shown in the following equation (6).

【0025】[0025]

【数4】 (Equation 4)

【0026】ここで、n はデータ数である。br0,・・
・,br45 を bg0,・・・,bg45 もしくはbb0,・・・,bb45
とし、ΔERi を ΔEGi もしくは ΔEBi とすること
で、G,B のエントロピーに関する重み係数も同様に計算
できる。
Here, n is the number of data. b r0 , ...
・, B r45 to b g0 , ..., b g45 or b b0 , ..., b b45
By setting ΔE Ri to ΔE Gi or ΔE Bi , a weight coefficient relating to the entropy of G and B can be similarly calculated.

【0027】視覚条件算出部5で得られた視覚条件デー
タ LA2,Xw2,Yw2,Zw2,Yb2,F2,c2,Nc2,FLL2 を、仮想視
覚条件データ部6において記録する。CAM 逆変換部7で
は、感覚量データ部4において得られた感覚量データ、
明度 J1、クロマ C1、色相角h1 及び仮想視覚条件デー
タ部6において記録された、視覚条件データ LA2,Xw2,Y
w2,Zw2,Yb2,F2,c2,Nc2,FLL2 を用いてモデルの逆変換を
行ない、NTSC方式の R,G,B 値を導出する。この逆変換
は、CIECAM97s に基づき行なわれるが、CIECAM97s の出
力が CIE-1931 XYZ 表色系の三刺激値 X,Y,Z であるた
め式(1)の逆変換を用いることにより、 R,G,B を導
出する。
[0027] The viewing conditions obtained in the visual condition calculating unit 5 data L A 2, X w 2, Y w 2, Z w 2, Y b 2, F2, c2, N c 2, F LL 2, the virtual visual Recorded in condition data section 6. In the CAM inverse conversion unit 7, the sensory amount data obtained in the sensory amount data unit 4,
Lightness J1, chroma C1, hue angle h1, and visual condition data L A 2, X w 2, Y recorded in the virtual visual condition data section 6.
w 2, Z w 2, Y b 2, F2, c2, N c 2, F LL 2 performs the inverse transformation of the model is used to derive the R, G, B values of the NTSC system. This inverse transformation is performed based on CIECAM97s, but since the output of CIECAM97s is tristimulus values X, Y, Z of the CIE-1931 XYZ color system, R, G , B is derived.

【0028】式(1)の逆変換は次の式(7)によって
求められる。
The inverse transform of the equation (1) is obtained by the following equation (7).

【0029】[0029]

【数5】 (Equation 5)

【0030】画像データ記録部8では、CAM 逆変換部7
で得られた画像データを記録する。画像データ圧縮部9
では、画像データ記録部8で記録された画像データを圧
縮する。例えば、圧縮率が画像の平均情報量に大きく依
存する算術符号化で圧縮を行なう。
In the image data recording section 8, the CAM inverse conversion section 7
Record the image data obtained in. Image data compression unit 9
Then, the image data recorded by the image data recording unit 8 is compressed. For example, compression is performed by arithmetic coding whose compression ratio largely depends on the average information amount of an image.

【0031】以上説明したように、第1の実施の形態に
よれば、ある視覚条件下で観察された画像に対し、ある
視覚条件を作成し、カラーアピアレンスモデルを用い
て、その視覚条件に対応する画像を作成することで、人
間の色知覚に基づき平均情報量を減らした画像に変換す
ることができ、また、その画像を圧縮することで圧縮率
を高めることができる。
As described above, according to the first embodiment, a certain visual condition is created for an image observed under a certain visual condition, and the visual condition is created using a color appearance model. By creating a corresponding image, it is possible to convert the image into an image in which the average information amount is reduced based on human color perception, and it is possible to increase the compression ratio by compressing the image.

【0032】また、伸長においては、伸長を行なった画
像を作成した視覚条件下で参照することで、元画像を観
察条件下で観察したものと人間の知覚的に同じ情報を得
ることができる。さらに、伸長した画像と作成した視覚
条件をカラーアピアレンスモデルの入力画像及び観察視
覚条件とし、元画像の観察視覚条件を参照視覚条件とす
れば、元画像を得ることができる。
In the extension, by referring to the expanded image under the visual condition in which the image was created, it is possible to obtain human perceptually the same information as the original image observed under the observation condition. Furthermore, the original image can be obtained by using the expanded image and the created visual condition as the input image and the observation visual condition of the color appearance model, and using the observation visual condition of the original image as the reference visual condition.

【0033】第2の実施の形態につき説明する。図4
は、カラーアピアレンスモデルを用いた圧縮装置の構成
を示している。この圧縮装置は、入力画像データを記録
する入力画像データ部10、入力画像の視覚条件データを
記録する入力視覚条件部11、参照視覚条件データを記録
する参照視覚条件部12、入力視覚条件部11に記録された
入力視覚条件データと参照視覚条件部12に記録された参
照視覚条件データを比較し、対応する各画像データの平
均情報量の差を推定する情報量算出部14、入力画像デー
タ部10に記録された入力画像データと、入力視覚条件部
11に記録された視覚条件データを用いて、人間の感覚量
に変換するCAM変換部13からなる。
Next, a second embodiment will be described. FIG.
1 shows a configuration of a compression apparatus using a color appearance model. The compression apparatus includes an input image data unit 10 for recording input image data, an input visual condition unit 11 for recording visual condition data of an input image, a reference visual condition unit 12 for recording reference visual condition data, and an input visual condition unit 11 An information amount calculation unit 14 for comparing the input visual condition data recorded in the reference visual condition data recorded in the reference visual condition unit 12 and estimating a difference in the average information amount of each corresponding image data, an input image data unit Input image data recorded in 10 and input visual condition part
The CAM conversion unit 13 converts the visual condition data recorded in the CAM 11 into an amount of human sensation.

【0034】さらに、CAM変換部13により導出された
人間の感覚量を記録する感覚量データ部15、参照視覚条
件部12に記録された参照視覚条件データと感覚量データ
部15に記録された人間の感覚量を用いて、画像データを
作成するCAM逆変換部16、CAM逆変換部16で作成さ
れた画像データを記録する画像データ記録部17、画像デ
ータを圧縮する画像データ圧縮部18からなる。
Further, a sensory amount data unit 15 for recording the human sensory amount derived by the CAM conversion unit 13, a reference visual condition data recorded in the reference visual condition unit 12, and a human sensory data recorded in the sensory amount data unit 15. A CAM inverse conversion unit 16 for generating image data using the sensory amount of the image data, an image data recording unit 17 for recording the image data generated by the CAM inverse conversion unit 16, and an image data compression unit 18 for compressing the image data. .

【0035】なお、これら各部は、中央処理装置や記憶
部などを備えたパーソナルコンピュータにより実現さ
れ、また、コンピュータプログラムによっても実現され
る。
These units are realized by a personal computer having a central processing unit, a storage unit, and the like, and also by a computer program.

【0036】第2の実施の形態につき、動作を説明す
る。図5に、フローチャートを示す。まず、ステップs2
1にて、NTSC 方式の RGB によって表された画像データ
が図示せぬインターフェースから入力されると、まず入
力画像データ部10にその画像データが記録される。ステ
ップs22にて、その画像データの観察視覚条件が図示せ
ぬ入力装置から読みこまれると入力視覚条件部11にその
入力視覚条件データが記録される。ステップs23にて、
参照視覚条件が読みこまれると参照視覚条件部12に参照
視覚条件データが記録される。
The operation of the second embodiment will be described. FIG. 5 shows a flowchart. First, step s2
In step 1, when image data represented by NTSC RGB is input from an interface (not shown), the image data is first recorded in an input image data unit 10. In step s22, when the observation visual condition of the image data is read from an input device (not shown), the input visual condition data is recorded in the input visual condition unit 11. In step s23,
When the reference visual condition is read, the reference visual condition data is recorded in the reference visual condition unit 12.

【0037】ここで、用いられる視覚条件データの種類
は、カラーアピアレンスモデルとして CIECAM97s を用
いるため、実施例1と同様である。ステップs24では、
情報量導出部14により、入力視覚条件下で見る入力画像
と、参照視覚条件下で見る画像の平均情報量の差をそれ
ぞれの視覚条件を用いて推定する。以下の式(8)で推
定を行なう。
Here, the type of visual condition data used is the same as that of the first embodiment because CIECAM97s is used as a color appearance model. In step s24,
The information amount deriving unit 14 estimates the difference between the average information amount of the input image viewed under the input visual condition and the average information amount of the image viewed under the reference visual condition using the respective visual conditions. The estimation is performed by the following equation (8).

【0038】[0038]

【数6】 (Equation 6)

【0039】ここで、E3 は入力画像の平均情報量、E4
は参照視覚条件に対応する画像の平均情報量、LA3 は入
力視覚条件における順応視野の輝度、LA4 は参照視覚条
件における順応視野の輝度、Xw3,Yw3,Zw3 は入力視覚条
件における白色に対する三刺激値、Xw4,Yw4,Zw4 は参照
視覚条件における白色に対する三刺激値、F3 は入力視
覚条件における順応度合い係数、F4 は入力視覚条件に
おける順応度合い係数、Yb3 は入力視覚条件における背
景に対する輝度、Yb4 は参照視覚条件における背景に対
する輝度、c3 は入力視覚条件における周囲影響定数、c
4 は参照視覚条件における周囲影響定数、Nc3 は入力視
覚条件における色彩誘導係数、Nc4 は参照視覚条件にお
ける色彩誘導係数、FLL3 は入力視覚条件における明度
コントラスト係数、FLL4 は参照視覚条件における明度
コントラスト係数である。
Here, E3 is the average information amount of the input image, E4
The average amount of image information corresponding to the reference visual conditions, L A 3 are luminance of the adapting field in the input viewing conditions, L A 4 is the adaptation field in the reference viewing conditions luminance, X w 3, Y w 3 , Z w 3 tristimulus values for the white in the input visual conditions, X w 4, Y w 4 , Z w 4 are tristimulus values for the white in the reference viewing conditions, F3 is adaptation degree coefficient at the input viewing conditions, F4 is adaptation in the input viewing conditions degree coefficient, Y b 3 are luminance to the background in the input viewing conditions, Y b 4 is the luminance to the background in the reference viewing conditions, c3 around affected constants at the input viewing conditions, c
4 is the surrounding influence constant in the reference visual condition, N c 3 is the color induction coefficient in the input visual condition, N c 4 is the color induction coefficient in the reference visual condition, F LL 3 is the lightness contrast coefficient in the input visual condition, and F LL 4 is This is the brightness contrast coefficient under the reference visual condition.

【0040】また、b0,・・・,b45 はそれぞれ重み係数
である。これらの重み係数は、第1の実施の形態と同様
に、視覚条件の変化量を説明変数とし、平均情報量の変
化量を目的関数とした回帰分析の結果であり、あらかじ
め求めておいたものである。ここでは、R,G,B それぞれ
の平均情報量差の推定値を求めるため、実施例1と同様
に R,G,B それぞれに対応する重み係数を求めておく。
Also, b 0 ,..., B 45 are weighting factors. These weighting factors are the results of regression analysis using the amount of change in the visual condition as the explanatory variable and the amount of change in the average information amount as the objective function, as in the first embodiment. It is. Here, in order to obtain the estimated value of the average information amount difference of each of R, G, and B, the weight coefficient corresponding to each of R, G, and B is obtained as in the first embodiment.

【0041】R,G,B それぞれの平均情報量差を推定し、
その和を全体の平均情報量差とする。s25において、全
体の平均情報量差が正でないならば、入力画像の方がよ
り平均情報量が小さいと判断し、s29で画像データ圧縮
部18により、入力画像を圧縮する(例えば算術符号化を
行う)。もし、全体の平均情報量差が正であるならば、
参照視覚条件下で見た画像がより平均情報量が小さいと
判断し、参照視覚条件下の画像をs26からs27で作成し記
録する。その手順は第1の実施の形態と同様であるが、
参照視覚条件を用いて逆変換を行なうところが異なる。
s28で画像データ圧縮部18により、参照視覚条件下に対
応する画像データを圧縮する(例えば算術符号化を行
う)。
Estimating the average information difference between R, G, and B,
The sum is defined as the total average information amount difference. In s25, if the entire average information amount difference is not positive, the input image is determined to have a smaller average information amount, and in s29, the input image is compressed by the image data compression unit 18 (for example, arithmetic coding is performed. Do). If the total average information difference is positive,
The image viewed under the reference visual condition is determined to have a smaller average information amount, and the image under the reference visual condition is created and recorded from s26 to s27. The procedure is the same as in the first embodiment,
The difference is that the inverse transformation is performed using the reference visual condition.
In s28, the image data compression unit 18 compresses the image data corresponding to the reference visual condition (for example, performs arithmetic coding).

【0042】以上のように第2の実施の形態を用いれ
ば、ある入力画像に対し、観察条件と参照視覚条件が与
えられた場合に、観察視覚条件と参照視覚条件を用い
て、入力画像と参照視覚条件下の画像のうち、より平均
情報量の少ない画像に変換し、また、圧縮することによ
って、圧縮率を高めることができる。また、伸長におい
ては、観察視覚条件と参照視覚条件を与えることでどち
らかの画像データが圧縮されているか判断することがで
きる。
As described above, according to the second embodiment, when an observation condition and a reference visual condition are given to a certain input image, the input image and the reference visual condition are used by using the observation visual condition and the reference visual condition. By converting the image under the reference visual condition into an image having a smaller average information amount and compressing the image, the compression ratio can be increased. Also, in the expansion, it is possible to determine which image data is compressed by giving an observation visual condition and a reference visual condition.

【0043】さて、第1の実施の形態や第2の実施の形
態では、カラーアピアレンスモデルとして CIECAM97s
を用いたが視覚条件を考慮した他のカラーアピアレンス
モデルでも適用可能である。また、圧縮方法として算術
符号化を挙げたが他の符号化方式も適用可能であり、入
力画像データの色表現方式として NTSC 方式の RGB を
用いたが、CIE-1931 XYZ 表色系に変換可能な表現方法
であれば適用可能であり、新しく視覚条件を作成する場
合に、所定の視覚条件から条件式を満たすものを選択し
たが、条件式さえ満たせば任意の作成方法に置き換える
ことが可能であり、感覚量として、明度、クロマ、色相
角を用いたが、明度の代わりに明るさ、クロマの代わり
にカラフルネス、色相角の代わりに色相弧といった感覚
量を用いることも可能である
In the first and second embodiments, CIECAM97s is used as a color appearance model.
However, the present invention can be applied to other color appearance models in which visual conditions are considered. In addition, although arithmetic coding was mentioned as a compression method, other coding methods are also applicable.The NTSC RGB method was used as the color representation method for input image data, but it can be converted to the CIE-1931 XYZ color system. If a new visual condition is created, a condition that satisfies the conditional expression is selected from predetermined visual conditions, but it can be replaced with any creation method as long as the conditional expression is satisfied. Yes, lightness, chroma, and hue angle are used as sensory quantities, but it is also possible to use sensory quantities such as brightness instead of lightness, colorfulness instead of chroma, and hue arc instead of hue angle.

【0044】[0044]

【発明の効果】本発明によれば、ある視覚条件下で観察
された画像に対し、ある視覚条件を作成し、カラーアピ
アレンスモデルを用いて、その視覚条件に対応する画像
に変換することで、人間の色知覚に基づき平均情報量を
減らした画像に変換し、また、その画像を圧縮すること
で圧縮率を高めることができる。
According to the present invention, a certain visual condition is created for an image observed under a certain visual condition, and the image is converted into an image corresponding to the visual condition using a color appearance model. By converting the image into an image having a reduced average information amount based on human color perception and compressing the image, the compression ratio can be increased.

【図面の簡単な説明】[Brief description of the drawings]

【図1】カラーアピアレンスモデルの概略を説明する説
明図である。
FIG. 1 is an explanatory diagram illustrating an outline of a color appearance model.

【図2】第1の実施の形態に係る装置の構成を示す図で
ある。
FIG. 2 is a diagram illustrating a configuration of an apparatus according to the first embodiment.

【図3】データを作成するフローを示すフロー図であ
る。
FIG. 3 is a flowchart showing a flow of creating data.

【図4】第1の実施の形態に係る装置の構成を示す図で
ある。
FIG. 4 is a diagram showing a configuration of an apparatus according to the first embodiment.

【図5】第2の実施の形態を説明するフロー図である。FIG. 5 is a flowchart illustrating a second embodiment.

【符号の説明】[Explanation of symbols]

1 入力画像部 2 入力視覚条件部 3 CAM 変換部 4 感覚量データ部 5 視覚条件算出部 6 仮想視覚条件データ部 7 CAM 逆変換部 8 画像データ記録部 9 画像データ圧縮部 DESCRIPTION OF SYMBOLS 1 Input image part 2 Input visual condition part 3 CAM conversion part 4 Perception amount data part 5 Visual condition calculation part 6 Virtual visual condition data part 7 CAM inverse conversion part 8 Image data recording part 9 Image data compression part

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 9/77 H04N 1/46 Z Fターム(参考) 5B057 CA01 CB01 CD14 CH11 DA16 DA17 DB06 5C057 AA11 BA01 CE04 DA01 DA03 DA04 DA17 EA01 EA02 EE01 EL01 EM12 FB03 GE08 GF03 GJ00 5C066 AA11 BA01 BA17 BA20 CA21 DC06 DD06 EB01 EE04 GA02 GA05 HA03 HA04 JA02 KD07 KE04 KE17 KE19 5C077 MP08 PP32 PP35 PP43 PP46 PP47 PQ18 PQ20 RR21 5C079 HB01 LA26 LB02 MA11 MA19 NA06 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) H04N 9/77 H04N 1/46 Z F-term (Reference) 5B057 CA01 CB01 CD14 CH11 DA16 DA17 DB06 5C057 AA11 BA01 CE04 DA01 DA03 DA04 DA17 EA01 EA02 EE01 EL01 EM12 FB03 GE08 GF03 GJ00 5C066 AA11 BA01 BA17 BA20 CA21 DC06 DD06 EB01 EE04 GA02 GA05 HA03 HA04 JA02 KD07 KE04 KE17 KE19 5C077 MP08 PP32 PP35 PP43 PP46 PP47 PQ12 MA46Q19

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 入力画像に変換を施し出力画像を得る画
像データ変換方法において、 観察視覚条件が与えられた入力画像に対し、新たな視覚
条件を作成し、カラーアピアレンスモデルにより、その
視覚条件下で同じ色の見えを持ち、より平均情報量の少
ない画像に変換することを特徴とする画像データ変換方
法。
1. An image data conversion method for converting an input image to obtain an output image, wherein a new visual condition is created for an input image given an observation visual condition, and the visual condition is created by a color appearance model. An image data conversion method comprising converting an image having the same color appearance below and having a smaller average information amount.
【請求項2】 入力画像に変換を施し出力画像を得る画
像データ変換方法において、 観察視覚条件が与えられた入力画像に対し、与えられた
参照視覚条件と観察視覚条件を用いて、入力画像と参照
条件下で同じ色の見えを持つ画像の平均情報量の小さい
ものを推定し、参照視覚条件下で同じ色の見えを持つ画
像がより平均情報量の少ない画像である場合に、カラー
アピアレンスモデルにより、変換することを特徴とする
画像データ変換方法。
2. An image data conversion method in which an input image is converted to obtain an output image, wherein an input image to which an observation visual condition is given is converted to an input image by using the given reference visual condition and observation visual condition. If the image with the same color appearance under the reference condition is estimated to have a small average information amount, and the image with the same color appearance under the reference visual condition is an image with a smaller average information amount, the color appearance An image data conversion method characterized by conversion by a model.
【請求項3】請求項1または2記載の変換方法を用いて
画像データの圧縮を行う画像データの圧縮方法。
3. An image data compression method for compressing image data using the conversion method according to claim 1.
【請求項4】 入力画像に変換を施し出力画像を得る画
像データ変換装置において、 入力画像の観察視覚条件データを入力する手段と、 観察視覚条件データの特性から画像データ変換後の圧縮
率が大きくなるような変換画像データの参照視覚条件デ
ータを算出する手段と、 算出された参照視覚条件データで入力画像データを変換
する手段を備えたことを特徴とする画像データ変換装
置。
4. An image data conversion apparatus for converting an input image to obtain an output image, comprising: means for inputting observation visual condition data of the input image; An image data conversion apparatus comprising: means for calculating reference visual condition data of converted image data; and means for converting input image data with the calculated reference visual condition data.
【請求項5】カラーアピアレンスモデルにより、入力画
像データを変換し、その後、逆変換して出力画像データ
とする請求項3記載の画像データ変換装置。
5. The image data conversion device according to claim 3, wherein the input image data is converted by a color appearance model, and then converted back to output image data.
【請求項6】請求項4または5記載の変換装置を用いて
画像データの圧縮を行う画像データの圧縮装置。
6. An image data compression apparatus for compressing image data using the conversion apparatus according to claim 4.
JP2000070492A 2000-03-14 2000-03-14 Image data conversion method, compression method and its device Withdrawn JP2001258049A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000070492A JP2001258049A (en) 2000-03-14 2000-03-14 Image data conversion method, compression method and its device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000070492A JP2001258049A (en) 2000-03-14 2000-03-14 Image data conversion method, compression method and its device

Publications (1)

Publication Number Publication Date
JP2001258049A true JP2001258049A (en) 2001-09-21

Family

ID=18589217

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000070492A Withdrawn JP2001258049A (en) 2000-03-14 2000-03-14 Image data conversion method, compression method and its device

Country Status (1)

Country Link
JP (1) JP2001258049A (en)

Similar Documents

Publication Publication Date Title
US7242409B2 (en) Interpolated color transform for changing color of an application user interface
JP4375781B2 (en) Image processing apparatus, image processing method, program, and recording medium
EP2120449B1 (en) Method of processing of a compressed image into a gamut mapped image using spatial frequency analysis
US11615734B2 (en) Method and apparatus for colour imaging
US20060203298A1 (en) Image processing apparatus, image processing method, image processing program recording medium, color adjustment method, color adjustment device, and color adjustment control program recording medium
KR101366596B1 (en) Method and system of immersive generation for two-dimension still image and factor dominating method, image content analysis method and scaling parameter prediction method for generating immersive
JP4068673B2 (en) Image processing apparatus and method
JP4687673B2 (en) Monotone processing of color image
WO2003003716A1 (en) Image processing device, image processing method, program, and recording medium
US8345967B2 (en) Apparatus and method of processing image, and record medium for the method
JP2007124236A (en) Image processor, image processing method, and image processing program
US8290262B2 (en) Color processing apparatus and method thereof
JP4774757B2 (en) Image processing apparatus, image processing program, electronic camera, and image processing method
JP4001079B2 (en) Monotone processing of color image
JP4944413B2 (en) Information processing method, computer program, computer-readable storage medium, and information processing apparatus
JP2008072551A (en) Image processing method, image processing apparatus, program and recording medium
JP4146506B1 (en) Mosaic image generating apparatus, method and program
JP4277573B2 (en) Image processing device
JP2002197475A (en) Method and apparatus of correcting digital image using multiple selected digital images
JPH07236069A (en) Picture processor
EP1895781B1 (en) Method of and apparatus for adjusting colour saturation
JP2001258049A (en) Image data conversion method, compression method and its device
Nakauchi et al. Color gamut mapping by optimizing perceptual image quality
JP2006173825A (en) Image processing apparatus and method thereof
Han et al. Comparison between different color transformations for the JPEG 2000

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070605