JPH06160992A - Color data conversion device for image processor - Google Patents

Color data conversion device for image processor

Info

Publication number
JPH06160992A
JPH06160992A JP4308963A JP30896392A JPH06160992A JP H06160992 A JPH06160992 A JP H06160992A JP 4308963 A JP4308963 A JP 4308963A JP 30896392 A JP30896392 A JP 30896392A JP H06160992 A JPH06160992 A JP H06160992A
Authority
JP
Japan
Prior art keywords
data
color data
value
standardized
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4308963A
Other languages
Japanese (ja)
Inventor
Hiroaki Nakamura
博明 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP4308963A priority Critical patent/JPH06160992A/en
Priority to US08/154,118 priority patent/US5557688A/en
Publication of JPH06160992A publication Critical patent/JPH06160992A/en
Priority to US08/294,053 priority patent/US5497431A/en
Pending legal-status Critical Current

Links

Landscapes

  • Color Image Communication Systems (AREA)
  • Control Of Exposure In Printing And Copying (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

PURPOSE:To convert the data indicating the densities of the colors of red light, green light and blue light of a color original image into data indicating hue, saturation and lightness at a high speed and low cost. CONSTITUTION:Color data on three colors for picture elements obtd. by photometry of the original image are averaged by an adder 50 and a divider 52 and the lightness values corresponding to the color data on three colors are outputted. The color data of the green light and the blue light are standardized by the total sum of the color data on three colors outputted from the adder 50. HLUT 60 is indexed by standardized color data (g), (b) on the two standardized colors and the hue values corresponding to the color data on three colors are outputted. SLUT 58 is indexed by the standardized color data g', b' obtd. by decreasing data quantity from the standardized color data (g), (b) on the two standardized colors by a subtractor 56, by which the saturation values corresponding to the color data on three colors are outputted.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、画像処理装置用色デー
タ変換装置にかかり、特に、カラー原画像から得た色デ
ータを色相値、彩度値及び明度値に変換する画像処理装
置用色データ変換装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a color data conversion device for an image processing device, and more particularly to a color data conversion device for an image processing device for converting color data obtained from a color original image into a hue value, a saturation value and a lightness value. The present invention relates to a data converter.

【0002】[0002]

【従来の技術】従来、フィルムやプリント等のカラー原
画像から画像を読み取り、読み取ったデータに基づいて
カラー原画像を再現させて表示する画像表示装置や読み
取ったデータに基づいてカラー原画像が再現されるよう
に露光量を決定して画像を記録する画像記録装置等の画
像処理装置がある。
2. Description of the Related Art Conventionally, an image display device that reads an image from a color original image such as a film or a print, reproduces the color original image based on the read data, and displays the color original image based on the read data As described above, there is an image processing device such as an image recording device that determines an exposure amount and records an image.

【0003】例えば、カラーフィルムの原画像中の人物
の顔等の主要画像の濃度データを抽出し、抽出した濃度
データに基づいて顔の色が適正に焼付けられるように露
光量を決定するものがある。このような技術には、特開
昭62−115430号公報、特開昭62−11543
1号公報、特開昭62−115432号公報、特開昭6
2−189456号公報、特開昭62−189457号
公報、特開昭63−138340号公報、特開昭63−
178222号公報に記載のものがある。
For example, one that extracts density data of a main image such as a person's face in an original image of a color film and determines an exposure amount based on the extracted density data so that a face color is appropriately printed. is there. Such techniques are disclosed in Japanese Patent Laid-Open Nos. 62-115430 and 62-11543.
No. 1, JP 62-115432, JP 6
2-189456, JP-A-62-189457, JP-A-63-138340, JP-A-63-
There is one described in Japanese Patent No. 178222.

【0004】一般に、上記のような画像処理装置ではカ
ラー原画像を色補正するときの合成色を求める演算やカ
ラー原画像の色調を求める演算を容易に行うために、赤
光、緑光及び青光の3色(所謂、3原色R,G,B)の
濃度を表すRデータ、Gデータ、Bデータを、顕色系で
用いられる色相(H)、彩度(S)及び明度(L)の各
々を表すHデータ、Sデータ、Lデータに変換してい
る。
Generally, in the image processing apparatus as described above, red light, green light and blue light are used in order to easily perform a calculation for obtaining a composite color when color-correcting a color original image and a calculation for obtaining a color tone of the color original image. R data, G data, and B data representing the densities of the three colors (so-called three primary colors R, G, and B) of the hue (H), saturation (S), and lightness (L) used in the developing system. It is converted into H data, S data, and L data representing each.

【0005】この変換には、HSL6角錐カラーモデル
による変換、ハイデンやラインスの定義に基づく変換が
知られている。
Known as this conversion are the conversion by the HSL6 pyramid color model and the conversion based on the definition of Heiden and Rheins.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、上記変
換は多数の演算式を用いた複雑な演算のため、処理時間
が長くなる。従って、上記のような画像処理装置では、
変換のみに専有する処理時間が長くなり、本来の画像の
処理時間が加わることによって装置全体としての処理時
間が大幅に長くなるという問題がある。
However, since the above conversion is a complicated calculation using a large number of arithmetic expressions, the processing time becomes long. Therefore, in the image processing device as described above,
There is a problem that the processing time dedicated to the conversion becomes long, and the processing time of the original image is added, so that the processing time of the entire apparatus becomes significantly long.

【0007】この問題を解消するために、高速タイプの
CPUを用いれば演算時間は速くなるが、装置としての
コストアップになる。また、上記変換について演算した
結果を予めテーブルに記憶し、このテーブルを用いてR
GBの各データに対応するHSLの各データを出力する
ようにする。これによって、変換時の演算が不用になる
ので演算時間が短縮されて装置の処理について高速化が
図れる。
In order to solve this problem, if a high-speed type CPU is used, the calculation time is shortened, but the cost of the device is increased. In addition, the result of calculation of the above conversion is stored in a table in advance, and R is stored using this table.
Each data of HSL corresponding to each data of GB is output. As a result, the calculation at the time of conversion becomes unnecessary, so that the calculation time can be shortened and the processing speed of the device can be increased.

【0008】しかしながら、RGBの各データの組合せ
に対応してHSLの各データを出力するため、HSLに
ついてそれぞれテーブルを容易しなければならない。ま
た、テーブルの出力データを指定するインデックスはR
GBの各データの組合せた数だけあるため、記憶容量が
大きくなる。すなわち、画像の濃度間差を少なくするた
めに画像の階調は多くされている。例えば、8ビット
(0〜255)で画像の階調を表した場合には、HSL
のデータを出力する各テーブルは、(28 3 ビットの
インデックスが必要となる。従って、HSLの各出力デ
ータが8ビットの場合には各テーブルの記憶容量は約
(224)バイトである。従って、HSLの各テーブルの
総合では、(224)・3で約50Mバイトの大容量を要
するため、実用的ではない。
However, since each HSL data is output corresponding to each combination of RGB data, it is necessary to make a table for each HSL. Also, the index that specifies the output data of the table is R
Since there are as many combinations of GB data as possible, the storage capacity becomes large. That is, the gradation of the image is increased in order to reduce the difference between the densities of the image. For example, when the gradation of an image is represented by 8 bits (0 to 255), HSL
Each table that outputs the data of (2) requires a (2 8 ) 3- bit index. Therefore, when each output data of HSL is 8 bits, the storage capacity of each table is about (2 24 ) bytes. Therefore, the total of the HSL tables requires a large capacity of about 50 Mbytes for (2 24 ) -3, which is not practical.

【0009】本発明は上記問題点を解決するために成さ
れたもので、高速かつ低コストで、カラー原画像の赤
光、緑光及び青光等の色の濃度を表すデータを、色相、
彩度及び明度を表すデータに変換できる画像処理装置用
色データ変換装置を提供することを目的とする。
The present invention has been made to solve the above-mentioned problems, and it is a high-speed and low-cost method for converting data representing color densities such as red light, green light, and blue light of a color original image into hue,
An object of the present invention is to provide a color data conversion device for an image processing device, which can be converted into data representing saturation and lightness.

【0010】[0010]

【課題を解決するための手段】上記目的を達成するため
に、請求項1に記載の発明は、カラー原画像を多数画素
に分割して各画素を赤光、緑光及び青光の3色に分解し
て測光して3色の色データを出力する色データ出力手段
と、少なくとも2つの色データを規格化して規格化色デ
ータを出力する演算手段と、前記3色の色データに基づ
いて明度値を演算して出力する明度変換手段と、前記規
格化色データと該画素の彩度値との関係を表す彩度テー
ブルを備え、入力された規格化色データに対応する彩度
値を出力する彩度変換手段と、前記規格化色データと該
画素の色相値との関係を表す色相テーブルを備え、入力
された規格化色データに対応する色相値を出力する色相
変換手段と、を備えている。
In order to achieve the above object, the invention according to claim 1 divides a color original image into a large number of pixels and each pixel is divided into three colors of red light, green light and blue light. Color data output means for decomposing and photometrically outputting color data of three colors, computing means for normalizing at least two color data and outputting standardized color data, and brightness based on the color data of the three colors. A lightness conversion unit that calculates and outputs a value and a saturation table that represents the relationship between the standardized color data and the saturation value of the pixel are provided, and the saturation value corresponding to the input standardized color data is output. And a hue conversion unit that outputs a hue value corresponding to the input standardized color data, and a hue table that represents the relationship between the standardized color data and the hue value of the pixel. ing.

【0011】請求項2に記載の発明は、請求項1に記載
の画像処理装置用色データ変換装置において、前記演算
手段は、前記明度値の所定倍の値で規格化することを特
徴としている。
According to a second aspect of the present invention, in the color data conversion apparatus for an image processing apparatus according to the first aspect, the arithmetic means is standardized by a value which is a predetermined multiple of the lightness value. .

【0012】請求項3記載の発明は、請求項1または2
に記載の画像処理装置用色データ変換装置において、前
記彩度テーブルに入力される規格化色データは色相テー
ブルに入力される規格化色データのデータ量より少ない
ことを特徴としている。
The invention according to claim 3 is the invention according to claim 1 or 2.
In the color data conversion device for an image processing device described in the paragraph 1, the standardized color data input to the saturation table is smaller than the data amount of the standardized color data input to the hue table.

【0013】[0013]

【作用】請求項1に記載の画像処理装置用色データ変換
装置は、色データ出力手段によってカラー原画像を多数
画素に分割して各画素を赤光、緑光及び青光の3色に分
解して測光して3色の色データを出力する。演算手段
は、色データの少なくとも2つを規格化して規格化色デ
ータを出力する。規格化する色データは、赤光、緑光及
び青光の3色の全て、または赤光、緑光及び青光の3色
の何れか2つを組合せて用いることができる。明度変換
手段は、3色の色データに基づいて明度値を演算して出
力する。例えば、3色の色データの平均値を求め、この
平均値を明度値として出力することができる。また、画
像処理装置用色データ変換装置は、彩度テーブルを有し
た彩度変換手段及び色相テーブルを有した色相変換手段
を備えている。彩度テーブルは規格化色データと該画素
の彩度値との関係を表しており、彩度変換手段は入力さ
れた規格化色データに対応する彩度値を出力する。色相
テーブルは規格化色データと該画素の色相値との関係を
表しており、色相変換手段は入力された規格化色データ
に対応する色相値を出力する。例えば、色相テーブル及
び彩度テーブルのインデックスとして規格化色データを
用いることができる。このように、画像処理装置用色デ
ータ変換装置はカラー原画像の各画素について3色の色
データから演算により明度値を求めかつ、少なくとも2
色の色データが規格化された規格化色データにより色相
テーブル及び彩度テーブルから色相値及び彩度値を出力
する。従って、従来変換に要した演算は明度値を求める
単純な演算のみとなり、変換時間が増大することがな
い。また、少なくとも2色の規格化されたデータを用い
て色相値及び彩度値を得ているため、明度、色相及び彩
度の各々にテーブルを備えて赤光、緑光及び青光の3色
の色データを入力するような容量の増大はない。
According to the present invention, in the color data conversion device for an image processing device, the color data output means divides the color original image into a large number of pixels and separates each pixel into three colors of red light, green light and blue light. Then, the light is measured and the color data of three colors is output. The arithmetic means standardizes at least two of the color data and outputs the standardized color data. The standardized color data can be used by combining all three colors of red light, green light, and blue light, or by combining any two of the three colors of red light, green light, and blue light. The lightness conversion means calculates and outputs a lightness value based on the color data of the three colors. For example, it is possible to obtain an average value of color data of three colors and output this average value as a brightness value. Further, the color data conversion device for an image processing device includes a saturation conversion unit having a saturation table and a hue conversion unit having a hue table. The saturation table represents the relationship between the standardized color data and the saturation value of the pixel, and the saturation conversion means outputs the saturation value corresponding to the input standardized color data. The hue table represents the relationship between the standardized color data and the hue value of the pixel, and the hue conversion means outputs the hue value corresponding to the input standardized color data. For example, standardized color data can be used as an index of the hue table and the saturation table. As described above, the color data conversion device for an image processing device obtains a lightness value from each color data of three colors for each pixel of a color original image by calculation, and at least 2
The hue value and the saturation value are output from the hue table and the saturation table according to the standardized color data in which the color data of the color is standardized. Therefore, the calculation required for the conventional conversion is only a simple calculation for obtaining the lightness value, and the conversion time does not increase. In addition, since the hue value and the saturation value are obtained by using the standardized data of at least two colors, a table is provided for each of the lightness, the hue, and the saturation, and three colors of red light, green light, and blue light are provided. There is no increase in capacity for inputting color data.

【0014】上記規格化は、請求項2に記載の発明のよ
うに明度値の所定倍の値で規格化することができる。こ
のようにすることによって、2色の色データを規格化し
た場合であっても、この2つの規格化色データを用いれ
ば赤光、緑光及び青光の3色の成分を含むこととなり、
色相テーブル及び彩度テーブルを指定するときのデータ
量を減少させることができる。
The above-mentioned standardization can be standardized by a value that is a predetermined multiple of the lightness value as in the invention described in claim 2. By doing so, even when the color data of two colors is standardized, if these two standardized color data are used, the three color components of red light, green light and blue light are included,
The amount of data when designating the hue table and the saturation table can be reduced.

【0015】また、彩度は、色相に比べて微妙な変化が
表れにくい。従って、彩度値は色相値より分解能の必要
がない場合がある。そこで、請求項3記載の発明のよう
に、彩度テーブルに入力される規格化色データは色相テ
ーブルに入力される規格化色データのデータ量より少な
くする。このようにすることによって、色相テーブル及
び彩度テーブルの各々の大きさを異ならせることがで
き、変換時の各値の分解能に応じたテーブルに設定でき
る。
Further, the saturation is less likely to show a delicate change than the hue. Therefore, the saturation value may not require a higher resolution than the hue value. Therefore, as in the third aspect of the invention, the standardized color data input to the saturation table is made smaller than the data amount of the standardized color data input to the hue table. By doing so, the sizes of the hue table and the saturation table can be made different, and the tables can be set according to the resolution of each value at the time of conversion.

【0016】[0016]

【実施例】以下図面を参照して本発明の実施例を詳細に
説明する。本実施例は、オートプリンタに本発明を適用
したものである。図1に示されるように、本実施例のオ
ートプリンタは、カラーネガフィルム10を搬送する搬
送ローラ12を備えている。搬送ローラ12によって搬
送されるカラーネガフィルム10の下方には、光源1
4、調光フイルタ等の色補正フィルタ16および拡散ボ
ックス18が順に配列されている。また、ネガフィルム
10の上方には、ネガフィルム10を透過した光線を2
方向に分配する分配用プリズム20が配置されている。
分配用プリズム20によって分配された一方の光路上に
は、投影光学系22、ブラックシャッタ23及びカラー
ペーパー(印画紙)24が順に配列され、他方の光路上
には投影光学系26及びCCDイメージセンサ28が順
に配列されている。
Embodiments of the present invention will now be described in detail with reference to the drawings. In this embodiment, the present invention is applied to an auto printer. As shown in FIG. 1, the auto printer of this embodiment includes a conveyance roller 12 that conveys a color negative film 10. Below the color negative film 10 transported by the transport roller 12, the light source 1
4. A color correction filter 16 such as a light control filter and a diffusion box 18 are arranged in order. In addition, above the negative film 10, the light rays transmitted through the negative film 10 are
Distributing prisms 20 that distribute in directions are arranged.
A projection optical system 22, a black shutter 23 and a color paper (printing paper) 24 are sequentially arranged on one optical path distributed by the distribution prism 20, and a projection optical system 26 and a CCD image sensor are arranged on the other optical path. 28 are arranged in order.

【0017】このCCDイメージセンサ28は、ネガフ
ィルム10の1画面(1コマ)全体を多数の画素(例え
ば256×256画素)に分割して各画素をR(赤)、
G(緑)、及びB(青)の3色に分解して測光する。C
CDイメージセンサ28は、CCDイメージセンサ出力
を増幅する増幅器30及びアナログ−デジタル(A/
D)変換器32を介してCCDイメージセンサの感度補
正用の3×3マトリックス回路34に接続されている。
3×3マトリックス回路34は、ノイズ除去を行うスム
ージング回路35、色変換回路37(詳細は後述)、及
びマイクロコンピュータで構成された顔抽出回路36を
介して適正露光量計算回路40に接続されると共に、1
画面全体の平均濃度を演算する平均濃度演算回路38を
介して適正露光量計算回路40に接続されている。そし
て、適正露光量計算回路40は、色補正フイルタを駆動
するドライバ42を介して色補正フィルタ16に接続さ
れている。なお、スムージング回路35は、マイクロコ
ンピュータで構成してもよく、回路構成にしてもよい。
The CCD image sensor 28 divides one screen (one frame) of the negative film 10 into a large number of pixels (for example, 256 × 256 pixels) and divides each pixel into R (red),
The light is separated into three colors of G (green) and B (blue) for photometry. C
The CD image sensor 28 includes an amplifier 30 for amplifying a CCD image sensor output and an analog-digital (A /
D) The converter 32 is connected to a 3 × 3 matrix circuit 34 for sensitivity correction of the CCD image sensor.
The 3 × 3 matrix circuit 34 is connected to a proper exposure amount calculation circuit 40 via a smoothing circuit 35 for removing noise, a color conversion circuit 37 (details will be described later), and a face extraction circuit 36 composed of a microcomputer. With 1
It is connected to an appropriate exposure amount calculation circuit 40 via an average density calculation circuit 38 for calculating the average density of the entire screen. The appropriate exposure amount calculation circuit 40 is connected to the color correction filter 16 via a driver 42 that drives the color correction filter. The smoothing circuit 35 may be composed of a microcomputer or a circuit.

【0018】(色変換回路の構成)図2は、色変換回路
37の構成をブロックとして示したものであり、色変換
回路37は、スムージング回路35においてノイズ除去
された後に入力されるR、G、B3色測光データをH
(色相値)、L(明度値)、S(彩度値)に変換する回
路である。なお、本実施例では、R、G、B3色測光デ
ータは8ビットのデータが用いられ、特に指定しない部
位におけるデータの授受は8ビットにて行われている。
(Structure of Color Conversion Circuit) FIG. 2 shows the structure of the color conversion circuit 37 as a block. The color conversion circuit 37 receives R and G after noise removal in the smoothing circuit 35. , B3 color photometric data to H
It is a circuit for converting into (hue value), L (lightness value), and S (saturation value). In this embodiment, 8-bit data is used as the R, G, and B three-color photometric data, and data transmission / reception is performed with 8-bit data in a portion not specified.

【0019】スムージング回路35は加算回路50に接
続されており、R、G、B3色の測光データが各々別個
に入力される。加算回路50は、所定値(本実施例で
は、3)で除算する除算器52及び同期化回路62を介
して顔抽出回路36に接続されると共に、規格化回路5
4に接続されている。本実施例では、除算器52から出
力されるデータを明度値Lとして用いている。従って、
明度値Lは、以下の式(1)による演算と等価になる。
The smoothing circuit 35 is connected to the adder circuit 50, and the photometric data of three colors of R, G and B are individually input. The adder circuit 50 is connected to the face extraction circuit 36 via a divider 52 for dividing by a predetermined value (3 in this embodiment) and a synchronization circuit 62, and also the normalization circuit 5
4 is connected. In this embodiment, the data output from the divider 52 is used as the lightness value L. Therefore,
The lightness value L is equivalent to the calculation by the following formula (1).

【0020】 L=(R+G+B)/3 ・・・・(1) 但し、R,G,Bは3色各々の測光データ。L = (R + G + B) / 3 (1) where R, G, and B are photometric data for each of the three colors.

【0021】規格化回路54にはスムージング回路35
からG、B2色の測光データが各々別個に入力されるよ
うに接続されている。規格化回路54は除算器によって
構成されており、入力されるG、B2色の測光データの
各々をR、G、B3色の測光データ除算することによっ
て規格化した規格化データg,bを出力する。すなわ
ち、規格化回路54は、以下の式(2)に基づく演算と
等価な回路構成である。この規格化データg,bは後述
する彩度ルックアップテーブル(以下、SLUTとい
う)58及び色相ルックアップテーブル(以下、HLU
Tという)60のインデックスとして用いている。
The normalizing circuit 54 includes a smoothing circuit 35.
To G and B two-color photometric data are separately input. The normalization circuit 54 is composed of a divider, and outputs standardized data g and b which are standardized by dividing each of the input photometric data of G and B two colors by photometric data of R, G and B three colors. To do. That is, the standardization circuit 54 has a circuit configuration equivalent to the calculation based on the following equation (2). The standardized data g and b are the saturation look-up table (hereinafter referred to as SLUT) 58 and the hue look-up table (hereinafter referred to as HLU) which will be described later.
It is used as an index of 60).

【0022】 g=k・G/(R+G+B) b=k・B/(R+G+B) ・・・・(2) 但し、k:演算値を整数にするための定数(例えば、1
000)。
G = kG / (R + G + B) b = kB / (R + G + B) (2) where k is a constant for making the calculated value an integer (for example, 1
000).

【0023】この規格化回路54は、減算器56を介し
てSLUT58及びHLUT60に接続されている。こ
の規格化回路54から出力される規格化データg,bの
出力ビット数(有効ビット数)はHLUT60の必要と
する分解能で増加して定められ、本実施例では、入力さ
れる8ビットのデータによる演算結果を10ビットのデ
ータとして出力する。従って、減算器56及びHLUT
60には、各10ビットの規格化データg,bが入力さ
れる。
The normalization circuit 54 is connected to the SLUT 58 and the HLUT 60 via a subtractor 56. The number of output bits (the number of effective bits) of the standardized data g, b output from the standardization circuit 54 is determined by increasing the resolution required by the HLUT 60. In the present embodiment, the input 8-bit data is input. The calculation result of is output as 10-bit data. Therefore, the subtractor 56 and the HLUT
To the 60, standardized data g and b of 10 bits are input.

【0024】減算器56は、シフトレジスタのビットシ
フト等によって規格化データg,bを8ビットの規格化
データg’,b’として出力する。なお、この減算器5
6は、上位8ビットのデータ線を接続することによって
上記ビットシフトの作動と同様の構成にすることができ
る。なお、10ビットの規格化データg,bを8ビット
の規格化データg’,b’にして出力するのは、通常色
相に対して彩度の方が感度が低く分解能を多少低下させ
ても実質的に影響がないためである。
The subtractor 56 outputs the standardized data g, b as 8-bit standardized data g ', b'by bit shift of the shift register or the like. The subtractor 5
6 can have the same structure as the above-mentioned bit shift operation by connecting the upper 8 bit data line. Note that the 10-bit standardized data g, b is output as the 8-bit standardized data g ', b'when the saturation is lower than the normal hue and the resolution is slightly lowered. This is because there is virtually no effect.

【0025】SLUT58は、SRAM等の記憶素子で
構成され、彩度値Sが多数記憶されている。この多数の
彩度値Sの各々は、インデックスによって指定されるア
ドレスの部位毎に記憶されており、このインデックスに
は、上記説明した8ビットの規格化データg’,b’が
用いられる。従って、規格化データg’,b’の各値に
対応して彩度値Sを選択することができる。例えば、S
LUT58のアドレス16ビットについて、上位8ビッ
トに規格化データg’及び下位8ビットに規格化データ
b’が入力されるように接続する。これにより、規格化
データg’,b’の各々が演算されると、この演算値に
応じたアドレスの部位に記憶された彩度値が出力され
る。このように、SLUT58にはインデックスが8+
8=16ビット、すなわち216個の関係が記憶されてい
る。このSLUT58に記憶される彩度値のデータが8
ビットとすれば、SLUT58の記憶容量は216バイ
ト、すなわち約65キロバイトとなる。
The SLUT 58 is composed of a storage element such as SRAM, and stores a large number of saturation values S. Each of the plurality of saturation values S is stored for each part of the address designated by the index, and the 8-bit standardized data g ′, b ′ described above is used for this index. Therefore, the saturation value S can be selected corresponding to each value of the standardized data g ', b'. For example, S
The 16-bit address of the LUT 58 is connected so that the standardized data g ′ is input to the upper 8 bits and the standardized data b ′ is input to the lower 8 bits. As a result, when each of the standardized data g ′ and b ′ is calculated, the saturation value stored in the part of the address corresponding to the calculated value is output. Thus, the SLUT 58 has an index of 8+
8 = 16 bits, ie 2 16 relationships are stored. The saturation value data stored in this SLUT 58 is 8
In terms of bits, the storage capacity of the SLUT 58 is 2 16 bytes, that is, about 65 kilobytes.

【0026】HLUT60は、SRAM等の記憶素子で
構成され、色相値Hが多数記憶されている。この多数の
色相値Hの各々は、インデックスによって指定されるア
ドレスの部位毎に記憶されており、このインデックスに
は、上記説明した10ビットの規格化データg,bが用
いられる。従って、規格化データg,bの各値に対応し
て色相値Hを選択することができる。例えば、HLUT
60のアドレス20ビットについて、上位10ビットに
規格化データg及び下位10ビットに規格化データbが
入力されるように接続する。これにより、規格化データ
g,bの各々が演算されると、この演算値に応じたアド
レスの部位に記憶された彩度値が出力される。このよう
に、HLUT58にはインデックスが10+10=20
ビット、すなわち220個の関係が記憶されている。この
HLUT60に記憶される色相値のデータが8ビットと
すれば、HLUT60の記憶容量は220バイト、すなわ
ち約1.05メガバイトとなる。
The HLUT 60 is composed of a storage element such as SRAM, and stores a large number of hue values H. Each of the large number of hue values H is stored for each part of the address designated by the index, and the 10-bit standardized data g and b described above is used for this index. Therefore, the hue value H can be selected corresponding to each value of the standardized data g and b. For example, HLUT
Regarding the address 20 bits of 60, the standard data g is input to the upper 10 bits and the standard data b is input to the lower 10 bits. As a result, when each of the standardized data g and b is calculated, the saturation value stored in the part of the address corresponding to the calculated value is output. In this way, the HLUT 58 has an index of 10 + 10 = 20.
Bits, ie 2 20 relationships are stored. If the data of the hue value stored in the HLUT60 is 8 bits, the storage capacity of HLUT60 2 20 bytes, i.e. approximately 1.05 megabytes.

【0027】SLUT58及びHLUT60は同期化回
路62を介して顔抽出回路36に接続されている。この
同期化回路62は、データを一次的に記憶する図示しな
いラッチ回路を含んでおり、除算器52、SLUT58
及びHLUT60から出力される各々のデータを1画素
毎に同期して出力する。
The SLUT 58 and the HLUT 60 are connected to the face extraction circuit 36 via the synchronization circuit 62. The synchronization circuit 62 includes a latch circuit (not shown) that temporarily stores data, and includes a divider 52 and an SLUT 58.
And the data output from the HLUT 60 are output in synchronization with each pixel.

【0028】なお、上記規格化データg,bの各々は、
R、G、B3色測光データの総和による除算によって求
められるために、R色の測光データ成分が含まれてお
り、これら規格化データg,bには1つの規格化データ
rが対応される。従って、規格化データg,bの2つの
データのみを用いても3つの規格化データr,g,bを
用いた場合と同様に扱うことができる。このため、上記
規格化データg’,b’と彩度値Sとの関係及び色相値
Hと規格化データg,bとの関係は、予め3色測光デー
タに基づいて演算によって求めた値を規格化データg,
bまたはg’,b’をインデックスとして記憶すること
によって、対応させることができる。また、上記規格化
データg,bの組合せに限定されず、3つの規格化デー
タr,g,bの何れか2つを組合せて用いればよい。
Each of the standardized data g and b is
Since the R, G, and B color photometric data are obtained by division by the sum, the R color photometric data component is included, and one standardized data r corresponds to these standardized data g and b. Therefore, even if only two pieces of standardized data g, b are used, they can be handled in the same manner as the case of using three pieces of standardized data r, g, b. For this reason, the relationship between the standardized data g ′ and b ′ and the saturation value S and the relationship between the hue value H and the standardized data g and b are values calculated in advance based on the three-color photometric data. Standardized data g,
Correspondence can be made by storing b or g ', b'as an index. Further, it is not limited to the combination of the standardized data g, b, and any two of the three standardized data r, g, b may be used in combination.

【0029】上記色相値H及び彩度値Sの演算には、下
記の(3)式による方法がある。 S=1−min(r,g,b) H=H’/2Pi ・・・・(3) ただし、R、G、Bは図4の3次元色座標に示すように
各々最小値が0、最大値が1になるように規格された3
色測光データ、min( )は( )内の数値の最小値
を表す。またH’は次の(4)式で与えられ、Pi(i
は、R、G、Bのうちの1つ)は図4のPである。
For calculating the hue value H and the saturation value S, there is a method according to the following equation (3). S = 1-min (r, g, b) H = H '/ 2Pi (3) However, R, G, and B each have a minimum value of 0 as shown in the three-dimensional color coordinates in FIG. 3 standardized so that the maximum value is 1.
The color photometric data, min (), represents the minimum value of the numerical values in (). H'is given by the following equation (4), and Pi (i
Is one of R, G, and B) is P in FIG.

【0030】[0030]

【数1】 [Equation 1]

【0031】ただし、However,

【0032】[0032]

【数2】 [Equation 2]

【0033】次に本実施例の作用を説明する。光源14
から照射された光線は、色補正フィルタ16、拡散ボッ
クス18及びカラーネガフィルム10を透過し、分配用
プリズム20によって分配され、投影光学系26を介し
てCCDイメージセンサ28に受光される。なお、この
ときブラックシャツタ23は閉じられている。この受光
によってCCDイメージセンサ28は、1画面全体を多
数の画素に分割して各画素をR、G、B3色に分解して
測光し、測光データ信号を出力する。測光データ信号は
増幅器30で増幅された後A/D変換器32でデジタル
信号に変換され、3×3マトリックス回路34でイメー
ジセンサの感度補正が行われ、スムージング回路35と
平均濃度演算回路38に入力される。この平均濃度演算
回路38では、1画面全体の平均濃度を演算する。スム
ージング回路35では、3色測光データのノイズ除去が
行われる。ノイズ除去された3色測光データは、後述す
る顔の部位を推定するときの演算を容易にするための色
変換回路37において色相値H、彩度値S及び明度値L
に変換される。変換された色相値H、彩度値S及び明度
値Lの各々は顔抽出回路36に入力される。顔抽出回路
36では、1画面中の人物の顔の部位を推定し、顔と推
定された部位のR、G、B3色測光データを出力する。
露光量演算回路40は、顔抽出回路36から出力された
3色測光データと平均濃度演算回路38で求められた平
均濃度とを用いて露光量を演算し、ドライバ42を介し
て色補正フイルタ16を制御すると共にブラックシャッ
タ23を開閉して焼付けを行う。なお、平均濃度演算回
路38で求めた平均濃度を用いるとき、平均濃度に対す
る露光補正量を求めることができる。露光補正量を求め
ない場合、必ずしも平均濃度演算回路38を必要とせ
ず、直接顔抽出回路36から出力された3色測光データ
より露光量を求めてもよい。
Next, the operation of this embodiment will be described. Light source 14
The light beam emitted from the laser beam passes through the color correction filter 16, the diffusion box 18, and the color negative film 10, is distributed by the distribution prism 20, and is received by the CCD image sensor 28 via the projection optical system 26. At this time, the black shirt 23 is closed. By this light reception, the CCD image sensor 28 divides the entire screen into a large number of pixels, decomposes each pixel into R, G, and B colors, and performs photometry, and outputs a photometric data signal. The photometric data signal is amplified by the amplifier 30 and then converted into a digital signal by the A / D converter 32, the sensitivity of the image sensor is corrected by the 3 × 3 matrix circuit 34, and the smoothing circuit 35 and the average density calculation circuit 38 are supplied. Is entered. The average density calculation circuit 38 calculates the average density of one screen. The smoothing circuit 35 removes noise from the three-color photometric data. The noise-removed three-color photometric data is subjected to a hue conversion value H, a saturation value S, and a lightness value L in a color conversion circuit 37 for facilitating the calculation when estimating a face part described later.
Is converted to. Each of the converted hue value H, saturation value S, and lightness value L is input to the face extraction circuit 36. The face extraction circuit 36 estimates the part of the face of the person in one screen, and outputs R, G, B three-color photometric data of the part estimated to be the face.
The exposure amount calculation circuit 40 calculates the exposure amount using the three-color photometric data output from the face extraction circuit 36 and the average density calculated by the average density calculation circuit 38, and the color correction filter 16 is calculated via the driver 42. Is controlled and the black shutter 23 is opened and closed for printing. When the average density calculated by the average density calculation circuit 38 is used, the exposure correction amount for the average density can be calculated. When the exposure correction amount is not calculated, the average density calculation circuit 38 is not necessarily required, and the exposure amount may be calculated directly from the three-color photometric data output from the face extraction circuit 36.

【0034】図2に示したように、色変換回路37に入
力されたノイズ除去された後のR、G、B3色の各測光
データは、加算器50へ入力されて総和が除算器52へ
出力される。この除算器52ではR、G、B3色測光デ
ータの総和を、色分解された色の数(この場合R、G、
Bで3)で除算する。従って、R、G、B3色の測光デ
ータが加算器50及び除算器52の演算により平均さ
れ、この平均値が明度値Lとして同期化回路62へ出力
される。
As shown in FIG. 2, the noise-removed R, G, and B color photometric data input to the color conversion circuit 37 are input to the adder 50 and the total sum is input to the divider 52. Is output. In this divider 52, the total sum of the R, G, B three-color photometric data is divided into the number of colors separated (in this case, R, G,
Divide by 3 in 3). Therefore, the R, G, and B photometric data are averaged by the operation of the adder 50 and the divider 52, and this average value is output as the lightness value L to the synchronization circuit 62.

【0035】また、加算器50によるR、G、B3色測
光データの総和は規格化回路54に入力されて、この規
格化回路54においてG、B2色の各測光データがR、
G、B3色の測光データの総和によって10ビットの規
格化データg,bに規格化される。この10ビットの各
規格化データg,bはHLUT60に記憶された色相値
Hを出力するために指定するインデックスとして用いら
れ、規格化データg,bに対応する色相値Hを同期化回
路62へ出力する。従って、HLUT60からは各々8
ビットの規格化データg’、b’、すなわち20ビット
のデータによるインデックスによって指定されたR、
G、B3色測光データに対応する色相値Hが出力され
る。
Further, the total sum of the R, G, B three-color photometric data obtained by the adder 50 is input to the standardization circuit 54, and in the standardization circuit 54, the G, B2 color photometric data is converted into R,
It is standardized into 10-bit standardized data g and b by the sum of the photometric data of three colors G and B. The 10-bit standardized data g, b is used as an index for outputting the hue value H stored in the HLUT 60, and the hue value H corresponding to the standardized data g, b is sent to the synchronization circuit 62. Output. Therefore, 8 from the HLUT 60
Bit normalized data g ', b', that is, R specified by an index based on 20-bit data,
The hue value H corresponding to the G, B three-color photometric data is output.

【0036】一方、彩度に対しては色相より分解能が低
くてもよいため、10ビットの各規格化データg,bが
減算器56により各々8ビットの規格化データg’,
b’に減少される。これらの規格化データg’,b’が
SLUT58に記憶された彩度値Sを出力するためのイ
ンデックスとして用いられ、規格化データg’,b’に
対応する彩度値Sを同期化回路62へ出力する。従っ
て、SLUT58からは各々8ビットの規格化データ
g’、b’、すなわち16ビットのデータによるインデ
ックスによって指定されたR、G、B3色測光データに
対応する彩度値Sが出力される。
On the other hand, since the resolution may be lower than the hue with respect to the saturation, the 10-bit standardized data g, b is converted into 8-bit standardized data g ',
b '. These normalized data g ′, b ′ are used as an index for outputting the saturation value S stored in the SLUT 58, and the saturation value S corresponding to the normalized data g ′, b ′ is synchronized with the synchronization circuit 62. Output to. Therefore, the SLUT 58 outputs the saturation value S corresponding to the 8-bit standardized data g ', b', that is, the R, G, B three-color photometric data designated by the index of the 16-bit data.

【0037】上記明度値L、彩度値S及び色相値Hは、
同期化回路62において画素毎に同期して顔抽出回路3
6へ出力される。
The lightness value L, the saturation value S and the hue value H are
The face extraction circuit 3 is synchronized with each pixel in the synchronization circuit 62.
6 is output.

【0038】このように、明度値は単純な演算である平
均によって求められ、色相値及び彩度値は各ルックアッ
プテーブル、すなわちSLUT58及びHLUT60を
インデックスで指定することによって得ることができる
ため、従来変換に要した時間は不用となり、変換処理時
間は短時間となる。
As described above, the lightness value is obtained by an average which is a simple operation, and the hue value and the saturation value can be obtained by designating each look-up table, that is, the SLUT 58 and the HLUT 60 by an index, and thus, it is conventionally used. The time required for conversion becomes unnecessary, and the conversion processing time becomes short.

【0039】また、明度値は単純な演算で求めることが
できるため、従来ルックアップテーブルに記憶するよう
な明度用の記憶容量を有したメモリ等は不用となる。色
相値及び彩度値についてはルックアップテーブル、すな
わちSLUT58及びHLUT60を用いているが、各
々SLUT58及びHLUT60を指定するインデック
スには、R、G、B3色測光データに基づいて規格化し
た2色についての規格化データを用いることによって、
インデックス数はR、G、B3色測光データの全てを用
いた場合に比して減少し、少ない各データの記憶領域に
よるSLUT58及びHLUT60の使用が可能とな
る。
Further, since the lightness value can be obtained by a simple calculation, a memory or the like having a storage capacity for lightness which is conventionally stored in a look-up table becomes unnecessary. A look-up table, that is, the SLUT 58 and the HLUT 60 are used for the hue value and the saturation value. The indexes for designating the SLUT 58 and the HLUT 60 respectively are for the two colors standardized based on the R, G, and B color photometric data. By using the standardized data of
The number of indexes decreases as compared with the case where all the R, G, and B color photometric data are used, and it becomes possible to use the SLUT 58 and the HLUT 60 with a small storage area for each data.

【0040】周知のように色相値については、分解能が
必要である。従って、HLUT60は記憶容量が多く必
要となるが、本実施例では規格化回路54において、色
相値Lの分解能に基づいたデータ長、すなわちビット数
に設定されている。一方、彩度値Sについては色相値L
に比して分解能が減少可能である。このため、充分な分
解能を得るだけ減算器によりビット数が減少されてい
る。このように、各々必要とする分解能に応じて最適な
ビット数でデータを扱うことができるため、各SLUT
58及びHLUT60の記憶容量は最適に設定できる。
As is well known, resolution is required for hue values. Therefore, the HLUT 60 requires a large storage capacity, but in the present embodiment, the standardizing circuit 54 sets the data length based on the resolution of the hue value L, that is, the number of bits. On the other hand, for the saturation value S, the hue value L
The resolution can be reduced compared to. Therefore, the number of bits is reduced by the subtractor to obtain sufficient resolution. In this way, since data can be handled with an optimum number of bits according to the required resolution, each SLUT
The storage capacities of 58 and HLUT 60 can be optimally set.

【0041】本実施例によれば、従来、色相値、彩度値
及び明度値のそれぞれに8ビットデータを記憶したルッ
クアップテーブルとした場合に必要とした約50メガバ
イトの記憶容量を、約65キロバイトのSLUT58及
び約1.05メガバイトのHLUT60による約1.1
メガバイトの記憶容量で賄うことができ、1/50の記
憶容量の減少が可能となる。
According to the present embodiment, the storage capacity of about 50 megabytes, which is conventionally required when the lookup table stores 8-bit data for each of the hue value, the saturation value, and the lightness value, is about 65. About 1.1 with a kilobyte SLUT 58 and about 1.05 megabyte HLUT 60
The storage capacity of megabytes can be covered, and the storage capacity can be reduced by 1/50.

【0042】図3は顔抽出回路36よる顔抽出ルーチン
を示すものであり、この顔抽出回路36ではノイズ除去
されかつ変換された色相値、彩度値及び明度値に基づい
て処理される。
FIG. 3 shows a face extraction routine by the face extraction circuit 36. In this face extraction circuit 36, processing is performed on the basis of the hue value, the saturation value and the lightness value which have been denoised and converted.

【0043】ステップ104では、図5(1)に示すよ
うに、各々直交する色相値軸、彩度値軸及び画素数軸か
ら成る座標系を用いて色相値及び彩度値についての2次
元ヒストグラムを求め、次のステップ106において後
述するように、求めた2次元ヒストグラムを山毎に分割
する、すなわち2次元ヒストグラムのクラスタリングを
行う。次のステップ108ではクラスタリングされた2
次元ヒストグラムの山に基づいて多数の画素のクラスタ
リングを行い、このクラスタリングに基づいて画面を分
割し、分割された領域から人物の顔の候補となる領域を
抽出する。次のステップ110では、顔の候補として抽
出された領域から顔の領域を推定し、顔として推定され
た領域のR、G、B3色測光データを出力する。そし
て、ステップ112において全コマの焼付けが終了した
か否か判断し、焼付終了と判断されたときにこのルーチ
ンを終了する。
In step 104, as shown in FIG. 5A, a two-dimensional histogram of the hue value and the saturation value is obtained by using a coordinate system composed of a hue value axis, a saturation value axis and a pixel number axis which are orthogonal to each other. Then, as will be described later in step 106, the obtained two-dimensional histogram is divided into mountains, that is, clustering of the two-dimensional histogram is performed. In the next step 108, clustered 2
A large number of pixels are clustered based on the peaks of the dimensional histogram, the screen is divided based on this clustering, and areas that are candidates for human faces are extracted from the divided areas. In the next step 110, the face area is estimated from the area extracted as the face candidate, and R, G, B three-color photometric data of the area estimated as the face is output. Then, in step 112, it is judged whether or not the printing of all the frames is completed, and when it is judged that the printing is completed, this routine is ended.

【0044】次に、上記ステップ106〜110の詳細
を説明する。図6はステップ106の詳細を示すもの
で、ステップ120において色相値及び彩度値について
の2次元ヒストグラムから評価すべき領域を切り出す。
図5では説明を簡単にするため1コマを評価領域とし
た。ステップ122では評価領域があるか否か判断す
る。ステップ120で評価領域が切り出せなかったと
き、すなわち全ての領域の評価が終了したときには評価
領域がないため、このルーチンを終了する。評価領域が
ある場合には、ステップ124において山切り出し用ヒ
ストグラムを作成するためのX、Y軸の決定を行う。す
なわち、評価領域を画素数軸と平行な軸を中心に回転さ
せ、ヒストグラムの山を横から見たときに多峰性を優先
しかつ山が最も尖鋭となる位置を求め、この位置を基準
にX、Y軸を決定する。処理時間の短縮が必要な場合
は、精度が多少劣化するが、X、Y軸としてヒストグラ
ムの分散が最大となる軸を用いてもよい。図5(1)の
例では、1〜4の符号を付した4つの山を横から見たと
きに多峰性を優先し山が最も尖鋭になる位置は3つの山
が見える位置であるので見る方向と直交する方向にX軸
を定め、このX軸と直交する方向にY軸を定めている。
Next, details of steps 106 to 110 will be described. FIG. 6 shows the details of step 106. In step 120, an area to be evaluated is cut out from the two-dimensional histogram of the hue value and the saturation value.
In FIG. 5, one frame is set as the evaluation area for simplification of description. In step 122, it is determined whether there is an evaluation area. When the evaluation area cannot be cut out in step 120, that is, when the evaluation of all areas is completed, there is no evaluation area, and this routine is ended. If there is an evaluation area, the X and Y axes for creating the mountain cutting histogram are determined in step 124. In other words, the evaluation area is rotated around an axis parallel to the pixel number axis, and when the mountains of the histogram are viewed from the side, priority is given to multimodality and the position where the mountains are the sharpest is obtained. Determine the X and Y axes. When the processing time needs to be shortened, the accuracy is somewhat deteriorated, but the axes that maximize the variance of the histogram may be used as the X and Y axes. In the example of FIG. 5 (1), when the four mountains with the reference numbers 1 to 4 are viewed from the side, priority is given to the multi-modality, and the peaks are the most sharp positions because the three mountains are visible. The X axis is defined in the direction orthogonal to the viewing direction, and the Y axis is defined in the direction orthogonal to the X axis.

【0045】次のステップ126では、2次元ヒストグ
ラムをX、Y軸に投影させて各々1次元ヒストグラムを
作成する。図5(1)の例では、X軸と直交する方向か
ら見ると1、2の符号を付した山が重なって見えるため
X軸についての1次元ヒストグラムには、符号3を付し
た山、符号1、2を付した山、符号4を付した山の3つ
の山が現れ、Y軸と直交する方向から見ると1〜4の符
号を付した山が重なって見えるためY軸についての1次
元ヒストグラムには1つの山が現れている。次のステッ
プ128では、次の(5)式によってヒストグラムを評
価関数H(a)に変換しこの評価関数に基づいてX軸に
ついてのヒストグラムから山の切り出しを行う。
In the next step 126, the two-dimensional histogram is projected on the X and Y axes to create one-dimensional histograms. In the example of FIG. 5 (1), when viewed from the direction orthogonal to the X axis, the peaks with the reference numerals 1 and 2 appear to overlap, so the one-dimensional histogram for the X axis has the peaks and the reference numerals with the reference numeral 3. Three mountains, a mountain with 1 and 2 and a mountain with symbol 4, appear, and when viewed from the direction orthogonal to the Y axis, the mountains with symbols 1 to 4 appear to overlap, so one dimension about the Y axis. One mountain appears in the histogram. In the next step 128, the histogram is converted into an evaluation function H (a) by the following equation (5), and mountains are cut out from the histogram on the X axis based on this evaluation function.

【0046】[0046]

【数3】 [Equation 3]

【0047】ただし、f(a)はX軸方向の値(特徴
量)がaのときの画素数、xは特徴量aからの変位であ
る。
However, f (a) is the number of pixels when the value (feature amount) in the X-axis direction is a, and x is the displacement from the feature amount a.

【0048】すなわち、評価関数H(a)の平均値Tを
求め、評価関数H(a)の平均値T以下の範囲(谷、裾
部の存在範囲)を求める。次に、この範囲内のヒストグ
ラムが最小の位置をヒストグラムの谷または裾部とす
る。そして、求められた谷または裾部でヒストグラムを
切り出す。
That is, the average value T of the evaluation function H (a) is calculated, and the range (valley, skirt existence range) equal to or smaller than the average value T of the evaluation function H (a) is calculated. Next, the position of the minimum histogram within this range is set as the valley or skirt of the histogram. Then, a histogram is cut out at the obtained valley or skirt.

【0049】上記山の切り出しを図7を参照して説明す
ると、実線SIで表わされたヒストグラムから評価関数
H(a)を求めると図の破線で示すようになる。この評
価関数H(a)が負の部分に関しての平均値T以下の範
囲は特徴量がv0〜v1、v2〜v3の範囲である。こ
の範囲内のヒストグラムの度数が最小の位置は、範囲v
0〜v1ではav0=v0、範囲v2〜v3ではav1
であり、av0が裾部として、av2が谷として各々求
められ、この位置でヒストグラムの切り出しを行う。
Explaining the cutout of the mountain with reference to FIG. 7, when the evaluation function H (a) is obtained from the histogram represented by the solid line SI, it becomes as shown by the broken line in the figure. The range of the average value T or less with respect to the negative portion of the evaluation function H (a) is the range of feature amounts v0 to v1 and v2 to v3. The position where the frequency of the histogram in this range is the minimum is the range v
Av0 = v0 in 0 to v1, av1 in the range v2 to v3
And av0 is obtained as a skirt and av2 is obtained as a valley, and the histogram is cut out at this position.

【0050】ステップ130ではX軸についてのヒスト
グラムの山の切り出しと同様の方法でY軸についてのヒ
ストグラムの山の切り出しを行う。次のステップ132
では、2次元ヒストグラム上で上記のように切り出され
たX軸、Y軸についての1次元ヒストグラムの山が重な
る領域を求め、色相値及び彩度値についての2次元ヒス
トグラムから山の切り出しを行う。図5(1)の領域E
1は上記のようにして切り出した山の一例を示すもので
ある。
In step 130, the mountain peak of the Y axis is cut out in the same manner as the mountain peak cut of the X axis. Next step 132
Then, an area in which the peaks of the one-dimensional histogram for the X-axis and the Y-axis cut out as described above overlap on the two-dimensional histogram is obtained, and the peak is cut out from the two-dimensional histogram of the hue value and the saturation value. Area E in FIG. 5 (1)
Reference numeral 1 shows an example of a mountain cut out as described above.

【0051】次のステップ134では、2次元ヒストグ
ラムから切り出された山が単峰か否か判断し、単峰でな
い場合は2次元ヒストグラムから切り出された山が単峰
になるまでステップ124〜ステップ134を繰り返
す。図5(3)の領域E2は、上記のようにして切り出
された単峰の山の一例を示すものである。
In the next step 134, it is judged whether or not the mountain cut out from the two-dimensional histogram is a single peak, and if it is not a single peak, steps 124 to 134 are repeated until the mountain cut out from the two-dimensional histogram becomes a single peak. repeat. A region E2 in FIG. 5C shows an example of a single-peak mountain cut out as described above.

【0052】次のステップ136では、切り出された単
峰の山を識別するためのラベルを付ける処理(ラベリン
グ)を行い、ステップ138ではラベリングされた山を
マスクしてステップ120へ戻る。そして、上記のステ
ップを繰り返して色相値及び彩度値についての2次元ヒ
ストグラムの全領域を単峰の山に分割する。
In the next step 136, a process (labeling) for attaching a label for identifying the cut-out single-peak mountain is performed. In step 138, the labeled mountain is masked and the process returns to step 120. Then, the above steps are repeated to divide the entire area of the two-dimensional histogram for the hue value and the saturation value into single peaks.

【0053】図8は図3のステップ108の詳細を示す
もので、ステップ140では、上記のようにして分割さ
れた単峰の山のX軸方向の範囲XR(図5(3))及び
Y軸方向の範囲YR(図5(3))を単峰の山毎に各々
求め、原画像の各画素について色相値及び彩度値がこれ
らの範囲に属しているかを判断して画素のクラスタリン
グを行うと共に、範囲XR、YRで囲まれた範囲に属し
ている画素を集め、集めた画素が原画像上で1つの領域
となるように原画像を分割する。また、分割された領域
にナンバリングする。図5(2)は、原画像を分割した
例を示すもので符号1〜4を付した各領域の画素は、図
5(1)の、符号1〜4を付した単峰の山に含まれる画
素に対応している。図5(1)で同じ単峰の山に属して
いる画素が図5(2)では異る領域に分割されている
が、これは図5(1)では単峰の山の色相値範囲及び彩
度値範囲を持つ画素であるが、図5(2)では領域が分
かれているからである。
FIG. 8 shows the details of step 108 in FIG. 3, and in step 140, the range XR (FIG. 5 (3)) and Y of the single-peak mountain divided as described above in the X-axis direction. The range YR in the axial direction (FIG. 5 (3)) is obtained for each single peak, and it is determined whether the hue value and the saturation value of each pixel of the original image belong to these ranges, and the pixel clustering is performed. At the same time, the pixels belonging to the range surrounded by the ranges XR and YR are collected, and the original image is divided so that the collected pixels form one area on the original image. Also, the divided areas are numbered. FIG. 5 (2) shows an example in which the original image is divided, and the pixels in each area denoted by reference numerals 1 to 4 are included in the unimodal peaks denoted by reference numerals 1 to 4 in FIG. 5 (1). Corresponds to the pixels that are displayed. Pixels belonging to the same single-peak mountain in FIG. 5 (1) are divided into different regions in FIG. 5 (2). This is due to the hue value range of the single-peak mountain in FIG. This is because the pixel has a saturation value range, but the region is divided in FIG.

【0054】次のステップ142では、分割された領域
の面積を判断することにより徴小領域を除去し、ナンバ
リングをし直す。次のステップ144では、領域の境界
画素をすべて削除してひと皮分取り除く収縮処理と、収
縮処理とは逆に境界画素を背景画素方向へ増殖させてひ
と皮分太らせる膨張処理とを行って大領域と繁がってい
る小領域を大領域から分離する。次のステップ146で
はステップ142と同様に徴小領域を除去してリナンバ
リングを行い、ステップ148で弱い結合をしている領
域同士を分離するために、上記と同様の収縮、膨張処理
を行い、ステップ150において上記と同様に徴小領域
の除去とリナンバリングを行う。
At the next step 142, the small area is removed by judging the area of the divided area, and the numbering is performed again. In the next step 144, a contraction process for deleting all the boundary pixels of the region to remove one skin, and an expansion process for expanding the boundary pixels in the direction of the background pixels to enlarge the skin by one conversely to the contraction process are performed. It separates a small area that grows up from a large area. In the next step 146, small areas are removed and renumbering is performed in the same manner as in step 142, and in order to separate the weakly bonded areas in step 148, the same contraction and expansion processing is performed, In step 150, the small area is removed and renumbering is performed as described above.

【0055】図9はステップ110の詳細を示すもの
で、ステップ162においてステップ108、すなわち
図8のルーチンで抽出された領域の中から1つの領域を
注目領域として選択し、注目領域の水平フィレ径および
垂直フィレ径が所定値になるように注目領域の拡大縮小
処理を行って注目領域のサイズの規格化を行うと共に、
次の(6)式に従って濃度値または輝度値の規格化を行
う。
FIG. 9 shows details of step 110. In step 162, one area is selected from the areas extracted in step 108, that is, the routine of FIG. 8, as the area of interest, and the horizontal fillet diameter of the area of interest is selected. And the size of the attention area is standardized by performing the enlargement / reduction processing of the attention area so that the vertical fillet diameter becomes a predetermined value.
The density value or the brightness value is standardized according to the following equation (6).

【0056】[0056]

【数4】 [Equation 4]

【0057】ただし、 dmax :領域内最大濃度値(または輝度値) dmin :領域内最低濃度値(または輝度値) ds :イメージセンサのフルスケール濃度値(または
輝度値) d :規格化前濃度値(または輝度値) dr :規格化後濃度値(または輝度値)
Where dmax: maximum density value (or brightness value) in the area dmin: minimum density value (or brightness value) in the area ds: full-scale density value (or brightness value) of the image sensor d: density value before normalization (Or luminance value) dr: normalized density value (or luminance value)

【0058】ステップ164では、予め記憶された複数
種(本実施例では10種類)の標準的な顔画像(正面か
ら見た顔画像、横から見た顔画像(左右)、下向き顔画
像、上向き顔画像等)に対する注目領域の相関係数rを
次の(7)式によって演算し、この相関係数を特徴量と
する。この標準的な顔画像は、顔の輪郭のみのデータで
あっても、顔の輪郭のデータに顔の内部構造(眼、鼻、
口等)データを加えたデータであってもよい。
In step 164, a plurality of types (10 types in this embodiment) of standard face images stored in advance (face image viewed from the front, face image viewed from the side (left and right), downward face image, upward face image) A correlation coefficient r of the attention area with respect to a face image or the like) is calculated by the following expression (7), and this correlation coefficient is used as a feature amount. In this standard face image, even if the data is only the outline of the face, the internal structure of the face (eye, nose,
Oral data) may be added.

【0059】[0059]

【数5】 [Equation 5]

【0060】ただし、However,

【0061】[0061]

【数6】 [Equation 6]

【0062】であり、Tは画像の水平、垂直フィレ径の
長さ(ここでは、フィレ径の長さは同じとした)、f
(x、y)は注目領域、g(x、y)は標準的な顔画像
を表す。
Where T is the horizontal and vertical fillet diameters of the image (here, the fillet diameters are the same), f
(X, y) represents a region of interest, and g (x, y) represents a standard face image.

【0063】そして、ステップ166において上記特徴
量を変量とした線形判別分析により注目領域が人物の顔
であるか否かを判断し、顔であると判断された領域の
R、G、B測光データを適正露光量計算回路40に出力
する。ステップ168では抽出された全領域について顔
か否かの判定が終了したか否か判断し、終了していない
ときにはステップ162〜ステップ168を繰り返す。
Then, in step 166, it is determined whether or not the region of interest is a human face by linear discriminant analysis using the above-mentioned characteristic amount as a variable, and R, G, B photometric data of the region determined to be a face. Is output to the proper exposure amount calculation circuit 40. In step 168, it is determined whether or not the determination as to whether the face is a face has been completed for all the extracted regions. If not, steps 162 to 168 are repeated.

【0064】上記では人物の顔か否かの判定を行うため
に用いる特徴量として相関係数を使用したが、以下で説
明する重心回りの正規化されたセントラル・モーメント
から導出される不変量、自己相関関数または幾何学的不
変量を用いてもよい。
In the above, the correlation coefficient is used as the feature amount used to determine whether the face is a person's face. However, an invariant derived from the normalized central moment around the center of gravity, which will be described below, Autocorrelation functions or geometric invariants may be used.

【0065】画像f(x、y)の(p+q)次の重心回
りのセントラル・モーメントμpq
The central moment μ pq about the (p + q) th centroid of the image f (x, y) is

【0066】[0066]

【数7】 [Equation 7]

【0067】ただし、However,

【0068】[0068]

【数8】 [Equation 8]

【0069】とすれば、重心回りの正規化されたセント
ラル・モーメントは次のようになる。
Then, the normalized central moment around the center of gravity is as follows.

【0070】[0070]

【数9】 [Equation 9]

【0071】ただし、y=(p+q+2)/2 p+q=2,3,…… 以上のことより、2次、3次の重心回りの正規化された
セントラル・モーメントから次の七つの不変量ψi,(i
=1,2,……,7)が導出される。
[0071] However, y = (p + q + 2) / 2 p + q = 2,3, from the above ......, secondary, next seven invariant from the tertiary normalized central moments about the center of gravity [psi i , (I
= 1, 2, ..., 7) is derived.

【0072】[0072]

【数10】 [Equation 10]

【0073】また、自己相関関数Rf は次のように表さ
れる。
Further, the autocorrelation function R f is expressed as follows.

【0074】[0074]

【数11】 [Equation 11]

【0075】そして、幾何学的不変特徴量は次の式で表
わされる。
The geometric invariant feature amount is expressed by the following equation.

【0076】[0076]

【数12】 [Equation 12]

【0077】適正露光量計算回路40は、顔抽出回路3
6で上記のように抽出された顔領域のR、G、B測光デ
ータと平均濃度演算回路38で演算された1コマの画面
平均濃度Di (i=R、G、Bのうちのいずれか)とを
用いて以下の式に従って適正露光量Ei を演算し、ドラ
イバ42に出力する。ドライバ42は適正露光量Ei
ら露光コントロール値を演算して調光フイルタ16を制
御する。
The appropriate exposure amount calculation circuit 40 is composed of the face extraction circuit 3
6. The R, G, B photometric data of the face area extracted as described above in 6 and the screen average density D i of one frame calculated by the average density calculation circuit 38 (i = R, G, or B) ) And are used to calculate an appropriate exposure amount E i according to the following equation, and output to the driver 42. The driver 42 controls the dimming filter 16 by calculating an exposure control value from the appropriate exposure amount E i .

【0078】 logi =LMi ・CSi ・(DNi −Di )+PBi +LBi +MBi +NBi +K1 +K2 …(8) ただし、各記号は次のものを表す。L og E i = LM i · CS i · (DN i −D i ) + PB i + LB i + MB i + NB i + K 1 + K 2 (8) However, each symbol represents the following.

【0079】LM:倍率スロープ係数であり、ネガの種
類とプリントサイズから決まる引伸倍率に応じて予め設
定されている。
LM: Magnification slope coefficient, which is preset according to the enlargement magnification determined by the type of negative and the print size.

【0080】CS:ネガの種類毎に用意されたカラース
ロープ係数でアンダー露光用とオーバー露光用とがあ
り、プリントすべきコマの平均濃度が標準ネガ濃度値に
対してアンダーかオーバーかを判定してアンダー露光用
またはオーバー露光用のいずれかが選択される。
CS: Color slope coefficient prepared for each type of negative, there are underexposure and overexposure, and it is determined whether the average density of the frame to be printed is under or over the standard negative density value. Either underexposure or overexposure is selected.

【0081】DN:標準ネガ濃度値。 D :プリントコマの平均濃度値。DN: Standard negative density value. D: Average density value of print frame.

【0082】PB:標準カラーペーパーに対する補正バ
ランス値であり、カラーペーパーの種類に応じて決定さ
れている。
PB: A correction balance value for standard color paper, which is determined according to the type of color paper.

【0083】LB:標準焼付レンズに対する。補正レン
ズバランス値であり、焼付レンズの種類に応じて決定さ
れている。
LB: For standard print lens. It is a correction lens balance value, which is determined according to the type of printing lens.

【0084】MB:プリント光源の変動やペーパー現像
性能の変化に対する補正値(マスターバランス値)。
MB: A correction value (master balance value) with respect to a change in print light source and a change in paper developing performance.

【0085】NB:ネガフィルムの特性によって定めら
れるネガバランス(カラーバランス)値。
NB: Negative balance (color balance) value determined by the characteristics of the negative film.

【0086】K2 :カラー補正量。 K1 :以下の式で表される濃度補正量。K 2 : Color correction amount. K 1 : A density correction amount represented by the following formula.

【0087】[0087]

【数13】 [Equation 13]

【0088】ここで、Ka 、Kb は定数であり、FDは
顔領域平均濃度である。また、上記(8)式の濃度補正
量K1 をフィルム検定装置によって求められた補正値と
し、カラー補正量K2 を次のように顔領域平均濃度を用
いて表してもよい。
Here, K a and K b are constants, and FD is the face area average density. Further, the density correction amount K 1 in the above equation (8) may be used as the correction value obtained by the film inspection apparatus, and the color correction amount K 2 may be expressed using the face area average density as follows.

【0089】[0089]

【数14】 [Equation 14]

【0090】ただし、Kc は定数である。更に、上記
(8)式の濃度補正量K1 、カラー補正量K2 をフィル
ム検定装置によって求められた補正量とし、(8)式の
プリントコマの平均濃度Di を顔領域の平均濃度FDi
に置きかえて露出量を求めてもよい。
However, K c is a constant. Further, the density correction amount K 1 and the color correction amount K 2 in the above equation (8) are used as the correction amounts obtained by the film inspection device, and the average density D i of the print frame in the equation (8) is the average density FD of the face area. i
Alternatively, the exposure amount may be obtained instead.

【0091】本実施例では、領域の輪郭及び内部構造を
用いて判断しているため、色相が類似している顔、地
面、木等が混在する画像からも顔のデータを抽出するこ
とができる。
In the present embodiment, since the judgment is made by using the contour of the area and the internal structure, the face data can be extracted from the image in which the faces, the ground, the trees and the like having similar hues are mixed. .

【0092】図10はプリンタまたはプリンタプロセッ
サとは別体の露光量決定装置に本発明を適用した変形例
を示すものである。なお、図10において図1と対応す
る部分には同一符号を付して説明を省略する。また、平
均濃度演算回路38は必ずしも必要ではないが、これに
代えて画面全体のLATDを検出する積算透過濃度検出
回路を用いてもよい。
FIG. 10 shows a modification in which the present invention is applied to an exposure amount determining device separate from the printer or the printer processor. In FIG. 10, parts corresponding to those in FIG. 1 are assigned the same reference numerals and explanations thereof will be omitted. Further, the average density calculation circuit 38 is not always necessary, but instead of this, an integrated transmission density detection circuit for detecting LATD of the entire screen may be used.

【0093】図11は、図10の顔抽出回路を複数の顔
抽出回路361 、362 ・・・36nで構成し、並列処
理により露光量を演算するものである。顔抽出回路36
1 、362 ・・・36nは図12のタイムチャートに従
って画像を読込み、露光量を演算し、その結果を出力す
る。図12においてt1 は1コマの画像読込み時間、t
2 は1コマの露光量演算時間、t3 は1コマの露光量演
算結果転送時間であり、t2 >>t1 、t3 である。顔
抽出回路361 はt1 時間で1コマの画像を読込み、t
2 時間で露光量を演算し、t3 時間で演算結果を転送す
る。顔抽出回路361 による1コマの画像読込みが終了
すると同時にフィルムが1コマ分送られ顔抽出回路36
2 による1コマの画像読込みが開始され、顔抽出回路3
1 の露光量演算と顔抽出回路362 の画像読込みとが
並列して行われ、以下同様に顔抽出回路363 、364
・・・36nによって並列処理される。
In FIG. 11, the face extraction circuit of FIG. 10 is composed of a plurality of face extraction circuits 36 1 , 36 2 ... 36 n, and the exposure amount is calculated by parallel processing. Face extraction circuit 36
1, 36 2 ··· 36n reads an image according to the time chart of FIG. 12, calculates the exposure amount, and outputs the result. In FIG. 12, t 1 is the image reading time for one frame, t 1
2 is the exposure amount calculation time for one frame, t 3 is the exposure amount calculation result transfer time for one frame, and t 2 >> t 1 and t 3 . The face extraction circuit 36 1 reads one frame of image at t 1
The exposure amount is calculated in 2 hours, and the calculation result is transferred in t 3 hours. At the same time when one frame of image is read by the face extraction circuit 36 1 , one frame of film is fed and the face extraction circuit 36 1
1 frame image reading by 2 is started, and face extraction circuit 3
The exposure amount calculation of 6 1 and the image reading of the face extraction circuit 36 2 are performed in parallel, and the same applies to the face extraction circuits 36 3 and 36 4 hereinafter.
... 36n is processed in parallel.

【0094】mxnのコマを並列処理するに要する時間
Tpは、 Tp=m(t1 +t2 +t3 )+(n−1)t1 である。一方、並列処理を行わない場合の処理時間Ts
は Ts=m・n(t1 +t2 +t3 ) である。従って、
The time Tp required for parallel processing of mxn frames is Tp = m (t 1 + t 2 + t 3 ) + (n-1) t 1 . On the other hand, the processing time Ts when parallel processing is not performed
Is Ts = m · n (t 1 + t 2 + t 3 ). Therefore,

【0095】[0095]

【数15】 [Equation 15]

【0096】倍高速化が可能である。なお、この並列処
理装置は図1のプリンタにも適用できる。
Double speeding is possible. This parallel processing device can also be applied to the printer of FIG.

【0097】本発明は写真焼付装置の露光量決定以外
に、ディジタルカラープリンタの露光量決定、複写機の
複写条件決定、カメラの露出量決定、CRT画面の表示
条件決定、磁気画像データからハードコピーを作成する
ときの光量決定にも適用することができる。
In addition to determining the exposure amount of the photographic printing apparatus, the present invention determines the exposure amount of the digital color printer, the copying condition of the copying machine, the exposure amount of the camera, the display condition of the CRT screen, the hard copy from the magnetic image data. It can also be applied to the determination of the amount of light when creating.

【0098】[0098]

【発明の効果】以上説明したように本発明によれば、測
光された各色データの基づいて単純な演算により明度値
を求めかつ、色相値及び彩度値はテーブルにより出力す
るようにしているため、測光された各色データから、色
相、彩度及び明度に変換する演算時間を増加させること
なく最適な変換データを出力することができる、という
効果が得られる。
As described above, according to the present invention, the lightness value is obtained by a simple calculation based on the measured color data, and the hue value and the saturation value are output by the table. It is possible to output the optimum conversion data from each of the measured color data without increasing the calculation time for converting the hue, saturation and lightness.

【0099】また、少なくとも2つの色データを規格化
した規格化色データによって色相テーブル及び彩度テー
ブルから彩度値及び色相値を得ることができるため、各
テーブルの記憶容量を最適にすることができる、という
効果が得られる。
Further, since the saturation value and the hue value can be obtained from the hue table and the saturation table by the standardized color data obtained by standardizing at least two color data, the storage capacity of each table can be optimized. You can get the effect.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1実施例のプリンタを示す概略図で
ある。
FIG. 1 is a schematic diagram showing a printer according to a first embodiment of the present invention.

【図2】色変換回路の構成を示す概略ブロック図であ
る。
FIG. 2 is a schematic block diagram showing the configuration of a color conversion circuit.

【図3】顔抽出回路の顔抽出ルーチンを示す流れ図であ
る。
FIG. 3 is a flowchart showing a face extraction routine of a face extraction circuit.

【図4】色座標を示す線図である。FIG. 4 is a diagram showing color coordinates.

【図5】(1)は色相値及び彩度値についての2次元ヒ
ストグラムを示す線図である。(2)は原画像を分割し
た状態を示す線図である。(3)は2次元ヒストグラム
から単峰の山を切り出した状態を示す線図である。
FIG. 5 (1) is a diagram showing a two-dimensional histogram of hue values and saturation values. (2) is a diagram showing a state in which the original image is divided. (3) is a diagram showing a state in which a single peak is cut out from a two-dimensional histogram.

【図6】図3のステップ106の詳細を示す線図であ
る。
FIG. 6 is a diagram showing details of step 106 in FIG.

【図7】ヒストグラムと評価関数を示す線図である。FIG. 7 is a diagram showing a histogram and an evaluation function.

【図8】図3のステップ108の詳細を示す線図であ
る。
FIG. 8 is a diagram showing details of step 108 in FIG.

【図9】図3のステップ110の詳細を示す線図であ
る。
FIG. 9 is a diagram showing details of step 110 in FIG.

【図10】本発明を適用した露光量演算装置の概略図で
ある。
FIG. 10 is a schematic diagram of an exposure amount calculation device to which the present invention is applied.

【図11】複数の顔抽出回路によって並列処理を行う露
光量演算装置の概略図である。
FIG. 11 is a schematic diagram of an exposure amount calculation device that performs parallel processing by a plurality of face extraction circuits.

【図12】並列処理のタイムチャートを示す線図であ
る。
FIG. 12 is a diagram showing a time chart of parallel processing.

【符号の説明】[Explanation of symbols]

28 CCDイメージセンサ 30 増幅器 36 顔抽出回路 37 色変換回路 50 加算器 52 除算器 54 規格化回路 58 彩度ルックアップテーブル 60 色相ルックアップテーブル 28 CCD image sensor 30 Amplifier 36 Face extraction circuit 37 Color conversion circuit 50 Adder 52 Divider 54 Normalization circuit 58 Saturation lookup table 60 Hue lookup table

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 カラー原画像を多数画素に分割して各画
素を赤光、緑光及び青光の3色に分解して測光して3色
の色データを出力する色データ出力手段と、 少なくとも2つの色データを規格化して規格化色データ
を出力する演算手段と、 前記3色の色データに基づいて明度値を演算して出力す
る明度変換手段と、 前記規格化色データと該画素の彩度値との関係を表す彩
度テーブルを備え、入力された規格化色データに対応す
る彩度値を出力する彩度変換手段と、 前記規格化色データと該画素の色相値との関係を表す色
相テーブルを備え、入力された規格化色データに対応す
る色相値を出力する色相変換手段と、 を備えた画像処理装置用色データ変換装置。
1. A color data output means for dividing a color original image into a large number of pixels, dividing each pixel into three colors of red light, green light, and blue light, measuring the light, and outputting color data of the three colors. An arithmetic unit that standardizes two color data and outputs the standardized color data, a brightness conversion unit that calculates and outputs a lightness value based on the color data of the three colors, and the standardized color data and the pixel A saturation conversion unit that includes a saturation table that represents a relationship with a saturation value and that outputs a saturation value corresponding to the input standardized color data; and a relationship between the standardized color data and the hue value of the pixel. And a hue conversion unit that outputs a hue value corresponding to the input standardized color data, and a hue data conversion apparatus for an image processing apparatus.
【請求項2】 前記演算手段は、前記明度値の所定倍の
値で規格化することを特徴とする請求項1に記載の画像
処理装置用色データ変換装置。
2. The color data conversion apparatus for an image processing apparatus according to claim 1, wherein the arithmetic unit normalizes the value by a predetermined multiple of the lightness value.
【請求項3】 前記彩度テーブルに入力される規格化色
データは色相テーブルに入力される規格化色データのデ
ータ量より少ないことを特徴とする請求項1または2に
記載の画像処理装置用色データ変換装置。
3. The image processing apparatus according to claim 1, wherein the standardized color data input to the saturation table is smaller than the data amount of the standardized color data input to the hue table. Color data converter.
JP4308963A 1992-11-18 1992-11-18 Color data conversion device for image processor Pending JPH06160992A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP4308963A JPH06160992A (en) 1992-11-18 1992-11-18 Color data conversion device for image processor
US08/154,118 US5557688A (en) 1992-11-18 1993-11-18 Method of extracting characteristic image data and color data conversion device for image processing apparatus
US08/294,053 US5497431A (en) 1992-11-18 1994-08-24 Method of extracting characteristic image data and color data conversion device for image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4308963A JPH06160992A (en) 1992-11-18 1992-11-18 Color data conversion device for image processor

Publications (1)

Publication Number Publication Date
JPH06160992A true JPH06160992A (en) 1994-06-07

Family

ID=17987347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4308963A Pending JPH06160992A (en) 1992-11-18 1992-11-18 Color data conversion device for image processor

Country Status (1)

Country Link
JP (1) JPH06160992A (en)

Similar Documents

Publication Publication Date Title
US5557688A (en) Method of extracting characteristic image data and color data conversion device for image processing apparatus
EP0514909B1 (en) Method of determining exposure
JP3556859B2 (en) Image correction method, image correction device, and recording medium
JPH09171220A (en) Exposure deciding method
JP2695067B2 (en) Method of extracting data of human face and method of determining exposure amount
US7190844B2 (en) Image processing method, storage medium, image processor and image recorder
US5461457A (en) Method of determining amount of exposure
JP2638691B2 (en) Exposure determination method
US20040036899A1 (en) Image forming method, image processing apparatus, print producing apparatus and memory medium
JP3516786B2 (en) Face area extraction method and copy condition determination method
JPH09261505A (en) Color correction condition calculating method, printing, exposure quantity deciding method, image processing method, image processor, image forming device, printing, exposure device and storage medium
JP2848749B2 (en) Feature image data extraction method
JP2638693B2 (en) Feature image data extraction method
JP3964796B2 (en) Red-eye detection and correction method
JP2642262B2 (en) Exposure determination method
JP2638702B2 (en) Feature image data extraction method
JPH06160992A (en) Color data conversion device for image processor
JP2638692B2 (en) Method of extracting data of human face and method of determining exposure amount
JP2638701B2 (en) Feature image data extraction method
JP2923401B2 (en) Exposure determination method
JP2848750B2 (en) Exposure determination method
JP2763221B2 (en) How to extract human face data
JP4426009B2 (en) Image processing method and apparatus, and recording medium
JP2002185803A (en) Color image restoration method, and recording medium for recording program for executing the same
JP2695074B2 (en) Photometric image data collection method and exposure amount determination method