JPH06160994A - Method for deciding exposure - Google Patents

Method for deciding exposure

Info

Publication number
JPH06160994A
JPH06160994A JP31525892A JP31525892A JPH06160994A JP H06160994 A JPH06160994 A JP H06160994A JP 31525892 A JP31525892 A JP 31525892A JP 31525892 A JP31525892 A JP 31525892A JP H06160994 A JPH06160994 A JP H06160994A
Authority
JP
Japan
Prior art keywords
density
face
area
divided
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP31525892A
Other languages
Japanese (ja)
Other versions
JP2848750B2 (en
Inventor
Hiroaki Nakamura
博明 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP31525892A priority Critical patent/JP2848750B2/en
Priority to US08/153,088 priority patent/US5461457A/en
Priority to EP93118674A priority patent/EP0601363B1/en
Priority to DE69325077T priority patent/DE69325077T2/en
Publication of JPH06160994A publication Critical patent/JPH06160994A/en
Application granted granted Critical
Publication of JP2848750B2 publication Critical patent/JP2848750B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To decide exposure so that a color original image can be reproduced by proper density based on data extracted from the color original image as the face of a person. CONSTITUTION:The photometry data of an area which is judged as the face by being divided every color area based on the data obtained by executing the photometry of the original image is read and the average density of the read area is obtained (170-174). When there is only one face on the original image (176), the exposure is calculated based on the obtained average density (186). Besides, when there are the plural faces on the original image and difference between the maximum and the minimum values of the density is under a prescribed value, only an average value is obtained and the exposure is calculated based on the average value (178 and 180). On the other hand, when there are the plural faces on the original image and the difference between the maximum and the minimum values of the density is equal to or higher than the prescribed value (176 and 178), the plural areas judged to be the face are divided into two groups according to the density value (182) and the exposure is calculated based on the average density of the first group whose face reflectivity having the large effect of correction by the face density is comparatively high.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は露光量決定方法に係り、
特に、カラー原画像をカラー複写材料または黒白複写材
料に複写するときに、人物の顔の濃度データを抽出して
抽出された濃度データに基づいて露光量を決定する露光
量決定方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an exposure amount determining method,
In particular, the present invention relates to an exposure amount determining method for extracting a density data of a person's face and determining an exposure amount based on the extracted density data when a color original image is copied on a color copying material or a black-and-white copying material.

【0002】[0002]

【従来の技術及び発明が解決しようとする課題】人物写
真を観賞するときに最も注目される部位は、人物の顔で
あり、品質の良い写真や画像を作成するためには人物の
顔の色を適正な色に焼付けるまたは表示する必要があ
る。
2. Description of the Related Art When watching a portrait, the most noticeable part is the face of the person, and in order to create a high quality photograph or image, the color of the face Must be printed or displayed in the proper color.

【0003】従来、人物を含んだ画像をプリンタ、印刷
機器及び画像表示装置等の写真処理装置でプリントや表
示する場合には、顔の濃度データを抽出し、この抽出し
た濃度データに基づいて顔の濃度が目標濃度である適正
濃度として再現されて顔の色が適正に焼付けられるまた
は表示されるように露光量を決定していた。
Conventionally, when an image including a person is printed or displayed by a photographic processing device such as a printer, a printing device and an image display device, face density data is extracted and the face is extracted based on the extracted density data. The exposure amount is determined so that the density of is reproduced as an appropriate density that is a target density and the face color is appropriately printed or displayed.

【0004】しかしながら、この方法では人物の顔の反
射率が単一であると仮定しているために、個人差や人種
間差によって複数の異なる反射率の顔がカラー原画像内
に存在する場合には顔濃度がばらついて顔濃度によって
適正な色に焼付けるまたは表示する補正を行うことがで
きないという問題があった。
However, in this method, since it is assumed that the reflectance of a person's face is single, a plurality of faces having different reflectances exist in the original color image due to individual differences and interracial differences. In this case, there is a problem in that the face density varies and it is not possible to perform correction for printing or displaying in an appropriate color depending on the face density.

【0005】この問題点を解消するために、複数の顔の
濃度の平均値を顔濃度として補正を行うことが考えられ
るが、周知のように人種間では顔の反射率が大きく異な
る。すなわち、図14に示したように、白色人種から黒
色人種までの6種類の人種別の肌における分光反射率特
性(図中、Z1:white-blond,Z2:white-brunette,Z3:Japa
nese,Z4:Hindu,Z5:Mulato,Z6:the negro)では、白色人
種と黒色人種との人種間差には7〜8倍の差が生じるこ
とがある。従って、複数の顔の濃度の単に平均値を顔濃
度として補正を行った場合に何れの顔の濃度も適正な濃
度に仕上がらないという問題がある。
In order to solve this problem, it is conceivable that the average value of the densities of a plurality of faces is corrected as the face density, but as is well known, the reflectance of the face greatly differs between races. That is, as shown in FIG. 14, spectral reflectance characteristics of six types of skins from white race to black race (in the figure, Z1: white-blond, Z2: white-brunette, Z3: Japa
In nese, Z4: Hindu, Z5: Mulato, Z6: the negro), there may be a 7-8 times difference in the racial difference between Caucasian and black. Therefore, when the face density is corrected by simply averaging the densities of a plurality of faces, there is a problem in that the densities of any of the faces cannot be properly adjusted.

【0006】本発明は上記問題点を解決するために成さ
れたもので、ネガフィルム等のカラー原画像から人物の
顔として抽出されたデータからカラー原画像を適正な濃
度で再現できるように露光量を決定する露光量決定方法
を提供することを目的とする。
The present invention has been made to solve the above-mentioned problems, and it is exposed so that a color original image can be reproduced at an appropriate density from data extracted as a human face from a color original image such as a negative film. It is an object to provide an exposure amount determining method for determining an amount.

【0007】[0007]

【課題を解決するための手段】上記目的を達成するため
に請求項1の発明は、カラー原画像を多数画素に分割し
て各画素を赤光、緑光及び青光の3色に分解して測光
し、測光により得られたデータに基づいて前記カラー原
画像上で色相または色相及び彩度が同一または類似の色
領域を求め、求めた色領域について人物の顔の領域か否
かを判断し、人物の顔の領域と判断された領域の濃度を
求め、求めた濃度の最大値と最小値との差が所定値を越
えた場合に、求めた濃度に基づいて前記人物の顔の領域
を類似した濃度群に分類し、分類された濃度群の少なく
とも1つを選択して選択された濃度群に基づいて複写材
料への露光量を決定する。
In order to achieve the above object, the invention of claim 1 divides a color original image into a large number of pixels and decomposes each pixel into three colors of red light, green light and blue light. Photometry, and based on the data obtained by photometry, to obtain a color area on the original color image having the same or similar hue or hue and saturation, and determine whether or not the obtained color area is a human face area. If the difference between the maximum value and the minimum value of the obtained density exceeds a predetermined value, the area of the person's face is determined based on the obtained density. It classifies into similar density groups, at least one of the classified density groups is selected, and the exposure amount to the copying material is determined based on the selected density group.

【0008】請求項2の発明は、請求項1の露光量決定
方法であって、被写体である人物の顔の反射率が所定値
以上の顔の領域を含む濃度群の濃度が基準濃度になるよ
うに複写材料への露光量を決定することを特徴としてい
る。
According to a second aspect of the present invention, there is provided the exposure amount determining method according to the first aspect, wherein the density of a density group including a face region in which the reflectance of the face of the person who is the subject is equal to or more than a predetermined value is the reference density. The feature is that the exposure amount to the copying material is determined as described above.

【0009】請求項3の発明は、カラー原画像を多数画
素に分割して各画素を赤光、緑光及び青光の3色に分解
して測光し、測光により得られたデータに基づいて色相
値のヒストグラムを求め、求めたヒストグラムを山毎に
分割し、カラー原画像の各画素が分割された山のどれに
属するかを判断して画素を分割された山に対応する群に
分けると共に、各々の群毎にカラー原画像を分割し、分
割された各領域の輪郭及び内部構造の少なくとも1つを
判断して人物の顔か否か判断し、人物の顔と判断された
領域の濃度を求め、求めた濃度の最大値と最小値との差
が所定値を越えた場合に、求めた濃度に基づいて前記人
物の顔の領域を類似した濃度群に分類し、分類された濃
度群の少なくとも1つを選択して選択された濃度群に基
づいて複写材料への露光量を決定する。
According to a third aspect of the present invention, a color original image is divided into a large number of pixels, each pixel is decomposed into three colors of red light, green light and blue light, and photometry is performed. Hue is based on the data obtained by the photometry. Obtain the histogram of the value, divide the obtained histogram for each mountain, determine which of the divided mountains each pixel of the color original image belongs to, and divide the pixels into groups corresponding to the divided mountains, The color original image is divided for each group, and at least one of the contour and the internal structure of each divided area is determined to determine whether or not it is a human face, and the density of the area determined to be the human face is determined. Obtained, when the difference between the maximum value and the minimum value of the obtained density exceeds a predetermined value, the area of the person's face is classified into similar density groups based on the calculated density, Select at least one and transfer to copy material based on the selected density group To determine the amount of exposure.

【0010】請求項4の発明は、カラー原画像を多数画
素に分割して各画素を赤光、緑光及び青光の3色に分解
して測光し、測光により得られたデータに基づいて色相
値及び彩度値についての2次元ヒストグラムを求め、求
めた2次元ヒストグラムを山毎に分割し、カラー原画像
の各画素が分割された山のどれに属するかを判断して画
素を分割された山に対応する群に分けると共に、各々の
群毎にカラー原画像を分割し、分割された各領域の輪郭
及び内部構造の少なくとも1つを判断して人物の顔か否
か判断し、人物の顔と判断された領域の濃度を求め、求
めた濃度の最大値と最小値との差が所定値を越えた場合
に、求めた濃度に基づいて前記人物の顔の領域を類似し
た濃度群に分類し、分類された濃度群の少なくとも1つ
を選択して選択された濃度群に基づいて複写材料への露
光量を決定する。
According to a fourth aspect of the present invention, a color original image is divided into a large number of pixels, each pixel is decomposed into three colors of red light, green light and blue light, and photometry is performed, and a hue is obtained based on the data obtained by the photometry. A two-dimensional histogram of the values and the saturation values is obtained, the obtained two-dimensional histogram is divided for each mountain, and the pixel is divided by judging which of the divided mountains each pixel of the color original image belongs to. In addition to dividing into groups corresponding to mountains, the color original image is divided into each group, and at least one of the contour and internal structure of each divided area is determined to determine whether or not it is a human face. If the difference between the maximum value and the minimum value of the calculated density exceeds a predetermined value, the density of the area determined to be the face is determined, and the area of the person's face is grouped into similar density groups based on the calculated density. Select and select at least one of the classified concentration groups. It was based on the density group to determine the exposure amount to the copy material.

【0011】[0011]

【作用】請求項1の発明では、カラー原画像を多数画素
に分割して各画素を赤光、緑光及び青光の3色に分解し
て測光し、測光により得られたデータに基づいてカラー
原画像上で色相または色相及び彩度が同一または類似の
色領域を求める。次に、求めた色領域について人物の顔
の領域か否かを判断する。この類似の色領域から顔の領
域を判断するには後述する請求項3または4に記載のよ
うに色相または色相及び彩度のヒストグラムに基づいて
求めることができる。続いて、人物の顔の領域と判断さ
れた領域の濃度を求める。求めた濃度の最大値と最小値
との差が所定値を越えた場合には、求めた濃度に基づい
て人物の顔の領域を類似した濃度群に分類する。この分
類された群に含まれる顔の領域の濃度は類似すなわち近
接することになる。例えば、カラー原画像上に複数の所
定値を越えた異なる濃度の顔の領域が存在する場合に
は、各顔の領域が濃度群に分けられる。この分類された
濃度群の少なくとも1つを選択して選択された濃度群に
基づいて複写材料への露光量を決定する。従って、カラ
ー原画像上に複数の所定値を越えた異なる濃度の顔の領
域が存在しても、全ての顔の領域の濃度に基づく補正を
行うことなく、顔の濃度による補正が必要な顔領域の濃
度で補正することができる。この補正には、請求項2に
記載のように、被写体である人物の顔の反射率が所定値
以上の前記領域を含む濃度群の濃度、例えば平均濃度が
基準濃度になるように複写材料への露光量を決定するこ
とができる。これによって、顔の反射率が高く、顔の濃
度による補正が必要な顔領域を含む濃度群の濃度を補正
することができる。
According to the invention of claim 1, the color original image is divided into a large number of pixels, each pixel is divided into three colors of red light, green light and blue light, and photometry is carried out, and the color is obtained based on the data obtained by the photometry. A color region having the same or similar hue or hue and saturation is obtained on the original image. Next, it is determined whether or not the obtained color area is a human face area. To determine the face area from the similar color area, it can be determined based on the hue or the histogram of the hue and the saturation as described in claim 3 or 4. Then, the density of the area determined to be the human face area is obtained. When the difference between the maximum value and the minimum value of the calculated density exceeds a predetermined value, the human face area is classified into similar density groups based on the calculated density. The densities of the face regions included in this classified group are similar, that is, close to each other. For example, when there are a plurality of face areas having different densities exceeding a predetermined value on the color original image, the face areas are divided into density groups. At least one of the classified density groups is selected and the exposure amount to the copying material is determined based on the selected density group. Therefore, even if there are face areas of different densities exceeding a plurality of predetermined values on the color original image, the face needs to be corrected by the density of the face without performing the correction based on the densities of all the face areas. It can be corrected by the density of the area. For this correction, as described in claim 2, the density of a density group including the region where the reflectance of the face of the person who is the subject is a predetermined value or more, for example, the average density is applied to the copy material. Exposure dose can be determined. As a result, it is possible to correct the density of a density group that includes a face area that has a high reflectance of the face and that needs correction based on the density of the face.

【0012】請求項3の発明では、カラー原画像を多数
画素に分割して各画素を赤光、緑光及び青光の3色に分
解して測光し、測光により得られたデータに基づいて色
相値のヒストグラムを求める。次に、求められたヒスト
グラムをヒストグラムの谷または山の裾を境にして山毎
に分割する。これによって、各山の色相値範囲が定めら
れる。次に、各画素の色相値がどの色相値範囲に属する
かを判断することにより、各画素が分割された山のどれ
に属するかを判断し、多数画素を分割された山に対応す
る群(クラスタ)に分ける。続いて、カラー原画像を分
割された群に対応する領域に分ける。このとき、同じ群
に含まれる画素が異る領域に分けられる場合もあるが、
異る群に含まれる画素が同じ領域に含まれることはな
い。これによって、カラー原画像は、ヒストグラムによ
って分けられた色相値範囲内の色相値を持つ画素を含む
領域毎に分けられることになる。従って、カラー原画像
上の1つの領域内には、色相値が所定範囲内の画素が含
まれることになり、人物の顔の輪郭と他の部位の輪郭、
人物の顔の内部構造と他の部位の内部構造とは明らかに
異るから、各領域の輪郭及び内部構造の少なくとも1つ
を判断すれば人物の顔か否かを判断することができる。
このように、本発明では、フィルム種や光源種の変化、
経時変化、フィルム現像差等によってカラー原画像の色
味や色範囲が変化しても人物の顔を判断できる。
According to the third aspect of the invention, the color original image is divided into a large number of pixels, each pixel is divided into three colors of red light, green light and blue light, and photometry is performed, and the hue is calculated based on the data obtained by the photometry. Find a histogram of values. Next, the obtained histogram is divided for each mountain with a valley or a skirt of the mountain as a boundary. This defines the hue value range of each mountain. Next, by determining which hue value range the hue value of each pixel belongs to, it is determined which of the divided mountains each pixel belongs to, and a group (corresponding to a mountain in which a large number of pixels are divided ( Cluster). Then, the color original image is divided into areas corresponding to the divided groups. At this time, the pixels included in the same group may be divided into different regions,
Pixels included in different groups are not included in the same region. As a result, the color original image is divided into regions each including a pixel having a hue value within the hue value range divided by the histogram. Therefore, one area on the color original image includes pixels whose hue value is within a predetermined range, and the contour of the person's face and the contours of other parts,
Since the internal structure of a person's face and the internal structure of other parts are obviously different, it is possible to determine whether or not it is the human face by determining at least one of the contour of each region and the internal structure.
As described above, in the present invention, changes in film type and light source type,
A person's face can be determined even if the tint or color range of the original color image changes due to changes over time, film development differences, and the like.

【0013】また、請求項4の発明では色相値に加えて
更に彩度値を導入し、色相値及び彩度値の2次元ヒスト
グラムを求め、この2次元ヒストグラムを山毎に分割し
て上記と同様にしてカラー原画像を分割し、分割された
領域の輪郭及び内部構造の少なくとも1つを判断して人
物の顔か否かを判断している。このように、本発明で
は、色相値と彩度値とを用いているため、人物の顔と色
相が同一または近似した部位(例えば、地面、木等)が
混在していても人物の顔のデータを抽出することがてき
る。すなわち、人物の顔の色相は、地面、木等の肌色部
分と近似しているが、ほとんどの場合彩度が異るため、
色相値及び彩度値の2次元ヒストグラムに基づいて人物
の顔のデータを抽出するようにすれば、顔、地面、木等
が混在する画像からも人物の顔を判断することができ
る。
Further, in the invention of claim 4, the saturation value is further introduced in addition to the hue value, a two-dimensional histogram of the hue value and the saturation value is obtained, and the two-dimensional histogram is divided for each mountain and Similarly, the color original image is divided, and at least one of the contour and the internal structure of the divided area is judged to judge whether or not it is a human face. As described above, according to the present invention, since the hue value and the saturation value are used, even if the face of the person and the part having the same or similar hue (for example, the ground, the tree, etc.) are mixed, the face of the person is mixed. Data can be extracted. That is, the hue of a person's face is similar to the skin color part of the ground, trees, etc., but in most cases the saturation is different,
If the face data of the person is extracted based on the two-dimensional histogram of the hue value and the saturation value, the person's face can be determined from the image in which the face, the ground, the tree, and the like are mixed.

【0014】[0014]

【実施例】以下図面を参照して本発明の実施例を詳細に
説明する。本実施例は、オートプリンタに本発明を適用
したものである。図1に示されるように、本実施例のオ
ートプリンタは、カラーネガフィルム10を搬送する搬
送ローラ12を備えている。搬送ローラ12によって搬
送されるカラーネガフィルム10の下方には、光源1
4、調光フイルタ等の色補正フィルタ16および拡散ボ
ックス18が順に配列されている。また、ネガフィルム
10の上方には、ネガフィルム10を透過した光線を2
方向に分配する分配用プリズム20が配置されている。
分配用プリズム20によって分配された一方の光路上に
は、投影光学系22、ブラックシャッタ23及びカラー
ペーパー(印画紙)24が順に配列され、他方の光路上
には投影光学系26及びCCDイメージセンサ28が順
に配列されている。このCCDイメージセンサ28は、
ネガフィルム10の1画面(1コマ)全体を多数の画素
(例えば256×256画素)に分割して各画素をR
(赤)、G(緑)、及びB(青)の3色に分解して測光
する。CCDイメージセンサ28は、CCDイメージセ
ンサ出力を増幅する増幅器30及びアナログ−デジタル
(A/D)変換器32を介してCCDイメージセンサの
感度補正用の3×3マトリックス回路34に接続されて
いる。3×3マトリックス回路34は、以下で説明する
ルーチンのプログラムを記憶したマイクロコンピュータ
で構成された顔抽出回路36を介して適正露光量計算回
路40に接続されると共に、1画面全体の平均濃度を演
算する平均濃度演算回路38を介して適正露光量計算回
路40に接続されている。そして、適正露光量計算回路
40は、色補正フイルタを駆動するドライバ42を介し
て色補正フィルタ16に接続されている。この適正露光
量計算回路40は、以下で説明するルーチン(図9)の
プログラムを記憶したマイクロコンピュータで構成され
ている。
Embodiments of the present invention will now be described in detail with reference to the drawings. In this embodiment, the present invention is applied to an auto printer. As shown in FIG. 1, the auto printer of this embodiment includes a conveyance roller 12 that conveys a color negative film 10. Below the color negative film 10 transported by the transport roller 12, the light source 1
4. A color correction filter 16 such as a light control filter and a diffusion box 18 are arranged in order. In addition, above the negative film 10, the light rays transmitted through the negative film 10 are
Distributing prisms 20 that distribute in directions are arranged.
A projection optical system 22, a black shutter 23 and a color paper (printing paper) 24 are sequentially arranged on one optical path distributed by the distribution prism 20, and a projection optical system 26 and a CCD image sensor are arranged on the other optical path. 28 are arranged in order. This CCD image sensor 28 is
One screen (one frame) of the negative film 10 is divided into a large number of pixels (for example, 256 × 256 pixels), and each pixel is R.
(Red), G (green), and B (blue) are separated into three colors for photometry. The CCD image sensor 28 is connected to a 3 × 3 matrix circuit 34 for sensitivity correction of the CCD image sensor via an amplifier 30 that amplifies the output of the CCD image sensor and an analog-digital (A / D) converter 32. The 3 × 3 matrix circuit 34 is connected to an appropriate exposure amount calculation circuit 40 via a face extraction circuit 36 composed of a microcomputer that stores a program of a routine described below, and at the same time, an average density of one entire screen is displayed. It is connected to an appropriate exposure amount calculation circuit 40 via an average density calculation circuit 38 for calculation. The appropriate exposure amount calculation circuit 40 is connected to the color correction filter 16 via a driver 42 that drives the color correction filter. The proper exposure amount calculation circuit 40 is composed of a microcomputer that stores a program of a routine (FIG. 9) described below.

【0015】次に本実施例の作用を説明する。光源14
から照射された光線は、色補正フィルタ16、拡散ボッ
クス18及びカラーネガフィルム10を透過し、分配用
プリズム20によって分配され、投影光学系26を介し
てCCDイメージセンサ28に受光される。なお、この
ときブラックシャツタ23は閉じられている。この受光
によってCCDイメージセンサ28は、1画面全体を多
数の画素に分割して各画素をR、G、B3色に分解して
測光し、測光データ信号を出力する。測光データ信号は
増幅器30で増幅された後A/D変換器32でデジタル
信号に変換され、3×3マトリックス回路34でイメー
ジセンサの感度補正が行われ、顔抽出回路36と平均濃
度演算回路38に入力される。この平均濃度演算回路3
8では、1画面全体の平均濃度を演算する。顔抽出回路
36では、以下で説明するように1画面中の人物の顔の
部位を推定し、顔と推定された部位のR、G、B3色測
光データを出力する。露光量演算回路40は、顔抽出回
路36から出力された3色測光データと平均濃度演算回
路38で求められた平均濃度とを用いて露光量を演算
し、ドライバ42を介して色補正フイルタ16を制御す
ると共にブラックシャッタ23を開閉して焼付けを行
う。なお、平均濃度演算回路38で求めた平均濃度を用
いるとき、平均濃度に対する露光補正量を求めることが
できる。露光補正量を求めない場合、必ずしも平均濃度
演算回路38を必要とせず、直接顔抽出回路36から出
力された3色測光データより露光量を求めてもよい。
Next, the operation of this embodiment will be described. Light source 14
The light beam emitted from the laser beam passes through the color correction filter 16, the diffusion box 18, and the color negative film 10, is distributed by the distribution prism 20, and is received by the CCD image sensor 28 via the projection optical system 26. At this time, the black shirt 23 is closed. By this light reception, the CCD image sensor 28 divides the entire screen into a large number of pixels, decomposes each pixel into R, G, and B colors, and performs photometry, and outputs a photometric data signal. The photometric data signal is amplified by the amplifier 30 and then converted into a digital signal by the A / D converter 32, the sensitivity of the image sensor is corrected by the 3 × 3 matrix circuit 34, and the face extraction circuit 36 and the average density calculation circuit 38. Entered in. This average concentration calculation circuit 3
In 8, the average density of the entire one screen is calculated. The face extraction circuit 36 estimates the human face part in one screen as described below, and outputs R, G, B three-color photometric data of the part estimated to be the face. The exposure amount calculation circuit 40 calculates the exposure amount using the three-color photometric data output from the face extraction circuit 36 and the average density calculated by the average density calculation circuit 38, and the color correction filter 16 is calculated via the driver 42. Is controlled and the black shutter 23 is opened and closed for printing. When the average density calculated by the average density calculation circuit 38 is used, the exposure correction amount for the average density can be calculated. When the exposure correction amount is not calculated, the average density calculation circuit 38 is not necessarily required, and the exposure amount may be calculated directly from the three-color photometric data output from the face extraction circuit 36.

【0016】図2は顔抽出回路36よる顔抽出ルーチン
を示すものであり、ステップ100において入力された
3色測光データのノイズ除去、すなわちスムージングを
行う。次のステップ102では下記の(1)〜(3)式
によってR、G、B3色測光データをH(色相値)、L
(明度値)、S(彩度値)に変換する。
FIG. 2 shows a face extraction routine by the face extraction circuit 36, which removes noise from the three-color photometric data input in step 100, that is, performs smoothing. In the next step 102, the R, G, and B three-color photometric data are converted into H (hue value) and L (L) according to the following equations (1) to (3).
(Brightness value) and S (saturation value).

【0017】 L=(R+G+B)/3 ・・・・(1) S=1−min(r’,g’,b’)・・・・(2) H=H’/2Pi ・・・・(3) ただし、R、G、Bは図3の3次元色座標に示すように
各々最小値が0、最大値が1になるように規格された3
色測光データ、min( )は( )内の数値の最小
値、r’、g’、b’はr’=R/L、g’=G/L、
b’=B/Lを表す。またH’は次の(4)式で与えら
れ、Pi(iは、R、G、Bのうちの1つ)は図3のP
である。
L = (R + G + B) / 3 ... (1) S = 1-min (r ', g', b ') ... (2) H = H' / 2Pi .... ( 3) However, R, G, and B are standardized so that the minimum value is 0 and the maximum value is 1 as shown in the three-dimensional color coordinates in FIG.
Color photometric data, min () is the minimum value of the numerical values in (), r ', g', b'is r '= R / L, g' = G / L,
It represents b '= B / L. Further, H ′ is given by the following expression (4), and Pi (i is one of R, G, and B) is P in FIG.
Is.

【0018】[0018]

【数1】 ただし、[Equation 1] However,

【0019】[0019]

【数2】 ステップ104では、図4(1)に示すように、各々直
交する色相値軸、彩度値軸及び画素数軸から成る座標系
を用いて色相値及び彩度値についての2次元ヒストグラ
ムを求め、次のステップ106において後述するよう
に、求めた2次元ヒストグラムを山毎に分割する、すな
わち2次元ヒストグラムのクラスタリングを行う。次の
ステップ108ではクラスタリングされた2次元ヒスト
グラムの山に基づいて多数の画素のクラスタリングを行
い、このクラスタリングに基づいて画面を分割し、分割
された領域から人物の顔の候補となる領域を抽出する。
次のステップ110では、顔の候補として抽出された領
域から顔の領域を推定し、顔として推定された領域の
R、G、B3色測光データを出力する。そして、ステッ
プ112において全コマの焼付けが終了したか否か判断
し、焼付終了と判断されたときにこのルーチンを終了す
る。
[Equation 2] In step 104, as shown in FIG. 4 (1), a two-dimensional histogram for the hue value and the saturation value is obtained using a coordinate system composed of a hue value axis, a saturation value axis, and a pixel number axis that are orthogonal to each other. In the next step 106, as will be described later, the obtained two-dimensional histogram is divided into mountains, that is, the two-dimensional histogram is clustered. In the next step 108, a large number of pixels are clustered on the basis of the peaks of the clustered two-dimensional histogram, the screen is divided based on this clustering, and a region which is a candidate for a human face is extracted from the divided region. .
In the next step 110, the face area is estimated from the area extracted as the face candidate, and R, G, B three-color photometric data of the area estimated as the face is output. Then, in step 112, it is judged whether or not the printing of all the frames is completed, and when it is judged that the printing is completed, this routine is ended.

【0020】次に、上記ステップ106〜110の詳細
を説明する。図5はステップ106の詳細を示すもの
で、ステップ120において色相値及び彩度値について
の2次元ヒストグラムから評価すべき領域を切り出す。
図4では説明を簡単にするため1コマを評価領域とし
た。ステップ122では評価領域があるか否か判断す
る。ステップ120で評価領域が切り出せなかったと
き、すなわち全ての領域の評価が終了したときには評価
領域がないため、このルーチンを終了する。評価領域が
ある場合には、ステップ124において山切り出し用ヒ
ストグラムを作成するためのX、Y軸の決定を行う。す
なわち、評価領域を画素数軸と平行な軸を中心に回転さ
せ、ヒストグラムの山を横から見たときに多峰性を優先
しかつ山が最も尖鋭となる位置を求め、この位置を基準
にX、Y軸を決定する。処理時間の短縮が必要な場合
は、精度が多少劣化するが、X、Y軸としてヒストグラ
ムの分散が最大となる軸を用いてもよい。図4(1)の
例では、1〜4の符号を付した4つの山を横から見たと
きに多峰性を優先し山が最も尖鋭になる位置は3つの山
が見える位置であるので見る方向と直交する方向にX軸
を定め、このX軸と直交する方向にY軸を定めている。
Next, details of steps 106 to 110 will be described. FIG. 5 shows the details of step 106. In step 120, an area to be evaluated is cut out from the two-dimensional histogram of the hue value and the saturation value.
In FIG. 4, one frame is set as the evaluation area for simplification of description. In step 122, it is determined whether there is an evaluation area. When the evaluation area cannot be cut out in step 120, that is, when the evaluation of all areas is completed, there is no evaluation area, and this routine is ended. If there is an evaluation area, the X and Y axes for creating the mountain cutting histogram are determined in step 124. In other words, the evaluation area is rotated around an axis parallel to the pixel number axis, and when the mountains of the histogram are viewed from the side, priority is given to multimodality and the position where the mountains are the sharpest is obtained. Determine the X and Y axes. When the processing time needs to be shortened, the accuracy is somewhat deteriorated, but the axes that maximize the variance of the histogram may be used as the X and Y axes. In the example of FIG. 4 (1), when the four mountains with the reference numbers 1 to 4 are viewed from the side, priority is given to the multi-modality, and the peaks are the most sharp positions because the three mountains are visible. The X axis is defined in the direction orthogonal to the viewing direction, and the Y axis is defined in the direction orthogonal to the X axis.

【0021】次のステップ126では、2次元ヒストグ
ラムをX、Y軸に投影させて各々1次元ヒストグラムを
作成する。図4(1)の例では、X軸と直交する方向か
ら見ると1、2の符号を付した山が重なって見えるため
X軸についての1次元ヒストグラムには、符号3を付し
た山、符号1、2を付した山、符号4を付した山の3つ
の山が現れ、Y軸と直交する方向から見ると1〜4の符
号を付した山が重なって見えるためY軸についての1次
元ヒストグラムには1つの山が現れている。次のステッ
プ128では、次の(5)式によってヒストグラムを評
価関数H(a)に変換しこの評価関数に基づいてX軸に
ついてのヒストグラムから山の切り出しを行う。
In the next step 126, the two-dimensional histograms are projected on the X and Y axes to create one-dimensional histograms. In the example of FIG. 4 (1), when viewed from the direction orthogonal to the X axis, the peaks with the reference numerals 1 and 2 appear to overlap, so the one-dimensional histogram for the X axis has the peaks and the reference numerals with the reference numeral 3. Three mountains, a mountain with 1 and 2 and a mountain with symbol 4, appear, and when viewed from the direction orthogonal to the Y axis, the mountains with symbols 1 to 4 appear to overlap, so one dimension about the Y axis. One mountain appears in the histogram. In the next step 128, the histogram is converted into an evaluation function H (a) by the following equation (5), and mountains are cut out from the histogram on the X axis based on this evaluation function.

【0022】[0022]

【数3】 ただし、f(a)はX軸方向の値(特徴量)がaのとき
の画素数、xは特徴量aからの変位である。
[Equation 3] However, f (a) is the number of pixels when the value (feature amount) in the X-axis direction is a, and x is the displacement from the feature amount a.

【0023】すなわち、評価関数H(a)の平均値Tを
求め、評価関数H(a)の平均値T以下の範囲(谷、裾
部の存在範囲)を求める。次に、この範囲内のヒストグ
ラムが最小の位置をヒストグラムの谷または裾部とす
る。そして、求められた谷または裾部でヒストグラムを
切り出す。
That is, the average value T of the evaluation function H (a) is obtained, and the range (valley, skirt existence range) below the average value T of the evaluation function H (a) is obtained. Next, the position of the minimum histogram within this range is set as the valley or skirt of the histogram. Then, a histogram is cut out at the obtained valley or skirt.

【0024】上記山の切り出しを図6を参照して説明す
ると、実線SIで表わされたヒストグラムから評価関数
H(a)を求めると図の破線で示すようになる。この評
価関数H(a)が負の部分に関しての平均値T以下の範
囲は特徴量がv0〜v1、v2〜v3の範囲である。こ
の範囲内のヒストグラムの度数が最小の位置は、範囲v
0〜v1ではav0=v0、範囲v2〜v3ではav1
であり、av0が裾部として、av2が谷として各々求
められ、この位置でヒストグラムの切り出しを行う。
The cutout of the mountain will be described with reference to FIG. 6. When the evaluation function H (a) is obtained from the histogram represented by the solid line SI, it is as shown by the broken line in the figure. The range of the average value T or less with respect to the negative portion of the evaluation function H (a) is the range of feature amounts v0 to v1 and v2 to v3. The position where the frequency of the histogram in this range is the minimum is the range v
Av0 = v0 in 0 to v1, av1 in the range v2 to v3
And av0 is obtained as a skirt and av2 is obtained as a valley, and the histogram is cut out at this position.

【0025】ステップ130ではX軸についてのヒスト
グラムの山の切り出しと同様の方法でY軸についてのヒ
ストグラムの山の切り出しを行う。次のステップ132
では、2次元ヒストグラム上で上記のように切り出され
たX軸、Y軸についての1次元ヒストグラムの山が重な
る領域を求め、色相値及び彩度値についての2次元ヒス
トグラムから山の切り出しを行う。図4(1)の領域E
1は上記のようにして切り出した山の一例を示すもので
ある。
In step 130, the mountain peak of the Y-axis is cut out in the same manner as the mountain peak cut of the X-axis. Next step 132
Then, an area in which the peaks of the one-dimensional histogram for the X-axis and the Y-axis cut out as described above overlap on the two-dimensional histogram is obtained, and the peak is cut out from the two-dimensional histogram of the hue value and the saturation value. Area E in FIG. 4 (1)
Reference numeral 1 shows an example of a mountain cut out as described above.

【0026】次のステップ134では、2次元ヒストグ
ラムから切り出された山が単峰か否か判断し、単峰でな
い場合は2次元ヒストグラムから切り出された山が単峰
になるまでステップ124〜ステップ134を繰り返
す。図4(3)の領域E2は、上記のようにして切り出
された単峰の山の一例を示すものである。
In the next step 134, it is judged whether or not the mountain cut out from the two-dimensional histogram is a single peak, and if it is not a single peak, steps 124 to 134 are repeated until the mountain cut out from the two-dimensional histogram becomes a single peak. repeat. Region E2 in FIG. 4C shows an example of a single-peak mountain cut out as described above.

【0027】次のステップ136では、切り出された単
峰の山を識別するためのラベルを付ける処理(ラベリン
グ)を行い、ステップ138ではラベリングされた山を
マスクしてステップ120へ戻る。そして、上記のステ
ップを繰り返して色相値及び彩度値についての2次元ヒ
ストグラムの全領域を単峰の山に分割する。
In the next step 136, a process (labeling) is performed to attach a label for identifying the cut-out single-peak mountain, and in step 138, the labeled mountain is masked and the process returns to step 120. Then, the above steps are repeated to divide the entire area of the two-dimensional histogram for the hue value and the saturation value into single peaks.

【0028】図7は図2のステップ108の詳細を示す
もので、ステップ140では、上記のようにして分割さ
れた単峰の山のX軸方向の範囲XR(図4(3))及び
Y軸方向の範囲YR(図4(3))を単峰の山毎に各々
求め、原画像の各画素について色相値及び彩度値がこれ
らの範囲に属しているかを判断して画素のクラスタリン
グを行うと共に、範囲XR、YRで囲まれた範囲に属し
ている画素を集め、集めた画素が原画像上で1つの領域
となるように原画像を分割する。また、分割された領域
にナンバリングする。図4(2)は、原画像を分割した
例を示すもので符号1〜4を付した各領域の画素は、図
4(1)の、符号1〜4を付した単峰の山に含まれる画
素に対応している。図4(1)で同じ単峰の山に属して
いる画素が図4(2)では異る領域に分割されている
が、これは図4(1)では単峰の山の色相値範囲及び彩
度値範囲を持つ画素であるが、図4(2)では領域が分
かれているからである。
FIG. 7 shows the details of step 108 in FIG. 2. In step 140, the range XR (FIG. 4 (3)) and Y in the X-axis direction of the single-peak mountain divided as described above is obtained. The axial range YR (FIG. 4 (3)) is obtained for each single peak, and it is determined whether the hue value and the saturation value of each pixel of the original image belong to these ranges, and pixel clustering is performed. At the same time, the pixels belonging to the range surrounded by the ranges XR and YR are collected, and the original image is divided so that the collected pixels form one area on the original image. Also, the divided areas are numbered. FIG. 4 (2) shows an example in which the original image is divided, and the pixels in each area denoted by reference numerals 1 to 4 are included in the single-peaked mountains denoted by reference numerals 1 to 4 in FIG. 4 (1). Corresponds to the pixels that are displayed. Pixels belonging to the same single-peak mountain in FIG. 4 (1) are divided into different regions in FIG. 4 (2). This is due to the hue value range of the single-peak mountain in FIG. 4 (1). This is because the pixel has a saturation value range, but the region is divided in FIG. 4 (2).

【0029】次のステップ142では、分割された領域
の面積を判断することにより徴小領域を除去し、ナンバ
リングをし直す。次のステップ144では、領域の境界
画素をすべて削除してひと皮分取り除く収縮処理と、収
縮処理とは逆に境界画素を背景画素方向へ増殖させてひ
と皮分太らせる膨張処理とを行って大領域と繁がってい
る小領域を大領域から分離する。次のステップ146で
はステップ142と同様に徴小領域を除去してリナンバ
リングを行い、ステップ148で弱い結合をしている領
域同士を分離するために、上記と同様の収縮、膨張処理
を行い、ステップ150において上記と同様に徴小領域
の除去とリナンバリングを行う。
In the next step 142, the small area is removed by judging the area of the divided area, and the numbering is performed again. In the next step 144, a contraction process for deleting all the boundary pixels of the region to remove one skin, and an expansion process for expanding the boundary pixels in the direction of the background pixels to enlarge the skin by one conversely to the contraction process are performed. It separates a small area that grows up from a large area. In the next step 146, small areas are removed and renumbering is performed in the same manner as in step 142, and in order to separate the weakly bonded areas in step 148, the same contraction and expansion processing is performed, In step 150, the small area is removed and renumbering is performed as described above.

【0030】図8はステップ110の詳細を示すもの
で、ステップ162においてステップ108、すなわち
図7のルーチンで抽出された領域の中から1つの領域を
注目領域として選択し、注目領域の水平フィレ径および
垂直フィレ径が所定値になるように注目領域の拡大縮小
処理を行って注目領域のサイズの規格化を行うと共に、
次の(6)式に従って濃度値または輝度値の規格化を行
う。
FIG. 8 shows details of step 110. In step 162, one area is selected from the areas extracted in step 108, that is, the routine of FIG. 7, as the area of interest, and the horizontal fillet diameter of the area of interest is selected. And the size of the attention area is standardized by performing the enlargement / reduction processing of the attention area so that the vertical fillet diameter becomes a predetermined value.
The density value or the brightness value is standardized according to the following equation (6).

【0031】[0031]

【数4】 ただし、 dmax :領域内最大濃度値(または輝度値) dmin :領域内最低濃度値(または輝度値) ds :イメージセンサのフルスケール濃度値(または
輝度値) d :規格化前濃度値(または輝度値) dr :規格化後濃度値(または輝度値) ステップ164では、予め記憶された複数種(本実施例
では10種類)の標準的な顔画像(正面から見た顔画
像、横から見た顔画像(左右)、下向き顔画像、上向き
顔画像等)に対する注目領域の相関係数rを次の(7)
式によって演算し、この相関係数を特徴量とする。この
標準的な顔画像は、顔の輪郭のみのデータであっても、
顔の輪郭のデータに顔の内部構造(眼、鼻、口等)デー
タを加えたデータであってもよい。
[Equation 4] However, dmax: maximum density value (or brightness value) in the area dmin: minimum density value (or brightness value) in the area ds: full-scale density value (or brightness value) of the image sensor d: density value before normalization (or brightness) Value) dr: post-normalization density value (or brightness value) In step 164, a plurality of types (10 types in this embodiment) of standard face images stored in advance (face image viewed from the front, viewed from the side) The correlation coefficient r of the attention area with respect to the face image (left and right), the downward face image, the upward face image, etc. is calculated by the following (7).
The correlation coefficient is calculated by using an equation and is used as a feature amount. This standard face image, even if only the data of the face outline,
It may be data obtained by adding the data of the internal structure (eyes, nose, mouth, etc.) of the face to the data of the outline of the face.

【0032】[0032]

【数5】 ただし、[Equation 5] However,

【0033】[0033]

【数6】 であり、Tは画像の水平、垂直フィレ径の長さ(ここで
は、フィレ径の長さは同じとした)、f(x、y)は注
目領域、g(x、y)は標準的な顔画像を表す。
[Equation 6] Where T is the length of the horizontal and vertical fillet diameters of the image (here, the lengths of the fillet diameters are the same), f (x, y) is the region of interest, and g (x, y) is the standard. Represents a face image.

【0034】そして、ステップ166において上記特徴
量を変量とした線形判別分析により注目領域が人物の顔
であるか否かを判断し、顔であると判断された領域の
R、G、B測光データを適正露光量計算回路40に出力
する。ステップ168では抽出された全領域について顔
か否かの判定が終了したか否か判断し、終了していない
ときにはステップ162〜ステップ168を繰り返す。
Then, in step 166, it is determined whether or not the region of interest is a human face by linear discriminant analysis using the above-mentioned characteristic amount as a variable, and R, G, B photometric data of the region determined to be a face. Is output to the proper exposure amount calculation circuit 40. In step 168, it is determined whether or not the determination as to whether the face is a face has been completed for all the extracted regions. If not, steps 162 to 168 are repeated.

【0035】上記では人物の顔か否かの判定を行うため
に用いる特徴量として相関係数を使用したが、以下で説
明する重心回りの正規化されたセントラル・モーメント
から導出される不変量、自己相関関数または幾何学的不
変量を用いてもよい。
In the above, the correlation coefficient is used as the feature amount used for determining whether the face is a person's face. However, the invariant derived from the normalized central moment around the center of gravity, which will be described below, Autocorrelation functions or geometric invariants may be used.

【0036】画像f(x、y)の(p+q)次の重心回
りのセントラル・モーメントμpq
The central moment μ pq about the (p + q) th centroid of the image f (x, y) is

【0037】[0037]

【数7】 ただし、[Equation 7] However,

【0038】[0038]

【数8】 とすれば、重心回りの正規化されたセントラル・モーメ
ントは次のようになる。
[Equation 8] Then, the normalized central moment around the center of gravity is

【0039】[0039]

【数9】 ただし、y=(p+q+2)/2 p+q=2,3,…… 以上のことより、2次、3次の重心回りの正規化された
セントラル・モーメントから次の七つの不変量ψi,(i
=1,2,……,7)が導出される。
[Equation 9] However, y = (p + q + 2) / 2 p + q = 2,3, ... From the above, the following seven invariants ψ i, (i
= 1, 2, ..., 7) is derived.

【0040】[0040]

【数10】 また、自己相関関数Rf は次のように表される。[Equation 10] Moreover, the autocorrelation function R f is expressed as follows.

【0041】[0041]

【数11】 そして、幾何学的不変特徴量は次の式で表わされる。[Equation 11] Then, the geometric invariant feature amount is represented by the following equation.

【0042】[0042]

【数12】 図9は適正露光量計算回路40による適正露光量計算ル
ーチンを示すものであり、ステップ170において顔抽
出回路36で上記のように抽出された1顔領域のR、
G、B3色測光データを読み取り、次のステップ172
において以下に示した式(8)に基づいて読み取った顔
領域の平均濃度(以下、平均顔濃度)FD i を演算す
る。この演算結果を図示しないメモリに記憶する。次の
ステップ174では、画像コマから全顔領域を読み取っ
たか否かを判断し、残存する場合にはステップ170、
172を繰り返す。全顔領域の読み取りが終了すると、
ステップ176へ進み抽出された顔領域が複数か否かを
判断する。否定判断で、抽出領域が1つの場合には、ス
テップ186へ進む。
[Equation 12]FIG. 9 shows a proper exposure amount calculation routine by the proper exposure amount calculation circuit 40.
This is an example of a face extraction,
R of one face area extracted as described above by the output circuit 36,
The G, B three-color photometric data is read, and the next step 172
Face read based on equation (8) below
Area average density (hereinafter, average face density) FD iCalculate
It The calculation result is stored in a memory (not shown). next
In step 174, the entire face area is read from the image frame.
It is determined whether or not there is any, and if there is any remaining, step 170,
Repeat 172. When reading of all face areas is completed,
In step 176, it is determined whether there are a plurality of extracted face areas.
to decide. In the negative judgment, when there is only one extraction area,
Proceed to step 186.

【0043】 FDi =(FDiR+FDiG+FDiB)/3 −−−(8) ただし、i=1、・・n(顔領域の数量) FDiR,FDiG,FDiB:i領域におけるR,G,B3
色毎の平均濃度。
FD i = (FD iR + FD iG + FD iB ) / 3 −−− (8) where i = 1, ... N (number of face area) FD iR , FD iG , FD iB : R in i area , G, B3
Average density for each color.

【0044】抽出された顔領域が複数ある場合にはステ
ップ176で肯定判断され、ステップ178において顔
領域毎の平均顔濃度FDi の最大濃度FDmax 及び最小
濃度FDmin を求めると共に、この差(FDmax −FD
min )が所定値Dthd 以上か否かを判断する。差が所定
値未満で否定判断の場合には顔濃度のばらつきが少ない
ため、ステップ180において単に複数の平均顔濃度の
平均を求めて求めた平均をこの画像コマの顔領域平均濃
度FDとしてステップ186へ進む。なお、ステップ1
80において複数の平均顔濃度の平均を求めることな
く、1つの平均顔濃度を選択して出力するようにしても
よい。
If there are a plurality of extracted face areas, an affirmative decision is made in step 176, and in step 178 the maximum density FDmax and the minimum density FDmin of the average face density FD i for each face area are obtained, and this difference (FDmax- FD
min) is greater than or equal to a predetermined value Dthd. If the difference is less than the predetermined value and a negative determination is made, there is little variation in face density, so the average obtained by simply averaging a plurality of average face densities in step 180 is set as the face area average density FD of this image frame in step 186. Go to. In addition, step 1
One average face density may be selected and output without obtaining the average of a plurality of average face densities in 80.

【0045】一方、最大濃度FDmax 及び最小濃度FD
min の差が所定値Dthd 以上の場合には、ステップ18
2へ進む。ステップ182では、抽出された顔領域を平
均顔濃度に基づいて2群に分類すると共に、分類された
群と群との間の分散(以下、群間分散)σA と各々の群
内における平均顔濃度の分散(以下、群内分散)σB
の比(以下、分散比)rtが最大になる分割部位の濃度
値FDxを求める。すなわち、図10に示したように、
各々直交する濃度値軸及び人数軸からなる座標系を用い
て濃度値及び抽出された1顔領域を1人としたときの人
数のヒストグラムを求める。このヒストグラムにおい
て、予め定めた濃度値Dxを濃度分類基準値として、濃
度値Dx未満の平均顔濃度FDi である顔領域を含む第
1群と濃度値Dx以上の平均顔濃度FDi である顔領域
を含む第2群とに分類する。この分類された群について
以下の式(9)に基づいて分散比rtを求める。次に、
順次濃度値Dxを増加または減少させて分散比rtが最
大となる濃度値Dxの値を求め、求めた値Dxを分割部
位の濃度値FDxとする。この分散比rtが最大となる
ことは、この濃度値FDxを境にして図10のヒストグ
ラムの各山が単峰性を有して分割される最適な濃度値F
Dxが選択されることになる。
On the other hand, the maximum density FDmax and the minimum density FD
If the difference in min is greater than or equal to the predetermined value Dthd, step 18
Go to 2. In step 182, the extracted face areas are classified into two groups based on the average face density, and the variance between the classified groups (hereinafter, inter-group variance) σ A and the average within each group. The density value FDx of the divided part where the ratio (hereinafter, dispersion ratio) rt with the variance of face density (hereinafter, intra-group dispersion) σ B is maximized is obtained. That is, as shown in FIG.
A histogram of the density values and the number of people when one extracted face area is taken as one is obtained by using a coordinate system composed of the density value axis and the people axis that are orthogonal to each other. In this histogram, a predetermined density value Dx is used as a density classification reference value, and a first group including a face area having an average face density FD i less than the density value Dx and a face having an average face density FD i greater than or equal to the density value Dx It is classified into a second group including a region. The dispersion ratio rt is obtained for this classified group based on the following equation (9). next,
The density value Dx at which the dispersion ratio rt is maximized is obtained by sequentially increasing or decreasing the density value Dx, and the obtained value Dx is set as the density value FDx of the divided portion. This dispersion ratio rt is maximized because the optimum density value F in which each mountain in the histogram of FIG. 10 is divided into single peaks with the density value FDx as a boundary.
Dx will be selected.

【0046】 rt=σA 2 /σB 2 −−−−(9) ここで、群間分散σA 及び群内分散σB は、以下の式
(10)で求めることができる。
Rt = σ A 2 / σ B 2 ----- (9) Here, the inter-group dispersion σ A and the intra-group dispersion σ B can be obtained by the following formula (10).

【0047】 σA ={n1 (FD1m−FDm)2 +n2 (FD2m−FDm)2 }/n 及び、 σB =σT 2 −σA 2 −−−−(10) ただし、np :第p群に含まれる人数(n1 、n2 ) FDpm:第p群に含まれる顔領域の平均濃度値(FD
1m、FD2m) FDm:抽出された全顔領域の平均濃度値 n :抽出された顔領域の個数 σT :全分散 また、上記全分散は、以下の式(11)で求めることが
できる。
Σ A = {n 1 (FD 1 m-FDm) 2 + n 2 (FD 2 m-FDm) 2 } / n and σ B = σ T 2 −σ A 2 −−−− (10) , Np: the number of persons included in the p-th group (n 1 , n 2 ) FDpm: average density value (FD of the face area included in the p-th group
1 m, FD 2 m) FDm: average density value of all extracted face areas n: number of extracted face areas σ T : total variance Further, the above total variance can be obtained by the following equation (11). it can.

【0048】 σT =ΣΣ(FDpk−FDm)2 /n −−−−(11) ただし、FDpk:第p群のk番目の顔領域の平均顔濃
度。
Σ T = ΣΣ (FDpk−FDm) 2 / n ----- (11) where FDpk: average face density of the kth face area of the p-th group.

【0049】次のステップ184では、上記第1群に含
まれる平均顔濃度の平均濃度値FD 1mを、この画像コマ
の顔領域平均濃度FDとしてステップ186へ進む。こ
の第1群の平均濃度値FD1mを画像コマの顔領域平均濃
度FDとしているのは、顔領域の色変化に敏感な人種に
ついてのみ以下の露光量補正を行うようにするためであ
る。すなわち、顔の反射率が低い場合は、顔の反射率が
高い場合に比して得られる画像に多少の明暗が生じた場
合であっても顔領域に形成される濃度が高いために影響
が少ない。従って、上記のように原画像内に含まれる複
数の顔領域の濃度を2群に分けることによって、顔の反
射率が高い第1群と顔の反射率が低い第2群とに顔領域
が分類され、第1群を選択することにより顔の反射率が
低い側の顔領域の濃度を除外して出力された濃度値に基
づいて補正することができる。
At the next step 184, the first group is included.
Average face density FD 1m for this image frame
Then, the process proceeds to step 186 as the face area average density FD. This
Average density value FD of the first group1m is the average face area density of the image frame
The degree FD is for races sensitive to color changes in the face area.
Only for the following exposure amount correction
It That is, when the reflectance of the face is low, the reflectance of the face is
When there is some light and dark in the image obtained compared to when it is high
Even if it is a combination, it is affected by the high density formed in the face area
Less is. Therefore, as described above, the
By dividing the density of several face regions into two groups,
Face area in the first group with high emissivity and the second group with low face reflectance
Are classified, and the reflectance of the face is selected by selecting the first group.
Based on the density value output excluding the density of the face area on the low side
It can be corrected based on.

【0050】ステップ186では、上記求めた平均顔濃
度FDと平均濃度演算回路38で演算された1コマの画
面平均濃度Di (i=R、G、Bのうちのいずれか)と
を用いて平均顔濃度が基準濃度になるように以下の式に
従って適正露光量Ei を演算し、ドライバ42に出力す
る。ドライバ42は適正露光量Ei から露光コントロー
ル値を演算して調光フイルタ16を制御する。
In step 186, the calculated average face density FD and the average image density D i of one frame calculated by the average density calculation circuit 38 (i = one of R, G, and B) are used. The appropriate exposure amount E i is calculated according to the following equation so that the average face density becomes the reference density, and is output to the driver 42. The driver 42 controls the dimming filter 16 by calculating an exposure control value from the appropriate exposure amount E i .

【0051】 logi =LMi ・CSi ・(DNi −Di )+PBi +LBi +MBi +NBi +K1 +K2 −−−(12) ただし、各記号は次のものを表す。L og E i = LM i · CS i · (DN i −D i ) + PB i + LB i + MB i + NB i + K 1 + K 2 −−− (12) However, each symbol represents the following.

【0052】LM:倍率スロープ係数であり、ネガの種
類とプリントサイズから決まる引伸倍率に応じて予め設
定されている。
LM: Magnification slope coefficient, which is preset according to the enlargement magnification determined by the type of negative and the print size.

【0053】CS:ネガの種類毎に用意されたカラース
ロープ係数でアンダー露光用とオーバー露光用とがあ
り、プリントすべきコマの平均濃度が標準ネガ濃度値に
対してアンダーかオーバーかを判定してアンダー露光用
またはオーバー露光用のいずれかが選択される。
CS: Color slope coefficient prepared for each type of negative, there are underexposure and overexposure, and it is determined whether the average density of frames to be printed is under or over the standard negative density value. Either underexposure or overexposure is selected.

【0054】DN:標準ネガ濃度値。 D :プリントコマの平均濃度値。DN: Standard negative density value. D: Average density value of print frame.

【0055】PB:標準カラーペーパーに対する補正バ
ランス値であり、カラーペーパーの種類に応じて決定さ
れている。
PB: A correction balance value for a standard color paper, which is determined according to the type of color paper.

【0056】LB:標準焼付レンズに対する。補正レン
ズバランス値であり、焼付レンズの種類に応じて決定さ
れている。
LB: For standard print lens. It is a correction lens balance value, which is determined according to the type of printing lens.

【0057】MB:プリント光源の変動やペーパー現像
性能の変化に対する補正値(マスターバランス値)。
MB: A correction value (master balance value) for variations in the print light source and changes in the paper developing performance.

【0058】NB:ネガフィルムの特性によって定めら
れるネガバランス(カラーバランス)値。
NB: Negative balance (color balance) value determined by the characteristics of the negative film.

【0059】K2 :カラー補正量。 K1 :以下の式で表される濃度補正量。K 2 : Color correction amount. K 1 : A density correction amount represented by the following formula.

【0060】[0060]

【数13】 ここで、Ka 、Kb は定数であり、FDは上記求めた顔
領域平均濃度である。
[Equation 13] Here, K a and K b are constants, and FD is the face area average density obtained above.

【0061】また、上記(12)式の濃度補正量K1
フィルム検定装置によって求められた補正値とし、カラ
ー補正量K2 を次のように顔領域平均濃度を用いて表し
てもよい。
Further, the density correction amount K 1 in the above equation (12) may be used as the correction value obtained by the film inspection apparatus, and the color correction amount K 2 may be expressed using the face area average density as follows.

【0062】[0062]

【数14】 ただし、Kc は定数である。[Equation 14] However, K c is a constant.

【0063】更に、上記(12)式の濃度補正量K1
カラー補正量K2 をフィルム検定装置によって求められ
た補正量とし、(12)式のプリントコマの平均濃度D
i を顔領域の平均濃度FDi に置きかえて露出量を求め
てもよい。
Further, the density correction amount K 1 of the above equation (12),
The color correction amount K 2 is used as the correction amount obtained by the film inspection device, and the average density D of the print frame of the formula (12) is used.
The exposure amount may be obtained by replacing i with the average density FD i of the face area.

【0064】本実施例では、領域の輪郭及び内部構造を
用いて判断しているため、色相が類似している顔、地
面、木等が混在する画像からも顔のデータを抽出するこ
とができる。
In the present embodiment, since the judgment is made by using the contour of the area and the internal structure, the face data can be extracted from the image in which the faces, the ground, the trees and the like having similar hues are mixed. .

【0065】また、本実施例では、抽出された顔領域の
データから、原画像内に含まれる複数の顔領域の濃度
を、顔の反射率が高い第1群と顔の反射率が低い第2群
とに分類し、顔の反射率が高い第1群の顔濃度によって
露光量補正を行っているため、原画像内に複数の異なる
人種の顔領域が存在した場合であっても、顔の反射率が
低い側の顔濃度の影響を受けることがなく、各々の顔濃
度が適正濃度になるように露光量を決定することができ
る。
In the present embodiment, the density of a plurality of face areas included in the original image is determined from the extracted face area data, and the first group having high face reflectance and the first group having low face reflectance are used. Since the exposure amount is corrected according to the face density of the first group, which is classified into two groups and the face reflectance is high, even when there are a plurality of face areas of different races in the original image, The exposure amount can be determined so that each face density becomes an appropriate density without being affected by the face density on the side where the face reflectance is low.

【0066】また、本実施例では、ネガフィルムの画像
から濃度を測光した場合について説明したが、リバーサ
ルフィルムであってもよい。
In this embodiment, the case where the density is measured from the image on the negative film has been described, but a reversal film may be used.

【0067】図11はプリンタまたはプリンタプロセッ
サとは別体の露光量決定装置に本発明を適用した変形例
を示すものである。なお、図11において図1と対応す
る部分には同一符号を付して説明を省略する。また、平
均濃度演算回路38は必ずしも必要ではないが、これに
代えて画面全体のLATDを検出する積算透過濃度検出
回路を用いてもよい。
FIG. 11 shows a modification in which the present invention is applied to an exposure amount determining device separate from the printer or printer processor. Note that, in FIG. 11, portions corresponding to those in FIG. Further, the average density calculation circuit 38 is not always necessary, but instead of this, an integrated transmission density detection circuit for detecting LATD of the entire screen may be used.

【0068】図12は、図11の顔抽出回路を複数の顔
抽出回路361 、362 ・・・36nで構成し、並列処
理により露光量を演算するものである。顔抽出回路36
1 、362 ・・・36nは図13のタイムチャートに従
って画像を読込み、露光量を演算し、その結果を出力す
る。図13においてt1 は1コマの画像読込み時間、t
2 は1コマの露光量演算時間、t3 は1コマの露光量演
算結果転送時間であり、t2 >>t1 、t3 である。顔
抽出回路361 はt1 時間で1コマの画像を読込み、t
2 時間で露光量を演算し、t3 時間で演算結果を転送す
る。顔抽出回路361 による1コマの画像読込みが終了
すると同時にフィルムが1コマ分送られ顔抽出回路36
2 による1コマの画像読込みが開始され、顔抽出回路3
1 の露光量演算と顔抽出回路362 の画像読込みとが
並列して行われ、以下同様に顔抽出回路363 、364
・・・36nによって並列処理される。
In FIG. 12, the face extraction circuit of FIG. 11 is composed of a plurality of face extraction circuits 36 1 , 36 2 ... 36n, and the exposure amount is calculated by parallel processing. Face extraction circuit 36
1, 36 2 ··· 36n reads an image according to the time chart of FIG. 13, calculates the exposure amount, and outputs the result. In FIG. 13, t 1 is the image reading time for one frame, t 1
2 is the exposure amount calculation time for one frame, t 3 is the exposure amount calculation result transfer time for one frame, and t 2 >> t 1 and t 3 . The face extraction circuit 36 1 reads one frame of image at t 1
The exposure amount is calculated in 2 hours, and the calculation result is transferred in t 3 hours. At the same time when one frame of image is read by the face extraction circuit 36 1 , one frame of film is fed and the face extraction circuit 36 1
1 frame image reading by 2 is started, and face extraction circuit 3
The exposure amount calculation of 6 1 and the image reading of the face extraction circuit 36 2 are performed in parallel, and the same applies to the face extraction circuits 36 3 and 36 4 hereinafter.
... 36n is processed in parallel.

【0069】mxnのコマを並列処理するに要する時間
Tpは、 Tp=m(t1 +t2 +t3 )+(n−1)t1 である。一方、並列処理を行わない場合の処理時間Ts
は Ts=m・n(t1 +t2 +t3 ) である。従って、
The time Tp required to process mxn frames in parallel is Tp = m (t 1 + t 2 + t 3 ) + (n-1) t 1 . On the other hand, the processing time Ts when parallel processing is not performed
Is Ts = m · n (t 1 + t 2 + t 3 ). Therefore,

【0070】[0070]

【数15】 倍高速化が可能である。[Equation 15] Double speed is possible.

【0071】なお、この並列処理装置は図1のプリンタ
にも適用できる。本発明は写真焼付装置の露光量決定以
外に、ディジタルカラープリンタの露光量決定、複写機
の複写条件決定、カメラの露出量決定、CRT画面の表
示条件決定、磁気画像データからハードコピーを作成す
るときの光量決定にも適用することができる。
This parallel processing device can also be applied to the printer of FIG. The present invention, besides determining the exposure amount of a photo printing apparatus, determines the exposure amount of a digital color printer, determines the copying conditions of a copying machine, determines the exposure amount of a camera, determines the display conditions of a CRT screen, and creates a hard copy from magnetic image data. It can also be applied to the determination of the amount of light.

【0072】[0072]

【発明の効果】以上説明したように本発明によれば、顔
の領域の濃度に基づいて類似した濃度群に分類された濃
度群の濃度に基づいて露光量を決定しているため、原画
像に複数の異なる反射率の顔の領域が存在した場合であ
っても、得られる濃度が偏ることなく、各々の顔の領域
について最適な濃度を得ることができる、という効果が
得られる。
As described above, according to the present invention, since the exposure amount is determined based on the densities of the density groups classified into the similar density groups based on the density of the face area, the original image is determined. Even if there are a plurality of face areas having different reflectances, the obtained density is not biased and the optimum density can be obtained for each face area.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1実施例のプリンタを示す概略図で
ある。
FIG. 1 is a schematic diagram showing a printer according to a first embodiment of the present invention.

【図2】顔抽出回路の顔抽出ルーチンを示す流れ図であ
る。
FIG. 2 is a flowchart showing a face extraction routine of a face extraction circuit.

【図3】色座標を示す線図である。FIG. 3 is a diagram showing color coordinates.

【図4】(1)は色相値及び彩度値についての2次元ヒ
ストグラムを示す線図である。(2)は原画像を分割し
た状態を示す線図である。(3)は2次元ヒストグラム
から単峰の山を切り出した状態を示す線図である。
FIG. 4 (1) is a diagram showing a two-dimensional histogram of hue values and saturation values. (2) is a diagram showing a state in which the original image is divided. (3) is a diagram showing a state in which a single peak is cut out from a two-dimensional histogram.

【図5】図2のステップ106の詳細を示す線図であ
る。
5 is a diagram showing details of step 106 of FIG. 2. FIG.

【図6】ヒストグラムと評価関数を示す線図である。FIG. 6 is a diagram showing a histogram and an evaluation function.

【図7】図2のステップ108の詳細を示す線図であ
る。
FIG. 7 is a diagram showing details of step 108 in FIG.

【図8】図2のステップ110の詳細を示す線図であ
る。
FIG. 8 is a diagram showing details of step 110 of FIG.

【図9】適正露光量計算回路の適正露光量計算ルーチン
を示す流れ図である。
FIG. 9 is a flowchart showing an appropriate exposure amount calculation routine of an appropriate exposure amount calculation circuit.

【図10】濃度値及び人数についてのヒストグラムを示
す線図である。
FIG. 10 is a diagram showing a histogram of density values and the number of people.

【図11】本発明を適用した露光量演算装置の概略図で
ある。
FIG. 11 is a schematic diagram of an exposure amount calculation device to which the present invention is applied.

【図12】複数の顔抽出回路によって並列処理を行う露
光量演算装置の概略図である。
FIG. 12 is a schematic diagram of an exposure amount calculation device that performs parallel processing by a plurality of face extraction circuits.

【図13】並列処理のタイムチャートを示す線図であ
る。
FIG. 13 is a diagram showing a time chart of parallel processing.

【図14】人種別肌の分光反射率特性を示す線図であ
る。
FIG. 14 is a diagram showing the spectral reflectance characteristics of human skin.

【符号の説明】[Explanation of symbols]

28 CCDイメージセンサ 30 増幅器 36 顔抽出回路 40 適正露光量計算回路 28 CCD image sensor 30 amplifier 36 face extraction circuit 40 proper exposure amount calculation circuit

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 カラー原画像を多数画素に分割して各画
素を赤光、緑光及び青光の3色に分解して測光し、 測光により得られたデータに基づいて前記カラー原画像
上で色相または色相及び彩度が同一または類似の色領域
を求め、 求めた色領域について人物の顔の領域か否かを判断し、 人物の顔の領域と判断された領域の濃度を求め、 求めた濃度の最大値と最小値との差が所定値を越えた場
合に、求めた濃度に基づいて前記人物の顔の領域を類似
した濃度群に分類し、 分類された濃度群の少なくとも1つを選択して選択され
た濃度群に基づいて複写材料への露光量を決定する露光
量決定方法。
1. A color original image is divided into a large number of pixels, each pixel is decomposed into three colors of red light, green light and blue light, and photometry is performed, and on the color original image based on the data obtained by photometry. A color area having the same or similar hue or hue and saturation is obtained, and it is determined whether or not the obtained color area is a human face area, and the density of the area determined to be the human face area is obtained and obtained. When the difference between the maximum value and the minimum value of the densities exceeds a predetermined value, the area of the face of the person is classified into similar density groups based on the calculated densities, and at least one of the classified density groups is selected. An exposure amount determining method for determining an exposure amount to a copy material based on the selected density group.
【請求項2】 被写体である人物の顔の反射率が所定値
以上の顔の領域を含む濃度群の濃度が基準濃度になるよ
うに複写材料への露光量を決定することを特徴とする請
求項1に記載の露光量決定方法。
2. The exposure amount to the copy material is determined so that the density of a density group including a face region having a face of a person who is an object is a predetermined value or more becomes a reference density. Item 2. The exposure amount determination method according to Item 1.
【請求項3】 カラー原画像を多数画素に分割して各画
素を赤光、緑光及び青光の3色に分解して測光し、 測光により得られたデータに基づいて色相値のヒストグ
ラムを求め、 求めたヒストグラムを山毎に分割し、 カラー原画像の各画素が分割された山のどれに属するか
を判断して画素を分割された山に対応する群に分けると
共に、各々の群毎にカラー原画像を分割し、 分割された各領域の輪郭及び内部構造の少なくとも1つ
を判断して人物の顔か否か判断し、 人物の顔と判断された領域の濃度を求め、 求めた濃度の最大値と最小値との差が所定値を越えた場
合に、求めた濃度に基づいて前記人物の顔の領域を類似
した濃度群に分類し、 分類された濃度群の少なくとも1つを選択して選択され
た濃度群に基づいて複写材料への露光量を決定する露光
量決定方法。
3. A color original image is divided into a large number of pixels, each pixel is decomposed into three colors of red light, green light and blue light, and photometry is performed, and a histogram of hue values is obtained based on the data obtained by photometry. , The obtained histogram is divided for each mountain, it is judged which pixel of each pixel of the color original image belongs to the divided mountain, and the pixel is divided into a group corresponding to the divided mountain, and for each group, The color original image is divided, at least one of the outline and internal structure of each divided area is judged to judge whether or not it is a human face, and the density of the area judged to be the human face is calculated. When the difference between the maximum value and the minimum value of is greater than a predetermined value, the face area of the person is classified into similar density groups based on the calculated density, and at least one of the classified density groups is selected. The exposure amount to the copy material based on the density group selected Exposure amount determining how to.
【請求項4】 カラー原画像を多数画素に分割して各画
素を赤光、緑光及び青光の3色に分解して測光し、 測光により得られたデータに基づいて色相値及び彩度値
についての2次元ヒストグラムを求め、 求めた2次元ヒストグラムを山毎に分割し、 カラー原画像の各画素が分割された山のどれに属するか
を判断して画素を分割された山に対応する群に分けると
共に、各々の群毎にカラー原画像を分割し、 分割された各領域の輪郭及び内部構造の少なくとも1つ
を判断して人物の顔か否か判断し、 人物の顔と判断された領域の濃度を求め、 求めた濃度の最大値と最小値との差が所定値を越えた場
合に、求めた濃度に基づいて前記人物の顔の領域を類似
した濃度群に分類し、 分類された濃度群の少なくとも1つを選択して選択され
た濃度群に基づいて複写材料への露光量を決定する露光
量決定方法。
4. A color original image is divided into a large number of pixels, each pixel is decomposed into three colors of red light, green light and blue light, and photometry is performed, and a hue value and a saturation value are obtained based on the data obtained by the photometry. The two-dimensional histogram is calculated, the obtained two-dimensional histogram is divided for each mountain, and it is determined which pixel of each pixel of the color original image belongs to which group, and the group corresponding to the divided mountain In addition, the original color image was divided for each group, and at least one of the contour and internal structure of each divided area was judged to judge whether it was a human face. If the difference between the maximum value and the minimum value of the calculated density exceeds a predetermined value, the area of the person's face is classified into similar density groups based on the calculated density, and is classified. Select at least one of the selected concentration groups Exposure amount determining method for determining the exposure amount of the copy material Zui.
JP31525892A 1992-11-25 1992-11-25 Exposure determination method Expired - Fee Related JP2848750B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP31525892A JP2848750B2 (en) 1992-11-25 1992-11-25 Exposure determination method
US08/153,088 US5461457A (en) 1992-11-25 1993-11-17 Method of determining amount of exposure
EP93118674A EP0601363B1 (en) 1992-11-25 1993-11-19 Method of determining amount of exposure
DE69325077T DE69325077T2 (en) 1992-11-25 1993-11-19 Procedure for determining the exposure amount

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP31525892A JP2848750B2 (en) 1992-11-25 1992-11-25 Exposure determination method

Publications (2)

Publication Number Publication Date
JPH06160994A true JPH06160994A (en) 1994-06-07
JP2848750B2 JP2848750B2 (en) 1999-01-20

Family

ID=18063270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31525892A Expired - Fee Related JP2848750B2 (en) 1992-11-25 1992-11-25 Exposure determination method

Country Status (1)

Country Link
JP (1) JP2848750B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007094487A (en) * 2005-09-27 2007-04-12 Fujifilm Corp Method and system for correcting image

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006129601A1 (en) 2005-06-03 2006-12-07 Nikon Corporation Image processing device, image processing method, image processing program product, and imaging device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007094487A (en) * 2005-09-27 2007-04-12 Fujifilm Corp Method and system for correcting image
JP4718952B2 (en) * 2005-09-27 2011-07-06 富士フイルム株式会社 Image correction method and image correction system

Also Published As

Publication number Publication date
JP2848750B2 (en) 1999-01-20

Similar Documents

Publication Publication Date Title
EP0514909B1 (en) Method of determining exposure
US5497431A (en) Method of extracting characteristic image data and color data conversion device for image processing apparatus
US6023524A (en) Method for determining amount of exposure
US20070071316A1 (en) Image correcting method and image correcting system
JP2695067B2 (en) Method of extracting data of human face and method of determining exposure amount
EP0601363B1 (en) Method of determining amount of exposure
JP2638691B2 (en) Exposure determination method
JP3516786B2 (en) Face area extraction method and copy condition determination method
JP2848749B2 (en) Feature image data extraction method
JPH10268447A (en) Image processor and photographic printer
JP2638693B2 (en) Feature image data extraction method
JP2638702B2 (en) Feature image data extraction method
JP2848750B2 (en) Exposure determination method
JPH09281605A (en) Image recorder
JP2642262B2 (en) Exposure determination method
JP2638701B2 (en) Feature image data extraction method
JP2923401B2 (en) Exposure determination method
JP2638692B2 (en) Method of extracting data of human face and method of determining exposure amount
JP3386373B2 (en) Method for determining similarity of captured images, image processing method and image processing apparatus using the same
JP2763221B2 (en) How to extract human face data
JPH11339030A (en) Image processing method and image processor
JPH11261812A (en) Extraction method for primary object
JP2001076149A (en) Method and device for extracting main object
JP2695074B2 (en) Photometric image data collection method and exposure amount determination method
JPH09197575A (en) Exposure deciding method and exposure controller

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071106

Year of fee payment: 9

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071106

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 10

Free format text: PAYMENT UNTIL: 20081106

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 11

Free format text: PAYMENT UNTIL: 20091106

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091106

Year of fee payment: 11

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101106

Year of fee payment: 12

LAPS Cancellation because of no payment of annual fees