JPH0667320A - Method for extracting data of person's face and method for determining exposure - Google Patents

Method for extracting data of person's face and method for determining exposure

Info

Publication number
JPH0667320A
JPH0667320A JP11874591A JP11874591A JPH0667320A JP H0667320 A JPH0667320 A JP H0667320A JP 11874591 A JP11874591 A JP 11874591A JP 11874591 A JP11874591 A JP 11874591A JP H0667320 A JPH0667320 A JP H0667320A
Authority
JP
Japan
Prior art keywords
face
divided
area
person
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11874591A
Other languages
Japanese (ja)
Other versions
JP2638692B2 (en
Inventor
Hiroaki Nakamura
博明 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP11874591A priority Critical patent/JP2638692B2/en
Priority to US07/886,400 priority patent/US5278921A/en
Priority to EP92108626A priority patent/EP0514909B1/en
Priority to DE69221665T priority patent/DE69221665T2/en
Publication of JPH0667320A publication Critical patent/JPH0667320A/en
Application granted granted Critical
Publication of JP2638692B2 publication Critical patent/JP2638692B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To extract the data on a person's face from an image where the person's face and the ground surface, wood, etc., resembling the hues of the person's face coexist. CONSTITUTION:The person's face is divided to many pieces and is metered. The metered data is converted to a hue value H and a saturation value S, from which a two-dimensional histogram of HS is formed (100 to 104). The two-dimensional histogram is divided to each of the peaks of single peaks (106). To which of the divided peaks the respective picture elements of the original image belong is judged and the picture elements are divided to the groups corresponding to the divided peaks. The image is divided by each of the respective groups and a candidate region is selected (108). Whether the person's face or not is judged from the shape of the nearby region existing near the candidate region and the photometric data of the region judged to be the person's face is outputted (110).

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は人物の顔のデータ抽出方
法及び露光量決定方法に係り、より詳しくは、カラー原
画像をカラー複写材料または黒白複写材料に複写すると
きに使用する、人物の顔の濃度データを抽出する方法及
びこの方法を利用した露光量決定方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for extracting data on a human face and a method for determining an exposure amount, and more specifically, it relates to a human face image used for copying a color original image on a color copying material or black-and-white copying material. The present invention relates to a method for extracting face density data and an exposure amount determination method using this method.

【0002】[0002]

【従来の技術及び発明が解決しようとする課題】人物写
真を観賞するときに最も注目される部位は、人物の顔で
あり、品質の良い写真を作成するためには人物の顔の色
を適正な色に焼付ける必要がある。
2. Description of the Related Art When viewing a portrait photograph, the most noticeable part is the person's face, and in order to create a high quality photograph, the person's face color should be adjusted appropriately. It is necessary to burn it in a different color.

【0003】従来では、カラーフィルムの原画像中の顔
領域をライトペンで指定して人物の顔の濃度データを抽
出し、この抽出した濃度データに基づいて顔の色が適正
に焼付けられるように露光量を決定している。このよう
な技術としては、特開昭62−115430号公報、特
開昭62−115431号公報、特開昭62−1154
32号公報、特開昭62−189456号公報、特開昭
62−189457号公報、特開昭63−138340
号公報、特開昭63−178222号公報に記載のもの
がある。
Conventionally, a face area in an original image on a color film is designated by a light pen to extract density data of a person's face, and the color of the face is properly printed based on the extracted density data. The amount of exposure is determined. Examples of such a technique include JP-A-62-115430, JP-A-62-115431, and JP-A-62-1154.
32, JP-A-62-189456, JP-A-62-189457, and JP-A-63-138340.
JP-A-63-178222.

【0004】しかしながら、上記従来の技術では、画像
毎にオペレータがライトペンで顔領域を指定しなければ
ならないため、焼付作業に時間がかかる、という問題が
ある。また、オペレータが目視して顔領域を指定しなけ
ればならないため、無人化が困難である。
However, in the above-mentioned conventional technique, the operator has to specify the face area with a light pen for each image, and therefore, there is a problem that the printing operation takes time. Further, since the operator has to visually specify the face area, it is difficult to unmanned.

【0005】また、特開昭52−156624号公報、
特開昭52−156625号公報、特開昭53−123
30号公報、特開昭53−145620号公報、特開昭
53−145621号公報、特開昭53−145622
号公報には、肌色データを抽出することによって人物の
顔のデータを抽出する以下の方法が記載されている。す
なわち、カラー原画像を多数の測光点に分割すると共に
各測光点をR(赤)、G(緑)、B(青)の3色に分解
して測光し、測光データから計算した各測光点の色が肌
色範囲内か否か判断する。そして、肌色範囲と判断され
た測光点のクラスタ(群)を顔の濃度データとする。し
かしながら、この方法では肌色範囲内の色を顔の濃度デ
ータと仮定しているため、地面、木の幹、洋服等の肌色
または肌色に近似した色をした顔以外の部位も顔の濃度
データとして抽出されてしまう。また、同一被写体を同
一条件で撮影した場合であってもフィルム種によって撮
影画像の色味が異るため、フィルム種が異ると顔の濃度
データを自動的に抽出できないことがある。更に、被写
体を照明する光源の色が異ると撮影画像の色味が異る
(例えば、蛍光灯を光源として撮影した画像は緑味にな
る)ため、光源色が異ると顔の濃度データを自動的に抽
出できないことがある。
Further, Japanese Patent Application Laid-Open No. 52-156624,
JP-A-52-156625, JP-A-53-123
30, JP-A-53-145620, JP-A-53-145621, and JP-A-53-145622.
The publication describes the following method of extracting the data of a person's face by extracting the skin color data. That is, the color original image is divided into a large number of photometric points, and each photometric point is decomposed into three colors of R (red), G (green), and B (blue) for photometry, and each photometric point calculated from the photometric data. It is determined whether the color of is within the skin color range. Then, the cluster (group) of photometric points determined to be in the skin color range is used as face density data. However, in this method, it is assumed that the color within the skin color range is the density data of the face, and thus the parts other than the face having the skin color such as the ground, the trunk of the tree, and the clothes or the color close to the skin color are also the density data of the face. It will be extracted. Even if the same subject is shot under the same conditions, the tint of the shot image differs depending on the film type, and therefore the density data of the face may not be automatically extracted if the film type is different. Furthermore, when the color of the light source that illuminates the subject is different, the tint of the shot image is different (for example, the image shot with a fluorescent lamp as the light source is greenish), so if the light source color is different, the face density data May not be automatically extracted.

【0006】上記の光源色が異ることによって発生する
問題点を解決するためには、光源色補正を行ってから肌
色範囲の測光データを抽出すればよい。光源としては、
太陽光、蛍光灯、タングステン光に大別できるが、太陽
光は季節、時間帯によって色味が異り、また季節や時間
帯が同じでも直接光か間接光かによって色味が異る。ま
た、蛍光灯等の人工光は製品の多種多様化に伴い様々な
色味がある。従って、光源の各々について光源種を特定
して光源補正を行うのは困難である。また、仮に光源補
正が完全に行えたとしても地面や木の幹等の肌色または
肌色に近似した部位を抽出しないようにすることはでき
ず、更にフィルム種が異ったときに対処することができ
ない。
In order to solve the problem caused by the difference in the light source color, the light source color is corrected and then the photometric data in the skin color range is extracted. As a light source,
It can be roughly classified into sunlight, fluorescent light, and tungsten light, but sunlight has different tints depending on the season and time zone, and even if the season and time zone are the same, the tint differs depending on whether it is direct light or indirect light. In addition, artificial light such as a fluorescent lamp has various colors with the diversification of products. Therefore, it is difficult to perform the light source correction by specifying the light source type for each of the light sources. Further, even if the light source correction is perfectly performed, it is not possible to prevent extraction of the skin color such as the ground or a tree trunk or a portion similar to the skin color. Can not.

【0007】本発明は上記問題点を解決するために成さ
れたもので、ネガフィルム等のカラー原画像から人物の
顔のデータのみを高い確度で自動的に抽出することがで
きる特徴画像データ抽出方法及びこの方法を利用した露
光量決定方法を提供することを目的とする。
The present invention has been made to solve the above-mentioned problems, and characteristic image data extraction capable of automatically extracting only human face data from a color original image such as a negative film with high accuracy. It is an object of the present invention to provide a method and an exposure amount determination method using this method.

【0008】[0008]

【課題を解決するための手段】上記目的を達成するため
に請求項1の発明は、カラー原画像を多数画素に分割し
て各画素を赤光、緑光及び青光の3色に分解して測光
し、測光により得られたデータに基づいて色相値のヒス
トグラムを求め、求めたヒストグラムを山毎に分割し、
カラー原画像の各画素が分割された山のどれに属するか
を判断して画素を分割された山に対応する群に分けると
共に、各々の群毎にカラー原画像を分割し、分割された
領域の少なくとも1つを選択して選択された領域の近傍
領域の形状に基づいて選択された領域が人物の顔か否か
判断し、人物の顔と判断された領域のデータを抽出す
る。
In order to achieve the above object, the invention of claim 1 divides a color original image into a large number of pixels and decomposes each pixel into three colors of red light, green light and blue light. Meter the light, find the histogram of the hue value based on the data obtained by the photometry, divide the obtained histogram for each mountain,
It is determined which of the divided mountains each pixel of the color original image belongs to, the pixels are divided into groups corresponding to the divided mountains, and the color original image is divided into each group, and the divided areas are divided. It is determined whether or not the selected region is a person's face based on the shape of a region in the vicinity of the selected region, and data of the region determined to be the person's face is extracted.

【0009】また、請求項2の発明は、カラー原画像を
多数画素に分割して各画素を赤光、緑光及び青光の3色
に分解して測光し、測光により得られたデータに基づい
て色相値及び彩度値についての2次元ヒストグラムを求
め、求めた2次元ヒストグラムを山毎に分割し、カラー
原画像の各画素が分割された山のどれに属するかを判断
して多数画素を分割された山に対応する群に分けると共
に、各々の群毎にカラー原画像を分割し、分割された領
域の少なくとも1つを選択して選択された領域の近傍領
域の形状に基づいて選択された領域が人物の顔か否か判
断し、人物の顔と判断された領域のデータを抽出する。
上記各発明では近傍領域の形状及び色情報に基づいて
選択された領域が人物の顔か否かを判断することができ
る。
According to a second aspect of the invention, the color original image is divided into a large number of pixels, each pixel is decomposed into three colors of red light, green light and blue light, and photometry is performed. Based on the data obtained by the photometry. To obtain a two-dimensional histogram for the hue value and the saturation value, divide the obtained two-dimensional histogram for each mountain, and determine which of the divided mountains each pixel of the color original image belongs to and determine a large number of pixels. The color original image is divided into groups corresponding to the divided mountains, each group is divided, and at least one of the divided areas is selected to be selected based on the shape of the area in the vicinity of the selected area. It is determined whether or not the region is a human face, and the data of the region determined to be the human face is extracted.
In each of the above inventions, it is possible to determine whether or not the selected region is a person's face based on the shape and color information of the neighboring region.

【0010】[0010]

【作用】請求項1の発明では、カラー原画像を多数画素
に分割して各画素を赤光、緑光及び青光の3色に分解し
て測光し、測光により得られたデータに基づいて色相値
のヒストグラムを求める。次に、求められたヒストグラ
ムをヒストグラムの谷または山の裾を境にして山毎に分
割する。これによって、各山の色相値範囲が定められ
る。次に、各画素の色相値がどの色相値範囲に属するか
を判断することにより、各画素が分割された山のどれに
属するかを判断し、多数画素を分割された山に対応する
群(クラスタ)に分ける。続いて、カラー原画像を分割
された群に対応する領域に分ける。このとき、同じ群に
含まれる画素が異る領域に分けられる場合もあるが、異
る群に含まれる画素が同じ領域に含まれることはない。
これによって、カラー原画像は、ヒストグラムによって
分けられた色相値範囲内の色相値を持つ画素を含む領域
毎に分けられることになる。従って、カラー原画像上の
1つの領域内には、色相値が所定範囲内の画素が含まれ
ることになり、人物の顔を表す少なくとも1つの領域を
選択すれば、選択された領域のデータが人物の顔のデー
タを表すことになるから、領域の選択によって人物の顔
のデータを抽出することができる。人物の顔は、体の上
でかつ頭部の下に存在するから選択された領域の近傍領
域の形状を判断して体や頭部が存在するか否かを判断す
れば、人物の顔か否かを判断することができる。
According to the first aspect of the invention, the color original image is divided into a large number of pixels, each pixel is decomposed into three colors of red light, green light and blue light, and photometry is performed, and the hue is calculated based on the data obtained by the photometry. Find a histogram of values. Next, the obtained histogram is divided for each mountain with a valley or a skirt of the mountain as a boundary. This defines the hue value range of each mountain. Next, by determining which hue value range the hue value of each pixel belongs to, it is determined which of the divided mountains each pixel belongs to, and a group (corresponding to a mountain in which a large number of pixels are divided ( Cluster). Then, the color original image is divided into areas corresponding to the divided groups. At this time, pixels included in the same group may be divided into different regions, but pixels included in different groups are not included in the same region.
As a result, the color original image is divided into regions each including a pixel having a hue value within the hue value range divided by the histogram. Therefore, one area on the color original image includes pixels whose hue value is within a predetermined range, and if at least one area representing the face of a person is selected, the data of the selected area is obtained. Since it represents the face data of the person, the face data of the person can be extracted by selecting the region. Since the face of a person exists above the body and below the head, if the shape of the region in the vicinity of the selected area is judged to determine whether the body or the head is present, it is judged that it is the face of the person. It can be determined whether or not.

【0011】フィルム種や光源種の変化、経時変化、フ
ィルム現像差等があると、カラー原画像の色味は画面全
体で均一に変化するが、このように色味が変化してもヒ
ストグラム上の位置が変わるだけで画像の各画素によっ
て作られる群は保存されるからカラー原画像の分割領域
は色味が変化しても変化しない。従って、本発明では、
フィルム種や光源種の変化、経時変化、フィルム現像差
等によってカラー原画像の色味や色範囲が変化しても人
物の顔の濃度データを抽出することができる。
If there is a change in film type or light source type, a change over time, a difference in film development, etc., the tint of the original color image changes uniformly over the entire screen. Since the group formed by each pixel of the image is saved only by changing the position of, the divided area of the color original image does not change even if the tint changes. Therefore, in the present invention,
Even if the tint or color range of the original color image changes due to changes in film type or light source type, changes over time, film development differences, etc., it is possible to extract density data of a person's face.

【0012】画像の特徴部である人物の顔の色相が、他
の部位の色相と同一または近似している場合、色相値の
みのヒストグラムに基づいてカラー原画像を分割する
と、特徴画像と他の部位とを区別できないことがある。
そこで請求項2の発明では色相値に加えて更に彩度値を
導入し、色相値及び彩度値の2次元ヒストグラムを求
め、この2次元ヒストグラムを山毎に分割して上記と同
様にしてカラー原画像を分割し、分割された領域の近傍
領域の形状に基づいて選択された選択が人物の顔か否か
判断して人物の顔のデータを抽出する。
When the hue of the person's face, which is a characteristic portion of the image, is the same as or similar to the hues of other parts, if the color original image is divided based on the histogram of only the hue value, the characteristic image and other It may not be possible to distinguish it from the part.
Therefore, in the invention of claim 2, a saturation value is further introduced in addition to the hue value, a two-dimensional histogram of the hue value and the saturation value is obtained, and the two-dimensional histogram is divided for each mountain and the color is calculated in the same manner as above. The original image is divided, and it is determined whether or not the selected selection is the human face based on the shape of the region in the vicinity of the divided region, and the human face data is extracted.

【0013】本発明では、色相値と彩度値とを用いてい
るため、人物の顔と色相が同一または近似した部位が混
在していても人物の顔のデータを抽出することがてき
る。すなわち、人物の顔の色相は、地面、木等の肌色部
分と近似しているが、ほとんどの場合彩度が異るため、
色相値及び彩度値の2次元ヒストグラムに基づいて人物
の顔のデータを抽出するようにすれば、顔、地面、木等
が混在する画像からも人物の顔のデータを抽出すること
ができる。
According to the present invention, since the hue value and the saturation value are used, it is possible to extract the face data of a person even if there are parts where the hue is the same as or similar to that of the person's face. That is, the hue of a person's face is similar to the skin color part of the ground, trees, etc., but in most cases the saturation is different,
By extracting the face data of the person based on the two-dimensional histogram of the hue value and the saturation value, the face data of the person can be extracted from an image in which the face, the ground, trees, and the like are mixed.

【0014】そして、上記のようにして抽出された特徴
画像データに基づいて露光量を決定し、プリントを作成
すれば人物の顔を適正な色に焼付けることができる。
Then, if the exposure amount is determined based on the characteristic image data extracted as described above and a print is made, the face of the person can be printed in an appropriate color.

【0015】[0015]

【実施例】以下図面を参照して本発明の実施例を詳細に
説明する。本実施例は、オートプリンタに本発明を適用
したものである。図1に示されるように、本実施例のオ
ートプリンタは、カラーネガフィルム10を搬送する搬
送ローラ12を備えている。搬送ローラ12によって搬
送されるカラーネガフィルム10の下方には、光源1
4、調光フイルタ等の色補正フィルタ16および拡散ボ
ックス18が順に配列されている。また、ネガフィルム
10の上方には、ネガフィルム10を透過した光線を2
方向に分配する分配用プリズム20が配置されている。
分配用プリズム20によって分配された一方の光路上に
は、投影光学系22、ブラックシャッタ23及びカラー
ペーパー(印画紙)24が順に配列され、他方の光路上
には投影光学系26及びCCDイメージセンサ28が順
に配列されている。このCCDイメージセンサ28は、
ネガフィルム10の1画面(1コマ)全体を多数の画素
(例えば256×256画素)に分割して各画素をR
(赤)、G(緑)、及びB(青)の3色に分解して測光
する。CCDイメージセンサ28は、CCDイメージセ
ンサ出力を増幅する増幅器30及びアナログ−デジタル
(A/D)変換器32を介してCCDイメージセンサの
感度補正用の3×3マトリックス回路34に接続されて
いる。3×3マトリックス回路34は、以下で説明する
ルーチンのプログラムを記憶したマイクロコンピュータ
で構成された顔抽出回路36を介して適正露光量計算回
路40に接続されると共に、1画面全体の平均濃度を演
算する平均濃度演算回路38を介して適正露光量計算回
路40に接続されている。そして、適正露光量計算回路
40は、色補正フイルタを駆動するドライバ42を介し
て色補正フィルタ16に接続されている。
Embodiments of the present invention will now be described in detail with reference to the drawings. In this embodiment, the present invention is applied to an auto printer. As shown in FIG. 1, the auto printer of this embodiment includes a conveyance roller 12 that conveys a color negative film 10. Below the color negative film 10 transported by the transport roller 12, the light source 1
4. A color correction filter 16 such as a light control filter and a diffusion box 18 are arranged in order. In addition, above the negative film 10, the light rays transmitted through the negative film 10 are
Distributing prisms 20 that distribute in directions are arranged.
A projection optical system 22, a black shutter 23 and a color paper (printing paper) 24 are sequentially arranged on one optical path distributed by the distribution prism 20, and a projection optical system 26 and a CCD image sensor are arranged on the other optical path. 28 are arranged in order. This CCD image sensor 28 is
One screen (one frame) of the negative film 10 is divided into a large number of pixels (for example, 256 × 256 pixels), and each pixel is R.
(Red), G (green), and B (blue) are separated into three colors for photometry. The CCD image sensor 28 is connected to a 3 × 3 matrix circuit 34 for sensitivity correction of the CCD image sensor via an amplifier 30 that amplifies the output of the CCD image sensor and an analog-digital (A / D) converter 32. The 3 × 3 matrix circuit 34 is connected to an appropriate exposure amount calculation circuit 40 via a face extraction circuit 36 composed of a microcomputer that stores a program of a routine described below, and at the same time, an average density of one entire screen is displayed. It is connected to an appropriate exposure amount calculation circuit 40 via an average density calculation circuit 38 for calculation. The appropriate exposure amount calculation circuit 40 is connected to the color correction filter 16 via a driver 42 that drives the color correction filter.

【0016】次に本実施例の作用を説明する。光源14
から照射された光線は、色補正フィルタ16、拡散ボッ
クス18及びカラーネガフィルム10を透過し、分配用
プリズム20によって分配され、投影光学系26を介し
てCCDイメージセンサ28に受光される。なお、この
ときブラックシャツタ23は閉じられている。この受光
によってCCDイメージセンサ28は、1画面全体を多
数の画素に分割して各画素をR、G、B3色に分解して
測光し、測光データ信号を出力する。測光データ信号は
増幅器30で増幅された後A/D変換器32でデジタル
信号に変換され、3×3マトリックス回路34でイメー
ジセンサの感度補正が行われ、顔抽出回路36と平均濃
度演算回路38に入力される。この平均濃度演算回路3
8では、1画面全体の平均濃度を演算する。顔抽出回路
36では、以下で説明するように1画面中の人物の顔の
部位を推定し、顔と推定された部位のR、G、B3色測
光データを出力する。露光量演算回路40は、顔抽出回
路36から出力された3色測光データと平均濃度演算回
路38で求められた平均濃度とを用いて露光量を演算
し、ドライバ42を介して色補正フイルタ16を制御す
ると共にブラックシャッタ23を開閉して焼付けを行
う。なお、平均濃度演算回路38で求めた平均濃度を用
いるとき、平均濃度に対する露光補正量を求めることが
できる。露光補正量を求めない場合、必ずしも平均濃度
演算回路38を必要とせず、直接顔抽出回路36から出
力された3色測光データより露光量を求めてもよい。
Next, the operation of this embodiment will be described. Light source 14
The light beam emitted from the laser beam passes through the color correction filter 16, the diffusion box 18, and the color negative film 10, is distributed by the distribution prism 20, and is received by the CCD image sensor 28 via the projection optical system 26. At this time, the black shirt 23 is closed. By this light reception, the CCD image sensor 28 divides the entire screen into a large number of pixels, decomposes each pixel into R, G, and B colors, and performs photometry, and outputs a photometric data signal. The photometric data signal is amplified by the amplifier 30 and then converted into a digital signal by the A / D converter 32, the sensitivity of the image sensor is corrected by the 3 × 3 matrix circuit 34, and the face extraction circuit 36 and the average density calculation circuit 38. Entered in. This average concentration calculation circuit 3
In 8, the average density of the entire one screen is calculated. The face extraction circuit 36 estimates the human face part in one screen as described below, and outputs R, G, B three-color photometric data of the part estimated to be the face. The exposure amount calculation circuit 40 calculates the exposure amount using the three-color photometric data output from the face extraction circuit 36 and the average density calculated by the average density calculation circuit 38, and the color correction filter 16 is calculated via the driver 42. Is controlled and the black shutter 23 is opened and closed for printing. When the average density calculated by the average density calculation circuit 38 is used, the exposure correction amount for the average density can be calculated. When the exposure correction amount is not calculated, the average density calculation circuit 38 is not necessarily required, and the exposure amount may be calculated directly from the three-color photometric data output from the face extraction circuit 36.

【0017】図2は顔抽出回路36よる顔抽出ルーチン
を示すものであり、ステップ100において入力された
3色測光データのノイズ除去、すなわちスムージングを
行う。次のステップ102では下記の(1)〜(3)式
によってR、G、B3色測光データをH(色相値)、L
(明度値)、S(彩度値)に変換する。
FIG. 2 shows a face extraction routine by the face extraction circuit 36. The noise removal, that is, smoothing, of the three-color photometric data input in step 100 is performed. In the next step 102, the R, G, and B three-color photometric data are converted into H (hue value) and L (L) according to the following equations (1) to (3)
(Brightness value) and S (saturation value).

【0018】 L=(R+G+B)/3 ・・・・(1) S=1−min(r’,g’,b’)・・・・(2) H=H’/2Pi ・・・・(3) ただし、R、G、Bは図3の3次元色座標に示すように
各々最小値が0、最大値が1になるように規格された3
色測光データ、min( )は( )内の数値の最小
値、r’、g’、b’はr’=R/L、g’=G/L、
b’=B/Lを表す。またH’は次の(4)式で与えら
れ、Pi(iは、R、G、Bのうちの1つ)は図3のP
である。
L = (R + G + B) / 3 ... (1) S = 1-min (r ', g', b ') ... (2) H = H' / 2Pi .... ( 3) However, R, G, and B are standardized so that the minimum value is 0 and the maximum value is 1 as shown in the three-dimensional color coordinates in FIG.
Color photometric data, min () is the minimum value of the numerical values in (), r ', g', b'is r '= R / L, g' = G / L,
It represents b '= B / L. Further, H ′ is given by the following expression (4), and Pi (i is one of R, G, and B) is P in FIG.
Is.

【0019】[0019]

【数1】 [Equation 1]

【0020】ただし、However,

【0021】[0021]

【数2】 [Equation 2]

【0022】ステップ104では、図4(1)に示すよ
うに、各々直交する色相値軸、彩度値軸及び画素数軸か
ら成る座標系を用いて色相値及び彩度値についての2次
元ヒストグラムを求め、次のステップ106において後
述するように、求めた2次元ヒストグラムを山毎に分割
する、すなわち2次元ヒストグラムのクラスタリングを
行う。次のステップ108ではクラスタリングされた2
次元ヒストグラムの山に基づいて多数の画素のクラスタ
リングを行い、このクラスタリングに基づいて画面を分
割し、分割された領域から人物の顔の候補となる領域を
抽出する。次のステップ110では、顔の候補として抽
出された領域から顔の領域を推定し、顔として推定され
た領域のR、G、B3色測光データを出力する。そし
て、ステップ112において全コマの焼付けが終了した
か否か判断し、焼付終了と判断されたときにこのルーチ
ンを終了する。
In step 104, as shown in FIG. 4A, a two-dimensional histogram of the hue value and the saturation value is obtained by using a coordinate system composed of a hue value axis, a saturation value axis and a pixel number axis which are orthogonal to each other. Then, as will be described later in step 106, the obtained two-dimensional histogram is divided into mountains, that is, clustering of the two-dimensional histogram is performed. In the next step 108, clustered 2
A large number of pixels are clustered based on the peaks of the dimensional histogram, the screen is divided based on this clustering, and areas that are candidates for human faces are extracted from the divided areas. In the next step 110, the face area is estimated from the area extracted as the face candidate, and R, G, B three-color photometric data of the area estimated as the face is output. Then, in step 112, it is judged whether or not the printing of all the frames is completed, and when it is judged that the printing is completed, this routine is ended.

【0023】次に、上記ステップ106〜110の詳細
を説明する。図5はステップ106の詳細を示すもの
で、ステップ120において色相値及び彩度値について
の2次元ヒストグラムから評価すべき領域を切り出す。
図4では説明を簡単にするため1コマを評価領域とし
た。ステップ122では評価領域があるか否か判断す
る。ステップ120で評価領域が切り出せなかったと
き、すなわち全ての領域の評価が終了したときには評価
領域がないため、このルーチンを終了する。評価領域が
ある場合には、ステップ124において山切り出し用ヒ
ストグラムを作成するためのX、Y軸の決定を行う。す
なわち、評価領域を画素数軸と平行な軸を中心に回転さ
せ、ヒストグラムの山を横から見たときに多峰性を優先
しかつ山が最も尖鋭となる位置を求め、この位置を基準
にX、Y軸を決定する。処理時間の短縮が必要な場合は
精度が多少低下するが、X、Y軸としてヒストグラムの
分散が最大となる軸を用いてもよい。図4(1)の例で
は、1〜4の符号を付した4つの山を横から見たときに
多峰性を優先しかつ山が最も尖鋭になる位置は3つの山
が見える位置であるので見る方向と直交する方向にX軸
を定め、このX軸と直交する方向にY軸を定めている。
Next, details of steps 106 to 110 will be described. FIG. 5 shows the details of step 106. In step 120, an area to be evaluated is cut out from the two-dimensional histogram of the hue value and the saturation value.
In FIG. 4, one frame is set as the evaluation area for simplification of description. In step 122, it is determined whether there is an evaluation area. When the evaluation area cannot be cut out in step 120, that is, when the evaluation of all areas is completed, there is no evaluation area, and this routine is ended. If there is an evaluation area, the X and Y axes for creating the mountain cutting histogram are determined in step 124. In other words, the evaluation area is rotated around an axis parallel to the pixel number axis, and when the mountains of the histogram are viewed from the side, priority is given to multimodality and the position where the mountains are the sharpest is obtained. Determine the X and Y axes. If the processing time needs to be shortened, the accuracy will be somewhat lowered, but axes that maximize the variance of the histogram may be used as the X and Y axes. In the example of FIG. 4 (1), when four mountains labeled with 1 to 4 are viewed from the side, priority is given to multi-modality and the position where the peaks are sharpest is the position where three mountains are visible. Therefore, the X axis is defined in the direction orthogonal to the viewing direction, and the Y axis is defined in the direction orthogonal to the X axis.

【0024】次のステップ126では、2次元ヒストグ
ラムをX、Y軸に投影させて各々1次元のヒストグラム
を作成する。図4(1)の例では、X軸と直交する方向
から見ると1、2の符号を付した山が重なって見えるた
めX軸についての1次元ヒストグラムには、符号3を付
した山、符号1、2を付した山、符号4を付した山の3
つの山が現れ、Y軸と直交する方向から見ると1〜4の
符号を付した山が重なって見えるためY軸についてのヒ
ストグラムには1つの山が現れている。次のステップ1
28では、次の(5)式によってヒストグラムを評価関
数H(a)に変換しこの評価関数に基づいてX軸につい
てのヒストグラムから山の切り出しを行う。
In the next step 126, the two-dimensional histogram is projected on the X and Y axes to create one-dimensional histograms. In the example of FIG. 4 (1), when viewed from the direction orthogonal to the X axis, the peaks with the reference numerals 1 and 2 appear to overlap, so the one-dimensional histogram for the X axis has the peaks and the reference numerals with the reference numeral 3. Mountain with 1 and 2 and mountain with 4
Two peaks appear, and when viewed from the direction orthogonal to the Y axis, the peaks labeled with numbers 1 to 4 appear to overlap, so that one peak appears in the histogram for the Y axis. Next step 1
At 28, the histogram is converted into the evaluation function H (a) by the following equation (5), and the mountains are cut out from the histogram on the X axis based on this evaluation function.

【0025】[0025]

【数3】 [Equation 3]

【0026】ただし、f(a)はX軸方向の値(特徴
量)がaのときの画素数、xは特徴量aからの変位であ
る。
However, f (a) is the number of pixels when the value (feature amount) in the X-axis direction is a, and x is the displacement from the feature amount a.

【0027】すなわち、評価関数H(a)の平均値Tを
求め、評価関数H(a)の平均値T以下の範囲(谷、裾
部の存在範囲)を求める。次に、この範囲内のヒストグ
ラムが最小の位置をヒストグラムの谷または裾部とす
る。そして、求められた谷または裾部でヒストグラムを
切り出す。
That is, the average value T of the evaluation function H (a) is calculated, and the range (valley, skirt existence range) below the average value T of the evaluation function H (a) is calculated. Next, the position of the minimum histogram within this range is set as the valley or skirt of the histogram. Then, a histogram is cut out at the obtained valley or skirt.

【0028】上記山の切り出しを図6を参照して説明す
ると、実線SIで表わされたヒストグラムから評価関数
H(a)を求めると図の破線で示すようになる。この評
価関数H(a)が負の部分に関しての平均値T以下の範
囲は特徴量がv0〜v1、v2〜v3の範囲である。こ
の範囲内のヒストグラムの度数が最小の位置は、範囲v
0〜v1ではav0=v0、範囲v2〜v3ではav1
であり、av0が裾部として、av2が谷として各々求
められ、この位置でヒストグラムの切り出しを行う。
Explaining the cutting of the mountain with reference to FIG. 6, when the evaluation function H (a) is obtained from the histogram represented by the solid line SI, it becomes as shown by the broken line in the figure. The range of the average value T or less with respect to the negative portion of the evaluation function H (a) is the range of feature amounts v0 to v1 and v2 to v3. The position where the frequency of the histogram in this range is the minimum is the range v
Av0 = v0 in 0 to v1, av1 in the range v2 to v3
And av0 is obtained as a skirt and av2 is obtained as a valley, and the histogram is cut out at this position.

【0029】ステップ130ではX軸についてのヒスト
グラムの山の切り出しと同様の方法でY軸についてのヒ
ストグラムの山の切り出しを行う。次のステップ132
では、2次元ヒストグラム上で上記のように切り出され
たX軸、Y軸についてのヒストグラムの山が重なる領域
を求め、色相値及び彩度値についての2次元ヒストグラ
ムから山の切り出しを行う。図4(1)の領域E1は上
記のようにして切り出した山の一例を示すものである。
In step 130, the peaks of the histogram about the Y-axis are cut out in the same manner as the peaks of the histogram about the X-axis. Next step 132
Then, an area where the peaks of the X-axis and Y-axis histograms cut out as described above overlap on the two-dimensional histogram is obtained, and the peaks are cut out from the two-dimensional histogram of the hue value and the saturation value. An area E1 in FIG. 4 (1) shows an example of a mountain cut out as described above.

【0030】次のステップ134では、2次元ヒストグ
ラムから切り出された山が単峰か否か判断し、単峰でな
い場合は2次元ヒストグラムから切り出された山が単峰
になるまでステップ124〜ステップ134を繰り返
す。図4(3)の領域E2は、上記のようにして切り出
された単峰の山の一例を示すものである。
In the next step 134, it is judged whether or not the mountain cut out from the two-dimensional histogram is a single peak, and if it is not a single peak, steps 124 to 134 are repeated until the mountain cut out from the two-dimensional histogram becomes a single peak. repeat. Region E2 in FIG. 4C shows an example of a single-peak mountain cut out as described above.

【0031】次のステップ136では、切り出された単
峰の山を識別するためのラベルを付ける処理(ラベリン
グ)を行い、ステップ138ではラベリングされた山を
マスクしてステップ120へ戻る。そして、上記のステ
ップを繰り返して色相値及び彩度値についての2次元ヒ
ストグラムの全領域を単峰の山に分割する。
In the next step 136, a process (labeling) is performed to attach a label for identifying the cut-out single-peak mountain, and in step 138, the labeled mountain is masked and the process returns to step 120. Then, the above steps are repeated to divide the entire area of the two-dimensional histogram for the hue value and the saturation value into single peaks.

【0032】図7は図2のステップ108の詳細を示す
もので、ステップ140では、上記のようにして分割さ
れた単峰の山のX軸方向の範囲XR(図4(3))及び
Y軸方向の範囲YR(図4(3))を単峰の山毎に各々
求め、原画像の各画素について色相値及び彩度値がこれ
らの範囲に属しているかを判断して画素のクラスタリン
グを行うと共に、範囲XR、YRで囲まれた範囲に属し
ている画素を集め、集めた画素が原画像上で1つの領域
となるように原画像を分割する。また、分割された領域
にナンバリングする。図4(2)は、原画像を分割した
例を示すもので符号1〜4を付した各領域の画素は、図
4(1)の、符号1〜4を付した単峰の山に対応してい
る。図4(1)で同じ単峰の山に含まれる画素に属して
いる画素が図4(2)では異る領域に分割されている
が、これは図4(1)では単峰の山の色相値範囲及び彩
度値範囲を持つ画素であるが、図4(2)では領域が分
かれているからである。
FIG. 7 shows the details of step 108 in FIG. 2. In step 140, the range XR (FIG. 4 (3)) and Y in the X-axis direction of the single-peak mountain divided as described above is obtained. The axial range YR (FIG. 4 (3)) is obtained for each single peak, and it is determined whether the hue value and the saturation value of each pixel of the original image belong to these ranges, and pixel clustering is performed. At the same time, the pixels belonging to the range surrounded by the ranges XR and YR are collected, and the original image is divided so that the collected pixels form one area on the original image. Also, the divided areas are numbered. FIG. 4 (2) shows an example in which the original image is divided, and the pixels in each area denoted by reference numerals 1 to 4 correspond to the unimodal peaks denoted by reference numerals 1 to 4 in FIG. 4 (1). is doing. Pixels belonging to pixels included in the same single-peak mountain in FIG. 4 (1) are divided into different regions in FIG. 4 (2). This is because the pixel has a hue value range and a saturation value range, but the area is divided in FIG. 4 (2).

【0033】次のステップ142では、分割された領域
の面積を判断することにより徴小領域を除去し、ナンバ
リングをし直す。次のステップ144では、領域の境界
画素をすべて削除してひと皮分取り除く収縮処理と、収
縮処理とは逆に境界画素を背景画素方向へ増殖させてひ
と皮分太らせる膨張処理とを行って大領域と繁がってい
る小領域を大領域から分離する。次のステップ146で
はステップ142と同様に徴小領域を除去してリナンバ
リングを行い、ステップ148で弱い結合をしている領
域同士を分離するために、上記と同様の収縮、膨張処理
を行い、ステップ150において上記と同様に徴小領域
の除去とリナンバリングを行う。
In the next step 142, the small area is removed by judging the area of the divided area, and the numbering is performed again. In the next step 144, a contraction process for deleting all the boundary pixels of the region to remove one skin, and an expansion process for expanding the boundary pixels in the direction of the background pixels to enlarge the skin by one conversely to the contraction process are performed. It separates a small area that grows up from a large area. In the next step 146, small areas are removed and renumbering is performed in the same manner as in step 142, and in order to separate the weakly bonded areas in step 148, the same contraction and expansion processing is performed, In step 150, the small area is removed and renumbering is performed as described above.

【0034】図8はステップ110の詳細なルーチンを
示すもので、このルーチンでは、ステップ108で抽出
された候補領域の各々について注目領域の形状及び色情
報と注目領域の周辺に位置する領域である近傍領域の形
状及び色情報とから注目領域が顔か否かを判断する。図
8に示すように、ステップ170において注目領域の周
辺に注目領域と同一色相値、及び彩度値または近似した
色相値及び彩度値を持ち、かつ、サイズ(例えば、水平
フィレ径、垂直フィレ径を採用することができる)が注
目領域のサイズの25〜100%の範囲の領域が抽出さ
れているか否か判断することによって、人物の手または
足に対応する領域が抽出されているか否か判断する。判
断の対象となる範囲は人物の身体が存在する範囲、例え
ば注目領域を中心として注目領域の面積と同一面積の円
の直径の5倍を半径とする範囲とする。なお、面像情報
が途切れてしまう場合は、途切れる方向については対象
範囲を画像情報が途切れる位置までとする。そして、注
目領域の周辺に手または足に対応する領域が存在する場
合にはステップ172でフラグFa をセットする。
FIG. 8 shows a detailed routine of step 110. In this routine, for each of the candidate areas extracted in step 108, the shape and color information of the attention area and the areas located around the attention area are shown. Whether or not the attention area is a face is determined from the shape and color information of the neighboring area. As shown in FIG. 8, in step 170, the same hue value as the attention area and the saturation value or the hue value and the saturation value similar to the attention area are provided around the attention area, and the size (for example, the horizontal fillet diameter and the vertical fillet) is set. Whether the area corresponding to the hand or foot of the person is extracted by determining whether or not the area in the range of 25 to 100% of the size of the attention area is extracted. to decide. The range to be determined is a range in which the body of a person exists, for example, a range having a radius of 5 times the diameter of a circle having the same area as the area of interest centering on the area of interest. When the surface image information is interrupted, the target range is set to the position where the image information is interrupted in the interrupted direction. If there is a region corresponding to the hand or foot around the region of interest, the flag Fa is set in step 172.

【0035】次のステップ174では、注目領域と連続
する領域が存在しかつその領域が人物の体に対応するか
否かを判断することにより人物の体の領域が抽出されて
いるか否かを判断する。人物の体は、通常左右軸対象で
かつ上下方向に非対象であると共に顔に連続しているの
で、注目領域と連続する領域が存在しかつその領域が左
右軸対象でかつ上下非対象かを判断することにより人物
の体に対応する領域が存在するか否かを判断することが
できる。そして、人物の体に対応する領域が存在すると
きはステップ176でフラグFb をセットする。
In the next step 174, it is judged whether or not the area of the body of the person is extracted by judging whether or not there is an area continuous with the attention area and the area corresponds to the body of the person. To do. Since the body of a person is usually symmetrical with respect to the left-right axis and is not symmetrical with respect to the vertical direction and is continuous with the face, there is an area that is continuous with the area of interest and whether that area is symmetrical with respect to the horizontal axis and not symmetrical with respect to the vertical By making the determination, it can be determined whether or not there is a region corresponding to the body of the person. If there is an area corresponding to the body of the person, the flag Fb is set in step 176.

【0036】次のステップ178では以下の条件を判断
することにより頭部が存在するか否か判断する。頭部は
顔と隣接し、顔と統合したとき略惰円形になり、通常頭
部には帽子、ヘルメット、頭髪等が存在するから色相ま
たは彩度が顔と相異している。従って、注目領域に隣接
する領域についてこの領域の周囲長と、注目領域との隣
接部の境界長との比が30%以上であるか、注目領域と
隣接する領域とを統合したときの円形度が向上するか、
注目領域の色相値と注目領域に隣接する領域の色相値と
の色相差に対する彩度値差または明度値差が大きいか、
注目領域に隣接する領域の彩度値または明度値が注目領
域に比較して小さいかを判断することにより頭部が存在
するか否かを判断することができる。そして、頭部に対
応する領域が存在すると判断されたときにはステップ1
80においてフラグFc をセットする。
At the next step 178, it is judged whether or not the head exists by judging the following conditions. The head is adjacent to the face, and when it is integrated with the face, the head becomes an almost circular shape, and since the head, the helmet, and the hair are usually present on the head, the hue or saturation is different from the face. Therefore, for a region adjacent to the region of interest, the ratio of the perimeter of this region to the boundary length of the adjacent portion of the region of interest is 30% or more, or the circularity when the region of interest and the region adjacent to the region are integrated. Will be improved,
Whether the hue value difference between the hue value of the area of interest and the hue value of the area adjacent to the area of interest is large or
Whether or not the head is present can be determined by determining whether the saturation value or the brightness value of the area adjacent to the attention area is smaller than that of the attention area. If it is determined that the area corresponding to the head exists, step 1
At 80, flag F c is set.

【0037】ステップ182では、フラグFa 及びフラ
グFb がセットされているか否か判断し、背定判断され
たとき、すなわち注目領域の周辺に手または足に対応す
る領域が存在しかつ注目領域に連続する領域が体に対応
する領域のときは、注目領域は人物の顔であると判断し
て、ステップ188において注目領域のR、G、B測光
データを出力する。ステップ182で否定判断されたと
きはステップ184においてフラグFb 及びフラグFc
がセットされているか否か判断する。この判断が背定さ
れたとき、すなわち注目領域に連続する領域が体に対応
する領域でかつ注目領域に隣接する領域が頭部に対応す
る領域のときは、注目領域は人物の顔であると判断して
ステップ188へ進む。ステップ184で否定判断され
たときはステップ186でフラグFa 、フラグFb 及び
フラグFc がセットされているか否か判断し、背定判断
されたときは注目領域は人物の顔であると判断してステ
ップ188ヘ進む。次のステップ190では次の注目領
域の判断のためにフラグF a 、Fb 、Fc をリセットす
る。
In step 182, the flag FaAnd hula
Gu FbJudge whether or not the
When you touch your hands or feet around the area of interest,
There is a region that exists and is continuous with the region of interest corresponds to the body
Area of interest, it is determined that the area of interest is the face of a person.
Then, in step 188, R, G, B photometry of the attention area is performed.
Output the data. That a negative decision was made in step 182
If step 184 then flag FbAnd flag Fc
Judge whether or not is set. This judgment is uncertain
When you are touched, that is, the area following the area of interest corresponds to your body
The area that is adjacent to the attention area corresponds to the head.
Area of interest, it is determined that the area of interest is the face of a person.
Go to step 188. A negative decision is made in step 184
Flag F in step 186a, Flag Fbas well as
Flag FcJudgment is made by judging whether or not is set
If it is determined that the attention area is a human face,
Proceed to 188. Next Step 190
Flag F to judge the range a, Fb, FcReset
It

【0038】適正露光量計算回路40は、顔抽出回路3
6で上記のように抽出された顔領域のR、G、B測光デ
ータと平均濃度演算回路38で演算された1コマの画面
平均濃度Di (i=R、G、Bのうちのいずれか)とを
用いて以下の式に従って適正露光量Ei を演算し、ドラ
イバ42に出力する。ドライバ42は適正露光量Ei
ら露光コントロール値を演算して調光フイルタ16を制
御する。
The proper exposure amount calculation circuit 40 is composed of the face extraction circuit 3
6. The R, G, B photometric data of the face area extracted as described above in 6 and the screen average density D i of one frame calculated by the average density calculation circuit 38 (i = R, G, or B) ) And are used to calculate an appropriate exposure amount E i according to the following equation, and output to the driver 42. The driver 42 controls the dimming filter 16 by calculating an exposure control value from the appropriate exposure amount E i .

【0039】 logi =LMi ・CSi ・(DNi −Di )+PBi +LBi +MBi +NBi +K1 +K2 …(6) ただし、各記号は次のものを表す。L og E i = LM i · CS i · (DN i −D i ) + PB i + LB i + MB i + NB i + K 1 + K 2 (6) However, each symbol represents the following.

【0040】LM:倍率スロープ係数であり、ネガの種
類とプリントサイズから決まる引伸倍率に応じて予め設
定されている。
LM: Magnification slope coefficient, which is preset according to the enlargement magnification determined by the type of negative and the print size.

【0041】CS:ネガの種類毎に用意されたカラース
ロープ係数でアンダー露光用とオーバー露光用とがあ
り、プリントすべきコマの平均濃度が標準ネガ濃度値に
対してアンダーかオーバーかを判定してアンダー露光用
またはオーバー露光用のいずれかが選択される。
CS: Color slope coefficient prepared for each type of negative, there are underexposure and overexposure, and it is determined whether the average density of the frames to be printed is under or over the standard negative density value. Either underexposure or overexposure is selected.

【0042】DN:標準ネガ濃度値。 D :プリントコマの平均濃度値。DN: Standard negative density value. D: Average density value of print frame.

【0043】PB:標準カラーペーパーに対する補正バ
ランス値であり、カラーペーパーの種類に応じて決定さ
れている。
PB: A correction balance value for a standard color paper, which is determined according to the type of color paper.

【0044】LB:標準焼付レンズに対する。補正レン
ズバランス値であり、焼付レンズの種類に応じて決定さ
れてる。
LB: For standard print lens. It is a correction lens balance value, and is determined according to the type of printing lens.

【0045】MB:プリンタ光源の変動やペーパー現像
性能の変化に対する補正値(マスターバランス値)。
MB: Correction value (master balance value) for variations in printer light source and changes in paper developing performance.

【0046】NB:ネガフィルムの特性によって定めら
れるネガバランス(カラーバランス)値。
NB: Negative balance (color balance) value determined by the characteristics of the negative film.

【0047】K2 :カラー補正量。 K1 :以下の式で表される濃度補正量。K 2 : Color correction amount. K 1 : A density correction amount represented by the following formula.

【0048】[0048]

【数4】 [Equation 4]

【0049】ここで、Ka 、Kb は定数であり、FDは
顔領域平均濃度である。また、上記(6)式の濃度補正
量K1 をフィルム検定装置によって求められた補正値と
し、カラー補正量K2 を次のように顔領域平均濃度を用
いて表してもよい。
Here, K a and K b are constants, and FD is the face area average density. Further, the density correction amount K 1 in the equation (6) may be used as the correction value obtained by the film inspection apparatus, and the color correction amount K 2 may be expressed using the face area average density as follows.

【0050】[0050]

【数5】 [Equation 5]

【0051】ただし、Kc は定数である。更に、上記
(6)式の濃度補正量K1 、カラー補正量K2 をフィル
ム検定装置によって求められた補正量とし、(6)式の
プリントコマの平均濃度Di を顔領域の平均濃度FDi
置きかえて露出量を求めてもよい。
However, K c is a constant. Further, the density correction amount K 1 and the color correction amount K 2 in the equation (6) are used as the correction amounts obtained by the film inspection device, and the average density D i of the print frame in the equation (6) is the average density FD of the face area. i
Alternatively, the exposure amount may be obtained instead.

【0052】本実施例では、領域の輪郭及び内部構造を
用いて判断しているため、色相が類似している顔、地
面、木等が混在する画像からも顔のデータを抽出するこ
とができる。なお、本実施例で注目領域が手または足、
体、頭部か否かを判断する場合に、上記第1実施例で説
明したように複数の標準的な手または足の画像、複数の
標準的な体の画像、複数の標準的な頭部の画像を予め記
憶しておいて、注目領域とこれらの標準的な画像とを比
較して判断してもよい。
In the present embodiment, since the judgment is made by using the contour of the area and the internal structure, the face data can be extracted from the image in which the faces, the ground, the trees and the like having similar hues are mixed. . In this embodiment, the attention area is the hand or foot,
When determining whether it is a body or a head, a plurality of standard hand or foot images, a plurality of standard body images, and a plurality of standard heads are used as described in the first embodiment. The image may be stored in advance, and the region of interest may be compared with these standard images for determination.

【0053】次に本発明の他の実施例を説明する。本実
施例は抽出された領域を線図形化して注目領域の周辺に
位置する近傍領域の形状及び注目領域の形状に基づいて
注目領域が顔か否かを判断するようにしたものである。
図9は線図形化による顔判定ルーチンを示すもので、上
記のように抽出された一画面分の領域の線情報抽出処理
を行って各領域を線図形に変換する。ステップ202で
は、予め記憶された人物の肩を表す標準線図形と一画面
の線図形とを比較することによって肩を表す線図形が存
在するか否かを判断する。肩を表す線図形が存在しない
場合にはこのルーチンを終了し、肩を表す線図形が存在
する場合にはその上側に線図形が存在するか否かを判断
する。線図形が存在すれば、この線図形を注目線図形と
してステップ206において、この注目線図形の上側に
頭部(例えば、帽子、頭髪、ヘルメット等)を表す線図
形が存在するか判断する。ステップ206の判断が肯定
のときは、注目線図形の上側に頭部を表す線図形が存在
しかつ注目線図形の下側に肩を表す線図形が存在するた
め注目線図形は顔の線図形である確立が高い。このため
ステップ208においてこの注目線図形の輪郭が標準的
な顔の線図形の輪郭に近似しているか否か判断する。ス
テップ208の判断が肯定のときはステップ210にお
いて注目線図形が顔であると判断してこの注目線図形に
対応する領域のR、G、B測光データを出力する。一
方、ステップ208の判断が否定のときはステップ21
2において肩を表す線図形の上側の線図形の下側の部分
を顔と判断し、この部分のR、G、B測光データを出力
する。
Next, another embodiment of the present invention will be described. In this embodiment, the extracted area is formed into a line figure and it is determined whether or not the attention area is a face based on the shape of the neighboring area and the shape of the attention area located around the attention area.
FIG. 9 shows a face determination routine based on line graphics, in which the line information extraction processing of the area for one screen extracted as described above is performed to convert each area into a line graphic. In step 202, it is determined whether or not there is a line figure representing the shoulder by comparing the standard line figure representing the shoulder of the person stored in advance with the line figure of one screen. If the line figure representing the shoulder does not exist, this routine is ended, and if the line figure representing the shoulder exists, it is determined whether or not the line figure exists above the line figure representing the shoulder. If a line figure exists, it is determined in step 206 that this line figure is a line figure of interest, and it is determined whether a line figure representing a head (for example, a hat, hair, helmet, etc.) exists above the line figure of interest. When the determination in step 206 is affirmative, the line drawing representing the head exists above the line drawing of interest and the line drawing representing the shoulder exists below the line drawing of interest, so the line drawing of interest is the line drawing of the face. The probability is high. Therefore, in step 208, it is judged whether or not the contour of the target line figure is close to the contour of the standard face line figure. When the determination in step 208 is affirmative, it is determined in step 210 that the line-of-interest graphic is a face, and R, G, B photometric data of the area corresponding to this line-of-interest graphic is output. On the other hand, if the determination in step 208 is negative, step 21
In FIG. 2, the lower part of the line figure above the line figure representing the shoulder is determined to be the face, and R, G, B photometric data of this part is output.

【0054】本実施例では、注目領域の形状等から顔か
否かを判断しているため、色相が類似している顔、地
面、木等が混在する画像からも顔のデータを抽出するこ
とができる。また、顔の徴細構造を用いて顔を判定して
いないため、判定対象画像の分解能が低くても少ない演
算時間で顔か否かを判定できる。
In the present embodiment, since it is determined whether or not the face is a shape based on the shape of the region of interest or the like, face data can be extracted from an image in which faces having similar hues, the ground, trees and the like are mixed. You can Further, since the face is not determined using the fine structure of the face, it is possible to determine whether or not the face is a small calculation time even if the resolution of the determination target image is low.

【0055】図10はプリンタまたはプリンタプロセッ
サとは別体の露光量決定装置に本発明を適用した変形例
を示すものである。なお、図10において図1と対応す
る部分には同一符号を付して説明を省略する。また、平
均濃度演算回路38は必ずしも必要ではないが、これに
代えて画面全体のLATDを検出する積算透過濃度検出
回路を用いてもよい。
FIG. 10 shows a modified example in which the present invention is applied to an exposure amount determining device separate from a printer or a printer processor. In FIG. 10, parts corresponding to those in FIG. 1 are assigned the same reference numerals and explanations thereof will be omitted. Further, the average density calculation circuit 38 is not always necessary, but instead of this, an integrated transmission density detection circuit for detecting LATD of the entire screen may be used.

【0056】図11は、図10の顔抽出回路を複数の顔
抽出回路361 、362 ・・・36nで構成し、並列処
理により露光量を演算するものである。顔抽出回路36
1 、362 ・・・36nは図12のタイムチャートに従
って画像を読込み、露光量を演算し、その結果を出力す
る。図13においてt1 は1コマの画像読込み時間、t
2 は1コマの露光量演算時間、t3 は1コマの露光量演
算結果転送時間であり、t2 >>t1 、t3 である。顔
抽出回路361 はt1 時間で1コマの画像を読込み、t
2 時間で露光量を演算し、t3 時間で演算結果を転送す
る。顔抽出回路361 による1コマの画像読込みが終了
すると同時にフィルムが1コマ分送られ顔抽出回路36
2 による1コマり画像読込みが開始され、顔抽出回路3
1 の露光量演算と顔抽出回路362 の画像読込みとが
並列して行われ、以下同様に顔抽出回路363 、364
・・・36nによって並列処理される。
In FIG. 11, the face extraction circuit of FIG. 10 is composed of a plurality of face extraction circuits 36 1 , 36 2 ... 36n, and the exposure amount is calculated by parallel processing. Face extraction circuit 36
1, 36 2 ··· 36n reads an image according to the time chart of FIG. 12, calculates the exposure amount, and outputs the result. In FIG. 13, t 1 is the image reading time for one frame, t 1
2 is the exposure amount calculation time for one frame, t 3 is the exposure amount calculation result transfer time for one frame, and t 2 >> t 1 and t 3 . The face extraction circuit 36 1 reads one frame of image at t 1
The exposure amount is calculated in 2 hours, and the calculation result is transferred in t 3 hours. At the same time when one frame of image is read by the face extraction circuit 36 1 , one frame of film is fed and the face extraction circuit 36 1
1 frame image reading by 2 is started, face extraction circuit 3
The exposure amount calculation of 6 1 and the image reading of the face extraction circuit 36 2 are performed in parallel, and the same applies to the face extraction circuits 36 3 and 36 4 hereinafter.
... 36n is processed in parallel.

【0057】mxnのコマを並列処理するに要する時間
Tpは、 Tp=m(t1 +t2 +t3 )+(n−1)t1 である。一方、並列処理を行わない場合の処理時間Ts
は Ts=m・n(t1 +t2 +t3 ) である。従って、
The time Tp required to process mxn frames in parallel is Tp = m (t 1 + t 2 + t 3 ) + (n-1) t 1 . On the other hand, the processing time Ts when parallel processing is not performed
Is Ts = m · n (t 1 + t 2 + t 3 ). Therefore,

【0058】[0058]

【数6】 [Equation 6]

【0059】倍高速化が可能である。なお、この並列処
理装置は図1のプリンタにも適用できる。
Double speeding is possible. This parallel processing device can also be applied to the printer of FIG.

【0060】本発明は写真焼付装置の露光量決定以外
に、ディジタルカラープリンタの露光量決定、複写機の
複写条件決定、カメラの露出量決定、CRT画面の表示
条件決定、磁気画像データからハードコピーを作成する
ときの光量決定にも適用することができる。
In addition to determining the exposure amount of the photo printing apparatus, the present invention determines the exposure amount of the digital color printer, the copying condition of the copying machine, the exposure amount of the camera, the display condition of the CRT screen, and the hard copy from the magnetic image data. It can also be applied to the determination of the amount of light when creating.

【0061】[0061]

【発明の効果】以上説明したように本発明によれば、色
相値のヒストグラムに基づいて分割された近傍領域の形
状から人物の顔のデータを抽出しているため、フィルム
種や光源種の変化、フィルム特性の経時変化、フィルム
現像差等によってカラー原画像の色味や色範囲が変化し
ても精度よく人物の顔のデータを抽出することができ
る、という効果が得られる。
As described above, according to the present invention, since the data of the human face is extracted from the shape of the neighboring area divided based on the histogram of the hue value, the change of the film type and the light source type. Even if the tint or the color range of the original color image changes due to changes in film characteristics over time, differences in film development, and the like, it is possible to accurately extract face data of a person.

【0062】また、色相値及び彩度値の2次元ヒストグ
ラムに基づいて分割された近傍領域の形状から人物の顔
のデータを抽出しているため、特徴画像と色相が同一ま
たは近似した部位が混在していても人物の顔のデータを
抽出することができる、という効果が得られる。
Further, since the face data of the person is extracted from the shape of the neighboring area divided based on the two-dimensional histogram of the hue value and the saturation value, the characteristic image and the part having the same or similar hue are mixed. Even if it does, the effect that the data of the face of the person can be extracted can be obtained.

【0063】また、本発明では近傍領域の形状から人物
の顔を判断しているため、人物の顔が小さい場合、イメ
ージセンサの分解能が小さい場合、メガネの影響による
ノイズがある場合においても人物の顔のデータを抽出で
きる、という効果が得られる。
Further, in the present invention, since the face of a person is judged from the shape of the neighboring area, even if the face of a person is small, the resolution of the image sensor is small, or there is noise due to the influence of glasses, the person's face is detected. The effect that face data can be extracted is obtained.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の等1実施例のプリンタを示す概略図で
ある。
FIG. 1 is a schematic diagram showing a printer according to one embodiment of the present invention.

【図2】顔抽出回路の顔抽出ルーチンを示す流れ図であ
る。
FIG. 2 is a flowchart showing a face extraction routine of a face extraction circuit.

【図3】色座標を示す線図である。FIG. 3 is a diagram showing color coordinates.

【図4】(1)は色相値及び彩度値についての2次元ヒ
ストグラムを示す線図である。(2)は原画像を分割し
た状態を示す線図である。(3)は2次元ヒストグラム
から単峰の山を切り出した状態を示す線図である。
FIG. 4 (1) is a diagram showing a two-dimensional histogram of hue values and saturation values. (2) is a diagram showing a state in which the original image is divided. (3) is a diagram showing a state in which a single peak is cut out from a two-dimensional histogram.

【図5】図2のステップ106の詳細を示す線図であ
る。
5 is a diagram showing details of step 106 of FIG. 2. FIG.

【図6】ヒストグラムと評価関数を示す線図である。FIG. 6 is a diagram showing a histogram and an evaluation function.

【図7】図2のステップ108の詳細を示す線図であ
る。
FIG. 7 is a diagram showing details of step 108 in FIG.

【図8】図2のステップ110の詳細を示す線図であ
る。
FIG. 8 is a diagram showing details of step 110 of FIG.

【図9】本発明の他の実施例の顔推定ルーチンの流れ図
である。
FIG. 9 is a flowchart of a face estimation routine according to another embodiment of the present invention.

【図10】本発明を適用した露光量演算装置の概略図で
ある。
FIG. 10 is a schematic diagram of an exposure amount calculation device to which the present invention is applied.

【図11】複数の顔抽出回路によって並列処理を行う露
光量演算装置の概略図である。
FIG. 11 is a schematic diagram of an exposure amount calculation device that performs parallel processing by a plurality of face extraction circuits.

【図12】並列処理のタイムチャートを示す線図であ
る。
FIG. 12 is a diagram showing a time chart of parallel processing.

【符号の説明】[Explanation of symbols]

28 CCDイメージセンサ 30 増幅器 36 顔抽出回路 28 CCD image sensor 30 amplifier 36 face extraction circuit

─────────────────────────────────────────────────────
─────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成5年8月17日[Submission date] August 17, 1993

【手続補正1】[Procedure Amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0063[Correction target item name] 0063

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0063】また、本発明では近傍領域の形状から人物
の顔を判断しているため、人物の顔が小さい場合、イメ
ージセンサの分解能が小さい場合、メガネの影響による
ノイズがある場合においても人物の顔のデータを抽出で
きる、という効果が得られる。
Further, in the present invention, since the face of a person is judged from the shape of the neighboring area, even if the face of a person is small, the resolution of the image sensor is small, or there is noise due to the influence of glasses, the person's face is detected. The effect that face data can be extracted is obtained.

【手続補正2】[Procedure Amendment 2]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】図面の簡単な説明[Name of item to be corrected] Brief description of the drawing

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の等1実施例のプリンタを示す概略図で
ある。
FIG. 1 is a schematic diagram showing a printer according to one embodiment of the present invention.

【図2】顔抽出回路の顔抽出ルーチンを示す流れ図であ
る。
FIG. 2 is a flowchart showing a face extraction routine of a face extraction circuit.

【図3】色座標を示す線図である。FIG. 3 is a diagram showing color coordinates.

【図4】(1)は色相値及び彩度値についての2次元ヒ
ストグラムを示す線図である。(2)は原画像を分割し
た状態を示す線図である。(3)は2次元ヒストグラム
から単峰の山を切り出した状態を示す線図である。
FIG. 4 (1) is a diagram showing a two-dimensional histogram of hue values and saturation values. (2) is a diagram showing a state in which the original image is divided. (3) is a diagram showing a state in which a single peak is cut out from a two-dimensional histogram.

【図5】図2のステップ106の詳細を示す線図であ
る。
5 is a diagram showing details of step 106 of FIG. 2. FIG.

【図6】ヒストグラムと評価関数を示す線図である。FIG. 6 is a diagram showing a histogram and an evaluation function.

【図7】図2のステップ108の詳細を示す線図であ
る。
FIG. 7 is a diagram showing details of step 108 in FIG.

【図8】図2のステップ110の詳細を示す線図であ
る。
FIG. 8 is a diagram showing details of step 110 of FIG.

【図9】本発明の他の実施例の顔推定ルーチンの流れ図
である。
FIG. 9 is a flowchart of a face estimation routine according to another embodiment of the present invention.

【図10】本発明を適用した露光量演算装置の概略図で
ある。
FIG. 10 is a schematic diagram of an exposure amount calculation device to which the present invention is applied.

【図11】複数の顔抽出回路によって並列処理を行う露
光量演算装置の概略図である。
FIG. 11 is a schematic diagram of an exposure amount calculation device that performs parallel processing by a plurality of face extraction circuits.

【図12】並列処理のタイムチャートを示す線図であ
る。
FIG. 12 is a diagram showing a time chart of parallel processing.

【符号の説明】 28 CCDイメージセンサ 30 増幅器 36 顔抽出回路[Explanation of Codes] 28 CCD image sensor 30 Amplifier 36 Face extraction circuit

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 カラー原画像を多数画素に分割して各画
素を赤光、緑光及び青光の3色に分解して測光し、 測光により得られたデータに基づいて色相値のヒストグ
ラムを求め、 求めたヒストグラムを山毎に分割し、 カラー原画像の各画素が分割された山のどれに属するか
を判断して画素を分割された山に対応する群に分けると
共に、各々の群毎にカラー原画像を分割し、 分割された各領域の1つを選択して選択された領域の近
傍領域の形状に基づいて選択れた領域が人物の顔か否か
判断し、人物の顔と判断された領域のデータを抽出す
る、 人物の顔のデータ抽出方法。
1. A color original image is divided into a large number of pixels, each pixel is decomposed into three colors of red light, green light and blue light and photometry is performed, and a histogram of hue values is obtained based on the data obtained by photometry. , The obtained histogram is divided for each mountain, it is judged which pixel of each pixel of the color original image belongs to the divided mountain, and the pixel is divided into a group corresponding to the divided mountain, and for each group, The color original image is divided, one of the divided areas is selected, and it is determined whether or not the selected area is a person's face based on the shape of the area in the vicinity of the selected area. A method for extracting the data of a human face, which extracts the data of a specified area.
【請求項2】 カラー原画像を多数画素に分割して各画
素を赤光、緑光及び青光の3色に分解して測光し、 測光により得られたデータに基づいて色相値及び彩度値
についての2次元ヒストグラムを求め、 求めた2次元ヒストグラムを山毎に分割し、 カラー原画像の各画素が分割された山のどれに属するか
を判断して画素を分割された山に対応する群に分けると
共に、各々の群毎にカラー原画像を分割し、 分割された各領域の1つを選択して選択された領域の近
傍領域の形状に基づいて選択れた領域が人物の顔か否か
判断し、人物の顔と判断された領域のデータを抽出す
る、 人物の顔のデータ抽出方法。
2. A color original image is divided into a large number of pixels, each pixel is decomposed into three colors of red light, green light and blue light, and photometry is performed, and a hue value and a saturation value are obtained based on the data obtained by the photometry. The two-dimensional histogram of is calculated, the obtained two-dimensional histogram is divided for each mountain, and it is determined which pixel of each pixel of the color original image belongs to which mountain is divided. In addition, the original color image is divided for each group, one of the divided areas is selected, and whether or not the selected area is a human face based on the shape of the area in the vicinity of the selected area is selected. This is a method for extracting the data of a person's face, which determines whether or not the area is determined to be the person's face.
【請求項3】 前記近傍領域の形状及び色情報に基づい
て選択された領域が人物の顔か否か判断する請求項1ま
たは2の人物の顔のデータの抽出方法。
3. The method for extracting human face data according to claim 1, wherein it is determined whether the selected region is a human face based on the shape and color information of the neighboring region.
【請求項4】 請求項1、2または3によって抽出され
た人物の顔のデータに基づいて複写材料への露光量を決
定する露光量決定方法。
4. An exposure amount determining method for determining an exposure amount to a copy material based on the face data of a person extracted according to claim 1.
JP11874591A 1991-05-23 1991-05-23 Method of extracting data of human face and method of determining exposure amount Expired - Fee Related JP2638692B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP11874591A JP2638692B2 (en) 1991-05-23 1991-05-23 Method of extracting data of human face and method of determining exposure amount
US07/886,400 US5278921A (en) 1991-05-23 1992-05-21 Method of determining exposure
EP92108626A EP0514909B1 (en) 1991-05-23 1992-05-21 Method of determining exposure
DE69221665T DE69221665T2 (en) 1991-05-23 1992-05-21 Procedure for determining an exposure

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11874591A JP2638692B2 (en) 1991-05-23 1991-05-23 Method of extracting data of human face and method of determining exposure amount

Publications (2)

Publication Number Publication Date
JPH0667320A true JPH0667320A (en) 1994-03-11
JP2638692B2 JP2638692B2 (en) 1997-08-06

Family

ID=14744011

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11874591A Expired - Fee Related JP2638692B2 (en) 1991-05-23 1991-05-23 Method of extracting data of human face and method of determining exposure amount

Country Status (1)

Country Link
JP (1) JP2638692B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0756426A2 (en) 1995-07-28 1997-01-29 Sharp Kabushiki Kaisha Specified image-area extracting method and device for producing video information
US6834127B1 (en) 1999-11-18 2004-12-21 Fuji Photo Film Co., Ltd. Method of adjusting output image areas
US7092569B1 (en) 1999-07-29 2006-08-15 Fuji Photo Film Co., Ltd. Method and device for extracting specified image subjects

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0756426A2 (en) 1995-07-28 1997-01-29 Sharp Kabushiki Kaisha Specified image-area extracting method and device for producing video information
US6088137A (en) * 1995-07-28 2000-07-11 Sharp Kabushiki Kaisha Specified image-area extracting method and device
US7092569B1 (en) 1999-07-29 2006-08-15 Fuji Photo Film Co., Ltd. Method and device for extracting specified image subjects
US7379591B2 (en) 1999-07-29 2008-05-27 Fujiflim Corporation Method and device for extracting specified image subject
US6834127B1 (en) 1999-11-18 2004-12-21 Fuji Photo Film Co., Ltd. Method of adjusting output image areas

Also Published As

Publication number Publication date
JP2638692B2 (en) 1997-08-06

Similar Documents

Publication Publication Date Title
EP0514909B1 (en) Method of determining exposure
US5463470A (en) Methods of collecting photometric image data and determining light exposure by extracting feature image data from an original image
US5497431A (en) Method of extracting characteristic image data and color data conversion device for image processing apparatus
JPH09171220A (en) Exposure deciding method
JPS62189456A (en) Main picture detection method and photographic printing exposure decision method employing said detection
JP2695067B2 (en) Method of extracting data of human face and method of determining exposure amount
US20010052992A1 (en) Image correction apparatus
JP2638691B2 (en) Exposure determination method
US6034759A (en) Image processing apparatus and photographic printing apparatus
JP3516786B2 (en) Face area extraction method and copy condition determination method
JP2848749B2 (en) Feature image data extraction method
JP2638693B2 (en) Feature image data extraction method
JPH0667320A (en) Method for extracting data of person's face and method for determining exposure
JPH05165120A (en) Method for extracting characteristic image data
JP2642262B2 (en) Exposure determination method
JP3575976B2 (en) Main subject extraction method
JP2638701B2 (en) Feature image data extraction method
JPH09281605A (en) Image recorder
JP2848750B2 (en) Exposure determination method
JP2695074B2 (en) Photometric image data collection method and exposure amount determination method
JP2763221B2 (en) How to extract human face data
JP2923401B2 (en) Exposure determination method
JPH11352601A (en) Image processing method and device
JPH06186652A (en) Exposure deciding method
JPH06160992A (en) Color data conversion device for image processor

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080425

Year of fee payment: 11

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090425

Year of fee payment: 12

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 12

Free format text: PAYMENT UNTIL: 20090425

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100425

Year of fee payment: 13

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 14

Free format text: PAYMENT UNTIL: 20110425

LAPS Cancellation because of no payment of annual fees