JPH05165119A - Method for extracting data on person's face - Google Patents

Method for extracting data on person's face

Info

Publication number
JPH05165119A
JPH05165119A JP32899891A JP32899891A JPH05165119A JP H05165119 A JPH05165119 A JP H05165119A JP 32899891 A JP32899891 A JP 32899891A JP 32899891 A JP32899891 A JP 32899891A JP H05165119 A JPH05165119 A JP H05165119A
Authority
JP
Japan
Prior art keywords
area
color
face
region
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP32899891A
Other languages
Japanese (ja)
Other versions
JP2763221B2 (en
Inventor
Hiroaki Nakamura
博明 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP32899891A priority Critical patent/JP2763221B2/en
Priority to US07/886,610 priority patent/US5309228A/en
Priority to EP92108701A priority patent/EP0514933B1/en
Priority to DE69221210T priority patent/DE69221210T2/en
Publication of JPH05165119A publication Critical patent/JPH05165119A/en
Application granted granted Critical
Publication of JP2763221B2 publication Critical patent/JP2763221B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Control Of Exposure In Printing And Copying (AREA)

Abstract

PURPOSE:To obtain the method for extracting the data on a person's face which can automatically extract only the data on the person's face with high accuracy from a color original image. CONSTITUTION:An original image is divided by each of color regions in accordance with the data obtd. by photometry. One region is selected as a noticed region from the color regions. The nucleus of the noticed region is determined by subjecting the noticed region selected to contraction processing (162). The circle with which the area inscribing the noticed region centering the determined nucleus is largest is determined (164 to 166) and the end of the division concerning the entire region of the noticed region is judged (168 to 170). The noticed region is divided in order of the circles of the larger areas by repeating the processing. The circle of the divided max. area is judged as the region of the face after the end of the division of the noticed region. The photometric data of R, G, B of the region judged to be the face are outputted to a correct exposure calculating circuit (172).

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は人物の顔のデータ抽出方
法に係り、より詳しくは、カラー原画像をカラー複写材
料または黒白複写材料に複写するときに使用する、人物
の顔の濃度データ等の人物の顔のデータを抽出する方法
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a human face data extraction method, and more particularly, to a human face density data used when copying an original color image onto a color copying material or a black-and-white copying material. Method for extracting face data of a person.

【0002】[0002]

【従来の技術及び発明が解決しようとする課題】人物写
真を観賞するときに最も注目される部位は、人物の顔で
あり、品質の良い写真を作成するためには人物の顔の色
を適正な色に焼付ける必要がある。
2. Description of the Related Art When viewing a portrait photograph, the most noticeable part is the person's face, and in order to create a high quality photograph, the person's face color should be adjusted appropriately. It is necessary to burn it in a different color.

【0003】従来では、カラーフィルムの原画像中の顔
領域をライトペンで指定して人物の顔の濃度データを抽
出し、この抽出した濃度データに基づいて顔の色が適正
に焼付けられるように露光量を決定している。このよう
な技術としては、特開昭62−115430号公報、特
開昭62−115431号公報、特開昭62−1154
32号公報、特開昭62−189456号公報、特開昭
62−189457号公報、特開昭63−138340
号公報、特開昭63−178222号公報に記載のもの
がある。
Conventionally, a face area in an original image on a color film is designated by a light pen to extract density data of a person's face, and the color of the face is properly printed based on the extracted density data. The amount of exposure is determined. Examples of such a technique include JP-A-62-115430, JP-A-62-115431, and JP-A-62-1154.
32, JP-A-62-189456, JP-A-62-189457, and JP-A-63-138340.
JP-A-63-178222.

【0004】しかしながら、上記従来の技術では、画像
毎にオペレータがライトペンで顔領域を指定しなければ
ならないため、焼付作業に時間がかかる、という問題が
ある。また、オペレータが目視して顔領域を指定しなけ
ればならないため、無人化が困難である。
However, in the above-mentioned conventional technique, the operator has to specify the face area with a light pen for each image, and therefore, there is a problem that the printing operation takes time. Further, since the operator has to visually specify the face area, it is difficult to unmanned.

【0005】また、特開昭52−156624号公報、
特開昭52−156625号公報、特開昭53−123
30号公報、特開昭53−145620号公報、特開昭
53−145621号公報、特開昭53−145622
号公報には、肌色データを抽出することによって人物の
顔のデータを抽出する以下の方法が記載されている。す
なわち、カラー原画像を多数の測光点に分割すると共に
各測光点をR(赤)、G(緑)、B(青)の3色に分解
して測光し、測光データから計算した各測光点の色が肌
色範囲内か否か判断する。そして、肌色範囲と判断され
た測光点のクラスタ(群)を顔の濃度データとするもの
である。
Further, Japanese Patent Laid-Open No. 52-156624,
JP-A-52-156625, JP-A-53-123
30, JP-A-53-145620, JP-A-53-145621, and JP-A-53-145622.
The publication describes the following method for extracting the data of a person's face by extracting the skin color data. That is, the color original image is divided into a large number of photometric points, and each photometric point is decomposed into three colors of R (red), G (green), and B (blue) for photometry, and each photometric point calculated from the photometric data. It is determined whether the color of is within the skin color range. Then, the cluster (group) of photometric points determined to be in the skin color range is used as face density data.

【0006】しかしながら、この方法では肌色範囲内の
色を顔の濃度データと仮定しているため、地面、木の
幹、洋服等の肌色または肌色に近似した色をした顔以外
の部位も顔の濃度データとして抽出されてしまう。
However, in this method, since the color within the skin color range is assumed to be the density data of the face, the parts other than the face having the skin color such as the ground, the trunk of the tree, and the clothes or the color close to the skin color of the face are also included. It is extracted as density data.

【0007】また、仮に地面や木の幹等の肌色または肌
色に近似した部位を除外して抽出できたとしても、海水
浴シーズンやプール等の画像では肌を多く露出した顔と
同色の領域が顔の周辺に多数存在しており、その周辺の
領域が顔の領域と結合していることがある。また、人物
の画像では、頬杖をついた画像等があり、やはり顔と同
色の画像が顔の領域と結合してしまう。このため、原画
像の色の特徴から顔の領域を抽出しようとすると、顔の
みの領域を抽出することができず、同色の結合した領域
をも抽出してしまう。これによって、顔のみの濃度デー
タを自動的に抽出することができない。
Further, even if the skin color such as the ground or a tree trunk or a part similar to the skin color can be excluded and extracted, in an image of the sea bathing season, pool, etc., an area with the same skin as the face with a lot of exposed skin is the face. There are a large number around the area, and the area around the area may be combined with the facial area. In addition, as a person image, there is an image with a cheek stick, and the image of the same color as the face is combined with the face area. Therefore, when trying to extract a face area from the color features of the original image, it is not possible to extract the area of only the face, and the combined area of the same color is also extracted. As a result, the density data of only the face cannot be automatically extracted.

【0008】本発明は上記問題点を解決するために成さ
れたもので、ネガフィルム等のカラー原画像から特徴画
像データである人物の顔のデータのみを高い確度で自動
的に抽出することができる人物の顔のデータの抽出方法
を提供することを目的とする。
The present invention has been made to solve the above problems, and it is possible to automatically extract only the face data of a person, which is characteristic image data, from a color original image such as a negative film with high accuracy. It is an object of the present invention to provide a method of extracting face data of a person who can do it.

【0009】[0009]

【課題を解決するための手段】上記目的を達成するため
に請求項1の発明は、カラー原画像を多数画素に分割し
て各画素を赤光、緑光及び青光の3色に分解して測光
し、測光により得られたデータに基づいて前記カラー原
画像上に色相が同一または類似の色領域を求め、求めた
色領域の境界部位に内接する円または長円を想定し、か
つ面積の大きな円または長円から順に円または長円の領
域によって求めた色領域を分割し、分割された領域の少
なくとも1つを選択して選択された領域のデータを人物
の顔のデータとして抽出する。
In order to achieve the above object, the invention of claim 1 divides a color original image into a large number of pixels and decomposes each pixel into three colors of red light, green light and blue light. Photometric, obtain a color region having the same or similar hue on the color original image based on the data obtained by photometry, and assume a circle or an ellipse inscribed at the boundary part of the obtained color region, and A color region obtained by a circle or an ellipse is sequentially divided from a large circle or an ellipse, at least one of the divided regions is selected, and the data of the selected region is extracted as the face data of a person.

【0010】また、請求項2の発明は、カラー原画像を
多数画素に分割して各画素を赤光、緑光及び青光の3色
に分解して測光し、測光により得られたデータに基づい
て前記カラー原画像上に色相が同一または類似の色領域
を求め、求めた色領域の境界部位に内接する円または長
円を想定し、かつ面積が最大の円または長円の領域を求
め、円または長円の外周から外側に突出すると共に前記
求めた領域に接する所定面積以上の凸領域を求め、該凸
領域に含まれる色領域の境界部位に内接する円の領域に
よって該色領域を分割し、分割された領域の少なくとも
1つを選択して選択された領域のデータを人物の顔のデ
ータとして抽出する。
According to a second aspect of the invention, the color original image is divided into a large number of pixels, each pixel is decomposed into three colors of red light, green light and blue light, and photometry is performed. Based on the data obtained by the photometry. Then, a color area having the same or similar hue on the color original image is obtained, and a circle or an ellipse inscribed in the boundary portion of the obtained color area is assumed, and an area having the largest circle or an ellipse is obtained, A convex region having a predetermined area or more that protrudes outward from the outer circumference of a circle or an ellipse and is in contact with the obtained region is obtained, and the color region is divided by a circular region inscribed in the boundary region of the color region included in the convex region. Then, at least one of the divided areas is selected and the data of the selected area is extracted as the face data of the person.

【0011】[0011]

【作用】人物写真を観賞するときに最も注目される部位
は、人物の顔であるので、カラー原画像から人物の顔の
領域のデータを抽出し、そのデータを特徴画像データと
して用いるのが好ましい。また、人物の顔の形状は円ま
たは楕円のものが殆どであり、カラー原画像の同系色の
色領域から円の領域を優先して抽出することで人物の顔
の領域が抽出される可能性が高い。
Since the most noticeable part of a person's photograph is the person's face, it is preferable to extract the data of the person's face area from the original color image and use that data as the characteristic image data. .. In addition, most of the human face shapes are circles or ellipses, and there is a possibility that the human face region will be extracted by preferentially extracting the circular region from the color region of the similar color of the color original image. Is high.

【0012】そこで請求項1に記載の発明では、カラー
原画像を多数画素に分割して各画素を赤光、緑光及び青
光の3色に分解して測光し、測光により得られたデータ
に基づいてカラー原画像上に色相が同一または類似の色
領域を求める。次に、求めた色領域の境界部位に内接す
る円または長円を想定し、かつ面積の大きな円または長
円から順に円または長円の領域によって求めた色領域を
分割する。これにより、最終的に分割された領域は、顔
のみの独立した領域である可能性が高い。従って、カラ
ー原画像の分割された各々の色領域は、顔の領域として
抽出される可能性の高い領域に更に分割され、この画像
の特徴を表す少なくとも1つの領域を選択すれば、選択
された領域のデータが特徴画像データを表すことになる
から、領域の選択によって特徴画像データを抽出するこ
とができる。
Therefore, in the invention described in claim 1, the color original image is divided into a large number of pixels, each pixel is decomposed into three colors of red light, green light and blue light, and photometry is performed, and data obtained by photometry is obtained. Based on this, color regions having the same or similar hue are obtained on the original color image. Next, a circle or an ellipse inscribed in the boundary portion of the obtained color region is assumed, and the color region obtained by the circle or the ellipse region is divided in order from a circle or an ellipse having a large area. As a result, the finally divided area is likely to be an independent area of only the face. Therefore, each of the divided color regions of the color original image is further divided into regions that are likely to be extracted as a face region, and if at least one region that represents the features of this image is selected, it is selected. Since the data of the area represents the characteristic image data, the characteristic image data can be extracted by selecting the area.

【0013】また、顔の領域が顔以外の部位に接してい
るとき(例えば、プールで斜め上方から撮影したときは
顔の領域が身体に埋没している)に、その色領域の内接
円から先に分割すると、顔の領域が分割されて抽出され
てしまうことがある。そこで、請求項2に記載の発明で
は、上記請求項1で説明したように測光により得られた
データに基づいてカラー原画像上に色相が同一または類
似の色領域を求める。次に、この求めた色領域の境界部
位に内接する円または長円を想定し、かつ面積が最大の
円または長円の領域を求める。そして、この求めた領域
に、円または長円の外周から外側に突出する所定面積の
以上の凸領域が接している場合には、該凸領域に含まれ
る色領域の境界部位に内接する円の領域によって該色領
域を分割する。これによって、カラー原画像上で類似し
た色領域が接していても、人物の顔の領域が抽出される
可能性が高い円または長円の領域を顔の領域として優先
して分割することができ、分割された領域の内少なくと
も1つを選択することによってこの領域のデータを特徴
画像データとして抽出することができる。
When the face region is in contact with a part other than the face (for example, when the face region is buried in the body when photographed obliquely from above in the pool), the inscribed circle of the color region If it is divided first, the face area may be divided and extracted. Therefore, in the invention described in claim 2, a color region having the same or similar hue is obtained on the color original image based on the data obtained by photometry as described in claim 1. Next, a circle or an ellipse inscribed in the boundary part of the obtained color region is assumed, and a region of a circle or an ellipse having the largest area is obtained. Then, when the obtained area is in contact with a convex area having a predetermined area or more protruding outward from the outer circumference of the circle or the ellipse, a circle inscribed in the boundary part of the color area included in the convex area The color area is divided by the area. As a result, even if similar color areas are in contact with each other on the original color image, it is possible to divide a circle or ellipse area in which a person's face area is likely to be extracted as a face area with priority. By selecting at least one of the divided areas, the data in this area can be extracted as the characteristic image data.

【0014】[0014]

【実施例】以下図面を参照して本発明の第1実施例を詳
細に説明する。本実施例は、オートプリンタに本発明を
適用したものである。図1に示されるように、本実施例
のオートプリンタは、カラーネガフィルム10を搬送す
る搬送ローラ12を備えている。搬送ローラ12によっ
て搬送されるカラーネガフィルム10の下方には、光源
14、調光フイルタ等の色補正フィルタ16および拡散
ボックス18が順に配列されている。また、ネガフィル
ム10の上方には、ネガフィルム10を透過した光線を
2方向に分配する分配用プリズム20が配置されてい
る。分配用プリズム20によって分配された一方の光路
上には、投影光学系22、ブラックシャッタ23及びカ
ラーペーパー(印画紙)24が順に配列され、他方の光
路上には投影光学系26及びCCDイメージセンサ28
が順に配列されている。このCCDイメージセンサ28
は、ネガフィルム10の1画面(1コマ)全体を多数の
画素(例えば256×256画素)に分割して各画素を
R(赤)、G(緑)、及びB(青)の3色に分解して測
光する。CCDイメージセンサ28は、CCDイメージ
センサ出力を増幅する増幅器30及びアナログ−デジタ
ル(A/D)変換器32を介してCCDイメージセンサ
の感度補正用の3×3マトリックス回路34に接続され
ている。3×3マトリックス回路34は、以下で説明す
るルーチンのプログラムを記憶したマイクロコンピュー
タで構成された顔抽出回路36を介して適正露光量計算
回路40に接続されると共に、1画面全体の平均濃度を
演算する平均濃度演算回路38を介して適正露光量計算
回路40に接続されている。そして、適正露光量計算回
路40は、色補正フイルタを駆動するドライバ42を介
して色補正フィルタ16に接続されている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A first embodiment of the present invention will be described in detail below with reference to the drawings. In this embodiment, the present invention is applied to an auto printer. As shown in FIG. 1, the auto printer of this embodiment includes a conveyance roller 12 that conveys a color negative film 10. A light source 14, a color correction filter 16 such as a dimming filter, and a diffusion box 18 are sequentially arranged below the color negative film 10 conveyed by the conveyance roller 12. Further, above the negative film 10, a distribution prism 20 that distributes the light rays transmitted through the negative film 10 in two directions is arranged. A projection optical system 22, a black shutter 23 and a color paper (printing paper) 24 are sequentially arranged on one optical path distributed by the distribution prism 20, and a projection optical system 26 and a CCD image sensor are arranged on the other optical path. 28
Are arranged in order. This CCD image sensor 28
Divides the entire screen (one frame) of the negative film 10 into a large number of pixels (for example, 256 × 256 pixels) and divides each pixel into three colors of R (red), G (green), and B (blue). Disassemble and measure light. The CCD image sensor 28 is connected to a 3 × 3 matrix circuit 34 for sensitivity correction of the CCD image sensor via an amplifier 30 that amplifies the output of the CCD image sensor and an analog-digital (A / D) converter 32. The 3 × 3 matrix circuit 34 is connected to an appropriate exposure amount calculation circuit 40 via a face extraction circuit 36 composed of a microcomputer that stores a program of a routine described below, and at the same time, calculates the average density of one entire screen. It is connected to a proper exposure amount calculation circuit 40 via an average density calculation circuit 38 for calculation. The appropriate exposure amount calculation circuit 40 is connected to the color correction filter 16 via a driver 42 that drives the color correction filter.

【0015】次に本実施例の作用を説明する。光源14
から照射された光線は、色補正フィルタ16、拡散ボッ
クス18及びカラーネガフィルム10を透過し、分配用
プリズム20によって分配され、投影光学系26を介し
てCCDイメージセンサ28に受光される。なお、この
ときブラックシャツタ23は閉じられている。この受光
によってCCDイメージセンサ28は、1画面全体を多
数の画素に分割して各画素をR、G、B3色に分解して
測光し、測光データ信号を出力する。測光データ信号は
増幅器30で増幅された後A/D変換器32でデジタル
信号に変換され、3×3マトリックス回路34でイメー
ジセンサの感度補正が行なわれ、顔抽出回路36と平均
濃度演算回路38に入力される。この平均濃度演算回路
38では、1画面全体の平均濃度を演算する。顔抽出回
路36では、以下で説明するように1画面中の人物の顔
の部位を推定し、顔と推定された部位のR、G、B3色
測光データを出力する。露光量演算回路40は、顔抽出
回路36から出力された3色測光データと平均濃度演算
回路38で求められた平均濃度とを用いて露光量を演算
し、ドライバ42を介して色補正フイルタ16を制御す
ると共にブラックシャッタ23を開閉して焼付けを行な
う。なお、平均濃度演算回路38で求めた平均濃度を用
いるとき、平均濃度に対する露光補正量を求めることが
できる。露光補正量を求めない場合、必ずしも平均濃度
演算回路38を必要とせず、直接顔抽出回路36から出
力された3色測光データより露光量を求めてもよい。
Next, the operation of this embodiment will be described. Light source 14
The light beam emitted from the laser beam passes through the color correction filter 16, the diffusion box 18, and the color negative film 10, is distributed by the distribution prism 20, and is received by the CCD image sensor 28 via the projection optical system 26. At this time, the black shirt 23 is closed. By this light reception, the CCD image sensor 28 divides the entire screen into a large number of pixels, decomposes each pixel into R, G, and B colors, and performs photometry, and outputs a photometric data signal. The photometric data signal is amplified by the amplifier 30, converted into a digital signal by the A / D converter 32, the sensitivity of the image sensor is corrected by the 3 × 3 matrix circuit 34, and the face extraction circuit 36 and the average density calculation circuit 38. Entered in. The average density calculation circuit 38 calculates the average density of one screen. The face extraction circuit 36 estimates the human face part in one screen as described below, and outputs R, G, B three-color photometric data of the part estimated to be the face. The exposure amount calculation circuit 40 calculates the exposure amount using the three-color photometric data output from the face extraction circuit 36 and the average density calculated by the average density calculation circuit 38, and the color correction filter 16 is calculated via the driver 42. Is controlled and the black shutter 23 is opened / closed for printing. When the average density calculated by the average density calculation circuit 38 is used, the exposure correction amount for the average density can be calculated. When the exposure correction amount is not calculated, the average density calculation circuit 38 is not necessarily required, and the exposure amount may be calculated directly from the three-color photometric data output from the face extraction circuit 36.

【0016】図2は顔抽出回路36よる顔抽出ルーチン
を示すものであり、ステップ100において入力された
3色測光データのノイズ除去、すなわちスムージングを
行なう。次のステップ102では下記の(1)〜(3)
式によってR、G、B3色測光データをH(色相値)、
L(明度値)、S(彩度値)に変換する。
FIG. 2 shows a face extraction routine by the face extraction circuit 36, which performs noise removal, that is, smoothing, on the three-color photometric data input in step 100. In the next step 102, the following (1) to (3)
The R, G, B three-color photometric data is converted into H (hue value),
Convert to L (lightness value) and S (saturation value).

【0017】 L=(R+G+B)/3 ・・・・(1) S=1−min(r’,g’,b’)・・・・(2) H=H’/2Pi ・・・・(3) ただし、R、G、Bは図3の3次元色座標に示すように
各々最小値が0、最大値が1になるように規格された3
色測光データ、min( )は( )内の数値の最小
値、r’、g’、b’はr’=R/L、g’=G/L、
b’=B/Lを表す。またH’は次の(4)式で与えら
れ、Pi(iは、R、G、Bのうちの1つ)は図3のP
である。
L = (R + G + B) / 3 ... (1) S = 1-min (r ', g', b ') ... (2) H = H' / 2Pi .... ( 3) However, R, G, and B are standardized so that the minimum value is 0 and the maximum value is 1 as shown in the three-dimensional color coordinates in FIG.
Color photometric data, min () is the minimum value of the numerical values in (), r ', g', b'is r '= R / L, g' = G / L,
It represents b '= B / L. Further, H ′ is given by the following expression (4), and Pi (i is one of R, G, and B) is P in FIG.
Is.

【0018】[0018]

【数1】 [Equation 1]

【0019】ただし、However,

【0020】[0020]

【数2】 [Equation 2]

【0021】ステップ104では、図4(1)に示すよ
うに、各々直交する色相値軸、彩度値軸及び画素数軸か
ら成る座標系を用いて色相値及び彩度値についての2次
元ヒストグラムを求め、次のステップ106において後
述するように、求めた2次元ヒストグラムを山毎に分割
する、すなわち2次元ヒストグラムのクラスタリングを
行なう。次のステップ108ではクラスタリングされた
2次元ヒストグラムの山に基づいて多数の画素のクラス
タリングを行ない、このクラスタリングに基づいて画面
を分割し、分割された領域から人物の顔の候補となる領
域を抽出する。次のステップ110では、顔の候補とし
て抽出された色領域を円または長円の領域に更に分割す
ることによって、少なくとも顔の領域をそれ以外の領域
とに分割し、この分割された領域に基づいて顔の領域を
推定し、顔として推定された領域のR、G、B3色測光
データを出力する。そして、ステップ112において全
コマの焼付けが終了したか否か判断し、焼付終了と判断
されたときにこのルーチンを終了する。
In step 104, as shown in FIG. 4A, a two-dimensional histogram of the hue value and the saturation value is obtained using a coordinate system composed of a hue value axis, a saturation value axis and a pixel number axis which are orthogonal to each other. Then, as will be described later in step 106, the obtained two-dimensional histogram is divided into mountains, that is, clustering of the two-dimensional histogram is performed. In the next step 108, clustering of a large number of pixels is performed based on the peaks of the clustered two-dimensional histogram, the screen is divided based on this clustering, and areas that are candidates for human faces are extracted from the divided areas. .. In the next step 110, at least the face region is divided into other regions by further dividing the color region extracted as a face candidate into a circle or an ellipse region, and based on this divided region. The area of the face is estimated and the R, G, B three-color photometric data of the area estimated as the face is output. Then, in step 112, it is judged whether or not the printing of all the frames is completed, and when it is judged that the printing is completed, this routine is ended.

【0022】次に、上記ステップ106〜110の詳細
を説明する。図5はステップ106の詳細を示すもの
で、ステップ120において色相値及び彩度値について
の2次元ヒストグラムから評価すべき領域を切り出す。
図4では説明を簡単にするため1コマを評価領域とし
た。ステップ122では評価領域があるか否か判断す
る。ステップ120で評価領域が切り出せなかったと
き、すなわち全ての領域の評価が終了したときには評価
領域がないため、このルーチンを終了する。評価領域が
ある場合には、ステップ124において山切り出し用ヒ
ストグラムを作成するためのX、Y軸の決定を行なう。
すなわち、評価領域を画素数軸と平行な軸を中心に回転
させ、ヒストグラムの山を横から見たときに多峰性を優
先しかつ山が最も尖鋭となる位置を求め、この位置を基
準にX、Y軸を決定する。処理時間の短縮が必要な場合
は、精度が多少低下するが、X、Y軸としてヒストグラ
ムの分散が最大となる軸を用いてもよい。図4(1)の
例では、1〜4の符号を付した4つの山を横から見たと
きに多峰性を優先しかつ山が最も尖鋭になる位置は3つ
の山が見える位置であるので見る方向と直交する方向に
X軸を定め、このX軸と直交する方向にY軸を定めてい
る。
Next, details of steps 106 to 110 will be described. FIG. 5 shows the details of step 106. In step 120, an area to be evaluated is cut out from the two-dimensional histogram of the hue value and the saturation value.
In FIG. 4, one frame is set as the evaluation area for simplification of description. In step 122, it is determined whether there is an evaluation area. When the evaluation area cannot be cut out in step 120, that is, when the evaluation of all areas is completed, there is no evaluation area, and this routine is ended. If there is an evaluation area, in step 124, the X and Y axes for creating the mountain cutting histogram are determined.
That is, the evaluation area is rotated about an axis parallel to the pixel number axis, and when the peaks of the histogram are viewed from the side, priority is given to multimodality and the position where the peaks are the sharpest is obtained. Determine the X and Y axes. When the processing time needs to be shortened, the accuracy is somewhat lowered, but the axes that maximize the variance of the histogram may be used as the X and Y axes. In the example of FIG. 4 (1), when the four mountains with the symbols 1 to 4 are viewed from the side, priority is given to multimodality and the peaks are the most sharp positions where the three mountains are visible. Therefore, the X axis is defined in the direction orthogonal to the viewing direction, and the Y axis is defined in the direction orthogonal to the X axis.

【0023】次のステップ126では、2次元ヒストグ
ラムをX、Y軸に投影させて各々1次元ヒストグラムを
作成する。図4(1)の例では、X軸と直交する方向か
ら見ると1、2の符号を付した山が重なって見えるため
X軸についての1次元ヒストグラムには、符号3を付し
た山、符号1、2を付した山、符号4を付した山の3つ
の山が現れ、Y軸と直交する方向から見ると1〜4の符
号を付した山が重なって見えるためY軸についての1次
元ヒストグラムには1つの山が現れている。次のステッ
プ128では、次の(5)式によってヒストグラムを評
価関数H(a)に変換しこの評価関数に基づいてX軸に
ついてのヒストグラムから山の切り出しを行なう。
In the next step 126, the two-dimensional histograms are projected on the X and Y axes to create one-dimensional histograms. In the example of FIG. 4 (1), when viewed from the direction orthogonal to the X axis, the peaks with the reference numerals 1 and 2 appear to overlap, so the one-dimensional histogram for the X axis has the peaks and the reference numerals with the reference numeral 3. Three mountains, a mountain with 1 and 2 and a mountain with symbol 4, appear, and when viewed from the direction orthogonal to the Y axis, the mountains with symbols 1 to 4 appear to overlap, so one dimension about the Y axis. One mountain appears in the histogram. In the next step 128, the histogram is converted into an evaluation function H (a) by the following equation (5), and mountains are cut out from the histogram on the X axis based on this evaluation function.

【0024】[0024]

【数3】 [Equation 3]

【0025】ただし、f(a)はX軸方向の値(特徴
量)がaのときの画素数、xは特徴量aからの変位であ
る。
However, f (a) is the number of pixels when the value (feature amount) in the X-axis direction is a, and x is the displacement from the feature amount a.

【0026】すなわち、評価関数H(a)の平均値Tを
求め、評価関数H(a)の平均値T以下の範囲(谷、裾
部の存在範囲)を求める。次に、この範囲内のヒストグ
ラムが最小の位置をヒストグラムの谷または裾部とす
る。そして、求められた谷または裾部でヒストグラムを
切り出す。
That is, the average value T of the evaluation function H (a) is obtained, and the range (valley, skirt existence range) below the average value T of the evaluation function H (a) is obtained. Next, the position where the histogram is the smallest within this range is set as the valley or skirt of the histogram. Then, a histogram is cut out at the obtained valley or skirt.

【0027】上記山の切り出しを図6を参照して説明す
ると、実線SIで表わされたヒストグラムから評価関数
H(a)を求めると図の破線で示すようになる。この評
価関数H(a)が負の部分に関しての平均値T以下の範
囲は特徴量がv0〜v1、v2〜v3の範囲である。こ
の範囲内のヒストグラムの度数が最小の位置は、範囲v
0〜v1ではav0=v0、範囲v2〜v3ではav1
であり、av0が裾部として、av2が谷として各々求
められ、この位置でヒストグラムの切り出しを行なう。
Explaining the cutting of the mountain with reference to FIG. 6, when the evaluation function H (a) is obtained from the histogram represented by the solid line SI, it becomes as shown by the broken line in the figure. The range of the average value T or less with respect to the negative portion of the evaluation function H (a) is the range of feature amounts v0 to v1 and v2 to v3. The position where the frequency of the histogram in this range is the minimum is the range v
Av0 = v0 in 0 to v1, av1 in the range v2 to v3
Then, av0 is obtained as a skirt and av2 is obtained as a valley, and the histogram is cut out at this position.

【0028】ステップ130ではX軸についてのヒスト
グラムの山の切り出しと同様の方法でY軸についてのヒ
ストグラムの山の切り出しを行なう。次のステップ13
2では、2次元ヒストグラム上で上記のように切り出さ
れたX軸、Y軸についての1次元ヒストグラムの山が重
なる領域を求め、色相値及び彩度値についての2次元ヒ
ストグラムから山の切り出しを行なう。図4(1)の領
域E1は上記のようにして切り出した山の一例を示すも
のである。
In step 130, the mountain peak of the Y axis is cut out in the same manner as the mountain peak cut of the X axis. Next Step 13
In 2, the area where the peaks of the one-dimensional histogram for the X-axis and the Y-axis cut out as described above overlap is obtained on the two-dimensional histogram, and the mountain is cut out from the two-dimensional histogram for the hue value and the saturation value. .. An area E1 in FIG. 4 (1) shows an example of a mountain cut out as described above.

【0029】次のステップ134では、2次元ヒストグ
ラムから切り出された山が単峰か否か判断し、単峰でな
い場合は2次元ヒストグラムから切り出された山が単峰
になるまでステップ124〜ステップ134を繰り返
す。図4(3)の領域E2は、上記のようにして切り出
された単峰の山の一例を示すものである。
In the next step 134, it is judged whether or not the mountain cut out from the two-dimensional histogram is a single peak, and if it is not a single peak, steps 124 to 134 are repeated until the mountain cut out from the two-dimensional histogram becomes a single peak. repeat. Region E2 in FIG. 4C shows an example of a single-peak mountain cut out as described above.

【0030】次のステップ136では、切り出された単
峰の山を識別するためのラベルを付ける処理(ラベリン
グ)を行ない、ステップ138ではラベリングされた山
をマスクしてステップ120へ戻る。そして、上記のス
テップを繰り返して色相値及び彩度値についての2次元
ヒストグラムの全領域を単峰の山に分割する。
In the next step 136, a process (labeling) for attaching a label for identifying the cut-out single-peak mountain is performed. In step 138, the labeled mountain is masked and the process returns to step 120. Then, the above steps are repeated to divide the entire area of the two-dimensional histogram for the hue value and the saturation value into single peaks.

【0031】図7は図2のステップ108の詳細を示す
もので、ステップ140では、上記のようにして分割さ
れた単峰の山のX軸方向の範囲XR(図4(3))及び
Y軸方向の範囲YR(図4(3))を単峰の山毎に各々
求め、原画像の各画素について色相値及び彩度値がこれ
らの範囲に属しているかを判断して画素のクラスタリン
グを行なうと共に、範囲XR、YRで囲まれた範囲に属
している画素を集め、集めた画素が原画像上で1つの領
域となるように原画像を分割する。また、分割された領
域にナンバリングする。図4(2)は、原画像を分割し
た例を示すもので符号1〜4を付した各領域の画素は、
図4(1)の、符号1〜4を付した単峰の山に含まれる
画素に対応している。図4(1)で同じ単峰の山に属し
ている画素が図4(2)では異る領域に分割されている
が、これは図4(1)では単峰の山の色相値範囲及び彩
度値範囲を持つ画素であるが、図4(2)では領域が分
かれているからである。
FIG. 7 shows the details of step 108 in FIG. 2. In step 140, the range XR (FIG. 4 (3)) and Y in the X-axis direction of the single-peaked mountain divided as described above is obtained. An axial range YR (FIG. 4 (3)) is obtained for each single peak, and it is determined whether the hue value and the saturation value of each pixel of the original image belong to these ranges, and pixel clustering is performed. At the same time, the pixels belonging to the range surrounded by the ranges XR and YR are collected, and the original image is divided so that the collected pixels form one area on the original image. Also, the divided areas are numbered. FIG. 4 (2) shows an example in which the original image is divided, and the pixels in each region denoted by reference numerals 1 to 4 are
It corresponds to the pixels included in the unimodal peaks denoted by reference numerals 1 to 4 in FIG. Pixels belonging to the same single-peak mountain in FIG. 4 (1) are divided into different regions in FIG. 4 (2). This is due to the hue value range of the single-peak mountain in FIG. 4 (1). This is because the pixel has a saturation value range, but the region is divided in FIG. 4 (2).

【0032】次のステップ142では、分割された領域
の面積を判断することにより微小領域を除去し、ナンバ
リングをし直す。次のステップ144では、領域の境界
画素をすべて削除してひと皮分取り除く収縮処理と、収
縮処理とは逆に境界画素を背景画素方向へ増殖させてひ
と皮分太らせる膨張処理とを行なって大領域と繁がって
いる小領域を大領域から分離する。次のステップ146
ではステップ142と同様に微小領域を除去してリナン
バリングを行ない、ステップ148で弱い結合をしてい
る領域同士を分離するために、上記と同様の収縮、膨張
処理を行ない、ステップ150において上記と同様に微
小領域の除去とリナンバリングを行なう。
At the next step 142, minute areas are removed by judging the areas of the divided areas, and the numbering is performed again. In the next step 144, a contraction process for deleting all the boundary pixels of the region to remove one skin and an expansion process for expanding the boundary pixels in the direction of the background pixel to enlarge the skin by one converse to the contraction process are performed. It separates the busy small area from the large area. Next step 146
Then, in the same manner as in step 142, minute areas are removed and renumbering is performed, and in step 148, in order to separate the weakly bonded areas, the same contraction and expansion processing as described above is performed. Similarly, the minute area is removed and renumbering is performed.

【0033】図8はステップ110の詳細を示すもので
ある。また、以下、ステップ110の説明を詳細に行な
うために、図9(1)に示した、顔と同色または類似色
の色領域が広範囲に渡る場合の画像を用いて説明する。
FIG. 8 shows the details of step 110. Further, in order to describe step 110 in detail, the image shown in FIG. 9A when the color region of the same color as the face or a similar color covers a wide range will be used.

【0034】先ず、ステップ162においてステップ1
08、すなわち図7のルーチンで抽出された領域の中か
ら1つの領域を注目領域として選択する(図9(1)参
照)。次に、選択した注目領域の収縮処理を行なって注
目領域を分解するための核を求める。すなわち、注目領
域の境界画素を削除していく収縮処理を繰り返し行なっ
て、最終的に残った1つの点状または線状領域を核とす
る。この線状領域とは、図9(2)に示したように、複
数の連続した点(画素または複数画素の集合)すなわち
線L1 になるものをいう。対象とする画像は原画像をC
CDイメージセンサ28によって測光して得られるデー
タに基づくため、連続系ではなく、離散系であるので、
上記核はある面積をもつことになる。また、対象とする
画像の形状によっては最終的に残る核が複数になること
がある。この場合には、最小面積の領域を核とする。ま
た、同面積の領域が残存した場合には任意の1つを選択
するものとする。
First, in step 162, step 1
08, that is, one region is selected as a region of interest from the regions extracted by the routine of FIG. 7 (see FIG. 9 (1)). Next, a contraction process is performed on the selected attention area to obtain a nucleus for decomposing the attention area. That is, the contraction process of deleting the boundary pixels of the attention area is repeatedly performed, and one finally remaining dot-shaped or linear area is used as the nucleus. As shown in FIG. 9 (2), the linear region means a plurality of continuous points (pixels or a set of a plurality of pixels), that is, a line L 1 . The target image is the original image C
Since it is based on the data obtained by photometry by the CD image sensor 28, it is not a continuous system but a discrete system.
The nucleus will have an area. Also, depending on the shape of the target image, there may be a plurality of nuclei that finally remain. In this case, the region having the smallest area is the core. Further, when a region having the same area remains, any one is selected.

【0035】次のステップ164では、上記のようにし
て求めた核を中心として注目領域に内接する面積が最大
の円または長円を求める。すなわち、上記のように核を
求めるために収縮処理を行った回数だけ核を中心に膨張
処理を行うことによって、核が点状の場合には内接円と
して、核が線状の場合には内接長円として求めることが
できる(モフォロジックフィルタ)。
At the next step 164, a circle or an ellipse having the maximum area inscribed in the region of interest centering on the nucleus obtained as described above is obtained. That is, by performing expansion processing centered on the nucleus as many times as contraction processing is performed to obtain the nucleus as described above, when the nucleus is a point-like shape, it is an inscribed circle, and when the nucleus is a linear shape, It can be obtained as an inscribed ellipse (Morphologic filter).

【0036】注目領域に内接する面積が最大の円または
長円を求めた後にはステップ166へ進み、ステップ1
66では、求めた面積最大の円(またはこの円による長
円)を識別するためのラベルを付ける処理(ラベリン
グ)を行なう。次のステップ168では、ラベリングさ
れた円または長円の領域BL1をマスクしてステップ1
70へ進む。次のステップ170では、抽出された全領
域について円または長円の領域によっての分割が終了し
たか否か判断し、終了していないときにはステップ16
2〜ステップ168を繰り返す。これによって、図9
(2)〜(6)に示したように、面積の大きな円による
領域BL1〜BL10の順に分割が行なわれる。
After the circle or ellipse having the largest area inscribed in the region of interest is obtained, the process proceeds to step 166, and step 1
At 66, a process (labeling) is performed to attach a label for identifying the obtained circle having the largest area (or an ellipse formed by this circle). In the next step 168, the labeled circle or oval region BL1 is masked and the step 1
Proceed to 70. In the next step 170, it is judged whether or not the division by the circle or the oval area is completed for all the extracted areas, and if it is not completed, the step 16 is executed.
2 to step 168 are repeated. As a result, FIG.
As shown in (2) to (6), the regions BL1 to BL10 are divided in the order of circles having a large area.

【0037】注目領域の分割が終了するとステップ17
2へ進む。ステップ172では、詳細は後述するが分割
された円または長円の内少なくとも1つを選択して顔の
領域を推定し、顔であると推定された領域のR、G、B
測光データを適正露光量計算回路40に出力する。
When the division of the attention area is completed, step 17
Go to 2. In step 172, although details will be described later, at least one of the divided circles or the ellipses is selected to estimate the face area, and R, G, B of the area estimated to be the face are selected.
The photometric data is output to the proper exposure amount calculation circuit 40.

【0038】このように、顔と同色の色領域が顔以外の
領域をも含む広範囲に渡る場合であっても、顔の領域と
しての確率が高い円領域で、この色領域を更に分割する
ことができるため、この円領域を選択することによっ
て、色相や彩度が類似している顔、地面、木等が混在す
る画像からでも高い確率で顔の領域のみのデータを抽出
することができる。
As described above, even when the color area having the same color as the face covers a wide area including the area other than the face, the color area is further divided into circular areas having a high probability as a face area. Therefore, by selecting this circular region, it is possible to extract data of only the face region with a high probability even from an image in which faces, grounds, trees, and the like having similar hues and saturations are mixed.

【0039】なお、上記説明した核Li 及び内接円の領
域Xi は、以下に示した集合演算の式(6)及び(7)
で表すことができる。
The kernel L i and the area X i of the inscribed circle described above are expressed by the equations (6) and (7) of the set operation shown below.
Can be expressed as

【0040】[0040]

【数4】 [Equation 4]

【0041】ここで、色領域を収縮及び核を中心に色領
域の内接円を求めるときの形状Bi は、以下の式(8)
によって定めることができる。
Here, the shape B i when contracting the color area and obtaining the inscribed circle of the color area centered on the nucleus is expressed by the following equation (8).
Can be determined by

【0042】[0042]

【数5】 [Equation 5]

【0043】但し、B:円形の構成要素 また、このni は、以下の式(9)によって定めること
ができる。
However, B: circular component Also, this n i can be determined by the following equation (9).

【0044】[0044]

【数6】 [Equation 6]

【0045】但し、k=1,2,… Mi 2 =Area(X−X’i-1 ) Area(X):X領域の面積 このk値を最適に選択することによって、分解される大
きさのni を定めることができる。なお、上記式(9)
は、以下に示した式(10)でもよい。
However, k = 1, 2, ... M i 2 = Area (X−X ′ i−1 ) Area (X): Area of X region Size to be decomposed by optimally selecting this k value. N i can be defined. The above formula (9)
May be Equation (10) shown below.

【0046】[0046]

【数7】 [Equation 7]

【0047】但し、k=1,2,… r0 :構成要素Bの半径 また、上記円形の構成要素BとX領域との関係は、However, k = 1, 2, ..., R 0 : radius of component B Further, the relationship between the circular component B and the X region is as follows.

【0048】[0048]

【数8】 [Equation 8]

【0049】で表すことができる。図15はステップ1
72の詳細を示すもので、ステップ302において、上
記のように円または長円に分割された領域の中から1つ
の領域を特徴領域として選択し、特徴領域の水平フィレ
径および垂直フィレ径が所定値になるように特徴領域の
拡大縮小処理を行って特徴領域のサイズの規格化を行う
と共に、次の(11)式に従って濃度値または輝度値の
規格化を行う。
It can be represented by FIG. 15 shows Step 1
72 shows details of 72. In step 302, one area is selected from the areas divided into circles or ellipses as described above as a characteristic area, and the horizontal fillet diameter and the vertical fillet diameter of the characteristic area are set to predetermined values. The size of the characteristic region is standardized by enlarging / reducing the characteristic region so that the value becomes a value, and the density value or the luminance value is standardized according to the following equation (11).

【0050】[0050]

【数9】 [Equation 9]

【0051】ただし、 dmax :領域内最大濃度値(または輝度値) dmin :領域内最低濃度値(または輝度値) ds :イメージセンサのフルスケール濃度値(または
輝度値) d :規格化前濃度値(または輝度値) dr :規格化後濃度値(または輝度値) ステップ304では、予め記憶された複数種(本実施例
では10種類)の標準的な顔画像(正面から見た顔画
像、横から見た顔画像(左右)、下向き顔画像、上向き
顔画像等)に対する特徴領域の相関係数rを次の(1
2)式によって演算し、この相関係数を特徴量とする。
この標準的な顔画像は、顔の輪郭のみのデータであって
も、顔の輪郭のデータに顔の内部構造(眼、鼻、口等)
データを加えたデータであってもよい。
Where dmax: maximum density value (or brightness value) in the area dmin: minimum density value (or brightness value) in the area ds: full-scale density value (or brightness value) of the image sensor d: density value before normalization (Or brightness value) dr: normalized density value (or brightness value) In step 304, a plurality of types (10 types in the present embodiment) of standard face images stored in advance (face image viewed from the front, horizontal direction) The correlation coefficient r of the characteristic region with respect to the face image (left and right), the downward face image, the upward face image, etc. viewed from
The calculation is performed according to the equation (2), and this correlation coefficient is used as the feature amount.
Even if this standard face image is only the data of the outline of the face, the internal structure of the face (eye, nose, mouth, etc.) is added to the data of the outline of the face.
It may be data to which data is added.

【0052】[0052]

【数10】 [Equation 10]

【0053】ただし、However,

【0054】[0054]

【数11】 [Equation 11]

【0055】であり、Tは画像の水平、垂直フィレ径の
長さ(ここでは、フィレ径の長さは同じとした)、f
(x、y)は特徴領域、g(x、y)は標準的な顔画像
を表す。
Where T is the horizontal and vertical fillet diameters of the image (here, the fillet diameters are the same), f
(X, y) represents a characteristic region, and g (x, y) represents a standard face image.

【0056】そして、ステップ306において上記特徴
量を変量とした線形判別分析により特徴領域が人物の顔
であるか否かを判断し、顔であると判断された領域の
R、G、B測光データを適正露光量計算回路40に出力
する。ステップ308では分割された全領域について顔
か否かの判定が終了したか否か判断し、終了していない
ときにはステップ302〜ステップ308を繰り返す。
Then, in step 306, it is determined whether or not the characteristic region is a human face by linear discriminant analysis using the characteristic amount as a variable, and R, G, B photometric data of the region determined to be a face is determined. Is output to the proper exposure amount calculation circuit 40. In step 308, it is determined whether or not the determination as to whether the face is a face has been completed for all the divided areas. If not, steps 302 to 308 are repeated.

【0057】上記では人物の顔か否かの判定を行うため
に用いる特徴量として相関係数を使用したが、以下で説
明する重心回りの正規化されたセントラル・モーメント
から導出される不変量、自己相関関数または幾何学的不
変量を用いてもよい。
In the above, the correlation coefficient is used as the feature amount used to determine whether the face is a person's face. However, the invariant derived from the normalized central moment around the center of gravity, which will be described below, Autocorrelation functions or geometric invariants may be used.

【0058】画像f(x、y)の(p+q)次の重心回
りのセントラル・モーメントμpq
The central moment μ pq about the (p + q) th centroid of the image f (x, y) is

【0059】[0059]

【数12】 [Equation 12]

【0060】ただし、However,

【0061】[0061]

【数13】 [Equation 13]

【0062】とすれば、重心回りの正規化されたセント
ラル・モーメントは次のようになる。
Then, the normalized central moment around the center of gravity is as follows.

【0063】[0063]

【数14】 [Equation 14]

【0064】ただし、y=(p+q+2)/2 p+q=2,3,…… 以上のことより、2次、3次の重心回りの正規化された
セントラル・モーメントから次の七つの不変量ψi,(i
=1,2,……,7)が導出される。
However, y = (p + q + 2) / 2 p + q = 2, 3, ... From the above, the following seven invariants ψ i are derived from the normalized central moments about the second and third centroids. , (I
= 1, 2, ..., 7) is derived.

【0065】[0065]

【数15】 [Equation 15]

【0066】また、自己相関関数Rf は次のように表さ
れる。
Further, the autocorrelation function R f is expressed as follows.

【0067】[0067]

【数16】 [Equation 16]

【0068】そして、幾何学的不変特徴量は次の式で表
わされる。
The geometrical invariant feature amount is expressed by the following equation.

【0069】[0069]

【数17】 [Equation 17]

【0070】適正露光量計算回路40は、顔抽出回路3
6で上記のように抽出された顔領域のR、G、B測光デ
ータと平均濃度演算回路38で演算された1コマの画面
平均濃度Di (i=R、G、Bのうちのいずれか)とを
用いて以下の式に従って適正露光量Ei を演算し、ドラ
イバ42に出力する。ドライバ42は適正露光量Ei
ら露光コントロール値を演算して調光フイルタ16を制
御する。
The appropriate exposure amount calculation circuit 40 is composed of the face extraction circuit 3
6, the R, G, B photometric data of the face area extracted as described above and the screen average density D i of one frame calculated by the average density calculation circuit 38 (i = R, G, or B) ) And are used to calculate an appropriate exposure amount E i according to the following equation, and output to the driver 42. The driver 42 controls the dimming filter 16 by calculating an exposure control value from the appropriate exposure amount E i .

【0071】 logi =LMi ・CSi ・(DNi −Di )+PBi +LBi +MBi +NBi +K1 +K2 …(11) ただし、各記号は次のものを表す。L og E i = LM i · CS i · (DN i −D i ) + PB i + LB i + MB i + NB i + K 1 + K 2 (11) However, each symbol represents the following.

【0072】LM:倍率スロープ係数であり、ネガの種
類とプリントサイズから決まる引伸倍率に応じて予め設
定されている。
LM: Magnification slope coefficient, which is preset according to the enlargement magnification determined by the type of negative and the print size.

【0073】CS:ネガの種類毎に用意されたカラース
ロープ係数でアンダー露光用とオーバー露光用とがあ
り、プリントすべきコマの平均濃度が標準ネガ濃度値に
対してアンダーかオーバーかを判定してアンダー露光用
またはオーバー露光用のいずれかが選択される。
CS: Color slope coefficient prepared for each type of negative, there are underexposure and overexposure, and it is determined whether the average density of the frame to be printed is under or over the standard negative density value. Either underexposure or overexposure is selected.

【0074】DN:標準ネガ濃度値。 D :プリントコマの平均濃度値。DN: Standard negative density value. D: Average density value of print frame.

【0075】PB:標準カラーペーパーに対する補正バ
ランス値であり、カラーペーパーの種類に応じて決定さ
れている。
PB: A correction balance value for a standard color paper, which is determined according to the type of color paper.

【0076】LB:標準焼付レンズに対する。補正レン
ズバランス値であり、焼付レンズの種類に応じて決定さ
れてる。
LB: For standard print lens. It is a correction lens balance value, and is determined according to the type of printing lens.

【0077】MB:プリント光源の変動やペーパー現像
性能の変化に対する補正値(マスターバランス値)。
MB: A correction value (master balance value) with respect to a change in print light source and a change in paper developing performance.

【0078】NB:ネガフィルムの特性によって定めら
れるネガバランス(カラーバランス)値。
NB: Negative balance (color balance) value determined by the characteristics of the negative film.

【0079】K2 :カラー補正量。 K1 :以下の式で表される濃度補正量。K 2 : Color correction amount. K 1 : A density correction amount represented by the following formula.

【0080】[0080]

【数18】 [Equation 18]

【0081】ここで、Ka 、Kb は定数であり、FDは
顔領域平均濃度である。また、上記(8)式の濃度補正
量K1 をフィルム検定装置によって求められた補正値と
し、カラー補正量K2 を次のように顔領域平均濃度を用
いて表してもよい。
Here, K a and K b are constants, and FD is the face area average density. Further, the density correction amount K 1 in the above equation (8) may be used as the correction value obtained by the film inspection apparatus, and the color correction amount K 2 may be expressed using the face area average density as follows.

【0082】[0082]

【数19】 [Formula 19]

【0083】ただし、Kc は定数である。更に、上記
(8)式の濃度補正量K1 、カラー補正量K2 をフィル
ム検定装置によって求められた補正量とし、(8)式の
プリントコマの平均濃度Di を顔領域の平均濃度FDi
置きかえて露出量を求めてもよい。
However, K c is a constant. Further, the density correction amount K 1 and the color correction amount K 2 in the above equation (8) are used as the correction amounts obtained by the film inspection device, and the average density D i of the print frame in the equation (8) is the average density FD of the face area. i
Alternatively, the exposure amount may be obtained instead.

【0084】次に、本発明の第2実施例を図10に示し
たフローチャートに従って説明する。本実施例は、顔の
領域と接した領域から顔領域を最適に分割するものであ
る。すなわち、人物の画像での顔の領域は、体の周囲に
ある場合が殆どである。このため、顔の領域を含んだ色
領域が複数の凸領域を有する場合には、その凸部分に内
接する円領域からその色領域を分割して分割された円領
域を選択することによって、その円領域を顔の領域と推
定できる可能性が高い領域を優先して分割するようにし
たものである。
Next, a second embodiment of the present invention will be described with reference to the flowchart shown in FIG. In this embodiment, the face area is optimally divided from the area in contact with the face area. That is, in most cases, the face area in the image of the person is around the body. Therefore, when the color region including the face region has a plurality of convex regions, by selecting the divided circular region by dividing the color region from the circular region inscribed in the convex portion, The area in which the circular area is highly likely to be estimated as the face area is preferentially divided.

【0085】先ず、ステップ180においてステップ1
08、すなわち図7のルーチンで抽出された領域の中か
ら1つの領域を注目領域として選択する(図11(1)
参照)。そして上記第1実施例と同様に、選択した注目
領域の収縮処理を行なって注目領域の核La を求める
(図11(2)参照)。
First, in step 180, step 1
08, that is, one region is selected as a region of interest from the regions extracted by the routine of FIG. 7 (FIG. 11 (1)).
reference). Then, as in the first embodiment, the selected region of interest is contracted to obtain the nucleus L a of the region of interest (see FIG. 11 (2)).

【0086】次のステップ182では、上記のようにし
て求めた核La を中心として注目領域に内接する面積が
最大の円または長円Ba を求める。次のステップ184
では、上記のようにして求めた注目領域に内接する円ま
たは長円の面積と注目領域の面積とを比較することによ
って注目領域の内接円の周囲に残存する領域ERi (i
=1,2,…)の面積が所定値以上か否かを判断する。
残存する領域ERi の面積が所定値以上の場合には、残
存する領域ERi に凸領域の存在可能性があるため、ス
テップ186へ進み、所定値未満の場合にはステップ1
92へ進む。
In the next step 182, a circle or an ellipse B a having the largest area inscribed in the region of interest centering on the nucleus L a thus obtained is obtained. Next Step 184
Then, by comparing the area of the circle or ellipse inscribed in the attention area and the area of the attention area obtained as described above, the area ER i (i remaining around the inscribed circle of the attention area
= 1, 2, ...) Is greater than or equal to a predetermined value.
When the area of the remaining area ER i is equal to or larger than the predetermined value, there is a possibility that a convex area exists in the remaining area ER i, and therefore the process proceeds to step 186. When the area is less than the predetermined value, step 1 is performed.
Proceed to 92.

【0087】ステップ186では、先ず、図11(3)
に示したように、上記のようにして求めた核La を注目
領域から除外(マスク)する。次のステップ188で
は、上記と同様に収縮及び膨張処理を行って、この核L
a がマスクされた注目領域に対して内接する面積が最大
の円または長円Bb を求める(図11(4)参照)。
In step 186, first, FIG. 11 (3)
As shown in, the kernel L a obtained as described above is excluded (masked) from the attention area. In the next step 188, contraction and expansion processing is performed in the same manner as described above, and the nucleus L
A circle or ellipse B b having the largest area inscribed in the region of interest in which a is masked is obtained (see FIG. 11 (4)).

【0088】次のステップ190では、上記のようにし
て求めた内接円または長円Ba 、B b の各々を所定(1
〜3)画素程度の範囲で膨張させその膨張された領域の
内、注目領域からはみ出した領域の大きさが所定値以上
であるか否かを判断することによって、注目した色領域
の外側部の凸部分の大きさを判断する。すなわち、膨張
された領域のうち、注目領域からはみ出した領域が大き
い程凸であると判断する。求めた凸部分が所定値以上で
ある場合には、ステップ194へ進み、求めた内接する
円または長円Bb を識別するためのラベルを付ける処理
を行なってステップ196へ進む。所定値以下の場合に
は、上記第1実施例と同様にステップ192において、
注目領域に内接する面積最大の円(またはこの円による
長円)に識別するためのラベルを付ける処理を行なっ
て、ステップ196へ進む。
In the next step 190, as described above,
Inscribed circle or ellipse B obtained bya, B bEach of the predetermined (1
~ 3) Expand in the range of about a pixel and
Of which the size of the area protruding from the area of interest is greater than or equal to a specified value
The color region of interest by determining whether or not
Judge the size of the convex portion on the outer side of. I.e. expansion
The area outside the attention area is large.
It is judged to be convex. If the obtained convex part is more than a predetermined value
If there is, go to step 194 and inscribe
Yen or ellipse BbProcess to attach a label to identify
And proceed to step 196. When the value is below a certain value
Is the same as in the first embodiment, at step 192,
A circle with the largest area inscribed in the area of interest (or by this circle
The process of attaching a label to identify the oval)
Then, the process proceeds to step 196.

【0089】ステップ196では、ステップ192また
はステップ194においてラベリングされた円または長
円の領域をマスクしてステップ198へ進む。ステップ
198では、抽出された全領域について円または長円の
領域によっての分割が終了したか否か判断し、終了して
いないときにはステップ180〜ステップ198を繰り
返す。次のステップ200では、分割された円または長
円の内、少なくとも1つの領域を選択し、上記第1実施
例と同様に顔の領域を判断し、顔であると判断された領
域のR、G、B測光データを適正露光量計算回路40に
出力する。
In step 196, the area of the circle or ellipse labeled in step 192 or step 194 is masked, and the flow advances to step 198. In step 198, it is determined whether or not the division by the circle or the oval area has been completed for all the extracted areas. If not completed, steps 180 to 198 are repeated. In the next step 200, at least one region is selected from the divided circles or ellipses, the face region is determined in the same manner as in the first embodiment, and the R of the region determined to be the face, The G and B photometric data are output to the proper exposure amount calculation circuit 40.

【0090】このように、本実施例では色領域の周囲に
ある凸部分でかつこの凸部分に内接する面積の大きな円
領域、すなわち、顔の領域である確率の高い円領域を優
先して注目領域から分割するため、身体と顔が接した色
領域であっても、より確度が高く顔の領域のみを分割し
て顔の領域のデータを抽出することができる。
As described above, in the present embodiment, a convex portion around the color region and a large circular area inscribed in the convex portion, that is, a circular region having a high probability of being a face region is given priority. Since the region is divided, even in the color region where the body and the face are in contact with each other, it is possible to extract the data of the face region by dividing only the face region with higher accuracy.

【0091】なお、上記実施例では、色相値及び彩度値
の2次元ヒストグラムに基づいて色領域に分割した場合
の例について説明したが、本実施例はこれに限定される
ものではなく、色相値のみによるヒストグラムに基づい
て色領域に分割してもよい。また、ヒストグラムに限定
されるものではなく、原画像の他の特徴量に基づいて色
領域を分割してもよい。
In the above embodiment, an example in which the color area is divided based on the two-dimensional histogram of the hue value and the saturation value has been described, but the present embodiment is not limited to this, and the hue is not limited to this. You may divide into a color area based on the histogram only by a value. Further, the color area is not limited to the histogram, and the color region may be divided based on other feature amounts of the original image.

【0092】図12はプリンタまたはプリンタプロセッ
サとは別体の露光量決定装置に本発明を適用した変形例
を示すものである。なお、図11において図1と対応す
る部分には同一符号を付して説明を省略する。また、平
均濃度演算回路38は必ずしも必要ではないが、これに
代えて画面全体のLATDを検出する積算透過濃度検出
回路を用いてもよい。
FIG. 12 shows a modified example in which the present invention is applied to an exposure amount determining device separate from a printer or a printer processor. Note that, in FIG. 11, portions corresponding to those in FIG. Further, the average density calculation circuit 38 is not always necessary, but instead of this, an integrated transmission density detection circuit for detecting LATD of the entire screen may be used.

【0093】図13は、図12の顔抽出回路を複数の顔
抽出回路361 、362 ・・・36nで構成し、並列処
理により露光量を演算するものである。顔抽出回路36
1 、362 ・・・36nは図14のタイムチャートに従
って画像を読込み、露光量を演算し、その結果を出力す
る。図14においてt1 は1コマの画像読込み時間、t
2 は1コマの露光量演算時間、t3 は1コマの露光量演
算結果転送時間であり、t2 >>t1 、t3 である。顔
抽出回路361 はt1 時間で1コマの画像を読込み、t
2 時間で露光量を演算し、t3 時間で演算結果を転送す
る。顔抽出回路361 による1コマの画像読込みが終了
すると同時にフィルムが1コマ分送られ顔抽出回路36
2 による1コマり画像読込みが開始され、顔抽出回路3
1 の露光量演算と顔抽出回路362 の画像読込みとが
並列して行なわれ、以下同様に顔抽出回路363 、36
4 ・・・36nによって並列処理される。
In FIG. 13, the face extraction circuit of FIG. 12 is composed of a plurality of face extraction circuits 36 1 , 36 2 ... 36n, and the exposure amount is calculated by parallel processing. Face extraction circuit 36
1, 36 2 ··· 36n reads an image according to the time chart of FIG. 14, calculates the exposure amount, and outputs the result. In FIG. 14, t 1 is the image reading time for one frame, and t 1
2 is the exposure amount calculation time for one frame, t 3 is the exposure amount calculation result transfer time for one frame, and t 2 >> t 1 and t 3 . The face extraction circuit 36 1 reads one frame image at t 1 hours, and
The exposure amount is calculated in 2 hours, and the calculation result is transferred in t 3 hours. At the same time when one frame of image is read by the face extraction circuit 36 1 , one frame of film is fed and the face extraction circuit 36 1
1 frame image reading by 2 is started, face extraction circuit 3
The exposure amount calculation of 6 1 and the image reading of the face extraction circuit 36 2 are performed in parallel, and the same applies to the face extraction circuits 36 3 and 36.
4 ... 36n are processed in parallel.

【0094】mxnのコマを並列処理するに要する時間
Tpは、 Tp=m(t1 +t2 +t3 )+(n−1)t1 である。一方、並列処理を行なわない場合の処理時間T
sは Ts=m・n(t1 +t2 +t3 ) である。従って、
The time Tp required for parallel processing of mxn frames is Tp = m (t 1 + t 2 + t 3 ) + (n-1) t 1 . On the other hand, the processing time T when parallel processing is not performed
s is Ts = m · n (t 1 + t 2 + t 3 ). Therefore,

【0095】[0095]

【数20】 [Equation 20]

【0096】倍高速化が可能である。なお、この並列処
理装置は図1のプリンタにも適用できる。
Double speeding is possible. This parallel processing device can also be applied to the printer of FIG.

【0097】本発明は写真焼付装置の露光量決定以外
に、ディジタルカラープリンタの露光量決定、複写機の
複写条件決定、カメラの露出量決定、CRT画面の表示
条件決定、磁気画像データからハードコピーを作成する
ときの光量決定にも適用することができる。
In addition to determining the exposure amount of the photographic printing apparatus, the present invention determines the exposure amount of the digital color printer, the copying condition of the copying machine, the exposure amount of the camera, the display condition of the CRT screen, the hard copy from the magnetic image data. It can also be applied to the determination of the amount of light when creating.

【0098】[0098]

【発明の効果】以上説明したように請求項1に記載の発
明によれば、色領域分割により分割した領域内に特徴画
像と同一色または近似した色の画像が混在していても、
人物の顔である可能性の高い円領域で色領域を分割する
ため、人物の顔画像を高い確率で分離して、人物の顔の
データのみを抽出することができる、という効果が得ら
れる。
As described above, according to the first aspect of the present invention, even if an image of the same color as or similar to the characteristic image is mixed in the area divided by the color area division,
Since the color area is divided by the circular area that is likely to be the person's face, it is possible to separate the person's face image with high probability and extract only the person's face data.

【0099】また、請求項2に記載の発明によれば、色
領域に内接する円に接した面積の大きな領域から優先し
て分割するため、人物の顔と色相が同一または近似した
部位が混在していても人物の顔データを高い確率で分離
して抽出することができる、という効果が得られる。
Further, according to the second aspect of the present invention, since the area having a large area in contact with the circle inscribed in the color area is preferentially divided, a part having the same hue or a similar hue as the human face is mixed. Even if it does, the face data of a person can be separated and extracted with a high probability.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例のプリンタを示す概略図であ
る。
FIG. 1 is a schematic diagram showing a printer according to an embodiment of the present invention.

【図2】顔抽出回路の顔抽出ルーチンを示す流れ図であ
る。
FIG. 2 is a flowchart showing a face extraction routine of a face extraction circuit.

【図3】色座標を示す線図である。FIG. 3 is a diagram showing color coordinates.

【図4】(1)は色相値及び彩度値についての2次元ヒ
ストグラムを示す線図である。(2)は原画像を分割し
た状態を示す線図である。(3)は2次元ヒストグラム
から単峰の山を切り出した状態を示す線図である。
FIG. 4 (1) is a diagram showing a two-dimensional histogram of hue values and saturation values. (2) is a diagram showing a state in which the original image is divided. (3) is a diagram showing a state in which a single peak is cut out from a two-dimensional histogram.

【図5】図2のステップ106の詳細を示す線図であ
る。
5 is a diagram showing details of step 106 of FIG. 2. FIG.

【図6】ヒストグラムと評価関数を示す線図である。FIG. 6 is a diagram showing a histogram and an evaluation function.

【図7】図2のステップ108の詳細を示す線図であ
る。
FIG. 7 is a diagram showing details of step 108 in FIG.

【図8】図2のステップ110の詳細を示す線図であ
る。
FIG. 8 is a diagram showing details of step 110 of FIG.

【図9】第1実施例の色領域を分割する過程を示す線図
である。
FIG. 9 is a diagram showing a process of dividing a color area according to the first embodiment.

【図10】本発明の第2実施例の顔推定ルーチンの流れ
図である。
FIG. 10 is a flow chart of a face estimation routine according to the second embodiment of the present invention.

【図11】第2実施例の色領域を分割する過程を示す線
図である。
FIG. 11 is a diagram showing a process of dividing a color area according to the second embodiment.

【図12】本発明を適用した露光量演算装置の概略図で
ある。
FIG. 12 is a schematic diagram of an exposure amount calculation device to which the present invention is applied.

【図13】複数の顔抽出回路によって並列処理を行う露
光量演算装置の概略図である。
FIG. 13 is a schematic diagram of an exposure amount calculation device that performs parallel processing by a plurality of face extraction circuits.

【図14】並列処理のタイムチャートを示す線図であ
る。
FIG. 14 is a diagram showing a time chart of parallel processing.

【図15】図8のステップ172の詳細を示す線図であ
る。
15 is a diagram showing details of step 172 of FIG. 8. FIG.

【符号の説明】[Explanation of symbols]

28 CCDイメージセンサ 30 増幅器 36 顔抽出回路 28 CCD image sensor 30 amplifier 36 face extraction circuit

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 カラー原画像を多数画素に分割して各画
素を赤光、緑光及び青光の3色に分解して測光し、 測光により得られたデータに基づいて前記カラー原画像
上に色相が同一または類似の色領域を求め、 求めた色領域の境界部位に内接する円または長円を想定
し、かつ面積の大きな円または長円から順に円または長
円の領域によって求めた色領域を分割し、 分割された領域の少なくとも1つを選択して選択された
領域のデータを人物の顔のデータとして抽出する、 人物の顔のデータの抽出方法。
1. A color original image is divided into a large number of pixels, each pixel is decomposed into three colors of red light, green light and blue light, and photometry is performed. Based on the data obtained by photometry, the original color image is displayed on the color original image. A color area that has the same or similar hue, is assumed to be a circle or ellipse that is inscribed in the boundary area of the obtained color area, and is a circle or an ellipse in order from the circle with the largest area or the ellipse. A method for extracting face data of a person, which comprises dividing at least one of the divided areas and selecting data of the selected area as data of the face of the person.
【請求項2】 カラー原画像を多数画素に分割して各画
素を赤光、緑光及び青光の3色に分解して測光し、 測光により得られたデータに基づいて前記カラー原画像
上に色相が同一または類似の色領域を求め、 求めた色領域の境界部位に内接する円または長円を想定
し、かつ面積が最大の円または長円の領域を求め、 円または長円の外周から外側に突出すると共に前記求め
た領域に接する所定面積以上の凸領域を求め、該凸領域
に含まれる色領域の境界部位に内接する円の領域によっ
て該色領域を分割し、 分割された領域の少なくとも1つを選択して選択された
領域のデータを人物の顔のデータとして抽出する、 人物の顔のデータの抽出方法。
2. A color original image is divided into a large number of pixels, each pixel is decomposed into three colors of red light, green light and blue light, and photometry is performed. Based on the data obtained by photometry, the original color image is displayed on the color original image. Find a color area with the same or similar hue, assume a circle or ellipse that is inscribed in the boundary area of the obtained color area, and find the area of the circle or ellipse with the largest area. A convex region having a predetermined area or more that protrudes outward and is in contact with the obtained region is obtained, and the color region is divided by a circular region inscribed in the boundary portion of the color region included in the convex region. A method of extracting data of a person's face, wherein at least one is selected and the data of the selected area is extracted as the data of the person's face.
JP32899891A 1991-05-23 1991-12-12 How to extract human face data Expired - Fee Related JP2763221B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP32899891A JP2763221B2 (en) 1991-12-12 1991-12-12 How to extract human face data
US07/886,610 US5309228A (en) 1991-05-23 1992-05-21 Method of extracting feature image data and method of extracting person's face data
EP92108701A EP0514933B1 (en) 1991-05-23 1992-05-22 Method of extracting feature image data
DE69221210T DE69221210T2 (en) 1991-05-23 1992-05-22 Method for extracting characteristic image data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32899891A JP2763221B2 (en) 1991-12-12 1991-12-12 How to extract human face data

Publications (2)

Publication Number Publication Date
JPH05165119A true JPH05165119A (en) 1993-06-29
JP2763221B2 JP2763221B2 (en) 1998-06-11

Family

ID=18216465

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32899891A Expired - Fee Related JP2763221B2 (en) 1991-05-23 1991-12-12 How to extract human face data

Country Status (1)

Country Link
JP (1) JP2763221B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6834127B1 (en) 1999-11-18 2004-12-21 Fuji Photo Film Co., Ltd. Method of adjusting output image areas
JP2016146132A (en) * 2015-02-09 2016-08-12 学校法人日本大学 Shape feature extraction method, shape feature extraction processing device, shape description method and shape classification method
CN114359449A (en) * 2022-01-13 2022-04-15 北京大橘大栗文化传媒有限公司 Face digital asset manufacturing method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6834127B1 (en) 1999-11-18 2004-12-21 Fuji Photo Film Co., Ltd. Method of adjusting output image areas
JP2016146132A (en) * 2015-02-09 2016-08-12 学校法人日本大学 Shape feature extraction method, shape feature extraction processing device, shape description method and shape classification method
CN114359449A (en) * 2022-01-13 2022-04-15 北京大橘大栗文化传媒有限公司 Face digital asset manufacturing method

Also Published As

Publication number Publication date
JP2763221B2 (en) 1998-06-11

Similar Documents

Publication Publication Date Title
EP0514909B1 (en) Method of determining exposure
US5497431A (en) Method of extracting characteristic image data and color data conversion device for image processing apparatus
EP0514933B1 (en) Method of extracting feature image data
US5463470A (en) Methods of collecting photometric image data and determining light exposure by extracting feature image data from an original image
US8391595B2 (en) Image processing method and image processing apparatus
JP2695067B2 (en) Method of extracting data of human face and method of determining exposure amount
JPH09171220A (en) Exposure deciding method
JP2003344021A (en) Method for calculating dimension of human face in image and method for detecting face
US20040114797A1 (en) Method for automatic determination of color-density correction values for the reproduction of digital image data
EP0601363B1 (en) Method of determining amount of exposure
JP3516786B2 (en) Face area extraction method and copy condition determination method
JP2638691B2 (en) Exposure determination method
US7277589B2 (en) Image retouching method, apparatus, and program storage medium, image correcting method, apparatus, and program storage medium, and eye detecting and correcting method apparatus, and program storage medium
JPH08122944A (en) Exposure deciding method
JP2848749B2 (en) Feature image data extraction method
JPH10268447A (en) Image processor and photographic printer
JP2638693B2 (en) Feature image data extraction method
JP2638702B2 (en) Feature image data extraction method
JPH05165119A (en) Method for extracting data on person's face
JP2642262B2 (en) Exposure determination method
JP2638701B2 (en) Feature image data extraction method
JPH09281605A (en) Image recorder
JP2638692B2 (en) Method of extracting data of human face and method of determining exposure amount
JP2923401B2 (en) Exposure determination method
JP2848750B2 (en) Exposure determination method

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees