JP3499305B2 - Face area extraction method and exposure amount determination method - Google Patents

Face area extraction method and exposure amount determination method

Info

Publication number
JP3499305B2
JP3499305B2 JP26585094A JP26585094A JP3499305B2 JP 3499305 B2 JP3499305 B2 JP 3499305B2 JP 26585094 A JP26585094 A JP 26585094A JP 26585094 A JP26585094 A JP 26585094A JP 3499305 B2 JP3499305 B2 JP 3499305B2
Authority
JP
Japan
Prior art keywords
area
face
shape pattern
person
contour
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP26585094A
Other languages
Japanese (ja)
Other versions
JPH08122944A (en
Inventor
金城  直人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP26585094A priority Critical patent/JP3499305B2/en
Priority to US08/549,181 priority patent/US5629752A/en
Publication of JPH08122944A publication Critical patent/JPH08122944A/en
Application granted granted Critical
Publication of JP3499305B2 publication Critical patent/JP3499305B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は顔領域抽出方法及び露光
量決定方法に係り、特に、原画像中に存在する人物の顔
に相当する領域を抽出する顔領域判断方法、及び該顔領
域判断方法によって抽出した領域が適正な色に焼付けさ
れるように露光量を決定する露光量決定方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a face area extracting method and an exposure amount determining method, and more particularly to a face area determining method for extracting an area corresponding to a human face existing in an original image, and the face area determining method.
The present invention relates to an exposure amount determination method for determining an exposure amount so that the area extracted by the area determination method is printed in an appropriate color.

【0002】[0002]

【従来の技術及び発明が解決しようとする課題】人物写
真を観賞するときに最も注目される部位は人物の顔であ
り、例えばフィルム等に記録された原画像を印画紙等に
焼付ける場合には、人物の顔の色が適正な色に焼付けさ
れるように露光量を決定する必要がある。
2. Description of the Related Art The most noticeable part of a person's photograph is a person's face. For example, when an original image recorded on a film is printed on photographic paper or the like. Needs to determine the exposure amount so that the color of the person's face is printed in an appropriate color.

【0003】このため本出願人は、人物写真では人物が
画像の略中央部に位置している確率が高いとの経験則に
基づいて、フィルム画像を予め固定的に定められた複数
の領域に分割すると共に、画像の略中央部に位置してい
る領域の重みが重くなるように各領域を重み付けし、各
領域の3色の濃度の加重平均値を求め、該加重平均値に
基づいて露光量を決定する方法を既に提案している(特
開昭63-80242号公報参照)。しかし、上記では人物が実
際に画像の略中央部付近に位置していれば、該人物が適
正な色で焼付される露光量を得ることができるが、人物
が画像の中央部から大きく外れた位置に位置している場
合には適正な露光量を得ることができない、という問題
があった。
Therefore, the applicant of the present invention, based on the rule of thumb that a person is highly likely to be located in the approximate center of the image in a portrait photograph, the film image is divided into a plurality of areas fixedly fixed in advance. Each area is divided and weighted so that the weight of the area located substantially in the center of the image is heavy, the weighted average value of the densities of the three colors of each area is obtained, and the exposure is performed based on the weighted average value. A method for determining the amount has already been proposed (see JP-A-63-80242). However, in the above, if the person is actually located near the center of the image, it is possible to obtain an exposure amount that allows the person to be printed with an appropriate color, but the person is greatly deviated from the center of the image. There is a problem that it is impossible to obtain an appropriate exposure amount when it is positioned.

【0004】また本出願人は、カラー原画像を多数画素
に分割し各画素毎に3色に分解して測光し、測光により
得られたデータに基づいて色相値(及び彩度値)につい
てのヒストグラムを求め、求めたヒストグラムを山毎に
分割し、各画素が分割した山の何れに属するかを判断し
て各画素を分割した山に対応する群に分け、各群毎にカ
ラー原画像を複数の領域に分割し、該複数の領域のうち
人物の顔に相当する領域を推定し、推定した領域の測光
データに基づいて露光量を決定することを提案している
(特開平4-346332号公報参照)。
Further, the applicant of the present invention divides a color original image into a large number of pixels, decomposes each pixel into three colors, and performs photometry, and based on the data obtained by photometry, the hue value (and saturation value) is determined. Obtain the histogram, divide the obtained histogram for each mountain, determine which of the divided mountains each pixel belongs to, divide each pixel into groups corresponding to the divided mountains, and obtain the color original image for each group. It is proposed to divide the image into a plurality of regions, estimate a region corresponding to a person's face in the plurality of regions, and determine the exposure amount based on the photometric data of the estimated region (Japanese Patent Laid-Open No. 4-346332). (See the official gazette).

【0005】また、特開平6-160993号公報には、人物の
顔に相当する領域を抽出する確度を向上させるために、
画像の外縁に接している領域を背景領域と判断して除去
したり、抽出した領域を線図形化し、抽出した領域の周
辺に位置している近傍領域の形状及び抽出した領域の形
状に基づいて、抽出した領域が人物の顔に相当する領域
であるか否かを判断することも記載されている。
Further, in Japanese Patent Laid-Open No. 6-160993, in order to improve the accuracy of extracting a region corresponding to a person's face,
The area that touches the outer edge of the image is judged to be the background area and removed, or the extracted area is made into a line figure, and based on the shape of the neighboring area and the shape of the extracted area located around the extracted area. It is also described that it is determined whether or not the extracted region is a region corresponding to a person's face.

【0006】しかしながら、上記では、原画像に例えば
地面や木の幹等の肌色領域が存在しており、該肌色領域
の色相及び彩度が原画像中の人物の顔に相当する領域の
色相及び彩度と近似していた場合、この領域を人物の顔
に相当する領域と誤判定する可能性がある。また、この
肌色領域が人物の顔に相当する領域と隣接していた場
合、肌色領域と人物の顔に相当する領域とを分離でき
ず、原画像を適正な範囲の領域に分割できないことがあ
った。上記従来技術では、分割した領域の何れかが人物
の顔に相当する領域であることを前提として処理を行っ
ているため、原画像を適正な範囲の領域に分割できなか
った場合には、人物の顔に相当する領域を誤判定し、人
物の顔が適正に焼付けできる露光量を得ることができな
い、という問題があった。
However, in the above, the original image has a flesh color area such as the ground or a trunk of a tree, and the hue and saturation of the flesh color area correspond to the hue of the area of the person in the original image. If it is close to the saturation, there is a possibility that this area may be erroneously determined as an area corresponding to a human face. Also, if this skin color area is adjacent to the area corresponding to the person's face, the skin color area and the area corresponding to the person's face may not be separated, and the original image may not be divided into areas within an appropriate range. It was In the above-described conventional technique, the processing is performed on the assumption that one of the divided areas is an area corresponding to a person's face. Therefore, if the original image cannot be divided into areas in an appropriate range, There is a problem in that the area corresponding to the face is erroneously determined, and an exposure amount with which the face of the person can be properly printed cannot be obtained.

【0007】本発明は上記事実を考慮して成されたもの
で、原画像中の人物の顔に相当する領域及びその周辺の
領域の色の影響を受けることなく人物の顔に相当する
領域のみを抽出することができる顔領域抽出方法を得る
ことが第1の目的である。 また本発明は、原画像中の人
物の顔に相当する領域及びその周辺の領域の色の影響を
受けることなく、人物の顔に相当する領域を適正に焼付
けできるように露光量を決定できる露光量決定方法を得
ることが第2の目的である。
The present invention has been made in consideration of the above facts, and an area corresponding to a person's face is not affected by colors of an area corresponding to the person's face in the original image and surrounding areas. Get a face area extraction method that can extract only
That is the first purpose. In addition, the present invention can be applied to the person in the original image.
The influence of the color of the area corresponding to the face of the object and the surrounding area
A second object is to obtain an exposure amount determination method capable of determining the exposure amount so that an area corresponding to a person's face can be properly printed without receiving it .

【0008】[0008]

【課題を解決するための手段】上記目的を達成するため
に請求項1記載の発明に係る顔領域抽出方法は、原画像
中に存在する、人物の第1の部分に特有の第1の形状パ
ターンを探索し、検出した第1の形状パターンの大き
さ、向き及び人物の顔と前記第1の部分との位置関係に
応じて、人物の顔に相当すると推定される領域を設定し
た後に、人物の前記第1の部分と異なる少なくとも1つ
の第2の部分に特有の第2の形状パターンが、原画像中
の前記設定した領域の大きさ、向き及び人物の顔と前記
第2の部分との位置関係に応じて設定した探索範囲内に
存在するかを探索することにより、原画像中の人物の顔
に相当する領域である確度が高い領域を判断する。
In order to achieve the above object, the face area extracting method according to the invention of claim 1 is the first shape peculiar to the first part of the person existing in the original image. After searching the pattern and setting the area estimated to correspond to the human face according to the size and orientation of the detected first shape pattern and the positional relationship between the human face and the first portion, A second shape pattern unique to at least one second portion different from the first portion of the person is the size and orientation of the set region in the original image, the face of the person, and the second portion. by searching whether present within the search range set in accordance with the positional relationship between the region a high probability a region corresponding to a person's face in the original image you judgment.

【0009】請求項2記載の発明は、請求項1記載の発
明において、第1の形状パターン及び第2の形状パター
ンが、人物の頭部の輪郭を表す形状パターン、人物の顔
の輪郭を表す形状パターン、人物の顔の内部構造を表す
形状パターン、及び人物の胴体の輪郭を表す形状パター
ンの少なくとも何れかを含むことを特徴としている。
According to a second aspect of the present invention, in the first aspect of the invention, the first shape pattern and the second shape pattern represent a contour pattern of a person's head and a contour of a person's face. It is characterized by including at least one of a shape pattern, a shape pattern representing the internal structure of a person's face, and a shape pattern representing the outline of the body of the person.

【0010】請求項3記載の発明は、請求項1記載の発
明において、第1の形状パターン及び第2の形状パター
ンの探索は、原画像を濃度又は色が同一又は近似してい
る複数の画素で構成される複数の領域に分割し、該複数
の領域の各々の輪郭を用いて行うことを特徴としてい
る。
According to a third aspect of the present invention, in the first aspect of the invention, the first shape pattern and the second shape pattern are searched for by a plurality of pixels having the same or similar density or color to the original image. It is characterized in that it is divided into a plurality of regions constituted by and each contour of each of the plurality of regions is used.

【0011】請求項4記載の発明は、請求項1記載の発
明において、第1の形状パターン及び第2の形状パター
ンの探索は、原画像中に存在するエッジを検出し、検出
したエッジの中心線を求め、求めた中心線を用いて行う
ことを特徴としている。
According to a fourth aspect of the invention, in the first aspect of the invention, the first shape pattern and the second shape pattern are searched for by detecting an edge existing in the original image and detecting the center of the detected edge. The feature is that the line is obtained and the obtained center line is used.

【0012】請求項5記載の発明は、請求項1記載の発
明において、第1の形状パターンの探索に先立ち、原画
像中の人物に相当する確度の低い領域を第1の形状パタ
ーンの探索対象から除外することを特徴としている。
求項6記載の発明は、請求項1記載の発明において、前
記第1の形状パターン又は前記第2の形状パターンとし
ての、人物の顔構造を表す形状パターンのうち眼部対を
表す形状パターンの探索は、請求項3記載の発明により
分割された領域、又は請求項4記載の発明により求めら
れたエッジの中心線により分割される領域のうち楕円形
状の領域を抽出し、抽出された複数の楕円領域の各々の
特徴量を用いたマッチング処理により所定値以上の類似
度の楕円領域の対を検出し、検出した楕円領域の対の線
対称の度合いにより前記楕円領域の対が人物の顔の眼部
対に対応しているか否かを判断することで行うことを特
徴としている。また、請求項記載の発明に係る露光量
決定方法は、請求項1乃至請求項の何れか1項記載の
顔領域抽出方法により、原画像中の人物の顔に相当する
領域である確度が高い領域を判断し、判断した領域の色
又は濃度の少なくとも一方に基づいて複写材料への露光
量を決定することを特徴としている。
According to a fifth aspect of the invention, in the first aspect of the invention, prior to the search for the first shape pattern, an area of low accuracy corresponding to a person in the original image is searched for the first shape pattern. It is characterized by being excluded from. Contract
The invention according to claim 6 is the same as the invention according to claim 1,
As the first shape pattern or the second shape pattern
Of the shape patterns that represent the facial structure of a person.
According to the invention of claim 3, the search for the represented shape pattern is performed.
Divided area or obtained by the invention according to claim 4
Ellipse of the area divided by the centerline of the edge
Area is extracted, and each of the extracted elliptical areas
Similarity over a certain value by matching process using feature amount
Detects a pair of elliptical areas in degrees and finds the pair of elliptic area pairs
Depending on the degree of symmetry, the pair of elliptical regions are the eye parts of the human face.
It is special to do by judging whether it corresponds to the pair.
It is a sign. Further, in the exposure amount determination method according to the invention described in claim 7, the face area extraction method according to any one of claims 1 to 6 is used to determine the probability that the area corresponds to a person's face in the original image. Is determined, and the exposure amount to the copy material is determined based on at least one of the color and the density of the determined region.

【0013】[0013]

【作用】請求項1記載の発明では、原画像中に存在す
る、人物の第1の部分に特有の第1の形状パターンを探
索し、検出した第1の形状パターンの大きさ、向き及び
人物の顔と第1の部分との位置関係に応じて、人物の顔
に相当すると推定される領域を設定する。なお、第1の
形状パターンは複数であっても単数であってもよく、例
えば請求項2にも記載したように、人物の頭部の輪郭を
表す形状パターン、人物の顔の輪郭を表す形状パター
ン、人物の顔の内部構造を表す形状パターン、及び人物
の胴体の輪郭を表す形状パターンの少なくとも何れかを
用いることができる。特に、人物の各部の形状パターン
のうちの何れかは、原画像によっては検出できない可能
性があることを考慮すると、第1の形状パターンとして
複数の形状パターンを定め、各々を探索するようにして
もよい。
According to the first aspect of the invention, the first shape pattern peculiar to the first part of the person existing in the original image is searched for, and the size, direction and person of the detected first shape pattern are detected. A region estimated to correspond to a person's face is set according to the positional relationship between the face and the first portion. The first shape pattern may be plural or singular. For example, as described in claim 2, a shape pattern representing a contour of a person's head and a shape representing a contour of a person's face. At least one of a pattern, a shape pattern representing the internal structure of a person's face, and a shape pattern representing the outline of the body of a person can be used. In particular, considering that any of the shape patterns of each part of the person may not be detected depending on the original image, a plurality of shape patterns are set as the first shape pattern, and each of them is searched. Good.

【0014】例えば人物の頭部(頭髪部)に対応する原
画像上の領域は、その輪郭に、人物の頭頂部に相当する
所定の円曲度の凸部と、該凸部の下方に人物の頭部と顔
との境界に相当する所定の円曲度の凹部と、が含まれて
いることが一般的である。このため、人物の頭部に対し
ては、頭部の輪郭を表す特有の形状パターンとして、例
えば所定範囲内の円曲度の凸部と所定範囲内の円曲度の
凹部とを用いることができる。そして、前述の形状パタ
ーンを第1の形状パターンとし、原画像中に前述の形状
パターンを検出した場合には、人物の顔に相当すると推
定される領域を、例えば以下のようにして抽出すること
ができる。
For example, a region on the original image corresponding to a person's head (hair portion) has a contour with a convex portion having a predetermined degree of curvature corresponding to the top of the person's head and a person below the convex portion. Generally, a concave portion having a predetermined circularity corresponding to the boundary between the head and the face is included. Therefore, for a person's head, for example, a convex portion having a circularity within a predetermined range and a concave portion having a circularity within a predetermined range may be used as a specific shape pattern representing the contour of the head. it can. Then, when the above-mentioned shape pattern is used as the first shape pattern and the above-mentioned shape pattern is detected in the original image, an area estimated to correspond to a person's face is extracted, for example, as follows. You can

【0015】すなわち、人物の顔は、頭部に対し下方側
(前述の形状パターンの凹部側)に隣接した位置に存在
し、かつその大きさが頭部の大きさに略比例し、更に向
きが頭部の向きに一致する。また、人物の顔の輪郭は略
楕円形状であることが一般的である。従って、原画像中
に前述の形状パターンが検出された場合には、検出され
た形状パターンの大きさ、向きに応じた大きさ、向き
で、かつ人物の顔と頭部との位置関係に応じた位置(検
出した形状パターンの凹部側に隣接した位置)に楕円形
状の領域を設定し、該領域を人物の顔に相当すると推定
される領域として設定することができる。
That is, the face of the person is present at a position adjacent to the lower side (recess side of the above-mentioned shape pattern) with respect to the head, and the size thereof is substantially proportional to the size of the head, and further oriented. Matches the orientation of the head. In addition, the outline of a person's face is generally a substantially elliptical shape. Therefore, when the above-described shape pattern is detected in the original image, the size and orientation of the detected shape pattern are determined according to the positional relationship between the face and the head of the person. It is possible to set an elliptical area at different positions (positions adjacent to the recessed side of the detected shape pattern) and set the area as an area estimated to correspond to a human face.

【0016】このように、請求項1の発明に係る抽出処
理では、原画像から検出した人物の第1の部分に特有の
第1の形状パターンの大きさ、向き、及び人物の顔と第
1の部分との位置関係に応じて人物の顔に相当すると推
定される領域を設定するので、人物の顔に相当する領域
及びその周辺の領域の色等の影響を受けることなく、人
物の顔に相当すると推定される領域を適正に設定するこ
とができる。また、逆に原画像に人物の顔に相当する領
域でないものの、顔領域に似た輪郭の肌色領域が含まれ
ていたとしても、これを人物の顔に相当する領域と誤判
定することを防止できる。
As described above, in the extraction process according to the first aspect of the present invention, the size and orientation of the first shape pattern peculiar to the first part of the person detected from the original image, and the face and the first face of the person. The area estimated to correspond to the person's face is set according to the positional relationship with the portion of the person's face, so that the person's face is not affected by the color of the area corresponding to the person's face and the surrounding area. The area estimated to be equivalent can be set appropriately. On the contrary, even if the original image includes a skin-colored area having a contour similar to the face area, although the area does not correspond to the person's face, it is prevented from being erroneously determined as an area corresponding to the person's face. it can.

【0017】また、上記のようにして第1の形状パター
ンを用いて設定した領域が人物の顔に対応する領域と一
致していれば、前記設定した領域の近傍に、人物の第1
の部分と異なる他の部分に特有の形状パターンが存在す
る可能性が高い。このため請求項1記載の発明では、人
物の顔に相当すると推定される領域を設定した後に、人
物の第1の部分と異なる少なくとも1つの第2の部分に
特有の第2の形状パターンが、原画像中の前記設定した
領域の大きさ、向き及び人物の顔と前記第2の部分との
位置関係に応じて設定した探索範囲内に存在するかを探
索することにより、原画像中の人物の顔に相当する領域
である確度が高い領域を判断する。
If the area set by using the first shape pattern as described above matches the area corresponding to the face of the person, the first area of the person near the set area.
There is a high possibility that a shape pattern peculiar to another portion different from the above portion exists. Therefore, in the invention according to claim 1, after setting the region estimated to correspond to the face of the person, the second shape pattern peculiar to at least one second portion different from the first portion of the person, The person in the original image is searched by searching for the size and orientation of the set area in the original image and whether or not it exists within the search range set according to the positional relationship between the person's face and the second portion. Area having a high degree of certainty, which is an area corresponding to the face.

【0018】なお、第2の形状パターンも、複数であっ
ても単数であってもよく、請求項2にも記載したよう
に、人物の頭部の輪郭を表す形状パターン、人物の顔の
輪郭を表す形状パターン、人物の顔の内部構造を表す形
状パターン、及び人物の胴体の輪郭を表す形状パターン
の少なくとも何れかを用いることができる。
The second shape pattern may be plural or singular, and as described in claim 2, the shape pattern representing the contour of the person's head and the contour of the person's face. It is possible to use at least one of a shape pattern that represents a human body, a shape pattern that represents the internal structure of a person's face, and a shape pattern that represents the outline of the body of a person.

【0019】上記により、原画像中の前記設定した領域
の大きさ、向き及び人物の顔と第2の部分との位置関係
に応じて設定した探索範囲内に第2の形状パターンが検
出された場合には、前記設定した領域が人物の顔に相当
する領域である確度が高いと判断できる。このように、
第1の形状パターンを用いて設定した人物の顔に相当す
ると推定される領域に対し、該領域に対応する探索範囲
内に第2の形状パターンが存在するかを探索するので、
原画像中の非人物領域で第1の形状パターンが偶然検出
されたとしても、該偶然検出された形状パターンに基づ
いて求めた領域を人物の顔に相当する領域として誤判断
することが防止される。また、第1の形状パターンによ
り人物の顔に相当すると推定される領域が複数設定され
た場合にも、第2の形状パターンにより、人物の顔に相
当する確度が最も高い領域を判断できる。
As described above, the second shape pattern is detected within the search range set according to the size and orientation of the set area in the original image and the positional relationship between the person's face and the second portion. In this case, it can be determined that the set area is highly likely to be an area corresponding to a person's face. in this way,
For a region that is estimated to correspond to a human face set using the first shape pattern, a search is made as to whether or not the second shape pattern exists within the search range corresponding to that region.
Even if the first shape pattern is accidentally detected in the non-human area in the original image, it is possible to prevent the area determined based on the accidentally detected shape pattern from being erroneously determined as an area corresponding to a human face. It Further, even when a plurality of regions estimated to correspond to the person's face are set by the first shape pattern, it is possible to determine the region having the highest accuracy corresponding to the person's face by the second shape pattern.

【0020】従って、本発明によれば、原画像中の人物
の顔に相当する領域及びその周辺の領域の色の影響を受
けることなく、人物の顔に相当する領域のみを抽出する
ことができる。また、第2の形状パターンについては、
人物の顔に相当すると推定される領域として設定した領
域の大きさ、向き及び人物の顔と第2の部分との位置関
係に応じて設定した探索範囲内でのみ探索を行うので、
各形状パターンに対し画像全体を対象として探索を行う
場合と比較して、処理時間を短縮することができ、人物
の顔に相当する領域である確度の高い領域を高速で抽出
することができる。
Therefore, according to the present invention , the person in the original image is
Are affected by the colors of the area corresponding to the human face and the surrounding area.
Extract only the area corresponding to the person's face without blurring
be able to. Also, regarding the second shape pattern,
Since the search is performed only within the search range set according to the size and orientation of the area set as the area estimated to correspond to the human face and the positional relationship between the human face and the second portion,
The processing time can be shortened as compared with the case where the entire image is searched for each shape pattern, and a highly accurate area corresponding to a human face can be extracted at high speed.

【0021】なお形状パターンの探索は、例えば請求項
3に記載したように、原画像を濃度又は色が同一又は近
似している複数の画素で構成される複数の領域に分割
し、該複数の領域の各々の輪郭を用いて行うことができ
る。画像を上記のように複数の領域に分割すると、輪郭
に、例えば人物と背景との境界等のように人物の各部に
特有の形状パターンが含まれている確率の高い複数の領
域が得られる。従って、この複数の領域の輪郭から人物
の各部に特有の形状パターンを効率良く検出することが
できる。
In the search for the shape pattern, for example, as described in claim 3, the original image is divided into a plurality of regions composed of a plurality of pixels having the same or similar density or color, and the plurality of regions are divided. This can be done using the contour of each of the regions. When the image is divided into a plurality of areas as described above, a plurality of areas having a high probability that the contour includes a shape pattern peculiar to each part of the person such as a boundary between the person and the background can be obtained. Therefore, the shape pattern unique to each part of the person can be efficiently detected from the contours of the plurality of regions.

【0022】原画像の分割は、例えば特開平4-346332号
のように、原画像の各画素毎の3色の測光データに基づ
いて色相値についての1次元ヒストグラム、又は色相値
及び彩度値についての2次元ヒストグラムを求め、求め
たヒストグラムを山毎に分割し、各画素が分割した山の
何れに属するかを判断して各画素を分割した山に対応す
る群に分け、各群毎に原画像を複数の領域に分割するこ
とができる。また、原画像を構成する各画素のうち隣接
する画素との濃度差或いは色差の大きな画素を領域の境
界とすることにより原画像を複数の領域に分割するよう
にしてもよい。また、2値化を行うことにより原画像を
複数の領域に分割したり、該2値化を各々値の異なる複
数のしきい値を用いて複数回行って分割するようにして
もよく、更に上記の組み合わせにより複数の領域に分割
するようにしてもよい。
The original image is divided into a one-dimensional histogram of hue values, or a hue value and a saturation value based on photometric data of three colors for each pixel of the original image, as disclosed in, for example, JP-A-4-346332. Is obtained, the obtained histogram is divided for each mountain, it is determined which of the divided mountains each pixel belongs to, and each pixel is divided into a group corresponding to the divided mountain, and for each group The original image can be divided into multiple areas. Further, the original image may be divided into a plurality of areas by setting a pixel having a large density difference or a large color difference with an adjacent pixel among the pixels forming the original image as a boundary of the area. Further, the original image may be divided into a plurality of regions by performing binarization, or the binarization may be performed a plurality of times by using a plurality of threshold values having different values. You may make it divide | segment into a some area | region by the said combination.

【0023】本発明では、上記のようにして分割した領
域を各形状パターンを検出するために用い、人物の顔に
相当すると推定される領域の設定は、先にも説明したよ
うに原画像から検出した第1の形状パターンの大きさ、
向き等に応じて行う。従って、複数の領域の輪郭から複
数の形状パターンのうちの一部を検出できなかったとし
ても、人物の顔に相当すると推定される領域を設定でき
ると共に、従来のように、分割した複数の領域の何れか
が人物の顔に相当する領域と一致している必要はない。
In the present invention, the regions divided as described above are used to detect each shape pattern, and the region estimated to correspond to a human face is set from the original image as described above. The size of the detected first shape pattern,
Perform according to the direction. Therefore, even if some of the plurality of shape patterns cannot be detected from the contours of the plurality of regions, it is possible to set a region estimated to correspond to the face of the person and to divide the plurality of divided regions as in the conventional case. It is not necessary for any of the above to match the area corresponding to the face of the person.

【0024】また、形状パターンの探索は、請求項4に
記載したように、原画像中に存在するエッジを検出し、
検出したエッジの中心線を求め、求めた中心線を用いて
行うようにしてもよい。なお、エッジの検出は、例えば
各画素に対し濃度又は色について微分等を行うことによ
り検出することができ、エッジの中心線は、例えば周知
の細線化や尾根検出等の処理により求めることができ
る。画像中に存在するエッジについても、人物の各部に
特有の形状パターンが含まれている確率が高いので、請
求項3の発明と同様に、人物の各部に特有の形状パター
ンを効率良く検出することができる。
Further, in the search for the shape pattern, as described in claim 4, an edge existing in the original image is detected,
The center line of the detected edge may be obtained, and the obtained center line may be used. The edge can be detected by, for example, differentiating the density or color of each pixel, and the centerline of the edge can be obtained by a known process such as thinning or ridge detection. . Since it is highly probable that the edges existing in the image also include a shape pattern peculiar to each part of the person, the shape pattern peculiar to each part of the person can be efficiently detected as in the invention of claim 3. You can

【0025】ところで、画像中には人物に相当する領域
である確率が低いと判断できる特徴を備えた領域が存在
していることがある。例えば、輪郭に含まれる直線部分
の比率が所定値以上の領域については、人工物を表して
いる領域である確率が高い。また人体は、人体の左右を
分割する仮想線に関して略線対称であるが、対称度が所
定値以下の領域は人物に相当する領域である確率は低
い。また、凹凸数が所定値以上の領域についても人物に
相当する領域である確率は低いと判断できる。また、人
物は一般に画像の略中央部に位置している確率が高いこ
とから、画像外縁との接触率が所定値以上の領域につい
ても、画像の周縁部に位置していると判断でき、人物に
相当する領域である確率は低い。
By the way, there are cases where an image has a region having a characteristic that it can be determined that the probability of being a region corresponding to a person is low. For example, a region in which the ratio of the straight line portion included in the contour is equal to or greater than a predetermined value has a high probability of being a region representing an artifact. Further, the human body is substantially line-symmetric with respect to an imaginary line that divides the left and right of the human body, but a region where the degree of symmetry is a predetermined value or less is unlikely to be a region corresponding to a person. Further, it can be determined that the probability that the region corresponding to a person is low even if the number of irregularities is equal to or larger than a predetermined value. In addition, since a person is generally likely to be located in the substantially central portion of the image, it can be determined that an area having a contact rate with the outer edge of the image of a predetermined value or more is also located in the peripheral portion of the image. The probability of being a region corresponding to is low.

【0026】また、領域内の濃度のコントラストが所定
値以下の場合には、表面が平滑、或いは凹凸の少ない物
体を表している領域である可能性が高く、人物の、特に
顔に相当する領域である確率は低い。更に、領域内の濃
度が所定のパターンで変化していたり、領域内の濃度が
所定の変化パターンを繰り返している場合にも、人物に
相当する領域である確率は低いと判断できる。このよう
に、人物の何れの部分にも相当しない確度の高い領域
を、人物の顔に相当する確度の低い領域とし、請求項5
にも記載したように、第1の形状パターンの探索に先立
ち、原画像中の人物に相当する確度の低い領域を第1の
形状パターンの探索対象から除外すれば、第1の形状パ
ターンの探索処理に要する時間が短縮され、更に高速に
処理を行うことができる。また、請求項1記載の発明に
おいて、第1の形状パターン又は第2の形状パターンと
しての、人物の顔構造を表す形状パターンのうち眼部対
を表す形状パターンの探索は、例えば請求項6に記載し
たように、請求項3記載の発明により分割された領域、
又は請求項4記載の発明により求められたエッジの中心
線により分割される領域のうち楕円形状の領域を抽出
し、抽出された複数の楕円領域の各々の特徴量(形状、
濃度)を用いたマッチング処理により所定値以上の類似
度の楕円領域の対を検出し、検出した楕円領域の対の線
対称の度合いにより前記楕円領域の対が人物の顔の眼部
対に対応しているか否かを判断することで行うことがで
きる。また、請求項記載の発明に係る露光量決定方法
は、上述した請求項1乃至請求項の何れかの顔領域抽
出方法により判断した、原画像中の人物の顔に相当する
領域である確度が高い領域の色又は濃度の少なくとも一
方に基づいて複写材料への露光量を決定するので、原画
像中の人物の顔に相当する領域及びその周辺の領域の色
の影響を受けることなく、人物の顔に相当する領域を適
正に焼付けできるように露光量を決定することができ
る。
If the density contrast in the area is equal to or less than a predetermined value, the area is likely to represent an object having a smooth surface or less unevenness, and is an area corresponding to a person, particularly a face. Is unlikely. Further, even when the density in the area changes in a predetermined pattern or when the density in the area repeats a predetermined change pattern, it can be determined that the probability of the area corresponding to a person is low. 6. A region with high accuracy that does not correspond to any part of a person in this way is defined as a region with low accuracy that corresponds to a face of a person.
As described above, the search for the first shape pattern is performed by excluding the region with low accuracy corresponding to the person in the original image from the search target of the first shape pattern prior to the search for the first shape pattern. The time required for the processing is shortened, and the processing can be performed at higher speed. Further, according to the invention of claim 1,
And the first shape pattern or the second shape pattern
Of the shape patterns that represent the facial structure of a person.
A search for a shape pattern representing
As described above, the area divided by the invention according to claim 3,
Alternatively, the center of the edge obtained by the invention of claim 4.
Extract elliptical areas from the areas divided by lines
Then, each feature amount (shape, shape,
Similarity over a specified value by matching processing using (density)
Detects a pair of elliptical areas in degrees and finds the pair of elliptic area pairs
Depending on the degree of symmetry, the pair of elliptical regions are the eye parts of the human face.
It can be done by judging whether or not it corresponds to the pair.
Wear. An exposure amount determining method according to a seventh aspect of the invention is an area corresponding to the face of a person in the original image, which is determined by the face area extracting method according to any one of the first to sixth aspects. Since the exposure amount to the copy material is determined based on at least one of the color and the density of the highly accurate area, without being affected by the color of the area corresponding to the face of the person in the original image and the area around the area, The exposure amount can be determined so that an area corresponding to a person's face can be properly printed.

【0027】[0027]

【実施例】以下、図面を参照して本発明の実施例を詳細
に説明する。図1には本発明を適用可能な写真焼付装置
10が示されている。写真焼付装置10はネガフィルム
12を搬送する搬送ローラ14を備えている。ネガフィ
ルム12の搬送路の下方には、光源16、調光フィルタ
等の色補正フィルタ18、拡散ボックス20が順に配列
されている。また、ネガフィルム12の搬送路の上方に
は、ネガフィルム12を透過した光を2方向に分配する
分配用プリズム22が配置されている。
Embodiments of the present invention will now be described in detail with reference to the drawings. FIG. 1 shows a photographic printing apparatus 10 to which the present invention can be applied. The photographic printing apparatus 10 includes a conveyance roller 14 that conveys the negative film 12. A light source 16, a color correction filter 18 such as a light control filter, and a diffusion box 20 are sequentially arranged below the conveyance path of the negative film 12. Further, a distribution prism 22 that distributes the light transmitted through the negative film 12 in two directions is arranged above the conveyance path of the negative film 12.

【0028】分配用プリズム22によって2方向に分配
された光の一方の光路上には、投影光学系24、ブラッ
クシャッタ26、及び複写材料としてのカラーペーパ
(印画紙)28が順に配置されており、他方の光路上に
は投影光学系30、CCDイメージセンサ32が順に配
置されている。CCDイメージセンサ32はネガフィル
ム12に記録された画像(1コマ)全体を多数の画素
(例えば256×256画素)に分割し、各画素をR
(赤)、G(緑)、B(青)の3色に分解して測光す
る。
A projection optical system 24, a black shutter 26, and a color paper (printing paper) 28 as a copying material are sequentially arranged on one optical path of the light divided by the distribution prism 22 in two directions. The projection optical system 30 and the CCD image sensor 32 are sequentially arranged on the other optical path. The CCD image sensor 32 divides the entire image (one frame) recorded on the negative film 12 into a large number of pixels (for example, 256 × 256 pixels), and each pixel is red.
(Red), G (green), and B (blue) are separated into three colors for photometry.

【0029】CCDイメージセンサ32の信号出力端に
は、CCDイメージセンサ32から出力された信号を増
幅する増幅器34、アナログ−デジタル(A/D)変換
器36、CCDイメージセンサ32の感度補正用の3×
3マトリクス回路38が順に接続されている。3×3マ
トリクス回路38は、マイクロプロセッシングユニット
(MPU)で構成され、ROMに後述する顔領域抽出処
理を実現するプログラムが予め記憶された顔領域抽出部
40、及び画像全体の平均濃度を演算する平均濃度演算
部42に各々接続されている。また、顔領域抽出部40
及び平均濃度演算部42は露光量演算部44に接続され
ている。露光量演算部44は、色補正フィルタ18を駆
動するドライバ46を介して色補正フィルタ18に接続
されている。
An amplifier 34 for amplifying the signal output from the CCD image sensor 32, an analog-digital (A / D) converter 36, and a sensitivity correction of the CCD image sensor 32 are provided at the signal output end of the CCD image sensor 32. 3x
Three matrix circuits 38 are connected in order. The 3 × 3 matrix circuit 38 is composed of a micro processing unit (MPU), and calculates a face area extraction unit 40 in which a program for realizing a face area extraction process, which will be described later, is stored in the ROM, and an average density of the entire image. Each is connected to the average density calculation unit 42. In addition, the face area extraction unit 40
The average density calculation unit 42 is connected to the exposure amount calculation unit 44. The exposure amount calculation unit 44 is connected to the color correction filter 18 via a driver 46 that drives the color correction filter 18.

【0030】次に本実施例の作用を説明する。光源16
から照射された光は、色補正フィルタ18、拡散ボック
ス20及びネガフィルム12を透過し、分配用プリズム
22によって分配され、投影光学系30を介してCCD
イメージセンサ32に入射される。なお、このときブラ
ックシャッタ26は閉じられている。CCDイメージセ
ンサ32では、入射された光により、1画面全体を多数
の画素に分割し各画素をR、G、Bの3色に分解して測
光し、測光データ信号を出力する。測光データ信号は増
幅器34で増幅され、A/D変換器36でデジタル信号
に変換された後に、更に3×3マトリクス回路38でC
CDイメージセンサ32の感度補正が行われて、顔領域
抽出部40及び平均濃度演算部42に画像データとして
各々入力される。
Next, the operation of this embodiment will be described. Light source 16
The light emitted from the device passes through the color correction filter 18, the diffusion box 20, and the negative film 12, is distributed by the distribution prism 22, and is transmitted through the projection optical system 30 to the CCD.
It is incident on the image sensor 32. At this time, the black shutter 26 is closed. The CCD image sensor 32 divides the entire one screen into a large number of pixels by the incident light, decomposes each pixel into three colors of R, G, and B to perform photometry, and outputs a photometric data signal. The photometric data signal is amplified by the amplifier 34, converted into a digital signal by the A / D converter 36, and further C by the 3 × 3 matrix circuit 38.
The sensitivity of the CD image sensor 32 is corrected, and the image data is input to the face area extraction unit 40 and the average density calculation unit 42, respectively.

【0031】平均濃度演算部42では、1画面全体の平
均濃度を演算する。顔領域抽出部40では、後に詳述す
るようにして1画面中の人物の顔に相当する部分を推定
し、該部分のR、G、B3色の測光データを出力する。
露光量演算部44は人物領域演算部40から出力された
3色の測光データと、平均濃度演算部42から出力され
た平均濃度とを用いて露光量を演算し、演算した露光量
でネガフィルム12の画像がカラーペーパ28に焼付け
されるように、ドライバ46を介して色補正フィルタ1
8を移動させると共に、ブラックシャッタ26を開閉し
て画像の焼付けを行う。
The average density calculator 42 calculates the average density of the entire screen. The face area extraction unit 40 estimates a portion corresponding to the face of a person in one screen as described later in detail, and outputs R, G, B three-color photometric data of the portion.
The exposure amount calculation unit 44 calculates the exposure amount using the photometric data of the three colors output from the person area calculation unit 40 and the average density output from the average density calculation unit 42, and the negative film is calculated with the calculated exposure amount. Twelve images are printed on the color paper 28 so that the color correction filter 1 is passed through the driver 46.
8 is moved and the black shutter 26 is opened / closed to print an image.

【0032】なお、平均濃度演算部42で演算される画
面全体の平均濃度は、露光量演算部44による露光量演
算において必須の情報ではなく、平均濃度演算部42を
省略し、露光量演算部44では顔領域抽出部40から出
力された3色の測光データのみを用いて露光量を演算す
るようにしてもよい。
The average density of the entire screen calculated by the average density calculation unit 42 is not essential information in the exposure amount calculation by the exposure amount calculation unit 44, and the average density calculation unit 42 is omitted and the exposure amount calculation unit is omitted. At 44, the exposure amount may be calculated using only the photometric data of the three colors output from the face area extraction unit 40.

【0033】次に図2のフローチャートを参照し、顔領
域抽出部40の図示しないCPUで実行される顔領域抽
出処理を説明する。ステップ100では3×3マトリク
ス回路38からの画像データの取込みを行う。
Next, the face area extraction processing executed by the CPU (not shown) of the face area extraction unit 40 will be described with reference to the flowchart of FIG. In step 100, the image data from the 3 × 3 matrix circuit 38 is fetched.

【0034】ステップ102では、原画像を複数の領域
に分割する方法の一例として、画像データを所定のしき
い値で2値化する。以下、ポジ画像の例で説明する。こ
の2値化により、原画像は、しきい値よりも高い濃度の
画素で各々構成される領域(以下、この領域を「黒領
域」と称する)と、しきい値以下の濃度の画素で各々構
成される領域(以下、この領域を「白領域」と称する)
とに分割される。これにより、一例として図8(A)に
示す原画像では、図8(B)に示すように原画像中の人
物の頭髪部に相当する黒領域50を含む多数の黒領域が
抽出されることになる。更にステップ102では、分割
された複数の黒領域及び白領域の各々を識別するため
に、各領域に対してナンバリングを行う。
In step 102, the image data is binarized with a predetermined threshold value as an example of a method of dividing the original image into a plurality of regions. Hereinafter, an example of a positive image will be described. Due to this binarization, the original image has an area composed of pixels each having a density higher than the threshold value (hereinafter, this area is referred to as a “black area”) and each pixel having a density lower than the threshold value. Area composed (hereinafter, this area is referred to as "white area")
Is divided into and As a result, as an example, in the original image shown in FIG. 8A, a large number of black areas including the black area 50 corresponding to the hair portion of the person in the original image is extracted as shown in FIG. 8B. become. Further, in step 102, in order to identify each of the plurality of divided black areas and white areas, numbering is performed on each area.

【0035】ステップ104では非人物領域判定処理を
行う。この非人物領域判定処理について図3のフローチ
ャートを参照して説明する。ステップ130では、図2
のフローチャートのステップ102で2値化によって抽
出された黒領域及び白領域の各々に対し、輪郭の直線部
分を各々検出し、ステップ132では、輪郭に占める直
線部分の比率を各領域毎に演算する。ステップ134で
は前記比率が所定値以上の領域が有るか否か判定する。
輪郭に占める直線部分の比率が所定値以上の領域は、人
工物を表している領域である確率が高く、人物に相当す
る領域である確率は低いと判断できる。このため、ステ
ップ134の判定が肯定された場合には、ステップ13
6で直線部分の比率が所定値以上の領域を、後述する人
物の頭部の輪郭を表す領域の判定対象から除外し(これ
により、該領域が第1の形状パターンの探索対象から除
外される)、ステップ138へ移行する。
In step 104, a non-human area determination process is performed. This non-personal area determination process will be described with reference to the flowchart in FIG. In step 130, FIG.
In the step 102 of the flowchart of FIG. 2, the straight line portion of the contour is detected for each of the black region and the white region extracted by binarization, and in step 132, the ratio of the straight line portion in the contour is calculated for each region. . In step 134, it is determined whether or not there is a region where the ratio is equal to or greater than a predetermined value.
It can be determined that a region in which the ratio of the straight line portion occupying the contour is equal to or greater than a predetermined value has a high probability of being a region representing an artifact and a low probability of being a region corresponding to a person. Therefore, if the determination in step 134 is affirmative, step 13
An area in which the ratio of the straight line portion is equal to or greater than a predetermined value in 6 is excluded from the determination target of the area representing the contour of the head of the person described later (thus, the area is excluded from the search target of the first shape pattern). ), And proceeds to step 138.

【0036】ステップ138では、各領域に対し、各領
域における画像左右方向中心部付近に、画像の上下方向
に沿って延びる線対称軸を設定し、ステップ140では
上記で設定した線対称軸に関する線対称性類似度を各領
域毎に演算する。なお、線対称性類似度の演算方法につ
いては後述する。ステップ142では線対称性類似度が
所定値以下の領域が有るか否か判定する。一般に人体
は、人体の左右を分割する仮想線に関して略線対称であ
り、線対称性類似度が所定値以下の領域は人物に相当す
る領域である確率は低いと判断できる。このため、ステ
ップ142の判定が肯定された場合には、ステップ14
4で線対称性類似度が所定値以下の領域を人物の頭部の
輪郭を表す領域の判定対象から除外し、ステップ146
へ移行する。
In step 138, a line symmetry axis extending along the vertical direction of the image is set in the vicinity of the center of the image in the left-right direction in each region, and in step 140, a line relating to the line symmetry axis set above is set. The symmetry similarity is calculated for each area. The method of calculating the line symmetry similarity will be described later. In step 142, it is determined whether or not there is a region whose line symmetry similarity is equal to or lower than a predetermined value. Generally, a human body is substantially line-symmetric with respect to an imaginary line that divides the left and right of the human body, and it can be determined that a region having a line symmetry similarity of a predetermined value or less is unlikely to be a region corresponding to a person. Therefore, if the determination in step 142 is affirmative, step 14
In step 4, the area having the line symmetry similarity less than or equal to the predetermined value is excluded from the determination target of the area representing the contour of the head of the person.
Move to.

【0037】ステップ146では輪郭に占める画像外縁
との接触率を各領域毎に演算し、ステップ148では接
触率が所定値以上の領域が有るか否か判定する。前記接
触率が所定値以上の領域は画像の周縁部に位置している
と判断できるが、一般に人物は画像の略中央部に位置し
ている確率が高いので、接触率が所定値以上の領域が人
物に相当する領域である確率は低いと判断できる。この
ため、ステップ148の判定が肯定された場合には、ス
テップ150で画像外縁との接触率が所定値以上の領域
を人物の頭部の輪郭を表す領域の判定対象から除外し、
ステップ152へ移行する。
In step 146, the contact rate of the contour with the image outer edge is calculated for each area, and in step 148, it is determined whether or not there is an area having a contact rate of a predetermined value or more. Although it can be determined that the area where the contact rate is equal to or higher than the predetermined value is located in the peripheral portion of the image, in general, the probability that the person is located in the substantially central portion of the image is high, and thus the area where the contact rate is equal to or higher than the predetermined value. It can be determined that there is a low probability that the area corresponds to a person. Therefore, when the determination in step 148 is affirmative, the region in which the contact rate with the image outer edge is equal to or more than the predetermined value is excluded from the determination target of the region representing the contour of the head of the person in step 150,
The process proceeds to step 152.

【0038】ステップ152では各領域の内部の濃度の
コントラスト(最大濃度値と最小濃度値との差)を演算
し、ステップ154で濃度コントラストが所定値以下の
領域が有るか否か判定する。領域内の濃度のコントラス
トが所定値以下の場合には、表面が平滑、或いは凹凸の
少ない物体を表している領域である可能性が高く、人物
に相当する領域である確率は低い。このため、ステップ
154の判定が肯定された場合には、ステップ156で
内部の濃度コントラストが所定値以下の領域を人物の頭
部の輪郭を表す領域の判定対象から除外し、ステップ1
58へ移行する。
In step 152, the contrast of the density inside each area (difference between the maximum density value and the minimum density value) is calculated, and in step 154, it is determined whether or not there is an area where the density contrast is below a predetermined value. When the contrast of the density in the area is less than or equal to a predetermined value, there is a high possibility that the surface represents an object whose surface is smooth or has few irregularities, and the probability that the area corresponds to a person is low. Therefore, if the determination in step 154 is affirmative, in step 156, the region where the internal density contrast is equal to or less than the predetermined value is excluded from the determination target of the region representing the contour of the head of the person, and step 1
Move to 58.

【0039】ステップ158では、各領域の各画素毎の
濃度値を各々異なる複数の方向(例えば画像の左右方
向、上下方向、及び左右方向に対して±45°傾斜した方
向)に沿って微分し、ステップ160で複数の方向に沿
った微分値の少なくとも何れかが規則的に変化している
領域が有るか否か判定する。上記判定は、濃度が所定の
パターンで変化している領域や、濃度が所定の変化パタ
ーンを繰り返している領域に対して肯定される。このよ
うな領域は人物に相当する領域である確率は低いと判断
できるので、ステップ160の判定が肯定された場合に
は、ステップ162で微分値が規則的に変化している領
域を人物の頭部の輪郭を表す領域の判定対象から除外す
る。以上で非人物領域判定処理を終了し、図2のフロー
チャートのステップ106へ移行する。
In step 158, the density value of each pixel in each area is differentiated along a plurality of different directions (for example, the horizontal direction of the image, the vertical direction, and the direction inclined by ± 45 ° with respect to the horizontal direction). In step 160, it is determined whether or not there is a region in which at least one of the differential values along a plurality of directions changes regularly. The above determination is affirmed for the region where the density changes in a predetermined pattern or the region where the density repeats the predetermined change pattern. Since it is possible to determine that such a region has a low probability of being a region corresponding to a person, if the determination in step 160 is positive, the region in which the differential value regularly changes in step 162 is determined to be the person's head. Exclude from the judgment target of the area representing the contour of the part. As described above, the non-personal area determination process is completed, and the process proceeds to step 106 in the flowchart of FIG.

【0040】次のステップ106では頭部抽出による顔
候補領域設定処理を行う。この処理は、人物の第1の部
分としての頭部に特有の形状パターン(第1の形状パタ
ーン)として、人物の頭部の輪郭を表す形状パターンを
探索し顔候補領域を設定するものであり、以下、図4の
フローチャートを参照して説明する。
In the next step 106, face candidate area setting processing by head extraction is performed. This processing searches for a shape pattern representing the contour of the head of the person as a shape pattern (first shape pattern) peculiar to the head as the first part of the person, and sets a face candidate area. Hereinafter, description will be made with reference to the flowchart of FIG.

【0041】ステップ172では先に説明した2値化に
よって抽出された複数の黒領域のうち、先に説明した非
人物領域除外処理によって除外されていない黒領域の1
つを取り出す。ステップ174では取り出した黒領域の
輪郭をトレースし、輪郭の曲率を演算する。例えば図8
(A)に示す原画像に対して2値化を行うことによって
黒領域が多数抽出され、このうち図8(B)に示すよう
な黒領域50を取り出したとすると、輪郭のトレースは
図8(B)に示すように時計回りに行うことができる。
また曲率の演算は、図8(C)に示すように、所定長さ
で前記トレース方向に略沿った向きでかつ始点及び終点
が黒領域の輪郭に接しているベクトルを順に設定し(図
8(C)ではベクトルP1P0とベクトルP0P2)、
隣合うベクトルの内積により、曲率としてのθを演算す
ることができる。また、θの向き(符号の正負)はベク
トルの外積より求めることができる。
In step 172, one of the black areas extracted by the above-described binarization that has not been excluded by the non-human area exclusion processing described above is selected.
Take out one. In step 174, the contour of the extracted black area is traced and the curvature of the contour is calculated. For example, in FIG.
A large number of black regions are extracted by binarizing the original image shown in FIG. 8A. If a black region 50 as shown in FIG. 8B is taken out, the contour trace is shown in FIG. It can be done clockwise as shown in B).
Further, as shown in FIG. 8C, the curvature is calculated by sequentially setting a vector having a predetermined length, a direction substantially along the tracing direction, and a start point and an end point of which are in contact with the contour of the black region (see FIG. 8). In (C), vector P1P0 and vector P0P2),
The curvature θ can be calculated from the inner product of adjacent vectors. The direction of θ (the sign of the sign) can be obtained from the cross product of the vectors.

【0042】このとき、トレースの進行方向に対し、黒
領域の輪郭が右にカーブしているときには負の値、左に
カーブしているときには正の値となるように、角度演算
式を設定するものとする。例えば図8(C)には黒領域
の輪郭のうち、トレースの進行方向に対して右にカーブ
している部分を示しており、θは負の値となる。
At this time, the angle calculation expression is set so that the contour of the black region has a negative value when the contour of the black region curves to the right and a positive value when the contour of the black region curves to the left with respect to the traveling direction of the trace. I shall. For example, FIG. 8C shows a portion of the contour of the black region that curves to the right with respect to the traveling direction of the trace, and θ has a negative value.

【0043】なお、ベクトルの長さは固定としてもよい
し、黒領域の輪郭の周囲長に応じて変更するようにして
もよい。また、曲率の演算を複数回行うと共に、各回に
おいて長さを段階的に変更するようにしてもよい。
The length of the vector may be fixed or may be changed according to the peripheral length of the outline of the black area. Further, the curvature may be calculated a plurality of times, and the length may be changed stepwise at each time.

【0044】次のステップ176では、上記で演算され
た黒領域の輪郭の曲率に基づいて、人物の頭部の輪郭を
表す形状パターンとして、輪郭に、人物の頭部と顔との
境界に相当すると推定される凹部、及び人物の頭頂部に
相当すると推定される凸部を備えた黒領域を抽出する。
この凹部及び凸部は、トレース方向と先に求めたθの向
き(符号の正負)に基づいて判断することができる。す
なわち、θの符号が反転している箇所が凹部と凸部との
境界であり、時計回りにトレースしたときにθの符号が
正であれば凹部、負であれば凸部であると判断できる。
これにより、一例として図8(D)に示すように、黒領
域の輪郭における凹部及び凸部を抽出できる。
In the next step 176, based on the curvature of the contour of the black region calculated above, a shape pattern representing the contour of the head of the person corresponds to the contour and the boundary between the head and the face of the person. Then, the black region having the concave portion estimated and the convex portion estimated to correspond to the top of the person's head is extracted.
The concave portion and the convex portion can be determined based on the tracing direction and the previously obtained direction of θ (sign positive / negative). That is, a portion where the sign of θ is reversed is the boundary between the concave portion and the convex portion, and when traced clockwise, it can be determined that the concave portion is a positive portion and the convex portion is a negative θ. .
Thereby, as an example, as shown in FIG. 8D, it is possible to extract the concave portion and the convex portion in the contour of the black region.

【0045】ステップ178では上記で抽出した凹部及
び凸部に対し、各々の特徴量を演算する。本実施例では
凹部及び凸部の特徴量として、以下のように演算した円
曲度を用いる。すなわち、図9(A)に示すように、凹
部又は凸部を構成する曲線の長さをL、凹部又は凸部の
両端点Q1、Q2間の距離をM、両端点Q1、Q2を結
ぶ直線に対する凹部又は凸部の高さをhとし、円曲度と
してL÷M及びh÷Mを演算する。また、凹部及び凸部
の開いた方向へ向かうベクトルとして、方向ベクトルV
を求める。
At step 178, the respective feature quantities are calculated for the concave portion and the convex portion extracted above. In the present embodiment, the circularity calculated as follows is used as the characteristic amount of the concave portion and the convex portion. That is, as shown in FIG. 9A, the length of the curve forming the concave portion or the convex portion is L, the distance between the end points Q1 and Q2 of the concave portion or the convex portion is M, and the straight line connecting the end points Q1 and Q2. Let h be the height of the concave portion or the convex portion with respect to, and calculate L / M and h / M as the degree of circularity. In addition, a direction vector V is used as a vector toward the opening direction of the concave portion and the convex portion.
Ask for.

【0046】ステップ180では上記で演算した特徴量
を用いて、黒領域を人物の頭部(頭髪部)と判断できる
か、すなわち人物の頭部である確度が高いか否か判定す
る。この判定は、黒領域の輪郭から各々所定値以上の輪
郭の凹部及び凸部が各々抽出され、黒領域の輪郭の周囲
長に対する凹部及び凸部の長さの比率が各々所定範囲内
にあり、更に位置及び方向より人物の頭部として整合性
評価が高い場合に肯定される。この整合性評価は、一例
として次のように行うことができる。まず凹部、凸部の
単位での整合性を以下の手順で評価する。
In step 180, it is determined whether the black region can be determined to be the person's head (hair portion), that is, the probability of being the person's head is high, using the feature amount calculated above. In this determination, the concave portion and the convex portion of the contour of the predetermined value or more are respectively extracted from the contour of the black area, and the ratio of the length of the concave portion and the convex portion to the peripheral length of the contour of the black area is within the predetermined range, respectively. Further, it is affirmed when the consistency evaluation is higher as the person's head than the position and direction. This consistency evaluation can be performed as follows as an example. First, the conformity in units of concave portions and convex portions is evaluated by the following procedure.

【0047】 凹部又は凸部の曲線上の任意の3点
(例えば両端点と曲線の中央の点、但し同一直線上にな
い3点)を選択し、選択した3点を各々通る円を仮定
し、該円の中心点を求める。
Any three points on the curve of the concave or convex portion (for example, both end points and the center point of the curve, but not on the same straight line) are selected, and a circle passing through each of the selected three points is assumed. , Find the center point of the circle.

【0048】 凹部又は凸部の曲線を構成する全画素
と、前記円の中心点と、の距離を各々求め、距離のばら
つきが所定値以下の曲線を整合性があると評価する。な
お、ばらつきが所定値よりも大きい場合には評価対象か
ら除外するか、曲率が大きくなっている部分で前記曲線
を更に分割して再度処理を行う。
The distances between all the pixels that form the concave or convex curve and the center point of the circle are obtained, and the curves whose distance variation is equal to or less than a predetermined value are evaluated as matching. If the variation is larger than a predetermined value, it is excluded from the evaluation target, or the curve is further divided at a portion having a large curvature and the processing is performed again.

【0049】次に凹部と凸部とを含めての整合性を以下
のように評価する。 凹部及び凸部の各曲線毎に求めた前記円の中心点の
重心を用い、総合的な中心点及び総合的な中心エリア
(各曲線の長さの平均に応じて定めた半径の円形のエリ
ア、図9(B)に破線で示すエリア)を設定する。そし
て各曲線毎に求めた前記中心点が総合的な中心エリア内
に収まっているか、又は各曲線の中心軸(方向ベクトル
V又はその延長線)が前記中心エリア内に収束している
場合に、人物の頭部としての整合性が高いと評価する。
Next, the conformity including the concave portion and the convex portion is evaluated as follows. By using the center of gravity of the center point of the circle obtained for each curve of the concave and convex parts, a comprehensive center point and a comprehensive center area (a circular area with a radius determined according to the average of the lengths of the curves) , The area indicated by the broken line in FIG. 9B) is set. When the center point obtained for each curve is within the comprehensive center area, or when the center axis of each curve (direction vector V or its extension line) is within the center area, It is evaluated that the matching as a person's head is high.

【0050】また、上記の評価に代えて、先のと同
様にして、凹部及び凸部の曲線を構成する全画素と、前
記円の中心点と、の距離のばらつきが各々所定値以下の
場合に、人物の頭部としての整合性が高いと評価する。
Further, instead of the above evaluation, in the same manner as above, when the variation in the distances between all the pixels forming the curved lines of the concave and convex portions and the center point of the circle is less than a predetermined value. In addition, it is evaluated that the matching as a person's head is high.

【0051】そして、ステップ180の判定が肯定され
た場合には、人物の頭髪部と顔との境界部分では、頭髪
部が凹の形状となっている人物が殆どであることから、
ステップ182において、黒領域の輪郭の凹部の大き
さ、及びその中心位置を基準とし、凹部に内接する楕円
形状の領域を顔候補領域(人物の顔に相当すると推定さ
れる領域)として設定する。ステップ182を実行した
後はステップ186に移行する。また、ステップ180
の判定が否定された場合には、何ら処理を行うことなく
ステップ186へ移行する。
When the determination in step 180 is affirmative, most of the person has a concave hair portion at the boundary between the hair portion and the face of the person.
In step 182, an elliptical area inscribed in the recess is set as a face candidate area (area estimated to correspond to a person's face) based on the size of the recess of the outline of the black area and the center position thereof. After executing step 182, the process moves to step 186. Also, step 180
If the determination is negative, the process proceeds to step 186 without performing any processing.

【0052】ステップ186では、2値化によって抽出
された全ての黒領域について上記処理を行ったか否か判
定する。ステップ186の判定が否定された場合にはス
テップ172に戻り、ステップ172〜186を繰り返
す。ステップ186の判定が肯定されると頭部抽出によ
る顔候補領域設定処理を終了し、図2のフローチャート
のステップ108に移行する。
In step 186, it is determined whether the above process has been performed for all the black areas extracted by binarization. If the determination in step 186 is negative, the process returns to step 172, and steps 172 to 186 are repeated. When the determination in step 186 is affirmative, the face candidate area setting process by head extraction is ended, and the process proceeds to step 108 in the flowchart of FIG.

【0053】ステップ108では顔輪郭による整合性判
定処理を行う。この処理は、人物の第2の部分としての
顔に特有の形状パターン(第2の形状パターン)とし
て、人物の顔の輪郭を表す形状パターンを探索し、人物
の顔に相当する領域である確度が高い顔候補領域を判断
するものであり、以下、図5のフローチャートを参照し
て説明する。
In step 108, a matching determination process based on the face contour is performed. This processing searches for a shape pattern that represents the contour of the person's face as a shape pattern (second shape pattern) peculiar to the face as the second part of the person, and determines the probability that the area corresponds to the person's face. Is used to determine a face candidate area having a high score, which will be described below with reference to the flowchart in FIG.

【0054】ステップ190では、先に説明した頭部抽
出による顔候補領域設定処理によって設定された顔候補
領域の1つを取り出す。次のステップ192では前記取
り出した顔候補領域の大きさ、向き及び人物の顔と第2
の部分(顔の輪郭)との位置関係に応じて、顔の輪郭を
表す形状パターンを探索する探索範囲を設定する。一例
として、取り出した顔候補領域が図10(A)に破線で
囲んだ範囲であった場合には、この顔候補領域に対し顔
の輪郭(ここでは顔の側部の輪郭)を表す形状パターン
が存在すると推定される、図10(A)にハッチングで
示す範囲を探索範囲として設定する。
In step 190, one of the face candidate areas set by the face candidate area setting process by head extraction described above is taken out. In the next step 192, the size and orientation of the extracted face candidate area and the face of the person
The search range for searching the shape pattern representing the face contour is set according to the positional relationship with the portion (face contour). As an example, when the extracted face candidate area is in a range surrounded by a broken line in FIG. 10A, a shape pattern representing the contour of the face (here, the side contour of the face) with respect to this face candidate area. The range indicated by hatching in FIG. 10A, which is estimated to exist, is set as the search range.

【0055】次のステップ194では、2値化によって
抽出された多数の領域(黒領域及び白領域)のうち前記
探索範囲内に存在する領域に対し、先に説明した図4の
フローチャートのステップ174、176と同様にし
て、各領域の輪郭をトレースし、輪郭の曲率を演算して
凹部及び凸部を抽出する。これにより、例えば図8
(A)に示す原画像については、図10(A)に示す探
索範囲内に存在する凹部及び凸部として、図10(B)
に、として示す凹部、凸部を含む、多数の凹部及び
凸部が抽出されることになる。
In the next step 194, among the many areas (black area and white area) extracted by the binarization, the areas existing in the search range are processed in step 174 of the flowchart of FIG. 4 described above. Similarly to 176, the contour of each area is traced, the curvature of the contour is calculated, and the concave portion and the convex portion are extracted. As a result, for example, FIG.
For the original image shown in FIG. 10A, the concave and convex portions existing within the search range shown in FIG.
In addition, a large number of concave portions and convex portions including the concave portions and convex portions indicated by are extracted.

【0056】なお、凹部及び凸部を抽出した後に、凹部
又は凸部として抽出した曲線のうち長さの長い曲線に優
先的に着目し、曲率(角度θ)が所定範囲内に収まるよ
うに、或いは円曲度が所定値以下となるように、或いは
曲線の法線方向の角度の大まかな分類により、前記曲線
を更に分割するようにしてもよい。例えば図10(C)
において曲線と曲線が何れも探索範囲内にあり、か
つこれらが連続した曲線として抽出された場合、これら
の円曲度が大であることから2本の曲線に分割する。な
お、以下では上記のようにして抽出された各領域の輪郭
を分割して得られた曲線を総称して「ライン」という。
After extracting the concave portions and the convex portions, priority is given to a curve having a long length among the curves extracted as the concave portions or the convex portions so that the curvature (angle θ) falls within a predetermined range. Alternatively, the curve may be further divided so that the degree of curvature is equal to or less than a predetermined value, or the angle of the curve in the normal direction is roughly classified. For example, FIG. 10 (C)
In the case where both the curve and the curve are within the search range and they are extracted as a continuous curve, they are divided into two curves because their circularity is large. In the following, the curves obtained by dividing the contours of the respective areas extracted as described above are collectively referred to as "lines".

【0057】ステップ196では、人物の顔の輪郭を表
す形状パターンとして、ステップ194で抽出された多
数の凹部、凸部(ライン)の中から、人物の顔の側部に
対応すると推定されるラインの対、すなわち顔輪郭の候
補となり得るラインの対を全て抽出する。具体的には、
上記で抽出されたラインのうち、互いの方向ベクトルV
が向きあっており、互いの方向ベクトルV(又はその延
長線)の交差角度の大きさが所定値以内であり、かつ長
さ及び円曲度の類似度が所定値以上のラインの対を、顔
輪郭の候補となり得るラインの対として全て抽出する。
例えば、図10に示す例では、ステップ194で抽出さ
れた多数のラインの中から、顔輪郭の候補となり得るラ
イン対としてラインとラインの対、等が抽出され
る。なお、V2、V4は各ラインの方向ベクトルであ
る。
In step 196, as the shape pattern representing the contour of the human face, a line estimated to correspond to the side part of the human face is selected from the large number of concave portions and convex portions (lines) extracted in step 194. , I.e., all pairs of lines that can be candidates for face contour are extracted. In particular,
Among the lines extracted above, the direction vector V of each other
Are facing each other, the magnitude of the intersection angle of the direction vectors V (or their extension lines) with each other is within a predetermined value, and the similarity of the length and the degree of circularity is a predetermined value or more. All are extracted as pairs of lines that can be candidates for face contours.
For example, in the example shown in FIG. 10, line-to-line pairs and the like are extracted from the many lines extracted in step 194 as line pairs that can be candidates for the face contour. Note that V2 and V4 are direction vectors of each line.

【0058】次のステップ198では、顔輪郭の候補と
なり得るラインの対があったか否か判定する。探索範囲
内に上述した条件に沿ったラインが探索範囲内から抽出
された場合には、ステップ198の判定が肯定され、ス
テップ200へ移行する。
In the next step 198, it is determined whether or not there is a pair of lines that can be candidates for the face contour. When a line that meets the above-described conditions is extracted from the search range within the search range, the determination at step 198 is affirmative and the process proceeds to step 200.

【0059】ステップ200では、ステップ196で抽
出された全てのライン対に対し、図10(D)に示すよ
うにライン対の間に線対称軸を設定し、次のステップ2
02でライン対の線対称性類似度を各ライン対毎に判定
する。この線対称性類似度の判定は、まず図10(D)
に示すように、線対称軸に平行な方向に沿った両ライン
の長さをv、線対称軸に直交する方向に沿った両ライン
の間隔をhとし、縦横比v/hが人物の顔の縦横比に対
応する所定範囲内の値であるか判定する。次に図11
(A)に示すように、各ラインにマッチング用拡張エリ
アを設定し(ラインを中心に膨張させる処理等)、ライ
ン対の一方に対し、線対称軸に関して対称な曲線エリア
パターンを求め(図ではラインと対称なライン
’)、求めた曲線エリアパターンと他方のライン拡張
エリアパターンとの類似度を判定する。
In step 200, for all the line pairs extracted in step 196, a line symmetry axis is set between the line pairs as shown in FIG.
At 02, the line symmetry similarity of the line pair is determined for each line pair. The determination of the line symmetry similarity is first performed in FIG.
As shown in, the length of both lines along the direction parallel to the axis of line symmetry is v, the interval between both lines along the direction orthogonal to the axis of line symmetry is h, and the aspect ratio v / h is the face of the person. It is determined whether the value is within a predetermined range corresponding to the aspect ratio of. Next, FIG.
As shown in (A), a matching expansion area is set for each line (such as a process of expanding around the line), and a curved area pattern symmetric with respect to the line symmetry axis is obtained for one of the line pairs (in the figure, The line 'which is symmetrical to the line'), the similarity between the obtained curved area pattern and the other line extended area pattern is determined.

【0060】類似度の判定方法としては、例えば、マッ
チングを行うエリアパターン同士の対応する位置に存在
する画素データ間の差分絶対値又は差分2乗値の累積値
を演算し、この累積値が小であるほどエリア間類似度を
大と判定することができる。また各画素のデータとして
は、画像データそのもの、2値化データ、画像データを
微分することにより得られたデータ等を用いることがで
きる。
As a method of determining the degree of similarity, for example, the cumulative value of the difference absolute value or the squared difference value between the pixel data existing at corresponding positions of the area patterns to be matched is calculated, and this cumulative value is small. It can be determined that the similarity between areas is larger as As the data of each pixel, the image data itself, the binarized data, the data obtained by differentiating the image data, or the like can be used.

【0061】更に、次のステップ204では、各ライン
対を人物の顔の両側部に対応するラインであると仮定し
たときに、頭部との境界に対応する位置に、方向ベクト
ルが垂直に近いラインが存在しているか探索する。例え
ば先に説明したラインとラインの対に対しては、頭
部との境界に対応する位置として図11(B)に示す範
囲52Aを探索し、この範囲52A内に存在する方向ベ
クトルが垂直に近いラインとしてラインが抽出される
ことになる。
Further, in the next step 204, when it is assumed that each line pair is a line corresponding to both sides of a person's face, the direction vector is nearly vertical to the position corresponding to the boundary with the head. Search for the existence of the line. For example, with respect to the line and the pair of lines described above, a range 52A shown in FIG. 11B is searched for as a position corresponding to the boundary with the head, and the direction vector existing in this range 52A becomes vertical. A line will be extracted as a close line.

【0062】次のステップ206では前述の線対称性類
似度の判定結果、及び頭部との境界に対応するラインの
有無に基づいて、各ライン対が人物の顔の輪郭を表すラ
イン対である確度を判定し、ステップ196で抽出した
各ライン対のうち顔の輪郭に対応するライン対と判断で
きるライン対が有るか否か判定する。ステップ206の
判定が否定された場合には、ステップ208へ移行す
る。また、ステップ206の判定が肯定された場合に
は、人物の顔の輪郭を表すライン対である確度が最も高
いと判定されたライン対を人物の顔の両側部に対応する
ラインであるとみなし、次のステップ207で、ステッ
プ190で取り出した顔候補領域に対し符号が正の重み
係数を付与する。
In the next step 206, each line pair is a line pair representing the contour of the face of the person, based on the above-mentioned determination result of the line symmetry similarity and the presence or absence of the line corresponding to the boundary with the head. The accuracy is determined, and it is determined whether or not there is a line pair that can be determined as a line pair corresponding to the contour of the face among the line pairs extracted in step 196. If the determination in step 206 is negative, the process proceeds to step 208. If the determination in step 206 is affirmative, the line pair that is determined to have the highest accuracy as the line pair representing the outline of the person's face is regarded as the line corresponding to both sides of the person's face. In the next step 207, a weighting coefficient with a positive sign is given to the face candidate area extracted in step 190.

【0063】この重み係数は、人物の顔の輪郭を表すラ
イン対である確度が最も高いと判定されたライン対に基
づき、そのライン対の線対称性類似度が高くなるに従っ
て値が高くなり、そのライン対について頭部との境界に
対応するラインが抽出された場合に値が高くなるように
設定することができる。ステップ207の処理を実行す
るとステップ209に移行する。一方、ステップ198
或いはステップ206の判定が否定された場合には、ス
テップ190で取り出した顔候補領域に対し、人物の顔
の輪郭を表すライン対である確度が高いライン対が検出
されなかった場合であるので、ステップ208で前記顔
候補領域に対して符号が負の重み係数を付与し、ステッ
プ209へ移行する。
This weighting coefficient increases based on the line pair representing the contour of the person's face, which is determined to have the highest accuracy, and the higher the line symmetry similarity of the line pair, the higher the value. The value can be set to be high when a line corresponding to the boundary with the head is extracted for the line pair. When the process of step 207 is executed, the process proceeds to step 209. On the other hand, step 198
Alternatively, if the determination in step 206 is negative, it means that a line pair with high accuracy, which is a line pair representing the contour of the human face, is not detected in the face candidate area extracted in step 190. In step 208, a weighting coefficient having a negative sign is given to the face candidate area, and the process proceeds to step 209.

【0064】ステップ209では、全ての顔候補領域に
対して上記処理を行ったか否か判定する。先に説明した
頭部抽出による顔候補領域設定処理により、顔候補領域
が複数設定されていればステップ209の判定が否定さ
れ、ステップ190の判定が肯定される迄ステップ19
0〜209を繰り返し、全ての顔候補領域に対し、人物
の顔の輪郭を表すライン対である確度が高いライン対の
検出の有無に応じて、符号が正又は負の重み係数を付与
する。この重み係数が、顔候補領域に対する、人物の顔
に相当する領域としての整合性(すなわち確度)に相当
する。ステップ209の判定が肯定されると、顔輪郭に
よる整合性判定処理を終了し、図2のフローチャートの
ステップ110に移行する。
In step 209, it is determined whether the above processing has been performed for all face candidate areas. If a plurality of face candidate areas are set by the face candidate area setting processing by the head extraction described above, the determination in step 209 is negative, and the determination in step 190 is affirmative.
By repeating 0 to 209, a weighting coefficient having a positive or negative sign is given to all the face candidate areas depending on the presence or absence of detection of a line pair representing a contour of a person's face with high accuracy. This weighting factor corresponds to the matching (that is, the accuracy) of the face candidate region as a region corresponding to the human face. If the determination in step 209 is affirmative, the face contour matching determination processing ends, and the process proceeds to step 110 in the flowchart of FIG.

【0065】ステップ110では顔内部構造による整合
性判定処理を行う。この処理は、人物の第2の部分とし
ての顔の内部構造に特有の形状パターン(第2の形状パ
ターン)として、人物の顔の内部に存在する眼部対を表
す形状パターンを探索し、人物の顔に相当する領域であ
る確度が高い顔候補領域を判断するものであり、以下、
図6のフローチャートを参照して説明する。ステップ2
10では顔候補領域の1つを取り出す。次のステップ2
12では眼部対を表す形状パターンの探索範囲を設定す
るが、眼部対は顔の内部に存在しているので、前記取り
出した顔候補領域と一致するように探索範囲を設定す
る。ステップ214では2値化によって抽出された多数
の黒領域のうち、探索範囲内に存在する眼部の候補とな
り得る黒領域、すなわち図12(A)に示すように、長
手方向(長軸方向)と幅方向(短軸方向)の寸法比(長
軸短軸比)が所定範囲内の楕円形状の黒領域を全て抽出
する。ステップ216では、ステップ214で抽出され
た黒領域のうち、眼部対の候補となり得る黒領域対を全
て抽出する。具体的には、ステップ214で抽出した黒
領域の各々の1次慣性モーメントに基づいて長軸方向の
角度を求め、長軸方向の角度の差異が所定範囲内の黒領
域の対を全て抽出する。
In step 110, a matching determination process based on the internal face structure is performed. This processing searches for a shape pattern representing an eye pair present inside the human face as a shape pattern (second shape pattern) peculiar to the internal structure of the face as the second part of the person, Is to determine a face candidate region with high accuracy that is a region corresponding to the face of
This will be described with reference to the flowchart of FIG. Step two
At 10, one of the face candidate areas is taken out. Next step 2
In 12, the search range of the shape pattern representing the eye pair is set. Since the eye pair exists inside the face, the search range is set so as to match the extracted face candidate area. In step 214, out of a large number of black regions extracted by binarization, a black region that can be a candidate for an eye part existing in the search range, that is, as shown in FIG. And ellipse-shaped black regions having a dimensional ratio in the width direction (short axis direction) (long axis / short axis ratio) within a predetermined range are extracted. In step 216, out of the black areas extracted in step 214, all black area pairs that can be candidates for eye part pairs are extracted. Specifically, the angle in the major axis direction is obtained based on the first moment of inertia of each of the black regions extracted in step 214, and all pairs of black regions in which the difference in the major axis direction angle is within a predetermined range are extracted. .

【0066】次のステップ218では、上記抽出処理に
より眼部対の候補となり得る黒領域の対が有ったか否か
判定する。ステップ218の判定が肯定された場合には
ステップ220へ移行し、ステップ216で抽出された
全ての黒領域対に対し、図12(B)に示すように、双
方の黒領域の重心を結ぶ線に垂直な線対称軸を各々設定
し、各黒領域を中心にマッチング用拡張エリアを設定
し、ステップ222で黒領域対の線対称性類似度を判定
する。次のステップ224では、各黒領域対の線対称性
類似度の判定結果に基づいて、各黒領域対が眼部対を表
す黒領域対である確度を判定し、ステップ216で抽出
した黒領域対のうち眼部対に対応する黒領域対と判断で
きる黒領域対が有るか否か判定する。
In the next step 218, it is determined whether or not there is a pair of black areas which can be a candidate eye pair by the above extraction processing. When the determination in step 218 is affirmative, the process proceeds to step 220, and for all the pairs of black areas extracted in step 216, as shown in FIG. 12B, a line connecting the centers of gravity of both black areas. The axis of line symmetry perpendicular to is set, the expansion area for matching is set around each black region, and the line symmetry similarity of the pair of black regions is determined in step 222. In the next step 224, the probability that each black region pair is a black region pair representing an eye pair is determined based on the determination result of the line symmetry similarity of each black region pair, and the black region extracted in step 216 is determined. It is determined whether or not there is a black area pair that can be determined as a black area pair corresponding to the eye pair among the pairs.

【0067】ステップ224の判定が否定された場合に
はステップ227へ移行する。またステップ224の判
定が肯定された場合には、人物の眼部対を表す黒領域対
である確度が最も高いと判定された黒領域対を人物の眼
部対に対応する黒領域対であるとみなし、次のステップ
226で、ステップ210で取り出した顔候補領域に対
し符号が正の重み係数を付与する。この重み係数は、人
物の眼部対を表す黒領域対である確度が最も高いと判定
された黒領域対に基づき、該黒領域対の線対称性類似度
が高くなるに従って値が高くなるように設定することが
できる。ステップ226の処理を実行するとステップ2
28に移行する。
If the determination in step 224 is negative, the process proceeds to step 227. When the determination in step 224 is affirmative, the pair of black areas that is determined to have the highest probability of being the pair of black areas that represent the pair of eyes of the person is the pair of black areas that corresponds to the pair of the eyes of the person. Then, in the next step 226, a weight coefficient having a positive sign is given to the face candidate area extracted in step 210. This weighting coefficient is based on the black area pair that is determined to have the highest probability of being the black area pair that represents the eye pair of a person, and the value increases as the line symmetry similarity of the black area pair increases. Can be set to. When the processing of step 226 is executed, step 2
Move to 28.

【0068】一方、ステップ218又はステップ224
の判定が否定された場合には、ステップ210で取り出
した顔候補領域に対し人物の眼部対を表す黒領域対であ
る確度が高い黒領域対が検出されなかった場合であるの
で、ステップ227で前記顔候補領域に対して符号が負
の重み係数を付与し、ステップ228へ移行する。
On the other hand, step 218 or step 224
If the determination is negative, it means that a black region pair having a high probability of being a black region pair representing a person's eye pair is not detected in the face candidate region extracted in step 210. Then, a weighting coefficient having a negative sign is added to the face candidate area, and the process proceeds to step 228.

【0069】ステップ228では、全ての顔候補領域に
対して上記処理を行ったか否か判定する。顔候補領域が
複数設定されていればステップ228の判定が否定さ
れ、ステップ228の判定が肯定される迄ステップ21
0〜228を繰り返し、全ての顔候補領域に対し、人物
の眼部対を表す黒領域対である確度が高い黒領域対の検
出の有無に応じて、符号が正又は負の重み係数を付与す
る。この重み係数が、各顔候補領域に対する、人物の顔
に相当する領域としての整合性(すなわち確度)に相当
する。ステップ228の判定が肯定されると、顔内部構
造による整合性判定処理を終了し、図2のフローチャー
トのステップ112に移行する。
In step 228, it is determined whether or not the above processing has been performed for all face candidate areas. If a plurality of face candidate areas are set, the determination in step 228 is denied, and the determination in step 228 is affirmative until step 21.
0 to 228 are repeated, and a weighting coefficient having a positive or negative sign is given to all the face candidate areas depending on the presence or absence of detection of a highly accurate black area pair that is a pair of black areas representing a human eye pair. To do. This weighting factor corresponds to the matching (that is, the accuracy) of each face candidate region as a region corresponding to a human face. If the determination in step 228 is affirmative, the consistency determination process based on the internal face structure is terminated, and the process proceeds to step 112 in the flowchart of FIG.

【0070】ステップ112では胴体輪郭による整合性
判定処理を行う。この処理は、人物の第2の部分として
の胴体に特有の形状パターン(第2の形状パターン)と
して、人物の胴体の輪郭(より詳しくは、人物の首から
肩、肩から腕部分又は胴体下部にかけて連続する輪郭)
を表す形状パターンを探索し、人物の顔に相当する領域
である確度が高い顔候補領域を判断するものであり、以
下、図7のフローチャートを参照して説明する。
In step 112, a matching determination process based on the body contour is performed. This processing is performed as a shape pattern (second shape pattern) peculiar to the body as the second part of the person, that is, the outline of the body of the person (more specifically, the neck to shoulder, the shoulder to arm portion, or the lower part of the body of the person). (Continuous contour over)
This is for searching a shape pattern that represents the face pattern and determining a face candidate region having a high degree of accuracy, which is a region corresponding to the face of a person, and will be described below with reference to the flowchart of FIG. 7.

【0071】ステップ230では顔候補領域の1つを取
り出し、ステップ232では前記取り出した顔候補領域
の大きさ、向き及び人物の顔と第2の部分(胴体の輪
郭)との位置関係に応じて、胴体輪郭を表す形状パター
ンの探索範囲を設定する。一例として、取り出した顔候
補領域が図13(A)に破線で囲んだ範囲であった場合
には、この顔候補領域に対し胴体の輪郭(人物の首から
肩、肩から腕部分又は胴体下部にかけて連続する輪郭)
を表す形状パターンが存在すると推定される、図13
(A)にハッチングで示す範囲を探索範囲として設定す
る。
In step 230, one of the face candidate areas is extracted, and in step 232, the size and orientation of the extracted face candidate area and the positional relationship between the face of the person and the second portion (outline of the body) are determined. , The search range of the shape pattern representing the body contour is set. As an example, when the extracted face candidate area is in a range surrounded by a broken line in FIG. 13A, the contour of the body (the person's neck to shoulder, shoulder to arm portion or lower body portion) with respect to this face candidate area. (Continuous contour over)
It is estimated that there is a shape pattern that represents
A hatched range in (A) is set as a search range.

【0072】次のステップ234では、2値化によって
抽出された多数の領域のうち前記探索範囲内に存在する
領域に対し、図4のフローチャートのステップ174、
176と同様にして、各領域の輪郭をトレースし、輪郭
の曲率を演算して凹部及び凸部(ライン)を抽出する。
これにより、例えば図8(A)に示す原画像について
は、図13(A)に示す探索範囲内に存在するラインと
して、図13(B)に〜として示すラインを含む、
多数のラインが抽出されることになる。
In the next step 234, the step 174 of the flowchart of FIG. 4 is performed for the area existing in the search range among the many areas extracted by the binarization.
Similarly to 176, the contour of each area is traced, the curvature of the contour is calculated, and the concave portion and the convex portion (line) are extracted.
Thus, for example, with respect to the original image shown in FIG. 8A, the lines existing in the search range shown in FIG.
Many lines will be extracted.

【0073】ステップ236では、胴体輪郭の片側候補
となり得るラインの組を全て抽出する。具体的には、双
方のラインの端点の距離が近く、かつ双方のラインの交
差する角度が所定範囲内のラインの対を探索し、上記条
件に合致するラインの組を胴体輪郭の片側候補となり得
るラインの組として全て抽出する。例えば図13(B)
に示すようなラインが抽出されていた場合、図13
(C)に示すように、交差する角度が各々所定範囲内
(θ1及びθ2)のラインとの組、ラインとの
組が各々抽出されることになる。また抽出したラインの
組に対しては、双方のラインを延長して連結し、胴体輪
郭の片側候補を生成する。
In step 236, all the sets of lines that can be candidates for one side of the body contour are extracted. Specifically, the distance between the end points of both lines is short, and the angle at which both lines intersect is searched for a pair of lines within a predetermined range, and a set of lines that match the above conditions becomes one side candidate of the body contour. All are extracted as a set of obtained lines. For example, FIG. 13 (B)
When the line as shown in FIG.
As shown in (C), a pair of lines whose intersecting angles are within a predetermined range (θ1 and θ2) and a pair of lines are extracted. For the extracted line set, both lines are extended and connected to generate a one-sided candidate of the body contour.

【0074】ステップ238では、胴体輪郭の片側候補
となり得るラインの組が抽出されたか否か判定する。ス
テップ238の判定が肯定された場合にはステップ24
0へ移行し、上記で生成した胴体輪郭の片側候補に対
し、双方の胴体輪郭の片側候補の凹部が互いに向き合っ
ている対を探索し、上記条件に合致する片側候補の対を
胴体輪郭候補になり得る胴体輪郭の片側候補の対として
全て抽出する。ステップ242では胴体輪郭の候補とな
り得る片側候補の対が有ったか否か判定する。
In step 238, it is determined whether or not a set of lines that can be one side candidate of the body contour has been extracted. If the determination in step 238 is affirmative, step 24
The process proceeds to 0, and for the one-sided candidate body contours generated above, a pair in which the recesses of the one-sided candidate body contours face each other is searched for, and the pair of one-sided candidate that meets the above conditions is set as the body contour candidate. All are extracted as a pair of one-sided candidate body contours. In step 242, it is determined whether or not there is a pair of one-sided candidates that can be candidates for the body contour.

【0075】ステップ242の判定が肯定された場合に
はステップ244へ移行し、ステップ240で抽出され
た全ての胴体輪郭の片側候補の対(胴体輪郭候補)に対
し、図13(C)に示すように線対称軸を各々設定し、
次のステップ246で胴体輪郭候補の線対称性類似度を
判定する。また、人物の首から肩にかけての輪郭に相当
すると推定されるライン(例えば図13(B)のライン
、)について、線対称軸となす角度(例えば図13
(B)のラインの場合のψ1)が所定範囲内か否か判
定する。
When the determination in step 242 is affirmative, the process proceeds to step 244, and FIG. 13C shows the pairs of one-sided candidates (body contour candidates) of all the body contours extracted in step 240. Set each line symmetry axis as follows,
In the next step 246, the line symmetry similarity of the body contour candidate is determined. Further, a line (for example, the line in FIG. 13B) estimated to correspond to the contour of the person's neck and shoulders forms an angle with the line symmetry axis (for example, FIG. 13).
It is determined whether or not ψ1) in the case of the line (B) is within a predetermined range.

【0076】ステップ248では線対称性類似度の判定
結果に基づいて、各胴体輪郭候補が人物の胴体の輪郭を
表すライン対である確度を判定し、ステップ240で抽
出した各胴体輪郭候補のうち、胴体の輪郭に対応するラ
イン対と判断できる胴体輪郭候補が有るか否か判定す
る。ステップ248の判定が肯定された場合には、人物
の胴体の輪郭を表すライン対である確度が最も高いと判
定された胴体輪郭候補を人物の胴体の輪郭に対応するラ
インであるとみなし、次のステップ250で、ステップ
230で取り出した顔候補領域に対し符号が正の重み係
数を付与する。この重み係数は、人物の胴体の輪郭を表
すライン対である確度が最も高いと判定されたライン対
(胴体輪郭候補)に基づき、その胴体輪郭候補の線対称
性類似度が高くなるに従って値が高くなように設定する
ことができる。ステップ250の処理を実行するとステ
ップ254に移行する。
In step 248, the probability that each body contour candidate is a line pair representing the contour of the body of the person is determined based on the determination result of the line symmetry similarity, and among the body contour candidates extracted in step 240. It is determined whether there is a body contour candidate that can be determined as a line pair corresponding to the body contour. When the determination in step 248 is affirmative, the body contour candidate that is the line pair representing the contour of the body of the person and is determined to have the highest accuracy is regarded as the line corresponding to the contour of the body of the person, and the next In step 250, the weighting coefficient having a positive sign is given to the face candidate area extracted in step 230. This weighting factor is based on the line pair (body contour candidate) determined to have the highest accuracy, which is the line pair representing the body contour of the person, and the value increases as the line symmetry similarity of the body contour candidate increases. It can be set higher. When the process of step 250 is executed, the process proceeds to step 254.

【0077】一方、ステップ238或いはステップ24
2或いはステップ248の判定が否定された場合には、
ステップ230で取り出した顔候補領域に対し、人物の
胴体の輪郭を表すライン対である確度が高いライン対が
検出されなかった場合であるので、ステップ252で前
記顔候補領域に対して符号が負の重み係数を付与し、ス
テップ254へ移行する。
On the other hand, step 238 or step 24
2 or if the determination in step 248 is negative,
This is a case where a highly reliable line pair that represents the contour of the body of the person is not detected in the face candidate area extracted in step 230. Therefore, in step 252, the face candidate area has a negative sign. Weighting coefficient is added, and the process proceeds to step 254.

【0078】ステップ254では、全ての顔候補領域に
対して上記処理を行ったか否か判定する。顔候補領域が
複数設定されていればステップ254の判定が否定さ
れ、ステップ254の判定が否定される迄ステップ23
0〜254を繰り返し、全ての顔候補領域に対し、人物
の胴体の輪郭を表すライン対である確度が高いライン対
の検出の有無に応じて、符号が正又は負の重み係数を付
与する。この重み係数が、各顔候補領域に対する、人物
の顔に相当する領域としての整合性(すなわち確度)に
相当する。ステップ254の判定が肯定されると胴体輪
郭による整合性判定処理を終了し、図2のフローチャー
トのステップ118へ移行する。
In step 254, it is determined whether or not the above process has been performed for all face candidate areas. If a plurality of face candidate areas are set, the determination in step 254 is denied, and step 23 is performed until the determination in step 254 is denied.
By repeating 0 to 254, a weighting coefficient having a positive or negative sign is given to all face candidate areas depending on whether or not a highly reliable line pair that is a line pair representing the contour of the body of the person is detected. This weighting factor corresponds to the matching (that is, the accuracy) of each face candidate region as a region corresponding to a human face. If the determination in step 254 is affirmative, the matching determination process based on the body contour is ended, and the process proceeds to step 118 in the flowchart of FIG.

【0079】ステップ118では顔領域の総合判定を行
う。すなわち、ステップ106で設定された各顔候補領
域に対し、ステップ108〜ステップ122で各々付与
された重み係数を積算し(又は各処理で付与された複数
の重み係数を符号の正負毎に分けて乗算した後に加算
し、各顔候補領域の総合的な重み係数を演算する。そし
て、総合的な重み係数が最も高い領域を、人物の顔領域
に相当する領域である確度が最も高い領域として判定す
る。
In step 118, the face area is comprehensively judged. That is, for each face candidate area set in step 106, the weighting factors assigned in steps 108 to 122 are integrated (or a plurality of weighting factors assigned in each process are divided into positive and negative signs). After multiplication, they are added together to calculate the overall weighting factor of each face candidate region, and the region with the highest overall weighting factor is determined as the region with the highest probability of being the face region of the person. To do.

【0080】次のステップ120では、ステップ102
〜118の処理を所定回実行したか否か判定する。ステ
ップ120の判定が否定された場合には、ステップ12
2で各種パラメータ(2値化に用いるしきい値や、輪郭
の曲率を演算するためのベクトルの長さ(図8(C)参
照)等)を変更し、ステップ102以降の処理を再度実
行する。また、ステップ122において、ステップ10
2における画像分割の粗密度を変更するために、各種制
御パラメータを変更するようにしてもよい。ステップ1
02〜118の処理を所定回実行するとステップ120
の判定が肯定され、ステップ124へ移行する。
In the next step 120, step 102
It is determined whether or not the processes of to 118 are executed a predetermined number of times. If the determination in step 120 is negative, step 12
In step 2, various parameters (threshold used for binarization, length of vector for calculating contour curvature (see FIG. 8C), etc.) are changed, and the processes after step 102 are executed again. . In step 122, step 10
Various control parameters may be changed in order to change the coarse density of image division in 2. Step 1
When the processing of 02 to 118 is executed a predetermined number of times, step 120
Is affirmed, the process proceeds to step 124.

【0081】ステップ124では所定回の処理で各々判
定された顔領域及びそれらに各々付与されている重み係
数に基づいて、最終的に人物の顔領域に相当する領域で
ある確度が最も高い領域を先のステップ118と同様に
して最終的に判定する。そして次のステップ126で判
定結果として、最終的に判定した領域のR、G、Bの測
光データを露光量演算部44へ出力し、顔領域抽出処理
を終了する。
In step 124, based on the face areas determined in a predetermined number of times and the weighting factors respectively given to them, the area having the highest accuracy, which is the area corresponding to the human face area, is finally determined. A final determination is made in the same manner as in step 118 above. Then, in the next step 126, as the determination result, the R, G, and B photometric data of the finally determined region is output to the exposure amount calculation unit 44, and the face region extraction processing is ended.

【0082】上述した顔領域抽出処理では、人物の顔に
相当すると推定される顔候補領域を、該領域の濃度や色
に基づいて判断するものではない。従って、ネガフィル
ム12のフィルム種、光源の種類や逆光か否かの撮影条
件等に応じて前記領域の色バランスが変化したとして
も、顔領域抽出処理の結果がこの影響を受けて変化する
ことはない。また、上述した顔領域抽出処理は原画像が
モノクロ画像であっても適用可能である。更に、上述し
た顔領域抽出処理のうち、人物の各部に特有の形状パタ
ーンを検出する処理(図2のフローチャートのステップ
106〜112の処理の一部)は、基本的には各々凹部
及び凸部の抽出と、線対称性類似度の判定と、で構成さ
れる。従って、これを利用してソフトウエア、ハードウ
エアの共通化を図れば、ソフトウエアの簡素化、ハード
ウエア構成の簡素化を実現することも可能となる。
In the face area extraction processing described above, the face candidate area estimated to correspond to the face of a person is not judged based on the density or color of the area. Therefore, even if the color balance of the area changes according to the film type of the negative film 12, the type of light source, the shooting condition such as whether or not there is a backlight, the result of the face area extraction process may change due to this influence. There is no. The face area extraction process described above can be applied even if the original image is a monochrome image. Further, of the face area extraction processing described above, the processing of detecting a shape pattern peculiar to each part of a person (a part of the processing of steps 106 to 112 in the flowchart of FIG. 2) is basically a concave portion and a convex portion, respectively. And extraction of line symmetry similarity. Therefore, if software and hardware are shared by utilizing this, it is possible to realize simplification of software and simplification of hardware configuration.

【0083】また、上記では非人物領域除外処理を行う
ことにより処理対象範囲を限定し、更に、人物の頭部の
輪郭を表す形状パターンに基づいて顔候補領域を設定し
た後は、該顔候補領域に応じて設定した探索範囲内に存
在する、顔の輪郭を表す形状パターン、顔の内部構造を
表す形状パターン、胴体の輪郭を表す形状パターンを探
索するので、各形状パターンに対し画像全体を対象とし
て探索を行う場合と比較して、処理時間を短縮すること
ができ、人物の顔に相当する領域である確度の高い領域
を高速で抽出することができる。
Further, in the above, the processing target range is limited by performing the non-human region exclusion process, and after the face candidate region is set based on the shape pattern representing the contour of the head of the person, the face candidate is removed. Since the shape pattern representing the contour of the face, the shape pattern representing the internal structure of the face, and the shape pattern representing the contour of the body existing within the search range set according to the area are searched, the entire image is extracted for each shape pattern. The processing time can be shortened as compared with the case where a search is performed as a target, and a highly accurate region corresponding to a human face can be extracted at high speed.

【0084】一方、露光量演算部44では、顔領域抽出
部40で上記のようにして抽出されたR、G、Bの測光
データと、平均濃度演算部42で演算された1コマの画
面平均濃度Di (i=R、G、Bの何れか)と、を用い
て以下の式に従って適正露光量Ei を演算し、ドライバ
46に出力する。ドライバ46は適正露光量Ei に基づ
いて、適正露光量に対応する位置に色補正フィルタ18
を移動させる。
On the other hand, in the exposure amount calculation section 44, the R, G and B photometric data extracted by the face area extraction section 40 as described above and the screen average of one frame calculated by the average density calculation section 42 are calculated. Using the density D i (i = one of R, G, and B) and the appropriate exposure amount E i are calculated according to the following equation, and output to the driver 46. Based on the proper exposure amount E i , the driver 46 sets the color correction filter 18 at a position corresponding to the proper exposure amount.
To move.

【0085】 logEi =LMi ・CSi ・(DNi −Di )+PBi +LBi +MBi +NBi +K1 +K2 …(1) 但し、各記号の意味は次の通りである。LogE i = LM i · CS i · (DN i −D i ) + PB i + LB i + MB i + NB i + K 1 + K 2 (1) However, the meanings of the respective symbols are as follows.

【0086】LM:倍率スロープ係数。ネガフィルムの
種類とプリントサイズとで定まる引き伸ばし倍率に応じ
て予め設定されている。
LM: Magnification slope coefficient. It is set in advance according to the enlargement magnification determined by the type of negative film and the print size.

【0087】CS:カラースロープ係数。ネガフィルム
の種類毎に用意されており、アンダ露光用とオーバ露光
用とがある。プリントすべき画像コマの平均濃度が標準
ネガ濃度値に対してアンダかオーバかを判定してアンダ
露光用とオーバ露光用の何れかを選択する。
CS: Color slope coefficient. It is prepared for each type of negative film, and there are one for underexposure and one for overexposure. It is determined whether the average density of the image frame to be printed is under or over the standard negative density value, and either under exposure or over exposure is selected.

【0088】DN:標準ネガ濃度値。 D :プリントすべき画像コマの濃度値。DN: Standard negative density value. D: Density value of image frame to be printed.

【0089】PB:標準カラーペーパに対する補正バラ
ンス値。カラーペーパの種類に応じて決定される。
PB: Correction balance value for standard color paper. It is determined according to the type of color paper.

【0090】LB:標準焼付レンズに対する補正バラン
ス値。焼付けに用いるレンズの種類に応じて決定され
る。
LB: Correction balance value for standard printing lens. It is determined according to the type of lens used for printing.

【0091】MB:光源光量の変動やペーパ現像性能の
変化に対する補正値(マスタバランス値)。
MB: Correction value (master balance value) for fluctuations in light source light quantity and paper development performance.

【0092】NB:ネガフィルムの特性によって定まる
ネガバランス(カラーバランス)値。
NB: Negative balance (color balance) value determined by the characteristics of the negative film.

【0093】K2 :カラー補正量。 K1 :以下の式で表される濃度補正量。K 2 : Color correction amount. K 1 : A density correction amount represented by the following formula.

【0094】[0094]

【数1】 [Equation 1]

【0095】ここで、Ka、Kbは定数であり、FDは
顔領域平均濃度である。また、上記(8)式の濃度補正
量K1 をフィルム検定装置によって求められた補正値と
し、カラー補正量K2 を次のように顔領域平均濃度を用
いて表してもよい。
Here, Ka and Kb are constants, and FD is the face area average density. Further, the density correction amount K 1 in the above equation (8) may be used as the correction value obtained by the film inspection apparatus, and the color correction amount K 2 may be expressed using the face area average density as follows.

【0096】[0096]

【数2】 [Equation 2]

【0097】但し、Kcは定数である。更に、上記
(1)式の濃度補正量K1 、カラー補正量K2 をフィル
ム検定装置によって求められた補正量とし、(1)式の
プリントコマの平均濃度Di を顔領域の平均濃度FDi
に置き換えて露光量を求めてもよい。
However, Kc is a constant. Further, the density correction amount K 1 and the color correction amount K 2 in the above formula (1) are used as the correction amounts obtained by the film inspection device, and the average density D i of the print frame in the formula (1) is the average density FD of the face area. i
Alternatively, the exposure amount may be calculated.

【0098】なお、上記では原画像の記録媒体としてネ
ガフィルム12を例に説明したが、ポジフィルム等の他
のフィルムや、紙等の各種記録媒体に記録された画像を
原画像として用いることが可能である。また、複写材料
としてカラーペーパを例に説明したが、紙等の他の材料
を適用してもよい。
Although the negative film 12 is described as an example of the recording medium for the original image in the above, an image recorded on another film such as a positive film or various recording media such as paper may be used as the original image. It is possible. Further, although color paper has been described as an example of the copying material, other materials such as paper may be applied.

【0099】また、上記では頭部抽出による顔候補領域
設定処理において、人物の頭部に特有の形状パターンと
して、人物の頭頂部に対応する凸部及び人物の頭部と顔
との境界に対応する凹部を用いていたが、これに限定さ
れるものではない。例えば、頭髪のない頭部、頭髪の濃
度の低い頭部を抽出するためには、2値化以外の方法に
よる領域分割、或いは画像のエッジの検出を行い、頭部
に特有の形状パターンとして凸部のみを用いて頭部を抽
出するようにしてもよい。
Further, in the above, in the face candidate area setting process by head extraction, as the shape pattern peculiar to the head of the person, the convex portion corresponding to the crown of the person and the boundary between the head and the face of the person are corresponded. Although the concave portion is used, the invention is not limited to this. For example, in order to extract a head without hair or a head with low hair density, area division by a method other than binarization or detection of an edge of an image is performed to form a convex shape pattern unique to the head. The head may be extracted using only the part.

【0100】更に、上記では画像を複数の領域に分割す
る方法の一例として2値化を例に説明したが、これに限
定されるものではなく、特開平4-346332号公報に記載さ
れているようにヒストグラムを用いて分割してもよい。
また、画像の各画素毎の濃度値を各々異なる複数の方向
(例えば図14(A)に示すように、画像の左右方向
(0°)、上下方向(90°)、及び左右方向に対して±
45°傾斜した方向)に沿って微分することにより画像の
エッジを検出し、上記実施例で説明したラインに代え
て、このエッジに対して周知の細線化処理を行って得ら
れたエッジの中心線を用いて処理を行うようにしてもよ
い。
Further, although binarization has been described above as an example of a method of dividing an image into a plurality of areas, it is not limited to this and is described in Japanese Patent Laid-Open No. 4-346332. You may divide using a histogram like this.
In addition, the density value of each pixel of the image is different from each other in a plurality of different directions (for example, as shown in FIG. 14A, the horizontal direction (0 °), the vertical direction (90 °), and the horizontal direction of the image). ±
The edge of the image is detected by differentiating along the direction (inclined by 45 °), and instead of the line described in the above embodiment, the center of the edge obtained by performing a known thinning process on this edge. You may make it process using a line.

【0101】なお、上記各方向に沿った微分は、図14
(B)に示す4種類の微分フィルタを各々用いることで
実現でき、画像のエッジの検出は、微分フィルタ出力の
大きさが所定のしきい値よりも大きいときに、着目画素
をエッジであるとみなすことができる。また、エッジ判
定用のしきい値を段階的に変更しながらエッジ抽出処理
を繰り返し実施するようにしてもよい。
The differentiation along each of the above directions is shown in FIG.
This can be realized by using each of the four types of differential filters shown in (B), and the detection of the edge of the image is such that the pixel of interest is an edge when the magnitude of the differential filter output is larger than a predetermined threshold value. Can be considered Further, the edge extraction processing may be repeatedly performed while changing the threshold value for edge determination stepwise.

【0102】また、上記では顔の内部構造を表す形状パ
ターンとして眼部対を用いた場合を例に説明したが、こ
れに限定されるものではなく、鼻、口、眉毛の対等を用
いたり、これらを組み合わせて総合的に顔候補領域を設
定するようにしてもよい。
In the above description, the case where the eye pair is used as the shape pattern representing the internal structure of the face has been described as an example. However, the shape pattern is not limited to this, and a pair of nose, mouth, and eyebrows may be used. You may make it set a face candidate area | region comprehensively combining these.

【0103】更に、上記では胴体輪郭を表す形状パター
ンとして、人物の首から肩、肩から腕部分又は胴体下部
にかけて連続する輪郭に相当するラインの対を抽出する
例を説明したが、これに限定されるものではなく、人物
の首から肩にかけての輪郭に相当するラインの対、及び
人物の肩から腕部分にかけての輪郭に相当するラインの
対を各々別個に検出するようにしてもよい。
Further, in the above description, as the shape pattern representing the body contour, an example of extracting a pair of lines corresponding to the contours continuous from the neck to the shoulder of the person, from the shoulder to the arm portion or the lower part of the body has been described. Instead, the pair of lines corresponding to the contour of the person's neck and shoulder and the pair of lines corresponding to the contour of the person's shoulder and arm may be detected separately.

【0104】また、上記では、第1の形状パターンとし
て人物の頭部の輪郭を表す形状パターンを、第2の形状
パターンとして、人物の顔の輪郭を表す形状パターン、
人物の顔の内部構造を表す形状パターン、及び人物の胴
体構造を表す形状パターンを各々用いた例を説明した
が、これに限定されるものではなく、例えば人物の頭部
の輪郭を表す形状パターンと顔の内部構造を表す形状パ
ターン等のように、第1の形状パターンとして複数の形
状パターンを用いるようにしてもよい。
In the above description, the shape pattern representing the outline of the person's head is used as the first shape pattern, and the shape pattern representing the outline of the person's face is used as the second shape pattern.
Although the example using the shape pattern representing the internal structure of the person's face and the shape pattern representing the body structure of the person has been described, the present invention is not limited to this. For example, a shape pattern representing the contour of the head of the person. A plurality of shape patterns may be used as the first shape pattern, such as a shape pattern representing the internal structure of the face.

【0105】以上本発明の実施例について説明したが、
上記実施例は特許請求の範囲に記載した技術的事項以外
に、以下に記載するような技術的事項の実施態様を含ん
でいる。
The embodiments of the present invention have been described above.
In addition to the technical matters described in the scope of claims, the above-described embodiments include embodiments of the technical matters described below.

【0106】(1)第1の形状パターン又は第2の形状
パターンとしての人物の頭部の輪郭を表す形状パターン
の探索は、請求項3記載の発明により分割された領域の
輪郭、又は請求項4記載の発明により求められたエッジ
の中心線より凹部と凸部を検出し、検出した1つ以上の
凹部又は凸部の各々の特徴量(円曲度、位置、大きさ、
方向)に基づいて、前記凹部又は凸部が人物の頭部の輪
郭に対応しているか否かを判断することで行うことを特
徴とする露光量決定方法。
(1) The search for the shape pattern representing the contour of the head of the person as the first shape pattern or the second shape pattern is performed by the contour of the area divided by the invention according to claim 3, or According to the invention described in 4, the concave portion and the convex portion are detected from the center line of the edge, and the feature amount (circularity, position, size,
The exposure amount determining method is performed by determining whether or not the concave portion or the convex portion corresponds to the contour of the head of the person based on the (direction).

【0107】(2)第1の形状パターン又は第2の形状
パターンとしての人物の顔の輪郭を表す形状パターンの
探索は、請求項3記載の発明により分割された領域の輪
郭、又は請求項4記載の発明により求められたエッジの
中心線より凹部と凸部を検出し、検出した2つ以上の凹
部又は凸部の各々の特徴量(円曲度、位置、大きさ、方
向)の関係に基づいて、線対称の度合いにより前記2つ
以上の凹部又は凸部が人物の顔の輪郭に対応しているか
否かを判断することで行うことを特徴とする露光量決定
方法。
(2) The search for the shape pattern representing the contour of the person's face as the first shape pattern or the second shape pattern is performed by the contour of the area divided by the invention according to claim 3 or claim 4. The relationship between the feature amounts (circularity, position, size, direction) of each of the two or more recesses or protrusions detected by detecting the recesses and protrusions from the center line of the edge obtained by the described invention Based on the degree of line symmetry, it is determined whether or not the two or more concave portions or convex portions correspond to the contour of the human face based on the degree of line symmetry.

【0108】(3)第1の形状パターン又は第2の形状
パターンとしての、人物の顔構造を表す形状パターンの
うち眼部対を表す形状パターンの探索は、請求項3記載
の発明により分割された領域、又は請求項4記載の発明
により求められたエッジの中心線により分割される領域
のうち楕円形状の領域を抽出し、抽出された複数の楕円
領域の各々の特徴量(形状、濃度)を用いたマッチング
処理により所定値以上の類似度の楕円領域の対を検出
し、検出した楕円領域の対の線対称の度合いにより前記
楕円領域の対が人物の顔の眼部対に対応しているか否か
を判断することで行うことを特徴とする露光量決定方
法。
(3) The search for the shape pattern representing the eye pair among the shape patterns representing the human face structure as the first shape pattern or the second shape pattern is divided by the invention according to claim 3. Area, or an elliptical area of the area divided by the center line of the edge obtained by the invention according to claim 4, and the feature amount (shape, density) of each of the extracted elliptic areas is extracted. Detects a pair of elliptic areas having a similarity of a predetermined value or more by a matching process using, and the pair of elliptic areas corresponds to the eye pair of a human face according to the degree of line symmetry of the detected pair of elliptic areas. A method for determining an exposure amount, which is performed by determining whether or not there is an exposure amount.

【0109】(4)第1の形状パターン又は第2の形状
パターンとしての人物の胴体の輪郭を表す形状パターン
の探索は、請求項3記載の発明により分割された領域の
輪郭、又は請求項4記載の発明により求められたエッジ
の中心線より凹部と凸部を検出し、検出した2つ以上の
凹部又は凸部の各々の特徴量(円曲度、位置、大きさ、
方向)の関係に基づいて、人物の首から肩にかけての輪
郭、及び肩から腕部分又は胴体下部にかけての輪郭に相
当する凹部又は凸部の組を複数検出し、更にその組同士
の線対称の度合いにより人物の胴体の輪郭に対応してい
るかを判断することで行うことを特徴とする露光量決定
方法。
(4) The search for the shape pattern representing the contour of the body of the person as the first shape pattern or the second shape pattern is performed by the contour of the area divided by the invention according to claim 3 or The concave portion and the convex portion are detected from the center line of the edge obtained by the invention described above, and the characteristic amounts (circularity, position, size,
Direction), a plurality of sets of concave portions or convex portions corresponding to the contour from the neck to the shoulder of the person and the contour from the shoulder to the arm portion or the lower part of the body are detected, and further the line symmetry between the pairs is detected. A method of determining an exposure amount, which is performed by determining whether or not it corresponds to the contour of the body of a person based on the degree.

【0110】(5)原画像中の人物に相当する確度の低
い領域として、請求項3記載の発明により分割された領
域、又は請求項4記載の発明により求められたエッジの
中心線により分割される領域のうち、領域の輪郭に含ま
れる直線部分の比率が所定値以上の領域、又は線対称度
が所定値以下の領域、又は凹凸数が所定値以上の領域、
又は画像外縁との接触率が所定値以上の領域、又は内部
の濃度のコントラストが所定値以下の領域、又は内部の
濃度が所定のパターンで変化している、或いは所定の変
化パターンを繰り返している領域を除外することを特徴
とする露光量決定方法。
(5) As a region with low accuracy corresponding to a person in the original image, a region divided by the invention according to claim 3 or a center line of the edge obtained by the invention according to claim 4 is divided. Of the regions, the ratio of the linear portion included in the contour of the region is a predetermined value or more, or the line symmetry degree is a predetermined value or less, or the number of irregularities is a predetermined value or more,
Or, the area where the contact rate with the outer edge of the image is a predetermined value or more, or the area where the contrast of the internal density is a predetermined value or less, or the internal density is changing in a predetermined pattern, or a predetermined change pattern is repeated. A method for determining an exposure amount, which comprises excluding an area.

【0111】[0111]

【発明の効果】以上説明したように請求項1記載の発明
は、原画像中に存在する、人物の第1の部分に特有の第
1の形状パターンを探索し、検出した第1の形状パター
ンの大きさ、向き及び人物の顔と前記第1の部分との位
置関係に応じて、人物の顔に相当すると推定される領域
を設定した後に、人物の少なくとも1つの第2の部分に
特有の第2の形状パターンが、原画像中の前記設定した
領域の大きさ、向き及び人物の顔と第2の部分との位置
関係に応じて設定した探索範囲内に存在するかを探索す
ることにより、原画像中の人物の顔に相当する領域であ
る確度が高い領域を判断するようにしたので、原画像中
の人物の顔に相当する領域及びその周辺の領域の色の影
響を受けることなく人物の顔に相当する領域のみを抽
することができる、という優れた効果を有する。
As described above, according to the first aspect of the invention, the first shape pattern unique to the first part of the person existing in the original image is searched for and detected. After setting an area estimated to correspond to the person's face according to the size, orientation, and positional relationship between the person's face and the first portion, the characteristic of at least one second portion of the person is set. By searching for whether the second shape pattern exists within the search range set according to the size and orientation of the set area in the original image and the positional relationship between the face of the person and the second portion. since the probability is a region corresponding to the face of a person in the original image was high area judgment be so that, influenced by the color of the region and its peripheral region corresponding to the face of the person in the original image without, it can extract only an area corresponding to a person's face , Has an excellent effect that.

【0112】請求項3記載の発明は、原画像を濃度又は
色が同一又は近似している複数の画素で構成される複数
の領域に分割し、該複数の領域の各々の輪郭を用いて形
状パターンを探索するので、人物の各部に特有の形状パ
ターンを効率良く検出できる、という効果を有する。
According to a third aspect of the present invention, the original image is divided into a plurality of regions composed of a plurality of pixels having the same or similar density or color, and the shape is formed by using the contour of each of the plurality of regions. Since the pattern is searched, there is an effect that the shape pattern peculiar to each part of the person can be efficiently detected.

【0113】請求項4記載の発明は、原画像中に存在す
るエッジを検出し、検出したエッジの中心線を求め、求
めた中心線を用いて形状パターンを探索するので、人物
の各部に特有の形状パターンを効率良く検出できる、と
いう効果を有する。
According to the fourth aspect of the present invention, the edge existing in the original image is detected, the center line of the detected edge is obtained, and the shape pattern is searched using the obtained center line. This has the effect that the shape pattern can be efficiently detected.

【0114】請求項5記載の発明は、第1の形状パター
ンの探索に先立ち、原画像中の人物に相当する確度の低
い領域を第1の形状パターンの探索対象から除外するの
で、第1の形状パターンの探索処理に要する時間が短縮
され、更に高速に処理を行うことができる、という効果
を有する。請求項記載の発明は、請求項1乃至請求項
の何れかの顔領域抽出方法により判断した、原画像中
の人物の顔に相当する領域である確度が高い領域の色又
は濃度の少なくとも一方に基づいて複写材料への露光量
を決定するので、原画像中の人物の顔に相当する領域及
びその周辺の領域の色の影響を受けることなく、人物の
顔に相当する領域を適正に焼付けできるように露光量を
決定することができる、という優れた効果を有する。
According to the fifth aspect of the present invention, prior to the search for the first shape pattern, an area with low accuracy corresponding to a person in the original image is excluded from the search object for the first shape pattern. The time required for the shape pattern search processing is shortened, and the processing can be performed at a higher speed. The invention according to claim 7 is from claim 1 to claim
Since the exposure amount to the copy material is determined based on at least one of the color and the density of the highly accurate region which is the region corresponding to the face of the person in the original image, which is determined by any one of the face region extraction methods of 6. The exposure amount can be determined so that the area corresponding to the person's face in the original image can be properly printed without being affected by the colors of the area corresponding to the person's face and the surrounding areas. Has excellent effect.

【図面の簡単な説明】[Brief description of drawings]

【図1】本実施例に係る写真焼付装置の概略構成図であ
る。
FIG. 1 is a schematic configuration diagram of a photographic printing apparatus according to this embodiment.

【図2】顔領域抽出部で実行される顔領域抽出処理のメ
インルーチンを説明するフローチャートである。
FIG. 2 is a flowchart illustrating a main routine of face area extraction processing executed by a face area extraction unit.

【図3】非人物領域判定処理を説明するフローチャート
である。
FIG. 3 is a flowchart illustrating a non-person area determination process.

【図4】頭部抽出による顔候補領域設定処理を説明する
フローチャートである。
FIG. 4 is a flowchart illustrating face candidate area setting processing by head extraction.

【図5】顔輪郭による整合性判定処理を説明するフロー
チャートである。
FIG. 5 is a flowchart illustrating a matching determination process based on a face contour.

【図6】顔内部構造による整合性判定処理を説明するフ
ローチャートである。
FIG. 6 is a flowchart illustrating a matching determination process based on an internal face structure.

【図7】胴体輪郭による整合性判定処理を説明するフロ
ーチャートである。
FIG. 7 is a flowchart illustrating a matching determination process based on a body contour.

【図8】頭部抽出による顔候補領域設定処理の詳細とし
て、(A)は原画像、(B)は2値化により抽出された
黒領域の輪郭のトレース、(C)は輪郭の曲率の演算、
(D)は凹部及び凸部の抽出を各々説明するためのイメ
ージ図である。
8A and 8B show details of a face candidate area setting process by head extraction, where FIG. 8A is an original image, FIG. 8B is a contour trace of a black area extracted by binarization, and FIG. 8C is a contour curvature. Calculation,
(D) is an image diagram for explaining extraction of a concave portion and a convex portion, respectively.

【図9】頭部抽出による整合性判定処理の詳細として、
(A)は凹部及び凸部の特徴量の演算、(B)は頭部の
判定、(C)は顔候補領域の設定を各々説明するための
イメージ図である。
FIG. 9 shows details of the consistency determination process by head extraction.
(A) is an image diagram for explaining the calculation of the feature amount of the concave portion and the convex portion, (B) is a determination of the head, and (C) is an image diagram for explaining the setting of the face candidate region.

【図10】顔輪郭による整合性判定処理の詳細として、
(A)は顔輪郭の探索範囲の設定、(B)は凹部及び凸
部の抽出、(C)は顔輪郭の候補となり得るライン対の
抽出、(D)は線対称性類似度の判定を各々説明するた
めのイメージ図である。
FIG. 10 shows details of the matching determination process based on the face contour.
(A) sets a face contour search range, (B) extracts concave and convex portions, (C) extracts line pairs that can be face contour candidates, and (D) determines line symmetry similarity. It is an image figure for each explaining.

【図11】顔輪郭による整合性判定処理の詳細として、
(A)は線対称性類似度の判定、(B)は頭部との境界
の探索を各々説明するためのイメージ図である。
FIG. 11 shows details of the consistency determination process based on the face contour.
(A) is an image diagram for explaining the determination of line symmetry similarity, and (B) is an image diagram for explaining a search for a boundary with the head.

【図12】顔構造による整合性判定処理の詳細として、
(A)は眼部の候補となり得る黒領域の抽出、(B)は
黒領域対の線対称類似度の判定各々説明するためのイメ
ージ図である。
FIG. 12 shows details of the consistency determination process based on the face structure.
(A) is an image diagram for explaining extraction of a black region that can be a candidate for an eye part, and (B) is a diagram for explaining determination of a line symmetry similarity of a pair of black regions.

【図13】胴体輪郭による整合性判定処理の詳細とし
て、(A)は胴体輪郭の探索範囲の設定、(B)は凹部
及び凸部の抽出、(C)は線対称性類似度の判定を各々
説明するためのイメージ図である。
13A and 13B show details of a body contour matching determination process, (A) setting of a body contour search range, (B) extraction of concave and convex portions, and (C) determination of line symmetry similarity. It is an image figure for each explaining.

【図14】(A)はエッジ検出における微分方向の一例
を示す概念図、(B)は各方向への微分を行うための微
分フィルタの一例を示す概念図である。
14A is a conceptual diagram showing an example of a differential direction in edge detection, and FIG. 14B is a conceptual diagram showing an example of a differential filter for performing differentiation in each direction.

【符号の説明】[Explanation of symbols]

10 写真焼付装置 12 ネガフィルム 18 色補正フィルタ 28 カラーペーパ 32 CCDイメージセンサ 40 顔領域抽出部 44 露光量演算部 10 Photo printing equipment 12 Negative film 18 color correction filter 28 color paper 32 CCD image sensor 40 Face Area Extraction Unit 44 Exposure amount calculation unit

Claims (7)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 原画像中に存在する、人物の第1の部分
に特有の第1の形状パターンを探索し、検出した第1の
形状パターンの大きさ、向き及び人物の顔と前記第1の
部分との位置関係に応じて、人物の顔に相当すると推定
される領域を設定した後に、 人物の前記第1の部分と異なる少なくとも1つの第2の
部分に特有の第2の形状パターンが、原画像中の前記設
定した領域の大きさ、向き及び人物の顔と前記第2の部
分との位置関係に応じて設定した探索範囲内に存在する
かを探索することにより、原画像中の人物の顔に相当す
る領域である確度が高い領域を判断する顔領域抽出方
法。
1. A first shape pattern unique to a first part of a person existing in an original image is searched for, and the detected size and orientation of the first shape pattern and the face of the person and the first shape pattern are detected. After setting a region that is estimated to correspond to the face of the person according to the positional relationship with the portion of, the second shape pattern peculiar to at least one second portion different from the first portion of the person is set. , The size of the set area in the original image, the orientation and by searching for a position within the search range set according to the positional relationship between the face of the person and the second portion, A face area extraction method for determining an area having a high degree of accuracy, which is an area corresponding to a human face.
【請求項2】 前記第1の形状パターン及び第2の形状
パターンは、 人物の頭部の輪郭を表す形状パターン、人物の顔の輪郭
を表す形状パターン、人物の顔の内部構造を表す形状パ
ターン、及び人物の胴体の輪郭を表す形状パターンの少
なくとも何れかを含む、 ことを特徴とする請求項1記載の顔領域抽出方法。
2. The first shape pattern and the second shape pattern are a shape pattern representing a contour of a human head, a shape pattern representing a contour of a human face, and a shape pattern representing an internal structure of a human face. The face area extracting method according to claim 1, further comprising at least one of a shape pattern representing the contour of the body of the person.
【請求項3】 前記第1の形状パターン及び第2の形状
パターンの探索は、原画像を濃度又は色が同一又は近似
している複数の画素で構成される複数の領域に分割し、
該複数の領域の各々の輪郭を用いて行う、 ことを特徴とする請求項1記載の顔領域抽出方法。
3. The search for the first shape pattern and the second shape pattern is performed by dividing an original image into a plurality of regions each composed of a plurality of pixels having the same or similar density or color,
The face area extracting method according to claim 1, wherein the contour area is extracted using contours of the plurality of areas.
【請求項4】 前記第1の形状パターン及び第2の形状
パターンの探索は、原画像中に存在するエッジを検出
し、検出したエッジの中心線を求め、求めた中心線を用
いて行う、 ことを特徴とする請求項1記載の顔領域抽出方法。
4. The search for the first shape pattern and the second shape pattern is performed by detecting an edge existing in the original image, obtaining a centerline of the detected edge, and using the obtained centerline. The face area extracting method according to claim 1, wherein
【請求項5】 前記第1の形状パターンの探索に先立
ち、 原画像中の人物に相当する確度の低い領域を第1の形状
パターンの探索対象から除外する、 ことを特徴とする請求項1記載の顔領域抽出方法。
5. The region of low accuracy corresponding to a person in the original image is excluded from the search target of the first shape pattern prior to the search of the first shape pattern. Face Area Extraction Method.
【請求項6】 前記第1の形状パターン又は前記第2の
形状パターンとしての、人物の顔構造を表す形状パター
ンのうち眼部対を表す形状パターンの探索は 、請求項3
記載の発明により分割された領域、又は請求項4記載の
発明により求められたエッジの中心線により分割される
領域のうち楕円形状の領域を抽出し、抽出された複数の
楕円領域の各々の特徴量を用いたマッチング処理により
所定値以上の類似度の楕円領域の対を検出し、検出した
楕円領域の対の線対称の度合いにより前記楕円領域の対
が人物の顔の眼部対に対応しているか否かを判断するこ
とで行うことを特徴とする請求項1記載の顔領域抽出方
法。
6. The first shape pattern or the second shape pattern
A shape pattern that represents the facial structure of a person as a shape pattern
The search for the shape pattern that represents the eye pair among the search results is described in claim 3.
The divided areas according to the invention described in claim 4, or claim 4.
Divided by the center line of the edge found by the invention
An elliptical area is extracted from the area, and the extracted multiple
By matching processing using each feature of the elliptical area
A pair of elliptical areas with a similarity of a predetermined value or more is detected and detected.
Depending on the degree of line symmetry of the pair of elliptic regions, the pair of elliptic regions
Can correspond to the eye pairs of the human face.
The method for extracting a face area according to claim 1, wherein
Law.
【請求項7】 請求項1乃至請求項6の何れか1項記載
の顔領域抽出方法により、原画像中の人物の顔に相当す
る領域である確度が高い領域を判断し、 判断した領域の色又は濃度の少なくとも一方に基づいて
複写材料への露光量を決定する、 ことを特徴とする露光量決定方法。
7. The method according to any one of claims 1 to 6.
The face area extraction method of
Area that has a high degree of accuracy, and based on at least one of the color and density of the area
An exposure amount determining method, characterized in that an exposure amount to a copying material is determined.
JP26585094A 1994-10-28 1994-10-28 Face area extraction method and exposure amount determination method Expired - Lifetime JP3499305B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP26585094A JP3499305B2 (en) 1994-10-28 1994-10-28 Face area extraction method and exposure amount determination method
US08/549,181 US5629752A (en) 1994-10-28 1995-10-27 Method of determining an exposure amount using optical recognition of facial features

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26585094A JP3499305B2 (en) 1994-10-28 1994-10-28 Face area extraction method and exposure amount determination method

Publications (2)

Publication Number Publication Date
JPH08122944A JPH08122944A (en) 1996-05-17
JP3499305B2 true JP3499305B2 (en) 2004-02-23

Family

ID=17422946

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26585094A Expired - Lifetime JP3499305B2 (en) 1994-10-28 1994-10-28 Face area extraction method and exposure amount determination method

Country Status (1)

Country Link
JP (1) JP3499305B2 (en)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3645384B2 (en) * 1996-12-26 2005-05-11 富士写真フイルム株式会社 Copying apparatus and copying condition determining method
JP3668014B2 (en) 1998-03-09 2005-07-06 富士写真フイルム株式会社 Image processing method and apparatus
JP2000196980A (en) 1998-10-22 2000-07-14 Fuji Photo Film Co Ltd Portable printer and camera
US7092569B1 (en) 1999-07-29 2006-08-15 Fuji Photo Film Co., Ltd. Method and device for extracting specified image subjects
US7106887B2 (en) 2000-04-13 2006-09-12 Fuji Photo Film Co., Ltd. Image processing method using conditions corresponding to an identified person
EP2757767B1 (en) 2000-10-20 2019-08-07 Samsung Electronics Co., Ltd Image processing system and ordering system
US7224851B2 (en) 2001-12-04 2007-05-29 Fujifilm Corporation Method and apparatus for registering modification pattern of transmission image and method and apparatus for reproducing the same
KR100447268B1 (en) * 2001-12-18 2004-09-07 한국전자통신연구원 Method for eye detection from face images by searching for an optimal binarization threshold
US7508550B2 (en) 2004-06-17 2009-03-24 Fujifilm Corporation Image correcting apparatus and method, and image correcting program, and look-up table creating apparatus and method, and look-up table creating program
US7663788B2 (en) 2004-06-29 2010-02-16 Fujifilm Corporation Image correcting apparatus and method, and image correction program
JP4180027B2 (en) 2004-08-27 2008-11-12 株式会社豊田中央研究所 Facial part position detection apparatus and method, and program
US7599093B2 (en) 2004-09-30 2009-10-06 Fujifilm Corporation Image processing apparatus, method and program
JP4800724B2 (en) 2005-09-29 2011-10-26 富士フイルム株式会社 Person image correction apparatus, person image correction method, and person image correction program
JP5786544B2 (en) * 2011-08-11 2015-09-30 株式会社ニコン Image processing apparatus, imaging apparatus, and program
CN114694386B (en) * 2020-12-31 2023-07-07 博泰车联网科技(上海)股份有限公司 Information pushing method and device, electronic device and storage medium

Also Published As

Publication number Publication date
JPH08122944A (en) 1996-05-17

Similar Documents

Publication Publication Date Title
US5629752A (en) Method of determining an exposure amount using optical recognition of facial features
JP3499305B2 (en) Face area extraction method and exposure amount determination method
US5881171A (en) Method of extracting a selected configuration from an image according to a range search and direction search of portions of the image with respect to a reference point
US8577099B2 (en) Method, apparatus, and program for detecting facial characteristic points
US7333653B2 (en) Detecting and correcting redeye in an image
JPH0863597A (en) Face extracting method
JP2008004123A (en) Specific shape region extraction device and method, specific region extraction device and method, and copy condition decision device and method
JPH11136498A (en) Computer program matter for red eye detection
JP3576654B2 (en) Exposure determination method, figure extraction method, and face area determination method
KR101048582B1 (en) Method and device for detecting faces in color images
JP3516786B2 (en) Face area extraction method and copy condition determination method
JP2004265431A (en) Face extraction method
JPH10268447A (en) Image processor and photographic printer
JPH08138024A (en) Picture direction discriminating method
JP2848749B2 (en) Feature image data extraction method
JPH04346332A (en) Exposure deciding method
KR100596197B1 (en) Face Detection Method Using A Variable Ellipsoidal Mask and Morphological Features
JP3636783B2 (en) Face area determination method, copy method, and exposure amount determination method
JP2638702B2 (en) Feature image data extraction method
JP4158153B2 (en) Face image detection method
JP2642262B2 (en) Exposure determination method
JP2004234689A (en) Face extracting method
JP2638701B2 (en) Feature image data extraction method
JPH04346334A (en) Extraction method for feature image data
CN113537178B (en) Face picture compensation identification method based on ship security data identification

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071205

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081205

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081205

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091205

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101205

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101205

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111205

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111205

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121205

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121205

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131205

Year of fee payment: 10

EXPY Cancellation because of completion of term