JP4888217B2 - Person attribute estimation device - Google Patents

Person attribute estimation device Download PDF

Info

Publication number
JP4888217B2
JP4888217B2 JP2007123500A JP2007123500A JP4888217B2 JP 4888217 B2 JP4888217 B2 JP 4888217B2 JP 2007123500 A JP2007123500 A JP 2007123500A JP 2007123500 A JP2007123500 A JP 2007123500A JP 4888217 B2 JP4888217 B2 JP 4888217B2
Authority
JP
Japan
Prior art keywords
face
score
attribute estimation
state
attribute
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007123500A
Other languages
Japanese (ja)
Other versions
JP2008282089A (en
Inventor
えりな 瀧川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2007123500A priority Critical patent/JP4888217B2/en
Publication of JP2008282089A publication Critical patent/JP2008282089A/en
Application granted granted Critical
Publication of JP4888217B2 publication Critical patent/JP4888217B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像から人物の性別や年齢層などの属性を推定する人物属性推定装置に関する。   The present invention relates to a person attribute estimation device for estimating attributes such as a gender and an age group of a person from an image.

従来、人物の性別や年齢層などの属性情報が、マーケティングに活用されている。例えば、コンビニエンスストアなどでは、顧客が商品を購入した際に、店員が顧客の属性を推測し、商品の購入情報として蓄積する。   Conventionally, attribute information such as a person's sex and age group has been utilized for marketing. For example, in a convenience store or the like, when a customer purchases a product, a store clerk guesses the attribute of the customer and stores it as product purchase information.

このような属性情報は、自動的且つ高精度に得られることが望まれている。   Such attribute information is desired to be obtained automatically and with high accuracy.

このような課題に鑑みた従来技術として、任意の顔向き方向から撮影した対象人物の顔画像から、その対象人物の性別や年齢層などの属性を自動で推測する人物属性推定装置が提案されている(特許文献1参照)。   As a conventional technique in view of such a problem, there has been proposed a person attribute estimation device that automatically estimates attributes such as a sex and an age group of a target person from a face image of the target person taken from an arbitrary face direction. (See Patent Document 1).

しかし、このような装置では、一般的に、顔の皺に関する特徴量に基づいて年齢層が推定されるため、顔器官の形状や顔の照明状態などが年齢層の推定に悪影響を及ぼすことがある。例えば、対象人物が笑っている場合、口や目等の顔器官の形状が変化し、これによって、口元や目尻などに皺が生じ、実際より高い年齢層に推定されることがある。また、直射日光が当たっている場合、顔の一部が白飛びした状態になることがあり、そのような状態では、本来あるはずの皺を画像から得ることができず、実際より低い年齢層に推定されることがある。このように、撮影時の顔の状態によって、誤った年齢層を推定してしまうおそれがある。   However, in such a device, since the age group is generally estimated based on the feature amount related to facial wrinkles, the shape of the facial organs, the illumination state of the face, etc. may adversely affect the estimation of the age group. is there. For example, when the target person is laughing, the shape of the facial organs such as the mouth and eyes changes, which may cause wrinkles in the mouth and corners of the eyes, and may be estimated to be older than the actual age. In addition, when exposed to direct sunlight, part of the face may be out of focus, and in such a state, the wrinkles that should have been originally cannot be obtained from the image, and the lower age group than actual May be estimated. Thus, there is a possibility that an incorrect age group is estimated depending on the face state at the time of photographing.

従って、自動的に年齢層を推定する場合には、上記状態(顔器官の形状、顔の照明状態など)の悪影響を回避するための対策が重要となる。
特開2003−242486号公報 特開2006−053853号公報
Therefore, when automatically estimating the age group, a measure for avoiding the adverse effects of the above-described states (face organ shape, face illumination state, etc.) is important.
JP 2003-242486 A JP 2006-038553 A

本発明は上記実情に鑑みてなされたものであって、その目的とするところは、画像から人物の属性を精度よく推定するための技術を提供することにある。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a technique for accurately estimating the attributes of a person from an image.

上記目的を達成するために、本発明は以下の構成を採用する。   In order to achieve the above object, the present invention adopts the following configuration.

本発明に係る人物属性推定装置は、画像から人物の属性を推定する人物属性推定装置であって、前記画像中の顔の状態を判定する顔状態判定手段と、予め定められた複数の年齢層の夫々について、前記顔がその年齢層に該当する確率を表すスコアを算出するスコア算出手段と、前記顔の状態に基づいて前記画像中の属性推定に悪影響を与える部分を特定し、前記属性推定に悪影響を与える部分の影響が小さくなるように、前記スコアを補正するスコア補正手段と、年齢層ごとの補正後スコアのうち、最も高い確率を表す補正後スコアに対応する年齢層を該人物の属性とみなす属性推定手段と、を備える。 A human attribute estimation apparatus according to the present invention is a human attribute estimation apparatus that estimates an attribute of a person from an image, and includes face state determination means for determining a face state in the image, and a plurality of predetermined age groups A score calculating means for calculating a score representing the probability that the face corresponds to the age group, a portion that adversely affects attribute estimation in the image based on the state of the face, and the attribute estimation The score correction means for correcting the score and the age group corresponding to the corrected score representing the highest probability among the corrected scores for each age group are reduced so that the influence of the part that adversely affects the person is reduced . Attribute estimation means regarded as an attribute.

本発明の属性推定に用いられるスコアは顔の状態に基づいて補正される。これにより、属性推定に顔の状態が与える悪影響を低減することができるため、誤推定の低減及び精度の向上が図れる。   The score used for attribute estimation of the present invention is corrected based on the face state. As a result, the adverse effect of the face state on the attribute estimation can be reduced, so that it is possible to reduce erroneous estimation and improve accuracy.

前記スコアは、前記画像中の複数の部分から夫々算出された複数の部分スコアを統合することによって得られる統合スコアであるとよい。これにより、画像中の複数の部分から夫々部分スコアを得ることができるため、1種類のスコアのみを用いて属性推定を行うよりも高精度な属性推定を行うことができる。   The score may be an integrated score obtained by integrating a plurality of partial scores respectively calculated from a plurality of parts in the image. Thereby, since a partial score can be obtained from each of a plurality of portions in the image, attribute estimation can be performed with higher accuracy than when attribute estimation is performed using only one type of score.

前記スコア補正手段は、前記顔の状態に基づいて属性推定に悪影響を与える部分を特定し、前記属性推定に悪影響を与える部分に対応する部分スコアを除外することで前記統合スコアを補正するとよい。これにより、属性推定に悪影響を与える部分の部分スコアの影響を除外することができるため、誤推定の低減及び精度の向上が図れる。   The score correction means may correct the integrated score by identifying a portion that adversely affects attribute estimation based on the face state and excluding a partial score corresponding to a portion that adversely affects the attribute estimation. As a result, it is possible to eliminate the influence of the partial score of the part that adversely affects the attribute estimation, so that it is possible to reduce erroneous estimation and improve accuracy.

前記スコア補正手段は、前記顔の状態に基づいて属性推定に悪影響を与える部分を特定し、前記属性推定に悪影響を与える部分に対応する部分スコアの値を変えることで前記統合スコアを補正するとよい。これにより、属性推定に悪影響を与える部分の部分スコアの値を適切な値に補正することができるため、誤推定の低減及び精度の向上が図れる。   The score correction means may correct the integrated score by identifying a part that adversely affects attribute estimation based on the face state and changing a value of a partial score corresponding to the part that adversely affects the attribute estimation. . Thereby, since the value of the partial score of the part that adversely affects the attribute estimation can be corrected to an appropriate value, it is possible to reduce erroneous estimation and improve accuracy.

前記スコアは、前記部分スコアごとに重み付けされた統合スコアであり、前記スコア補正手段は、前記顔の状態に基づいて属性推定に悪影響を与える部分を特定し、前記属性推定に悪影響を与える部分に対応する部分スコアの重みを他の部分スコアの重みよりも相対的に小さくすることで前記統合スコアを補正するとよい。これにより、属性推定に適した部分の部分スコアを重視した補正後スコアが得られるため、誤推定の低減及び精度の向上が図れる。   The score is an integrated score weighted for each partial score, and the score correction unit identifies a part that adversely affects attribute estimation based on the state of the face, and a part that adversely affects the attribute estimation The integrated score may be corrected by making the weight of the corresponding partial score relatively smaller than the weight of the other partial scores. As a result, a corrected score with an emphasis on the partial score of the portion suitable for attribute estimation can be obtained, so that it is possible to reduce erroneous estimation and improve accuracy.

前記顔の状態は顔の向き、顔器官の形状、及び、顔の照明状態のうち1つ以上を含むとよい。これにより、属性推定に顔の向き、顔器官の形状、及び、顔の照明状態が与える悪影響を低減することができるため、誤推定の低減及び精度の向上が図れる。   The face state may include one or more of a face orientation, a face organ shape, and a face illumination state. As a result, the adverse effects of the face direction, the shape of the facial organ, and the illumination state of the face on the attribute estimation can be reduced, so that the false estimation can be reduced and the accuracy can be improved.

前記画像中の顔の向き、顔器官の形状、及び、顔の照明状態のうち2つ以上の状態が属性推定に悪影響を与えるものであった場合に、前記属性推定手段による属性推定を禁止するとよい。これにより、前記属性推定手段に適さない顔を推定対象から除外したり、他の手法で該人物の属性推定を試みたりできるため、誤推定の低減及び精度の向上が図れる。   Prohibiting attribute estimation by the attribute estimation means when two or more of the face orientation, facial organ shape, and face illumination state in the image adversely affect attribute estimation Good. As a result, faces that are not suitable for the attribute estimation means can be excluded from the estimation target, or attribute estimation of the person can be attempted by other methods, so that erroneous estimation can be reduced and accuracy can be improved.

また、本発明は、上記手段の少なくとも一部を有する人物属性推定装置として捉えてもよいし、上記処理の少なくとも一部を含む人物属性推定方法、または、かかる方法を実現するための人物属性推定プログラムやそのプログラムを記憶した記憶媒体として捉えることもできる。なお、上記手段及び処理の各々は可能な限り互いに組み合わせて本発明を構成することができる。   Further, the present invention may be regarded as a person attribute estimation device having at least a part of the above means, a person attribute estimation method including at least a part of the above processing, or a person attribute estimation for realizing the method. It can also be understood as a program or a storage medium storing the program. Each of the above means and processes can be combined with each other as much as possible to constitute the present invention.

本発明によれば、顔の状態に基づいて属性推定に用いられるスコアが補正されるため、属性を精度よく推定することが可能である。   According to the present invention, since the score used for attribute estimation is corrected based on the face state, the attribute can be estimated with high accuracy.

以下に図面を参照して、この発明の好適な実施の形態を例示的に詳しく説明する。   Exemplary embodiments of the present invention will be described in detail below with reference to the drawings.

<装置構成>
図1は、本発明の実施形態に係る人物属性推定装置の機能構成を示すブロック図である。この人物属性推定装置は、画像から人物の年齢層(年代)を推定する人物属性推定処理を行う装置であり、例えば、コンビニエンスストアなどの監視カメラで得られた画像を用いることによって、年齢層を顧客情報として蓄積することができ、その顧客情報は、マー
ケティングなどに活用することができる。本発明は、建物内、自動販売機、ATMなどに設置してある監視装置ような既存の設備に適用できる。なお、本発明は監視装置に限らず、携帯電話、パソコン、PDAなどの撮影装置を具備する機器に適用することが可能である。また、本発明の人物属性処理は、撮影装置から得られた画像を用いてリアルタイムに行わず、ハードディスクやDVDなどに記録されている画像を用いて行うこともできる。
<Device configuration>
FIG. 1 is a block diagram showing a functional configuration of a person attribute estimation device according to an embodiment of the present invention. This person attribute estimation device is a device that performs person attribute estimation processing for estimating a person's age group (age) from an image. For example, by using an image obtained by a surveillance camera such as a convenience store, the age group is determined. It can be stored as customer information, and the customer information can be used for marketing and the like. The present invention can be applied to existing facilities such as monitoring devices installed in buildings, vending machines, ATMs, and the like. Note that the present invention is not limited to a monitoring device, and can be applied to devices including a photographing device such as a mobile phone, a personal computer, and a PDA. In addition, the person attribute processing according to the present invention can be performed using images recorded on a hard disk, a DVD, or the like without using images obtained from the photographing apparatus in real time.

人物属性推定装置は、図1に示す複数の機能要素、すなわち撮像部11、画像記憶部12、顔検出部13、特徴量抽出部14、顔状態判定部15、参照特徴量記憶部16、スコア算出部17、スコア補正部18、属性推定部19、結果記憶部20、表示部21を備えている。本実施形態では、これらの機能要素は、コンピュータの演算処理装置がソフトウエア(プログラム)を実行し、必要に応じてカメラ、メモリ、ディスプレイなどのハードウエア資源を制御することで実現される。ただし、これらの機能要素を専用のチップで構成しても構わない。   The person attribute estimation device includes a plurality of functional elements shown in FIG. 1, that is, an imaging unit 11, an image storage unit 12, a face detection unit 13, a feature amount extraction unit 14, a face state determination unit 15, a reference feature amount storage unit 16, and a score. A calculation unit 17, a score correction unit 18, an attribute estimation unit 19, a result storage unit 20, and a display unit 21 are provided. In the present embodiment, these functional elements are realized by an arithmetic processing unit of a computer executing software (program) and controlling hardware resources such as a camera, a memory, and a display as necessary. However, these functional elements may be configured by a dedicated chip.

撮像部11としては、光学系と撮像素子(CCD、CMOSセンサなど)を備える監視用カメラ等を好ましく適用できる。   As the imaging unit 11, a monitoring camera including an optical system and an imaging element (CCD, CMOS sensor, etc.) can be preferably applied.

画像記憶部12は、処理対象となる画像を一時的に記憶する記憶装置である。この記憶装置としては、揮発性メモリや不揮発性メモリなど、どのような具体的技術が適用されてもよい。   The image storage unit 12 is a storage device that temporarily stores an image to be processed. As the storage device, any specific technique such as a volatile memory or a nonvolatile memory may be applied.

顔検出部13は、画像処理によって画像から顔を検出する機能である。顔検出部13による顔検出処理は、既存の顔検出処理のどのような技術が適用されてもよい。一例を挙げると、顔全体の輪郭に対応した基準テンプレートを用いたテンプレートマッチングによって顔を検出する手法、顔の器官(目、鼻、耳など)に基づくテンプレートマッチングによって顔を検出する手法、クロマキー処理によって頭部などの頂点を検出し、この頂点に基づいて顔を検出する手法、肌の色に近い領域を検出し、その領域を顔として検出する手法、ニューラルネットワークを使って教師信号による学習を行い、顔らしい領域を顔として検出する手法、などがある。   The face detection unit 13 has a function of detecting a face from an image by image processing. Any technology of existing face detection processing may be applied to the face detection processing by the face detection unit 13. For example, a method for detecting a face by template matching using a reference template corresponding to the outline of the entire face, a method for detecting a face by template matching based on a facial organ (eyes, nose, ears, etc.), chroma key processing Detecting vertices such as the head, detecting a face based on the vertices, detecting a region close to the skin color, detecting that region as a face, and learning with a teacher signal using a neural network And a method for detecting a face-like area as a face.

特徴量抽出部14は、まず、顔検出部13によって検出された顔から特徴点を検出する。特徴点とは口の両端、目尻、目頭、鼻先などのような特徴となる箇所のことである。また、特徴量抽出部14は、検出された特徴点から顔器官(目、口、鼻など)を特定することができる。特徴量抽出部14による特徴点検出処理は、既存の特徴点検出処理のどのような技術が適用されてもよい。一例を挙げると、顔特徴点の位置を示すパターンを学習し、その学習データを使用したマッチングを行うことによって特徴点を検出する手法、検出された顔の内側において、パターンマッチングにより特徴点を検出する手法など、既存のいかなる手法を用いてもよい。   The feature quantity extraction unit 14 first detects feature points from the face detected by the face detection unit 13. Characteristic points are points that become features such as both ends of the mouth, the corners of the eyes, the eyes, and the nose. In addition, the feature quantity extraction unit 14 can specify a facial organ (eyes, mouth, nose, etc.) from the detected feature points. Any technique of existing feature point detection processing may be applied to the feature point detection processing by the feature amount extraction unit 14. For example, a method that detects a pattern that indicates the position of a face feature point and detects the feature point by performing matching using the learned data, and detects a feature point by pattern matching inside the detected face Any existing method may be used, such as a method to perform.

また、特徴量抽出部14は、検出された特徴点の位置及び他の特徴点との位置関係に基づいて、特徴部を特定する。特徴部とは、属性(年齢層)の推定に用いる特徴量を抽出するための注目領域である。特徴部は、加齢による外見の変化が顕著に現れる部分であることが好ましい。本実施形態では「右目」、「左目」、「鼻」、「口」の4つの特徴部を考える。なお、特徴点の位置及び他の特徴点との位置関係と、特徴部との対応関係は特徴量抽出部14に予め記憶されている。   In addition, the feature quantity extraction unit 14 identifies the feature unit based on the position of the detected feature point and the positional relationship with other feature points. The feature portion is a region of interest for extracting a feature amount used for attribute (age group) estimation. The characteristic part is preferably a part where a change in appearance due to aging appears remarkably. In the present embodiment, four characteristic portions of “right eye”, “left eye”, “nose”, and “mouth” are considered. It should be noted that the position of the feature point, the positional relationship with other feature points, and the correspondence with the feature portion are stored in advance in the feature amount extraction unit 14.

そして、特徴量抽出部14は、各特徴部から特徴量を抽出する。特徴量としては、例えば、特徴点の相対位置、特徴部の全体もしくは一部の色の濃淡、皺の数などを抽出する。   Then, the feature amount extraction unit 14 extracts a feature amount from each feature portion. As the feature amount, for example, the relative position of the feature point, the color density of the whole or part of the feature portion, the number of wrinkles, and the like are extracted.

顔状態判定部15は、顔検出部13で検出された顔の状態を判定する機能である。本実
施形態では、顔器官の位置関係に基づいて顔の向きを判定し、輪郭点の位置関係に基づいて顔器官の形状を判定し、顔器官の色の濃淡(輝度値)に基づいて顔の照明状態を判定する。ここで、輪郭点とは顔器官の輪郭を表す点のことである。
The face state determination unit 15 has a function of determining the state of the face detected by the face detection unit 13. In the present embodiment, the orientation of the face is determined based on the positional relationship of the facial organs, the shape of the facial organ is determined based on the positional relationship of the contour points, and the face is determined based on the color density (luminance value) of the facial organs. The lighting state is determined. Here, the contour point is a point representing the contour of the facial organ.

参照特徴量記憶部16は、参照特徴量を記憶する記憶装置である。参照特徴量とは、同じ年齢層に属する複数の人物の特徴量を平均したものである。また、本実施形態では、「10代以下」、「20代」、「30代」、「40代」、「50代以上」という5つの年齢層の夫々について、参照特徴量が記憶されている。更に、参照特徴量は特徴部別に分けられている。この記憶装置としては、不揮発性メモリやハードディスクなど、どのような具体的技術が適用されてもよい。   The reference feature amount storage unit 16 is a storage device that stores a reference feature amount. The reference feature amount is an average of feature amounts of a plurality of persons belonging to the same age group. In the present embodiment, reference feature values are stored for each of the five age groups of “10s and below”, “20s”, “30s”, “40s”, and “50s and above”. . Furthermore, the reference feature amount is divided according to the feature portion. As the storage device, any specific technique such as a nonvolatile memory or a hard disk may be applied.

スコア算出部17は、顔検出部13で検出された顔から抽出された特徴量と、参照特徴量とを用いて年齢層ごとにスコアを算出する機能である。スコアとは、顔検出部13で検出された顔がその年齢層に該当する確率を表すものである。スコアは特徴部ごとに算出され、これを部分スコアと呼ぶ。そして、部分スコアを統合したものを統合スコアと呼ぶ。本実施形態における部分スコアは、特徴量抽出部14で特定された特徴部ごとの特徴量と、対応する特徴部の参照特徴量との類似度である。本実施形態では、上記年齢層の夫々について、その年齢層の部分スコアの平均値を統合スコアとする。このように、画像中の複数の部分から夫々得られた部分スコアの統合値を用いることにより、1種類のスコアのみを用いて属性推定を行うよりも高精度な属性推定を行うことができる。   The score calculation unit 17 has a function of calculating a score for each age group using the feature amount extracted from the face detected by the face detection unit 13 and the reference feature amount. The score represents the probability that the face detected by the face detection unit 13 corresponds to the age group. A score is calculated for each feature and is called a partial score. And what integrated the partial score is called an integrated score. The partial score in the present embodiment is a similarity between the feature amount for each feature portion specified by the feature amount extraction unit 14 and the reference feature amount of the corresponding feature portion. In this embodiment, for each of the above age groups, the average value of the partial scores of that age group is used as the integrated score. In this way, by using the integrated values of partial scores respectively obtained from a plurality of portions in an image, it is possible to perform attribute estimation with higher accuracy than performing attribute estimation using only one type of score.

スコア補正部18は、顔状態判定部15で判定された顔の状態に基づいて前記統合スコアを補正する機能である。具体的な補正手法については後で述べる。   The score correction unit 18 is a function that corrects the integrated score based on the face state determined by the face state determination unit 15. A specific correction method will be described later.

属性推定部19は、年齢層ごとの補正後スコアのうち、最も高い確率を表す補正後スコアに対応する年齢層を該人物の属性とみなす機能である。   The attribute estimation unit 19 is a function that regards the age group corresponding to the corrected score representing the highest probability among the corrected scores for each age group as the attribute of the person.

結果記憶部20は、属性推定部19から出力された結果を記憶する記憶装置である。この記憶装置としては、不揮発性メモリやハードディスクなど、どのような具体的技術が適用されてもよい。   The result storage unit 20 is a storage device that stores the result output from the attribute estimation unit 19. As the storage device, any specific technique such as a nonvolatile memory or a hard disk may be applied.

表示部21としては、液晶ディスプレイなど、どのような具体的技術が適用されてもよい。   As the display unit 21, any specific technique such as a liquid crystal display may be applied.

<人物属性推定機能>
図2、図3、図4及び図5のフローチャートに沿って、人物属性推定装置の機能及び処理の流れを説明する。
<Person attribute estimation function>
The function and processing flow of the person attribute estimation device will be described with reference to the flowcharts of FIGS. 2, 3, 4, and 5.

本実施形態における人物属性推定装置は一定の時間間隔で人物属性推定機能を実行する。人物属性推定機能が起動すると、撮像部11で撮影された画像が、人物属性推定処理に用いるために取り込まれる(ステップS11)。入力された画像は画像記憶部12に撮影時刻情報と共に格納される。なお、必要に応じて、ユーザは、人物属性推定処理用の画像を表示部21で確認することができる。   The human attribute estimation device in the present embodiment executes the human attribute estimation function at regular time intervals. When the person attribute estimation function is activated, an image captured by the imaging unit 11 is captured for use in the person attribute estimation process (step S11). The input image is stored in the image storage unit 12 together with shooting time information. In addition, the user can confirm the image for a person attribute estimation process with the display part 21 as needed.

次に、顔検出部13が撮像部11で撮影された画像中の顔の検出を行う(ステップS12)。   Next, the face detection unit 13 detects a face in the image captured by the imaging unit 11 (step S12).

そして、特徴量抽出部14が顔検出部13で検出された顔のうち、1つを選択し(ステップS13)、該顔から特徴量を抽出する(ステップS14)。   Then, the feature amount extraction unit 14 selects one of the faces detected by the face detection unit 13 (step S13), and extracts the feature amount from the face (step S14).

次に、スコア算出部17が、年齢層ごとに各特徴部の部分スコアを算出する(ステップS15)。   Next, the score calculation part 17 calculates the partial score of each characteristic part for every age group (step S15).

そして、顔状態判定部15が顔の向きを判定する(ステップS16)。   Then, the face state determination unit 15 determines the face direction (step S16).

<顔向き判定>
図3は、ステップS16の処理の一具体例を示している。
<Face orientation determination>
FIG. 3 shows a specific example of the process of step S16.

まず、顔状態判定部15が顔器官の位置関係に基づいて顔の向きを判定する(ステップS21)。具体的には、顔状態判定部15は判定結果として、「上」、「下」、「右」、「左」、「正面」のうちいずれか1つを出力する。   First, the face state determination unit 15 determines the face orientation based on the positional relationship of the facial organs (step S21). Specifically, the face state determination unit 15 outputs any one of “up”, “down”, “right”, “left”, and “front” as the determination result.

判定結果が「正面」である場合(ステップS22;YES)、そのまま(スコアを補正せずに)ステップS17へ進む。一方、判定結果が「正面」でない場合(ステップS22;NO)は、スコア補正部18が顔の向きに基づいて部分スコアを補正し(ステップS23)、補正回数をカウント(+1)し(ステップS24)、ステップS17へ進む。顔向きによって画像にあまり写らない顔器官を生じることがあり、該顔器官を含む特徴部から算出された部分スコアは信頼性が低いと考えられるからである。例えば、判定結果が「上」の場合、右目及び左目が属性推定に悪影響を与える顔器官として特定される。そして、スコア補正部18は、右目または左目を含んでいる特徴部から算出された部分スコアの重みを下げる。判定結果が「下」の場合、口が属性推定に悪影響を与える顔器官として特定され、口を含んでいる特徴部から算出された部分スコアの重みを下げる。判定結果が「右」の場合は、右目を含んでいる特徴部から算出された部分スコアの重みを下げ、判定結果が「左」の場合は、左目を含んでいる特徴部から算出された部分スコアの重みを下げる。なお、本実施形態では顔の向きの判定結果として「上」、「下」、「右」、「左」、「正面」を考えているが、顔状態判定部は、判定結果として「ズレ量(顔の向きがどれだけ正面向きから逸れているのかを表す量)」を更に出力してもよい。そのような場合には、重みを下げる量は、ズレ量に比例して大きくなるようにしてもよいし、顔の向きが正面か否かによって一定量だけ重みが下がるようにしてもよい。   When the determination result is “front” (step S22; YES), the process proceeds to step S17 as it is (without correcting the score). On the other hand, when the determination result is not “front” (step S22; NO), the score correction unit 18 corrects the partial score based on the orientation of the face (step S23), and counts (+1) the number of corrections (step S24). ), Go to step S17. This is because a face organ that does not appear much in the image may be generated depending on the face orientation, and the partial score calculated from the feature portion including the face organ is considered to be low in reliability. For example, when the determination result is “upper”, the right eye and the left eye are identified as facial organs that adversely affect attribute estimation. And the score correction | amendment part 18 reduces the weight of the partial score calculated from the characteristic part containing the right eye or the left eye. When the determination result is “lower”, the mouth is identified as a facial organ that adversely affects attribute estimation, and the weight of the partial score calculated from the feature including the mouth is lowered. When the determination result is “right”, the weight of the partial score calculated from the feature part including the right eye is lowered. When the determination result is “left”, the part calculated from the feature part including the left eye Reduce the score weight. In the present embodiment, “up”, “down”, “right”, “left”, and “front” are considered as the determination results of the face orientation. (An amount indicating how much the face direction deviates from the front direction) may be further output. In such a case, the amount by which the weight is decreased may be increased in proportion to the amount of deviation, or the weight may be decreased by a certain amount depending on whether or not the face direction is the front.

次に、顔状態判定部15が顔器官の形状を判定する(ステップS17)。   Next, the face state determination unit 15 determines the shape of the facial organ (step S17).

<顔器官形状判定>
図4は、ステップS17の処理の一具体例を示している。
<Face organ shape determination>
FIG. 4 shows a specific example of the process of step S17.

まず、顔状態判定部15が輪郭点の位置関係に基づいて顔器官の形状を判定する(ステップS31)。具体的には、顔状態判定部15が顔器官ごとに特徴点の位置に基づいて複数の輪郭点を検出する。そして、複数の輪郭点で形作られる形状(顔器官の形状)を、予め記憶されている通常状態の顔器官の形状と比較することによって顔器官の形状を判定する。顔状態判定部15は、判定結果として、「右目が閉じている(又は細い)」、「左目が閉じている(又は細い)」、「両目が閉じている(又は細い)」、「口元が上がっている(又は下がっている)」、「通常状態」のうちいずれか1つを出力する。   First, the face state determination unit 15 determines the shape of the facial organ based on the positional relationship between the contour points (step S31). Specifically, the face state determination unit 15 detects a plurality of contour points based on the positions of feature points for each facial organ. Then, the shape of the facial organ is determined by comparing the shape formed by the plurality of contour points (the shape of the facial organ) with the shape of the facial organ in a normal state stored in advance. As the determination results, the face state determination unit 15 determines that “the right eye is closed (or thin)”, “the left eye is closed (or thin)”, “both eyes are closed (or thin)”, “the mouth is closed Either “rising (or falling)” or “normal state” is output.

判定結果が「通常状態」である場合(ステップS32;YES)、そのまま(スコアを補正せずに)ステップS18へ進む。一方、判定結果が「通常状態」でない場合(ステップS32;NO)は、スコア補正部18が顔器官の形状に基づいて部分スコアを補正し(ステップS33)、補正回数をカウント(+1)し(ステップS34)、ステップS18へ進む。顔器官の形状を原因として顔器官に皺などが生じることがあり、皺は加齢情報であるため、該顔器官を含む特徴部から算出された部分スコアは信頼性が低いと考えられるからである。例えば、判定結果が「口元が上がっている」の場合、口が属性推定に悪影響
を与える顔器官として特定される。そして、スコア補正部18は、口を含んでいる特徴部から算出された部分スコアの重みを下げる。判定結果が「両目が閉じている」の場合、右目及び左目が属性推定に悪影響を与える顔器官として特定され、右目又は左目を含んでいる特徴部から算出された部分スコアの重みを下げる。同様に、判定結果が「右目が閉じている」の場合は、右目を含んでいる特徴部から算出されたスコアの重みを下げ、判定結果が「左目が閉じている」の場合は、左目を含んでいる特徴部から算出されたスコアの重みを下げる。なお、本実施形態では顔器官の形状の判定結果として「右目が閉じている」、「左目が閉じている」、「両目が閉じている」、「口元が上がっている」、「通常状態」を考えているが、判定結果として、属性推定に悪影響を与える顔器官に生じている皺の数や、顔器官の変形度合いなどを更に出力してもよい。そのような場合には、重みを下げる量は、皺の数や、顔器官の変形度合いに比例して大きくなるようにしてもよいし、顔器官の形状が通常状態か否かによって一定量だけ重みが下がるようにしてもよい。
When the determination result is “normal state” (step S32; YES), the process proceeds to step S18 as it is (without correcting the score). On the other hand, when the determination result is not “normal state” (step S32; NO), the score correction unit 18 corrects the partial score based on the shape of the facial organ (step S33), and counts the number of corrections (+1) ( Step S34), the process proceeds to step S18. The facial organ may be wrinkled due to the shape of the facial organ, and since the wrinkle is age information, the partial score calculated from the feature including the facial organ is considered to be unreliable. is there. For example, when the determination result is “the mouth is raised”, the mouth is identified as a facial organ that has an adverse effect on attribute estimation. And the score correction | amendment part 18 reduces the weight of the partial score calculated from the characteristic part containing a mouth. When the determination result is “both eyes closed”, the right eye and the left eye are identified as facial organs that have an adverse effect on attribute estimation, and the weight of the partial score calculated from the feature part including the right eye or the left eye is lowered. Similarly, when the determination result is “the right eye is closed”, the weight of the score calculated from the feature including the right eye is reduced, and when the determination result is “the left eye is closed”, the left eye The weight of the score calculated from the included feature is lowered. In the present embodiment, the determination result of the shape of the facial organ is “right eye is closed”, “left eye is closed”, “both eyes are closed”, “mouth is raised”, “normal state”. However, as a determination result, the number of wrinkles generated in the facial organ that adversely affects attribute estimation, the degree of deformation of the facial organ, and the like may be further output. In such a case, the amount of weight reduction may be increased in proportion to the number of wrinkles and the degree of deformation of the facial organs, or a certain amount depending on whether the facial organs are in a normal state or not. The weight may be lowered.

次に、顔状態判定部15が顔の照明状態を判定する(ステップS18)。   Next, the face state determination unit 15 determines the illumination state of the face (step S18).

<照明状態判定>
図5は、ステップS18の処理の一具体例を示している。
<Lighting state judgment>
FIG. 5 shows a specific example of the process of step S18.

まず、顔状態判定部15が顔器官の輝度値に基づいて顔の照明状態を判定する(ステップS41)。具体的には、顔状態判定部15が、顔器官ごとに特徴点の輝度値を統合することによって、各顔器官の輝度値を算出する。そして、各顔器官の輝度値を、予め記憶されている順光時の輝度値(基準輝度値)と比較することによって顔の照明状態を判定する。また、顔状態判定部15は顔器官の輝度値を、他の顔器官の輝度値と比較することによって、顔全体が明るいのか、顔全体が暗いのか、斜光状態か、なども判定する。顔状態判定部15は、判定結果として、「上(顔の上部の照明状態が悪いことを意味する)」、「下」、「右」、「左」、「全体(顔全体の照明状態が悪いことを意味する)」、「良好」のうちいずれか1つを出力する。   First, the face state determination unit 15 determines the illumination state of the face based on the brightness value of the facial organ (step S41). Specifically, the face state determination unit 15 calculates the luminance value of each facial organ by integrating the luminance values of feature points for each facial organ. Then, the illumination state of the face is determined by comparing the luminance value of each facial organ with the luminance value (reference luminance value) at the time of the forward light stored in advance. Further, the face state determination unit 15 determines whether the entire face is bright, the entire face is dark, or is obliquely illuminated by comparing the brightness values of the face organs with the brightness values of other face organs. As the determination result, the face state determination unit 15 determines that “upper (meaning that the lighting state of the upper part of the face is bad)”, “lower”, “right”, “left”, “entire (the lighting state of the entire face is One of “good” or “good” is output.

判定結果が「良好」である場合(ステップS42;YES)、ステップS19へ進み、判定結果が「良好」でない場合(ステップS42;NO)、判定結果が「全体」であるか否かを判定する(ステップS43)。判定結果が「全体」である場合(ステップS43;YES)、該顔から属性を推定することは困難であるため、ステップS18の処理を終了し、ステップS20へ進む。判定結果が「全体」でない場合(ステップS43;NO)、スコア補正部18が顔の照明状態に基づいて部分スコアを補正し(ステップS44)、補正回数をカウント(+1)し(ステップS45)、ステップS19へ進む。具体的には、照明状態が明るすぎる顔器官が有る場合、該顔器官の周りは白飛びし、皺の情報を含んだ特徴量を得ることができないことがある。また、照明状態が暗い顔器官が有る場合、それによって生じた影を皺と誤検出するおそれがある。そのような顔器官を含む特徴部から算出された部分スコアは信頼性が低いと考えられるので、該部分スコアの重みを下げるのである。例えば、判定結果が「上」の場合、右目及び左目が属性推定に悪影響を与える顔器官として特定される。そして、スコア補正部18は、右目または左目を含んでいる特徴部から算出された部分スコアの重みを下げる。判定結果が「下」の場合、口が属性推定に悪影響を与える顔器官として特定され、口を含んでいる特徴部から算出された部分スコアの重みを下げる。判定結果が「右」の場合は、右目を含んでいる特徴部から算出された部分スコアの重みを下げ、判定結果が「左」の場合は、左目を含んでいる特徴部から算出された部分スコアの重みを下げる。なお、本実施形態では顔の照明状態の判定結果として「上」、「下」、「右」、「左」、「全体」、「良好」を考えているが、判定結果は、算出された輝度値と基準輝度値とのズレ量を更に出力してもよい。そのような場合には、重みを下げる量は、ズレ量に比例して大きくなるようにしてもよいし、顔の照明状態が悪いか否かによって一定量だけ重みが下がるようにしてもよい。   When the determination result is “good” (step S42; YES), the process proceeds to step S19. When the determination result is not “good” (step S42; NO), it is determined whether or not the determination result is “whole”. (Step S43). If the determination result is “whole” (step S43; YES), it is difficult to estimate the attribute from the face, so the process of step S18 ends, and the process proceeds to step S20. When the determination result is not “whole” (step S43; NO), the score correction unit 18 corrects the partial score based on the illumination state of the face (step S44), counts the number of corrections (+1) (step S45), Proceed to step S19. Specifically, when there is a facial organ whose lighting state is too bright, the surroundings of the facial organ may be blown out and a feature amount including wrinkle information may not be obtained. In addition, when there is a dark facial illumination, there is a possibility that a shadow caused by the facial organ is erroneously detected as a wrinkle. Since the partial score calculated from the feature part including such a facial organ is considered to be low in reliability, the weight of the partial score is reduced. For example, when the determination result is “upper”, the right eye and the left eye are identified as facial organs that adversely affect attribute estimation. And the score correction | amendment part 18 reduces the weight of the partial score calculated from the characteristic part containing the right eye or the left eye. When the determination result is “lower”, the mouth is identified as a facial organ that adversely affects attribute estimation, and the weight of the partial score calculated from the feature including the mouth is lowered. When the determination result is “right”, the weight of the partial score calculated from the feature part including the right eye is lowered. When the determination result is “left”, the part calculated from the feature part including the left eye Reduce the score weight. In this embodiment, “upper”, “lower”, “right”, “left”, “whole”, and “good” are considered as the determination results of the facial illumination state, but the determination result is calculated. A deviation amount between the luminance value and the reference luminance value may be further output. In such a case, the amount by which the weight is decreased may be increased in proportion to the amount of deviation, or the weight may be decreased by a certain amount depending on whether the lighting condition of the face is bad.

ステップS19では、スコア補正部18が、補正回数が3回かどうか(つまり、全ての状態について補正をしたかどうか)を判定する。補正回数が3回未満である場合(ステップS19;NO)、ステップS21へ進み、補正回数が3回である場合(ステップS19;YES)、該顔の属性推定を中止し、該顔を検出対象から除外し(ステップS20)、ステップS22へ進む。   In step S19, the score correction unit 18 determines whether or not the number of corrections is three (that is, whether or not correction has been made for all states). When the number of corrections is less than 3 (step S19; NO), the process proceeds to step S21. When the number of corrections is 3 (step S19; YES), the face attribute estimation is stopped and the face is detected. (Step S20), the process proceeds to step S22.

ステップS21では、属性推定部19が、年齢層ごとの補正後スコア(統合スコア)のうち、最も高い確率を表す補正後スコアに対応する年齢層を該人物の属性とみなす。   In step S21, the attribute estimation unit 19 regards the age group corresponding to the corrected score representing the highest probability among the corrected scores (integrated scores) for each age group as the attribute of the person.

次に、ステップS22では、ステップS12で検出された顔の内、属性推定に用いられていない顔があるかどうかを判定する。他の顔があるとされた場合(ステップS22;YES)、他の顔が無くなるまで、ステップS13〜S21の工程を繰り返す。ステップS12で検出された全ての顔について人物属性推定処理が行われたら(ステップS22;NO)、ステップS23へ進む。   Next, in step S22, it is determined whether there is a face that is not used for attribute estimation among the faces detected in step S12. If it is determined that there is another face (step S22; YES), steps S13 to S21 are repeated until there is no other face. When the person attribute estimation process is performed for all the faces detected in step S12 (step S22; NO), the process proceeds to step S23.

ステップS23では、属性推定部19の推定結果が結果記憶部20に格納される。結果記憶部20に格納される推定結果の情報は、人物属性推定処理に用いた画像、該画像の撮影時刻、検出された顔の数、該顔の位置座標、及び、属性ごとの検出数の情報が好ましい。ユーザは、目的に応じた撮影時刻と顔検出処理結果の表示方法とを入力することで、人物属性推定処理結果を表示部21で確認することができる。前記表示方法は入力された撮影時刻の10代以下の検出数/総顔検出数や20代の検出数/総顔検出数のように年齢層で分けてもよいし、前記撮影時刻に撮影された画像を表示し、顔検出位置に該顔に対応する属性を表示するなどでもよい。   In step S <b> 23, the estimation result of the attribute estimation unit 19 is stored in the result storage unit 20. Information on the estimation result stored in the result storage unit 20 includes the image used for the person attribute estimation process, the shooting time of the image, the number of detected faces, the position coordinates of the face, and the number of detections for each attribute. Information is preferred. The user can confirm the person attribute estimation processing result on the display unit 21 by inputting the photographing time and the display method of the face detection processing result according to the purpose. The display method may be divided by age group, such as the number of detections of teenagers or less / total number of detected faces or the number of detected detections / total number of detected faces in the twenties, or captured at the photographing time. An image corresponding to the face may be displayed at the face detection position.

以上述べたように、本実施形態では、スコア補正部18が顔の状態に基づいて部分スコアを補正することによって、属性推定に用いられる統合スコアを補正する。これにより、属性推定に顔の状態が与える悪影響を低減することができるため、誤推定の低減及び精度の向上が図れる。   As described above, in this embodiment, the score correction unit 18 corrects the partial score based on the face state, thereby correcting the integrated score used for attribute estimation. As a result, the adverse effect of the face state on the attribute estimation can be reduced, so that it is possible to reduce erroneous estimation and improve accuracy.

例として、ステップS13で顔31(図6)が選択された場合の人物属性推定処理について述べる。顔31の人物は、年齢層が「20代」であり、顔の向きが「正面」、顔器官の形状が「口元が上がっている」、顔の照明状態が「良好」である。   As an example, a human attribute estimation process when the face 31 (FIG. 6) is selected in step S13 will be described. The person of the face 31 has an age group of “20s”, the face direction is “front”, the shape of the facial organ is “the mouth is raised”, and the illumination state of the face is “good”.

まず、特徴量抽出部14によって特定された複数の特徴部(右目特徴部32a、左目特徴部32b、鼻特徴部32c、口特徴部32d)から夫々特徴量を抽出し(ステップS14)、各特徴量と参照特徴量を用いて年齢層ごとのスコアを算出する(ステップS15)。図7の例では、「10代以下、右目;0.2、左目;0.2、鼻;0.25、口;0.02」、「20代、右目;0.3、左目;0.3、鼻;0.3、口;0.03」、「30代、右目;0.2、左目;0.2、鼻;0.17、口;0.55」、「40代、右目;0.15、左目;0.15、鼻;0.15、口;0.2」、「50代以上、右目;0.15、左目;0.15、鼻;0.13、口;0.2」のように、年齢層ごとに部分スコアの合計が1になるように規格化された値が算出されている。従って、統合スコアは、「10代以下;0.1675」、「20代;0.2325」、「30代;0.28」、「40代;0.1625」、「50代以上;0.14」となる。この時点で属性を推定すると、「30代」の統合スコアが最も高いため、「20代」である顔31の人物の属性を「30代」と誤推定してしまう。そこで本実施形態では、スコア補正部18が顔の状態に基づいて次のようにスコアを補正する。   First, feature amounts are extracted from a plurality of feature portions (the right eye feature portion 32a, the left eye feature portion 32b, the nose feature portion 32c, and the mouth feature portion 32d) identified by the feature amount extraction unit 14 (step S14). A score for each age group is calculated using the amount and the reference feature amount (step S15). In the example of FIG. 7, “10 years or younger, right eye; 0.2, left eye; 0.2, nose; 0.25, mouth; 0.02”, “20s, right eye; 0.3, left eye; 3, nose; 0.3, mouth; 0.03 "," 30s, right eye; 0.2, left eye; 0.2, nose; 0.17, mouth; 0.55 "," 40s, right eye; 0.15, left eye; 0.15, nose; 0.15, mouth; 0.2, “50s and above, right eye; 0.15, left eye; 0.15, nose; 0.13, mouth; As in “2”, a standardized value is calculated so that the total of the partial scores is 1 for each age group. Therefore, the integrated score is “10 or less; 0.1675”, “20s; 0.2325”, “30s; 0.28”, “40s; 0.1625”, “50s or more; 14 ". If the attribute is estimated at this time, the integrated score of “30's” is the highest, so the attribute of the person of the face 31 who is “20's” is erroneously estimated as “30's”. Therefore, in the present embodiment, the score correction unit 18 corrects the score as follows based on the face state.

前述したように、顔31の人物は、顔の向きが「正面」、顔器官の形状が「口元が上が
っている」、顔の照明状態が「良好」であるので、ステップS17でのみスコアを補正する。顔31の顔器官の形状は「口元が上がっている」であるので、口を含んでいる特徴部(口特徴部32d)から算出された部分スコアの重みを下げる。具体的には、口特徴部32dから算出された部分スコアを5分の1にする。よって、補正後の部分スコアは、「10代以下、右目;0.2、左目;0.2、鼻;0.25、口;0.004」、「20代、右目;0.3、左目;0.3、鼻;0.3、口;0.006」、「30代、右目;0.2、左目;0.2、鼻;0.17、口;0.1」、「40代、右目;0.15、左目;0.15、鼻;0.15、口;0.04」、「50代以上、右目;0.15、左目;0.15、鼻;0.13、口;0.04」となり、補正後の統合スコアは、「10代以下;0.1635」、「20代;0.2265」、「30代;0.1675」、「40代;0.1225」、「50代以上;0.1175」となる(図7)。その結果、「20代」のスコアが最も高くなり、(補正回数は1回なので、ステップS21へ進み(ステップS19;NO)、)ステップS21で顔31の人物の属性は「20代」として正しく判定される。
As described above, the face 31 has a face orientation of “front”, a facial organ shape of “mouth is raised”, and a face illumination state of “good”. to correct. Since the shape of the facial organ of the face 31 is “the mouth is raised”, the weight of the partial score calculated from the feature portion (mouth feature portion 32d) including the mouth is lowered. Specifically, the partial score calculated from the mouth feature part 32d is set to 1/5. Therefore, the corrected partial score is “10 years or younger, right eye; 0.2, left eye; 0.2, nose; 0.25, mouth; 0.004”, “20s, right eye; 0.3, left eye. 0.3, nose; 0.3, mouth; 0.006 "," 30s, right eye; 0.2, left eye; 0.2, nose; 0.17, mouth; 0.1 "," 40s " , Right eye; 0.15, left eye; 0.15, nose; 0.15, mouth; 0.04, "50s and above, right eye; 0.15, left eye; 0.15, nose; 0.13, mouth 0.04 ”, and the integrated score after correction is“ 10 or less; 0.1635 ”,“ 20s; 0.2265 ”,“ 30s; 0.1675 ”,“ 40s; 0.1225 ” , "50s and above; 0.1175" (FIG. 7). As a result, the score of “20's” is the highest (because the number of corrections is one, so the process proceeds to step S21 (step S19; NO)), and the attribute of the person of the face 31 is correctly set to “20's” in step S21. Determined.

なお、本実施形態では、特徴量として、特徴点の位置、特徴部の全体もしくは一部の色の濃淡、皺の数などを挙げているが、特徴量は、顔器官の位置や皺の情報などのような加齢情報を得ることのできる量であればどのようなものであってもよい。また、特徴点、顔器官、及び、特徴部は必要な数だけ検出、特定することができ、それらの数が多いほど属性推定の精度の向上が期待できる。   In this embodiment, the feature amount includes the position of the feature point, the whole or a part of the color of the feature portion, the number of wrinkles, the number of wrinkles, and the like. Any amount may be used as long as it can obtain aging information such as. In addition, the necessary number of feature points, facial organs, and feature parts can be detected and specified, and the greater the number, the higher the accuracy of attribute estimation can be expected.

なお、本実施形態では、顔器官の位置関係に基づいて顔の向きを判定し、輪郭点の位置関係に基づいて顔器官の形状を判定し、顔器官の輝度値に基づいて顔の照明状態を判定しているが、顔の向き、顔器官の形状、及び、顔の照明状態を知ることができる手法であればどのような手法を用いてもよい。例えば、顔の向きについては、顔向きごとの顔器官の位置のテンプレートを用意してもよい。また、顔の照明状態については、顔器官の輝度値ではなく、特徴点の輝度値に基づいて判定してもよい。また、本実施形態の顔状態判定部15は、顔の向き、顔器官の形状、及び、顔の照明状態の全てを判定しているが、これらのうち1つ以上を判定すればよいし、属性推定に悪影響を与える状態であれば他の状態を判定してもよい。   In the present embodiment, the orientation of the face is determined based on the positional relationship of the facial organs, the shape of the facial organ is determined based on the positional relationship of the contour points, and the illumination state of the face is determined based on the luminance value of the facial organs. However, any method may be used as long as it can know the orientation of the face, the shape of the facial organ, and the illumination state of the face. For example, for the face orientation, a template of the position of the facial organ for each face orientation may be prepared. Further, the illumination state of the face may be determined based on the luminance value of the feature point instead of the luminance value of the facial organ. Further, the face state determination unit 15 of the present embodiment determines all of the face orientation, the shape of the facial organ, and the lighting state of the face, but one or more of these may be determined, Other states may be determined as long as they adversely affect attribute estimation.

なお、本実施形態の年齢層は10歳刻みで定義されているが、年齢層の幅は必要に応じて変えることができる。例えば、「5歳以下」、「5〜10歳」、「10〜15歳」・・・、のように、5歳刻みにしてもよいし、指数関数的に年齢層の幅を変えてもよい。   In addition, although the age group of this embodiment is defined in increments of 10 years, the width of the age group can be changed as necessary. For example, “5 years old or younger”, “5 to 10 years old”, “10 to 15 years old”, etc. may be set in increments of 5 years, or the width of the age group may be changed exponentially. Good.

なお、本実施形態における参照特徴量は、同じ年齢層に属する複数の人物の特徴量を平均したものであるが、参照特徴量は、複数の人物の年齢層そのものであってもよいし、その年齢層を表す特徴量であればどのようなものであってもよい。また、部分スコアは、特徴量抽出部14で特定された特徴部ごとの特徴量と、対応する特徴部の参照特徴量との類似度として(年齢層ごとに部分スコアの合計が1になるように)求められているが、部分スコアを規格化しなくてもよいし、参照特徴量の定義に応じて異なる手法で算出してもよい。例えば、参照特徴量が複数の人物の年齢層そのものである場合、類似している人物がその年齢層に何人いるのかを特徴部ごとにカウントし、その数を部分スコアとしてもよい。また、本実施形態では、部分スコアの平均値を統合スコアとしているが、統合スコアは合計値でもよいし、関数によって定義するなどでもよい。   Note that the reference feature amount in the present embodiment is an average of the feature amounts of a plurality of persons belonging to the same age group, but the reference feature amount may be an age group of a plurality of persons itself, Any feature amount representing an age group may be used. In addition, the partial score is a similarity between the feature amount for each feature portion specified by the feature amount extraction unit 14 and the reference feature amount of the corresponding feature portion (the sum of the partial scores is 1 for each age group). However, the partial score may not be standardized, or may be calculated by a different method depending on the definition of the reference feature amount. For example, when the reference feature amount is an age group of a plurality of persons, the number of similar persons in the age group is counted for each feature part, and the number may be used as a partial score. In the present embodiment, the average value of the partial scores is the integrated score, but the integrated score may be a total value or may be defined by a function.

なお、本実施形態では、特徴部として、「右目」、「左目」、「鼻」、「口」の4つを考えているが、これらに限らず、様々な部分を特定することができる。そのためには、特徴量抽出部14に予め特徴点と特定したい特徴部の対応関係を記憶させておけばよい。   In the present embodiment, four “right eye”, “left eye”, “nose”, and “mouth” are considered as the characteristic portions, but not limited to these, various portions can be specified. For this purpose, the feature quantity extraction unit 14 may store the correspondence between the feature point and the feature part to be specified in advance.

なお、本実施形態では、属性推定に悪影響を与える特徴部に対応する部分スコアの重み
を他の部分スコアの重みよりも小さくすることで統合スコアを補正しているが、補正方法としては、信頼性の高い特徴部の部分スコアの重みを大きくしてもよいし、属性推定に悪影響を与える特徴部に対応する部分スコアを除外してもよい。また、属性推定に悪影響を与える特徴部に対応する部分スコアの値を変えることでスコアを補正してもよいし(例えば、部分スコアを1つ上の年齢層に対応する部分スコアの値に変えたり、所定の年齢層の部分スコアのみを変えたりなど)、上記補正方法を組み合わせるなどでもよい。
In this embodiment, the integrated score is corrected by making the weight of the partial score corresponding to the characteristic part that adversely affects the attribute estimation smaller than the weight of the other partial scores. The weight of the partial score of the highly characteristic feature portion may be increased, or the partial score corresponding to the feature portion that adversely affects the attribute estimation may be excluded. Also, the score may be corrected by changing the value of the partial score corresponding to the feature that adversely affects the attribute estimation (for example, the partial score is changed to the value of the partial score corresponding to the age group one level above) Or changing only the partial score of a predetermined age group), or a combination of the above correction methods.

なお、本実施形態では、顔の状態に基づいて属性推定に悪影響を与える顔器官を特定し、該顔器官を含んでいる特徴部から算出された部分スコアを補正しているが、属性推定に悪影響を与える特徴点や特徴部を特定してもよい。また、特定された顔器官などに基づいて、悪影響を与える領域を特定してもよい。例えば、検出された顔が左向きの場合、左目を含んでいる特徴部ではなく、該顔の左半分の全体もしくは一部を含んでいる特徴部から算出された部分スコアを補正するなどでもよい。   In this embodiment, a facial organ that has an adverse effect on attribute estimation is identified based on the face state, and the partial score calculated from the feature including the facial organ is corrected. You may specify the feature point and feature part which give a bad influence. In addition, a region having an adverse effect may be specified based on the specified facial organs. For example, when the detected face is facing left, the partial score calculated from the feature including the whole or part of the left half of the face may be corrected instead of the feature including the left eye.

なお、本実施形態では、全ての特徴部の照明状態が悪い場合や、顔の向き、顔器官の形状、顔の照明状態の全てについて補正した場合に、その顔を推定対象から除外しているが、顔の向き、顔器官の形状、顔の照明状態、もしくは他の状態のうち2つ以上の状態について補正した場合であってもよい。このように、属性推定に悪影響を与える状態が重なった場合に、その顔画像を用いての属性推定を禁止したことで、信頼性の低い推定結果が出力されることを防ぐことができる。また、このような場合(顔から属性が判断できない場合)は顔以外の部分から属性を推定してもよい。例えば、服装、シルエット、身長と歩幅などの情報から属性を推定してもよい。   In the present embodiment, when the illumination state of all the feature portions is bad, or when all of the face direction, the shape of the facial organ, and the illumination state of the face are corrected, the face is excluded from the estimation target. However, it may be a case where two or more states are corrected among the orientation of the face, the shape of the facial organ, the illumination state of the face, or other states. In this way, when states that adversely affect attribute estimation overlap, it is possible to prevent an estimation result with low reliability from being output by prohibiting attribute estimation using the face image. In such a case (when the attribute cannot be determined from the face), the attribute may be estimated from a portion other than the face. For example, the attribute may be estimated from information such as clothes, silhouette, height and stride.

なお、本実施形態では、補正回数をカウントすることによって、その顔から属性推定ができるか否かを判断しているが、補正回数ではなく、補正をする前に顔の状態のみを判定し、補正を必要とする回数をカウントすることによって属性推定ができるか否かを判断してもよい。   In this embodiment, it is determined whether or not the attribute can be estimated from the face by counting the number of corrections, but not the number of corrections, only the state of the face is determined before correction, It may be determined whether the attribute can be estimated by counting the number of times that correction is required.

図1は、人物属性推定装置の機能構成を示すブロック図である。FIG. 1 is a block diagram showing a functional configuration of the person attribute estimation device. 図2は、人物属性推定装置の処理の流れを示すフローチャートである。FIG. 2 is a flowchart showing a flow of processing of the person attribute estimation device. 図3は、ステップS16の処理の流れを示すフローチャートである。FIG. 3 is a flowchart showing the flow of processing in step S16. 図4は、ステップS17の処理の流れを示すフローチャートである。FIG. 4 is a flowchart showing the flow of processing in step S17. 図5は、ステップS18の処理の流れを示すフローチャートである。FIG. 5 is a flowchart showing the flow of processing in step S18. 図6は、顔検出部13で検出された顔とその特徴部の一例を示す図である。FIG. 6 is a diagram illustrating an example of the face detected by the face detection unit 13 and its characteristic part. 図7は、補正前のスコアと補正後のスコアの一例を示す図である。FIG. 7 is a diagram illustrating an example of a score before correction and a score after correction.

符号の説明Explanation of symbols

11 撮像部
12 画像記憶部
13 顔検出部
14 特徴量抽出部
15 顔状態判定部
16 参照特徴量記憶部
17 スコア算出部
18 スコア補正部
19 属性推定部
20 結果記憶部
21 表示部
31 顔
32a〜32d 特徴部
DESCRIPTION OF SYMBOLS 11 Image pick-up part 12 Image memory | storage part 13 Face detection part 14 Feature-value extraction part 15 Face state determination part 16 Reference feature-value memory | storage part 17 Score calculation part 18 Score correction part 19 Attribute estimation part 20 Result storage part 21 Display part 31 Face 32a- 32d feature

Claims (9)

画像から人物の属性を推定する人物属性推定装置であって、
前記画像中の顔の状態を判定する顔状態判定手段と、
予め定められた複数の年齢層の夫々について、前記顔がその年齢層に該当する確率を表すスコアを算出するスコア算出手段と、
前記顔の状態に基づいて前記画像中の属性推定に悪影響を与える部分を特定し、前記属性推定に悪影響を与える部分の影響が小さくなるように、前記スコアを補正するスコア補正手段と、
年齢層ごとの補正後スコアのうち、最も高い確率を表す補正後スコアに対応する年齢層を該人物の属性とみなす属性推定手段と、
を備える
人物属性推定装置。
A human attribute estimation device for estimating a human attribute from an image,
Face state determining means for determining the state of the face in the image;
For each of a plurality of predetermined age groups, score calculating means for calculating a score representing the probability that the face corresponds to the age group;
A score correction unit that identifies a part that adversely affects attribute estimation in the image based on the state of the face, and that corrects the score so that the influence of the part that adversely affects the attribute estimation is reduced ;
Attribute estimation means that regards the age group corresponding to the corrected score representing the highest probability among the corrected scores for each age group as the attribute of the person,
A person attribute estimation device comprising:
前記スコアは、前記画像中の複数の部分から夫々算出された複数の部分スコアを統合することによって得られる統合スコアである
請求項1に記載の人物属性推定装置。
The person attribute estimation apparatus according to claim 1, wherein the score is an integrated score obtained by integrating a plurality of partial scores respectively calculated from a plurality of parts in the image.
前記スコア補正手段は、前記顔の状態に基づいて属性推定に悪影響を与える部分を特定し、前記属性推定に悪影響を与える部分に対応する部分スコアを除外することで前記統合スコアを補正する
請求項2に記載の人物属性推定装置。
The score correction means identifies a portion that adversely affects attribute estimation based on the face state, and corrects the integrated score by excluding a partial score corresponding to a portion that adversely affects the attribute estimation. 2. The person attribute estimation device according to 2.
前記スコア補正手段は、前記顔の状態に基づいて属性推定に悪影響を与える部分を特定し、前記属性推定に悪影響を与える部分に対応する部分スコアの値を変えることで前記統合スコアを補正する
請求項2に記載の人物属性推定装置。
The score correction means identifies a portion that adversely affects attribute estimation based on the face state, and corrects the integrated score by changing a value of a partial score corresponding to the portion that adversely affects the attribute estimation. Item 3. The person attribute estimation device according to Item 2.
前記スコアは、前記部分スコアごとに重み付けされた統合スコアであり、
前記スコア補正手段は、前記顔の状態に基づいて属性推定に悪影響を与える部分を特定し、前記属性推定に悪影響を与える部分に対応する部分スコアの重みを他の部分スコアの
重みよりも相対的に小さくすることで前記統合スコアを補正する
請求項2に記載の人物属性推定装置。
The score is an integrated score weighted for each partial score,
The score correction means identifies a portion that adversely affects attribute estimation based on the face state, and sets the weight of the partial score corresponding to the portion that adversely affects the attribute estimation relative to the weight of other partial scores The person attribute estimation device according to claim 2, wherein the integrated score is corrected by reducing the integrated score.
前記顔の状態は、顔の向き、顔器官の形状、及び、顔の照明状態のうち1つ以上を含む請求項1〜請求項5のいずれかに記載の人物属性推定装置。   The person attribute estimation device according to claim 1, wherein the face state includes one or more of a face orientation, a face organ shape, and a face illumination state. 前記画像中の顔の向き、顔器官の形状、及び、顔の照明状態のうち2つ以上の状態が属性推定に悪影響を与えるものであった場合に、前記属性推定手段による属性推定を禁止する
請求項6に記載の人物属性推定装置。
Attribute estimation by the attribute estimation unit is prohibited when two or more of the face orientation, facial organ shape, and face illumination state in the image have an adverse effect on attribute estimation. The person attribute estimation device according to claim 6.
画像から人物の属性を推定するコンピュータが、
前記画像中の顔の状態を判定し、
予め定められた複数の年齢層の夫々について、前記顔がその年齢層に該当する確率を表すスコアを算出し、
前記顔の状態に基づいて前記画像中の属性推定に悪影響を与える部分を特定し、前記属性推定に悪影響を与える部分の影響が小さくなるように、前記スコアを補正し、
年齢層ごとの補正後スコアのうち、最も高い確率を表す補正後スコアに対応する年齢層を該人物の属性とみなす
人物属性推定方法。
A computer that estimates human attributes from images
Determine the state of the face in the image,
For each of a plurality of predetermined age groups, a score representing the probability that the face corresponds to that age group is calculated,
Identifying a portion that adversely affects attribute estimation in the image based on the state of the face, correcting the score so that the influence of the portion that adversely affects the attribute estimation is reduced ,
A person attribute estimation method that regards an age group corresponding to a corrected score representing the highest probability among corrected scores for each age group as an attribute of the person.
画像から人物の属性を推定するコンピュータに、
前記画像中の顔の状態を判定するステップと、
予め定められた複数の年齢層の夫々について、前記顔がその年齢層に該当する確率を表すスコアを算出するステップと、
前記顔の状態に基づいて前記画像中の属性推定に悪影響を与える部分を特定し、前記属性推定に悪影響を与える部分の影響が小さくなるように、前記スコアを補正するステップと、
年齢層ごとの補正後スコアのうち、最も高い確率を表す補正後スコアに対応する年齢層を該人物の属性とみなすステップと、
を実行させるための人物属性推定プログラム。
A computer that estimates human attributes from images
Determining the state of the face in the image;
For each of a plurality of predetermined age groups, calculating a score representing the probability that the face corresponds to that age group;
Identifying a portion that adversely affects attribute estimation in the image based on the state of the face, and correcting the score so that the influence of the portion that adversely affects the attribute estimation is reduced ;
Of the corrected scores for each age group, the age group corresponding to the corrected score representing the highest probability is regarded as the attribute of the person,
A person attribute estimation program for executing.
JP2007123500A 2007-05-08 2007-05-08 Person attribute estimation device Active JP4888217B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007123500A JP4888217B2 (en) 2007-05-08 2007-05-08 Person attribute estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007123500A JP4888217B2 (en) 2007-05-08 2007-05-08 Person attribute estimation device

Publications (2)

Publication Number Publication Date
JP2008282089A JP2008282089A (en) 2008-11-20
JP4888217B2 true JP4888217B2 (en) 2012-02-29

Family

ID=40142875

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007123500A Active JP4888217B2 (en) 2007-05-08 2007-05-08 Person attribute estimation device

Country Status (1)

Country Link
JP (1) JP4888217B2 (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5347549B2 (en) * 2009-02-13 2013-11-20 ソニー株式会社 Information processing apparatus and information processing method
JP5246946B2 (en) * 2009-03-06 2013-07-24 パナソニック株式会社 Whole body region estimation device
JP5239952B2 (en) * 2009-03-10 2013-07-17 オムロン株式会社 Safe driving monitoring device
CN102870136B (en) 2010-06-21 2017-05-10 宝丽化学工业有限公司 Age estimation method
WO2012002047A1 (en) * 2010-06-30 2012-01-05 Necソフト株式会社 Attribute determination method, attribute determination device, program, recording medium and attribute determination system
JP5594015B2 (en) * 2010-09-21 2014-09-24 富士通株式会社 Image processing program and image processing apparatus
JP5788197B2 (en) * 2011-03-22 2015-09-30 オリンパス株式会社 Image processing apparatus, image processing method, image processing program, and imaging apparatus
WO2013099367A1 (en) * 2011-12-27 2013-07-04 Necソフト株式会社 Image recognition device, image recognition method, corrector, program, and recording medium
JP2014164641A (en) * 2013-02-27 2014-09-08 Seiko Epson Corp Image processing apparatus, robot control system, robot, program, and image processing method
JP6131732B2 (en) * 2013-06-18 2017-05-24 沖電気工業株式会社 Person attribute presentation apparatus and person attribute presentation method
JP2013229044A (en) * 2013-06-24 2013-11-07 Toshiba Corp Monitoring system and monitoring method
WO2015005426A1 (en) * 2013-07-10 2015-01-15 グローリー株式会社 Face matching device, face matching method and face matching program
JP6355306B2 (en) * 2013-07-10 2018-07-11 グローリー株式会社 Face matching device, face matching method, and face matching program
JP6355307B2 (en) * 2013-07-10 2018-07-11 グローリー株式会社 Face matching device, face matching method, and face matching program
JP6417664B2 (en) * 2013-12-27 2018-11-07 沖電気工業株式会社 Person attribute estimation device, person attribute estimation method and program
JP6369246B2 (en) 2014-09-08 2018-08-08 オムロン株式会社 Caricature generating device and caricature generating method

Also Published As

Publication number Publication date
JP2008282089A (en) 2008-11-20

Similar Documents

Publication Publication Date Title
JP4888217B2 (en) Person attribute estimation device
US11775056B2 (en) System and method using machine learning for iris tracking, measurement, and simulation
JP4830650B2 (en) Tracking device
US8432357B2 (en) Tracking object selection apparatus, method, program and circuit
JP4434236B2 (en) Image processing apparatus, image display apparatus, imaging apparatus, processing method and program thereof
JP4725377B2 (en) Face image registration device, face image registration method, face image registration program, and recording medium
CN104185849B (en) For computer readable recording medium storing program for performing of the offer on the method, apparatus of the notice of face recognition environment and for performing this method
WO2018222812A1 (en) System and method for guiding a user to take a selfie
JP5287333B2 (en) Age estimation device
CN109614910B (en) Face recognition method and device
US20130070973A1 (en) Face recognizing apparatus and face recognizing method
US20110001840A1 (en) Electronic camera and image processing method
US20050201594A1 (en) Movement evaluation apparatus and method
JP2007305030A (en) Red-eye processing method, device and program
EP3241151A1 (en) An image face processing method and apparatus
CN104063709B (en) Sight line detector and method, image capture apparatus and its control method
KR20100075167A (en) Apparatus and method for capturing digital image using face recognition function
JP6956986B1 (en) Judgment method, judgment device, and judgment program
KR101661211B1 (en) Apparatus and method for improving face recognition ratio
CN111259757B (en) Living body identification method, device and equipment based on image
US20060269128A1 (en) Image correction method and apparatus
JP4840978B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2012068948A (en) Face attribute estimating apparatus and method therefor
JP5653003B2 (en) Object identification device and object identification method
JP5242827B2 (en) Face image processing apparatus, face image processing method, electronic still camera, digital image processing apparatus, and digital image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111115

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111128

R150 Certificate of patent or registration of utility model

Ref document number: 4888217

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141222

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250