JP6397439B2 - Attribute estimation device - Google Patents

Attribute estimation device Download PDF

Info

Publication number
JP6397439B2
JP6397439B2 JP2016058137A JP2016058137A JP6397439B2 JP 6397439 B2 JP6397439 B2 JP 6397439B2 JP 2016058137 A JP2016058137 A JP 2016058137A JP 2016058137 A JP2016058137 A JP 2016058137A JP 6397439 B2 JP6397439 B2 JP 6397439B2
Authority
JP
Japan
Prior art keywords
attribute
likelihood
classification
group
category
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016058137A
Other languages
Japanese (ja)
Other versions
JP2017174054A (en
Inventor
健 糸賀
健 糸賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2016058137A priority Critical patent/JP6397439B2/en
Publication of JP2017174054A publication Critical patent/JP2017174054A/en
Application granted granted Critical
Publication of JP6397439B2 publication Critical patent/JP6397439B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、対象である人物等に関する画像等の情報から年齢等の属性を推定する属性推定装置に関する。   The present invention relates to an attribute estimation apparatus that estimates an attribute such as age from information such as an image related to a target person.

対象の特徴を表わす量として表現される属性を推定するにあたって、例えば人物の年齢を推定する場合には、人物の顔画像を取得して学習処理により構築された年齢推定手段に入力して結果を得る技術が提案されている。   When estimating an attribute expressed as a quantity representing a target feature, for example, when estimating the age of a person, a face image of the person is acquired and input to an age estimation means constructed by a learning process. Obtaining techniques have been proposed.

特許文献1には、推定に用いる特徴量を複数として、それぞれの特徴量を用いた年齢推定手段は予め学習処理に依って年齢層を推定するモデルからなるものとして、10歳刻みの年齢層を出力し、その多数決にて年齢層を決定する技術が開示されている。そして、さらに細かな年齢層を推定したい場合には、年齢層を分割すればよい旨も開示されている。   In Patent Document 1, there are a plurality of feature quantities used for estimation, and the age estimation means using each feature quantity is composed of a model that estimates an age group in advance by a learning process. A technique for outputting and determining an age group by majority vote is disclosed. It is also disclosed that the age group may be divided when it is desired to estimate a more detailed age group.

特開2004−318632号公報JP 2004-318632 A

特許文献1のように、入力顔画像の人物について年齢層らしさを得るためには、それぞれの年齢層について、その年齢層を正解、それ以外の年齢層を不正解とする識別器を年齢層ごとに用意した識別器群を構築することになる。   As in Patent Literature 1, in order to obtain the age group-like character of the person of the input face image, for each age group, classifiers that make the age group correct and other age groups incorrect are classified for each age group. The classifier group prepared in (1) is constructed.

ここで、特許文献1に開示があるように結果として求めたい年齢層を分割すると、各年齢層の識別器の学習処理において、正解としてラベル付与される顔画像が分割に伴って減少する。その場合、少ない正解の顔画像について学習処理を行うため、その年齢層の人物の顔の特徴を学習するというよりも、顔画像の人物の顔の特徴自体を学習することに近くなる。そうすると、例えば、瓜二つの親子の片方が正解の顔画像、もう一方が入力顔画像となった場合のように、正解の顔画像の人物と年齢は全く異なるが顔つきが良く似た人物の顔画像が入力されたときに、全く異なった年齢層として認識される可能性がある。   Here, when the age group to be obtained as a result is divided as disclosed in Patent Document 1, in the learning process of the classifier of each age group, face images labeled as correct answers are reduced along with the division. In this case, since learning processing is performed for a small number of correct face images, it is closer to learning the facial features of a person in the face image rather than learning the facial features of the person in that age group. Then, for example, the face of a person whose age is completely different from the person of the correct face image, such as when one of the two parents is the correct face image and the other is the input face image. When an image is input, it may be recognized as a completely different age group.

そのような事態を避けるためには、分割した年齢層ごとに十分な数の正解の顔画像を用意すれば良いが、実際には学習のための顔画像を収集するのは作業負担が大きく困難である。特に正解の顔画像を潤沢に集めるのは困難である。   In order to avoid such a situation, it is sufficient to prepare a sufficient number of correct face images for each divided age group, but in reality it is difficult to collect face images for learning. It is. In particular, it is difficult to collect a lot of correct face images.

そこで本発明は、上記問題を鑑みてなされたものであり、学習に使うデータの数を増やすことなく、細かい刻みで属性を推定することのできる属性推定装置を提供することを目的とする。   Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to provide an attribute estimation apparatus capable of estimating attributes in fine steps without increasing the number of data used for learning.

本発明の1つの態様は、属性の推定をする対象に関する情報を取得する情報取得手段と、前記対象に関し複数の属性区分に分けられる属性に関する属性特徴量を前記情報から求める属性特徴量演算手段と、前記属性において互いに異なる識別区分の特徴を学習し、学習した前記識別区分が互いに重複する前記属性区分である重複区分を有する識別器の組を含む複数の識別器を用いて、前記属性特徴量が前記識別区分の各々の特徴を有する度合いを表わす属性尤度を求める属性尤度演算手段と、前記識別器の組において求められた前記属性尤度を統合することによって前記属性特徴量が前記重複区分の特徴を有する度合いを表わす重複区分尤度を求め、少なくとも前記重複区分尤度を用いて前記対象が属する前記属性区分を推定する統合推定手段と、を備え、前記識別器の組は、前記属性の所定範囲を第1の区分にて割り当てた前記識別区分の各々の特徴を学習した第1の区分に属する識別器と、前記所定範囲を前記第1の区分とは異なる数の第2の区分にて割り当てた前記識別区分の各々の特徴を学習した第2の区分に属する識別器と、を含み、前記統合推定手段では、前記第1の区分に属する識別器において求められた前記属性尤度と前記第2の区分に属する識別器において求められた前記属性尤度とを統合することによって前記重複区分尤度を求めることを特徴とする属性推定装置である。 One aspect of the present invention is an information acquisition unit that acquires information about a target whose attribute is to be estimated; an attribute feature amount calculation unit that determines an attribute feature amount related to an attribute that is divided into a plurality of attribute categories regarding the target from the information; The attribute feature amount using a plurality of discriminators including a set of discriminators having an overlapping section which is an attribute section in which the learned classification sections overlap with each other, learning features of different classification sections in the attribute The attribute feature quantity overlaps by integrating the attribute likelihood obtained in the set of the classifier and attribute likelihood calculating means for obtaining the attribute likelihood representing the degree of each characteristic of the classification category An integrated estimator that obtains an overlap classification likelihood that represents a degree having a characteristic of the section and estimates the attribute classification to which the object belongs using at least the overlap classification likelihood When, with a set of classifiers, a classifier belonging to the first segment learned characteristics of each of the identified segments of predetermined ranges assigned in the first segment of the attributes, the predetermined range A classifier belonging to a second section that has learned the characteristics of each of the identification sections allocated in a different number of second sections from the first section, and the integrated estimation means includes: The overlap likelihood is obtained by integrating the attribute likelihood obtained in the classifier belonging to the category and the attribute likelihood obtained in the classifier belonging to the second category. It is an attribute estimation device.

また、前記識別器の組は、互いに異なる幅の前記識別区分の各々の特徴を学習した識別器を含むことが好適である。   Moreover, it is preferable that the set of classifiers includes classifiers that have learned the characteristics of the classification sections having different widths.

また、前記統合推定手段は、前記識別区分の範囲が広いほど当該識別区分に対して求められた前記属性尤度に大きな重み付けをして統合することによって前記重複区分尤度を求めることが好適である。   In addition, it is preferable that the integrated estimation unit obtains the overlapping category likelihood by integrating the attribute likelihood obtained for the identification category with a larger weight as the range of the identification category is wider. is there.

また、前記属性は、人の年齢又は人の毛髪長のいずれか1つであることが好適である。   Moreover, it is preferable that the said attribute is any one of a person's age or a person's hair length.

本発明によれば、学習に使うデータの数を増やすことなく、細かい刻みで属性を推定する属性推定装置を提供することができる。   According to the present invention, it is possible to provide an attribute estimation device that estimates an attribute in fine steps without increasing the number of data used for learning.

本発明の実施の形態における属性識別処理の概要を説明する図である。It is a figure explaining the outline | summary of the attribute identification process in embodiment of this invention. 本発明の実施の形態における尤度分布の統合処理を説明する図である。It is a figure explaining the integration process of likelihood distribution in embodiment of this invention. 第1の実施の形態における年齢推定装置の構成を示す図である。It is a figure which shows the structure of the age estimation apparatus in 1st Embodiment. 第1の実施の形態における年齢層推定モデルを示す図である。It is a figure which shows the age group estimation model in 1st Embodiment. 第1の実施の形態における顔画像の特徴量を説明する図である。It is a figure explaining the feature-value of the face image in 1st Embodiment. 第1の実施の形態における年齢層尤度分布及び世代尤度分布の統合処理を説明する図である。It is a figure explaining the integrated process of the age group likelihood distribution and generation likelihood distribution in 1st Embodiment. 第1の実施の形態における識別器の構成の別例を説明する図である。It is a figure explaining another example of composition of a discriminator in a 1st embodiment. 第2の実施の形態における毛髪長と属性区分の関係を示す図である。It is a figure which shows the relationship between the hair length and attribute division in 2nd Embodiment. 第2の実施の形態における毛髪長推定モデルを示す図である。It is a figure which shows the hair length estimation model in 2nd Embodiment. 第2の実施の形態における毛髪長の特徴量を説明する図である。It is a figure explaining the feature-value of the hair length in 2nd Embodiment. 本発明の変形例における推定モデルを示す図である。It is a figure which shows the estimation model in the modification of this invention.

[発明の概要説明]
具体的な人の属性についての例を示す前に、本発明の基本的な考えを説明する。図1(a)は、本発明にかかる識別器群を模式的に示す。
[Outline of the Invention]
Before giving an example of specific human attributes, the basic idea of the present invention will be described. FIG. 1A schematically shows a classifier group according to the present invention.

本発明では、推定対象の特徴の1つを示す属性について、当該属性を区分した属性区分のどこに属する可能性が高いかを推定する。本発明では、属性を2以上の識別器群によって推定する。各識別器群は、所定数の属性区分に対する識別器を有する。   In the present invention, for an attribute indicating one of the characteristics to be estimated, it is estimated where it is likely to belong to the attribute classification into which the attribute is classified. In the present invention, the attribute is estimated by two or more classifier groups. Each classifier group has classifiers for a predetermined number of attribute categories.

第一識別区分識別器群11は、識別区分識別器A〜識別区分識別器Gの7つを含む。また、第二識別区分識別器群12は、識別区分識別器H〜識別区分識別器Mの6つを含む。   The first classification classifier group 11 includes seven classification classification classifiers A to G. The second classification category classifier group 12 includes six classification category identifiers H to M.

第一識別区分識別器群11に含まれる識別区分識別器Aは、属性区分が“0”と“1”のデータを正解とし、それ以外の属性区分のデータを不正解として学習処理により構築されている。識別区分識別器Bは、属性区分が“2”と“3”のデータを正解とし、それ以外の属性区分のデータを不正解として学習処理により構築されている。以下同様に、識別区分識別器Gは、属性区分が“12”と“13”のデータを正解とし、それ以外の属性区分のデータを不正解として学習処理により構築されている。   The identification classification classifier A included in the first identification classification classifier group 11 is constructed by learning processing with data having attribute classifications “0” and “1” as correct answers and data in other attribute classifications as incorrect answers. ing. The identification classification discriminator B is constructed by learning processing with data having attribute classifications “2” and “3” as correct answers and data of other attribute classifications as incorrect answers. In the same manner, the classification classifier G is constructed by a learning process with data having attribute classifications “12” and “13” as correct answers and data of other attribute classifications as incorrect answers.

また、第二識別区分識別器群12に含まれる識別区分識別器Hは、属性区分が“1”と“2”のデータを正解とし、それ以外の属性区分のデータを不正解として学習処理により構築されている。識別区分識別器Iは、属性区分が“3”と“4”のデータを正解とし、それ以外の属性区分のデータを不正解として学習処理により構築されている。以下同様に、識別区分識別器Mは、属性区分が“11”と“12”のデータを正解とし、それ以外の属性区分のデータを不正解として学習処理により構築されている。   In addition, the classification classifier H included in the second classification classifier group 12 performs a learning process with data having attribute classifications “1” and “2” as correct answers and data in other attribute classifications as incorrect answers. Has been built. The discriminating classifier I is constructed by learning processing with the data having the attribute classifications “3” and “4” as correct answers and the data of other attribute classifications as incorrect answers. In the same manner, the identification classification discriminator M is constructed by a learning process with data having attribute classifications “11” and “12” as correct answers and data of other attribute classifications as incorrect answers.

このように、第一識別区分識別器群11と第二識別区分識別器群12は、その属性区分が重複する区間(以下、重複区分という)が存在するように区分されており、それぞれの属性区分に属するデータを正解として用意された学習用データを用いた学習処理により構築されている。例えば、第一識別区分識別器群11の識別区分識別器Aの属性区分は“0”と“1”であり、第二識別区分識別器群12の識別区分識別器Hの属性区分は“1”と“2”であり、互いに属性区分“1”を重複区分としている。   As described above, the first identification classification classifier group 11 and the second identification classification classifier group 12 are classified such that there are sections in which the attribute classifications overlap (hereinafter referred to as overlapping classifications). It is constructed by a learning process using learning data prepared as correct answers for data belonging to a category. For example, the attribute classification of the identification classification identifier A of the first identification classification identifier group 11 is “0” and “1”, and the attribute classification of the identification classification identifier H of the second identification classification identifier group 12 is “1”. "And" 2 ", and attribute classification" 1 "is an overlapping classification.

そして、図1(b)に示すように、入力画像を第一識別区分識別器群11及び第二識別区分識別器群12に含まれる識別区分識別器に入力し、入力画像についてそれぞれの識別区分識別器がデータの特徴を学習した属性の区分(以下、識別区分という)らしさを表わすとして出力されるスコアを並べ、正規化した第一識別区分尤度分布と第二識別区分尤度分布を求める。その後、両者を統合して統合尤度分布を求める。   And as shown in FIG.1 (b), an input image is input into the identification classification discriminator contained in the 1st identification classification discriminator group 11 and the 2nd identification classification discriminator group 12, and each identification classification | category is input about an input image. The discriminator learns the characteristics of the data and arranges the scores that are output as representing the likelihood of the attribute classification (hereinafter referred to as the identification classification), and obtains the normalized first identification classification likelihood distribution and second identification classification likelihood distribution. . Thereafter, both are integrated to obtain an integrated likelihood distribution.

第一識別区分尤度分布と第二識別区分尤度分布の統合について、図2を用いて説明する。図2には、入力データの属性区分が“5”の場合の第一識別区分尤度分布30と第二識別区分尤度分布31が模式的に示されている。   The integration of the first discrimination category likelihood distribution and the second discrimination category likelihood distribution will be described with reference to FIG. FIG. 2 schematically shows a first discrimination category likelihood distribution 30 and a second discrimination category likelihood distribution 31 when the attribute category of the input data is “5”.

入力データの正解の属性区分は“5”であるので、識別区分識別器Dが出力した尤度が高い値を示している。しかしその一方で、識別区分識別器Fが出力した尤度も高い値を示しており、識別区分識別器Cが出力した尤度より高くなっている。仮に、従来通りに第一識別区分識別器群11のみに含まれる識別区分識別器を用いた場合、入力データは最高の尤度を示す識別区分である属性区分“10”または“11”と判定される。実際には入力データの正解の属性区分は“5”であるので、これは誤りとなる。一方、第二識別区分尤度分布31を参照すると、識別区分識別器Jが最も高い尤度を示す。   Since the correct attribute category of the input data is “5”, the likelihood output by the discrimination category discriminator D is high. However, on the other hand, the likelihood output by the classification category discriminator F also shows a high value, which is higher than the likelihood output by the classification category identification device C. If an identification classification classifier included only in the first identification classification classifier group 11 is used as in the past, the input data is determined to be the attribute classification “10” or “11” which is the identification classification indicating the highest likelihood. Is done. Actually, since the correct attribute classification of the input data is “5”, this is an error. On the other hand, referring to the second classification category likelihood distribution 31, the classification category classifier J shows the highest likelihood.

そこで本発明では、属性区分の1つ毎に、第一識別区分尤度分布30と第二識別区分尤度分布31を統合して、統合尤度分布32を求める。例えば、統合の方法は、属性区間ごとに尤度の平均を求めて、その平均の総和で除算する正規化処理をする。正規化処理を省略してもよい。この統合処理により、識別区分識別器Fが正解とする属性区分“10”と“11”の尤度は値が大きく下がり、正解とする属性区分“5”の尤度が最高値となり、入力データの属性区分は“5”と正しく求められる。   Therefore, in the present invention, the integrated likelihood distribution 32 is obtained by integrating the first identification category likelihood distribution 30 and the second identification category likelihood distribution 31 for each attribute category. For example, in the integration method, a normalization process is performed in which an average of likelihood is obtained for each attribute section and divided by the sum of the averages. The normalization process may be omitted. As a result of this integration processing, the likelihoods of the attribute categories “10” and “11” that the discrimination category discriminator F makes correct are greatly reduced, and the likelihood of the attribute category “5” that is correct is the highest, and the input data Is correctly obtained as “5”.

すなわち本発明においては、重複区分を含む識別区分を学習した識別器をそれぞれ含む複数の識別区分識別器群を準備し、識別区分識別器群において求められた属性尤度を統合することによって重複区分の特徴を有する度合いを表わす重複区分尤度を求める。そして、この重複区分尤度を用いて対象が属する属性区分を推定する。これにより、何らかの原因で正解以外の属性区分で最高の尤度が算出されることで、推定結果が誤ることを防止することができる。   That is, in the present invention, by preparing a plurality of discriminating class discriminator groups each including discriminators that have learned discriminating classifications including overlapping segments, the attribute classification obtained in the discriminating class discriminator group is integrated to thereby overlap the classification The overlap classification likelihood representing the degree of having the above feature is obtained. Then, the attribute category to which the object belongs is estimated using this overlap category likelihood. Thereby, it is possible to prevent the estimation result from being erroneous by calculating the maximum likelihood in the attribute classification other than the correct answer for some reason.

[第1の実施形態(年齢推定装置)]
第1の実施形態として、本発明を年齢推定装置に適用した場合について説明する。すなわち対象は人物であり、属性は年齢であり、属性区分は年齢層となる。また、図1で示した第一識別区分識別器群11は第一年齢層識別器群、第二識別区分識別器群12は第二年齢層識別器群となる。対象の情報は顔画像とする。
[First embodiment (age estimation apparatus)]
As a first embodiment, a case where the present invention is applied to an age estimation apparatus will be described. That is, the object is a person, the attribute is age, and the attribute classification is an age group. Moreover, the 1st classification division classifier group 11 shown in FIG. 1 becomes a 1st age group identification device group, and the 2nd identification classification classifier group 12 becomes a 2nd age group identification device group. The target information is a face image.

図3に年齢推定装置100のブロック図を示す。年齢推定装置100は、入力画像、本実施の形態では人物の顔画像を取得するための撮像装置50に接続され、図示しない外部の装置へ推定結果を出力するよう構成されている。   FIG. 3 shows a block diagram of the age estimating apparatus 100. The age estimation device 100 is connected to an imaging device 50 for acquiring an input image, in this embodiment a human face image, and is configured to output an estimation result to an external device (not shown).

撮像装置50は、いわゆるカメラでありCCDやC−MOSといった撮像素子とレンズを含んで構成される。撮像装置50の解像度は、年齢推定装置100において推定対象となる属性、撮像装置50の設置環境、推定処理部120の処理能力等に応じて決定すればよく、例えば1600×1200画素とされる。撮像装置50は、年齢の推定対象の人物の顔や頭部の画像を撮影して、入力画像として年齢推定装置100に入力する。   The imaging device 50 is a so-called camera and includes an imaging element such as a CCD or C-MOS and a lens. The resolution of the imaging device 50 may be determined according to the attribute to be estimated in the age estimation device 100, the installation environment of the imaging device 50, the processing capability of the estimation processing unit 120, and the like, for example, 1600 × 1200 pixels. The imaging device 50 captures an image of the face or head of a person whose age is to be estimated, and inputs the image to the age estimation device 100 as an input image.

年齢推定装置100は、CPU/MPU、各種メモリ類、周辺回路などから構成され、撮像装置50が取得した入力画像から顔画像を抽出して、それに写っている人物の年齢を推定して出力する。年齢推定装置100は、画像取得手段110、推定処理部120、記憶部130及び出力部140を含んで構成される。   The age estimation device 100 is composed of a CPU / MPU, various memories, peripheral circuits, and the like, extracts a face image from an input image acquired by the imaging device 50, estimates the age of a person shown in the image, and outputs it. . The age estimation apparatus 100 includes an image acquisition unit 110, an estimation processing unit 120, a storage unit 130, and an output unit 140.

情報取得手段として動作する画像取得手段110は、撮像装置50と接続されるインターフェース回路であり、撮像装置50によって撮影された入力画像を取得し、推定処理部120へ出力する。撮像装置50の代わりに、ハードディスク等の記憶媒体から過去に撮像されていた入力画像を取得するようにしてもよい。また、ネットワークを介して外部装置から送信されてきた入力画像を取得してもよい。   The image acquisition unit 110 that operates as an information acquisition unit is an interface circuit connected to the imaging device 50, acquires an input image captured by the imaging device 50, and outputs the input image to the estimation processing unit 120. Instead of the imaging device 50, an input image captured in the past may be acquired from a storage medium such as a hard disk. Moreover, you may acquire the input image transmitted from the external device via the network.

出力部140は、推定処理部120において入力画像の人物について推定された年齢層を外部機器(不図示)に出力するためのインターフェース及びその制御回路である。外部機器は、表示装置(モニタ)でもよいし、または別途推定の履歴を記憶しておくための記憶装置でもよい。または、ネットワークを介してサーバーマシンに推定された年齢層を送信してもよい。   The output unit 140 is an interface for outputting the age group estimated for the person in the input image by the estimation processing unit 120 to an external device (not shown) and its control circuit. The external device may be a display device (monitor) or a storage device for storing a separate estimation history. Alternatively, the estimated age group may be transmitted to the server machine via the network.

記憶部130は、ROM、RAMなど半導体メモリやハードディスク等の大規模記憶手段を含んで構成され、年齢推定装置100を制御するためのプログラム(不図示)、プログラムモジュールにて実現される推定処理部120のプログラム(不図示)及び各種データを記憶し、推定処理部120との間で情報を入出力する。各種データには、少なくとも、年齢層推定モデル131が含まれる。   The storage unit 130 includes a large-scale storage unit such as a semiconductor memory such as a ROM and a RAM, a hard disk, and the like, and an estimation processing unit realized by a program (not shown) for controlling the age estimation apparatus 100 and a program module. 120 programs (not shown) and various data are stored, and information is input to and output from the estimation processing unit 120. Various data includes at least an age group estimation model 131.

図4に、年齢層推定モデル131を模式的に示す。年齢層推定モデル131は、第一年齢層識別器群132、第二年齢層識別器群133、世代識別器群134から構成される。   FIG. 4 schematically shows the age group estimation model 131. The age group estimation model 131 includes a first age group classifier group 132, a second age group classifier group 133, and a generation classifier group 134.

第一年齢層識別器群132は、年齢層識別器A、年齢層識別器B・・・年齢層識別器Gの7つから構成される。年齢層識別器Aは、年齢10〜19歳の識別区分に該当する人物の顔画像を正解、それ以外の年齢層を不正解とした学習処理により構築される。年齢層識別器Bは、年齢20〜29歳の識別区分に該当する人物の顔画像を正解、それ以外の年齢層を不正解とした学習処理により構築される。同様に、年齢層識別器Cから年齢層識別器Gまでがそれぞれ年齢30〜39歳、40〜49歳、50〜59歳、60〜69歳、70〜79歳の識別区分に該当する人物の顔画像を正解、それ以外を不正解とした学習処理により構築される。   The first age group discriminator group 132 includes seven age group discriminators A, age group discriminators B... The age group discriminator A is constructed by a learning process in which a face image of a person corresponding to an age classification of 10 to 19 years is correct, and other age groups are incorrect. The age group discriminator B is constructed by a learning process in which the face image of a person corresponding to the classification category of ages 20 to 29 is correct and the other age groups are incorrect. Similarly, the age classifier C to the age group classifier G are those of persons corresponding to the classification categories of ages 30 to 39, 40 to 49, 50 to 59, 60 to 69, and 70 to 79, respectively. It is constructed by a learning process in which the face image is correct and the others are incorrect.

第二年齢層識別器群133は、年齢層識別器H、年齢層識別器I・・・年齢層識別器Mの6つから構成される。年齢層識別器Hは、年齢15〜24歳の識別区分に該当する人物の顔画像を正解、それ以外の年齢層を不正解とした学習処理により構築される。年齢層識別器Iは、年齢25〜34歳の識別区分に該当する人物の顔画像を正解、それ以外の年齢層を不正解とした学習処理により構築される。同様に、年齢層識別器Jから年齢層識別器Mまでがそれぞれ年齢35〜44歳、45〜54歳、55〜64歳、65〜74歳の識別区分に該当する人物の顔画像を正解、それ以外を不正解とした学習処理により構築される。   The second age group discriminator group 133 is composed of six of an age group discriminator H, an age layer discriminator I... The age group discriminator H is constructed by a learning process in which the face image of a person corresponding to the classification category of ages 15 to 24 is correct and the other age groups are incorrect. The age group discriminator I is constructed by a learning process in which the face image of the person corresponding to the classification category of the ages 25 to 34 is correct and the other age groups are incorrect. Similarly, the correct images of the face images of the persons corresponding to the classification categories of the ages 35 to 44, 45 to 54, 55 to 64, and 65 to 74, from the age group classifier J to the age group classifier M, It is constructed by a learning process in which other than that is incorrect.

さらに、本実施の形態における年齢層推定モデル131は、世代識別器群134も備える。世代識別器群134は、若年世代識別器N、壮年世代識別器O、老年世代識別器Pから構成される。若年世代識別器Nは、年齢10〜34歳の識別区分に該当する人物の顔画像を正解、それ以外の年齢層を不正解とした学習処理により構築される。壮年世代識別器Oは、年齢35〜54歳の識別区分の人物に該当する顔画像を正解、それ以外の年齢層を不正解として学習処理により構築される。老年世代識別器Pは、年齢55〜80歳の識別区分の人物に該当する顔画像を正解、それ以外の年齢層を不正解として学習処理により構築される。世代識別器群134は、第一年齢層識別器群132及び第二年齢層識別器群133と比較すると、正解とする年齢層の幅が広く、それぞれの名称どおりに入力画像に写されている人物の世代らしさを出力する。   Furthermore, the age group estimation model 131 in the present embodiment also includes a generation discriminator group 134. The generation classifier group 134 includes a young generation classifier N, a grand generation classifier O, and an old age classifier P. The young generation classifier N is constructed by a learning process in which a face image of a person corresponding to a classification category of 10 to 34 years of age is correct, and other age groups are incorrect. The senior generation classifier O is constructed by learning processing with a face image corresponding to a person in the classification category of ages 35-54 as the correct answer and other age groups as incorrect answers. The old age generation classifier P is constructed by learning processing with a face image corresponding to a person in the classification category of ages 55 to 80 as a correct answer and other age groups as incorrect answers. Compared with the first age group classifier group 132 and the second age group classifier group 133, the generation classifier group 134 has a wider range of correct age groups and is copied to the input image according to each name. Outputs the generational quality of a person.

第一年齢層識別器群132と第二年齢層識別器群133に加え、世代識別器群134をも併用することにより、顔が良く似た親子のように、年齢層がまったく異なるが顔つきの特徴が共通しており誤った結果を出力する可能性がある場合にも、世代識別器群134によりまずは大まかに正解の世代を特定し、加えて年齢層を推定することによって推定精度を向上させることができる。   In addition to the first age group discriminator group 132 and the second age group discriminator group 133, the generation discriminator group 134 is also used in combination, so that the age group is completely different, like a parent and child whose faces are very similar, but with a face. Even when there is a possibility of outputting wrong results due to common characteristics, the generation discriminator 134 first identifies a correct generation roughly, and additionally estimates the age group to improve the estimation accuracy. be able to.

推定処理部120は、メモリ、その周辺回路及びそのマイクロプロセッサなどのいわゆるコンピュータにより構成され、画像取得手段110から入力された入力画像に対し各種処理を実行し、その処理結果を出力部140に出力する。   The estimation processing unit 120 includes a so-called computer such as a memory, a peripheral circuit thereof, and a microprocessor thereof, executes various processes on the input image input from the image acquisition unit 110, and outputs the processing result to the output unit 140. To do.

そのために推定処理部120は、特徴量演算手段121、第一年齢層尤度演算手段122、第二年齢層尤度演算手段123、世代尤度演算手段124、統合推定手段125を有する。各手段は、マイクロプロセッサ上で動作するソフトウェアにより実現させる機能モジュールである。   For this purpose, the estimation processing unit 120 includes a feature amount calculation unit 121, a first age group likelihood calculation unit 122, a second age group likelihood calculation unit 123, a generation likelihood calculation unit 124, and an integrated estimation unit 125. Each means is a functional module realized by software operating on a microprocessor.

特徴量演算手段121は、画像取得手段110から入力画像を取得し、顔画像を抽出した後に、年齢層を推定するための属性特徴量を算出する。入力画像からの顔画像の抽出は周知の技術を用いればよい。例えば背景差分を施したうえで顔らしい楕円形状を検出したり、顔の特徴を学習した識別器を用意して入力画像を順次走査し顔らしい形状を検出したりすればよい。   The feature amount calculation unit 121 acquires an input image from the image acquisition unit 110, extracts a face image, and then calculates an attribute feature amount for estimating an age group. A known technique may be used to extract a face image from an input image. For example, an oval shape that looks like a face may be detected after performing a background difference, or an identifier that has learned facial features may be prepared to sequentially scan the input image to detect the shape that looks like a face.

属性特徴量は、特に制限されるものではない。例えば、図5に示すように、顔画像300から特徴点301を抽出の後、ハールライク(Haar-Like)特徴量302、特徴点同士の距離303、ガボール(Gabor)特徴量304、HOG(Histogram of Oriented Gradient)特徴量305、LBP(Local Binary Pattern)特徴量(不図示)から適宜選択して成分とした特徴量ベクトルとすればよい。   The attribute feature amount is not particularly limited. For example, as shown in FIG. 5, after extracting a feature point 301 from the face image 300, a Haar-Like feature value 302, a distance 303 between feature points, a Gabor feature value 304, a HOG (Histogram of) What is necessary is just to make it the feature-value vector which was suitably selected from Oriented Gradient) feature-value 305 and LBP (Local Binary Pattern) feature-value (not shown) as a component.

特徴量演算手段121は、算出した属性特徴量を、第一年齢層尤度演算手段122、第二年齢層尤度演算手段123、世代尤度演算手段124に出力する。   The feature amount calculating unit 121 outputs the calculated attribute feature amount to the first age group likelihood calculating unit 122, the second age group likelihood calculating unit 123, and the generation likelihood calculating unit 124.

第一年齢層尤度演算手段122は、属性特徴量を用い、記憶部130に記憶されている第一年齢層識別器群132を読み出して、年齢層毎の尤度を算出して並べ、正規化した尤度分布を求める。例えば、第一年齢層識別器群132の年齢層識別器Aを用いて、属性特徴量が入力顔画像の人物の10〜19歳らしさを表わす尤度を求める。同様に、年齢層識別器B〜年齢層識別器Gによってそれぞれの年齢層らしさを表わす尤度を求める。これにより、図6に示すように、年齢層識別器A〜年齢層識別器Gによって求められた尤度を正規化した第一年齢層尤度分布400が得られる。なお、図6は、実際の年齢が39歳の人物の顔画像について識別区分毎に尤度を求めた結果を示している。   The first age group likelihood calculating means 122 reads the first age group discriminator group 132 stored in the storage unit 130 using the attribute feature quantity, calculates and arranges the likelihood for each age group, Find the normalized likelihood distribution. For example, using the age group discriminator A of the first age group discriminator group 132, the likelihood that the attribute feature amount represents the likelihood of the person of the input face image being 10-19 years old is obtained. Similarly, the likelihoods representing the likelihood of each age group are obtained by the age group discriminators B to G. As a result, as shown in FIG. 6, a first age group likelihood distribution 400 obtained by normalizing the likelihood obtained by the age group discriminator A to the age group discriminator G is obtained. FIG. 6 shows the result of obtaining the likelihood for each identification category for the face image of a person whose actual age is 39 years.

同様に、第二年齢層尤度演算手段123は、第二年齢層識別器群133に含まれる年齢層識別器H〜年齢層識別器Mを用いて、属性特徴量がそれぞれの年齢層らしさを表わす尤度を求める。これにより、図6に示すように、年齢層識別器H〜年齢層識別器Mによって求められた尤度を正規化した第二年齢層尤度分布410が得られる。   Similarly, the second age group likelihood calculation means 123 uses the age group discriminator H to the age group discriminator M included in the second age group discriminator group 133, and the attribute feature amount indicates the likelihood of each age group. Find the likelihood to represent. Thereby, as shown in FIG. 6, a second age layer likelihood distribution 410 obtained by normalizing the likelihood obtained by the age group discriminator H to the age group discriminator M is obtained.

同様に、世代尤度演算手段124は、世代識別器群134に含まれる若年世代識別器N、壮年世代識別器O及び老年世代識別器Pを用いて、属性特徴量がそれぞれの世代らしさを表わす尤度を求める。これにより、図6に示すように、若年世代識別器N、壮年世代識別器O及び老年世代識別器Pによって求められた尤度を正規化した世代尤度分布420が得られる。   Similarly, the generation likelihood calculation means 124 uses the young generation discriminator N, the grand generation discriminator O, and the old age discriminator P included in the generation discriminator group 134, and the attribute feature amount represents the generation likelihood. Find the likelihood. As a result, as shown in FIG. 6, a generation likelihood distribution 420 obtained by normalizing the likelihoods obtained by the young generation classifier N, the grand generation classifier O, and the old age classifier P is obtained.

統合推定手段125は、第一年齢層尤度分布400、第二年齢層尤度分布410及び世代尤度分布420を統合して、最も高い尤度を示した属性区分である年齢層を入力顔画像に写った人物の年齢層として推定する。統合方法は、発明の概要説明において説明した方法と同様である。   The integrated estimation unit 125 integrates the first age group likelihood distribution 400, the second age group likelihood distribution 410, and the generation likelihood distribution 420, and inputs the age group that is the attribute category indicating the highest likelihood as the input face. Estimated as the age group of the person in the image. The integration method is the same as the method described in the outline description of the invention.

統合推定手段125は、属性区分の1つ毎に、第一年齢層尤度分布400、第二年齢層尤度分布410及び世代尤度分布420を統合して統合尤度分布430を求める。例えば、統合の方法は、属性区分毎に第一年齢層尤度分布400、第二年齢層尤度分布410及び世代尤度分布420の尤度の平均を求めて、全ての平均の総和で除算する正規化を施して統合尤度とする。正規化処理を省略してもよい。   The integrated estimation unit 125 determines the integrated likelihood distribution 430 by integrating the first age group likelihood distribution 400, the second age group likelihood distribution 410, and the generation likelihood distribution 420 for each attribute category. For example, the integration method obtains the average of the likelihoods of the first age group likelihood distribution 400, the second age group likelihood distribution 410, and the generation likelihood distribution 420 for each attribute category, and divides by the sum of all the averages. Normalization is performed to obtain integrated likelihood. The normalization process may be omitted.

なお、統合推定手段125が行う統合処理の際に、識別区分の中間の値が最高値となり、識別区分の境界に近づくほど値が小さくなるような重みを付けてもよい。これは、入力画像が識別区分の境界に近い年齢を正解とする場合には、その隣接する識別区分でも高い尤度を示すことが多く、どちらの識別区分が正しいかの、いわば信頼性が低いと考えられるからである。   In the integration process performed by the integration estimation unit 125, a weight may be given such that the intermediate value of the identification classification is the highest value, and the value decreases as the boundary of the identification classification is approached. This is because, when the input image is correct when the age is close to the boundary of the identification classification, the adjacent identification classification often shows high likelihood, and which classification classification is correct, the reliability is low. Because it is considered.

重みは、識別区分の中間における最高値が1.0、識別区分の境界に近づくほど0に近い値とするのが好適である。例えば、グラフを描画すると三角波や正規分布に似た形となるように重みを設定する。   It is preferable that the weight is 1.0 as the maximum value in the middle of the identification section and closer to 0 as the boundary of the identification section is approached. For example, weights are set so that when a graph is drawn, a shape similar to a triangular wave or normal distribution is obtained.

本実施の形態では、第一年齢層尤度分布400及び第二年齢層尤度分布410では5歳刻みの属性区分を2つ組み合わせた10歳刻みの識別区分毎の尤度を求めており、世代尤度分布420では5歳刻みの属性区分をそれぞれ5つ、4つ、5つ組み合わせた識別区分毎の尤度を求めているのに対して、統合尤度分布430では重複区分について尤度を統合することにより5歳刻みの重複区分尤度が得られる。   In the present embodiment, in the first age group likelihood distribution 400 and the second age group likelihood distribution 410, the likelihood for each identification category in 10-year increments obtained by combining two attribute segments in 5-year increments is obtained. In the generation likelihood distribution 420, the likelihood for each identification section obtained by combining five, four, and five attribute sections in increments of five years is obtained, whereas in the integrated likelihood distribution 430, the likelihood for overlapping sections is calculated. Can be used to obtain the overlapping section likelihood in increments of 5 years.

第一年齢層尤度分布400では、正解となる年齢層識別器Cの尤度が高く、すぐ上の年齢層を正解とした年齢層識別器Dの尤度も高い。しかし、全く異なる年齢層を正解とする年齢層識別器Fの尤度の方が高く、第一年齢層尤度分布400のピークの尤度を参照して推定結果とすると、実際の年齢が39歳の人物が60〜69歳の年齢層として推定されてしまう。一方、第二年齢層尤度分布410では、正解となる年齢層識別器Jの尤度が最も高い。さらに、世代尤度分布420でも、正解となる世代である壮年世代識別器Oの尤度が最も高い。   In the first age group likelihood distribution 400, the likelihood of the correct age group discriminator C is high, and the likelihood of the age group discriminator D having the correct age group as the correct answer is also high. However, the likelihood of the age group discriminator F having a completely different age group as a correct answer is higher, and if the estimation result is referred to with reference to the likelihood of the peak of the first age group likelihood distribution 400, the actual age is 39. An old person is estimated as an age group of 60 to 69 years old. On the other hand, in the second age group likelihood distribution 410, the likelihood of the correct age group discriminator J is the highest. Furthermore, also in the generation likelihood distribution 420, the likelihood of the grand generation discriminator O which is a correct generation is the highest.

そして、第一年齢層尤度分布400、第二年齢層尤度分布410及び世代尤度分布420を統合した統合尤度分布430では、正解である35〜39歳の属性区分(年齢層)の尤度(重複区分尤度)が最大値を示しており、統合推定手段125は人物を“35〜39歳”と推定してその結果を出力部140に出力する。   In the integrated likelihood distribution 430 obtained by integrating the first age group likelihood distribution 400, the second age group likelihood distribution 410, and the generation likelihood distribution 420, the correct attribute category (age group) of 35 to 39 years old is obtained. The likelihood (overlapping division likelihood) shows the maximum value, and the integrated estimation means 125 estimates the person as “35 to 39 years old” and outputs the result to the output unit 140.

なお、統合推定手段125は、最大値の尤度を示した属性区分の中央値(ここでは“37歳”)を推定年齢として出力してもよい。また、統合推定手段125は、各属性区分の代表値を用いて、その年齢層の尤度を重みとした重み付き平均値を推定結果として出力してもよい。属性区分の代表値とは、その属性区分の上限と下限の平均値である。例えば“30〜39歳”の属性区分では代表値として34.5歳とする。さらには重み付き平均の計算においては、尤度の高い上位所定数の属性区分のみを用いてもよい。   Note that the integrated estimation unit 125 may output the median value of the attribute classification indicating the likelihood of the maximum value (here, “37 years old”) as the estimated age. Further, the integrated estimation unit 125 may output a weighted average value with the likelihood of the age group as a weight, as the estimation result, using the representative value of each attribute category. The representative value of the attribute classification is an average value of the upper limit and the lower limit of the attribute classification. For example, in the attribute classification “30 to 39 years old”, the representative value is 34.5 years old. Further, in the calculation of the weighted average, only the upper predetermined number of attribute categories having a high likelihood may be used.

本実施の形態では、第一年齢層識別器群132及び第二年齢層識別器群133に含まれる年齢層識別器A〜年齢層識別器Mでは10歳幅の識別区分毎を学習領域としているが、5歳幅の重複区分を有する識別器の組を含んでいる。単純に年齢層識別器の識別区分の幅を5歳としてしまうと、それに応じて正解の学習用顔画像が少なくなってしまうので当該識別区分に該当する年齢層の顔の特徴よりも、むしろ学習用顔画像の人物自身の顔の特徴を学習した年齢層識別器が構築される傾向が避けられない。その場合、入力顔画像に写っている人物の年齢よりも、顔つきが似ている人物について学習した年齢層識別器の出力に引き摺られて、誤った属性区分(年齢層)に該当するという推定がなされる可能性が高まる。これに対して、本実施の形態では、各年齢層識別器の識別区分は10歳としつつ、重複区分を有する複数の年齢層識別器を用意して、重複区分毎に統合された尤度を求めることで、5歳刻みの属性区分における年齢の推定の確度を高めることができる。   In the present embodiment, in the age group discriminator A to the age group discriminator M included in the first age group discriminator group 132 and the second age group discriminator group 133, each 10-year-old discriminating section is set as a learning region. Includes a set of discriminators having a 5-year-old overlapping section. If the age group identifier is simply 5 years old, the correct learning face image will be reduced accordingly, so learning rather than the facial features of the age group corresponding to that class. There is an unavoidable tendency to construct an age classifier that learns the facial features of a person's own face image. In that case, it is dragged to the output of the age group discriminator who learned about a person with a similar face rather than the age of the person shown in the input face image, and it is estimated that it falls into the wrong attribute classification (age group) The possibility of being made increases. On the other hand, in the present embodiment, while the identification division of each age group discriminator is 10 years old, a plurality of age group discriminators having overlapping divisions are prepared, and the likelihood integrated for each overlapping division is set. By calculating, it is possible to increase the accuracy of age estimation in the attribute classification in increments of 5 years.

さらに、識別区分の幅をさらに大きくして世代毎の顔の特徴を学習した若年世代識別器N、壮年世代識別器O及び老年世代識別器Pを用意することで、10歳幅の年齢層識別器を含む第一年齢層識別器群132及び第二年齢層識別器群133の組み合わせでも抑えられないような世代を超えた誤推定を回避することができる。   Furthermore, by providing a young generation classifier N, a middle age classifier O, and an old age classifier P that learn the facial features of each generation by increasing the width of the classification category, age group identification of 10 years old It is possible to avoid generational erroneous estimation that cannot be suppressed even by the combination of the first age group discriminator group 132 and the second age group discriminator group 133 including the device.

なお、属性区分は5歳刻みに限定されない。例えば、属性区分を2歳刻みとして、同様な処理によって2歳幅で年齢を推定することが可能となる。また、各年齢層識別器の識別区分を10歳幅に固定する必要はない。年齢層識別器同士の識別区分が重複区分を含むという条件下、学習に用いる顔画像の年齢層毎の数に応じて識別区分の幅を調整してもよい。例えば、識別区分毎の学習に使用する正解の顔画像の下限数(例えば、顔画像の全体数の5%)を設定しておき、正解の顔画像の数が下限数に到達しない場合には識別区分の幅を広くしてもよい。また、正解の顔画像の数が多いほど識別区分の幅を狭くするようにしてもよい。   Note that the attribute classification is not limited to 5 years. For example, it is possible to estimate the age with a 2-year-old width by the same process, with the attribute classification set in increments of 2 years. Moreover, it is not necessary to fix the identification classification of each age group classifier to 10 years old. Under the condition that the identification classification between the age classifiers includes an overlapping classification, the width of the identification classification may be adjusted according to the number of face images used for learning for each age group. For example, when the lower limit number of correct face images (for example, 5% of the total number of face images) used for learning for each classification category is set and the number of correct face images does not reach the lower limit number The width of the identification section may be widened. Further, the width of the identification section may be narrowed as the number of correct face images increases.

以上のように、年齢推定装置100の構築にあたって用意された学習用の顔画像を最大限に利用して、誤推定を回避しつつ、従来よりも細かく年齢層を推定できる。   As described above, the age group can be estimated more finely than in the past while avoiding erroneous estimation by making maximum use of the learning face image prepared in constructing the age estimation apparatus 100.

なお、年齢層推定モデル131として、第一年齢層識別器群132及び第二年齢層識別器群133のみを用いて、世代識別器群134を用いなくてもよい。この場合、年齢層識別器の数は減るが、第二年齢層識別器群133の年齢の刻みの幅(属性区分の刻みの幅)を、第一年齢層識別器群132よりも広くしてもよい。これにより、世代識別器群134を併用した場合と同様に、全く異なった年齢層に推定されることを防ぐことができる。すなわち、属性区分毎に用意される正解の画像が少ないと、その属性区分毎に共通した特徴より画像自体の特徴が学習される傾向があるが、属性区分の幅を広く設定することで属性区分毎の特徴を学習させることができるからである。   As the age group estimation model 131, only the first age group classifier group 132 and the second age group classifier group 133 may be used, and the generation classifier group 134 may not be used. In this case, although the number of age group discriminators decreases, the width of the age step (width of the attribute division step) of the second age group discriminator group 133 is made wider than that of the first age group discriminator group 132. Also good. As a result, as in the case where the generation discriminator group 134 is used in combination, it can be prevented that the age group is completely different. In other words, if there are few correct images prepared for each attribute category, the features of the image itself tend to be learned rather than the features common to each attribute category. This is because each feature can be learned.

また、統合推定手段125では、属性区分毎に第一年齢層尤度分布400と第二年齢層尤度分布410の平均を算出するものとしているがこれに限定されるもりではない。   In addition, the integrated estimation unit 125 calculates the average of the first age group likelihood distribution 400 and the second age group likelihood distribution 410 for each attribute category, but the present invention is not limited to this.

例えば、各識別器に割り当てられた属性区分の幅に応じて尤度に重み付けをして統合処理を施すことが好適である。図7に示すように、第一年齢層識別器群132と第二年齢層識別器群150を構築した場合、統合推定手段125は属性区分151については年齢層識別器Cと年齢層識別器Qから出力される尤度を合成する。年齢層識別器Cの年齢層の範囲は10歳、年齢層識別器Qの年齢層の範囲は25歳であるので統合する際には両者の年齢層の比に応じて重み付けするのが好適である。すなわち、年齢層識別器Cが出力した尤度に対しては重み1.0、年齢層識別器Qが出力した尤度に対しては重み2.5を乗算して重み付け平均を求めればよい。同様に、属性区分152については、年齢層識別器Eの年齢層の範囲は10歳、年齢層識別器Rの年齢層の範囲は20歳であるので、年齢層識別器Eが出力した尤度に対しては重み1.0、年齢層識別器Rが出力した尤度に対しては重み2.0を乗算して重み付け平均を求めればよい。そして、統合推定手段125は、そのほかの年齢層についても同様に重み付けを考慮して尤度の重み付け平均を求め、全体について正規化することで統合尤度分布とする。   For example, it is preferable to weight the likelihood according to the width of the attribute division assigned to each discriminator and perform the integration process. As shown in FIG. 7, when the first age group discriminator group 132 and the second age group discriminator group 150 are constructed, the integrated estimation unit 125 uses the age group discriminator C and the age group discriminator Q for the attribute classification 151. Synthesize the likelihood output from. Since the age group range of the age group discriminator C is 10 years old and the age group range of the age group discriminator Q is 25 years old, it is preferable to weight according to the ratio of both age groups when integrating. is there. That is, the weighted average may be obtained by multiplying the likelihood output by the age group discriminator C by the weight 1.0 and the likelihood output by the age group discriminator Q by the weight 2.5. Similarly, for the attribute classification 152, the age group range of the age group discriminator E is 10 years old, and the age group range of the age group discriminator R is 20 years old. Is weighted by 1.0, and the likelihood output by the age classifier R is multiplied by a weight of 2.0 to obtain a weighted average. Then, the integrated estimation unit 125 similarly obtains a weighted average of likelihoods in consideration of weighting for other age groups, and normalizes the whole to obtain an integrated likelihood distribution.

[第2の実施形態(毛髪長推定装置)]
第二の実施形態として、本発明を毛髪長推定装置に適用した場合について説明する。すなわち推定すべき属性は人の毛髪(頭髪)の長さであり、属性区分は単位をセンチメートルとした毛髪の長さとなる。また図1で示した第一識別区分識別器群11は第一毛髪長識別器群、第二識別区分識別器群12は第二毛髪長識別器群となる。
[Second Embodiment (Hair Length Estimation Device)]
As a second embodiment, a case where the present invention is applied to a hair length estimation apparatus will be described. That is, the attribute to be estimated is the length of human hair (head hair), and the attribute classification is the length of the hair with a unit of centimeter. Moreover, the 1st classification division classifier group 11 shown in FIG. 1 becomes a 1st hair length identification group, and the 2nd identification classification classifier group 12 becomes a 2nd hair length identification group.

図8は、毛髪の長さと属性区分との関係を示す。毛髪長の長さが0cm(すなわちスキンヘッド)から1cmの範囲では属性区分0、以下、40cm以上のロングヘアである属性区分6まで定義する。髪の長さは、頭皮上の位置に依って多少の違いはあるものの、一見した印象において支配的な部分の長さとして定義する。   FIG. 8 shows the relationship between hair length and attribute classification. When the length of the hair is in the range of 0 cm (ie, skin head) to 1 cm, it is defined up to attribute category 0, up to attribute category 6 which is long hair of 40 cm or more. The length of the hair is defined as the length of the dominant part in the glance, although there are some differences depending on the position on the scalp.

図9は、当該年齢層推定モデルに対応する毛髪長推定モデル700を模式的に示す。毛髪長推定モデル700は、第一毛髪長識別器群710と第二毛髪長識別器群720からなる。各識別器群は毛髪長に応じて、それぞれの長さの髪を持つ人物の上半身画像を正解、それ以外の長さの髪を持つ人物の上半身画像を不正解とした学習処理により構築される。   FIG. 9 schematically shows a hair length estimation model 700 corresponding to the age group estimation model. The hair length estimation model 700 includes a first hair length classifier group 710 and a second hair length classifier group 720. Each classifier group is constructed by a learning process in which the upper body image of a person with hair of each length is correct and the upper body image of a person with other hair length is incorrect according to the hair length. .

毛髪長識別器Aは、毛髪長が0〜1cmに該当する人物の上半身画像を正解、それ以外を不正解とした学習処理により構築される。毛髪長識別器Bは、毛髪長が1〜10cmに該当する人物の上半身画像を正解、それ以外を不正解とした学習処理により構築される。同様に、毛髪長識別器C〜毛髪長識別器Hは、それぞれ毛髪長が10cm〜30cm、30cm〜50cm、0cm〜5cm、5cm〜20cm、20cm〜40cm、40cm以上に該当する人物の上半身画像を正解、それ以外を不正解として学習処理により構築される。そして、毛髪長識別器A〜毛髪長識別器Hは、入力画像中の人物の髪の長さがそれぞれの識別区分である尤度を出力する。   The hair length discriminator A is constructed by a learning process in which the upper body image of a person whose hair length is 0 to 1 cm is correct and the other is incorrect. The hair length discriminator B is constructed by a learning process in which the upper body image of a person whose hair length is 1 to 10 cm is correct and the rest is incorrect. Similarly, the hair length classifier C to the hair length classifier H are images of the upper body of a person whose hair length is 10 cm to 30 cm, 30 cm to 50 cm, 0 cm to 5 cm, 5 cm to 20 cm, 20 cm to 40 cm, 40 cm or more, respectively. It is constructed by learning processing with the correct answer and the others as incorrect answers. Then, the hair length classifier A to the hair length classifier H output the likelihood that the hair length of the person in the input image is each classification category.

次に、本実施の形態にかかる毛髪長推定装置の構成要素とその作用を説明する。毛髪長推定装置は、図3に示した第1の実施形態の年齢推定装置にかかるブロック図において、「年齢層」を「毛髪長」に読み替え、「世代尤度演算手段」と「世代識別器群」を省略して実現される。   Next, components of the hair length estimation apparatus according to the present embodiment and the operation thereof will be described. In the block diagram of the age estimation apparatus according to the first embodiment shown in FIG. 3, the hair length estimation apparatus replaces “age group” with “hair length”, and generates “generation likelihood calculation means” and “generation identifier”. This is achieved by omitting the “group”.

推定処理部120の特徴量演算手段121は、入力画像から人物の上半身画像(胸から上)を抽出する。また、特徴量演算手段121は、顎の高さより上の頭部画像を抽出してもよい。図10は、抽出された上半身画像600の例を示す。さらに、特徴量演算手段121は、上半身画像600から顔の特徴点601を周知な手法にて抽出し、それを基準に顔画像領域602(図10では点線で示す)を決定して顔画像領域602の周囲に毛髪領域603を定義する。毛髪領域603の下端は女性のロングヘアを捉えられるよう顎よりも下、肩の辺りまで伸ばすように定義するのが好適である。   The feature amount calculation unit 121 of the estimation processing unit 120 extracts an upper body image (up from the chest) of the person from the input image. Further, the feature amount calculation unit 121 may extract a head image above the chin height. FIG. 10 shows an example of the extracted upper body image 600. Further, the feature amount calculation unit 121 extracts a facial feature point 601 from the upper body image 600 by a well-known method, determines a face image region 602 (indicated by a dotted line in FIG. 10) based on the feature point, and determines the face image region. A hair region 603 is defined around 602. It is preferable that the lower end of the hair region 603 is defined so as to extend below the chin and around the shoulder so that the long hair of a woman can be captured.

次に、特徴量演算手段121は、毛髪領域603の内部の画素を用い、毛髪長推定に用いる属性特徴量を抽出する。属性特徴量としてはHOG特徴量604、ハールライク特徴量605、LBP特徴量606を成分とする特徴量ベクトルとすることが好適である。また、これらの特徴量のいずれかのみを用いてもよい。   Next, the feature amount calculation unit 121 uses the pixels inside the hair region 603 to extract attribute feature amounts used for hair length estimation. The attribute feature quantity is preferably a feature quantity vector having HOG feature quantity 604, Haar-like feature quantity 605, and LBP feature quantity 606 as components. Also, only one of these feature amounts may be used.

第一毛髪長尤度演算手段122と第二毛髪長尤度演算手段123のそれぞれは、記憶部に記憶されている第一毛髪長識別器群710と第二毛髪長識別器群720を用いて、特徴量演算手段121において得られた属性特徴量の第一毛髪長尤度分布と第二毛髪長尤度分布を求める。   Each of the first hair length likelihood calculating means 122 and the second hair length likelihood calculating means 123 uses the first hair length identifier group 710 and the second hair length identifier group 720 stored in the storage unit. Then, the first hair length likelihood distribution and the second hair length likelihood distribution of the attribute feature amount obtained in the feature amount calculation means 121 are obtained.

統合推定手段125は、第一毛髪長尤度分布と第二毛髪長尤度分布を統合して統合尤度分布を求め、最高の尤度を示した属性区分(毛髪長)を推定結果として出力部140に出力する。例えば、属性区分(毛髪長)が30〜40cmにおいて尤度が最高を示した場合には“セミロング”であるとの推定結果を出力する。   The integrated estimation unit 125 obtains an integrated likelihood distribution by integrating the first hair length likelihood distribution and the second hair length likelihood distribution, and outputs the attribute classification (hair length) indicating the highest likelihood as an estimation result. Output to the unit 140. For example, if the likelihood is highest when the attribute classification (hair length) is 30 to 40 cm, an estimation result of “semi-long” is output.

以上説明してきたように、第二の実施の形態による毛髪長推定装置は、第一の実施の形態にかかる年齢推定装置と同様に、重複区分を有する識別区分について学習した毛髪長識別器の組を含む第一毛髪長識別器群710及び第二毛髪長識別器群720を用意することで、学習に用いる人の画像を増やすことなく、誤推定を回避しつつ、従来よりも細かく毛髪長を推定できる。   As described above, the hair length estimation apparatus according to the second embodiment is a set of hair length classifiers that have learned about identification classifications having overlapping classifications, similar to the age estimation apparatus according to the first embodiment. By preparing the first hair length discriminator group 710 and the second hair length discriminator group 720, the hair length can be reduced more finely than in the past while avoiding false estimation without increasing the number of human images used for learning. Can be estimated.

なお、第一の実施の形態における世代識別器のように、より幅の広い区分けの識別区分を学習した毛髪長識別器を用意して、3種類以上の識別器群を組み合わせて尤度を統合するようにしてもよい。   In addition, like the generation discriminator in the first embodiment, a hair length discriminator learning a wider discriminating segment is prepared, and the likelihood is integrated by combining three or more types of discriminator groups. You may make it do.

[変形例]
上記のいずれの実施の形態においても、属性の値域(第1の実施例では10〜80歳、第2の実施例では0〜50cmという最大と最小の間)の全範囲をいずれかの属性区分(第1の実施例では年齢層の区分、第2の実施例では毛髪長の区分)に割り当てたが必ずしもそれに限られない。
[Modification]
In any of the above embodiments, the entire range of the attribute value range (between the maximum and minimum values of 10 to 80 years in the first example and 0 to 50 cm in the second example) (Although it is assigned to the age group division in the first embodiment and the hair length division in the second embodiment), it is not necessarily limited thereto.

例えば、図11に示すように、第一識別区分識別器群11及び第二識別区分識別器群12を構成してもよい。第一識別区分識別器群11は、属性区分0〜5までを識別区分識別器ACに割り当て、属性区分6〜13までを識別区分識別器DGに割り当てる。一方、第二識別区分識別器群12は、属性区分5〜6を識別区分識別器Jに割り当て、他の属性区分については識別器を設けない。これは、第一の実施の形態でいうと全年齢層を均等に推定する必要が無い場合に好適な構成となる。すなわち属性区分5と属性区分6を重点的に詳細に年齢層推定をしたいが、それ以外の属性区分0〜4と属性区分7〜13は、それぞれ単に若齢と老齢と推定すれば十分という場合である。   For example, as shown in FIG. 11, a first discriminating class discriminator group 11 and a second discriminating class discriminator group 12 may be configured. The first identification category classifier group 11 assigns attribute categories 0 to 5 to the identification category identifier AC, and assigns attribute categories 6 to 13 to the identification category identifier DG. On the other hand, the second classification category discriminator group 12 assigns the attribute categories 5 to 6 to the identification category discriminator J, and no discriminator is provided for other attribute categories. In the first embodiment, this is a suitable configuration when it is not necessary to estimate all age groups equally. In other words, when we want to estimate age group in detail focusing on attribute category 5 and attribute category 6, but it is sufficient to estimate other attribute categories 0 to 4 and attribute categories 7 to 13 as young and old, respectively. It is.

なお、この場合、第二識別区分識別器群12では、識別区分識別器が割り当てられていない属性区分0〜4、7〜13が存在することになる。年齢層推定装置では、年齢10〜35歳、45〜80歳の範囲には年齢層識別器が設けられないことになる。したがって、この属性区分の範囲について、統合推定手段125は、統合処理は行わず、第一識別区分識別器群11(第一年齢層識別器群132)のそれぞれの識別器が出力した尤度をそのまま統合尤度として尤度分布全体で正規化処理を行うものとする。   In this case, in the second identification category classifier group 12, there are attribute categories 0 to 4 and 7 to 13 to which no identification category identifier is assigned. In the age group estimation device, no age group discriminator is provided in the range of ages 10 to 35 years and 45 to 80 years. Therefore, the integration estimation unit 125 does not perform the integration process for the range of the attribute classification, and the likelihood output by each classifier of the first classification classification classifier group 11 (first age group classifier group 132). It is assumed that normalization processing is performed on the entire likelihood distribution as it is as an integrated likelihood.

また、双方の識別区分識別器群(年齢層識別器群)の属性区分の範囲を同じものとして、一方の識別区分識別器群(年齢層識別器群)が存在しない属性区分(年齢層)が無いようにすることで、属性区分の全範囲について性質が揃った尤度の統合が可能となる。   In addition, the attribute classification (age group) in which both classification classification classifier groups (age group identification group) have the same attribute classification range and one classification classification classifier group (age group identification class) does not exist By making it absent, it is possible to integrate likelihoods having the same properties for the entire range of attribute classification.

また、いずれの実施の形態においても、識別器及びその学習手法は特に限定されるものではない。例えば、サポートベクターマシンやロジスティック回帰など2クラス識別問題でよく使われる公知の手法を採用することができる。   In any of the embodiments, the classifier and its learning method are not particularly limited. For example, a well-known method that is often used in a two-class identification problem such as support vector machine or logistic regression can be employed.

サポートベクターマシンを採用する場合は、各識別器が出力する尤度をそのまま用いるのではなく、尤度を数式(1)に示すシグモイド関数に入力し、0〜1区間の値に変換してクラス事後確率とするのが望ましい。ここで、Aは勾配パラメータ、Bはバイアスパラメータと呼ばれ、シグモイド関数の形を決めるパラメータであり、検証用サンプルを用いて最適な値を求める。求める方法は、例えば、文献“Probabilistic outputs for support vector machines and comparisons to regularized likelihood methods” In Advances in Large Margin Classifiers. MIT Press, 1999に開示されているような、公知の方法を適宜採用すればよい。

Figure 0006397439
When using a support vector machine, instead of using the likelihood output by each discriminator as it is, the likelihood is input to the sigmoid function shown in Equation (1) and converted to a value in the 0 to 1 interval class. It is desirable to use the posterior probability. Here, A is called a gradient parameter, B is called a bias parameter, and is a parameter that determines the shape of the sigmoid function, and an optimum value is obtained using a verification sample. For example, a known method such as that disclosed in the document “Probabilistic outputs for support vector machines and comparisons to regularized likelihood methods” In Advances in Large Margin Classifiers. MIT Press, 1999 may be appropriately employed.
Figure 0006397439

また、これまで述べてきた属性推定装置では、画像から抽出した特徴量であるハールライク特徴量などを採用して識別器を構築しているが画像以外の情報を用いて推定を行うこともできる。例えば、画像情報に代えて音声情報を用いても同様に属性推定装置を構築することができる。   Moreover, in the attribute estimation apparatus described so far, a classifier is constructed by using a Haar-like feature amount that is a feature amount extracted from an image, but estimation can also be performed using information other than the image. For example, the attribute estimation device can be similarly constructed by using audio information instead of image information.

具体的には、年齢推定を行う場合、上記第1の実施の形態に準じて第一年齢層推定器群、第二年齢層推定器群から構成される年齢層推定モデル131を準備し、正解の年齢がわかっている話者が発声した音声データを学習データとして用意して、年齢層毎に正解の学習データを用いて年齢層推定器に学習させる。この際、推定器の構築に用いる特徴量としては周知のメル周波数ケプストラム係数(MFCC:Mel-Frequency Cepstral Coefficients)を用いることができる。すなわち、年齢層毎の推定器の学習処理においては、音声データから抽出したMFCCを特徴量とし、特徴量空間において各年齢層における混合ガウスモデル(GMM:Gaussian Mixture Model)をそれぞれについて生成する。そして入力された音声データが、それぞれの年齢層に属するかの事後確率をGMMから求め、その事後確率の値をこれまでに述べてきた属性尤度として、同様の統合処理を行えばよい。   Specifically, when performing age estimation, an age group estimation model 131 composed of a first age group estimator group and a second age group estimator group is prepared according to the first embodiment, and the correct answer Voice data uttered by a speaker whose age is known is prepared as learning data, and an age group estimator is trained using correct learning data for each age group. At this time, a well-known Mel-Frequency Cepstral Coefficients (MFCC) can be used as the feature quantity used for constructing the estimator. That is, in the learning process of the estimator for each age group, the MFCC extracted from the speech data is used as a feature value, and a mixed Gaussian model (GMM: Gaussian Mixture Model) in each age group is generated in the feature value space. Then, the posterior probability that the input voice data belongs to each age group is obtained from the GMM, and the same integration process may be performed using the value of the posterior probability as the attribute likelihood described so far.

上記のような、正解データのみを用いて学習した推定器を構築して、各年齢層の属性尤度を用いる方法は、扱うデータを画像情報にしても同様に処理することができる。   The method of constructing an estimator learned using only correct data as described above and using the attribute likelihood of each age group can be processed in the same manner even if the data to be handled is image information.

なお、上記実施の形態では、属性の推定対象を人としたが、これに限定されるものではなく、動物、車両、航空機等の様々な対象物の属性についてどの属性区分に属するかを推定する技術に適用することができる。属性としては、例えば、動物の毛色、車両や航空機のサイズ等の様々な属性について推定が可能である。   In the above embodiment, the attribute estimation target is human. However, the present invention is not limited to this, and it is estimated to which attribute category the attributes of various objects such as animals, vehicles, and aircraft belong. Can be applied to technology. As attributes, for example, various attributes such as animal hair color, vehicle and aircraft size can be estimated.

11 第一識別区分識別器群、12 第二識別区分識別器群、30 第一識別区分尤度分布、31 第二識別区分尤度分布、32 統合尤度分布、50 撮像装置、100 年齢推定装置、110 画像取得手段、120 推定処理部、121 特徴量演算手段、122 第一年齢層尤度演算手段(第一毛髪長尤度演算手段)、123 第二年齢層尤度演算手段(第二毛髪長尤度演算手段)、124 世代尤度演算手段、125 統合推定手段、130 記憶部、131 年齢層推定モデル、132 第一年齢層識別器群、133 第二年齢層識別器群、134 世代識別器群、140 出力部、150 第二年齢層識別器群、151,152 属性区分、300 顔画像、301 特徴点、302 ハールライク特徴量、303 特徴点同士の距離、304 ガボール特徴量、305 HOG特徴量、400 第一年齢層尤度分布、410 第二年齢層尤度分布、420 世代尤度分布、430 統合尤度分布、600 上半身画像、601 特徴点、602 顔画像領域、603 毛髪領域、604 HOG特徴量、605 ハールライク特徴量、606 LBP特徴量、700 毛髪長推定モデル、710 第一毛髪長識別器群、720 第二毛髪長識別器群。   DESCRIPTION OF SYMBOLS 11 1st classification division classifier group, 12 2nd classification division classifier group, 30 1st classification division likelihood distribution, 31 2nd classification division likelihood distribution, 32 Integrated likelihood distribution, 50 Imaging device, 100 Age estimation apparatus 110 image acquisition means, 120 estimation processing section, 121 feature quantity calculation means, 122 first age group likelihood calculation means (first hair length likelihood calculation means), 123 second age group likelihood calculation means (second hair) Long likelihood calculation means), 124 generation likelihood calculation means, 125 integrated estimation means, 130 storage unit, 131 age group estimation model, 132 first age group classifier group, 133 second age group classifier group, 134 generation identification Group, 140 output unit, 150 second age group classifier group, 151,152 attribute classification, 300 face image, 301 feature point, 302 Haar-like feature amount, 303 distance between feature points, 304 Ball feature amount, 305 HOG feature amount, 400 First age group likelihood distribution, 410 Second age group likelihood distribution, 420 generation likelihood distribution, 430 Integrated likelihood distribution, 600 Upper body image, 601 Feature point, 602 Face image Region, 603 hair region, 604 HOG feature, 605 Haar-like feature, 606 LBP feature, 700 hair length estimation model, 710 first hair length classifier group, 720 second hair length classifier group.

Claims (4)

属性の推定をする対象に関する情報を取得する情報取得手段と、
前記対象に関し複数の属性区分に分けられる属性に関する属性特徴量を前記情報から求める属性特徴量演算手段と、
前記属性において互いに異なる識別区分の特徴を学習し、学習した前記識別区分が互いに重複する前記属性区分である重複区分を有する識別器の組を含む複数の識別器を用いて、前記属性特徴量が前記識別区分の各々の特徴を有する度合いを表わす属性尤度を求める属性尤度演算手段と、
前記識別器の組において求められた前記属性尤度を統合することによって前記属性特徴量が前記重複区分の特徴を有する度合いを表わす重複区分尤度を求め、少なくとも前記重複区分尤度を用いて前記対象が属する前記属性区分を推定する統合推定手段と、
を備え、
前記識別器の組は、前記属性の所定範囲を第1の区分にて割り当てた前記識別区分の各々の特徴を学習した第1の区分に属する識別器と、前記所定範囲を前記第1の区分とは異なる数の第2の区分にて割り当てた前記識別区分の各々の特徴を学習した第2の区分に属する識別器と、を含み、
前記統合推定手段では、前記第1の区分に属する識別器において求められた前記属性尤度と前記第2の区分に属する識別器において求められた前記属性尤度とを統合することによって前記重複区分尤度を求めることを特徴とする属性推定装置。
An information acquisition means for acquiring information about an object whose attribute is to be estimated;
Attribute feature amount calculating means for obtaining an attribute feature amount related to an attribute that is divided into a plurality of attribute categories with respect to the object from the information;
Using the plurality of discriminators including a set of discriminators having overlapping sections that are the attribute sections in which the learned classification sections overlap with each other, learning the characteristics of different classification sections in the attribute, the attribute feature amount is Attribute likelihood calculating means for obtaining an attribute likelihood representing the degree of each characteristic of the identification section;
By integrating the attribute likelihoods obtained in the set of classifiers, a duplicate segment likelihood representing the degree that the attribute feature amount has the features of the overlapped segment is obtained, and at least using the overlapped segment likelihood Integrated estimation means for estimating the attribute classification to which the object belongs;
With
The set of classifiers includes a classifier belonging to a first category that has learned the characteristics of each of the classification categories assigned a predetermined range of the attribute in a first category, and the predetermined range as the first category. A classifier belonging to the second section that has learned the characteristics of each of the identification sections assigned in a different number of second sections, and
In the integrated estimation means, the overlapping category is obtained by integrating the attribute likelihood obtained in the classifier belonging to the first category and the attribute likelihood obtained in the classifier belonging to the second category. An attribute estimation apparatus characterized by obtaining a likelihood .
請求項に記載の属性推定装置であって、
前記識別器の組は、互いに異なる幅の前記識別区分の各々の特徴を学習した識別器を含むことを特徴とする属性推定装置。
The attribute estimation device according to claim 1 ,
The attribute estimation device, wherein the set of classifiers includes classifiers that have learned the characteristics of the classification sections having different widths.
請求項に記載の属性推定装置であって、
前記統合推定手段は、前記識別区分の範囲が広いほど当該識別区分に対して求められた前記属性尤度に大きな重み付けをして統合することによって前記重複区分尤度を求めることを特徴とする属性推定装置。
The attribute estimation device according to claim 2 ,
The integrated estimation means obtains the overlapping category likelihood by integrating the attribute likelihood obtained for the identification category with a larger weight as the range of the identification category is wider. Estimating device.
請求項1〜のいずれか1項に記載の属性推定装置であって、
前記属性は、人の年齢又は人の毛髪長のいずれか1つであることを特徴とする属性推定装置。
The attribute estimation device according to any one of claims 1 to 3 ,
The attribute estimation apparatus characterized in that the attribute is one of a person's age or a person's hair length.
JP2016058137A 2016-03-23 2016-03-23 Attribute estimation device Active JP6397439B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016058137A JP6397439B2 (en) 2016-03-23 2016-03-23 Attribute estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016058137A JP6397439B2 (en) 2016-03-23 2016-03-23 Attribute estimation device

Publications (2)

Publication Number Publication Date
JP2017174054A JP2017174054A (en) 2017-09-28
JP6397439B2 true JP6397439B2 (en) 2018-09-26

Family

ID=59971298

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016058137A Active JP6397439B2 (en) 2016-03-23 2016-03-23 Attribute estimation device

Country Status (1)

Country Link
JP (1) JP6397439B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7204596B2 (en) * 2019-06-28 2023-01-16 富士フイルム株式会社 Image processing device, image processing method, image processing program, and recording medium storing the program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5072102B2 (en) * 2008-05-12 2012-11-14 パナソニック株式会社 Age estimation method and age estimation device

Also Published As

Publication number Publication date
JP2017174054A (en) 2017-09-28

Similar Documents

Publication Publication Date Title
Salido et al. Using deep learning to detect melanoma in dermoscopy images
Tome et al. Facial soft biometric features for forensic face recognition
KR101725651B1 (en) Identification apparatus and method for controlling identification apparatus
Jain et al. Integrating faces, fingerprints, and soft biometric traits for user recognition
JP6041996B2 (en) Apparatus, system and method for modifying visual attributes
JP6760318B2 (en) Face image identification system, classifier generator, identification device, image identification system, and identification system
JP6639123B2 (en) Image processing apparatus, image processing method, and program
JP2021101384A (en) Image processing apparatus, image processing method and program
US8705875B1 (en) Demographic analysis of facial landmarks
JP2006293644A (en) Information processing device and information processing method
JP7166784B2 (en) Information processing device, information processing method and program
JP5241606B2 (en) Object identification device and object identification method
WO2021031817A1 (en) Emotion recognition method and device, computer device, and storage medium
US20220237943A1 (en) Method and apparatus for adjusting cabin environment
Dhanashree et al. Fingernail analysis for early detection and diagnosis of diseases using machine learning techniques
Ng et al. An investigation on local wrinkle-based extractor of age estimation
JP6397439B2 (en) Attribute estimation device
CN115862120B (en) Face action unit identification method and equipment capable of decoupling separable variation from encoder
CN112837304B (en) Skin detection method, computer storage medium and computing device
US20230230277A1 (en) Object position estimation device, object position estimation method, and recording medium
Travieso et al. Improving the performance of the lip identification through the use of shape correction
JP6596044B2 (en) Object recognition device
Tin et al. Robust method of age dependent face recognition
JP4796356B2 (en) Method, program and apparatus for performing discriminant analysis
Rehkha Differentiating monozygotic twins by facial features

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180710

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180814

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180831

R150 Certificate of patent or registration of utility model

Ref document number: 6397439

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250