JP6397439B2 - Attribute estimation device - Google Patents
Attribute estimation device Download PDFInfo
- Publication number
- JP6397439B2 JP6397439B2 JP2016058137A JP2016058137A JP6397439B2 JP 6397439 B2 JP6397439 B2 JP 6397439B2 JP 2016058137 A JP2016058137 A JP 2016058137A JP 2016058137 A JP2016058137 A JP 2016058137A JP 6397439 B2 JP6397439 B2 JP 6397439B2
- Authority
- JP
- Japan
- Prior art keywords
- attribute
- likelihood
- classification
- group
- category
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、対象である人物等に関する画像等の情報から年齢等の属性を推定する属性推定装置に関する。 The present invention relates to an attribute estimation apparatus that estimates an attribute such as age from information such as an image related to a target person.
対象の特徴を表わす量として表現される属性を推定するにあたって、例えば人物の年齢を推定する場合には、人物の顔画像を取得して学習処理により構築された年齢推定手段に入力して結果を得る技術が提案されている。 When estimating an attribute expressed as a quantity representing a target feature, for example, when estimating the age of a person, a face image of the person is acquired and input to an age estimation means constructed by a learning process. Obtaining techniques have been proposed.
特許文献1には、推定に用いる特徴量を複数として、それぞれの特徴量を用いた年齢推定手段は予め学習処理に依って年齢層を推定するモデルからなるものとして、10歳刻みの年齢層を出力し、その多数決にて年齢層を決定する技術が開示されている。そして、さらに細かな年齢層を推定したい場合には、年齢層を分割すればよい旨も開示されている。
In
特許文献1のように、入力顔画像の人物について年齢層らしさを得るためには、それぞれの年齢層について、その年齢層を正解、それ以外の年齢層を不正解とする識別器を年齢層ごとに用意した識別器群を構築することになる。
As in
ここで、特許文献1に開示があるように結果として求めたい年齢層を分割すると、各年齢層の識別器の学習処理において、正解としてラベル付与される顔画像が分割に伴って減少する。その場合、少ない正解の顔画像について学習処理を行うため、その年齢層の人物の顔の特徴を学習するというよりも、顔画像の人物の顔の特徴自体を学習することに近くなる。そうすると、例えば、瓜二つの親子の片方が正解の顔画像、もう一方が入力顔画像となった場合のように、正解の顔画像の人物と年齢は全く異なるが顔つきが良く似た人物の顔画像が入力されたときに、全く異なった年齢層として認識される可能性がある。
Here, when the age group to be obtained as a result is divided as disclosed in
そのような事態を避けるためには、分割した年齢層ごとに十分な数の正解の顔画像を用意すれば良いが、実際には学習のための顔画像を収集するのは作業負担が大きく困難である。特に正解の顔画像を潤沢に集めるのは困難である。 In order to avoid such a situation, it is sufficient to prepare a sufficient number of correct face images for each divided age group, but in reality it is difficult to collect face images for learning. It is. In particular, it is difficult to collect a lot of correct face images.
そこで本発明は、上記問題を鑑みてなされたものであり、学習に使うデータの数を増やすことなく、細かい刻みで属性を推定することのできる属性推定装置を提供することを目的とする。 Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to provide an attribute estimation apparatus capable of estimating attributes in fine steps without increasing the number of data used for learning.
本発明の1つの態様は、属性の推定をする対象に関する情報を取得する情報取得手段と、前記対象に関し複数の属性区分に分けられる属性に関する属性特徴量を前記情報から求める属性特徴量演算手段と、前記属性において互いに異なる識別区分の特徴を学習し、学習した前記識別区分が互いに重複する前記属性区分である重複区分を有する識別器の組を含む複数の識別器を用いて、前記属性特徴量が前記識別区分の各々の特徴を有する度合いを表わす属性尤度を求める属性尤度演算手段と、前記識別器の組において求められた前記属性尤度を統合することによって前記属性特徴量が前記重複区分の特徴を有する度合いを表わす重複区分尤度を求め、少なくとも前記重複区分尤度を用いて前記対象が属する前記属性区分を推定する統合推定手段と、を備え、前記識別器の組は、前記属性の所定範囲を第1の区分にて割り当てた前記識別区分の各々の特徴を学習した第1の区分に属する識別器と、前記所定範囲を前記第1の区分とは異なる数の第2の区分にて割り当てた前記識別区分の各々の特徴を学習した第2の区分に属する識別器と、を含み、前記統合推定手段では、前記第1の区分に属する識別器において求められた前記属性尤度と前記第2の区分に属する識別器において求められた前記属性尤度とを統合することによって前記重複区分尤度を求めることを特徴とする属性推定装置である。 One aspect of the present invention is an information acquisition unit that acquires information about a target whose attribute is to be estimated; an attribute feature amount calculation unit that determines an attribute feature amount related to an attribute that is divided into a plurality of attribute categories regarding the target from the information; The attribute feature amount using a plurality of discriminators including a set of discriminators having an overlapping section which is an attribute section in which the learned classification sections overlap with each other, learning features of different classification sections in the attribute The attribute feature quantity overlaps by integrating the attribute likelihood obtained in the set of the classifier and attribute likelihood calculating means for obtaining the attribute likelihood representing the degree of each characteristic of the classification category An integrated estimator that obtains an overlap classification likelihood that represents a degree having a characteristic of the section and estimates the attribute classification to which the object belongs using at least the overlap classification likelihood When, with a set of classifiers, a classifier belonging to the first segment learned characteristics of each of the identified segments of predetermined ranges assigned in the first segment of the attributes, the predetermined range A classifier belonging to a second section that has learned the characteristics of each of the identification sections allocated in a different number of second sections from the first section, and the integrated estimation means includes: The overlap likelihood is obtained by integrating the attribute likelihood obtained in the classifier belonging to the category and the attribute likelihood obtained in the classifier belonging to the second category. It is an attribute estimation device.
また、前記識別器の組は、互いに異なる幅の前記識別区分の各々の特徴を学習した識別器を含むことが好適である。 Moreover, it is preferable that the set of classifiers includes classifiers that have learned the characteristics of the classification sections having different widths.
また、前記統合推定手段は、前記識別区分の範囲が広いほど当該識別区分に対して求められた前記属性尤度に大きな重み付けをして統合することによって前記重複区分尤度を求めることが好適である。 In addition, it is preferable that the integrated estimation unit obtains the overlapping category likelihood by integrating the attribute likelihood obtained for the identification category with a larger weight as the range of the identification category is wider. is there.
また、前記属性は、人の年齢又は人の毛髪長のいずれか1つであることが好適である。 Moreover, it is preferable that the said attribute is any one of a person's age or a person's hair length.
本発明によれば、学習に使うデータの数を増やすことなく、細かい刻みで属性を推定する属性推定装置を提供することができる。 According to the present invention, it is possible to provide an attribute estimation device that estimates an attribute in fine steps without increasing the number of data used for learning.
[発明の概要説明]
具体的な人の属性についての例を示す前に、本発明の基本的な考えを説明する。図1(a)は、本発明にかかる識別器群を模式的に示す。
[Outline of the Invention]
Before giving an example of specific human attributes, the basic idea of the present invention will be described. FIG. 1A schematically shows a classifier group according to the present invention.
本発明では、推定対象の特徴の1つを示す属性について、当該属性を区分した属性区分のどこに属する可能性が高いかを推定する。本発明では、属性を2以上の識別器群によって推定する。各識別器群は、所定数の属性区分に対する識別器を有する。 In the present invention, for an attribute indicating one of the characteristics to be estimated, it is estimated where it is likely to belong to the attribute classification into which the attribute is classified. In the present invention, the attribute is estimated by two or more classifier groups. Each classifier group has classifiers for a predetermined number of attribute categories.
第一識別区分識別器群11は、識別区分識別器A〜識別区分識別器Gの7つを含む。また、第二識別区分識別器群12は、識別区分識別器H〜識別区分識別器Mの6つを含む。
The first
第一識別区分識別器群11に含まれる識別区分識別器Aは、属性区分が“0”と“1”のデータを正解とし、それ以外の属性区分のデータを不正解として学習処理により構築されている。識別区分識別器Bは、属性区分が“2”と“3”のデータを正解とし、それ以外の属性区分のデータを不正解として学習処理により構築されている。以下同様に、識別区分識別器Gは、属性区分が“12”と“13”のデータを正解とし、それ以外の属性区分のデータを不正解として学習処理により構築されている。
The identification classification classifier A included in the first identification
また、第二識別区分識別器群12に含まれる識別区分識別器Hは、属性区分が“1”と“2”のデータを正解とし、それ以外の属性区分のデータを不正解として学習処理により構築されている。識別区分識別器Iは、属性区分が“3”と“4”のデータを正解とし、それ以外の属性区分のデータを不正解として学習処理により構築されている。以下同様に、識別区分識別器Mは、属性区分が“11”と“12”のデータを正解とし、それ以外の属性区分のデータを不正解として学習処理により構築されている。
In addition, the classification classifier H included in the second
このように、第一識別区分識別器群11と第二識別区分識別器群12は、その属性区分が重複する区間(以下、重複区分という)が存在するように区分されており、それぞれの属性区分に属するデータを正解として用意された学習用データを用いた学習処理により構築されている。例えば、第一識別区分識別器群11の識別区分識別器Aの属性区分は“0”と“1”であり、第二識別区分識別器群12の識別区分識別器Hの属性区分は“1”と“2”であり、互いに属性区分“1”を重複区分としている。
As described above, the first identification
そして、図1(b)に示すように、入力画像を第一識別区分識別器群11及び第二識別区分識別器群12に含まれる識別区分識別器に入力し、入力画像についてそれぞれの識別区分識別器がデータの特徴を学習した属性の区分(以下、識別区分という)らしさを表わすとして出力されるスコアを並べ、正規化した第一識別区分尤度分布と第二識別区分尤度分布を求める。その後、両者を統合して統合尤度分布を求める。
And as shown in FIG.1 (b), an input image is input into the identification classification discriminator contained in the 1st identification
第一識別区分尤度分布と第二識別区分尤度分布の統合について、図2を用いて説明する。図2には、入力データの属性区分が“5”の場合の第一識別区分尤度分布30と第二識別区分尤度分布31が模式的に示されている。
The integration of the first discrimination category likelihood distribution and the second discrimination category likelihood distribution will be described with reference to FIG. FIG. 2 schematically shows a first discrimination
入力データの正解の属性区分は“5”であるので、識別区分識別器Dが出力した尤度が高い値を示している。しかしその一方で、識別区分識別器Fが出力した尤度も高い値を示しており、識別区分識別器Cが出力した尤度より高くなっている。仮に、従来通りに第一識別区分識別器群11のみに含まれる識別区分識別器を用いた場合、入力データは最高の尤度を示す識別区分である属性区分“10”または“11”と判定される。実際には入力データの正解の属性区分は“5”であるので、これは誤りとなる。一方、第二識別区分尤度分布31を参照すると、識別区分識別器Jが最も高い尤度を示す。
Since the correct attribute category of the input data is “5”, the likelihood output by the discrimination category discriminator D is high. However, on the other hand, the likelihood output by the classification category discriminator F also shows a high value, which is higher than the likelihood output by the classification category identification device C. If an identification classification classifier included only in the first identification
そこで本発明では、属性区分の1つ毎に、第一識別区分尤度分布30と第二識別区分尤度分布31を統合して、統合尤度分布32を求める。例えば、統合の方法は、属性区間ごとに尤度の平均を求めて、その平均の総和で除算する正規化処理をする。正規化処理を省略してもよい。この統合処理により、識別区分識別器Fが正解とする属性区分“10”と“11”の尤度は値が大きく下がり、正解とする属性区分“5”の尤度が最高値となり、入力データの属性区分は“5”と正しく求められる。
Therefore, in the present invention, the integrated likelihood distribution 32 is obtained by integrating the first identification
すなわち本発明においては、重複区分を含む識別区分を学習した識別器をそれぞれ含む複数の識別区分識別器群を準備し、識別区分識別器群において求められた属性尤度を統合することによって重複区分の特徴を有する度合いを表わす重複区分尤度を求める。そして、この重複区分尤度を用いて対象が属する属性区分を推定する。これにより、何らかの原因で正解以外の属性区分で最高の尤度が算出されることで、推定結果が誤ることを防止することができる。 That is, in the present invention, by preparing a plurality of discriminating class discriminator groups each including discriminators that have learned discriminating classifications including overlapping segments, the attribute classification obtained in the discriminating class discriminator group is integrated to thereby overlap the classification The overlap classification likelihood representing the degree of having the above feature is obtained. Then, the attribute category to which the object belongs is estimated using this overlap category likelihood. Thereby, it is possible to prevent the estimation result from being erroneous by calculating the maximum likelihood in the attribute classification other than the correct answer for some reason.
[第1の実施形態(年齢推定装置)]
第1の実施形態として、本発明を年齢推定装置に適用した場合について説明する。すなわち対象は人物であり、属性は年齢であり、属性区分は年齢層となる。また、図1で示した第一識別区分識別器群11は第一年齢層識別器群、第二識別区分識別器群12は第二年齢層識別器群となる。対象の情報は顔画像とする。
[First embodiment (age estimation apparatus)]
As a first embodiment, a case where the present invention is applied to an age estimation apparatus will be described. That is, the object is a person, the attribute is age, and the attribute classification is an age group. Moreover, the 1st classification
図3に年齢推定装置100のブロック図を示す。年齢推定装置100は、入力画像、本実施の形態では人物の顔画像を取得するための撮像装置50に接続され、図示しない外部の装置へ推定結果を出力するよう構成されている。
FIG. 3 shows a block diagram of the
撮像装置50は、いわゆるカメラでありCCDやC−MOSといった撮像素子とレンズを含んで構成される。撮像装置50の解像度は、年齢推定装置100において推定対象となる属性、撮像装置50の設置環境、推定処理部120の処理能力等に応じて決定すればよく、例えば1600×1200画素とされる。撮像装置50は、年齢の推定対象の人物の顔や頭部の画像を撮影して、入力画像として年齢推定装置100に入力する。
The
年齢推定装置100は、CPU/MPU、各種メモリ類、周辺回路などから構成され、撮像装置50が取得した入力画像から顔画像を抽出して、それに写っている人物の年齢を推定して出力する。年齢推定装置100は、画像取得手段110、推定処理部120、記憶部130及び出力部140を含んで構成される。
The
情報取得手段として動作する画像取得手段110は、撮像装置50と接続されるインターフェース回路であり、撮像装置50によって撮影された入力画像を取得し、推定処理部120へ出力する。撮像装置50の代わりに、ハードディスク等の記憶媒体から過去に撮像されていた入力画像を取得するようにしてもよい。また、ネットワークを介して外部装置から送信されてきた入力画像を取得してもよい。
The
出力部140は、推定処理部120において入力画像の人物について推定された年齢層を外部機器(不図示)に出力するためのインターフェース及びその制御回路である。外部機器は、表示装置(モニタ)でもよいし、または別途推定の履歴を記憶しておくための記憶装置でもよい。または、ネットワークを介してサーバーマシンに推定された年齢層を送信してもよい。
The
記憶部130は、ROM、RAMなど半導体メモリやハードディスク等の大規模記憶手段を含んで構成され、年齢推定装置100を制御するためのプログラム(不図示)、プログラムモジュールにて実現される推定処理部120のプログラム(不図示)及び各種データを記憶し、推定処理部120との間で情報を入出力する。各種データには、少なくとも、年齢層推定モデル131が含まれる。
The
図4に、年齢層推定モデル131を模式的に示す。年齢層推定モデル131は、第一年齢層識別器群132、第二年齢層識別器群133、世代識別器群134から構成される。
FIG. 4 schematically shows the age
第一年齢層識別器群132は、年齢層識別器A、年齢層識別器B・・・年齢層識別器Gの7つから構成される。年齢層識別器Aは、年齢10〜19歳の識別区分に該当する人物の顔画像を正解、それ以外の年齢層を不正解とした学習処理により構築される。年齢層識別器Bは、年齢20〜29歳の識別区分に該当する人物の顔画像を正解、それ以外の年齢層を不正解とした学習処理により構築される。同様に、年齢層識別器Cから年齢層識別器Gまでがそれぞれ年齢30〜39歳、40〜49歳、50〜59歳、60〜69歳、70〜79歳の識別区分に該当する人物の顔画像を正解、それ以外を不正解とした学習処理により構築される。
The first age
第二年齢層識別器群133は、年齢層識別器H、年齢層識別器I・・・年齢層識別器Mの6つから構成される。年齢層識別器Hは、年齢15〜24歳の識別区分に該当する人物の顔画像を正解、それ以外の年齢層を不正解とした学習処理により構築される。年齢層識別器Iは、年齢25〜34歳の識別区分に該当する人物の顔画像を正解、それ以外の年齢層を不正解とした学習処理により構築される。同様に、年齢層識別器Jから年齢層識別器Mまでがそれぞれ年齢35〜44歳、45〜54歳、55〜64歳、65〜74歳の識別区分に該当する人物の顔画像を正解、それ以外を不正解とした学習処理により構築される。
The second age
さらに、本実施の形態における年齢層推定モデル131は、世代識別器群134も備える。世代識別器群134は、若年世代識別器N、壮年世代識別器O、老年世代識別器Pから構成される。若年世代識別器Nは、年齢10〜34歳の識別区分に該当する人物の顔画像を正解、それ以外の年齢層を不正解とした学習処理により構築される。壮年世代識別器Oは、年齢35〜54歳の識別区分の人物に該当する顔画像を正解、それ以外の年齢層を不正解として学習処理により構築される。老年世代識別器Pは、年齢55〜80歳の識別区分の人物に該当する顔画像を正解、それ以外の年齢層を不正解として学習処理により構築される。世代識別器群134は、第一年齢層識別器群132及び第二年齢層識別器群133と比較すると、正解とする年齢層の幅が広く、それぞれの名称どおりに入力画像に写されている人物の世代らしさを出力する。
Furthermore, the age
第一年齢層識別器群132と第二年齢層識別器群133に加え、世代識別器群134をも併用することにより、顔が良く似た親子のように、年齢層がまったく異なるが顔つきの特徴が共通しており誤った結果を出力する可能性がある場合にも、世代識別器群134によりまずは大まかに正解の世代を特定し、加えて年齢層を推定することによって推定精度を向上させることができる。
In addition to the first age
推定処理部120は、メモリ、その周辺回路及びそのマイクロプロセッサなどのいわゆるコンピュータにより構成され、画像取得手段110から入力された入力画像に対し各種処理を実行し、その処理結果を出力部140に出力する。
The
そのために推定処理部120は、特徴量演算手段121、第一年齢層尤度演算手段122、第二年齢層尤度演算手段123、世代尤度演算手段124、統合推定手段125を有する。各手段は、マイクロプロセッサ上で動作するソフトウェアにより実現させる機能モジュールである。
For this purpose, the
特徴量演算手段121は、画像取得手段110から入力画像を取得し、顔画像を抽出した後に、年齢層を推定するための属性特徴量を算出する。入力画像からの顔画像の抽出は周知の技術を用いればよい。例えば背景差分を施したうえで顔らしい楕円形状を検出したり、顔の特徴を学習した識別器を用意して入力画像を順次走査し顔らしい形状を検出したりすればよい。
The feature
属性特徴量は、特に制限されるものではない。例えば、図5に示すように、顔画像300から特徴点301を抽出の後、ハールライク(Haar-Like)特徴量302、特徴点同士の距離303、ガボール(Gabor)特徴量304、HOG(Histogram of Oriented Gradient)特徴量305、LBP(Local Binary Pattern)特徴量(不図示)から適宜選択して成分とした特徴量ベクトルとすればよい。
The attribute feature amount is not particularly limited. For example, as shown in FIG. 5, after extracting a
特徴量演算手段121は、算出した属性特徴量を、第一年齢層尤度演算手段122、第二年齢層尤度演算手段123、世代尤度演算手段124に出力する。
The feature
第一年齢層尤度演算手段122は、属性特徴量を用い、記憶部130に記憶されている第一年齢層識別器群132を読み出して、年齢層毎の尤度を算出して並べ、正規化した尤度分布を求める。例えば、第一年齢層識別器群132の年齢層識別器Aを用いて、属性特徴量が入力顔画像の人物の10〜19歳らしさを表わす尤度を求める。同様に、年齢層識別器B〜年齢層識別器Gによってそれぞれの年齢層らしさを表わす尤度を求める。これにより、図6に示すように、年齢層識別器A〜年齢層識別器Gによって求められた尤度を正規化した第一年齢層尤度分布400が得られる。なお、図6は、実際の年齢が39歳の人物の顔画像について識別区分毎に尤度を求めた結果を示している。
The first age group likelihood calculating means 122 reads the first age
同様に、第二年齢層尤度演算手段123は、第二年齢層識別器群133に含まれる年齢層識別器H〜年齢層識別器Mを用いて、属性特徴量がそれぞれの年齢層らしさを表わす尤度を求める。これにより、図6に示すように、年齢層識別器H〜年齢層識別器Mによって求められた尤度を正規化した第二年齢層尤度分布410が得られる。
Similarly, the second age group likelihood calculation means 123 uses the age group discriminator H to the age group discriminator M included in the second age
同様に、世代尤度演算手段124は、世代識別器群134に含まれる若年世代識別器N、壮年世代識別器O及び老年世代識別器Pを用いて、属性特徴量がそれぞれの世代らしさを表わす尤度を求める。これにより、図6に示すように、若年世代識別器N、壮年世代識別器O及び老年世代識別器Pによって求められた尤度を正規化した世代尤度分布420が得られる。
Similarly, the generation likelihood calculation means 124 uses the young generation discriminator N, the grand generation discriminator O, and the old age discriminator P included in the
統合推定手段125は、第一年齢層尤度分布400、第二年齢層尤度分布410及び世代尤度分布420を統合して、最も高い尤度を示した属性区分である年齢層を入力顔画像に写った人物の年齢層として推定する。統合方法は、発明の概要説明において説明した方法と同様である。
The
統合推定手段125は、属性区分の1つ毎に、第一年齢層尤度分布400、第二年齢層尤度分布410及び世代尤度分布420を統合して統合尤度分布430を求める。例えば、統合の方法は、属性区分毎に第一年齢層尤度分布400、第二年齢層尤度分布410及び世代尤度分布420の尤度の平均を求めて、全ての平均の総和で除算する正規化を施して統合尤度とする。正規化処理を省略してもよい。
The
なお、統合推定手段125が行う統合処理の際に、識別区分の中間の値が最高値となり、識別区分の境界に近づくほど値が小さくなるような重みを付けてもよい。これは、入力画像が識別区分の境界に近い年齢を正解とする場合には、その隣接する識別区分でも高い尤度を示すことが多く、どちらの識別区分が正しいかの、いわば信頼性が低いと考えられるからである。
In the integration process performed by the
重みは、識別区分の中間における最高値が1.0、識別区分の境界に近づくほど0に近い値とするのが好適である。例えば、グラフを描画すると三角波や正規分布に似た形となるように重みを設定する。 It is preferable that the weight is 1.0 as the maximum value in the middle of the identification section and closer to 0 as the boundary of the identification section is approached. For example, weights are set so that when a graph is drawn, a shape similar to a triangular wave or normal distribution is obtained.
本実施の形態では、第一年齢層尤度分布400及び第二年齢層尤度分布410では5歳刻みの属性区分を2つ組み合わせた10歳刻みの識別区分毎の尤度を求めており、世代尤度分布420では5歳刻みの属性区分をそれぞれ5つ、4つ、5つ組み合わせた識別区分毎の尤度を求めているのに対して、統合尤度分布430では重複区分について尤度を統合することにより5歳刻みの重複区分尤度が得られる。 In the present embodiment, in the first age group likelihood distribution 400 and the second age group likelihood distribution 410, the likelihood for each identification category in 10-year increments obtained by combining two attribute segments in 5-year increments is obtained. In the generation likelihood distribution 420, the likelihood for each identification section obtained by combining five, four, and five attribute sections in increments of five years is obtained, whereas in the integrated likelihood distribution 430, the likelihood for overlapping sections is calculated. Can be used to obtain the overlapping section likelihood in increments of 5 years.
第一年齢層尤度分布400では、正解となる年齢層識別器Cの尤度が高く、すぐ上の年齢層を正解とした年齢層識別器Dの尤度も高い。しかし、全く異なる年齢層を正解とする年齢層識別器Fの尤度の方が高く、第一年齢層尤度分布400のピークの尤度を参照して推定結果とすると、実際の年齢が39歳の人物が60〜69歳の年齢層として推定されてしまう。一方、第二年齢層尤度分布410では、正解となる年齢層識別器Jの尤度が最も高い。さらに、世代尤度分布420でも、正解となる世代である壮年世代識別器Oの尤度が最も高い。 In the first age group likelihood distribution 400, the likelihood of the correct age group discriminator C is high, and the likelihood of the age group discriminator D having the correct age group as the correct answer is also high. However, the likelihood of the age group discriminator F having a completely different age group as a correct answer is higher, and if the estimation result is referred to with reference to the likelihood of the peak of the first age group likelihood distribution 400, the actual age is 39. An old person is estimated as an age group of 60 to 69 years old. On the other hand, in the second age group likelihood distribution 410, the likelihood of the correct age group discriminator J is the highest. Furthermore, also in the generation likelihood distribution 420, the likelihood of the grand generation discriminator O which is a correct generation is the highest.
そして、第一年齢層尤度分布400、第二年齢層尤度分布410及び世代尤度分布420を統合した統合尤度分布430では、正解である35〜39歳の属性区分(年齢層)の尤度(重複区分尤度)が最大値を示しており、統合推定手段125は人物を“35〜39歳”と推定してその結果を出力部140に出力する。
In the integrated likelihood distribution 430 obtained by integrating the first age group likelihood distribution 400, the second age group likelihood distribution 410, and the generation likelihood distribution 420, the correct attribute category (age group) of 35 to 39 years old is obtained. The likelihood (overlapping division likelihood) shows the maximum value, and the integrated estimation means 125 estimates the person as “35 to 39 years old” and outputs the result to the
なお、統合推定手段125は、最大値の尤度を示した属性区分の中央値(ここでは“37歳”)を推定年齢として出力してもよい。また、統合推定手段125は、各属性区分の代表値を用いて、その年齢層の尤度を重みとした重み付き平均値を推定結果として出力してもよい。属性区分の代表値とは、その属性区分の上限と下限の平均値である。例えば“30〜39歳”の属性区分では代表値として34.5歳とする。さらには重み付き平均の計算においては、尤度の高い上位所定数の属性区分のみを用いてもよい。
Note that the
本実施の形態では、第一年齢層識別器群132及び第二年齢層識別器群133に含まれる年齢層識別器A〜年齢層識別器Mでは10歳幅の識別区分毎を学習領域としているが、5歳幅の重複区分を有する識別器の組を含んでいる。単純に年齢層識別器の識別区分の幅を5歳としてしまうと、それに応じて正解の学習用顔画像が少なくなってしまうので当該識別区分に該当する年齢層の顔の特徴よりも、むしろ学習用顔画像の人物自身の顔の特徴を学習した年齢層識別器が構築される傾向が避けられない。その場合、入力顔画像に写っている人物の年齢よりも、顔つきが似ている人物について学習した年齢層識別器の出力に引き摺られて、誤った属性区分(年齢層)に該当するという推定がなされる可能性が高まる。これに対して、本実施の形態では、各年齢層識別器の識別区分は10歳としつつ、重複区分を有する複数の年齢層識別器を用意して、重複区分毎に統合された尤度を求めることで、5歳刻みの属性区分における年齢の推定の確度を高めることができる。
In the present embodiment, in the age group discriminator A to the age group discriminator M included in the first age
さらに、識別区分の幅をさらに大きくして世代毎の顔の特徴を学習した若年世代識別器N、壮年世代識別器O及び老年世代識別器Pを用意することで、10歳幅の年齢層識別器を含む第一年齢層識別器群132及び第二年齢層識別器群133の組み合わせでも抑えられないような世代を超えた誤推定を回避することができる。
Furthermore, by providing a young generation classifier N, a middle age classifier O, and an old age classifier P that learn the facial features of each generation by increasing the width of the classification category, age group identification of 10 years old It is possible to avoid generational erroneous estimation that cannot be suppressed even by the combination of the first age
なお、属性区分は5歳刻みに限定されない。例えば、属性区分を2歳刻みとして、同様な処理によって2歳幅で年齢を推定することが可能となる。また、各年齢層識別器の識別区分を10歳幅に固定する必要はない。年齢層識別器同士の識別区分が重複区分を含むという条件下、学習に用いる顔画像の年齢層毎の数に応じて識別区分の幅を調整してもよい。例えば、識別区分毎の学習に使用する正解の顔画像の下限数(例えば、顔画像の全体数の5%)を設定しておき、正解の顔画像の数が下限数に到達しない場合には識別区分の幅を広くしてもよい。また、正解の顔画像の数が多いほど識別区分の幅を狭くするようにしてもよい。 Note that the attribute classification is not limited to 5 years. For example, it is possible to estimate the age with a 2-year-old width by the same process, with the attribute classification set in increments of 2 years. Moreover, it is not necessary to fix the identification classification of each age group classifier to 10 years old. Under the condition that the identification classification between the age classifiers includes an overlapping classification, the width of the identification classification may be adjusted according to the number of face images used for learning for each age group. For example, when the lower limit number of correct face images (for example, 5% of the total number of face images) used for learning for each classification category is set and the number of correct face images does not reach the lower limit number The width of the identification section may be widened. Further, the width of the identification section may be narrowed as the number of correct face images increases.
以上のように、年齢推定装置100の構築にあたって用意された学習用の顔画像を最大限に利用して、誤推定を回避しつつ、従来よりも細かく年齢層を推定できる。
As described above, the age group can be estimated more finely than in the past while avoiding erroneous estimation by making maximum use of the learning face image prepared in constructing the
なお、年齢層推定モデル131として、第一年齢層識別器群132及び第二年齢層識別器群133のみを用いて、世代識別器群134を用いなくてもよい。この場合、年齢層識別器の数は減るが、第二年齢層識別器群133の年齢の刻みの幅(属性区分の刻みの幅)を、第一年齢層識別器群132よりも広くしてもよい。これにより、世代識別器群134を併用した場合と同様に、全く異なった年齢層に推定されることを防ぐことができる。すなわち、属性区分毎に用意される正解の画像が少ないと、その属性区分毎に共通した特徴より画像自体の特徴が学習される傾向があるが、属性区分の幅を広く設定することで属性区分毎の特徴を学習させることができるからである。
As the age
また、統合推定手段125では、属性区分毎に第一年齢層尤度分布400と第二年齢層尤度分布410の平均を算出するものとしているがこれに限定されるもりではない。
In addition, the
例えば、各識別器に割り当てられた属性区分の幅に応じて尤度に重み付けをして統合処理を施すことが好適である。図7に示すように、第一年齢層識別器群132と第二年齢層識別器群150を構築した場合、統合推定手段125は属性区分151については年齢層識別器Cと年齢層識別器Qから出力される尤度を合成する。年齢層識別器Cの年齢層の範囲は10歳、年齢層識別器Qの年齢層の範囲は25歳であるので統合する際には両者の年齢層の比に応じて重み付けするのが好適である。すなわち、年齢層識別器Cが出力した尤度に対しては重み1.0、年齢層識別器Qが出力した尤度に対しては重み2.5を乗算して重み付け平均を求めればよい。同様に、属性区分152については、年齢層識別器Eの年齢層の範囲は10歳、年齢層識別器Rの年齢層の範囲は20歳であるので、年齢層識別器Eが出力した尤度に対しては重み1.0、年齢層識別器Rが出力した尤度に対しては重み2.0を乗算して重み付け平均を求めればよい。そして、統合推定手段125は、そのほかの年齢層についても同様に重み付けを考慮して尤度の重み付け平均を求め、全体について正規化することで統合尤度分布とする。
For example, it is preferable to weight the likelihood according to the width of the attribute division assigned to each discriminator and perform the integration process. As shown in FIG. 7, when the first age
[第2の実施形態(毛髪長推定装置)]
第二の実施形態として、本発明を毛髪長推定装置に適用した場合について説明する。すなわち推定すべき属性は人の毛髪(頭髪)の長さであり、属性区分は単位をセンチメートルとした毛髪の長さとなる。また図1で示した第一識別区分識別器群11は第一毛髪長識別器群、第二識別区分識別器群12は第二毛髪長識別器群となる。
[Second Embodiment (Hair Length Estimation Device)]
As a second embodiment, a case where the present invention is applied to a hair length estimation apparatus will be described. That is, the attribute to be estimated is the length of human hair (head hair), and the attribute classification is the length of the hair with a unit of centimeter. Moreover, the 1st classification
図8は、毛髪の長さと属性区分との関係を示す。毛髪長の長さが0cm(すなわちスキンヘッド)から1cmの範囲では属性区分0、以下、40cm以上のロングヘアである属性区分6まで定義する。髪の長さは、頭皮上の位置に依って多少の違いはあるものの、一見した印象において支配的な部分の長さとして定義する。
FIG. 8 shows the relationship between hair length and attribute classification. When the length of the hair is in the range of 0 cm (ie, skin head) to 1 cm, it is defined up to attribute
図9は、当該年齢層推定モデルに対応する毛髪長推定モデル700を模式的に示す。毛髪長推定モデル700は、第一毛髪長識別器群710と第二毛髪長識別器群720からなる。各識別器群は毛髪長に応じて、それぞれの長さの髪を持つ人物の上半身画像を正解、それ以外の長さの髪を持つ人物の上半身画像を不正解とした学習処理により構築される。
FIG. 9 schematically shows a hair
毛髪長識別器Aは、毛髪長が0〜1cmに該当する人物の上半身画像を正解、それ以外を不正解とした学習処理により構築される。毛髪長識別器Bは、毛髪長が1〜10cmに該当する人物の上半身画像を正解、それ以外を不正解とした学習処理により構築される。同様に、毛髪長識別器C〜毛髪長識別器Hは、それぞれ毛髪長が10cm〜30cm、30cm〜50cm、0cm〜5cm、5cm〜20cm、20cm〜40cm、40cm以上に該当する人物の上半身画像を正解、それ以外を不正解として学習処理により構築される。そして、毛髪長識別器A〜毛髪長識別器Hは、入力画像中の人物の髪の長さがそれぞれの識別区分である尤度を出力する。 The hair length discriminator A is constructed by a learning process in which the upper body image of a person whose hair length is 0 to 1 cm is correct and the other is incorrect. The hair length discriminator B is constructed by a learning process in which the upper body image of a person whose hair length is 1 to 10 cm is correct and the rest is incorrect. Similarly, the hair length classifier C to the hair length classifier H are images of the upper body of a person whose hair length is 10 cm to 30 cm, 30 cm to 50 cm, 0 cm to 5 cm, 5 cm to 20 cm, 20 cm to 40 cm, 40 cm or more, respectively. It is constructed by learning processing with the correct answer and the others as incorrect answers. Then, the hair length classifier A to the hair length classifier H output the likelihood that the hair length of the person in the input image is each classification category.
次に、本実施の形態にかかる毛髪長推定装置の構成要素とその作用を説明する。毛髪長推定装置は、図3に示した第1の実施形態の年齢推定装置にかかるブロック図において、「年齢層」を「毛髪長」に読み替え、「世代尤度演算手段」と「世代識別器群」を省略して実現される。 Next, components of the hair length estimation apparatus according to the present embodiment and the operation thereof will be described. In the block diagram of the age estimation apparatus according to the first embodiment shown in FIG. 3, the hair length estimation apparatus replaces “age group” with “hair length”, and generates “generation likelihood calculation means” and “generation identifier”. This is achieved by omitting the “group”.
推定処理部120の特徴量演算手段121は、入力画像から人物の上半身画像(胸から上)を抽出する。また、特徴量演算手段121は、顎の高さより上の頭部画像を抽出してもよい。図10は、抽出された上半身画像600の例を示す。さらに、特徴量演算手段121は、上半身画像600から顔の特徴点601を周知な手法にて抽出し、それを基準に顔画像領域602(図10では点線で示す)を決定して顔画像領域602の周囲に毛髪領域603を定義する。毛髪領域603の下端は女性のロングヘアを捉えられるよう顎よりも下、肩の辺りまで伸ばすように定義するのが好適である。
The feature
次に、特徴量演算手段121は、毛髪領域603の内部の画素を用い、毛髪長推定に用いる属性特徴量を抽出する。属性特徴量としてはHOG特徴量604、ハールライク特徴量605、LBP特徴量606を成分とする特徴量ベクトルとすることが好適である。また、これらの特徴量のいずれかのみを用いてもよい。
Next, the feature
第一毛髪長尤度演算手段122と第二毛髪長尤度演算手段123のそれぞれは、記憶部に記憶されている第一毛髪長識別器群710と第二毛髪長識別器群720を用いて、特徴量演算手段121において得られた属性特徴量の第一毛髪長尤度分布と第二毛髪長尤度分布を求める。
Each of the first hair length likelihood calculating means 122 and the second hair length likelihood calculating means 123 uses the first hair
統合推定手段125は、第一毛髪長尤度分布と第二毛髪長尤度分布を統合して統合尤度分布を求め、最高の尤度を示した属性区分(毛髪長)を推定結果として出力部140に出力する。例えば、属性区分(毛髪長)が30〜40cmにおいて尤度が最高を示した場合には“セミロング”であるとの推定結果を出力する。
The
以上説明してきたように、第二の実施の形態による毛髪長推定装置は、第一の実施の形態にかかる年齢推定装置と同様に、重複区分を有する識別区分について学習した毛髪長識別器の組を含む第一毛髪長識別器群710及び第二毛髪長識別器群720を用意することで、学習に用いる人の画像を増やすことなく、誤推定を回避しつつ、従来よりも細かく毛髪長を推定できる。
As described above, the hair length estimation apparatus according to the second embodiment is a set of hair length classifiers that have learned about identification classifications having overlapping classifications, similar to the age estimation apparatus according to the first embodiment. By preparing the first hair
なお、第一の実施の形態における世代識別器のように、より幅の広い区分けの識別区分を学習した毛髪長識別器を用意して、3種類以上の識別器群を組み合わせて尤度を統合するようにしてもよい。 In addition, like the generation discriminator in the first embodiment, a hair length discriminator learning a wider discriminating segment is prepared, and the likelihood is integrated by combining three or more types of discriminator groups. You may make it do.
[変形例]
上記のいずれの実施の形態においても、属性の値域(第1の実施例では10〜80歳、第2の実施例では0〜50cmという最大と最小の間)の全範囲をいずれかの属性区分(第1の実施例では年齢層の区分、第2の実施例では毛髪長の区分)に割り当てたが必ずしもそれに限られない。
[Modification]
In any of the above embodiments, the entire range of the attribute value range (between the maximum and minimum values of 10 to 80 years in the first example and 0 to 50 cm in the second example) (Although it is assigned to the age group division in the first embodiment and the hair length division in the second embodiment), it is not necessarily limited thereto.
例えば、図11に示すように、第一識別区分識別器群11及び第二識別区分識別器群12を構成してもよい。第一識別区分識別器群11は、属性区分0〜5までを識別区分識別器ACに割り当て、属性区分6〜13までを識別区分識別器DGに割り当てる。一方、第二識別区分識別器群12は、属性区分5〜6を識別区分識別器Jに割り当て、他の属性区分については識別器を設けない。これは、第一の実施の形態でいうと全年齢層を均等に推定する必要が無い場合に好適な構成となる。すなわち属性区分5と属性区分6を重点的に詳細に年齢層推定をしたいが、それ以外の属性区分0〜4と属性区分7〜13は、それぞれ単に若齢と老齢と推定すれば十分という場合である。
For example, as shown in FIG. 11, a first discriminating
なお、この場合、第二識別区分識別器群12では、識別区分識別器が割り当てられていない属性区分0〜4、7〜13が存在することになる。年齢層推定装置では、年齢10〜35歳、45〜80歳の範囲には年齢層識別器が設けられないことになる。したがって、この属性区分の範囲について、統合推定手段125は、統合処理は行わず、第一識別区分識別器群11(第一年齢層識別器群132)のそれぞれの識別器が出力した尤度をそのまま統合尤度として尤度分布全体で正規化処理を行うものとする。
In this case, in the second identification
また、双方の識別区分識別器群(年齢層識別器群)の属性区分の範囲を同じものとして、一方の識別区分識別器群(年齢層識別器群)が存在しない属性区分(年齢層)が無いようにすることで、属性区分の全範囲について性質が揃った尤度の統合が可能となる。 In addition, the attribute classification (age group) in which both classification classification classifier groups (age group identification group) have the same attribute classification range and one classification classification classifier group (age group identification class) does not exist By making it absent, it is possible to integrate likelihoods having the same properties for the entire range of attribute classification.
また、いずれの実施の形態においても、識別器及びその学習手法は特に限定されるものではない。例えば、サポートベクターマシンやロジスティック回帰など2クラス識別問題でよく使われる公知の手法を採用することができる。 In any of the embodiments, the classifier and its learning method are not particularly limited. For example, a well-known method that is often used in a two-class identification problem such as support vector machine or logistic regression can be employed.
サポートベクターマシンを採用する場合は、各識別器が出力する尤度をそのまま用いるのではなく、尤度を数式(1)に示すシグモイド関数に入力し、0〜1区間の値に変換してクラス事後確率とするのが望ましい。ここで、Aは勾配パラメータ、Bはバイアスパラメータと呼ばれ、シグモイド関数の形を決めるパラメータであり、検証用サンプルを用いて最適な値を求める。求める方法は、例えば、文献“Probabilistic outputs for support vector machines and comparisons to regularized likelihood methods” In Advances in Large Margin Classifiers. MIT Press, 1999に開示されているような、公知の方法を適宜採用すればよい。
また、これまで述べてきた属性推定装置では、画像から抽出した特徴量であるハールライク特徴量などを採用して識別器を構築しているが画像以外の情報を用いて推定を行うこともできる。例えば、画像情報に代えて音声情報を用いても同様に属性推定装置を構築することができる。 Moreover, in the attribute estimation apparatus described so far, a classifier is constructed by using a Haar-like feature amount that is a feature amount extracted from an image, but estimation can also be performed using information other than the image. For example, the attribute estimation device can be similarly constructed by using audio information instead of image information.
具体的には、年齢推定を行う場合、上記第1の実施の形態に準じて第一年齢層推定器群、第二年齢層推定器群から構成される年齢層推定モデル131を準備し、正解の年齢がわかっている話者が発声した音声データを学習データとして用意して、年齢層毎に正解の学習データを用いて年齢層推定器に学習させる。この際、推定器の構築に用いる特徴量としては周知のメル周波数ケプストラム係数(MFCC:Mel-Frequency Cepstral Coefficients)を用いることができる。すなわち、年齢層毎の推定器の学習処理においては、音声データから抽出したMFCCを特徴量とし、特徴量空間において各年齢層における混合ガウスモデル(GMM:Gaussian Mixture Model)をそれぞれについて生成する。そして入力された音声データが、それぞれの年齢層に属するかの事後確率をGMMから求め、その事後確率の値をこれまでに述べてきた属性尤度として、同様の統合処理を行えばよい。
Specifically, when performing age estimation, an age
上記のような、正解データのみを用いて学習した推定器を構築して、各年齢層の属性尤度を用いる方法は、扱うデータを画像情報にしても同様に処理することができる。 The method of constructing an estimator learned using only correct data as described above and using the attribute likelihood of each age group can be processed in the same manner even if the data to be handled is image information.
なお、上記実施の形態では、属性の推定対象を人としたが、これに限定されるものではなく、動物、車両、航空機等の様々な対象物の属性についてどの属性区分に属するかを推定する技術に適用することができる。属性としては、例えば、動物の毛色、車両や航空機のサイズ等の様々な属性について推定が可能である。 In the above embodiment, the attribute estimation target is human. However, the present invention is not limited to this, and it is estimated to which attribute category the attributes of various objects such as animals, vehicles, and aircraft belong. Can be applied to technology. As attributes, for example, various attributes such as animal hair color, vehicle and aircraft size can be estimated.
11 第一識別区分識別器群、12 第二識別区分識別器群、30 第一識別区分尤度分布、31 第二識別区分尤度分布、32 統合尤度分布、50 撮像装置、100 年齢推定装置、110 画像取得手段、120 推定処理部、121 特徴量演算手段、122 第一年齢層尤度演算手段(第一毛髪長尤度演算手段)、123 第二年齢層尤度演算手段(第二毛髪長尤度演算手段)、124 世代尤度演算手段、125 統合推定手段、130 記憶部、131 年齢層推定モデル、132 第一年齢層識別器群、133 第二年齢層識別器群、134 世代識別器群、140 出力部、150 第二年齢層識別器群、151,152 属性区分、300 顔画像、301 特徴点、302 ハールライク特徴量、303 特徴点同士の距離、304 ガボール特徴量、305 HOG特徴量、400 第一年齢層尤度分布、410 第二年齢層尤度分布、420 世代尤度分布、430 統合尤度分布、600 上半身画像、601 特徴点、602 顔画像領域、603 毛髪領域、604 HOG特徴量、605 ハールライク特徴量、606 LBP特徴量、700 毛髪長推定モデル、710 第一毛髪長識別器群、720 第二毛髪長識別器群。 DESCRIPTION OF SYMBOLS 11 1st classification division classifier group, 12 2nd classification division classifier group, 30 1st classification division likelihood distribution, 31 2nd classification division likelihood distribution, 32 Integrated likelihood distribution, 50 Imaging device, 100 Age estimation apparatus 110 image acquisition means, 120 estimation processing section, 121 feature quantity calculation means, 122 first age group likelihood calculation means (first hair length likelihood calculation means), 123 second age group likelihood calculation means (second hair) Long likelihood calculation means), 124 generation likelihood calculation means, 125 integrated estimation means, 130 storage unit, 131 age group estimation model, 132 first age group classifier group, 133 second age group classifier group, 134 generation identification Group, 140 output unit, 150 second age group classifier group, 151,152 attribute classification, 300 face image, 301 feature point, 302 Haar-like feature amount, 303 distance between feature points, 304 Ball feature amount, 305 HOG feature amount, 400 First age group likelihood distribution, 410 Second age group likelihood distribution, 420 generation likelihood distribution, 430 Integrated likelihood distribution, 600 Upper body image, 601 Feature point, 602 Face image Region, 603 hair region, 604 HOG feature, 605 Haar-like feature, 606 LBP feature, 700 hair length estimation model, 710 first hair length classifier group, 720 second hair length classifier group.
Claims (4)
前記対象に関し複数の属性区分に分けられる属性に関する属性特徴量を前記情報から求める属性特徴量演算手段と、
前記属性において互いに異なる識別区分の特徴を学習し、学習した前記識別区分が互いに重複する前記属性区分である重複区分を有する識別器の組を含む複数の識別器を用いて、前記属性特徴量が前記識別区分の各々の特徴を有する度合いを表わす属性尤度を求める属性尤度演算手段と、
前記識別器の組において求められた前記属性尤度を統合することによって前記属性特徴量が前記重複区分の特徴を有する度合いを表わす重複区分尤度を求め、少なくとも前記重複区分尤度を用いて前記対象が属する前記属性区分を推定する統合推定手段と、
を備え、
前記識別器の組は、前記属性の所定範囲を第1の区分にて割り当てた前記識別区分の各々の特徴を学習した第1の区分に属する識別器と、前記所定範囲を前記第1の区分とは異なる数の第2の区分にて割り当てた前記識別区分の各々の特徴を学習した第2の区分に属する識別器と、を含み、
前記統合推定手段では、前記第1の区分に属する識別器において求められた前記属性尤度と前記第2の区分に属する識別器において求められた前記属性尤度とを統合することによって前記重複区分尤度を求めることを特徴とする属性推定装置。 An information acquisition means for acquiring information about an object whose attribute is to be estimated;
Attribute feature amount calculating means for obtaining an attribute feature amount related to an attribute that is divided into a plurality of attribute categories with respect to the object from the information;
Using the plurality of discriminators including a set of discriminators having overlapping sections that are the attribute sections in which the learned classification sections overlap with each other, learning the characteristics of different classification sections in the attribute, the attribute feature amount is Attribute likelihood calculating means for obtaining an attribute likelihood representing the degree of each characteristic of the identification section;
By integrating the attribute likelihoods obtained in the set of classifiers, a duplicate segment likelihood representing the degree that the attribute feature amount has the features of the overlapped segment is obtained, and at least using the overlapped segment likelihood Integrated estimation means for estimating the attribute classification to which the object belongs;
With
The set of classifiers includes a classifier belonging to a first category that has learned the characteristics of each of the classification categories assigned a predetermined range of the attribute in a first category, and the predetermined range as the first category. A classifier belonging to the second section that has learned the characteristics of each of the identification sections assigned in a different number of second sections, and
In the integrated estimation means, the overlapping category is obtained by integrating the attribute likelihood obtained in the classifier belonging to the first category and the attribute likelihood obtained in the classifier belonging to the second category. An attribute estimation apparatus characterized by obtaining a likelihood .
前記識別器の組は、互いに異なる幅の前記識別区分の各々の特徴を学習した識別器を含むことを特徴とする属性推定装置。 The attribute estimation device according to claim 1 ,
The attribute estimation device, wherein the set of classifiers includes classifiers that have learned the characteristics of the classification sections having different widths.
前記統合推定手段は、前記識別区分の範囲が広いほど当該識別区分に対して求められた前記属性尤度に大きな重み付けをして統合することによって前記重複区分尤度を求めることを特徴とする属性推定装置。 The attribute estimation device according to claim 2 ,
The integrated estimation means obtains the overlapping category likelihood by integrating the attribute likelihood obtained for the identification category with a larger weight as the range of the identification category is wider. Estimating device.
前記属性は、人の年齢又は人の毛髪長のいずれか1つであることを特徴とする属性推定装置。 The attribute estimation device according to any one of claims 1 to 3 ,
The attribute estimation apparatus characterized in that the attribute is one of a person's age or a person's hair length.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016058137A JP6397439B2 (en) | 2016-03-23 | 2016-03-23 | Attribute estimation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016058137A JP6397439B2 (en) | 2016-03-23 | 2016-03-23 | Attribute estimation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017174054A JP2017174054A (en) | 2017-09-28 |
JP6397439B2 true JP6397439B2 (en) | 2018-09-26 |
Family
ID=59971298
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016058137A Active JP6397439B2 (en) | 2016-03-23 | 2016-03-23 | Attribute estimation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6397439B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7204596B2 (en) * | 2019-06-28 | 2023-01-16 | 富士フイルム株式会社 | Image processing device, image processing method, image processing program, and recording medium storing the program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5072102B2 (en) * | 2008-05-12 | 2012-11-14 | パナソニック株式会社 | Age estimation method and age estimation device |
-
2016
- 2016-03-23 JP JP2016058137A patent/JP6397439B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017174054A (en) | 2017-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Salido et al. | Using deep learning to detect melanoma in dermoscopy images | |
Tome et al. | Facial soft biometric features for forensic face recognition | |
KR101725651B1 (en) | Identification apparatus and method for controlling identification apparatus | |
Jain et al. | Integrating faces, fingerprints, and soft biometric traits for user recognition | |
JP6041996B2 (en) | Apparatus, system and method for modifying visual attributes | |
JP6760318B2 (en) | Face image identification system, classifier generator, identification device, image identification system, and identification system | |
JP6639123B2 (en) | Image processing apparatus, image processing method, and program | |
JP2021101384A (en) | Image processing apparatus, image processing method and program | |
US8705875B1 (en) | Demographic analysis of facial landmarks | |
JP2006293644A (en) | Information processing device and information processing method | |
JP7166784B2 (en) | Information processing device, information processing method and program | |
JP5241606B2 (en) | Object identification device and object identification method | |
WO2021031817A1 (en) | Emotion recognition method and device, computer device, and storage medium | |
US20220237943A1 (en) | Method and apparatus for adjusting cabin environment | |
Dhanashree et al. | Fingernail analysis for early detection and diagnosis of diseases using machine learning techniques | |
Ng et al. | An investigation on local wrinkle-based extractor of age estimation | |
JP6397439B2 (en) | Attribute estimation device | |
CN115862120B (en) | Face action unit identification method and equipment capable of decoupling separable variation from encoder | |
CN112837304B (en) | Skin detection method, computer storage medium and computing device | |
US20230230277A1 (en) | Object position estimation device, object position estimation method, and recording medium | |
Travieso et al. | Improving the performance of the lip identification through the use of shape correction | |
JP6596044B2 (en) | Object recognition device | |
Tin et al. | Robust method of age dependent face recognition | |
JP4796356B2 (en) | Method, program and apparatus for performing discriminant analysis | |
Rehkha | Differentiating monozygotic twins by facial features |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180511 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180522 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180710 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180814 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180831 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6397439 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |