JP2011022916A - Device, method and system for estimation of individual attribute - Google Patents

Device, method and system for estimation of individual attribute Download PDF

Info

Publication number
JP2011022916A
JP2011022916A JP2009169127A JP2009169127A JP2011022916A JP 2011022916 A JP2011022916 A JP 2011022916A JP 2009169127 A JP2009169127 A JP 2009169127A JP 2009169127 A JP2009169127 A JP 2009169127A JP 2011022916 A JP2011022916 A JP 2011022916A
Authority
JP
Japan
Prior art keywords
personal attribute
personal
age
gender
category
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009169127A
Other languages
Japanese (ja)
Other versions
JP5325687B2 (en
Inventor
Sayuri Yanagiuchi
さゆり 柳内
Hiroyuki Onishi
弘之 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Glory Ltd
Original Assignee
Glory Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Glory Ltd filed Critical Glory Ltd
Priority to JP2009169127A priority Critical patent/JP5325687B2/en
Publication of JP2011022916A publication Critical patent/JP2011022916A/en
Application granted granted Critical
Publication of JP5325687B2 publication Critical patent/JP5325687B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To estimate individual attributes, such as gender and age, of a target person with high accuracy on the basis of biological information. <P>SOLUTION: Individual attributes are classified into a plurality of categories, a criterion that discriminates which of two different categories they belong to is learned, and a discriminant is decided in advance. A feature value is extracted from acquired biological information and is input to the discriminant to discriminate which category it belongs to. The discrimination is performed with respect to the respective classified categories to estimate individual attributes on the basis of the respective discrimination results. In estimating a plurality of individual attributes, such as a gender and age, categories subdivided according to the plurality of individual attributes are created and the individual attributes are estimated stepwise. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、個人属性推定対象者から生体情報を取得して個人の属性を推定する個人属性推定装置、個人属性推定方法および個人属性推定システムに関するものである。   The present invention relates to a personal attribute estimation device, a personal attribute estimation method, and a personal attribute estimation system that acquire biometric information from a personal attribute estimation target person and estimate a personal attribute.

従来から、商業施設内に設置されたカメラで撮像された顧客の顔の画像から、性別や年齢を推定する個人属性推定技術が、マーケティングや広告宣伝等に広く活用されている。   2. Description of the Related Art Conventionally, personal attribute estimation technology for estimating gender and age from a customer's face image captured by a camera installed in a commercial facility has been widely used for marketing and advertising.

たとえば、特許文献1には、予め性別および年齢ごとの顔の平均化された特徴量を記憶しておき、撮像された画像データに基づいて抽出した顔の特徴量と記憶された特徴量とを比較し、類似度の高い性別および年齢を推定する個人属性推定装置が開示されている。   For example, in Patent Document 1, an average feature value of a face for each gender and age is stored in advance, and a facial feature value extracted based on captured image data and a stored feature value are stored. A personal attribute estimation device that estimates gender and age with high similarity is disclosed.

特開2003−242486号公報JP 2003-242486 A

しかしながら、上述した従来の個人属性推定装置では、平均化された特徴量に基づいて比較を行うため、カテゴリ間で違いが少ない特徴量の場合、誤推定が発生しやすいという問題があった。   However, since the above-described conventional personal attribute estimation device performs comparison based on the averaged feature value, there is a problem that erroneous estimation is likely to occur in the case of a feature value with little difference between categories.

具体的には、撮像する際、照明の照射度合いが悪い等の想定外の理由によって、撮像された画像データから抽出した特徴量に揺れが生じることもある。また、成長途中の若年層の顔には性差が現れにくい傾向にある。   Specifically, when capturing an image, the feature amount extracted from the captured image data may fluctuate due to an unexpected reason such as a poor illumination intensity. In addition, there is a tendency that gender differences do not appear easily on the faces of young people who are growing up.

たとえば、5歳の男性の特徴量と10歳の女性の特徴量とが、非常に近似した値であったとする。この場合、10歳の女性の画像データから抽出した特徴量に揺れが生じたことによって、5歳の男性の特徴量に近い値となった場合、従来の個人属性推定装置では、5歳の男性であると誤って推定してしまう。   For example, it is assumed that the feature value of a 5-year-old man and the feature value of a 10-year-old woman are very close values. In this case, when the feature value extracted from the image data of a 10-year-old woman has a value close to the feature value of a 5-year-old man, the conventional personal attribute estimation device uses a 5-year-old man. It is mistakenly estimated to be.

これらのことから、個人属性の推定精度を向上することができる個人属性推定装置、個人属性推定方法および個人属性推定システムをいかにして実現するかが大きな課題となっている。なお、かかる課題は、例示した性別や年齢に限られるものではなく、国籍や職業といった個人属性を推定する場合にも当てはまる課題である。   From these facts, how to realize a personal attribute estimation device, a personal attribute estimation method, and a personal attribute estimation system that can improve the estimation accuracy of personal attributes has become a major issue. Such a problem is not limited to the exemplified gender and age, and is also a problem that applies when estimating individual attributes such as nationality and occupation.

本発明は、上述した従来技術の課題を解決するためになされたものであり、個人属性の推定精度を向上することができる個人属性推定装置、個人属性推定方法および個人属性推定システムを提供することを目的とする。   The present invention has been made to solve the above-described problems of the prior art, and provides a personal attribute estimation device, a personal attribute estimation method, and a personal attribute estimation system that can improve the estimation accuracy of personal attributes. With the goal.

上述した課題を解決し、目的を達成するために、本発明は、対象者の生体情報から前記対象者の個人属性を推定する個人属性推定装置であって、前記対象者の前記生体情報が前記個人属性に関する異なる2つのカテゴリのうち何れのカテゴリに属するかを判別する基準を前記個人属性が既知である複数の前記生体情報から予め生成した学習済情報に基づき、前記対象者から取得した前記生体情報が前記異なる2つのカテゴリのうち何れのカテゴリに属するかを判別する判別手段と、前記異なる2つのカテゴリの各組合せについて前記判別手段がそれぞれ判別した複数の判別結果に基づいて前記対象者の前記個人属性を推定する個人属性推定手段とを備えたことを特徴とする。このように、2つの個人属性の何れの個人属性に属するかを識別することによって、個人属性の推定精度を向上することができるという効果を奏する。   In order to solve the above-described problems and achieve the object, the present invention is a personal attribute estimation device that estimates the personal attributes of the target person from the biological information of the target person, wherein the biological information of the target person is the The living body acquired from the subject based on learned information generated in advance from a plurality of biological information whose personal attributes are known as criteria for determining which of two different categories related to the personal attribute A discriminating unit that discriminates which category of the two different categories the information belongs to, and a plurality of discrimination results discriminated by the discriminating unit for each combination of the two different categories. And a personal attribute estimating means for estimating a personal attribute. As described above, by identifying which of the two personal attributes belongs to the personal attribute, it is possible to improve the estimation accuracy of the personal attribute.

また、本発明は、前記学習済情報は、前記異なる2つのカテゴリのうち何れのカテゴリに属するかを判別する判別式を前記異なる2つのカテゴリの各組合せについて予め決定したものであって、前記判別手段は、前記生体情報の特徴量を前記判別式に対して入力して算出された値を前記判別結果として出力することを特徴とする。このように、判別式によって算出された個人属性間の識別値に基づいて個人属性の識別を行うことによって、個人属性の推定精度を向上することができるという効果を奏する。   In the invention, it is preferable that a discriminant for discriminating which category of the two different categories belongs to the learned information is determined in advance for each combination of the two different categories. The means is characterized in that a characteristic value of the biological information is input to the discriminant and a value calculated is output as the discrimination result. As described above, by identifying the personal attribute based on the identification value between the personal attributes calculated by the discriminant, there is an effect that the estimation accuracy of the personal attribute can be improved.

また、本発明は、前記個人属性推定手段は、前記カテゴリごとに該カテゴリと複数の他のカテゴリとの組合せにおける判別結果を集約し、集約した集約結果に基づいて前記対象者の前記個人属性を推定することを特徴とする。このように、判別結果を集約した結果に基づいて個人属性の識別を行うことによって、ある判別結果に揺れが生じた場合であっても、複数の判別結果を用いることで、揺れが生じた判別結果の影響度を抑止することができ、正確な推定情報を得ることができるという効果を奏する。   Further, according to the present invention, the personal attribute estimation unit aggregates the discrimination results in a combination of the category and a plurality of other categories for each category, and determines the personal attribute of the target person based on the aggregated aggregation result. It is characterized by estimating. In this way, by identifying individual attributes based on the result of the aggregation of discrimination results, even if a discrepancy occurs in a discriminant result, discrimination using a plurality of discriminant results can be used. The influence of the result can be suppressed, and there is an effect that accurate estimation information can be obtained.

また、本発明は、前記個人属性推定手段は、前記判別結果に基づいて第一の個人属性を推定し、推定された前記第一の個人属性に関連する前記個人属性の組合せのみに基づいて第二の個人属性を推定することを特徴とする。このように、第一の個人属性を予め推定して使用する判別式を限定することによって、推定の範囲を効率よく絞り込むことができ、正確な推定情報を得ることができるという効果を奏する。   Further, according to the present invention, the personal attribute estimation means estimates a first personal attribute based on the determination result, and based on only the combination of the personal attributes related to the estimated first personal attribute. It is characterized by estimating two personal attributes. In this way, by limiting the discriminant to estimate and use the first personal attribute in advance, the estimation range can be narrowed down efficiently, and accurate estimation information can be obtained.

また、本発明は、前記個人属性は、前記対象者の性別および年齢層を含むことを特徴とする。このように、性別および年齢を識別することによって、推定された性別および年齢によって、マーケティングや広告宣伝等に活用する際に、正確な推定情報を得ることができるという効果を奏する。   Further, the present invention is characterized in that the personal attribute includes a sex and an age group of the subject. In this way, by identifying the gender and age, there is an effect that accurate estimated information can be obtained by utilizing the estimated gender and age for marketing and advertising.

本発明によれば、個人属性推定装置は、予め複数の画像データを取得し、取得した画像データから抽出された特徴量に基づいてすべてのカテゴリ間について識別関数を求め記憶させる。そして、個人属性推定装置は、個人属性推定対象者の画像データから抽出された特徴量を識別関数に代入することで、すべてのカテゴリ間について識別値を算出する。さらに、個人属性推定装置は、算出したすべてのカテゴリ間の識別値に基づいて個人属性である性別および年齢を推定することとした。このようにすることで、個人属性の推定精度を向上することができるという効果を奏する。   According to the present invention, the personal attribute estimation device acquires a plurality of image data in advance, and obtains and stores an identification function between all categories based on the feature amount extracted from the acquired image data. Then, the personal attribute estimation device calculates the identification value for all categories by substituting the feature quantity extracted from the image data of the personal attribute estimation target person into the identification function. Furthermore, the personal attribute estimation device estimates gender and age, which are personal attributes, based on the calculated identification values between all categories. By doing in this way, there exists an effect that the estimation precision of a personal attribute can be improved.

図1は、本発明にかかる個人属性推定手法の概要を示す図である。FIG. 1 is a diagram showing an outline of a personal attribute estimation method according to the present invention. 図2は、本実施例にかかる個人属性推定装置の構成を示すブロック図である。FIG. 2 is a block diagram illustrating the configuration of the personal attribute estimation apparatus according to the present embodiment. 図3は、識別値の一例を示す図である。FIG. 3 is a diagram illustrating an example of the identification value. 図4は、性別度算出処理手順の一例を示す図である。FIG. 4 is a diagram illustrating an example of a sex degree calculation processing procedure. 図5は、詳細性別度算出処理手順の一例を示す図である。FIG. 5 is a diagram illustrating an example of a detailed gender degree calculation processing procedure. 図6は、年齢算出処理手順の一例を示す図である。FIG. 6 is a diagram illustrating an example of an age calculation processing procedure. 図7は、個人属性推定装置が実行する処理手順の概要を示すフローチャートである。FIG. 7 is a flowchart showing an outline of a processing procedure executed by the personal attribute estimation device. 図8は、識別値算出処理の処理手順を示すフローチャートである。FIG. 8 is a flowchart showing the processing procedure of the identification value calculation processing. 図9は、性別度算出処理の処理手順を示すフローチャートである。FIG. 9 is a flowchart showing a processing procedure of the gender degree calculation processing. 図10は、詳細性別度算出処理の処理手順を示すフローチャートである。FIG. 10 is a flowchart showing the processing procedure of the detailed gender degree calculation processing. 図11は、年齢算出処理手順の処理手順を示すフローチャートである。FIG. 11 is a flowchart showing the processing procedure of the age calculation processing procedure. 図12は、詳細年齢算出処理の処理手順を示すフローチャートである。FIG. 12 is a flowchart showing the processing procedure of the detailed age calculation processing.

以下に添付図面を参照して、本発明にかかる個人属性推定手法の好適な実施例を詳細に説明する。なお、以下では、本発明にかかる個人属性推定手法の概要について図1を用いて説明した後に、本発明にかかる個人属性推定手法を適用した個人属性推定装置についての実施例を図2〜図12を用いて説明することとする。   Exemplary embodiments of a personal attribute estimation method according to the present invention will be described below in detail with reference to the accompanying drawings. In the following, the outline of the personal attribute estimation method according to the present invention will be described with reference to FIG. 1, and then an embodiment of the personal attribute estimation apparatus to which the personal attribute estimation method according to the present invention is applied will be described with reference to FIGS. This will be described using.

図1は、本発明にかかる個人属性推定手法の概要を示す図である。なお、図1の(A)には、従来技術にかかる個人属性推定手法を、図1の(B)には、本発明にかかる個人属性推定手法を、それぞれ示している。   FIG. 1 is a diagram showing an outline of a personal attribute estimation method according to the present invention. 1A shows a personal attribute estimation method according to the prior art, and FIG. 1B shows a personal attribute estimation method according to the present invention.

図1の(A)に示すように、従来技術にかかる個人属性推定手法では、性別および年齢別に予め算出された平均化された特徴量に基づいて個人属性を推定していた。たとえば、同図に示した場合、個人属性推定対象者(以下、単に「推定対象者」と記載する)から取得した特徴量が「C」であれば、個人属性は、「男性」かつ「年齢20歳〜39歳」と推定される。   As shown in FIG. 1A, in the personal attribute estimation method according to the prior art, the personal attribute is estimated based on the averaged feature amount calculated in advance for each gender and age. For example, in the case shown in the figure, if the characteristic amount acquired from the individual attribute estimation target person (hereinafter simply referred to as “estimation target person”) is “C”, the personal attribute is “male” and “age” It is estimated that “20 to 39 years old”.

しかし、従来技術にかかる個人属性推定手法では、カテゴリごとに予め算出された特徴量の差異が各カテゴリ間で小さいと、誤推定が発生しやすいという問題があった。たとえば、同図に示したように、20歳代の男性の特徴量Cと10歳代の女性の特徴量C’とが、近い値であったとする。ここで、10歳代の女性の顔が撮像された際、照明の照射度合いが悪い等の想定外の理由によって、撮像された画像データから抽出した特徴量に揺れが生じることもある。   However, the personal attribute estimation method according to the conventional technique has a problem that erroneous estimation is likely to occur when the difference in feature amount calculated in advance for each category is small between the categories. For example, as shown in the figure, it is assumed that the feature value C of a man in his 20s is close to the feature value C ′ of a woman in his 10s. Here, when a face of a woman in her 10s is imaged, the feature amount extracted from the imaged image data may fluctuate due to an unexpected reason such as poor illumination.

そして、10歳代の女性の画像データから抽出した特徴量に揺れが生じたことによって、20歳代の男性の特徴量Cに近い値となった場合、従来の個人属性推定装置では、20歳代の男性であると誤って推定してしまう。   When the feature value extracted from the image data of a 10-year-old woman becomes a value close to the feature value C of a 20-year-old man, Mistakenly presumed to be a teenager man.

そこで、本発明にかかる個人属性推定手法では、図1(B)に示すように、マトリクス状にあらわした個人属性の各組合せについて、どちらの個人属性が確からしいかをそれぞれ判別し、各判別結果を総合的に判定することで、最終的な個人属性を推定することとした。   Therefore, in the personal attribute estimation method according to the present invention, as shown in FIG. 1B, it is determined which personal attribute is probable for each combination of personal attributes shown in a matrix, and each determination result. The final personal attributes were estimated by comprehensively judging

具体的には、本発明にかかる個人属性推定手法では、同図に示したマトリクスのセルごとに、縦軸の個人属性および横軸の個人属性のどちらの個人属性が確からしいかを数値化して出力する判定式(以下、「識別関数」と記載する)を事前の学習によって生成しておく。   Specifically, in the personal attribute estimation method according to the present invention, for each cell of the matrix shown in the figure, the personal attribute on the vertical axis or the personal attribute on the horizontal axis is quantified. A determination formula to be output (hereinafter referred to as “discriminant function”) is generated by prior learning.

そして、本発明にかかる個人属性推定手法では、推定対象者の画像データから抽出された特徴量を、各セルの識別関数にそれぞれ代入することによって算出された値(以下、「識別値」と記載する)に基づき、推定対象者の個人属性を推定する。   In the personal attribute estimation method according to the present invention, a value calculated by substituting the feature quantity extracted from the image data of the estimation target person into the identification function of each cell (hereinafter referred to as “identification value”). To estimate the personal attributes of the person to be estimated.

ここで、図1(B)には、予め求めておいた識別関数に、推定対象者の特徴量を代入して算出された値(識別値)を示している。たとえば、同図(B)の横軸の「女性:10〜」と縦軸の「男性:20〜」とが交差するセルの識別値は「−3」である。この場合、推定対象者が、「女性:10〜」か、「男性:20〜」か、どちらかといえば、「男性:20〜」に属すると識別されたことを示す。   Here, FIG. 1B shows a value (identification value) calculated by substituting the feature quantity of the person to be estimated into the identification function obtained in advance. For example, the identification value of the cell in which “female: 10” on the horizontal axis and “male: 20 on” on the vertical axis in FIG. In this case, it indicates that the estimation target person is identified as belonging to “male: 20 to”, either “female: 10” or “male: 20 to”.

また、同図(B)の横軸の「女性:10〜」と縦軸の「男性:40〜」とが交差するセルの識別値は「28」である。この場合、推定対象者が、「女性:10〜」か、「男性:40〜」か、どちらかといえば、推定対象者は「女性:10〜」に属すると識別されたことを示す。   In addition, the identification value of the cell where “female: 10” on the horizontal axis and “male: 40 on” on the vertical axis in FIG. In this case, if the estimation target person is “female: 10” or “male: 40-”, it indicates that the estimation target person has been identified as belonging to “female: 10”.

すなわち、横軸のカテゴリと縦軸のカテゴリとが交差するセルの識別値が正の数の場合には、横軸のカテゴリに属し、負の数の場合には、縦軸のカテゴリに属すると識別される。そして、識別値の絶対値が大きい場合には、該当するカテゴリに属する確からしさ(確度)が大きいことを示している。なお、識別値が0であった場合には、どちらのカテゴリに属するかを識別できなかったこととなる。   That is, if the identification value of a cell where the horizontal axis category and the vertical axis category intersect is a positive number, it belongs to the horizontal axis category, and if it is a negative number, it belongs to the vertical axis category. Identified. When the absolute value of the identification value is large, it indicates that the probability (accuracy) belonging to the corresponding category is large. When the identification value is 0, it cannot be identified which category it belongs to.

このように、各セルの識別関数によってそれぞれ識別値が算出されると、本発明にかかる個人属性推定手法では、各識別値を横軸方向あるいは縦軸方向に合算する処理を行う。かかる処理は、セルごとに細かく算出した識別値を大局的に評価するために行われる。   As described above, when the identification value is calculated by the identification function of each cell, the personal attribute estimation method according to the present invention performs a process of adding the identification values in the horizontal axis direction or the vertical axis direction. Such processing is performed in order to globally evaluate the identification value calculated finely for each cell.

たとえば、横軸の「女性:20〜」を縦軸方向にみていくと、全ての数値がプラスである。これは、「女性:20〜」というカテゴリは、他のすべてのカテゴリに対して優勢であることを示している。また、横軸の「男性:60〜」を縦軸方向にみていくと、全ての数値がマイナスである。これは、「男性:60〜」というカテゴリは、他のすべてのカテゴリに対して劣勢であることを示している。   For example, when looking at “female: 20-” on the horizontal axis in the vertical axis direction, all numerical values are positive. This indicates that the category “female: 20-” is dominant over all other categories. Further, when “male: 60˜” on the horizontal axis is viewed in the vertical axis direction, all numerical values are negative. This indicates that the category of “male: 60-” is inferior to all other categories.

このようにして、本発明にかかる個人属性推定手法は、すべてのカテゴリの中から最も優勢なカテゴリを推定対象者の個人属性として推定する。   Thus, the personal attribute estimation method according to the present invention estimates the most dominant category among all categories as the personal attribute of the estimation target person.

なお、本発明にかかる個人属性推定手法は、まず、推定対象者が「男性」か「女性」かを推定し、使用する識別関数を限定したうえで、推定した性別の確度に基づいて推定対象者の「年齢層」を推定する処理を行うが、この点の詳細については後述することとする。   Note that the personal attribute estimation method according to the present invention first estimates whether the estimation target person is “male” or “female”, limits the discrimination function to be used, and then estimates the estimation target based on the estimated gender accuracy. The process of estimating the “age group” of the person is performed, and details of this point will be described later.

以下では、本発明にかかる個人属性推定手法を適用した個人属性推定装置についての実施例を詳細に説明する。図2は、本実施例にかかる個人属性推定装置10の構成を示すブロック図である。   Below, the Example about the personal attribute estimation apparatus to which the personal attribute estimation method concerning this invention is applied is described in detail. FIG. 2 is a block diagram illustrating the configuration of the personal attribute estimation device 10 according to the present embodiment.

個人属性推定装置10は、撮像部11と、結果出力部12と、記憶部13と、制御部14とを備えている。また、制御部14は、識別関数作成部14aと、特徴量抽出部14bと、識別値算出部14cと、個人属性判定部14dとをさらに備えており、記憶部13は、学習情報13aと、識別関数13bとを記憶する。   The personal attribute estimation device 10 includes an imaging unit 11, a result output unit 12, a storage unit 13, and a control unit 14. The control unit 14 further includes an identification function creation unit 14a, a feature amount extraction unit 14b, an identification value calculation unit 14c, and a personal attribute determination unit 14d. The storage unit 13 includes learning information 13a, The discriminating function 13b is stored.

撮像部11は、CCD(Charge Coupled Devices)カメラ等の撮像機器で構成される。たとえば、撮像部11を可視カメラで構成した場合であれば、照明や日光による可視光が認証対象物によって反射された反射可視光を検知し、可視画像として撮像する。そして、撮像部11は、撮像した可視画像を制御部14の特徴量抽出部14bへ出力する。   The imaging unit 11 includes an imaging device such as a CCD (Charge Coupled Devices) camera. For example, if the imaging unit 11 is configured with a visible camera, the visible light reflected by the authentication object is detected and captured as a visible image. Then, the imaging unit 11 outputs the captured visible image to the feature amount extraction unit 14b of the control unit 14.

結果出力部12は、個人属性判定部14dで判定された判定結果を表示する表示装置などの出力装置であり、たとえば、液晶ディスプレイやスピーカー等で構成されている。   The result output unit 12 is an output device such as a display device that displays the determination result determined by the personal attribute determination unit 14d, and includes, for example, a liquid crystal display or a speaker.

記憶部13は、不揮発性メモリやハードディスクドライブといった記憶デバイスで構成される記憶部であり、学習情報13aと、識別関数13bとを記憶する。学習情報13aは、個人属性が判明している画像データの特徴量を予めまとめた情報である。   The storage unit 13 is a storage unit configured by a storage device such as a nonvolatile memory or a hard disk drive, and stores learning information 13a and an identification function 13b. The learning information 13a is information in which feature amounts of image data whose personal attributes are known are collected in advance.

また、識別関数13bは、識別関数作成部14aによって作成される関数であり、学習情報13aを用いた学習によって各係数が決定された線形判別式である。なお、本実施例では、識別関数13bとして線形判別式を用いる場合について説明するが、非線形の判別式を用いることとしてもよい。   The discriminant function 13b is a function created by the discriminant function creating unit 14a, and is a linear discriminant in which each coefficient is determined by learning using the learning information 13a. In this embodiment, the case where a linear discriminant is used as the discriminant function 13b will be described. However, a nonlinear discriminant may be used.

識別関数作成部14aは、学習情報13aに基づいて2つのカテゴリを識別する境界を表す識別関数を作成し、記憶部13へ識別関数13bとして記憶させる処理を行う処理部である。   The discriminant function creating unit 14a is a processing unit that creates a discriminant function representing a boundary for discriminating two categories based on the learning information 13a and stores the discriminating function in the storage unit 13 as the discriminant function 13b.

なお、ここでは、個人属性推定装置10に備える識別関数作成部14aが、記憶部13に記憶された学習情報13aに基づいて識別関数を作成するようにしたが、識別関数作成部14aおよび学習情報13aは、個人属性推定装置10になくてもよい。個人属性推定装置10は、予め個人属性推定装置10以外の装置で作成された識別関数を取得して、記憶部13へ識別関数13bとして記憶させるようにしてもよい。   Here, the discrimination function creating unit 14a included in the personal attribute estimation device 10 creates the discrimination function based on the learning information 13a stored in the storage unit 13, but the discrimination function creating unit 14a and the learning information 13a may not be present in the personal attribute estimation device 10. The personal attribute estimation device 10 may acquire an identification function previously created by a device other than the personal attribute estimation device 10 and store it in the storage unit 13 as the identification function 13b.

特徴量抽出部14bは、撮像部11で撮像された画像データと平均的な顔画像とを比較し、目、鼻および口等の位置を検出し、各位置に対応する特徴量を抽出して、識別値算出部14cへ渡す処理を行う処理部である。   The feature amount extraction unit 14b compares the image data picked up by the image pickup unit 11 with the average face image, detects the positions of eyes, nose, mouth, etc., and extracts the feature amounts corresponding to each position. , A processing unit that performs processing to be passed to the identification value calculation unit 14c.

識別値算出部14cは、識別関数13bに対して特徴量抽出部14bから受け付けた特徴量を代入することで識別値を算出し、算出した識別値を個人属性判定部14dへ渡す処理を行う処理部である。   The identification value calculation unit 14c calculates the identification value by substituting the feature amount received from the feature amount extraction unit 14b into the identification function 13b, and performs processing for passing the calculated identification value to the personal attribute determination unit 14d Part.

個人属性判定部14dは、識別値算出部14cから受け付けた識別値に基づいて個人属性を判定する処理を行う処理部である。なお、本実施例では、推定対象者の性別および年齢を判定する場合について説明する。   The personal attribute determination unit 14d is a processing unit that performs processing for determining a personal attribute based on the identification value received from the identification value calculation unit 14c. In addition, a present Example demonstrates the case where the sex and age of an estimation object person are determined.

つぎに、個人属性推定装置10が実行する識別分析について、図3を用いて説明する。図3は、識別値の一例を示す図である。ここで、識別分析とは、2つの異なるカテゴリ間で、どちらのカテゴリに属するのかを識別するための境界(以下、「識別関数」と記載する)を求めるための手法である。   Next, the identification analysis performed by the personal attribute estimation device 10 will be described with reference to FIG. FIG. 3 is a diagram illustrating an example of the identification value. Here, the discriminant analysis is a technique for obtaining a boundary (hereinafter referred to as “discrimination function”) for identifying which category belongs to between two different categories.

以下では、異なるカテゴリを識別する境界を、線形方程式で表現できる空間とし、識別関数は、線形識別関数と呼ばれる線形方程式で表現できる関数を用いて例示する。なお、異なるカテゴリを識別する境界を、非線形の関数を用いて表してもよい。   Below, the boundary which identifies a different category is made into the space which can be expressed with a linear equation, and an identification function is illustrated using the function which can be expressed with a linear equation called a linear discriminant function. Note that boundaries that identify different categories may be expressed using a non-linear function.

まず、撮像された画像データと平均的な顔画像とを比較し、目、鼻および口等の位置を検出し、各位置に対応する特徴量を抽出する。ここでは、横32個および縦32個の格子点である1024か所(32×32=1024)の特徴量を抽出することとする。そして、抽出した特徴量を1024次元の実数ベクトルX(以下、「特徴ベクトル」と記載する)で表し、1024次元の多次元空間に変換した空間で識別分析を行う。   First, the captured image data is compared with an average face image, the positions of eyes, nose, mouth, and the like are detected, and feature amounts corresponding to the positions are extracted. Here, feature values at 1024 locations (32 × 32 = 1024), which are 32 horizontal and 32 vertical lattice points, are extracted. The extracted feature quantity is represented by a 1024-dimensional real vector X (hereinafter referred to as “feature vector”), and identification analysis is performed in a space converted into a 1024-dimensional multidimensional space.

Figure 2011022916
この場合、特徴ベクトルXは式(1−1)のように表現することができる。ここで、「M」は、1024次元の空間であるので、式(1−2)のようにM=1024とする。
Figure 2011022916
In this case, the feature vector X can be expressed as in Expression (1-1). Here, since “M” is a 1024-dimensional space, M = 1024 as in Expression (1-2).

つづいて、予め取得された複数の画像データに基づいて求められた識別関数gij(x)は、式(2)のようになる。

Figure 2011022916
Subsequently, the discriminant function gij (x) obtained based on a plurality of image data acquired in advance is as shown in Expression (2).
Figure 2011022916

式(2)のgij(x)は、カテゴリiとカテゴリjとを識別するための識別関数である。また、Wijは、カテゴリiとカテゴリjとを識別するために予め学習してある重み付けベクトルであり、式(3)のように表現することができる。なお、カテゴリiおよびカテゴリjは、たとえば、図1の(B)に示したマトリクスの横軸あるいは縦軸に相当する。また、Wijは、学習情報13aに基づいて識別関数作成部14aによって作成される。

Figure 2011022916
Gij (x) in Expression (2) is an identification function for identifying category i and category j. Wij is a weighting vector learned in advance to identify category i and category j, and can be expressed as in equation (3). Category i and category j correspond to the horizontal axis or vertical axis of the matrix shown in FIG. Wij is created by the discriminant function creation unit 14a based on the learning information 13a.
Figure 2011022916

このように、予め求めた識別関数gij(x)(式(2))に、撮像された画像データから抽出された個人属性推定対象者の特徴ベクトルX(式(1))を代入して、すべてのカテゴリ間について算出された識別値を、図3に示すように、マトリクスによって表す。   In this way, the feature vector X (Equation (1)) of the person attribute estimation target extracted from the captured image data is substituted into the discriminant function gij (x) (Equation (2)) obtained in advance. The identification values calculated for all categories are represented by a matrix as shown in FIG.

そして、特徴ベクトルXを識別関数gij(x)に代入して算出された識別値が、0より大きい場合、特徴ベクトルXはカテゴリiに属し、0より小さい場合、特徴ベクトルXはカテゴリiに属すると識別する。また、識別値の絶対値が大きい程、識別されたカテゴリに属する確度が高いこととなる。   If the discrimination value calculated by substituting the feature vector X into the discrimination function gij (x) is greater than 0, the feature vector X belongs to the category i, and if it is less than 0, the feature vector X belongs to the category i. Identify. In addition, the greater the absolute value of the identification value, the higher the probability of belonging to the identified category.

たとえば、同図に示すように、横軸のカテゴリBと縦軸のカテゴリAとが交差する識別値は「20」であるので、個人属性推定装置10は、推定対象者が、カテゴリAよりもカテゴリBに属する可能性が高いと識別したことをあらわしている。   For example, as shown in the figure, since the identification value at which the horizontal axis category B intersects with the vertical axis category A is “20”, the personal attribute estimation device 10 has an estimation target more than category A. This indicates that the possibility of belonging to category B is high.

また、同図に示すように、横軸のカテゴリBと縦軸のカテゴリCとが交差する識別値は「−50」であるので、個人属性推定装置10は、推定対象者が、カテゴリBよりもカテゴリCに属する可能性が高いと識別したことを表す。   Further, as shown in the figure, since the identification value at which the horizontal axis category B and the vertical axis category C intersect is “−50”, the personal attribute estimation device 10 has the estimation target person from category B. Represents that the possibility of belonging to category C is high.

一方、同図に示すように、横軸のカテゴリBと縦軸のカテゴリDとが交差する識別値は「0」であるので、個人属性推定装置10は、推定対象者がカテゴリBまたはカテゴリCのどちらに属するかを識別できなかったことを表す。   On the other hand, as shown in the figure, the identification value at which the horizontal axis category B and the vertical axis category D intersect is “0”. This indicates that it was not possible to identify which of the two.

なお、同図に示すように、たとえば、横軸のカテゴリDと縦軸のカテゴリCとが交差する識別値の符号を逆にした値が、横軸のカテゴリCと縦軸のカテゴリDとが交差する識別値になっている。   As shown in the figure, for example, the value obtained by reversing the sign of the identification value where the horizontal axis category D and the vertical axis category C intersect is the horizontal axis category C and the vertical axis category D. It is an identification value that intersects.

すなわち、同じカテゴリ間が縦横に交差するセルを繋いでできる対角線を挟んで左右上下対称に、符号が逆ではあるが、識別値は同じとなる。このため、識別関数gij(x)(式(2))に、特徴ベクトルX(式(1))を代入して算出する際は、対角線を挟んで、どちらか一方を算出すればよい。たとえば、同図の右上に示した6つの識別値を算出するだけでよい。   That is, the identification values are the same although the signs are opposite to each other symmetrically on the left and right and up and down across a diagonal line connecting cells intersecting vertically and horizontally between the same categories. For this reason, when calculating by substituting the feature vector X (formula (1)) for the discriminant function gij (x) (formula (2)), either one may be calculated with a diagonal line in between. For example, it is only necessary to calculate the six identification values shown in the upper right of the figure.

このように、識別分析によって、すべてのカテゴリ間について予め識別関数を求め、撮像された画像データから抽出された個人属性推定対象者の特徴ベクトルを代入して識別値を算出する。   In this way, the discrimination function is obtained in advance for all categories by discrimination analysis, and the discrimination value is calculated by substituting the feature vector of the person attribute estimation target person extracted from the captured image data.

つぎに、個人属性推定装置10が行う個人属性推定処理の詳細を、図4〜図6を用いて説明する。まず、個人属性推定装置10が行う性別度算出処理手順の詳細を、図4を用いて説明する。図4は、性別度算出処理手順の一例を示す図である。   Next, details of the personal attribute estimation process performed by the personal attribute estimation device 10 will be described with reference to FIGS. First, the details of the gender degree calculation processing procedure performed by the personal attribute estimation device 10 will be described with reference to FIG. FIG. 4 is a diagram illustrating an example of a sex degree calculation processing procedure.

同図(A)のマトリクスに示すように、識別値算出部14cは、性別および年齢別のカテゴリ間について予め求めておいた識別関数13bに、撮像された画像データから抽出された個人属性推定対象者の特徴ベクトルを代入して識別値を算出する。   As shown in the matrix of FIG. 5A, the identification value calculation unit 14c uses the identification function 13b obtained in advance for the sex and age-specific categories in the personal attribute estimation target extracted from the captured image data. The identification value is calculated by substituting the person's feature vector.

ここで、同図(A)表の年齢のカテゴリには、「0〜、10〜、20〜、40〜、60〜」と表記したが、年齢層「0〜9歳、10〜19歳、20〜39歳、40〜59歳、60歳以上」に対応するものとする。   Here, in the category of age in the table (A), “0, 10, 20, 40, 60,” is described, but the age group “0-9 years, 10-19 years, 20-39 years old, 40-59 years old, over 60 years old ".

なお、対応する年齢層は、「10歳幅、10歳幅、20歳幅、20歳幅、60歳以上すべて」となるが、必ずしも均等な幅でカテゴリを分ける必要はない。また、幅は1歳刻みであってもよい。   The corresponding age group is “10-year-old width, 10-year-old width, 20-year-old width, 20-year-old width, 60-year-old and older”, but it is not always necessary to categorize the categories with an equal width. The width may be in increments of 1 year.

個人属性推定装置10は、算出した識別値を縦に加算して、横軸のカテゴリごとに識別値の合計値を求める(同図の(B)参照)。そして、加算した値を平滑化して、男女別にヒストグラムを作成する(同図の(C)参照)。   The personal attribute estimation device 10 adds the calculated identification values vertically, and obtains the total value of the identification values for each category on the horizontal axis (see (B) in the figure). Then, the added value is smoothed and a histogram is created for each gender (see (C) in the figure).

そして、個人属性推定装置10は、男女別に作成したヒストグラム(以下、「年齢性別ヒストグラム」と記載する)の最大度数を「性別度」、最大度数となる年齢を「性別度算出年齢」とする。   Then, the personal attribute estimation device 10 sets the maximum frequency of the histogram created for each gender (hereinafter referred to as “age sex histogram”) as “gender degree” and the age at which the maximum frequency is “gender degree calculation age”.

具体的には、同図(C)に示すように、男性の年齢性別ヒストグラムの最大度数が「76」、最大度数となる年齢が「26.8歳」であった場合、男性の性別度(以下、「男性度」と記載する)を「76」、男性度算出年齢を「26.8」とする。   Specifically, as shown in FIG. 5C, when the maximum frequency of the male sex-sex histogram is “76” and the maximum frequency is “26.8 years old”, the male sex level ( Hereinafter, “male degree” is assumed to be “76”, and the male degree calculation age is “26.8”.

一方、女性の年齢性別ヒストグラムの最大度数が「138」、最大度数となる年齢が「40.1歳」であった場合、女性の性別度(以下、「女性度」と記載する)を「138」、女性度算出年齢を「40.1」とする。   On the other hand, when the maximum frequency of the age-gender histogram of the woman is “138” and the age at which the maximum frequency is “40.1 years”, the female gender (hereinafter referred to as “female”) is set to “138”. ”, The female age calculation age is“ 40.1 ”.

その後、個人属性判定部14dは、男性度と女性度の差が所定の第一の閾値を超えていた場合、性別度の高い性別を、推定性別と確定する。たとえば、男性度76と女性度138との差62が所定の第一の閾値を超えていた場合は、男性度よりも女性度の方が高いので、推定性別を女性と確定する。また、男性度と女性度の差62が所定の第一の閾値を超えていない場合には、後述する「詳細性別度算出処理」へ移行する。なお、ここでは、ヒストグラムの最大度数を性別度としたが、識別値の合計値の最大値を性別度としてもよい。   Thereafter, when the difference between the male degree and the female degree exceeds a predetermined first threshold, the personal attribute determination unit 14d determines the gender having a high gender degree as the estimated gender. For example, when the difference 62 between the male degree 76 and the female degree 138 exceeds a predetermined first threshold, the estimated sex is determined to be female because the female degree is higher than the male degree. When the difference 62 between the male degree and the female degree does not exceed the predetermined first threshold value, the process proceeds to “detailed gender degree calculation process” described later. Here, the maximum frequency of the histogram is the gender degree, but the maximum sum of the identification values may be the gender degree.

ここで、カテゴリ間の特徴量の差が表れにくい、すなわち、識別値が0に近い値だけで判定を行うと、個人属性推定対象者の画像データから抽出した特徴量に揺れが生じた場合に、誤推定されやすい。   Here, it is difficult for the feature amount difference between categories to appear, that is, when the determination is made only with a value whose identification value is close to 0, the feature amount extracted from the image data of the individual attribute estimation target person is shaken. It is easy to be mistakenly estimated.

しかし、個人属性推定装置10は、すべてのカテゴリ間の識別値の合計値に基づいて判定を行っているので、画像データから抽出した特徴量に揺れが生じた場合であっても、個人属性の推定精度を向上することができる。   However, since the personal attribute estimation device 10 performs the determination based on the total value of the identification values between all categories, even if the feature amount extracted from the image data fluctuates, The estimation accuracy can be improved.

つぎに、上記した「詳細性別度算出処理」の処理手順の詳細を、図5を用いて説明する。図5は、詳細性別度算出処理手順の一例を示す図である。   Next, details of the processing procedure of the “detailed gender degree calculation process” will be described with reference to FIG. FIG. 5 is a diagram illustrating an example of a detailed gender degree calculation processing procedure.

同図(A)に示すように、上述した手法によって性別および年齢別のすべてのカテゴリ間について算出された識別値のうち、横軸のカテゴリが男性であり、縦軸のカテゴリが女性であるエリアを使用して、詳細性別度算出処理を行う。   As shown in FIG. 4A, among the identification values calculated for all categories by sex and age by the above-described method, the horizontal axis category is male and the vertical axis category is female. Is used to perform detailed gender degree calculation processing.

個人属性判定部14dは、推定性別が確定されなかった場合に、縦横ともに、性別度算出処理で求めた男性度算出年齢に対応するカテゴリから女性度算出年齢に対応するカテゴリまでのマスに囲まれたエリアを詳細性別度算出エリアとする。   When the estimated gender is not determined, the personal attribute determination unit 14d is surrounded by squares from the category corresponding to the male degree calculated age to the category corresponding to the female degree calculated age in both the vertical and horizontal directions. This area is the detailed gender degree calculation area.

具体的には、男性度算出年齢26.8はカテゴリ「20〜」に対応し、女性度算出年齢40.1はカテゴリ「40〜」に対応する。したがって、横軸および縦軸ともにカテゴリ「20〜」からカテゴリ「40〜」に囲まれたエリア(ここでは、全4マス)を、詳細性別度算出エリアとする(同図の(B)参照)。   Specifically, the male degree calculated age 26.8 corresponds to the category “20˜”, and the female degree calculated age 40.1 corresponds to the category “40˜”. Accordingly, an area (in this case, a total of 4 squares) surrounded by the categories “20˜” to “40˜” on both the horizontal axis and the vertical axis is set as the detailed gender degree calculation area (see (B) in the figure). .

そして、個人属性判定部14dは、詳細性別度算出エリア内の識別値の平均値を算出して詳細性別度とする。ここでは、平均値は−18.75((−6−3−33−33)÷4=−18.75)と算出され、−18.75を詳細性別度とする。   Then, the personal attribute determination unit 14d calculates the average value of the identification values in the detailed gender degree calculation area to obtain the detailed gender degree. Here, the average value is calculated as −18.75 ((−6−33−33) ÷ 4 = −18.75), and −18.75 is set as the detail gender degree.

その後、個人属性判定部14dは、詳細性別度から、男女性別度比を以下のように算出する。詳細性別度が、負数であれば、女性である確度が高いとし、さらに、詳細性別度の絶対値が所定の第二の閾値よりも大きい場合は、推定性別を女性と確定する。一方、詳細性別度が、正数であれば、男性である確度が高いとし、さらに、詳細性別度の絶対値が、所定の第二の閾値よりも大きい場合は、推定性別を男性と確定する。   Thereafter, the personal attribute determination unit 14d calculates the male / female sex ratio from the detailed sex grade as follows. If the detailed gender degree is a negative number, the probability of being a woman is high, and if the absolute value of the detailed gender degree is larger than a predetermined second threshold, the estimated gender is determined to be female. On the other hand, if the detail gender degree is a positive number, the probability of being male is high, and if the absolute value of the detail gender degree is greater than a predetermined second threshold, the estimated gender is determined to be male. .

たとえば、詳細性別度が−18.75で、所定の第二の閾値が20とした場合について、例示する(同図の(C)参照)。この場合、詳細性別度は−20から20の間であるので、ここでは、まだ推定性別は確定できていない。   For example, the case where the detailed gender degree is -18.75 and the predetermined second threshold value is 20 is illustrated (see (C) in the figure). In this case, since the detailed gender degree is between −20 and 20, the estimated gender has not been determined yet.

この場合、詳細性別度から負の所定の第二の閾値−20までの距離と、詳細性別度から正の所定の第二の閾値20までの距離との比を、「男女性別度比」として算出する。そして、算出した「男女性別度比」を後述する「年齢算出処理」を行う際の「重み(R)」として使用する。ここでは、男女性別度比は、男性:女性=3%:97%となり、重み(R)は0.03となる。   In this case, the ratio between the distance from the detailed gender degree to the negative predetermined second threshold −20 and the distance from the detailed gender degree to the positive predetermined second threshold 20 is referred to as “male / female sex ratio”. calculate. Then, the calculated “male / female ratio” is used as “weight (R)” when performing “age calculation processing” described later. Here, the male / female ratio is male: female = 3%: 97%, and the weight (R) is 0.03.

なお、ここでは、詳細性別度算出エリアを、男性度算出年齢から女性度算出年齢までの範囲によって囲まれたエリアとした。しかし、男性度算出年齢に対応するカテゴリと女性度算出年齢に対応するカテゴリとが交差するセルを中心に、隣接する近傍の8マスを含むエリア(全9マス)を、詳細性別度算出エリアとしてもよい。   Here, the detailed gender degree calculation area is an area surrounded by a range from a male degree calculation age to a female degree calculation age. However, an area including all adjacent 8 cells (9 cells in total) centering on a cell where the category corresponding to the maleity calculation age and the category corresponding to the femaleity calculation age intersect is used as the detailed gender degree calculation area. Also good.

また、ここでは、すべてのカテゴリ間について算出された識別値のうち、横軸のカテゴリが男性であり、縦軸のカテゴリが女性であるエリアを使用して詳細性別度を算出するようにした。   Here, among the identification values calculated for all categories, the detailed gender degree is calculated using an area where the horizontal axis category is male and the vertical axis category is female.

しかし、横軸のカテゴリが女性であり、縦軸のカテゴリが男性であるエリアを使用してもよい。この場合、識別値の正負が逆になるため、男女性別度比も上述した説明とは逆になる。   However, an area where the horizontal axis category is female and the vertical axis category is male may be used. In this case, since the positive / negative of the identification value is reversed, the male / female sex ratio is also opposite to that described above.

つぎに、上記した「年齢算出処理」の処理手順の詳細を、図6を用いて説明する。図6は、年齢算出処理手順の一例を示す図である。   Next, the details of the above-described “age calculation process” will be described with reference to FIG. FIG. 6 is a diagram illustrating an example of an age calculation processing procedure.

同図(A)に示すように、上述した方法によって性別および年齢別のすべてのカテゴリ間について算出された識別値のうち、横軸のカテゴリが男性であり縦軸のカテゴリも男性であるエリア、および、横軸のカテゴリが女性であり縦軸のカテゴリも女性であるエリアを使用して、年齢算出処理を行う。   As shown in FIG. 5A, among the identification values calculated for all categories by sex and age by the method described above, the horizontal axis category is male and the vertical axis category is also male, The age calculation process is performed using an area where the horizontal axis category is female and the vertical axis category is also female.

個人属性判定部14dは、横軸のカテゴリが男性であり縦軸のカテゴリも男性であるエリア、および、横軸のカテゴリが女性であり縦軸のカテゴリも女性であるエリアの算出した識別値を縦に加算して、男女別に年齢カテゴリごとの識別値の合計値を求める(同図の(B)参照)。   The personal attribute determination unit 14d calculates the identification values calculated for the area where the horizontal axis category is male and the vertical axis category is male, and the horizontal axis category is female and the vertical axis category is also female. By adding vertically, the total value of the identification values for each age category is obtained for each gender (see (B) in the figure).

そして、個人属性判定部14dは、加算した値を平滑化して、男女別のヒストグラムを作成し(同図の(C)参照)、男女別に作成したヒストグラム(以下、「年齢ヒストグラム」と記載する)の最大度数となる年齢を男性年齢および女性年齢とする。   Then, the personal attribute determination unit 14d smoothes the added value to create a gender-specific histogram (see (C) in the figure), and a histogram created for each gender (hereinafter referred to as “age histogram”). The age at which the maximum frequency of is male and female age.

具体的には、同図(C)に示すように、男性の年齢ヒストグラムの最大度数となる年齢が28.4歳であった場合、男性年齢を「28.4」とする。一方、女性の年齢ヒストグラムの最大度数となる年齢が41.4歳であった場合、女性年齢を「41.4」とする。   Specifically, as shown in FIG. 5C, when the age that is the maximum frequency of the age histogram of men is 28.4 years old, the man age is set to “28.4”. On the other hand, when the age that is the maximum frequency in the age histogram of the woman is 41.4 years old, the woman age is set to “41.4”.

ここで、推定性別が確定している場合は、推定性別が男性であれば男性年齢を、推定性別が女性であれば女性年齢をそのまま推定年齢とする。一方、推定性別が確定していない場合は、男女性別度比(図5の(C)参照)を重みに変換して、推定年齢を算出する。   Here, when the estimated gender is confirmed, the male age is used as the estimated age if the estimated gender is male, and the female age is used as it is if the estimated gender is female. On the other hand, when the estimated gender is not fixed, the male / female degree ratio (see FIG. 5C) is converted into a weight to calculate the estimated age.

具体的には、男性年齢に男女性別度比の男性の割合を乗じた数値に、女性年齢に男女性別度比の女性の割合を乗じた数値を加算した年齢を推定年齢とする。たとえば、男女性別度比が、男性:女性=3%:97%であった場合、同図(C)に示す年齢ヒストグラムに基づいて推定年齢を算出すると41.01(28.4×3%+41.4×97%)となる。このとき、最終的な性別判定は男女性別度比が高い性別とする、もしくは、不定とする。   Specifically, the estimated age is an age obtained by adding a numerical value obtained by multiplying a male age by a male ratio of male to female ratio to a female age by a female ratio of male to female ratio. For example, if the male / female ratio is male: female = 3%: 97%, the estimated age is calculated based on the age histogram shown in FIG. 4C (41.01 (28.4 × 3% + 41). .4 × 97%). At this time, the final gender determination is a gender having a high male / female sex ratio or is indefinite.

これまでは、個人属性推定装置10が行う個人属性推定処理手順の詳細を、具体的な識別値のマトリクスを用いて説明してきたが、つぎに、個人属性推定装置10が行う個人属性推定処理手順を、図7〜図12に示したフローチャートを用いて説明する。   So far, the details of the personal attribute estimation processing procedure performed by the personal attribute estimation device 10 have been described using a specific matrix of identification values. Next, the personal attribute estimation processing procedure performed by the personal attribute estimation device 10 will be described. Will be described with reference to the flowcharts shown in FIGS.

まず、個人属性推定装置10が行う処理手順の概要について、図7を用いて説明する。図7は、個人属性推定装置10が実行する処理手順の概要を示すフローチャートである。   First, an outline of a processing procedure performed by the personal attribute estimation device 10 will be described with reference to FIG. FIG. 7 is a flowchart showing an outline of a processing procedure executed by the personal attribute estimation device 10.

なお、識別関数作成部14aは、個人属性が判明している画像データの特徴量を予めまとめた情報である学習情報13aに基づいてすべてのカテゴリ間について識別関数13bを求めておくものとする。   It should be noted that the discrimination function creating unit 14a obtains the discrimination function 13b for all categories based on the learning information 13a that is information obtained by collecting the feature amounts of image data whose personal attributes are known in advance.

そして、同図に示すように、識別値算出部14cは、特徴量抽出部14bが抽出した特徴量を識別関数13bへ入力することで識別値の算出を行い(ステップS101)、個人属性判定部14dは、ステップS101で算出した識別値に基づいて性別度の算出を行い(ステップS102)、ステップS101で算出した識別値およびステップS102で算出した性別度に基づいて年齢の算出を行い(ステップS103)、個人属性推定処理を終了する。   Then, as shown in the figure, the identification value calculation unit 14c calculates the identification value by inputting the feature amount extracted by the feature amount extraction unit 14b to the identification function 13b (step S101), and the personal attribute determination unit 14d calculates gender degree based on the identification value calculated in step S101 (step S102), and calculates age based on the identification value calculated in step S101 and the gender degree calculated in step S102 (step S103). ), The personal attribute estimation process is terminated.

つぎに、図7に示したステップS101で行う「識別値算出」手順の詳細を、図8を用いて説明する。図8は、識別値算出処理の処理手順を示すフローチャートである。   Next, the details of the “identification value calculation” procedure performed in step S101 shown in FIG. 7 will be described with reference to FIG. FIG. 8 is a flowchart showing the processing procedure of the identification value calculation processing.

同図に示すように、撮像部11は、個人属性推定対象者の顔を撮像して、画像データを取得し(ステップS201)、特徴量抽出部14bは、ステップS201で取得した画像データに基づいて特徴量を抽出する(ステップS202)。   As shown in the figure, the imaging unit 11 captures the face of the individual attribute estimation target person and acquires image data (step S201), and the feature amount extraction unit 14b is based on the image data acquired in step S201. The feature amount is extracted (step S202).

そして、識別値算出部14cは、ステップS202で抽出した特徴量を予め求めた識別関数13bに代入することによって、すべてのカテゴリ間について識別値を算出し(ステップS203)、識別値のマトリクスを作成して、識別値算出処理を終了する。   Then, the identification value calculation unit 14c calculates the identification value for all categories by substituting the feature amount extracted in step S202 into the identification function 13b obtained in advance (step S203), and creates a matrix of identification values. Then, the identification value calculation process ends.

つぎに、図7に示したステップS102で行う「性別度算出」手順の詳細を、図9を用いて説明する。図9は、性別度算出処理の処理手順を示すフローチャートである。   Next, details of the “gender degree calculation” procedure performed in step S102 shown in FIG. 7 will be described with reference to FIG. FIG. 9 is a flowchart showing a processing procedure of the gender degree calculation processing.

同図に示すように、個人属性判定部14dは、識別値のマトリクスの横軸のカテゴリごとに識別値の合計値を求めるため、識別値を縦に加算する(ステップS301)。   As shown in the figure, the personal attribute determination unit 14d adds the identification values vertically in order to obtain the total value of the identification values for each category on the horizontal axis of the matrix of identification values (step S301).

そして、個人属性判定部14dは、ステップS301で加算した値のうち、横軸のカテゴリが男性である合計値を平滑化して、年齢性別ヒストグラム(男性)を作成し(ステップS302)、ステップS302で作成したヒストグラムの最大度数を男性度とする(ステップS303)。   Then, the personal attribute determination unit 14d smoothes the total value in which the horizontal axis category is male among the values added in step S301, and creates an age-sex histogram (male) (step S302). The maximum frequency of the created histogram is assumed to be masculine (step S303).

一方、個人属性判定部14dは、ステップS301で加算した値のうち、横軸のカテゴリが女性である合計値を平滑化して、年齢性別ヒストグラム(女性)を作成し(ステップS304)、ステップS304で作成したヒストグラムの最大度数を女性度とする(ステップS305)。   On the other hand, the personal attribute determination unit 14d smoothes the total value in which the horizontal axis category is female among the values added in step S301, and creates an age-sex histogram (female) (step S304). The maximum frequency of the created histogram is set to be female (step S305).

その後、個人属性判定部14dは、男性度と女性度との差が所定の第一の閾値を超えているか否かを判定し(ステップS306)、男性度と女性度との差が所定の第一の閾値を超えていると判定された場合(ステップS306:Yes)、今度は、男性度が女性度より大きいか否かを判定する(ステップS307)。   Thereafter, the personal attribute determination unit 14d determines whether or not the difference between the male degree and the female degree exceeds a predetermined first threshold (step S306), and the difference between the male degree and the female degree is a predetermined first value. When it is determined that the threshold value has been exceeded (step S306: Yes), it is determined whether or not the male degree is greater than the female degree (step S307).

個人属性判定部14dは、男性度が女性度より大きいと判定された場合(ステップS307:Yes)、推定性別を男性であると確定し(ステップS308)、性別度算出処理を終了する。   If it is determined that the male degree is greater than the female degree (step S307: Yes), the personal attribute determination unit 14d determines that the estimated gender is male (step S308), and ends the gender degree calculation process.

また、個人属性判定部14dは、男性度が女性度より小さいと判定された場合(ステップS307:No)、推定性別を女性であると確定し(ステップS309)、性別度算出処理を終了する。   Further, when it is determined that the male degree is smaller than the female degree (step S307: No), the personal attribute determining unit 14d determines that the estimated gender is female (step S309), and ends the gender degree calculating process.

一方、個人属性判定部14dは、男性度と女性度との差が所定の第一の閾値を超えていないと判定された場合(ステップS306:No)、詳細性別度算出処理を行い(ステップS310)、性別度算出処理を終了する。なお、ステップS310の詳細については、図10を用いて後述する。   On the other hand, when it is determined that the difference between the male degree and the female degree does not exceed the predetermined first threshold value (step S306: No), the personal attribute determination unit 14d performs a detailed gender degree calculation process (step S310). ), The gender degree calculation process is terminated. Details of step S310 will be described later with reference to FIG.

つぎに、図9に示した詳細性別度算出処理の詳細な処理手順について図10を用いて説明する。図10は、詳細性別度算出処理の処理手順を示すフローチャートである。   Next, a detailed processing procedure of the detailed gender degree calculation processing shown in FIG. 9 will be described with reference to FIG. FIG. 10 is a flowchart showing the processing procedure of the detailed gender degree calculation processing.

同図に示すように、個人属性判定部14dは、図9に示したステップS302で作成した年齢性別ヒストグラム(男性)の最大度数となる年齢を、男性度算出年齢とする(ステップS401)。   As shown in the figure, the personal attribute determination unit 14d sets the age that is the maximum frequency of the age-sex histogram (male) created in step S302 shown in FIG. 9 as a male degree calculation age (step S401).

また、個人属性判定部14dは、図9に示したステップS304で作成した年齢性別ヒストグラム(女性)の最大度数となる年齢を、女性度算出年齢とする(ステップS402)。   Also, the personal attribute determination unit 14d sets the age that is the maximum frequency in the age-sex histogram (female) created in step S304 shown in FIG. 9 as the female degree calculated age (step S402).

そして、個人属性判定部14dは、性別度算出処理で算出した男性度算出年齢と女性度算出年齢とを比較し、男性度算出年齢が女性度算出年齢より大きいか否かを判定する(ステップS403)。   Then, the personal attribute determination unit 14d compares the male degree calculated age calculated in the gender degree calculating process with the female degree calculated age, and determines whether the male degree calculated age is greater than the female degree calculated age (step S403). ).

個人属性判定部14dは、男性度算出年齢が女性度算出年齢より大きいと判定された場合(ステップS403:Yes)、範囲最小値を女性度算出年齢とし(ステップS404)、範囲最大値を男性度算出年齢とする(ステップS405)。   When it is determined that the male degree calculated age is greater than the female degree calculated age (step S403: Yes), the personal attribute determining unit 14d sets the minimum range value as the female degree calculated age (step S404), and sets the maximum range value as the male degree. The calculated age is set (step S405).

一方、個人属性判定部14dは、男性度算出年齢が女性度算出年齢より小さいと判定された場合(ステップS403:No)、範囲最小値を男性度算出年齢とし(ステップS406)、範囲最大値を女性度算出年齢とする(ステップS407)。   On the other hand, if the individual attribute determination unit 14d determines that the male degree calculated age is smaller than the female degree calculated age (step S403: No), the minimum range value is set as the male degree calculated age (step S406), and the maximum range value is set. It is set as a female degree calculation age (step S407).

そして、個人属性判定部14dは、範囲最小値に対応するカテゴリから範囲最大値に対応するカテゴリまでの詳細性別度算出エリア内の識別値の平均値を算出し、詳細性別度とし(ステップS408)、性別度算出処理を終了する。   Then, the personal attribute determination unit 14d calculates the average value of the identification values in the detailed gender degree calculation area from the category corresponding to the minimum range value to the category corresponding to the maximum range value, and sets the detailed gender level (step S408). Then, the sex degree calculation process is terminated.

つぎに、図7に示したステップS103で行う「年齢算出」手順の詳細を、図11を用いて説明する。図11は、年齢算出処理の処理手順を示すフローチャートである。   Next, the details of the “age calculation” procedure performed in step S103 shown in FIG. 7 will be described with reference to FIG. FIG. 11 is a flowchart illustrating a processing procedure of age calculation processing.

同図に示すように、個人属性判定部14dは、識別値のマトリクスの横軸が男性カテゴリで縦軸も男性カテゴリである識別値および横軸が女性カテゴリで縦軸も女性カテゴリである識別値を、それぞれ縦に加算する(ステップS501)。   As shown in the figure, the personal attribute determination unit 14d uses the identification value matrix where the horizontal axis is the male category and the vertical axis is the male category, and the horizontal axis is the female category and the vertical axis is the female category. Are added vertically (step S501).

そして、個人属性判定部14dは、ステップS501で加算した値のうち、横軸のカテゴリが男性である合計値を平滑化して、年齢ヒストグラム(男性)を作成し(ステップS502)、ステップS502で作成したヒストグラムの最大度数となる年齢を男性年齢とする(ステップS503)。   Then, the personal attribute determination unit 14d smoothes the total value in which the horizontal axis category is male among the values added in step S501 to create an age histogram (male) (step S502), and creates it in step S502. The age that is the maximum frequency of the histogram is set as male age (step S503).

一方、個人属性判定部14dは、ステップS501で加算した値のうち、横軸のカテゴリが女性である合計値を平滑化して、年齢ヒストグラム(女性)を作成し(ステップS504)、ステップS504で作成したヒストグラムの最大度数となる年齢を女性年齢とする(ステップS505)。   On the other hand, the personal attribute determination unit 14d smoothes the total value in which the horizontal axis category is female among the values added in step S501, creates an age histogram (female) (step S504), and creates it in step S504. The age corresponding to the maximum frequency of the histogram is set as the female age (step S505).

その後、個人属性判定部14dは、既に推定性別が確定しているか否かを判定し(ステップS506)、推定性別が確定していると判定された場合(ステップS506:Yes)、推定性別が男性であるか否かを判定する(ステップS507)。   Thereafter, the personal attribute determination unit 14d determines whether or not the estimated gender is already determined (step S506). If it is determined that the estimated gender is determined (step S506: Yes), the estimated gender is male. It is determined whether or not (step S507).

そして、個人属性判定部14dは、推定性別が男性であると判定された場合(ステップS507:Yes)、推定年齢をステップS503で算出した男性年齢として(ステップS508)、年齢算出処理を終了する。   Then, when it is determined that the estimated gender is male (step S507: Yes), the personal attribute determination unit 14d sets the estimated age as the male age calculated in step S503 (step S508), and ends the age calculation process.

一方、個人属性判定部14dは、推定性別が女性であると判定された場合(ステップS507:No)、推定年齢をステップS505で算出した女性年齢として(ステップS509)、年齢算出処理を終了する。   On the other hand, if it is determined that the estimated gender is female (step S507: No), the personal attribute determination unit 14d sets the estimated age as the female age calculated in step S505 (step S509) and ends the age calculation process.

また、個人属性判定部14dは、推定性別が確定していないと判定された場合(ステップS506:No)、詳細年齢算出処理を行い(ステップS510)、年齢算出処理を終了する。なお、ステップS510の詳細については、図12を用いて後述する。   In addition, when it is determined that the estimated gender is not fixed (step S506: No), the personal attribute determination unit 14d performs a detailed age calculation process (step S510), and ends the age calculation process. Details of step S510 will be described later with reference to FIG.

つぎに、図11に示した詳細年齢算出処理の詳細な処理手順について図12を用いて説明する。図12は、詳細年齢算出処理の処理手順を示すフローチャートである。   Next, a detailed processing procedure of the detailed age calculation processing shown in FIG. 11 will be described with reference to FIG. FIG. 12 is a flowchart showing the processing procedure of the detailed age calculation processing.

同図に示すように、個人属性判定部14dは、詳細性別度が正の所定の第二の閾値より大きいか否かを判定し(ステップS601)、詳細性別度が正の所定の第二の閾値より小さいと判定された場合(ステップS601:No)、詳細性別度が負の所定の第二の小さいか否かを判定する(ステップS602)。   As shown in the figure, the personal attribute determination unit 14d determines whether or not the detailed gender degree is larger than a predetermined second positive threshold (step S601), and the predetermined second gender degree is positive. When it is determined that it is smaller than the threshold value (step S601: No), it is determined whether the detailed gender degree is a predetermined second small negative value (step S602).

個人属性判定部14dは、詳細性別度が負の所定の第二の閾値より大きいと判定された場合(ステップS602:No)、詳細性別度の男性の比率を重み(R)に変換する(ステップS603)。   When it is determined that the detail gender degree is greater than the predetermined negative second threshold (step S602: No), the personal attribute determination unit 14d converts the male ratio of the detailed gender degree into the weight (R) (step S602). S603).

そして、個人属性判定部14dは、ステップS503で算出した男性年齢に重み(R)を乗じた数値とステップS505で算出した女性年齢に(1−重み(R))を乗じた数値を加算した合計値を推定年齢として(ステップS604)、詳細年齢算出処理を終了する。   Then, the personal attribute determination unit 14d adds the numerical value obtained by multiplying the male age calculated in step S503 by the weight (R) and the numerical value obtained by multiplying the female age calculated in step S505 by (1-weight (R)). The detailed age calculation process is terminated with the value as the estimated age (step S604).

また、個人属性判定部14dは、詳細性別度が負の所定の第二の閾値より小さいと判定された場合(ステップS602:Yes)、ステップS505で算出した女性年齢を推定年齢として(ステップS605)、詳細年齢算出処理を終了する。   Further, when it is determined that the detailed gender degree is smaller than the predetermined negative second threshold value (step S602: Yes), the personal attribute determination unit 14d sets the female age calculated in step S505 as the estimated age (step S605). The detailed age calculation process ends.

一方、個人属性判定部14dは、詳細性別度が正の所定の第二の閾値より大きいと判定された場合(ステップS601:Yes)、ステップS503で算出した男性年齢を推定年齢として(ステップS606)、詳細年齢算出処理を終了する。   On the other hand, if it is determined that the detailed gender degree is greater than the predetermined positive second threshold value (step S601: Yes), the personal attribute determination unit 14d sets the male age calculated in step S503 as the estimated age (step S606). The detailed age calculation process ends.

上述してきたように、本実施例では、個人属性推定装置10は、予め複数の画像データを取得し、取得した画像データから抽出された特徴量に基づいてすべてのカテゴリ間について識別関数13bを求めておく。   As described above, in this embodiment, the personal attribute estimation device 10 acquires a plurality of image data in advance, and obtains an identification function 13b between all categories based on the feature amount extracted from the acquired image data. Keep it.

そして、個人属性推定装置10は、個人属性推定対象者の画像データから抽出された特徴量を識別関数13bに代入することで、すべてのカテゴリ間について識別値を算出する。さらに、個人属性推定装置10は、算出したすべてのカテゴリ間の識別値に基づいて個人属性である性別および年齢を推定することとした。このようにすることで、個人属性の推定精度を向上させることができる。   And the personal attribute estimation apparatus 10 calculates an identification value between all categories by substituting the feature-value extracted from the image data of the personal attribute estimation object person for the identification function 13b. Furthermore, the personal attribute estimation device 10 estimates gender and age, which are personal attributes, based on the calculated identification values between all categories. By doing in this way, the estimation accuracy of a personal attribute can be improved.

なお、特許請求の範囲に記載の個人属性推定装置は個人属性推定装置10、学習済情報記憶手段は識別関数13b、判別手段は識別値算出部14c、個人属性推定手段は個人属性判定部14dに相当するものである。   The personal attribute estimation device described in the claims is the personal attribute estimation device 10, the learned information storage means is the identification function 13b, the discrimination means is the identification value calculation section 14c, and the personal attribute estimation means is the personal attribute determination section 14d. It is equivalent.

なお、上述した実施例では、識別関数作成部13aは、特徴量に基づいて識別関数13bを求め、特徴量抽出部14bによって抽出された特徴量を識別関数13bに代入し、識別値を算出するようにしたが、本発明はこれに限られるものではない。   In the embodiment described above, the discriminant function creating unit 13a calculates the discriminant value by obtaining the discriminant function 13b based on the feature amount, substituting the feature amount extracted by the feature amount extracting unit 14b into the discriminant function 13b. However, the present invention is not limited to this.

たとえば、個人属性推定装置10は、画像データ等の生体情報に基づいて識別関数13bを求め、撮像部11で撮像された画像データ等の生体情報を識別関数13bに代入し、識別値を算出するようにしてもよい。   For example, the personal attribute estimation device 10 obtains an identification function 13b based on biological information such as image data, substitutes the biological information such as image data captured by the imaging unit 11 into the identification function 13b, and calculates an identification value. You may do it.

また、上述した実施例では、個人属性推定対象者の顔を撮像して、個人属性を推定するようにしたが、他の身体的特徴、たとえば、目の網膜の毛細血管のパターンや虹彩パターンの濃淡値等に基づいて推定を行ってもよく、また、音声受信機器を設け、受信した声紋に基づいて個人属性の推定を行ってもよい。   In the above-described embodiment, the personal attribute estimation target person's face is imaged and the personal attribute is estimated. However, other physical features such as the eye retina capillary pattern and iris pattern The estimation may be performed based on a gray value or the like, or a voice receiving device may be provided to estimate the personal attribute based on the received voiceprint.

さらに、行動的特徴、たとえば、まばたきや唇の動き等、様々な生体情報に基づいて個人属性の推定を行ってもよい。これにより、顔以外の生体情報によって識別が可能であるカテゴリに分類して、個人属性の推定を行うことができる。   Furthermore, personal attributes may be estimated based on various biological information such as behavioral characteristics such as blinking and lip movement. Thereby, it can classify | categorize into the category which can be identified with biometric information other than a face, and can estimate a personal attribute.

具体的には、目の網膜の毛細血管のパターンや虹彩パターンの濃淡値等に基づいて、カテゴリが病気であるか否か、さらには、何の病気であるか等のカテゴリに分類して、個人属性の推定を行うことができる。   Specifically, based on the pattern of capillaries in the retina of the eye and the shade value of the iris pattern, etc., the category is classified as a disease or not, and further, it is classified into a category such as what disease, Personal attributes can be estimated.

また、上述した実施例では、個人属性として性別および年齢を推定するよう例示したが、本発明はこれに限られるものではない。比較的少数の複数カテゴリに分類する個人属性推定装置にも適用してもよい。   In the above-described embodiment, the gender and the age are estimated as the personal attributes, but the present invention is not limited to this. The present invention may also be applied to a personal attribute estimation device that classifies into a relatively small number of multiple categories.

たとえば、人種やキャリア年数によってカテゴリを分類してもよい。具体的には、カテゴリを日本人と外国人との2つに分類してもよいし、カテゴリを新人、中堅およびベテラン等の企業内での社員を分類して、分類したカテゴリである個人属性の推定を行うようにしてもよい。また、人種、性別および年齢等、個人属性が3段階またはそれ以上になる場合も同様にカテゴリを分類して個人属性の推定を行うことができる。   For example, you may classify | categorize according to race or career years. Specifically, the category may be classified into two categories, Japanese and foreigners, or the category is classified into employees in companies such as newcomers, mid-level employees, and veterans, and personal attributes that are classified categories May be estimated. Further, when the personal attributes such as race, gender, and age are in three or more levels, the personal attributes can be estimated by similarly classifying the categories.

また、上述した実施例では、年齢という連続的な値を算出するため、平滑化したヒストグラムを作成したが、上述の人種等、非連続なカテゴリを扱う場合は、それぞれの識別値の合計値をそのまま用いるとよい。また、各識別値の集約方法は、識別値の合計値だけでなく、識別値の正負大小に応じて、「+1」、「0」、「−1」等の点数を与え、これを合計してもよい。   In the above-described embodiment, a smoothed histogram is created in order to calculate a continuous value called age. However, when dealing with non-continuous categories such as the above-described race, the total value of the respective identification values. Should be used as is. In addition, the method for aggregating each identification value gives not only the total value of the identification values but also points such as “+1”, “0”, “−1” depending on whether the identification values are positive or negative, and sums them. May be.

また、所定の限定された年齢層の個人に対して性別を推定するようにしてもよい。具体的には、20歳代の個人属性推定対象者の全身を撮像して、服装および髪型等の特徴量に基づいて性別の推定を行うようにしてもよい。   Further, gender may be estimated for individuals of a predetermined limited age group. Specifically, the whole body of the individual attribute estimation target person in their 20s may be imaged, and gender estimation may be performed based on feature quantities such as clothes and hairstyle.

このようにすることで、個人属性推定装置をマーケティングや広告宣伝等に活用する際に推定される個人情報によって、正確な推定情報を得ることができるとともに、正確な分析結果を導き出すことができる。   In this way, it is possible to obtain accurate estimated information and to derive an accurate analysis result from personal information estimated when the personal attribute estimation device is used for marketing, advertisement, or the like.

以上のように、本発明にかかる個人属性推定装置は、個人属性推定対象者の取得した生体情報に基づいて個人属性を推定する際、個人属性の推定精度を向上したい場合に有用であり、特に、取得した生体情報から抽出した特徴量に揺れが生じた場合であっても、個人属性の推定精度を向上したい場合に適している。   As described above, the personal attribute estimation device according to the present invention is useful when it is desired to improve the estimation accuracy of the personal attribute when estimating the personal attribute based on the biological information acquired by the personal attribute estimation target person. Even when the feature amount extracted from the acquired biometric information fluctuates, it is suitable for the case where it is desired to improve the estimation accuracy of the personal attribute.

10 個人属性推定装置
11 撮像部
12 結果出力部
13 記憶部
13a 学習情報
13b 識別関数
14 制御部
14a 識別関数作成部
14b 特徴量抽出部
14c 識別値算出部
14d 個人属性判定部
DESCRIPTION OF SYMBOLS 10 Personal attribute estimation apparatus 11 Imaging part 12 Result output part 13 Storage part 13a Learning information 13b Discrimination function 14 Control part 14a Discrimination function creation part 14b Feature-value extraction part 14c Discrimination value calculation part 14d Personal attribute determination part

Claims (7)

対象者の生体情報から前記対象者の個人属性を推定する個人属性推定装置であって、
前記対象者の前記生体情報が前記個人属性に関する異なる2つのカテゴリのうち何れのカテゴリに属するかを判別する基準を前記個人属性が既知である複数の前記生体情報から予め生成した学習済情報に基づき、前記対象者から取得した前記生体情報が前記異なる2つのカテゴリのうち何れのカテゴリに属するかを判別する判別手段と、
前記異なる2つのカテゴリの各組合せについて前記判別手段がそれぞれ判別した複数の判別結果に基づいて前記対象者の前記個人属性を推定する個人属性推定手段と
を備えたことを特徴とする個人属性推定装置。
A personal attribute estimation device for estimating personal attributes of the subject from the biological information of the subject,
A criterion for determining which of the two different categories related to the personal attribute the biometric information of the subject belongs is based on learned information generated in advance from a plurality of the biometric information whose personal attributes are known Determining means for determining which of the two different categories the biometric information acquired from the subject belongs;
A personal attribute estimation unit for estimating the personal attribute of the target person based on a plurality of discrimination results discriminated by the discrimination unit for each combination of the two different categories. .
前記学習済情報は、
前記異なる2つのカテゴリのうち何れのカテゴリに属するかを判別する判別式を前記異なる2つのカテゴリの各組合せについて予め決定したものであって、
前記判別手段は、
前記生体情報の特徴量を前記判別式に対して入力して算出された値を前記判別結果として出力することを特徴とする請求項1に記載の個人属性推定装置。
The learned information is
A discriminant for determining which of the two different categories belongs to a predetermined formula for each combination of the two different categories,
The discrimination means includes
The personal attribute estimation apparatus according to claim 1, wherein a value calculated by inputting a feature amount of the biological information to the discriminant is output as the discrimination result.
前記個人属性推定手段は、
前記カテゴリごとに該カテゴリと複数の他のカテゴリとの組合せにおける判別結果を集約し、集約した集約結果に基づいて前記対象者の前記個人属性を推定することを特徴とする請求項1または2に記載の個人属性推定装置。
The personal attribute estimating means includes
3. The discrimination attribute in a combination of the category and a plurality of other categories is aggregated for each category, and the personal attribute of the target person is estimated based on the aggregated aggregation result. The personal attribute estimation device described.
前記個人属性推定手段は、
前記判別結果に基づいて第一の個人属性を推定し、推定された前記第一の個人属性に関連する前記個人属性の組合せのみに基づいて第二の個人属性を推定することを特徴とする請求項1、2または3に記載の個人属性推定装置。
The personal attribute estimating means includes
The first personal attribute is estimated based on the discrimination result, and the second personal attribute is estimated based only on the combination of the personal attributes related to the estimated first personal attribute. Item 4. The personal attribute estimation device according to Item 1, 2 or 3.
前記個人属性は、
前記対象者の性別および年齢層を含むことを特徴とする請求項1〜4のいずれか一つに記載の個人属性推定装置。
The personal attribute is
The personal attribute estimation device according to any one of claims 1 to 4, further comprising a gender and an age group of the subject.
対象者の生体情報より前記対象者の個人属性を推定する個人属性推定装置に適用される個人属性推定方法であって、
前記対象者から取得した前記生体情報が異なる2つのカテゴリのうち何れのカテゴリに属するかを、前記個人属性が既知である複数の前記生体情報に基づいて前記個人属性に関する前記異なる2つのカテゴリのうち何れのカテゴリに属するかを判別する基準を予め生成した学習済情報に基づいて前記個人属性推定装置が判別する判別工程と、
前記異なる2つのカテゴリの各組合せについて前記判別工程がそれぞれ判別した複数の判別結果に基づいて前記対象者の前記個人属性を前記個人属性推定装置が推定する個人属性推定工程と
を含んだことを特徴とする個人属性推定方法。
A personal attribute estimation method applied to a personal attribute estimation device that estimates a personal attribute of the subject from biological information of the subject,
Which of the two different categories the biometric information acquired from the subject belongs to is determined from among the two different categories related to the personal attribute based on a plurality of the biometric information whose personal attributes are known A discrimination step in which the personal attribute estimation device discriminates based on learned information generated in advance as a criterion for discriminating which category;
A personal attribute estimation step in which the personal attribute estimation device estimates the personal attribute of the subject based on a plurality of discrimination results discriminated by the discrimination step for each combination of the two different categories. And personal attribute estimation method.
対象者の生体情報より前記対象者の個人属性を推定する個人属性推定システムであって、
前記対象者の前記生体情報が前記個人属性に関する異なる2つのカテゴリのうち何れのカテゴリに属するかを判別する基準を前記個人属性が既知である複数の前記生体情報から予め生成した学習済情報に基づき、前記対象者から取得した前記生体情報が前記異なる2つのカテゴリのうち何れのカテゴリに属するかを判別する判別手段と、
前記異なる2つのカテゴリの各組合せについて前記判別手段がそれぞれ判別した複数の判別結果に基づいて前記対象者の前記個人属性を推定する個人属性推定手段と
を備えたことを特徴とする個人属性推定システム。
A personal attribute estimation system for estimating a personal attribute of the subject from biological information of the subject,
A criterion for determining which of the two different categories related to the personal attribute the biometric information of the subject belongs is based on learned information generated in advance from a plurality of the biometric information whose personal attributes are known Determining means for determining which of the two different categories the biometric information acquired from the subject belongs;
A personal attribute estimation system comprising: personal attribute estimation means for estimating the personal attribute of the subject based on a plurality of discrimination results discriminated by the discrimination means for each combination of the two different categories. .
JP2009169127A 2009-07-17 2009-07-17 Personal attribute estimation device, personal attribute estimation method, and personal attribute estimation system Expired - Fee Related JP5325687B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009169127A JP5325687B2 (en) 2009-07-17 2009-07-17 Personal attribute estimation device, personal attribute estimation method, and personal attribute estimation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009169127A JP5325687B2 (en) 2009-07-17 2009-07-17 Personal attribute estimation device, personal attribute estimation method, and personal attribute estimation system

Publications (2)

Publication Number Publication Date
JP2011022916A true JP2011022916A (en) 2011-02-03
JP5325687B2 JP5325687B2 (en) 2013-10-23

Family

ID=43632919

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009169127A Expired - Fee Related JP5325687B2 (en) 2009-07-17 2009-07-17 Personal attribute estimation device, personal attribute estimation method, and personal attribute estimation system

Country Status (1)

Country Link
JP (1) JP5325687B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014028011A (en) * 2012-07-31 2014-02-13 Daikoku Denki Co Ltd System for game parlor

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003242486A (en) * 2002-02-21 2003-08-29 Japan Science & Technology Corp Person attribute estimating device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003242486A (en) * 2002-02-21 2003-08-29 Japan Science & Technology Corp Person attribute estimating device

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
CSNG200500268004; 瀧川 えりな: '顔画像による人種推定技術' 電子情報通信学会技術研究報告 第103巻 第454号, 20031113, p.19-24, 社団法人電子情報通信学会 *
CSNG200800773007; 木村 幸代: '多クラス問題におけるSVMのカーネルパラメータ最適化' 情報処理学会研究報告 第2008巻 第81号, 20080821, p.45-51, 社団法人情報処理学会 *
CSNH200400119007; 瀧川 えりな: '顔画像による自動性別・年代推定' OMRON TECHNICS 第43巻 第1号, 20030320, p.37-41, オムロン株式会社 *
JPN6013009627; 木村 幸代: '多クラス問題におけるSVMのカーネルパラメータ最適化' 情報処理学会研究報告 第2008巻 第81号, 20080821, p.45-51, 社団法人情報処理学会 *
JPN6013009630; 瀧川 えりな: '顔画像による自動性別・年代推定' OMRON TECHNICS 第43巻 第1号, 20030320, p.37-41, オムロン株式会社 *
JPN6013009631; 瀧川 えりな: '顔画像による人種推定技術' 電子情報通信学会技術研究報告 第103巻 第454号, 20031113, p.19-24, 社団法人電子情報通信学会 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014028011A (en) * 2012-07-31 2014-02-13 Daikoku Denki Co Ltd System for game parlor

Also Published As

Publication number Publication date
JP5325687B2 (en) 2013-10-23

Similar Documents

Publication Publication Date Title
US20190005359A1 (en) Method and system for predicting personality traits, capabilities and suggested interactions from images of a person
Salido et al. Using deep learning to detect melanoma in dermoscopy images
JP4273359B2 (en) Age estimation system and age estimation method
JP4897042B2 (en) Unique object identification in multiple image collections
CN112598643B (en) Depth fake image detection and model training method, device, equipment and medium
CN105488463B (en) Lineal relative&#39;s relation recognition method and system based on face biological characteristic
US20150242689A1 (en) System and method for determining graph relationships using images
KR20170006355A (en) Method of motion vector and feature vector based fake face detection and apparatus for the same
Londhe et al. Analysis of facial expression and recognition based on statistical approach
WO2019228040A1 (en) Facial image scoring method and camera
Zhang et al. On the effectiveness of soft biometrics for increasing face verification rates
WO2021196721A1 (en) Cabin interior environment adjustment method and apparatus
KR20180038169A (en) Safety classification method of the city image using deep learning-based data feature
Kaluri et al. A framework for sign gesture recognition using improved genetic algorithm and adaptive filter
Vellela et al. Multi-Class Skin Diseases Classification with Color and Texture Features Using Convolution Neural Network
JP2015125731A (en) Person attribute evaluation device, person attribute evaluation method and program
Travieso et al. Bimodal biometric verification based on face and lips
JP2015035172A (en) Expression analysis device and expression analysis program
JP5325687B2 (en) Personal attribute estimation device, personal attribute estimation method, and personal attribute estimation system
JP2014119879A (en) Face expression evaluation result smoothing device and face expression evaluation result smoothing program
Lee et al. Learning non-homogenous textures and the unlearning problem with application to drusen detection in retinal images
Hasnat et al. A proposed system for gender classification using lower part of face image
El Sayed et al. Efficient 3D point clouds classification for face detection using linear programming and data mining
Walczak et al. Improved gender classification using discrete wavelet transform and hybrid support vector machine
Jere et al. Deep learning-based architecture for social anxiety diagnosis

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120529

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130430

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130722

R150 Certificate of patent or registration of utility model

Ref document number: 5325687

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees