JPWO2015008567A1 - Face impression degree estimation method, apparatus, and program - Google Patents

Face impression degree estimation method, apparatus, and program Download PDF

Info

Publication number
JPWO2015008567A1
JPWO2015008567A1 JP2015527224A JP2015527224A JPWO2015008567A1 JP WO2015008567 A1 JPWO2015008567 A1 JP WO2015008567A1 JP 2015527224 A JP2015527224 A JP 2015527224A JP 2015527224 A JP2015527224 A JP 2015527224A JP WO2015008567 A1 JPWO2015008567 A1 JP WO2015008567A1
Authority
JP
Japan
Prior art keywords
impression
data
degree
estimation
classes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015527224A
Other languages
Japanese (ja)
Other versions
JP6029041B2 (en
Inventor
康行 伊原
康行 伊原
将 杉山
将 杉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solution Innovators Ltd
Tokyo Institute of Technology NUC
Original Assignee
NEC Solution Innovators Ltd
Tokyo Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solution Innovators Ltd, Tokyo Institute of Technology NUC filed Critical NEC Solution Innovators Ltd
Application granted granted Critical
Publication of JP6029041B2 publication Critical patent/JP6029041B2/en
Publication of JPWO2015008567A1 publication Critical patent/JPWO2015008567A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

人物の両端の印象度を精度よく推定するために、画像データに写された人物の印象度を推定する印象度推定方法は、画像データから顔画像を抽出する抽出工程と、顔画像から顔特徴ベクトルを算出する算出工程と、二標本間の印象度の大小関係を複数クラスのランキング最小二乗確率的識別器によりモデル化し、顔画像ベクトルを説明変数とするテストデータと学習データから既に得られた複数個の比較用基底データとを複数クラスのランキング最小二乗確率的識別器によって順次比較することよって得られる各クラスの確信度を元にスコアリングして、人物の印象度を推定する推定工程と、を含む。In order to accurately estimate the impression level of both ends of a person, the impression level estimation method for estimating the impression level of a person captured in image data includes an extraction step of extracting a face image from the image data, and a facial feature from the face image The calculation process for calculating the vector and the magnitude relationship between the impressions between the two samples were modeled by a class of least-squares stochastic discriminators, and the test data and the learning data were already obtained from the facial image vector as an explanatory variable. An estimation step for estimating the impression level of a person by scoring based on the certainty of each class obtained by sequentially comparing a plurality of comparison base data with a plurality of classes of ranking least squares stochastic discriminators; ,including.

Description

本発明は、人物の属性を推定する方法、装置、及びプログラムに関し、特に、人物の顔画像からその人物の印象度を推定する方法、装置、及びプログラムに関する。   The present invention relates to a method, an apparatus, and a program for estimating an attribute of a person, and more particularly to a method, an apparatus, and a program for estimating an impression level of a person from a face image of the person.

背景情報Background information

近年、人物の顔画像からその人物の属性(性別、年齢、表情など)を推定する研究が著しく発展している。中でも性別・年齢推定は、マーケティング戦略、セキュリティ、アミューズメントなどの用途に応用され、製品化されている。
例えば、特許文献1は、人間が知覚する結果に近い認識結果を得られる「年齢推定装置及び方法並びにプログラム」を開示している。特許文献1に開示された年齢推定装置では、回帰分析(regression)で年齢推定のモデルを作る際に、若年層の学習重みを強くすることで、若年層の推定精度を改善している。具体的には、特許文献1では、特徴ベクトルの抽出元であるテストデータの真の年齢を予測する教師付き回帰問題において、カーネル正則化重み付き最小二乗法(KRWLS:Kernel Regularized Weighted Least Squares)を用いて、年齢推定関数を正定値カーネルの線形結合でモデル化している。
また、最小二乗確率的識別器(LSPC:Least Square Probabilistic Classifier)と呼ばれる学習効率の良い識別器も知られている(例えば、非特許文献1、非特許文献2参照)。LSPCは、二乗損失のもとでクラスの事後確率モデルを学習する識別手法であり、解が解析的に計算できることが最大の特徴である。また、LSPCは、事後確率を密度比の形でクラス毎に直接推定する為、各クラスの学習データ数のアンバランスに強いという特徴も併せ持つ。LSPCでは、事後確率を二乗損失を用いて学習を行う。これにより、LSPCは、従来手法と同程度のパターン認識精度を維持しながら、学習時間を数百倍短縮することが可能となる。また、LSPCでは、特定のクラスのデータ数の偏りの影響を受けにくい。
さらに、ランキング学習も知られている。ここで、「ランキング学習」とは、関連度の高さや順列に応じて、データに高いスコアを付与出来る様、教師付き学習の枠組みで最適化する手法である。例えば、ペアワイズ・アプローチに基づくランキング学習の代表例な例として、ranking SVM(ranking Support Vector Machine)が知られている(例えば、非特許文献3参照)。ranking SVMでは、学習データのペアに対する損失を考えることで、SVMによる2クラス識別問題に帰着させ、スコア関数の最適化を行う。
In recent years, research for estimating the attributes (gender, age, facial expression, etc.) of a person from the face image of the person has been remarkably developed. In particular, gender and age estimation is applied to marketing strategies, security, amusement, and other commercial products.
For example, Patent Document 1 discloses an “age estimation apparatus, method, and program” that can obtain a recognition result close to the result perceived by humans. In the age estimation device disclosed in Patent Document 1, when an age estimation model is created by regression analysis, the younger generation's estimation accuracy is improved by strengthening the younger group's learning weight. Specifically, in Patent Document 1, a kernel regularized weighted least squares (KRWLS) is used in a supervised regression problem that predicts the true age of test data from which feature vectors are extracted. The age estimation function is modeled by a linear combination of positive definite kernels.
A classifier having a high learning efficiency called a least square probabilistic classifier (LSPC) is also known (see, for example, Non-Patent Document 1 and Non-Patent Document 2). LSPC is an identification method for learning a class posterior probability model under a square loss, and its greatest feature is that a solution can be calculated analytically. In addition, since LSPC directly estimates the posterior probability for each class in the form of a density ratio, it also has a feature that it is resistant to an imbalance in the number of learning data of each class. In LSPC, the posterior probability is learned using the square loss. As a result, the LSPC can shorten the learning time several hundred times while maintaining pattern recognition accuracy comparable to that of the conventional method. In addition, LSPC is not easily affected by a deviation in the number of data of a specific class.
In addition, ranking learning is also known. Here, “ranking learning” is a technique of optimization based on supervised learning so that a high score can be given to data according to the degree of relevance and permutation. For example, as a representative example of ranking learning based on the pair-wise approach, ranking SVM (ranking Support Vector Machine) is known (see, for example, Non-Patent Document 3). In ranking SVM, the loss to the pair of learning data is considered, thereby reducing the two-class identification problem by SVM and optimizing the score function.

特許第4742192号公報Japanese Patent No. 4742192

Sugiyama,M,“Superfast−trainable multi−class probablistic classifier by least−square posterior fitting,”IEICE Transactions on Information and Systems,vol.E93−D,no.10,pp.2690−2701,2010Sugiyama, M, “Superfast-trainable multi-class probable classifier by last-square posteriorfitting,” IEICE Transactions Information Institute. E93-D, no. 10, pp. 2690-2701, 2010 伊原 康行、杉山 将、植木 一也、藤田 光洋、“複数識別器の重み付き統合による多人種の年代識別”、動的画像処理実利用化ワークショップ2011(DIA2011)予稿集、pp.317−322、徳島、2011.3.3−4Yasuyuki Ihara, Masaru Sugiyama, Kazuya Ueki, Mitsuhiro Fujita, “Multi-Racial Age Identification by Weighted Integration of Multiple Classifiers”, Dynamic Image Processing Realization Workshop 2011 (DIA2011) Proceedings, pp. 317-322, Tokushima, 2011.3.3-4 R.Herbrich,T.Graepel and K.Obermayer:“Large margin rank boundaries for ordinal regression”,Advances in Large Margin Classifierds,Cambrige,MA,MIT Press,pp.115−132(2000)R. Herbrich, T .; Graepel and K.M. Obermayer: “Large margin rank boundaries for ordinal regression”, Advances in Large Margin Classifiers, Cambridge, MA, MIT Press, pp. 115-132 (2000)

最近では、「かわいらしい」、「明るくさわやか」、などといった、化粧の趣向に深く関わる‘人の見た目の印象度’を推定する新たな属性領域への取り組みも行われている。尚、人物の印象としては、例えば、「明るくさわやか」、「かわいらしい」、「ビジネス的」、「やさしい」、および「健康的」の5種類の印象が挙げられる。そして、その評価(印象度)としては、その各印象を、複数段階(例えば、5段階)で評価(推定)することになる。
しかしながら、特許文献1などで用いている「回帰分析」では、両端の精度(とてもかわいい、全くかわいくない等)に相当する顔画像の印象度を精度よく推定するのは困難である。この問題は、従属変数(目的変数)の値が両端付近のデータに対して推定精度を確保するのが困難といった回帰分析に特有な普遍的な問題、両端の印象度に相当する顔画像を十分に収集するのが困難といったデータ収集の問題に起因するものと考えられる。
両端の印象度(とてもかわいい、全くかわいくない)は、平均的な印象度(平均的なかわいらしさ)に比べて人の記憶に残りやすい為、両端の印象度に相当する顔に対して精度良く推定出来ることは重要な意味を持つ。
非特許文献1および非特許文献2に開示されたLSPCでも、人物の両端の印象度の推定精度が悪いという問題がある。
また、従来のランキング学習による最適化手法では、2つの従属変数(目的変数)の差の大小の度合いを最適化問題に反映させることが難しいという問題がある。
上述したように、従来の手法では、人物の‘両端の印象度’を精度良く推定するのは困難である。
[発明の目的]
したがって、本発明の目的は、人物の両端の印象度を精度よく推定する方法、装置、およびプログラムを提供することにある。
Recently, efforts are being made on new attribute areas such as “cute” and “bright and refreshing” to estimate the “appearance of a person's appearance” that is deeply related to the taste of makeup. The impression of a person includes, for example, five types of impressions of “bright and refreshing”, “adorable”, “business”, “friendly”, and “healthy”. As the evaluation (impression degree), each impression is evaluated (estimated) in a plurality of stages (for example, five stages).
However, in the “regression analysis” used in Patent Document 1 or the like, it is difficult to accurately estimate the impression degree of a face image corresponding to the accuracy of both ends (very cute, not pretty at all). This problem is a universal problem peculiar to regression analysis in which it is difficult to ensure the estimation accuracy of the values of the dependent variable (objective variable) for data near both ends, and facial images corresponding to impressions at both ends are sufficient. This is thought to be caused by data collection problems such as difficulty in collecting data.
Impressions at both ends (very cute, not pretty at all) are more memorable to human memory than average impressions (average cuteness). What can be estimated is important.
Even in the LSPC disclosed in Non-Patent Document 1 and Non-Patent Document 2, there is a problem that the estimation accuracy of impression degree at both ends of a person is poor.
In addition, the conventional optimization method using ranking learning has a problem that it is difficult to reflect the degree of difference between two dependent variables (object variables) in the optimization problem.
As described above, with the conventional method, it is difficult to accurately estimate the “degree of impression at both ends” of a person.
[Object of invention]
Accordingly, an object of the present invention is to provide a method, an apparatus, and a program for accurately estimating the degree of impression of both ends of a person.

本発明の一形態は、画像データに写された人物の印象度を、印象度推定装置を用いて推定する印象度推定方法であって、画像データから顔画像を抽出する抽出工程と、顔画像から顔特徴ベクトルを算出する算出工程と、二標本間の印象度の大小関係を複数クラスのランキング最小二乗確率的識別器によりモデル化し、顔画像ベクトルを説明変数とするテストデータと学習データから既に得られた複数個の比較用基底データとを複数クラスのランキング最小二乗確率的識別器によって順次比較することよって得られる各クラスの確信度を元にスコアリングして、人物の印象度を推定する推定工程と、を含む。   One aspect of the present invention is an impression level estimation method for estimating an impression level of a person captured in image data using an impression level estimation device, an extraction step of extracting a face image from image data, and a face image The calculation process of calculating the facial feature vector from the model, and the magnitude relationship between the impressions between the two samples are modeled by a class of least-squares stochastic discriminators, and test data and learning data with the facial image vector as an explanatory variable are already used Estimating the impression of a person by scoring based on the certainty of each class obtained by sequentially comparing the obtained plurality of comparison base data with a plurality of ranking least square probabilistic classifiers. An estimation step.

本発明の効果は、人物の両端の印象度を精度よく推定することができることである。   The effect of the present invention is that the degree of impression of both ends of a person can be accurately estimated.

図1は本発明の実施の形態における印象度推定方法で用いられるスコアリングのイメージ図であり、
図2は本発明の第1の実施例による印象度推定装置の構成を示すブロック図であり、
図3は図2の印象度推定装置で使用される、回帰分析モードのニューラルネットワーク(連続量推定手段)の構成を示すブロック図であり、
図4は図2の印象度推定装置で使用される、ランキング最小二乗確率的識別器(順序推定手段)の構成を示すブロック図である。
図5は本発明の第2の実施例による印象度推定装置の構成を示すブロックであり、
図6は図5の印象度推定装置で使用される、ランキング最小二乗確率的識別器(順序推定手段)の構成を示すブロック図であり、
図7は本発明の第3の実施例による印象度推定装置の構成を示すブロックであり、
図8は「かわいらしい印象度」を識別問題として解いた場合の、各手法での各クラスの認識率の実験結果を示す表であり、
図9は「かわいらしい印象度」を回帰問題として解いた場合の、各手法での絶対誤差平均(MAE)の実験結果を示す表である。
FIG. 1 is an image diagram of scoring used in the impression degree estimation method according to the embodiment of the present invention.
FIG. 2 is a block diagram showing a configuration of an impression degree estimation apparatus according to the first embodiment of the present invention.
FIG. 3 is a block diagram showing a configuration of a neural network (continuous amount estimation means) in regression analysis mode used in the impression degree estimation apparatus of FIG.
FIG. 4 is a block diagram showing a configuration of a ranking least square probabilistic discriminator (order estimation means) used in the impression degree estimation apparatus of FIG.
FIG. 5 is a block diagram showing the configuration of an impression degree estimation apparatus according to the second embodiment of the present invention.
FIG. 6 is a block diagram showing a configuration of a ranking least square probabilistic discriminator (order estimation means) used in the impression degree estimation apparatus of FIG.
FIG. 7 is a block diagram showing a configuration of an impression degree estimation apparatus according to the third embodiment of the present invention.
FIG. 8 is a table showing the experimental results of the recognition rate of each class in each method when “pretty impression” is solved as an identification problem.
FIG. 9 is a table showing the experimental results of the absolute error average (MAE) in each method when “pretty impression” is solved as a regression problem.

本発明の理解を容易にするために、関連技術について説明する。
[関連技術1]
最初に、第1の関連技術として、上記非特許文献1および2に記載されている、LSPCについて説明する。
LSPCは、二乗損失のもとでクラスの事後確率モデルを学習する識別手法であり、解が解析的に計算できることが最大の特徴である。
また、LSPCでは、事後確率を密度比の形でクラス毎に直接推定する為、各クラスの学習データ数のアンバランスに強いという特徴も併せ持つ。LSPCのこの特徴は、後述する本発明の実施形態に係る、ranking LSPCを解く際に好都合である。
LSPCでは、入力ベクトル(顔特徴量)xにおけるクラスyの事後確率分布p(y|x)を下記の式(1)の密度比の形で推定する。

Figure 2015008567
ただし、p(x)はサンプルの確率密度、p(x,y)は同時確率密度である。最終的には、事後確率が最大になるクラスを、次の式(2)で表される推定クラスとする。
Figure 2015008567
LSPCでは、事後確率p(y|x)を二乗損失を用いて学習を行う。これにより、LSPCでは、回帰分析の従来手法(カーネル正則化最小二乗法:KRLS)と同程度のパターン認識精度を維持しながら、学習時間を数百倍短縮することが可能となる。
また、LSPCでは、事後確率を上記数1で表される密度比の形で推定するため、訓練データにおける、特定のクラスのデータ数の偏りの影響を受けにくい。
まず、LSPCでは、クラスyの事後確率p(y|x)を、次の式(3)で表される線形モデルでモデル化する。
Figure 2015008567
Figure 2015008567
る。
LSPCでは、パラメータα=(α,…,αを、下記の式(4)で表される二乗誤差Jが最小となるように学習する。
Figure 2015008567
なお、Tは転置行列である。
二乗誤差Jの期待値の近似値を標本平均で考えることにより、上記式(4)の解は、解析的に次の式(5)で与えられる。
Figure 2015008567
ここで、
Figure 2015008567
である。
LSPCでは、最後に、全クラスの事後確率の総和が1になるように正規化補正することにより、下記の式(6)で示されるように、事後確率の解を得る。
Figure 2015008567
しかしながら、上述したように、LSPCでは、人物の両端の印象度の推定精度が悪いという問題がある。
[関連技術2]
次に、第2の関連技術として、ランキング学習の定式化について説明する。
上述したように、ランキング学習とは、関連度の高さや順列に応じて、データに高いスコアを付与出来る様、教師付き学習の枠組みで最適化する手法である。近年、ランキング学習は、クエリと関連性の高いデータを優先的に抽出する情報検索や、ユーザに関心の高い商品情報を優先的に提示する推薦システムなどの領域で、盛んに応用されている。
データ空間をχとするとき、n個の教師付き学習データ
Figure 2015008567
ここで、ベクトルxは説明変数(顔画像の特徴量)であり、スカラyは目的変数(印象度の大小をあらわしたもの)である。例えば、‘かわいらしい’の印象度を表す場合、yの値域を0.0〜4.0(全くかわいくない:0.0、とてもかわいい:4.0)で定め、‘かわいらしい’の度合いが大きいほど、数値が大きくなる様に取る。
従来のランキング学習では、印象度が高い順に出力値がソートされ、つまり、下記の式(7)
Figure 2015008567
となる様な、スコア関数f:χ→Rを最適化する。
この場合、Normalized Discounted Cumulative Gain(NDCG)や、Mean Reciprocal Rank(MRR)などが、モデルの評価基準として用いられるが、最適化問題を容易にするため、便宜的に学習データのペアやリストに対する損失を考えることが多い。
次に、第2の関連技術として、上記非特許文献3に記載されている、ペアワイズ・アプローチに基づくランキング学習の代表的な例として、ranking SVMについて述べる。
ranking SVMでは、学習データのペアに対する損失を考えることで、SVM(Support Vector Machine)による2クラス識別問題に帰着させ、スコア関数fの最適化を行う。
ranking SVMでは、スコア関数f:χ→Rを、下記の式(8)で表されるように、正定値カーネルk(x’,x)の線形結合でモデル化する。
Figure 2015008567
Figure 2015008567
集合を用いても良い。そして、下記パラメータα=(α,…,αを、次の関係が成り立つ様に最適化する。
Figure 2015008567
ここで、Φ(x)=(k(x,x),…k(x,x))である。このとき、ranking SVMの主問題は次の式(10)の形で定式化される。
Figure 2015008567
Figure 2015008567
は分離可能で無い場合を考慮して導入したスラック変数である。
ランキング学習の従来の定式化では、上述したように、下記の式(11)
Figure 2015008567
となる様な、スコア関数f:χ→Rを最適化することを考えた。しかしながら、この最適化手法には、2つの従属変数(目的変数)y,yの差の大小の度合いを最適化問題に反映させることが難しいという問題点がある。
[実施の形態]
次に、本発明の一実施形態に係る印象度推定方法について説明する。
本実施形態に係る印象度推定方法は、「二標本間の印象度の大小関係」を多クラスのLSPCによりモデル化(ranking LSPCの導入)し、LSPCの出力するクラスの確信度を元に、出力のスコアリングを行うことによって、人物の両端の印象度を精度良く推定する。換言すれば、本実施の形態に係る印象度推定方法におけるランキング学習(ペアワイズ・アプローチ)では、識別問題に帰着させて解く際に、多クラス確率的識別器であるLSPCを使用する。
すなわち、本実施形態に係る印象度推定方法は、比較的正解の得られやすい‘二標本間の印象度の大小関係’に着目して、二標本間の印象度の大小関係をランキング学習によりモデル化し、このモデルを用いた推定結果(ベアワイズで比較した時の印象度の大小)の集計により、両端の印象度に相当する顔画像に対する推定精度を改善する手法である。
上記第2の関連技術でおいて述べた従来のランキング学習手法と、本実施の形態に係るランキング学習手法との間には、次に述べるような相違点がある。
まず、従来のランキング学習手法では、ペアワイズで解くアプローチ(例えば、2データ間の比較で考えるアプローチ)を考える際、2クラスの識別問題に帰着させて解いている。したがって、従来のランキング学習手法は、どちらが「上又は下」の識別のみである。また、従来のランキング学習手法ではSVMを使用して解くことが多い。
これに対して、本実施の形態に係るランキング学習手法では、ペアワイズで解くアプローチ(例えば、2データ間の比較で考えるアプローチ)を考える際、多クラスの識別問題に帰着させて解く。したがって、本実施の形態に係るランキング学習手法は、どちらが「上又は下」の判断だけでなく、差の大小も加味する。そして、本実施の形態に係るランキング学習手法ではLSPCを採用する。
本発明の実施形態では、次の形でランキング学習を再定式化する。
まず、サンプルのペア(x,y)、(x、y)が与えられた時に、従属変数(目的変数)の差(y−y)を、大小の度合いに応じて、Cクラスにクラス分けする。具体的には、2クラス(C=2)の場合には、下記の式(12)
Figure 2015008567
といったクラス分けを考え、4クラス(C=4)の場合には、下記の式(13)
Figure 2015008567
といったクラス分けを考える。
L(y,y)は差(y−y)の属するクラスラベルを表す。この時、クラス毎に、スコア関数fk:χ×χ→R(k=1,…,C)を定義し、それぞれ、下記の式(14)となる様にそれぞれ最適化する。
Figure 2015008567
このスコア関数は、上記第2の関連技術における従来のスコア関数の特別な場合(線形性を持つ場合)の一般化と考えてよい。例えば、上記第2の関連技術において述べたranking SVMにおいて、スコア関数fの正定値カーネルの線形カーネルを用い、従属変数(目的変数)の差を上記式(12)のように2クラスに分類する場合を考える。この時、2組のスコア関数をそれぞれ、下記の式(15)
Figure 2015008567
と定義すれば、ランキング学習は、上記式(14)で表される最適化問題に帰着することに注意されたい。
スコア関数の最適化問題を考える際は、最適化問題を容易にするため、学習データのペアに対する損失を考えるペアワイズ・アプローチを便宜的に採用する。具体的には、本実施形態では、以下に説明するranking LSPCを考えることで、多クラス識別問題に帰着させて、スコア関数の最適化を行う。
次に、ranking LSPCについて説明する。ranking LSPCは、上記第2の関連技術において述べたranking SVMと同様に、ペアワイズ・アプローチに基づくものであり、学習データのペアに対する損失を考えることで、上記第1の関連技術において述べたLSPCによる多クラス識別問題に帰着させ、下記の式(16)で表されるスコア関数fの最適化を行う。
Figure 2015008567
このように、本実施の形態において、識別問題に関して、従来手法でよく使われるSVMでなく、LSPCを用いた理由は、次の4点である。
(1)LSPCは、二乗損失のもとでクラスの事後確率モデルを学習する識別手法であり、従来手法(第2の関連技術)と同程度のパターン認識精度を維持しながら、学習時間を数百倍短縮することが出来る。一方、ペアワイズ・アプローチに基づくランキング学習は、学習データ数が飛躍的に増大する。元お学習データがn個の場合、ランキング学習で使用する学習データはn倍となる。LSPCのこの学習効率の良さは、ランキング学習における大規模サンプル数の問題を緩和することが出来る。
(2)LSPCでは、クラス毎に事後確率をモデル化するため、各クラスの学習データのアンバランスに強いという特徴も併せ持つ。従属変数(目的変数)の差分の大小によりクラス分類する問題を考える場合、各クラスの学習データ数にアンバランスが生じやすい。しかしながら、LSPCのこの特徴は、データ数のアンバランスの認識精度に与える悪影響を緩和するのに好都合である。
(3)LSPCは、多クラスの非線形識別問題を解くことが出来、クラス毎に事後確率をモデル化するため、上述したように、クラス毎のスコア関数のモデル化が可能である。特に、LSPCでは、後述する多クラスのランキング学習を考えた場合、クラスによっては‘正解率の高い出力’が得られやすい。これはランキング学習の出力を集計して、回帰問題を解く際に有益である。
(4)ランキング学習の出力は、ペアワイズ的なアプローチの場合、通常、クラス識別結果の出力(予測クラス)のみであり、出力の確信度の情報は含まれない。これに対して、LSPCの場合、クラス識別結果を各クラスの確信度で出力する為、後述するように、ランキング学習の出力を集計して、回帰問題を解く際に好都合である。
次に、ranking LSPCの定式化について説明する。換言すれば、ranking LSPCの「学習フェーズ」について説明する。
Figure 2015008567
(目的変数))、従属変数(目的変数)の差(y−y)を、大小の度合いに応じて、Cクラスにクラス分けする。ここで、前述したように、ベクトルxは顔画像の特徴量を表わす説明変数であり、yは印象度の大小を数値化したものを表す目的変数(従属変数)である。ここで、yの値は、主観的に(例えば多数決などにより)印象度として既に決められた値(既知の値)である。
具体的には、2クラスであれば上記式(12)、4クラスであれば上記式(13)の形を考える。
この時、ranking LSPCでは、各クラスのスコア関数
Figure 2015008567
正定値カーネルφi,jの線形結合で、下記の式(17)で表されるように、それぞれモデル化する。
Figure 2015008567
Figure 2015008567
る最小二乗誤差Jが最小になる様に学習する。
Figure 2015008567
Figure 2015008567
PCと同様である。
以上の説明が、ranking LSPCの「学習フェーズ」の説明である。
次に、本発明の実施の形態に係る印象度推定方法の核心部分である、ranking LSPCの推定結果を元に、回帰分析の問題を解く手法について説明する。換言すれば、ranking LSPCを用いた「認識(推定)フェーズ」について説明する。
まず、テストデータ(xte,yte)との従属変数(目的変数)の差を比較するため
Figure 2015008567
する。ここで、テストデータの特徴変数(ベクトル)xteは、顔画像から特徴ベクトル算出部(後述する)によって算出された顔特徴ベクトルである。一方、テストデータの目的変数yteは、未知の変数である。比較用基底データ数bの大きさを適宜変えることで、モデル学習時の計算負荷を調整出来る。
また、印象度yは、下限値0.0と上限値4.0をそれぞれ持つ、すなわち、0.0≦y≦4.0であるとする。
簡単のため、まず2クラスのranking LSPCの場合について説明する。従属変数(目的変数)の差のクラス区分は、上記数22に従うものとする。
テストデータ(xte,yte)と比較用基底データ(b、y)のペアを入力した際のranking LSPCの出力が、‘クラス1,クラス2の確信度はそれぞれ0.7,0.3’であったとする(yte<yである確率が0.7)。
この時、下記の式(19)で表される、ベクトル形式の印象度スコア
Figure 2015008567
を印象度yの値に応じて次の式(20)のように割り当てる(yの値の取り方は任意で決めて良いが、yの全値域に対して密になる様取得するのが望ましい)。
Figure 2015008567
図1は、このスコアリングのイメージ図である。図1において、横軸は印象度スコアを示し、縦軸は確信度を示す。印象度スコアは、0.0〜4.0の間の範
Figure 2015008567
で表されるベクトルgに正規化処理しておく。
Figure 2015008567
次に、他の比較用基底データ(b、y)、(b、y)に対しても、同様にス
Figure 2015008567
に正規化しておく。
この時、次の式(22)
Figure 2015008567
の最大成分に該当するy、つまり、下記の式(23)
Figure 2015008567
となる様なyを、テストデータ(xte,yte)を入力した場合の印象度の推定結果とする。
以上の説明が、2クラスのranking LSPCを用いた「認識(推定)フェーズ」の説明である。
次に、4クラスのranking LSPCの場合について説明する。従属変数(目的変数)の差のクラス区分は、上記式(13)に従うものとする。
テストデータ(xte,yte)と比較用基底データ(b、y)のペアを入力した際のranking LSPCの出力が、‘クラス1〜クラス4の確信度がそれぞれ0.65,0.2,0.1,0.05’であったとする(yte<y−0.5である確率が最も高い(0.65))。
この時、下記の式(24)で表されるベクトル形式の印象度スコア
Figure 2015008567
を、印象度yの値に応じて次の式(25)のように割り当てる。
Figure 2015008567
以後は、上述した2クラスのranking LSPCの場合と同様に、比較用基底データ毎にスコア化を行い、テストデータ(xte,yte)に対する印象度の推定値を求める。
差分の大きなクラス(クラス1,4)に属するデータは認識率が高く、逆に、差分の小さなクラス(クラス2,3)に属するデータは認識率が低いことに注意されたい。そこで、ε−Support Vector Regressionと同様、許容誤差を設定し(ここでは0.5)、これをクラス2,3の値域設定に用いる。
以上の説明が、2クラスのranking LSPCを用いた「認識(推定)フェーズ」の説明である。In order to facilitate understanding of the present invention, related techniques will be described.
[Related technology 1]
First, LSPC described in Non-Patent Documents 1 and 2 will be described as a first related technique.
LSPC is an identification method for learning a class posterior probability model under a square loss, and its greatest feature is that a solution can be calculated analytically.
In addition, since LSPC directly estimates the posterior probability for each class in the form of a density ratio, it also has a feature of being strong against imbalance in the number of learning data of each class. This feature of LSPC is advantageous when solving ranking LSPC according to embodiments of the invention described below.
In LSPC, the posterior probability distribution p (y | x) of class y in the input vector (face feature amount) x is estimated in the form of the density ratio of the following equation (1).
Figure 2015008567
However, p (x) is the probability density of the sample, and p (x, y) is the joint probability density. Finally, the class with the maximum posterior probability is set as the estimated class represented by the following equation (2).
Figure 2015008567
In LSPC, the posterior probability p (y | x) is learned using the square loss. Thereby, in LSPC, it is possible to shorten the learning time by several hundred times while maintaining pattern recognition accuracy comparable to that of the conventional method of regression analysis (kernel regularized least square method: KRLS).
In LSPC, since the posterior probability is estimated in the form of the density ratio represented by the above equation 1, it is difficult to be affected by the deviation in the number of data of a specific class in the training data.
First, in LSPC, the posterior probability p (y | x) of class y is modeled by a linear model expressed by the following equation (3).
Figure 2015008567
Figure 2015008567
The
In LSPC, the parameter α = (α 1 ,..., Α b ) T is learned so that the square error J 0 expressed by the following equation (4) is minimized.
Figure 2015008567
T is a transposed matrix.
By considering an approximation of the expected value of the square error J 0 at sample mean, the solution of the equation (4) is given by analytically following equation (5).
Figure 2015008567
here,
Figure 2015008567
It is.
In LSPC, finally, a normalization correction is performed so that the sum of the posterior probabilities of all classes becomes 1, thereby obtaining a solution of the posterior probabilities as shown in the following equation (6).
Figure 2015008567
However, as described above, the LSPC has a problem that the estimation accuracy of the impression degree at both ends of a person is poor.
[Related Technology 2]
Next, formulating ranking learning will be described as a second related technique.
As described above, ranking learning is a technique of optimization in a supervised learning framework so that a high score can be given to data according to the degree of relevance and permutation. In recent years, ranking learning has been actively applied in areas such as information retrieval that preferentially extracts data highly relevant to a query and a recommendation system that preferentially presents product information that is highly interested in users.
When the data space is χ, n supervised learning data
Figure 2015008567
Here, the vector x i is an explanatory variable (feature amount of the face image), and the scalar y i is an objective variable (representing the magnitude of the impression degree). For example, when expressing the degree of impression of “pretty”, the range of y i is set to 0.0 to 4.0 (not pretty: 0.0, very cute: 4.0), and the degree of “pretty” is large As the number increases, take it.
In conventional ranking learning, output values are sorted in descending order of impression, that is, the following equation (7)
Figure 2015008567
Optimize the score function f: χ → R such that
In this case, Normalized Discounted Cumulative Gain (NDCG), Mean Reproductive Rank (MRR), and the like are used as model evaluation criteria. However, in order to facilitate optimization problems, for the sake of convenience, loss of learning data pairs and lists is lost. I often think of.
Next, as a second related technique, ranking SVM will be described as a representative example of ranking learning based on the pair-wise approach described in Non-Patent Document 3 above.
In the ranking SVM, by considering the loss of the pair of learning data, the score function f is optimized by reducing to a two-class identification problem by SVM (Support Vector Machine).
In ranking SVM, the score function f: χ → R is modeled by a linear combination of positive definite kernels k (x ′, x) as represented by the following equation (8).
Figure 2015008567
Figure 2015008567
A set may be used. Then, the following parameter α = (α 1 ,..., Α n ) T is optimized so that the following relationship is established.
Figure 2015008567
Here, Φ (x) = (k (x 1 , x),... K (x n , x)) T. At this time, the main problem of ranking SVM is formulated in the form of the following equation (10).
Figure 2015008567
Figure 2015008567
Is a slack variable introduced in consideration of the case where separation is not possible.
In the conventional formulation of ranking learning, as described above, the following equation (11)
Figure 2015008567
It was considered to optimize the score function f: χ → R such that However, this optimization method has a problem that it is difficult to reflect the degree of difference between two dependent variables (object variables) y i and y j in the optimization problem.
[Embodiment]
Next, an impression level estimation method according to an embodiment of the present invention will be described.
The impression degree estimation method according to the present embodiment models the “size relationship between two specimens” by multi-class LSPC (introduction of ranking LSPC), and based on the certainty of the class output by LSPC, By performing output scoring, the degree of impression at both ends of the person is accurately estimated. In other words, in ranking learning (pairwise approach) in the impression degree estimation method according to the present embodiment, LSPC, which is a multi-class probabilistic classifier, is used when solving the classification problem.
That is, the impression degree estimation method according to the present embodiment is based on the model of the magnitude relation between the two samples by focusing on “the magnitude relation between the two specimens”, which is relatively easy to obtain a correct answer. This is a technique for improving the estimation accuracy for the face image corresponding to the impression degree at both ends by summing up the estimation results using this model (the magnitude of the impression degree when compared with bearwise).
There is the following difference between the conventional ranking learning method described in the second related technology and the ranking learning method according to the present embodiment.
First, in the conventional ranking learning method, when considering a pair-wise approach (for example, an approach considered by comparison between two data), the problem is solved by reducing to a two-class identification problem. Therefore, the conventional ranking learning method only identifies which is “upper or lower”. Also, conventional ranking learning methods often use SVM to solve.
On the other hand, in the ranking learning method according to the present embodiment, when considering a pair-wise approach (for example, an approach considered by comparison between two data), it is solved by reducing to a multi-class identification problem. Therefore, the ranking learning method according to the present embodiment takes into consideration not only the determination of which is “up or down” but also the magnitude of the difference. The ranking learning method according to the present embodiment employs LSPC.
In the embodiment of the present invention, the ranking learning is reformulated in the following form.
First, when a pair of samples (x i , y i ) and (x j , y j ) is given, the difference (y i −y j ) of the dependent variable (object variable) is set according to the degree of magnitude, Classify into C classes. Specifically, in the case of 2 classes (C = 2), the following formula (12)
Figure 2015008567
In the case of 4 classes (C = 4), the following formula (13)
Figure 2015008567
Consider the classification.
L (y i , y j ) represents the class label to which the difference (y i −y j ) belongs. At this time, a score function fk: χ × χ → R (k = 1,..., C) is defined for each class, and optimized so as to satisfy the following equation (14).
Figure 2015008567
This score function may be considered as a generalization of the special case (with linearity) of the conventional score function in the second related technique. For example, in the ranking SVM described in the second related technology, the linear kernel of the positive definite kernel of the score function f is used, and the difference of the dependent variable (target variable) is classified into two classes as in the above equation (12). Think about the case. At this time, each of the two sets of score functions is expressed by the following equation (15).
Figure 2015008567
Note that ranking learning results in an optimization problem expressed by the above equation (14).
When considering the optimization problem of the score function, in order to facilitate the optimization problem, a pair-wise approach that considers the loss to the pair of learning data is conveniently adopted. Specifically, in the present embodiment, a ranking LSPC described below is considered, and the score function is optimized by reducing to a multi-class identification problem.
Next, ranking LSPC will be described. The ranking LSPC is based on the pair-wise approach, similar to the ranking SVM described in the second related technology, and is based on the LSPC described in the first related technology by considering the loss to the pair of learning data. The score function f k expressed by the following equation (16) is optimized by reducing to the multi-class identification problem.
Figure 2015008567
Thus, in this embodiment, regarding the identification problem, the reason for using LSPC instead of SVM often used in the conventional method is the following four points.
(1) LSPC is an identification method for learning a posterior probability model of a class under a square loss, and the number of learning times is reduced while maintaining the same pattern recognition accuracy as the conventional method (second related technology). Can be shortened by a factor of 100. On the other hand, in the ranking learning based on the pair-wise approach, the number of learning data increases dramatically. When the original learning data is n, the learning data used in the ranking learning is n 2 times. This good learning efficiency of LSPC can alleviate the problem of large-scale sample number in ranking learning.
(2) In LSPC, since the posterior probability is modeled for each class, the LSPC also has a feature of being strong against unbalance of learning data of each class. When considering the problem of classifying according to the difference of the dependent variable (objective variable), imbalance tends to occur in the number of learning data of each class. However, this feature of LSPC is advantageous to mitigate the negative impact on the accuracy of recognition of the number of data imbalances.
(3) Since the LSPC can solve a multi-class nonlinear identification problem and models the posterior probability for each class, the score function for each class can be modeled as described above. In particular, in the LSPC, when considering multi-class ranking learning, which will be described later, an “output with a high accuracy rate” is easily obtained depending on the class. This is useful when calculating the output of ranking learning and solving regression problems.
(4) In the case of the pair-wise approach, the output of ranking learning is normally only the output of the class identification result (predicted class), and does not include information on the reliability of the output. On the other hand, in the case of LSPC, since the class identification result is output with the certainty factor of each class, as will be described later, it is convenient when calculating the ranking learning outputs and solving the regression problem.
Next, the formulation of ranking LSPC will be described. In other words, the “learning phase” of ranking LSPC will be described.
Figure 2015008567
(Object variable)) and the difference (y i -y j ) of the dependent variable (object variable) are classified into C classes according to the degree of magnitude. Here, as described above, the vector x i is an explanatory variable representing the feature quantity of the face image, and y i is an objective variable (dependent variable) representing the numerical value of the degree of impression. Here, the value of y i is a value (known value) that has already been determined as an impression level subjectively (for example, by majority vote).
Specifically, consider the form of the above formula (12) for 2 classes and the above formula (13) for 4 classes.
At this time, in ranking LSPC, the score function of each class
Figure 2015008567
Each is modeled by a linear combination of positive definite kernels φ i, j as represented by the following equation (17).
Figure 2015008567
Figure 2015008567
Minimum square error J 0 to learn so as to become a minimum that.
Figure 2015008567
Figure 2015008567
It is the same as PC.
The above description is the description of the “learning phase” of ranking LSPC.
Next, a technique for solving the regression analysis problem based on the estimation result of ranking LSPC, which is the core part of the impression degree estimation method according to the embodiment of the present invention, will be described. In other words, the “recognition (estimation) phase” using ranking LSPC will be described.
First, to compare the difference of the dependent variable (objective variable) with the test data (x te , y te )
Figure 2015008567
To do. Here, the feature variable (vector) xte of the test data is a face feature vector calculated by a feature vector calculation unit (described later) from the face image. On the other hand, the objective variable y te of the test data is an unknown variable. The calculation load at the time of model learning can be adjusted by appropriately changing the size of the comparison basis data number b.
The impression level y has a lower limit value 0.0 and an upper limit value 4.0, that is, 0.0 ≦ y ≦ 4.0.
For the sake of simplicity, the case of a 2-class ranking LSPC will be described first. The class classification of the difference of the dependent variable (objective variable) shall be according to the above formula 22.
The output of ranking LSPC when a pair of test data (x te , y te ) and comparison base data (b 1 , y 1 ) is input, and the certainty of class 1 and class 2 is 0.7 and 0, respectively. 3 ′ (the probability that y te <y 1 is 0.7).
At this time, the impression score of the vector format represented by the following formula (19)
Figure 2015008567
Is assigned as shown in the following equation (20) according to the value of the impression degree y (how to obtain the value of y may be arbitrarily determined, but it is desirable to obtain the value so as to be dense with respect to the entire range of y) ).
Figure 2015008567
FIG. 1 is an image diagram of this scoring. In FIG. 1, the horizontal axis represents the impression score, and the vertical axis represents the certainty factor. Impression score is a range between 0.0 and 4.0.
Figure 2015008567
Normalization processing is performed on the vector g 1 represented by
Figure 2015008567
Next, for the other comparison basis data (b 2 , y 2 ), (b 3 , y 3 )
Figure 2015008567
Normalize to 3 .
At this time, the following equation (22)
Figure 2015008567
Y * corresponding to the maximum component of, that is, the following formula (23)
Figure 2015008567
Y * such that becomes the impression result when the test data (x te , y te ) is input.
The above description is the description of the “recognition (estimation) phase” using two classes of ranking LSPC.
Next, the case of 4-class ranking LSPC will be described. The class classification of the difference of the dependent variable (object variable) shall be according to the above equation (13).
The output of ranking LSPC when a pair of test data (x te , y te ) and comparison base data (b 1 , y 1 ) is input, the certainty of class 1 to class 4 is 0.65, 0, respectively. , 2, 0.1, 0.05 ′ (the probability that y te <y 1 −0.5 is highest (0.65)).
At this time, the impression score of the vector format represented by the following formula (24)
Figure 2015008567
Is assigned according to the value of impression degree y as in the following equation (25).
Figure 2015008567
Thereafter, as in the case of the above-described two classes of ranking LSPC, scoring is performed for each comparison base data, and an estimated value of the impression degree for the test data (x te , y te ) is obtained.
It should be noted that data belonging to a class with a large difference (classes 1 and 4) has a high recognition rate, and conversely, data belonging to a class with a small difference (classes 2 and 3) has a low recognition rate. Therefore, as in the case of ε-Support Vector Regression, an allowable error is set (here, 0.5), and this is used for class 2 and 3 range setting.
The above description is the description of the “recognition (estimation) phase” using two classes of ranking LSPC.

次に、図2を参照して、本発明の第1の実施例に係る印象度推定装置10について説明する。
図示の印象度推定装置10は、下記の5種類の人物の印象を「0,1,2,3,4」の5段階(5クラス)で評価(推定)する装置である。
1.明るくさわやか
2.かわいらしい
3.ビジネス的
4.やさしい
5.健康的
そして、例えば、「かわいらしい」の印象度を表す場合、後述する目的変数(従属変数)yの値域を0.0〜4.0(「全くかわいくない」を0.0に、「とてもかわいい」を4.0)で定め、「かわいらしい」の度合いが大きいほど、数値が大きくなる様に取る。
尚、本第1の実施例では、人物の印象として上記5種類を挙げているが、本発明はそれらに限定されず、それら5種類の印象から少なくとも1つの印象を選択しても良いし、他の印象を用いても良いのは勿論である。
そして、印象度推定装置10は、印象度(目的変数)yを大小の度合いにより、下記の5クラスに分類(5段階で評価)する。
(クラス1) 0.0≦y<0.5
(クラス2) 0.5≦y<1.5
(クラス3) 1.5≦y<2.5
(クラス4) 2.5≦y<3.5
(クラス5) 3.5≦y≦4.0
尚、本第1の実施例では、印象度を5クラスに分類(5段階で評価)しているが、本発明はこれに限定されず、2以上のクラスに分類(2以上の段階で評価)してもよいのは勿論である。
印象度推定装置10は、頭部検出部12と、顔検出部14と、回帰分析モードのニューラルネットワーク16と、ランキング最小二乗確率的識別器(ranking LSPC)18とから成る。
頭部検出部12は、人物を撮影したカラー静止画ファイルから、頭部検出プログラムによって、目・鼻・口の位置の推定を行う。顔検出部14は、目などの顔部品の位置情報をもとにして、64×64ピックセルに正規化された顔画像の抽出を行う。したがって、頭部検出部12と顔検出部14との組み合わせは、人物画像から顔画像を抽出するデータ取得手段(顔画像抽出手段)32として働く。
この技術分野において周知のように、ニューラルネットワーク16は、図3に示されるように、入力層162と、中間層164と、出力層166とから成る。
ニューラルネットワーク16の中間層164のデータ(中間層データ)が、顔特徴ベクトルとして、ランキング最小二乗確率的識別器(ranking LSPC)18に供給される。従って、ニューラルネットワーク16の入力層162と中間層164との組み合わせは、抽出した顔画像から顔特徴ベクトルを算出する特徴ベクトル算出部34として働く。
尚、本第1の実施例では、顔特徴ベクトルを算出する手段として、ニューラルネットワーク16中の特徴ベクトル算出部34を利用しているが、本発明はこれに限定されず、他の周知な種々の顔特徴ベクトル算出手段を用いても良いのは勿論である。
図示のランキング最小二乗確率的識別器18は、2クラスのランキング最小二乗確率的識別器から成る。したがって、ランキング最小二乗確率的識別器18は、上記式(23)で表されるyを、テストデータ(xte,yte)を入力した場合の印象度の推定結果として出力する。
図4は、2クラスのランキング最小二乗確率的識別器18の構成を示すブロック図である。2クラスのランキング最小二乗確率的識別器18は、2クラスのranking LSPCを用いた大小比較判定部182と、スコア化処理部184と、スコア合計処理部186とから成る。
2クラスのranking LSPCを用いた大小比較判定部182には、1個のテストデータ(xte,yte)と、複数個の比較用基底データ(x、y)とが供給される。
テストデータ(xte,yte)は、顔画像形式のテストデータを、回帰分析モードのニューラルネットワーク16に入力した際の中間層データ(顔特徴ベクトル)である。以降、これをテストデータのテスト用説明変数に用い、xteで表す。また、この段階では、未知のテスト用目的変数(例えば「かわいらしい」に関する印象度の正解値)をyteで表す。
複数個の比較用基底データ(x、y)は、顔画像形式の比較用基底データ(学習データから複数個取得したもの)を、回帰分析モードのニューラルネットワーク16に入力した際の中間層データ(顔特徴ベクトル)である。これらは、2クラスのranking LSPCのモデル学習段階で既に得られたものであり、テストデータに対する推定処理の段階で、新たに算出することはない。以降、これらを比較用基底データの比較用説明変数に用いて、それぞれ、x,x,・・・,x,・・・とする。なお、また、x,x,・・・,x,・・・に対応する比較用目的変数(例えば「かわいらしい」に関する印象度の正解値)を、それぞれ、y,y,・・・,y,・・・とする。
2クラスのranking LSPCを用いた大小比較判定部182は、2クラスのranking LSPCを用い、テストデータ(xteをテスト用説明変数に持つ)と比較用基底データ(xを比較用説明変数に持つ)との印象度の大小判定を行う(全ての比較用基底データxに対し、同じ処理を繰り返す)。
本例では、2クラスでのranking LSPCによる大小判定を行うので、2クラスのranking LSPCを用いた大小比較判定部182は、テストデータと比較用基底データとの説明変数の差分(xte−x)に対し、2データ間の目的変数の大小を推定(yte<yか、yte≧yかを推定)して、上記式(12)のように2つにクラス分けする。
そして、2クラスのranking LSPCを用いた大小比較判定部182は、上記大小判定結果を各クラスの確信度の形式で出力する。例えば、xteとxとの比較のケースにおいては、2クラスのranking LSPCを用いた大小比較判定部182は、例えば、クラス1、クラス2の確信度がそれぞれ0.7,0.3であるとして出力する(図1参照)。
スコア化処理部184は、比較用基底データ毎に出力した大小判定比較結果を用いて、それぞれスコア化処理を、上記式(19)〜式(21)に従って実施する。
スコア合計処理部186は、比較用基底データ毎に算出したスコアを全て加算し、上記数44に示されるように、算出したスコアが最大になる箇所を、印象度の推定結果として出力する。印象度の推定結果は、『テストデータxteを入力した場合の、2クラスのranking LSPCによる目的変数の推定結果(例えば、「かわいらしい」に関する印象度推定結果)』である。
電子機器で第1の実施例に係る印象度推定装置10を構成する場合、印象度推定装置10は、プログラム制御により動作するコンピュータで実現可能である。図示はしないが、この種のコンピュータは、周知のように、データを入力する入力装置と、データ処理装置と、データ処理装置での処理結果を出力する出力装置と、種々のデータベースとして働く補助記憶装置とを備えている。そして、データ処理装置は、プログラムを記憶するリードオンリメモリ(ROM)と、データを一時的に記憶するワークメモリとして使用されるランダムアクセスメモリ(RAM)と、ROMに記憶されたプログラムに従って、RAMに記憶されているデータを処理する中央処理装置(CPU)とから構成される。
この場合、入力装置は、人物画像(画像データ)を入力するための装置(図示せず)として動作する。データ処理装置は、データ取得手段32、回帰分析モードのニューラルネットワーク(連続量推定手段)16、およびランキング最小二乗確率的識別器(順序推定手段)18として動作する。そして、補助記憶装置が、複数個の比較用基底データを蓄積する蓄積手段(図示せず)として働く。
換言すれば、第1の実施例に係る印象度推定装置10の各部は、ハードウェアとソフトウェアとの組み合わせを用いて実現すればよい。ハードウェアとソフトウェアとを組み合わせた形態では、ROMに記憶された印象度推定プログラムに基づいて制御部(CPU)等のハードウェアを動作させることによって、各部を各種手段として実現する。また、該印象度推定プログラムは、記録媒体に記録されて頒布されても良い。当該記録媒体に記録された印象度推定プログラムは、有線、無線、又は記録媒体そのものを介して、メモリに読込まれ、制御部等を動作させる。尚、記録媒体を例示すれば、オプティカルディスクや磁気ディスク、半導体メモリ装置、ハードディスクなどが挙げられる。
このような構成の印象度推定装置10は、人物の両端の印象度を精度よく推定することが出来る。
Next, the impression level estimation apparatus 10 according to the first embodiment of the present invention will be described with reference to FIG.
The impression level estimation device 10 shown in the figure is a device that evaluates (estimates) the following five types of impressions of a person in five levels (5 classes) of “0, 1, 2, 3, 4”.
1. 1. Bright and refreshing 2. Cute Business 4. 4. Easy. Healthy And, for example, when expressing the impression level of “cute”, the range of the objective variable (dependent variable) y described later is 0.0 to 4.0 (“not cute at all” is set to 0.0, “very cute” ”Is defined in 4.0), and the numerical value increases as the degree of“ pretty ”increases.
In the first embodiment, the above five types are given as the impression of the person. However, the present invention is not limited to these, and at least one impression may be selected from these five types of impressions. Of course, other impressions may be used.
The impression level estimation device 10 classifies the impression level (objective variable) y into the following five classes (evaluated in five stages) according to the magnitude.
(Class 1) 0.0 ≦ y <0.5
(Class 2) 0.5 ≦ y <1.5
(Class 3) 1.5 ≦ y <2.5
(Class 4) 2.5 ≦ y <3.5
(Class 5) 3.5 ≦ y ≦ 4.0
In the first embodiment, the impression level is classified into five classes (evaluated in five stages), but the present invention is not limited to this, and is classified into two or more classes (evaluated in two or more stages). Of course, this may be done.
The impression level estimation device 10 includes a head detection unit 12, a face detection unit 14, a neural network 16 in a regression analysis mode, and a ranking least square probabilistic classifier (ranking LSPC) 18.
The head detection unit 12 estimates the positions of eyes, nose, and mouth from a color still image file obtained by photographing a person using a head detection program. The face detection unit 14 extracts a face image normalized to 64 × 64 pick cells based on position information of face parts such as eyes. Therefore, the combination of the head detection unit 12 and the face detection unit 14 serves as a data acquisition unit (face image extraction unit) 32 that extracts a face image from a person image.
As is well known in the art, the neural network 16 comprises an input layer 162, an intermediate layer 164, and an output layer 166, as shown in FIG.
The data (intermediate layer data) of the intermediate layer 164 of the neural network 16 is supplied to a ranking least square probabilistic classifier (ranking LSPC) 18 as a face feature vector. Therefore, the combination of the input layer 162 and the intermediate layer 164 of the neural network 16 serves as a feature vector calculation unit 34 that calculates a face feature vector from the extracted face image.
In the first embodiment, the feature vector calculation unit 34 in the neural network 16 is used as means for calculating the face feature vector. However, the present invention is not limited to this, and other well-known various types. Of course, the face feature vector calculating means may be used.
The ranking least square stochastic discriminator 18 shown comprises two classes of ranking least square stochastic discriminators. Therefore, the ranking least-squares stochastic discriminator 18 outputs y * expressed by the above equation (23) as an impression degree estimation result when test data (x te , y te ) is input.
FIG. 4 is a block diagram showing the configuration of the two-class ranking least squares probabilistic classifier 18. The two-class ranking least-squares probabilistic classifier 18 includes a magnitude comparison / determination unit 182 using a two-class ranking LSPC, a scoring processing unit 184, and a score sum processing unit 186.
One test data (x te , y te ) and a plurality of comparison base data (x 1 , y 1 ) are supplied to the magnitude comparison determination unit 182 using two classes of ranking LSPC.
The test data (x te , y te ) is intermediate layer data (face feature vector) when the test data in the face image format is input to the neural network 16 in the regression analysis mode. Hereinafter, this is used as an explanatory variable for test of test data and expressed as xte . Further, at this stage, an unknown test objective variable (for example, a correct value of the impression degree related to “adorable”) is represented by y te .
The plurality of comparison basis data (x 1 , y 1 ) is an intermediate layer when the comparison basis data in the face image format (a plurality obtained from the learning data) is input to the neural network 16 in the regression analysis mode. Data (face feature vector). These are already obtained at the model learning stage of the two classes of ranking LSPC, and are not newly calculated at the stage of estimation processing for test data. Hereinafter, these are used as comparison explanatory variables of the comparison base data, and are referred to as x 1 , x 2 ,..., X k ,. In addition, comparison objective variables corresponding to x 1 , x 2 ,..., X k ,... (For example, correct values of impression degree regarding “pretty”) are respectively represented by y 1 , y 2 ,. .., y k ,...
Magnitude comparison determination unit 182 using the ranking LSPC of 2 classes, using a ranking LSPC two classes, the comparative base data (x k (a x te with the test explanatory variable) test data and the comparative explanatory variables It is determined whether the impression level is “have” (the same processing is repeated for all comparison base data x k ).
In this example, since the size determination by rank LSPC in two classes is performed, the size comparison determination unit 182 using the rank LSPC of two classes has a difference (x te −x) between the test data and the comparison base data. k )), the size of the objective variable between the two data is estimated (y te <y k or y te ≧ y k is estimated), and is classified into two as shown in the above equation (12).
Then, the magnitude comparison / determination unit 182 using two classes of ranking LSPC outputs the magnitude determination result in the form of confidence of each class. For example, in the case of comparison between x te and x k, magnitude comparison determination unit 182 using the ranking LSPC of 2 classes, for example, Class 1, confidence of class 2 are respectively 0.7,0.3 It outputs as there is (refer FIG. 1).
The scoring processing unit 184 performs scoring processing according to the above equations (19) to (21) using the magnitude determination comparison results output for each comparison base data.
The score total processing unit 186 adds all the scores calculated for each comparison base data, and outputs the portion where the calculated score is the maximum as the estimation result of the impression degree as shown in the above formula 44. The impression degree estimation result is “estimation result of objective variable (for example, impression degree estimation result regarding“ adorable ”) by two classes of ranking LSPC when test data x te is input”.
When the impression degree estimation apparatus 10 according to the first embodiment is configured by an electronic device, the impression degree estimation apparatus 10 can be realized by a computer that operates by program control. Although not shown, this type of computer, as is well known, includes an input device for inputting data, a data processing device, an output device for outputting processing results in the data processing device, and an auxiliary memory serving as various databases. Device. Then, the data processing device stores the program in a read-only memory (ROM), a random access memory (RAM) used as a work memory for temporarily storing data, and a program stored in the ROM. It consists of a central processing unit (CPU) that processes stored data.
In this case, the input device operates as a device (not shown) for inputting a person image (image data). The data processing apparatus operates as a data acquisition unit 32, a neural network (continuous quantity estimation unit) 16 in regression analysis mode, and a ranking least square probabilistic classifier (order estimation unit) 18. The auxiliary storage device functions as storage means (not shown) for storing a plurality of comparison base data.
In other words, each unit of the impression level estimation device 10 according to the first embodiment may be realized using a combination of hardware and software. In a form in which hardware and software are combined, each unit is realized as various means by operating hardware such as a control unit (CPU) based on an impression degree estimation program stored in the ROM. The impression degree estimation program may be recorded on a recording medium and distributed. The impression degree estimation program recorded on the recording medium is read into the memory via the wired, wireless, or recording medium itself, and operates the control unit and the like. Examples of the recording medium include an optical disk, a magnetic disk, a semiconductor memory device, and a hard disk.
The impression level estimation device 10 having such a configuration can accurately estimate the impression levels of both ends of a person.

次に、図5を参照して、本発明の第2の実施例に係る印象度推定装置10Aについて説明する。
図示の印象度推定装置10Aは、ランキング最小二乗確率的識別器の構成が相違している点を除いて、図2に示した印象度推定装置10と同様の構成を有し、動作をする。したがって、ランキング最小二乗確率的識別器に18Aの参照符号を付してある。図2に示したものと同様の構成要素には同一の参照符号を付し、説明の簡略化のために、それらの説明について省略する。
図示のランキング最小二乗確率的識別器18Aは、4クラスのランキング最小二乗確率的識別器から成る。
図6は、4クラスのランキング最小二乗確率的識別器18Aの構成を示すブロック図である。4クラスのランキング最小二乗確率的識別器18Aは、4クラスのranking LSPCを用いた大小比較判定部182Aと、スコア化処理部184Aと、スコア合計処理部186とから成る。
すなわち、4クラスのランキング最小二乗確率的識別器18Aは、図4に示した2クラスのランキング最小二乗確率的識別器18とは、ranking LSPCを用いた大小比較判定部とスコア化処理部との構成および動作が異なっている。以下では、説明の簡略化のために、相違点についてのみ説明する。
4クラスのranking LSPCを用いた大小比較判定部182Aは、4クラスのranking LSPCを用い、テストデータ(xteをテスト用説明変数に持つ)と比較用基底データ(xを比較用説明変数に持つ)との印象度の大小判定を行う(全ての比較用基底データxに対し、同じ処理を繰り返す)。
本例では、4クラスでのranking LSPCによる大小判定を行うので、4クラスのranking LSPCを用いた大小比較判定部182Aは、テストデータと比較用基底データとの説明変数の差分(xte−x)に対し、2データ間の目的変数の大小を推定(yte<yか、yte≧yかを推定)して、上記式(13)のように4つにクラス分けする。
そして、4クラスのranking LSPCを用いた大小比較判定部182Aは、上記大小判定結果を各クラスの確信度の形式で出力する。例えば、xteとxの比較のケースにおいては、4クラスのranking LSPCを用いた大小比較判定部182Aは、例えば、クラス1〜クラス4の確信度がそれぞれ0.65,0.2,0.1,0.05であるとして出力する。
スコア化処理部184Aは、比較用基底データ毎に出力した大小判定比較結果を用いて、それぞれスコア化処理を、上記式(24)、式(25)、および式(21)に従って実施する。
そして、スコア合計処理部186は、比較用基底データ毎に算出したスコアを全て加算し、上記式(23)に示されるように、算出したスコアが最大になる箇所を、印象度の推定結果として出力する。印象度の推定結果は、『テストデータxteを入力した場合の、ranking LSPCによる目的変数の推定結果(例えば、「かわいらしい」に関する印象度推定結果)』である。
電子機器で第2の実施例に係る印象度推定装置10Aを構成する場合、印象度推定装置10Aは、プログラム制御により動作するコンピュータで実現可能である。図示はしないが、この種のコンピュータは、周知のように、データを入力する入力装置と、データ処理装置と、データ処理装置での処理結果を出力する出力装置と、種々のデータベースとして働く補助記憶装置とを備えている。そして、データ処理装置は、プログラムを記憶するリードオンリメモリ(ROM)と、データを一時的に記憶するワークメモリとして使用されるランダムアクセスメモリ(RAM)と、ROMに記憶されたプログラムに従って、RAMに記憶されているデータを処理する中央処理装置(CPU)とから構成される。
この場合、入力装置は、人物画像(画像データ)を入力するための装置(図示せず)として動作する。データ処理装置は、データ取得手段32、回帰分析モードのニューラルネットワーク(連続量推定手段)16、およびランキング最小二乗確率的識別器(順序推定手段)18Aとして動作する。そして、補助記憶装置が、複数個の比較用基底データを蓄積する蓄積手段(図示せず)として働く。
換言すれば、第2の実施例に係る印象度推定装置10Aの各部は、ハードウェアとソフトウェアとの組み合わせを用いて実現すればよい。ハードウェアとソフトウェアとを組み合わせた形態では、ROMに記憶された印象度推定プログラムに基づいて制御部(CPU)等のハードウェアを動作させることによって、各部を各種手段として実現する。また、該印象度推定プログラムは、記録媒体に記録されて頒布されても良い。当該記録媒体に記録された印象度推定プログラムは、有線、無線、又は記録媒体そのものを介して、メモリに読込まれ、制御部等を動作させる。尚、記録媒体を例示すれば、オプティカルディスクや磁気ディスク、半導体メモリ装置、ハードディスクなどが挙げられる。
このような構成の印象度推定装置10Aは、人物の両端の印象度を精度よく推定することが出来る。
尚、本第2の実施例でも、顔特徴ベクトルを算出する手段として、ニューラルネットワーク16中の特徴ベクトル算出部34を利用しているが、それに限定されず、他の周知な種々の顔特徴ベクトル算出手段を用いても良い。
Next, with reference to FIG. 5, an impression level estimation apparatus 10A according to a second embodiment of the present invention will be described.
The illustrated impression level estimation apparatus 10A has the same configuration as the impression level estimation apparatus 10 shown in FIG. 2 and operates except that the configuration of the ranking least squares stochastic discriminator is different. Therefore, the reference sign of 18A is attached to the ranking least squares stochastic discriminator. Constituent elements similar to those shown in FIG. 2 are denoted by the same reference numerals, and description thereof is omitted for the sake of simplicity.
The ranking least square stochastic discriminator 18A shown in the figure is composed of four classes of ranking least square stochastic discriminators.
FIG. 6 is a block diagram showing a configuration of a 4-class ranking least squares probabilistic classifier 18A. The 4-class ranking least-squares probabilistic classifier 18A includes a magnitude comparison / determination unit 182A using a 4-class ranking LSPC, a scoring processing unit 184A, and a score sum processing unit 186.
That is, the 4-class ranking least-squares stochastic discriminator 18A is different from the 2-class ranking least-squares stochastic discriminator 18 in FIG. 4 between the magnitude comparison determination unit and the scoring processing unit using ranking LSPC. Configuration and operation are different. Hereinafter, only the differences will be described for the sake of simplicity.
4 magnitude comparison determination unit 182A using the ranking LSPC classes 4 using class ranking LSPC, the comparative base data (x k (a x te with the test explanatory variable) test data and the comparative explanatory variables It is determined whether the impression level is “have” (the same processing is repeated for all comparison base data x k ).
In this example, since the size determination is performed by ranking LSPC in 4 classes, the size comparison determination unit 182A using the ranking LSPC of 4 classes determines the difference (x te −x) between the test data and the comparison base data. k ), the size of the objective variable between the two data is estimated (y te <y k or y te ≧ y k is estimated), and is classified into four as shown in the above equation (13).
Then, the magnitude comparison / determination unit 182A using the four classes of ranking LSPC outputs the magnitude determination result in the form of the certainty factor of each class. For example, in the comparative case of x te and x k, magnitude comparison determination unit 182A using the ranking LSPC of 4 classes, for example, confidence of class 1 to class 4, respectively 0.65,0.2,0 ., Output as 0.05.
The scoring processing unit 184A performs scoring processing according to the above formulas (24), (25), and (21) using the magnitude determination comparison results output for each comparison base data.
Then, the score total processing unit 186 adds all the scores calculated for each comparison base data, and, as shown in the above equation (23), the location where the calculated score is the maximum is obtained as the impression degree estimation result. Output. The impression degree estimation result is “an estimation result of an objective variable by ranking LSPC when test data x te is input (for example, impression degree estimation result regarding“ adorable ”)”.
When the impression degree estimation apparatus 10A according to the second embodiment is configured by an electronic device, the impression degree estimation apparatus 10A can be realized by a computer that operates under program control. Although not shown, this type of computer, as is well known, includes an input device for inputting data, a data processing device, an output device for outputting processing results in the data processing device, and an auxiliary memory serving as various databases. Device. Then, the data processing device stores the program in a read-only memory (ROM), a random access memory (RAM) used as a work memory for temporarily storing data, and a program stored in the ROM. It consists of a central processing unit (CPU) that processes stored data.
In this case, the input device operates as a device (not shown) for inputting a person image (image data). The data processing apparatus operates as a data acquisition unit 32, a neural network (continuous amount estimation unit) 16 in regression analysis mode, and a ranking least squares probabilistic discriminator (order estimation unit) 18A. The auxiliary storage device functions as storage means (not shown) for storing a plurality of comparison base data.
In other words, each unit of the impression level estimation device 10A according to the second embodiment may be realized using a combination of hardware and software. In a form in which hardware and software are combined, each unit is realized as various means by operating hardware such as a control unit (CPU) based on an impression degree estimation program stored in the ROM. The impression degree estimation program may be recorded on a recording medium and distributed. The impression degree estimation program recorded on the recording medium is read into the memory via the wired, wireless, or recording medium itself, and operates the control unit and the like. Examples of the recording medium include an optical disk, a magnetic disk, a semiconductor memory device, and a hard disk.
The impression level estimation device 10A having such a configuration can accurately estimate the impression levels of both ends of a person.
In the second embodiment as well, the feature vector calculation unit 34 in the neural network 16 is used as means for calculating the face feature vector. However, the present invention is not limited to this, and various other known face feature vectors. Calculation means may be used.

次に、図7を参照して、本発明の第3の実施例に係る印象度推定装置10Bについて説明する。
図示の印象度推定装置10Bは、最小二乗確率的識別器(LSPC)20および識別器出力の重み付き統合部22がさらに付加されている点を除いて、図5に示した印象度推定装置10Aと同様の構成を有し、動作をする。したがって、図5に示したものと同様の構成要素には同一の参照符号を付し、説明の簡略化のために、それらの説明について省略する。
上述したように、多クラスのranking LSPCを導入することにより、人物の両端の印象度の精度は改善するが、人物の真ん中付近の印象度の精度は芳しくない。
そこで、本第3の実施例に係る印象度推定装置10Bでは、多クラスのranking LSPCによる識別器に加えて、従来技術の手法である回帰分析(regression)とクラス識別(classification)の識別器とを統合することにより、印象度の推定結果の安定化を図っている。
最初に、回帰分析モードのニューラルネットワーク16について説明する。回帰分析モードのニューラルネットワーク16は、人物の印象度を連続量として推定する回帰問題として解く、回帰モードのニューラルネットワークである。複数種類の印象度推定問題を扱う場合は、マルチタスクで学習する場合もある。
引き続いて、ニューラルネットワーク16の出力のスコア化について説明する。

Figure 2015008567
する。ここでは、推定誤差の標準偏差を0.5とした。各印象度z(0.0≦z≦4.0)(0.25間隔)に対し、一度、下記の式(26)
Figure 2015008567
によりスコアを割り当てたのち、スコアを下記の式(27)で正規化する。
Figure 2015008567
そして、ベクトルf={f(z)}0.0≦z≦4.0をニューラルネットワーク(回帰モード)16の出力スコア(第1の印象度スコア)とする。
上述したように、回帰分析モードのニューラルネットワーク16は、人物の印象度を連続量として推定する回帰問題として解くので、連続量推定手段とも呼ばれる。
次に、最小二乗確率的識別器(LSPC)20について説明する。最小二乗確率的識別器(LSPC)20は、ニューラルネットワーク16の中間層164の出力を顔特徴ベクトルとして、印象度推定問題を識別問題として解く。この場合、人物の印象度の値域を、例えば(0.0〜/0.5〜/1.5〜/2.5〜/3.5〜)の様に、数クラスに区分し、これらのクラスを識別する様にする。印象度の大小に従って区分を行っているため、これは、ポイントワイズ・アプローチに基づくランキング学習の1種と解釈することも出来る。
引き続いて、最小二乗確率的識別器(LSPC)20の出力のスコア化について説明する。
最小二乗確率的識別器(LSPC)20は、各クラスの確信度を確率形式で出力する。ここでは、前述したニューラルネットワーク(回帰モード)16の出力に対する第1の印象度スコア(ベクトル)fの形式に合わせる様に、スコア化を行う。
例えば、印象度を0.0〜/0.5〜/1.5〜/2.5〜/3.5〜4.0の5クラスで識別を行う時、最小二乗確率的識別器(LSPC)20の出力した確信度が順にp,p,・・・,pであったする。この時、各印象度zに対し、一旦、次の(式28)
Figure 2015008567
(iは、印象度zの属するクラスに対応)によりスコアを割り当てたのち、スコアを下記の式(29)で正規化する。
Figure 2015008567
そして、ベクトルf={f(z)}0.0≦z≦4.0を最小二乗確率的識別器(LSPC)20の出力スコア(第2の印象度スコア)とする。
最小二乗確率的識別器(LSPC)20では、人物の印象度を離散量として推定するので、離散量推定手段とも呼ばれる。
4クラスのランキング最小二乗確率的識別器18Aでは、上記数43で表されるベクトルfをその出力スコア(第3の印象度スコア)とする。このスコアの形式は、上記ベクトルf,fに合わせるものとする。
ランキング最小二乗確率的識別器18Aは、人物の印象度を、上述したように、テストデータと複数の比較用基底データとを順序的に比較することにより推定するので、順序推定手段とも呼ばれる。
次に、識別器出力の重み付き統合部22について説明する。
識別器出力の重み付き統合部22は、重みw、w、wを用いて、各印象度y(0.0≦y≦4.0,0.25間隔)における各識別器16,20,18Aの出力スコア(第1乃至第3の印象度スコア)を、下記の式(30)で表せるように、重み付きで加算する。
Figure 2015008567
Figure 2015008567
そして、識別器出力の重み付き統合部22は、下記の式(31)で表されるy
Figure 2015008567
となる様なyを、印象度の推定結果として出力する。
識別器出力の重み付き統合部22は、統合手段と呼ばれる。
また、回帰分析モードのニューラルネットワーク16、最小二乗確率的識別器(LSPC)20、ランキング最小二乗確率的識別器18A、および識別器出力の重み付き統合部22の組み合わせは、統合識別器(16,20,18A,22)と呼ばれる。
次に、重みの探索方法について説明する。
検証データ(モデル学習に用いていないデータ)を用いて、最適な重みw、w、wを虱潰しに探索する。具体的には、数値幅を、0≦w≦1、探索間隔を0.05に設定し、検証用データで、統合識別器(16,20,18A,22)の評価を実施する。検証用データで評価した時のスコア(各カテゴリの認識率の平均値)が最も高くなる様な重み(w、w、w)を採択する。
電子機器で第3の実施例に係る印象度推定装置10Bを構成する場合、印象度推定装置10Bは、プログラム制御により動作するコンピュータで実現可能である。図示はしないが、この種のコンピュータは、周知のように、データを入力する入力装置と、データ処理装置と、データ処理装置での処理結果を出力する出力装置と、種々のデータベースとして働く補助記憶装置とを備えている。そして、データ処理装置は、プログラムを記憶するリードオンリメモリ(ROM)と、データを一時的に記憶するワークメモリとして使用されるランダムアクセスメモリ(RAM)と、ROMに記憶されたプログラムに従って、RAMに記憶されているデータを処理する中央処理装置(CPU)とから構成される。
この場合、入力装置は、人物画像(画像データ)を入力するための装置(図示せず)として動作する。データ処理装置は、データ取得手段32、回帰分析モードのニューラルネットワーク(連続量推定手段)16、最小二乗確率的識別器(連続量推定手段)20、ランキング最小二乗確率的識別器(順序推定手段)18A、および識別器出力の重み付き統合部(統合手段)22として動作する。そして、補助記憶装置が、複数個の比較用基底データを蓄積する蓄積手段(図示せず)として働く。
換言すれば、第3の実施例に係る印象度推定装置10Bの各部は、ハードウェアとソフトウェアとの組み合わせを用いて実現すればよい。ハードウェアとソフトウェアとを組み合わせた形態では、ROMに記憶された印象度推定プログラムに基づいて制御部(CPU)等のハードウェアを動作させることによって、各部を各種手段として実現する。また、該印象度推定プログラムは、記録媒体に記録されて頒布されても良い。当該記録媒体に記録された印象度推定プログラムは、有線、無線、又は記録媒体そのものを介して、メモリに読込まれ、制御部等を動作させる。尚、記録媒体を例示すれば、オプティカルディスクや磁気ディスク、半導体メモリ装置、ハードディスクなどが挙げられる。
次に、人の顔画像を用いて、‘かわいらしい’印象度を推定した場合の実験結果(すなわち、第3の実施例による印象度推定装置10Bの効果)について説明する。
以下では、回帰分析モードのニューラルネットワーク(連続量推定手段)16を使用した手法を「手法1」と呼び、最小二乗確率的識別器(LSPC)(離散量推定手段)20を使用した手法を「手法2」と呼び、2クラスのランキング最小二乗確率的識別器(順序推定手段)18を使用した手法を「手法3’」と呼び、4クラスのランキング最小二乗確率的識別器(順序推定手段)18Aを使用した手法を「手法3」と呼ぶことにする。
また、本例では、統合識別器(16,20,18A,22)における、(手法1:手法2:手法3)の統合比を、0.35:0.15:0.50とした。
印象度区分が(0.0〜/0.5〜/1.5〜/2.5〜/3.5〜4.0)の5クラス識別問題として解いたとする。図8はその識別問題として解いた場合の各クラスの認識率を示し、図9は回帰問題として解いた場合のMAE(絶対誤差平均)を示す。認識率は、100%であれば誤りなく認識されたことを示す。また、MAE(絶対誤差平均)は、その小さいほど誤差が小さいことを示す。
図8および図9から、手法3において、人物の両端の印象度の推定精度が従来手法(手法1、手法2)より改善していることが分かる。また、(手法3)の4クラスのranking LSPCの方が、(手法3’)の2クラスのranking LSPCより、やや良いことが見て取れる。
このように、本第3の実施例に係る印象度推定装置10Bでは、複数の識別器16、20、18Aの出力を重み付きで統合しているので、各識別器の弱点を相補することが出来、単体の識別器では成し得なかった安定した識別精度を実現することが出来る。
尚、本第3の実施例では、順序推定手段として、4クラスのランキング最小二乗確率的識別器18Aを使用しているが、その代わりに2クラスのランキング最小二乗確率的識別器18を使用してもよい。
以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
例えば、上記第3の実施例では、3つの識別器(連続量推定手段;離散量推定手段;順序推定手段)を統合した場合の例を示しているが、本発明は2つの識別器を統合するようにしても良い。具体的には、本発明の印象度推定装置は、連続量推定手段16と順序推定手段18A(又は18)とを統合しても良いし、離散量推定手段20と順序推定手段18A(又は18)とを統合しても良い。また、上記実施例では、ランキング最小二乗確率的識別器として、2クラスのランキング最小二乗確率的識別器18と2クラスのランキング最小二乗確率的識別器18Aとの例のみを挙げて説明しているが、一般的に、複数クラス(2クラス以上)のランキング最小二乗確率的識別器を使用してよい。Next, an impression level estimation device 10B according to a third example of the present invention will be described with reference to FIG.
The impression level estimation device 10B shown in the figure is the impression level estimation device 10A shown in FIG. 5 except that a least square probabilistic classifier (LSPC) 20 and a weighted integration unit 22 for classifier output are further added. It operates in the same way as the above. Therefore, the same components as those shown in FIG. 5 are denoted by the same reference numerals, and the description thereof is omitted for the sake of simplicity.
As described above, by introducing a multi-class ranking LSPC, the accuracy of the impression level at both ends of the person is improved, but the accuracy of the impression level near the middle of the person is not good.
Therefore, in the impression level estimation apparatus 10B according to the third embodiment, in addition to the classifier by multi-class ranking LSPC, a classifier for regression analysis and class identification, which is a conventional technique, and Is used to stabilize the impression level estimation result.
First, the neural network 16 in the regression analysis mode will be described. The neural network 16 in the regression analysis mode is a neural network in the regression mode that is solved as a regression problem that estimates the impression level of a person as a continuous quantity. When dealing with multiple types of impression estimation problems, there are cases where multitask learning is performed.
Subsequently, scoring of the output of the neural network 16 will be described.
Figure 2015008567
To do. Here, the standard deviation of the estimation error is 0.5. For each impression degree z (0.0 ≦ z ≦ 4.0) (0.25 interval), the following equation (26)
Figure 2015008567
After assigning the score, the score is normalized by the following equation (27).
Figure 2015008567
The vector f 1 = {f 1 (z)} 0.0 ≦ z ≦ 4.0 is set as an output score (first impression score) of the neural network (regression mode) 16.
As described above, the neural network 16 in the regression analysis mode solves as a regression problem that estimates the impression level of a person as a continuous quantity, and is also called continuous quantity estimation means.
Next, the least square probabilistic classifier (LSPC) 20 will be described. The least square probabilistic classifier (LSPC) 20 solves the impression estimation problem as a discrimination problem using the output of the intermediate layer 164 of the neural network 16 as a face feature vector. In this case, the range of the impression level of a person is divided into several classes, for example (0.0 to /0.5 to /1.5 to /2.5 to /3.5 to), Try to identify the class. Since classification is performed according to the degree of impression, this can be interpreted as a kind of ranking learning based on a point-wise approach.
Subsequently, scoring of the output of the least square probabilistic classifier (LSPC) 20 will be described.
The least square probabilistic classifier (LSPC) 20 outputs the confidence of each class in a probability format. Here, scoring is performed so as to match the format of the first impression degree score (vector) f 1 with respect to the output of the neural network (regression mode) 16 described above.
For example, when classifying impressions with five classes of 0.0 to /0.5 to /1.5 to /2.5 to /3.5 to 4.0, the least square probabilistic classifier (LSPC) Assume that the certainty levels output by 20 are p 1 , p 2 ,..., P 5 in order. At this time, for each impression degree z, the following (Formula 28)
Figure 2015008567
After assigning a score according to (i corresponds to the class to which the impression degree z belongs), the score is normalized by the following equation (29).
Figure 2015008567
The vector f 2 = {f 2 (z)} 0.0 ≦ z ≦ 4.0 is set as the output score (second impression score) of the least square probabilistic classifier (LSPC) 20.
Since the least square probabilistic classifier (LSPC) 20 estimates the impression level of a person as a discrete quantity, it is also called a discrete quantity estimation means.
4 Class The Index least square stochastic classifier 18A of the vector f 3 represented by the number 43 and its output score (third impression score). The score format is adjusted to the vectors f 1 and f 2 .
The ranking least square probabilistic classifier 18A estimates the person's impression level by comparing the test data with a plurality of comparison base data in order as described above, and is also called order estimation means.
Next, the weighted integration unit 22 for discriminator output will be described.
The weighted integration unit 22 of the discriminator output uses the weights w 1 , w 2 , and w 3, and the discriminators 16, The output scores (first to third impression scores) of 20 and 18A are added with weights so that they can be expressed by the following equation (30).
Figure 2015008567
Figure 2015008567
Then, the weighted integration unit 22 of the discriminator output is y * represented by the following equation (31) .
Figure 2015008567
The such y * a, to output as the estimated result of the impression.
The weighted integration unit 22 for discriminator output is called integration means.
The combination of the neural network 16 in the regression analysis mode, the least square probabilistic classifier (LSPC) 20, the ranking least squares probabilistic classifier 18A, and the weighted integration unit 22 of the classifier output is an integrated classifier (16, 20, 18A, 22).
Next, a weight search method will be described.
Using the verification data (data not used for model learning), the optimal weights w 1 , w 2 , and w 3 are searched in a collapsed manner. Specifically, the numerical value width is set to 0 ≦ w i ≦ 1 and the search interval is set to 0.05, and the integrated discriminator (16, 20, 18A, 22) is evaluated with the verification data. The weights (w 1 , w 2 , w 3 ) are selected so that the score (average value of the recognition rate of each category) when evaluated with the verification data is the highest.
When the impression degree estimation apparatus 10B according to the third embodiment is configured by an electronic device, the impression degree estimation apparatus 10B can be realized by a computer that operates by program control. Although not shown, this type of computer, as is well known, includes an input device for inputting data, a data processing device, an output device for outputting processing results in the data processing device, and an auxiliary memory serving as various databases. Device. Then, the data processing device stores the program in a read-only memory (ROM), a random access memory (RAM) used as a work memory for temporarily storing data, and a program stored in the ROM. It consists of a central processing unit (CPU) that processes stored data.
In this case, the input device operates as a device (not shown) for inputting a person image (image data). The data processing apparatus includes a data acquisition means 32, a regression analysis mode neural network (continuous quantity estimation means) 16, a least squares stochastic discriminator (continuous quantity estimation means) 20, a ranking least squares stochastic discriminator (order estimation means). 18A and a weighted integration unit (integration means) 22 of the discriminator output. The auxiliary storage device functions as storage means (not shown) for storing a plurality of comparison base data.
In other words, each unit of the impression level estimation device 10B according to the third embodiment may be realized using a combination of hardware and software. In a form in which hardware and software are combined, each unit is realized as various means by operating hardware such as a control unit (CPU) based on an impression degree estimation program stored in the ROM. The impression degree estimation program may be recorded on a recording medium and distributed. The impression degree estimation program recorded on the recording medium is read into the memory via the wired, wireless, or recording medium itself, and operates the control unit and the like. Examples of the recording medium include an optical disk, a magnetic disk, a semiconductor memory device, and a hard disk.
Next, an experimental result (that is, the effect of the impression level estimation device 10B according to the third example) when a “pretty” impression level is estimated using a human face image will be described.
Hereinafter, a technique using the neural network (continuous quantity estimating means) 16 in the regression analysis mode is referred to as “method 1”, and a technique using the least square probabilistic classifier (LSPC) (discrete quantity estimating means) 20 is referred to as “method 1”. Called “Method 2”, a method using a two-class ranking least-squares stochastic discriminator (order estimation means) 18 is called “Method 3 ′”, and a four-class ranking least-squares probability classifier (order estimation means). The method using 18A will be referred to as “method 3”.
In this example, the integration ratio of (Method 1: Method 2: Method 3) in the integrated classifier (16, 20, 18A, 22) is set to 0.35: 0.15: 0.50.
It is assumed that the impression class is solved as a 5-class identification problem with (0.0 to /0.5 to /1.5 to /2.5 to /3.5 to 4.0). FIG. 8 shows the recognition rate of each class when solved as the identification problem, and FIG. 9 shows MAE (absolute error average) when solved as a regression problem. If the recognition rate is 100%, it indicates that the recognition has been made without error. Further, MAE (absolute error average) indicates that the smaller the error, the smaller the error.
From FIG. 8 and FIG. 9, it can be seen that, in Method 3, the accuracy of estimation of the impression degree at both ends of the person is improved from the conventional methods (Method 1 and Method 2). Also, it can be seen that the 4-class ranking LSPC of (Method 3) is slightly better than the 2-class ranking LSPC of (Method 3 ′).
Thus, in the impression level estimation device 10B according to the third embodiment, the outputs of the plurality of discriminators 16, 20, and 18A are integrated with weights, so that the weak points of each discriminator can be complemented. It is possible to achieve stable discrimination accuracy that cannot be achieved by a single discriminator.
In the third embodiment, the four-class ranking least-squares probabilistic classifier 18A is used as the order estimation means. Instead, a two-class ranking least-squares probability classifier 18 is used. May be.
Although the present invention has been described with reference to the embodiments, the present invention is not limited to the above embodiments. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.
For example, in the third embodiment, an example in which three discriminators (continuous quantity estimation means; discrete quantity estimation means; order estimation means) are integrated is shown, but the present invention integrates two discriminators. You may make it do. Specifically, the impression degree estimation apparatus of the present invention may integrate the continuous quantity estimation means 16 and the order estimation means 18A (or 18), or the discrete quantity estimation means 20 and the order estimation means 18A (or 18). ) May be integrated. Further, in the above-described embodiment, only examples of the two-class ranking least-squares probability classifier 18 and the two-class ranking least-squares probability classifier 18A are described as ranking least-squares probability classifiers. However, in general, multiple classes (two or more classes) of least-squares stochastic discriminators may be used.

本発明は、顔の印象を変化させる化粧品、メガネ等の販売支援への活用が考えらえる。例えば、化粧品のweb販売の場合、消費者は自宅で、スマートフォン・タブレット等のスマートデバイスにより、手元でメイク時の印象変化を確認することが出来る。この際、シミュレーションに利用したメイクアイテムを推薦して購入を促すことが出来る。また、自宅での利用の他に、ドラッグストア店頭やメイクが出来るカフェ等での利用も考えられる。人の第一印象は社会的交流・活動の中で関心を持たれることが多いので、本発明は、今後様々な活用シーンが広がっていくことが期待される。   The present invention can be used for sales support of cosmetics, glasses, etc. that change the impression of the face. For example, in the case of web sales of cosmetics, the consumer can check the impression change at the time of makeup at home with a smart device such as a smartphone / tablet. At this time, it is possible to encourage purchase by recommending makeup items used in the simulation. In addition to use at home, it can also be used at drugstore stores and cafes where you can make up. Since the first impression of a person is often interested in social exchanges and activities, the present invention is expected to expand in various usage scenes in the future.

10、10A、10B 印象度推定装置
12 頭部検出部
14 顔検出部
16 回帰分析モードのニューラルネットワーク(連続量推定手段)
162 入力層
164 中間層
166 出力層
18、18A ランキング最小二乗確率的識別器(順序推定手段)
182、182A 大小比較判定部
184、184A スコア化処理部
186 スコア合計処理部
20 最小二乗確率的識別器(離散量推定手段)
22 識別器出力の重み付き統合部(統合手段)
34 特徴ベクトル算出部
この出願は、2013年7月18日に出願された、日本特許出願第2013−149123号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
DESCRIPTION OF SYMBOLS 10, 10A, 10B Impression degree estimation apparatus 12 Head detection part 14 Face detection part 16 Neural network of regression analysis mode (continuous quantity estimation means)
162 Input layer 164 Intermediate layer 166 Output layer 18, 18A Ranking least square probabilistic classifier (order estimation means)
182, 182A Size comparison determination unit 184, 184A Scoring processing unit 186 Score total processing unit 20 Least squares probabilistic discriminator (discrete quantity estimation means)
22 Weighted integration unit (integration means) for discriminator output
34 Feature Vector Calculation Unit This application claims priority based on Japanese Patent Application No. 2013-149123 filed on July 18, 2013, the entire disclosure of which is incorporated herein.

Claims (24)

画像データに写された人物の印象度を、印象度推定装置を用いて推定する印象度推定方法であって、
前記画像データから顔画像を抽出する抽出工程と、
前記顔画像から顔特徴ベクトルを算出する算出工程と、
二標本間の印象度の大小関係を複数クラスのランキング最小二乗確率的識別器によりモデル化し、前記顔画像ベクトルを説明変数とするテストデータと学習データから既に得られた複数個の比較用基底データとを前記複数クラスのランキング最小二乗確率的識別器によって順次比較することよって得られる各クラスの確信度を元にスコアリングして、前記人物の印象度を推定する推定工程と、
を含む印象度推定方法。
An impression level estimation method for estimating an impression level of a person photographed in image data using an impression level estimation device,
An extraction step of extracting a face image from the image data;
A calculation step of calculating a face feature vector from the face image;
A plurality of comparative base data already obtained from test data and learning data using the face image vector as an explanatory variable, modeled by a class least-squares stochastic discriminator of the degree of impression between two samples. And estimating the impression level of the person by scoring based on the certainty of each class obtained by sequentially comparing the plurality of classes by the least squares stochastic discriminator,
Impression degree estimation method including
前記複数個の比較用基底データの各々は、顔画像の特徴量である比較用説明変数と該比較用説明変数に対応する印象度の大小を数値化した既知の比較用目的変数とから成る学習データであり、
前記テストデータは、前記顔特徴ベクトルのテスト用説明変数と該テスト用説明変数に対応する未知のテスト用目的変数とから成り、
前記推定工程は、
前記テストデータと前記複数個の比較用基底データとを前記複数クラスのランキング最小二乗確率的識別器を用いて順次に比較して、前記テストデータのテスト用説明変数と各比較用基底データの比較用説明変数の差分に対して、前記テストデータのテスト用目的変数と各比較用基底データの比較用目的変数の差を、大小の度合いに応じて複数のクラスにクラス分けして、前記各クラスの確信度を得る工程と、
該各クラスの確信度を前記比較用基底データ毎にスコア処理してスコアを得る工程と、
前記比較用基底データ毎に算出したスコアを全て加算して、算出した合計スコアが最大となる箇所を、前記人物の印象度と推定する工程と、
を有する、請求項1に記載の印象度推定方法。
Each of the plurality of comparison base data includes a learning explanatory variable that is a feature amount of a face image and a known comparative variable that is a numerical value of the degree of impression corresponding to the comparison explanatory variable. Data,
The test data consists of test explanatory variables for the face feature vector and unknown test objective variables corresponding to the test explanatory variables,
The estimation step includes
The test data and the plurality of comparison base data are sequentially compared using the plurality of classes of least-squares stochastic discriminators, and the test explanatory variable of the test data is compared with each comparison base data. Classifying the difference between the test objective variable of the test data and the comparison objective variable of each comparison base data into a plurality of classes according to the degree of magnitude. Obtaining a certainty of
Scoring the certainty of each class for each comparison base data to obtain a score;
Adding all the scores calculated for each comparison base data, and estimating the position where the calculated total score is the maximum as the person's impression degree;
The impression degree estimation method according to claim 1, wherein:
前記複数個の比較用基底データは、前記複数クラスのランキング最小二乗確率的識別器のモデル学習段階で既に得られたものである、請求項2に記載の印象度推定方法。   The impression degree estimation method according to claim 2, wherein the plurality of comparison base data are already obtained in a model learning stage of the plurality of classes of least squares stochastic discriminators. 前記複数クラスのランキング最小二乗確率的識別器は、2クラスのランキング最小二乗確率的識別器から成る、請求項1乃至3のいずれか1項に記載の印象度推定方法。   The impression degree estimation method according to any one of claims 1 to 3, wherein the plurality of classes of least-squares stochastic classifiers comprises two classes of least-squares stochastic classifiers. 前記複数クラスのランキング最小二乗確率的識別器は、3クラス以上のランキング最小二乗確率的識別器から成る、請求項1乃至3のいずれか1項に記載の印象度推定方法。   The impression degree estimation method according to any one of claims 1 to 3, wherein the plurality of classes of least-squares stochastic discriminators comprises three or more classes of least-square stochastic discriminators. 前記人物の印象度は、「明るくさわやか」、「かわいらしい」、「ビジネス的」、「やさしい」、および「健康的」を含む印象から選択された少なくとも1つの印象の度合いを表す、請求項1乃至5のいずれか1項に記載の印象度推定方法。   The impression level of the person represents at least one impression level selected from impressions including “bright and refreshing”, “adorable”, “business”, “friendly”, and “healthy”. 6. The impression degree estimation method according to any one of 5 above. 前記推定工程は、前記人物の印象度として、前記少なくとも1つの印象を複数段階で評価する、請求項6に記載の印象度推定方法。   The impression level estimation method according to claim 6, wherein the estimation step evaluates the at least one impression in a plurality of stages as the impression level of the person. 画像データに写された人物の印象度を推定する印象度推定装置であって、
前記画像データから顔画像を抽出するデータ取得手段と、
前記顔画像から顔特徴ベクトルを算出する特徴ベクトル算出手段と、
二標本間の印象度の大小関係を複数クラスのランキング最小二乗確率的識別器によりモデル化し、前記顔画像ベクトルを説明変数とするテストデータと学習データから既に得られた複数個の比較用基底データとを前記複数クラスのランキング最小二乗確率的識別器によって順次比較することよって得られる各クラスの確信度を元にスコアリングして、前記人物の印象度を推定する順序推定手段と、
を含む印象度推定装置。
An impression level estimation device that estimates the impression level of a person captured in image data,
Data acquisition means for extracting a face image from the image data;
Feature vector calculation means for calculating a face feature vector from the face image;
A plurality of comparative base data already obtained from test data and learning data using the face image vector as an explanatory variable, modeled by a class least-squares stochastic discriminator of the degree of impression between two samples. And order estimation means for estimating the impression degree of the person by scoring based on the certainty of each class obtained by sequentially comparing the plurality of classes by the least-square ranking probabilistic classifier,
Impression degree estimation device.
前記複数個の比較用基底データの各々は、顔画像の特徴量である比較用説明変数と該比較用説明変数に対応する印象度の大小を数値化した既知の比較用目的変数とから成る学習データであり、
前記テストデータは、前記顔特徴ベクトルのテスト用説明変数と該テスト用説明変数に対応する未知のテスト用目的変数とから成り、
前記順序推定手段は、
前記テストデータと前記複数個の比較用基底データとを前記複数クラスのランキング最小二乗確率的識別器を用いて順次に比較して、前記テストデータのテスト用説明変数と各比較用基底データの比較用説明変数の差分に対して、前記テストデータのテスト用目的変数と各比較用基底データの比較用目的変数の差を、大小の度合いに応じて複数のクラスにクラス分けして、前記各クラスの確信度を得る大小比較判定部と、
該各クラスの確信度を前記比較用基底データ毎にスコア処理してスコアを得るスコア化処理部と、
前記比較用基底データ毎に算出したスコアを全て加算して、算出した合計スコアが最大となる箇所を、前記人物の印象度と推定するスコア合計処理部と、
を有する、請求項8に記載の印象度推定装置。
Each of the plurality of comparison base data includes a learning explanatory variable that is a feature amount of a face image and a known comparative variable that is a numerical value of the degree of impression corresponding to the comparison explanatory variable. Data,
The test data consists of test explanatory variables for the face feature vector and unknown test objective variables corresponding to the test explanatory variables,
The order estimation means includes
The test data and the plurality of comparison base data are sequentially compared using the plurality of classes of least-squares stochastic discriminators, and the test explanatory variable of the test data is compared with each comparison base data. Classifying the difference between the test objective variable of the test data and the comparison objective variable of each comparison base data into a plurality of classes according to the degree of magnitude. A size comparison and determination unit that obtains certainty of
A scoring processing unit that obtains a score by scoring the certainty of each class for each comparison base data;
A score total processing unit that adds all the scores calculated for each comparison base data and estimates the calculated total score as the maximum impression level of the person,
The impression degree estimation device according to claim 8, comprising:
前記複数個の比較用基底データは、前記複数クラスのランキング最小二乗確率的識別器のモデル学習段階で既に得られたものである、請求項9に記載の印象度推定装置。   The impression degree estimation device according to claim 9, wherein the plurality of comparison base data are already obtained in a model learning stage of the plurality of classes of least squares stochastic discriminators. 前記複数クラスのランキング最小二乗確率的識別器は、2クラスのランキング最小二乗確率的識別器から成る、請求項8乃至10のいずれか1項に記載の印象度推定装置。   The impression level estimation device according to any one of claims 8 to 10, wherein the plurality of classes of least squares stochastic discriminators comprises two classes of least squares stochastic discriminators. 前記複数クラスのランキング最小二乗確率的識別器は、3クラス以上のランキング最小二乗確率的識別器から成る、請求項8乃至10のいずれか1項に記載の印象度推定装置。   The impression level estimation device according to any one of claims 8 to 10, wherein the plurality of classes of least-squares stochastic discriminators comprises three or more ranking least-squares stochastic discriminators. 前記人物の印象度は、「明るくさわやか」、「かわいらしい」、「ビジネス的」、「やさしい」、および「健康的」を含む印象から選択された少なくとも1つの印象の度合いを表す、請求項8乃至12のいずれか1項に記載の印象度推定装置。   9. The impression level of the person represents at least one impression level selected from impressions including “bright and refreshing”, “adorable”, “business”, “friendly”, and “healthy”. 13. Impression degree estimation apparatus of any one of 12. 前記順序推定手段は、前記人物の印象度として、前記少なくとも1つの印象を複数段階で評価する、請求項13に記載の印象度推定装置。   The impression degree estimation device according to claim 13, wherein the order estimation unit evaluates the at least one impression in a plurality of stages as the impression degree of the person. コンピュータに、画像データに写された人物の印象度を推定させる印象度推定プログラムであって、前記コンピュータに、
前記画像データから顔画像を抽出する抽出手順と、
前記顔画像から顔特徴ベクトルを算出する算出手順と、
二標本間の印象度の大小関係を複数クラスのランキング最小二乗確率的識別器によりモデル化し、前記顔画像ベクトルを説明変数とするテストデータと学習データから既に得られた複数個の比較用基底データとを前記複数クラスのランキング最小二乗確率的識別器によって順次比較することよって得られる各クラスの確信度を元にスコアリングして、前記人物の印象度を推定する推定手順と、
を実行させる印象度推定プログラム。
An impression degree estimation program for causing a computer to estimate an impression degree of a person captured in image data, the computer comprising:
An extraction procedure for extracting a face image from the image data;
A calculation procedure for calculating a face feature vector from the face image;
A plurality of comparative base data already obtained from test data and learning data using the face image vector as an explanatory variable, modeled by a class least-squares stochastic discriminator of the degree of impression between two samples. And an estimation procedure for estimating the impression degree of the person by scoring based on the certainty of each class obtained by sequentially comparing the plurality of classes by the least-square ranking probabilistic classifier,
Impression degree estimation program to execute.
前記複数個の比較用基底データの各々は、顔画像の特徴量である比較用説明変数と該比較用説明変数に対応する印象度の大小を数値化した既知の比較用目的変数とから成る学習データであり、
前記テストデータは、前記顔特徴ベクトルのテスト用説明変数と該テスト用説明変数に対応する未知のテスト用目的変数とから成り、
前記推定手順は、前記コンピュータに、
前記テストデータと前記複数個の比較用基底データとを前記複数クラスのランキング最小二乗確率的識別器を用いて順次に比較して、前記テストデータのテスト用説明変数と各比較用基底データの比較用説明変数の差分に対して、前記テストデータのテスト用目的変数と各比較用基底データの比較用目的変数の差を、大小の度合いに応じて複数のクラスにクラス分けして、前記各クラスの確信度を得る手順と、
該各クラスの確信度を前記比較用基底データ毎にスコア処理してスコアを得る手順と、
前記比較用基底データ毎に算出したスコアを全て加算して、算出した合計スコアが最大となる箇所を、前記人物の印象度と推定する手順と、
を実行させる、請求項15に記載の印象度推定プログラム。
Each of the plurality of comparison base data includes a learning explanatory variable that is a feature amount of a face image and a known comparative variable that is a numerical value of the degree of impression corresponding to the comparison explanatory variable. Data,
The test data consists of test explanatory variables for the face feature vector and unknown test objective variables corresponding to the test explanatory variables,
The estimation procedure is performed on the computer,
The test data and the plurality of comparison base data are sequentially compared using the plurality of classes of least-squares stochastic discriminators, and the test explanatory variable of the test data is compared with each comparison base data. Classifying the difference between the test objective variable of the test data and the comparison objective variable of each comparison base data into a plurality of classes according to the degree of magnitude. The steps to get confidence
A procedure for scoring the certainty of each class for each comparison base data to obtain a score;
A procedure for adding all the calculated scores for each comparison base data and estimating the impression level of the person, where the calculated total score is maximum,
The impression degree estimation program according to claim 15, wherein:
前記複数個の比較用基底データは、前記複数クラスのランキング最小二乗確率的識別器のモデル学習段階で既に得られたものである、請求項16に記載の印象度推定プログラム。   The impression degree estimation program according to claim 16, wherein the plurality of comparison base data are already obtained in a model learning stage of the plurality of classes of least squares stochastic discriminators. 前記複数クラスのランキング最小二乗確率的識別器は、2クラスのランキング最小二乗確率的識別器から成る、請求項15乃至17のいずれか1項に記載の印象度推定プログラム。   The impression degree estimation program according to any one of claims 15 to 17, wherein the plurality of classes of least-squares stochastic discriminators comprises two classes of least-squares stochastic discriminators. 前記複数クラスのランキング最小二乗確率的識別器は、3クラス以上のランキング最小二乗確率的識別器から成る、請求項15乃至17のいずれか1項に記載の印象度推定プログラム。   The impression degree estimation program according to any one of claims 15 to 17, wherein the plurality of classes of least-squares stochastic discriminators comprises three or more ranking least-squares stochastic discriminators. 前記人物の印象度は、「明るくさわやか」、「かわいらしい」、「ビジネス的」、「やさしい」、および「健康的」を含む印象から選択された少なくとも1つの印象の度合いを表す、請求項15乃至19のいずれか1項に記載の印象度推定プログラム。   16. The impression level of the person represents at least one impression level selected from impressions including “bright and refreshing”, “adorable”, “business”, “friendly” and “healthy”. The impression degree estimation program according to any one of 19 above. 前記推定手順は、前記コンピュータに、前記人物の印象度として、前記少なくとも1つの印象を複数段階で評価させる、請求項20に記載の印象度推定プログラム。   21. The impression degree estimation program according to claim 20, wherein the estimation procedure causes the computer to evaluate the at least one impression in a plurality of stages as an impression degree of the person. 画像データに写された人物の印象度を、印象度推定装置を用いて推定する印象度推定方法であって、
前記画像データから顔画像を抽出する抽出工程と、
前記顔画像をニューラルネットワークに入力して得られる連続量である推定印象度をスコアリングすることによって第1の印象度スコアを推定すると共に、前記顔画像を前記ニューラルネットワークに入力して該ニューラルネットワークの中間層から得られる中間層データを顔特徴ベクトルとして出力する第1の推定工程と、
前記顔特徴ベクトルを最小二乗確率的識別器に入力して得られる離散量である各クラスの確信度をスコアリングすることによって第2の印象度スコアを推定する第2の推定工程と、
二標本間の印象度の大小関係を複数クラスのランキング最小二乗確率的識別器によりモデル化し、前記顔画像ベクトルを説明変数とするテストデータと学習データから既に得られた複数個の比較用基底データとを前記複数クラスのランキング最小二乗確率的識別器によって順次比較することよって得られる各クラスの確信度を元にスコアリングすることによって第3の印象度スコアを推定する第3の推定工程と、
前記第1乃至第3の印象度スコアを重み付きで統合して、前記人物の印象度を推定する統合工程と、
を含む印象度推定方法。
An impression level estimation method for estimating an impression level of a person photographed in image data using an impression level estimation device,
An extraction step of extracting a face image from the image data;
A first impression degree score is estimated by scoring an estimated impression degree, which is a continuous quantity obtained by inputting the face image to a neural network, and the face image is input to the neural network. A first estimation step of outputting the intermediate layer data obtained from the intermediate layer as a face feature vector;
A second estimation step of estimating a second impression score by scoring the certainty of each class which is a discrete quantity obtained by inputting the face feature vector into a least squares probabilistic classifier;
A plurality of comparative base data already obtained from test data and learning data using the face image vector as an explanatory variable, modeled by a class least-squares stochastic discriminator of the degree of impression between two samples. And a third estimation step of estimating a third impression score by scoring based on the certainty of each class obtained by sequentially comparing the plurality of classes with a ranking least squares probabilistic classifier of the plurality of classes,
An integration step of integrating the first to third impression degree scores with weights to estimate the impression degree of the person;
Impression degree estimation method including
画像データに写された人物の印象度を推定する印象度推定装置であって、
前記画像データから顔画像を抽出するデータ取得手段と、
前記顔画像をニューラルネットワークに入力して得られる連続量である推定印象度をスコアリングすることによって第1の印象度スコアを推定すると共に、前記顔画像を前記ニューラルネットワークに入力して該ニューラルネットワークの中間層から得られる中間層データを顔特徴ベクトルとして出力する連続量推定手段と、
前記顔特徴ベクトルを最小二乗確率的識別器に入力して得られる離散量である各クラスの確信度をスコアリングすることによって第2の印象度スコアを推定する離散量推定手段と、
二標本間の印象度の大小関係を複数クラスのランキング最小二乗確率的識別器によりモデル化し、前記顔画像ベクトルを説明変数とするテストデータと学習データから既に得られた複数個の比較用基底データとを前記複数クラスのランキング最小二乗確率的識別器によって順次比較することよって得られる各クラスの確信度を元にスコアリングすることによって第3の印象度スコアを推定する順序推定手段と、
前記第1乃至第3の印象度スコアを重み付きで統合して、前記人物の印象度を推定する統合手段と、
を含む印象度推定装置。
An impression level estimation device that estimates the impression level of a person captured in image data,
Data acquisition means for extracting a face image from the image data;
A first impression degree score is estimated by scoring an estimated impression degree, which is a continuous quantity obtained by inputting the face image to a neural network, and the face image is input to the neural network. Continuous quantity estimating means for outputting the intermediate layer data obtained from the intermediate layer as a face feature vector;
Discrete quantity estimation means for estimating a second impression score by scoring the certainty of each class, which is a discrete quantity obtained by inputting the face feature vector into a least squares probabilistic classifier;
A plurality of comparative base data already obtained from test data and learning data using the face image vector as an explanatory variable, modeled by a class least-squares stochastic discriminator of the degree of impression between two samples. Order estimation means for estimating the third impression score by scoring based on the certainty of each class obtained by sequentially comparing the plurality of classes by the least-square ranking least square probabilistic classifier,
Integrating means for integrating the first to third impression degree scores with weights to estimate the impression degree of the person;
Impression degree estimation device.
コンピュータに、画像データに写された人物の印象度を推定させる印象度推定プログラムであって、前記コンピュータに、
前記画像データから顔画像を抽出する抽出手順と、
前記顔画像をニューラルネットワークに入力して得られる連続量である推定印象度をスコアリングすることによって第1の印象度スコアを推定すると共に、前記顔画像を前記ニューラルネットワークに入力して該ニューラルネットワークの中間層から得られる中間層データを顔特徴ベクトルとして出力する第1の推定手順と、
前記顔特徴ベクトルを最小二乗確率的識別器に入力して得られる離散量である各クラスの確信度をスコアリングすることによって第2の印象度スコアを推定する第2の推定手順と、
二標本間の印象度の大小関係を複数クラスのランキング最小二乗確率的識別器によりモデル化し、前記顔画像ベクトルを説明変数とするテストデータと学習データから既に得られた複数個の比較用基底データとを前記複数クラスのランキング最小二乗確率的識別器によって順次比較することよって得られる各クラスの確信度を元にスコアリングすることによって第3の印象度スコアを推定する第3の推定手順と、
前記第1乃至第3の印象度スコアを重み付きで統合して、前記人物の印象度を推定する統合手順と、
を実行させる印象度推定プログラム。
An impression degree estimation program for causing a computer to estimate an impression degree of a person captured in image data, the computer comprising:
An extraction procedure for extracting a face image from the image data;
A first impression degree score is estimated by scoring an estimated impression degree, which is a continuous quantity obtained by inputting the face image to a neural network, and the face image is input to the neural network. A first estimation procedure for outputting intermediate layer data obtained from the intermediate layer as a face feature vector;
A second estimation procedure for estimating a second impression score by scoring the certainty of each class which is a discrete quantity obtained by inputting the face feature vector into a least squares probabilistic classifier;
A plurality of comparative base data already obtained from test data and learning data using the face image vector as an explanatory variable, modeled by a class least-squares stochastic discriminator of the degree of impression between two samples. And a third estimation procedure for estimating a third impression score by scoring on the basis of the certainty of each class obtained by sequentially comparing the plurality of classes by the least-square ranking least square probabilistic classifier,
An integration procedure for estimating the impression level of the person by integrating the first to third impression level scores with weights;
Impression degree estimation program to execute.
JP2015527224A 2013-07-18 2014-06-10 Face impression degree estimation method, apparatus, and program Active JP6029041B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013149123 2013-07-18
JP2013149123 2013-07-18
PCT/JP2014/065823 WO2015008567A1 (en) 2013-07-18 2014-06-10 Facial impression estimation method, device, and program

Publications (2)

Publication Number Publication Date
JP6029041B2 JP6029041B2 (en) 2016-11-24
JPWO2015008567A1 true JPWO2015008567A1 (en) 2017-03-02

Family

ID=52346040

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015527224A Active JP6029041B2 (en) 2013-07-18 2014-06-10 Face impression degree estimation method, apparatus, and program

Country Status (2)

Country Link
JP (1) JP6029041B2 (en)
WO (1) WO2015008567A1 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6318765B2 (en) * 2014-03-27 2018-05-09 富士通株式会社 Information processing apparatus, evaluator construction method, and program
US10398389B1 (en) 2016-04-11 2019-09-03 Pricewaterhousecoopers Llp System and method for physiological health simulation
JP6692271B2 (en) * 2016-09-28 2020-05-13 日本電信電話株式会社 Multitask processing device, multitask model learning device, and program
WO2018207334A1 (en) * 2017-05-12 2018-11-15 日本電気株式会社 Image recognition device, image recognition method, and image recognition program
EP3671566A4 (en) 2017-08-16 2020-08-19 Sony Corporation Program, information processing method, and information processing device
JP7207857B2 (en) * 2018-03-15 2023-01-18 サンスター株式会社 How to provide a facial beauty treatment
CA3099933A1 (en) * 2018-05-18 2019-11-21 Greeneden U.S. Holdings Ii, Llc System and method for a multiclass approach for confidence modeling in automatic speech recognition systems
WO2021019748A1 (en) * 2019-07-31 2021-02-04 富士通株式会社 Classification method, classification program, classification device, learning method, learning program, and learning device
WO2021084590A1 (en) * 2019-10-28 2021-05-06 富士通株式会社 Learning method, learning program, and learning device
CN113313007B (en) * 2021-05-26 2022-10-14 每日互动股份有限公司 Pedestrian static state identification method based on video, electronic equipment and storage medium

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5633080B2 (en) * 2010-12-08 2014-12-03 Necソリューションイノベータ株式会社 Attribute value estimation device, attribute value estimation method, program, and recording medium

Also Published As

Publication number Publication date
WO2015008567A1 (en) 2015-01-22
JP6029041B2 (en) 2016-11-24

Similar Documents

Publication Publication Date Title
JP6029041B2 (en) Face impression degree estimation method, apparatus, and program
TWI677852B (en) A method and apparatus, electronic equipment, computer readable storage medium for extracting image feature
Guo et al. A probabilistic fusion approach to human age prediction
Zhang et al. Quantifying facial age by posterior of age comparisons
CN110362677B (en) Text data category identification method and device, storage medium and computer equipment
Siddiquie et al. Image ranking and retrieval based on multi-attribute queries
JP6270182B2 (en) Attribute factor analysis method, apparatus, and program
US10783402B2 (en) Information processing apparatus, information processing method, and storage medium for generating teacher information
JP6041217B2 (en) Image evaluation apparatus, image evaluation method, program, integrated circuit
WO2019205729A1 (en) Method used for identifying object, device and computer readable storage medium
Singla et al. Discovery of social relationships in consumer photo collections using markov logic
CN111382410B (en) Face brushing verification method and system
Liu E‐Commerce Precision Marketing Model Based on Convolutional Neural Network
Okokpujie et al. Predictive modeling of trait-aging invariant face recognition system using machine learning
Xu Mt-resnet: a multi-task deep network for facial attractiveness prediction
Villegas-Cortez et al. Interest points reduction using evolutionary algorithms and CBIR for face recognition
Huang et al. Age-puzzle facenet for cross-age face recognition
US20170293863A1 (en) Data analysis system, and control method, program, and recording medium therefor
Li et al. Eyebrow semantic description via clustering based on Axiomatic Fuzzy Set
CN106528584A (en) An ensemble learning-based group recommendation method
Huang et al. Optimisation of automatic face annotation system used within a collaborative framework for online social networks
JP2017021606A (en) Method, device, and program for searching for dynamic images
JP6982675B1 (en) Information processing equipment, information processing methods, and programs
Khadhraoui et al. Local generic representation for patch uLBP-based face recognition with single training sample per subject
Scheirer et al. How reliable are your visual attributes?

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160914

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161006

R150 Certificate of patent or registration of utility model

Ref document number: 6029041

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250