JP6029041B2 - 顔印象度推定方法、装置、及びプログラム - Google Patents
顔印象度推定方法、装置、及びプログラム Download PDFInfo
- Publication number
- JP6029041B2 JP6029041B2 JP2015527224A JP2015527224A JP6029041B2 JP 6029041 B2 JP6029041 B2 JP 6029041B2 JP 2015527224 A JP2015527224 A JP 2015527224A JP 2015527224 A JP2015527224 A JP 2015527224A JP 6029041 B2 JP6029041 B2 JP 6029041B2
- Authority
- JP
- Japan
- Prior art keywords
- impression
- data
- degree
- estimation
- classes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 81
- 238000012360 testing method Methods 0.000 claims description 59
- 239000013598 vector Substances 0.000 claims description 50
- 238000012545 processing Methods 0.000 claims description 38
- 238000013528 artificial neural network Methods 0.000 claims description 29
- 230000010354 integration Effects 0.000 claims description 15
- 230000000052 comparative effect Effects 0.000 claims description 14
- 238000004364 calculation method Methods 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 6
- 230000006870 function Effects 0.000 description 19
- 238000000611 regression analysis Methods 0.000 description 19
- 238000012706 support-vector machine Methods 0.000 description 14
- 238000013459 approach Methods 0.000 description 12
- 230000001419 dependent effect Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 238000005457 optimization Methods 0.000 description 10
- 238000001514 detection method Methods 0.000 description 8
- 238000007796 conventional method Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 238000003860 storage Methods 0.000 description 6
- 210000003128 head Anatomy 0.000 description 5
- 230000000694 effects Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000003909 pattern recognition Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 239000002537 cosmetic Substances 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000009472 formulation Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000001850 reproductive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Description
例えば、特許文献1は、人間が知覚する結果に近い認識結果を得られる「年齢推定装置及び方法並びにプログラム」を開示している。特許文献1に開示された年齢推定装置では、回帰分析(regression)で年齢推定のモデルを作る際に、若年層の学習重みを強くすることで、若年層の推定精度を改善している。具体的には、特許文献1では、特徴ベクトルの抽出元であるテストデータの真の年齢を予測する教師付き回帰問題において、カーネル正則化重み付き最小二乗法(KRWLS:Kernel Regularized Weighted Least Squares)を用いて、年齢推定関数を正定値カーネルの線形結合でモデル化している。
また、最小二乗確率的識別器(LSPC:Least Square Probabilistic Classifier)と呼ばれる学習効率の良い識別器も知られている(例えば、非特許文献1、非特許文献2参照)。LSPCは、二乗損失のもとでクラスの事後確率モデルを学習する識別手法であり、解が解析的に計算できることが最大の特徴である。また、LSPCは、事後確率を密度比の形でクラス毎に直接推定する為、各クラスの学習データ数のアンバランスに強いという特徴も併せ持つ。LSPCでは、事後確率を二乗損失を用いて学習を行う。これにより、LSPCは、従来手法と同程度のパターン認識精度を維持しながら、学習時間を数百倍短縮することが可能となる。また、LSPCでは、特定のクラスのデータ数の偏りの影響を受けにくい。
さらに、ランキング学習も知られている。ここで、「ランキング学習」とは、関連度の高さや順列に応じて、データに高いスコアを付与出来る様、教師付き学習の枠組みで最適化する手法である。例えば、ペアワイズ・アプローチに基づくランキング学習の代表例な例として、ranking SVM(ranking Support Vector Machine)が知られている(例えば、非特許文献3参照)。ranking SVMでは、学習データのペアに対する損失を考えることで、SVMによる2クラス識別問題に帰着させ、スコア関数の最適化を行う。
しかしながら、特許文献1などで用いている「回帰分析」では、両端の精度(とてもかわいい、全くかわいくない等)に相当する顔画像の印象度を精度よく推定するのは困難である。この問題は、従属変数(目的変数)の値が両端付近のデータに対して推定精度を確保するのが困難といった回帰分析に特有な普遍的な問題、両端の印象度に相当する顔画像を十分に収集するのが困難といったデータ収集の問題に起因するものと考えられる。
両端の印象度(とてもかわいい、全くかわいくない)は、平均的な印象度(平均的なかわいらしさ)に比べて人の記憶に残りやすい為、両端の印象度に相当する顔に対して精度良く推定出来ることは重要な意味を持つ。
非特許文献1および非特許文献2に開示されたLSPCでも、人物の両端の印象度の推定精度が悪いという問題がある。
また、従来のランキング学習による最適化手法では、2つの従属変数(目的変数)の差の大小の度合いを最適化問題に反映させることが難しいという問題がある。
上述したように、従来の手法では、人物の‘両端の印象度’を精度良く推定するのは困難である。
[発明の目的]
したがって、本発明の目的は、人物の両端の印象度を精度よく推定する方法、装置、およびプログラムを提供することにある。
図2は本発明の第1の実施例による印象度推定装置の構成を示すブロック図であり、
図3は図2の印象度推定装置で使用される、回帰分析モードのニューラルネットワーク(連続量推定手段)の構成を示すブロック図であり、
図4は図2の印象度推定装置で使用される、ランキング最小二乗確率的識別器(順序推定手段)の構成を示すブロック図である。
図5は本発明の第2の実施例による印象度推定装置の構成を示すブロックであり、
図6は図5の印象度推定装置で使用される、ランキング最小二乗確率的識別器(順序推定手段)の構成を示すブロック図であり、
図7は本発明の第3の実施例による印象度推定装置の構成を示すブロックであり、
図8は「かわいらしい印象度」を識別問題として解いた場合の、各手法での各クラスの認識率の実験結果を示す表であり、
図9は「かわいらしい印象度」を回帰問題として解いた場合の、各手法での絶対誤差平均(MAE)の実験結果を示す表である。
[関連技術1]
最初に、第1の関連技術として、上記非特許文献1および2に記載されている、LSPCについて説明する。
LSPCは、二乗損失のもとでクラスの事後確率モデルを学習する識別手法であり、解が解析的に計算できることが最大の特徴である。
また、LSPCでは、事後確率を密度比の形でクラス毎に直接推定する為、各クラスの学習データ数のアンバランスに強いという特徴も併せ持つ。LSPCのこの特徴は、後述する本発明の実施形態に係る、ranking LSPCを解く際に好都合である。
LSPCでは、入力ベクトル(顔特徴量)xにおけるクラスyの事後確率分布p(y|x)を下記の式(1)の密度比の形で推定する。
ただし、p(x)はサンプルの確率密度、p(x,y)は同時確率密度である。最終的には、事後確率が最大になるクラスを、次の式(2)で表される推定クラスとする。
LSPCでは、事後確率p(y|x)を二乗損失を用いて学習を行う。これにより、LSPCでは、回帰分析の従来手法(カーネル正則化最小二乗法:KRLS)と同程度のパターン認識精度を維持しながら、学習時間を数百倍短縮することが可能となる。
また、LSPCでは、事後確率を上記数1で表される密度比の形で推定するため、訓練データにおける、特定のクラスのデータ数の偏りの影響を受けにくい。
まず、LSPCでは、クラスyの事後確率p(y|x)を、次の式(3)で表される線形モデルでモデル化する。
る。
LSPCでは、パラメータα=(α1,…,αb)Tを、下記の式(4)で表される二乗誤差J0が最小となるように学習する。
なお、Tは転置行列である。
二乗誤差J0の期待値の近似値を標本平均で考えることにより、上記式(4)の解は、解析的に次の式(5)で与えられる。
ここで、
である。
LSPCでは、最後に、全クラスの事後確率の総和が1になるように正規化補正することにより、下記の式(6)で示されるように、事後確率の解を得る。
しかしながら、上述したように、LSPCでは、人物の両端の印象度の推定精度が悪いという問題がある。
[関連技術2]
次に、第2の関連技術として、ランキング学習の定式化について説明する。
上述したように、ランキング学習とは、関連度の高さや順列に応じて、データに高いスコアを付与出来る様、教師付き学習の枠組みで最適化する手法である。近年、ランキング学習は、クエリと関連性の高いデータを優先的に抽出する情報検索や、ユーザに関心の高い商品情報を優先的に提示する推薦システムなどの領域で、盛んに応用されている。
データ空間をχとするとき、n個の教師付き学習データ
ここで、ベクトルxiは説明変数(顔画像の特徴量)であり、スカラyiは目的変数(印象度の大小をあらわしたもの)である。例えば、‘かわいらしい’の印象度を表す場合、yiの値域を0.0〜4.0(全くかわいくない:0.0、とてもかわいい:4.0)で定め、‘かわいらしい’の度合いが大きいほど、数値が大きくなる様に取る。
従来のランキング学習では、印象度が高い順に出力値がソートされ、つまり、下記の式(7)
となる様な、スコア関数f:χ→Rを最適化する。
この場合、Normalized Discounted Cumulative Gain(NDCG)や、Mean Reciprocal Rank(MRR)などが、モデルの評価基準として用いられるが、最適化問題を容易にするため、便宜的に学習データのペアやリストに対する損失を考えることが多い。
次に、第2の関連技術として、上記非特許文献3に記載されている、ペアワイズ・アプローチに基づくランキング学習の代表的な例として、ranking SVMについて述べる。
ranking SVMでは、学習データのペアに対する損失を考えることで、SVM(Support Vector Machine)による2クラス識別問題に帰着させ、スコア関数fの最適化を行う。
ranking SVMでは、スコア関数f:χ→Rを、下記の式(8)で表されるように、正定値カーネルk(x’,x)の線形結合でモデル化する。
集合を用いても良い。そして、下記パラメータα=(α1,…,αn)Tを、次の関係が成り立つ様に最適化する。
ここで、Φ(x)=(k(x1,x),…k(xn,x))Tである。このとき、ranking SVMの主問題は次の式(10)の形で定式化される。
は分離可能で無い場合を考慮して導入したスラック変数である。
ランキング学習の従来の定式化では、上述したように、下記の式(11)
となる様な、スコア関数f:χ→Rを最適化することを考えた。しかしながら、この最適化手法には、2つの従属変数(目的変数)yi,yjの差の大小の度合いを最適化問題に反映させることが難しいという問題点がある。
[実施の形態]
次に、本発明の一実施形態に係る印象度推定方法について説明する。
本実施形態に係る印象度推定方法は、「二標本間の印象度の大小関係」を多クラスのLSPCによりモデル化(ranking LSPCの導入)し、LSPCの出力するクラスの確信度を元に、出力のスコアリングを行うことによって、人物の両端の印象度を精度良く推定する。換言すれば、本実施の形態に係る印象度推定方法におけるランキング学習(ペアワイズ・アプローチ)では、識別問題に帰着させて解く際に、多クラス確率的識別器であるLSPCを使用する。
すなわち、本実施形態に係る印象度推定方法は、比較的正解の得られやすい‘二標本間の印象度の大小関係’に着目して、二標本間の印象度の大小関係をランキング学習によりモデル化し、このモデルを用いた推定結果(ベアワイズで比較した時の印象度の大小)の集計により、両端の印象度に相当する顔画像に対する推定精度を改善する手法である。
上記第2の関連技術でおいて述べた従来のランキング学習手法と、本実施の形態に係るランキング学習手法との間には、次に述べるような相違点がある。
まず、従来のランキング学習手法では、ペアワイズで解くアプローチ(例えば、2データ間の比較で考えるアプローチ)を考える際、2クラスの識別問題に帰着させて解いている。したがって、従来のランキング学習手法は、どちらが「上又は下」の識別のみである。また、従来のランキング学習手法ではSVMを使用して解くことが多い。
これに対して、本実施の形態に係るランキング学習手法では、ペアワイズで解くアプローチ(例えば、2データ間の比較で考えるアプローチ)を考える際、多クラスの識別問題に帰着させて解く。したがって、本実施の形態に係るランキング学習手法は、どちらが「上又は下」の判断だけでなく、差の大小も加味する。そして、本実施の形態に係るランキング学習手法ではLSPCを採用する。
本発明の実施形態では、次の形でランキング学習を再定式化する。
まず、サンプルのペア(xi,yi)、(xj、yj)が与えられた時に、従属変数(目的変数)の差(yi−yj)を、大小の度合いに応じて、Cクラスにクラス分けする。具体的には、2クラス(C=2)の場合には、下記の式(12)
といったクラス分けを考え、4クラス(C=4)の場合には、下記の式(13)
といったクラス分けを考える。
L(yi,yj)は差(yi−yj)の属するクラスラベルを表す。この時、クラス毎に、スコア関数fk:χ×χ→R(k=1,…,C)を定義し、それぞれ、下記の式(14)となる様にそれぞれ最適化する。
このスコア関数は、上記第2の関連技術における従来のスコア関数の特別な場合(線形性を持つ場合)の一般化と考えてよい。例えば、上記第2の関連技術において述べたranking SVMにおいて、スコア関数fの正定値カーネルの線形カーネルを用い、従属変数(目的変数)の差を上記式(12)のように2クラスに分類する場合を考える。この時、2組のスコア関数をそれぞれ、下記の式(15)
と定義すれば、ランキング学習は、上記式(14)で表される最適化問題に帰着することに注意されたい。
スコア関数の最適化問題を考える際は、最適化問題を容易にするため、学習データのペアに対する損失を考えるペアワイズ・アプローチを便宜的に採用する。具体的には、本実施形態では、以下に説明するranking LSPCを考えることで、多クラス識別問題に帰着させて、スコア関数の最適化を行う。
次に、ranking LSPCについて説明する。ranking LSPCは、上記第2の関連技術において述べたranking SVMと同様に、ペアワイズ・アプローチに基づくものであり、学習データのペアに対する損失を考えることで、上記第1の関連技術において述べたLSPCによる多クラス識別問題に帰着させ、下記の式(16)で表されるスコア関数fkの最適化を行う。
このように、本実施の形態において、識別問題に関して、従来手法でよく使われるSVMでなく、LSPCを用いた理由は、次の4点である。
(1)LSPCは、二乗損失のもとでクラスの事後確率モデルを学習する識別手法であり、従来手法(第2の関連技術)と同程度のパターン認識精度を維持しながら、学習時間を数百倍短縮することが出来る。一方、ペアワイズ・アプローチに基づくランキング学習は、学習データ数が飛躍的に増大する。元お学習データがn個の場合、ランキング学習で使用する学習データはn2倍となる。LSPCのこの学習効率の良さは、ランキング学習における大規模サンプル数の問題を緩和することが出来る。
(2)LSPCでは、クラス毎に事後確率をモデル化するため、各クラスの学習データのアンバランスに強いという特徴も併せ持つ。従属変数(目的変数)の差分の大小によりクラス分類する問題を考える場合、各クラスの学習データ数にアンバランスが生じやすい。しかしながら、LSPCのこの特徴は、データ数のアンバランスの認識精度に与える悪影響を緩和するのに好都合である。
(3)LSPCは、多クラスの非線形識別問題を解くことが出来、クラス毎に事後確率をモデル化するため、上述したように、クラス毎のスコア関数のモデル化が可能である。特に、LSPCでは、後述する多クラスのランキング学習を考えた場合、クラスによっては‘正解率の高い出力’が得られやすい。これはランキング学習の出力を集計して、回帰問題を解く際に有益である。
(4)ランキング学習の出力は、ペアワイズ的なアプローチの場合、通常、クラス識別結果の出力(予測クラス)のみであり、出力の確信度の情報は含まれない。これに対して、LSPCの場合、クラス識別結果を各クラスの確信度で出力する為、後述するように、ランキング学習の出力を集計して、回帰問題を解く際に好都合である。
次に、ranking LSPCの定式化について説明する。換言すれば、ranking LSPCの「学習フェーズ」について説明する。
(目的変数))、従属変数(目的変数)の差(yi−yj)を、大小の度合いに応じて、Cクラスにクラス分けする。ここで、前述したように、ベクトルxiは顔画像の特徴量を表わす説明変数であり、yiは印象度の大小を数値化したものを表す目的変数(従属変数)である。ここで、yiの値は、主観的に(例えば多数決などにより)印象度として既に決められた値(既知の値)である。
具体的には、2クラスであれば上記式(12)、4クラスであれば上記式(13)の形を考える。
この時、ranking LSPCでは、各クラスのスコア関数
正定値カーネルφi,jの線形結合で、下記の式(17)で表されるように、それぞれモデル化する。
る最小二乗誤差J0が最小になる様に学習する。
PCと同様である。
以上の説明が、ranking LSPCの「学習フェーズ」の説明である。
次に、本発明の実施の形態に係る印象度推定方法の核心部分である、ranking LSPCの推定結果を元に、回帰分析の問題を解く手法について説明する。換言すれば、ranking LSPCを用いた「認識(推定)フェーズ」について説明する。
まず、テストデータ(xte,yte)との従属変数(目的変数)の差を比較するため
する。ここで、テストデータの特徴変数(ベクトル)xteは、顔画像から特徴ベクトル算出部(後述する)によって算出された顔特徴ベクトルである。一方、テストデータの目的変数yteは、未知の変数である。比較用基底データ数bの大きさを適宜変えることで、モデル学習時の計算負荷を調整出来る。
また、印象度yは、下限値0.0と上限値4.0をそれぞれ持つ、すなわち、0.0≦y≦4.0であるとする。
簡単のため、まず2クラスのranking LSPCの場合について説明する。従属変数(目的変数)の差のクラス区分は、上記数22に従うものとする。
テストデータ(xte,yte)と比較用基底データ(b1、y1)のペアを入力した際のranking LSPCの出力が、‘クラス1,クラス2の確信度はそれぞれ0.7,0.3’であったとする(yte<y1である確率が0.7)。
この時、下記の式(19)で表される、ベクトル形式の印象度スコア
を印象度yの値に応じて次の式(20)のように割り当てる(yの値の取り方は任意で決めて良いが、yの全値域に対して密になる様取得するのが望ましい)。
図1は、このスコアリングのイメージ図である。図1において、横軸は印象度スコアを示し、縦軸は確信度を示す。印象度スコアは、0.0〜4.0の間の範
で表されるベクトルg1に正規化処理しておく。
次に、他の比較用基底データ(b2、y2)、(b3、y3)に対しても、同様にス
3に正規化しておく。
この時、次の式(22)
の最大成分に該当するy*、つまり、下記の式(23)
となる様なy*を、テストデータ(xte,yte)を入力した場合の印象度の推定結果とする。
以上の説明が、2クラスのranking LSPCを用いた「認識(推定)フェーズ」の説明である。
次に、4クラスのranking LSPCの場合について説明する。従属変数(目的変数)の差のクラス区分は、上記式(13)に従うものとする。
テストデータ(xte,yte)と比較用基底データ(b1、y1)のペアを入力した際のranking LSPCの出力が、‘クラス1〜クラス4の確信度がそれぞれ0.65,0.2,0.1,0.05’であったとする(yte<y1−0.5である確率が最も高い(0.65))。
この時、下記の式(24)で表されるベクトル形式の印象度スコア
を、印象度yの値に応じて次の式(25)のように割り当てる。
以後は、上述した2クラスのranking LSPCの場合と同様に、比較用基底データ毎にスコア化を行い、テストデータ(xte,yte)に対する印象度の推定値を求める。
差分の大きなクラス(クラス1,4)に属するデータは認識率が高く、逆に、差分の小さなクラス(クラス2,3)に属するデータは認識率が低いことに注意されたい。そこで、ε−Support Vector Regressionと同様、許容誤差を設定し(ここでは0.5)、これをクラス2,3の値域設定に用いる。
以上の説明が、2クラスのranking LSPCを用いた「認識(推定)フェーズ」の説明である。
図示の印象度推定装置10は、下記の5種類の人物の印象を「0,1,2,3,4」の5段階(5クラス)で評価(推定)する装置である。
1.明るくさわやか
2.かわいらしい
3.ビジネス的
4.やさしい
5.健康的
そして、例えば、「かわいらしい」の印象度を表す場合、後述する目的変数(従属変数)yの値域を0.0〜4.0(「全くかわいくない」を0.0に、「とてもかわいい」を4.0)で定め、「かわいらしい」の度合いが大きいほど、数値が大きくなる様に取る。
尚、本第1の実施例では、人物の印象として上記5種類を挙げているが、本発明はそれらに限定されず、それら5種類の印象から少なくとも1つの印象を選択しても良いし、他の印象を用いても良いのは勿論である。
そして、印象度推定装置10は、印象度(目的変数)yを大小の度合いにより、下記の5クラスに分類(5段階で評価)する。
(クラス1) 0.0≦y<0.5
(クラス2) 0.5≦y<1.5
(クラス3) 1.5≦y<2.5
(クラス4) 2.5≦y<3.5
(クラス5) 3.5≦y≦4.0
尚、本第1の実施例では、印象度を5クラスに分類(5段階で評価)しているが、本発明はこれに限定されず、2以上のクラスに分類(2以上の段階で評価)してもよいのは勿論である。
印象度推定装置10は、頭部検出部12と、顔検出部14と、回帰分析モードのニューラルネットワーク16と、ランキング最小二乗確率的識別器(ranking LSPC)18とから成る。
頭部検出部12は、人物を撮影したカラー静止画ファイルから、頭部検出プログラムによって、目・鼻・口の位置の推定を行う。顔検出部14は、目などの顔部品の位置情報をもとにして、64×64ピックセルに正規化された顔画像の抽出を行う。したがって、頭部検出部12と顔検出部14との組み合わせは、人物画像から顔画像を抽出するデータ取得手段(顔画像抽出手段)32として働く。
この技術分野において周知のように、ニューラルネットワーク16は、図3に示されるように、入力層162と、中間層164と、出力層166とから成る。
ニューラルネットワーク16の中間層164のデータ(中間層データ)が、顔特徴ベクトルとして、ランキング最小二乗確率的識別器(ranking LSPC)18に供給される。従って、ニューラルネットワーク16の入力層162と中間層164との組み合わせは、抽出した顔画像から顔特徴ベクトルを算出する特徴ベクトル算出部34として働く。
尚、本第1の実施例では、顔特徴ベクトルを算出する手段として、ニューラルネットワーク16中の特徴ベクトル算出部34を利用しているが、本発明はこれに限定されず、他の周知な種々の顔特徴ベクトル算出手段を用いても良いのは勿論である。
図示のランキング最小二乗確率的識別器18は、2クラスのランキング最小二乗確率的識別器から成る。したがって、ランキング最小二乗確率的識別器18は、上記式(23)で表されるy*を、テストデータ(xte,yte)を入力した場合の印象度の推定結果として出力する。
図4は、2クラスのランキング最小二乗確率的識別器18の構成を示すブロック図である。2クラスのランキング最小二乗確率的識別器18は、2クラスのranking LSPCを用いた大小比較判定部182と、スコア化処理部184と、スコア合計処理部186とから成る。
2クラスのranking LSPCを用いた大小比較判定部182には、1個のテストデータ(xte,yte)と、複数個の比較用基底データ(x1、y1)とが供給される。
テストデータ(xte,yte)は、顔画像形式のテストデータを、回帰分析モードのニューラルネットワーク16に入力した際の中間層データ(顔特徴ベクトル)である。以降、これをテストデータのテスト用説明変数に用い、xteで表す。また、この段階では、未知のテスト用目的変数(例えば「かわいらしい」に関する印象度の正解値)をyteで表す。
複数個の比較用基底データ(x1、y1)は、顔画像形式の比較用基底データ(学習データから複数個取得したもの)を、回帰分析モードのニューラルネットワーク16に入力した際の中間層データ(顔特徴ベクトル)である。これらは、2クラスのranking LSPCのモデル学習段階で既に得られたものであり、テストデータに対する推定処理の段階で、新たに算出することはない。以降、これらを比較用基底データの比較用説明変数に用いて、それぞれ、x1,x2,・・・,xk,・・・とする。なお、また、x1,x2,・・・,xk,・・・に対応する比較用目的変数(例えば「かわいらしい」に関する印象度の正解値)を、それぞれ、y1,y2,・・・,yk,・・・とする。
2クラスのranking LSPCを用いた大小比較判定部182は、2クラスのranking LSPCを用い、テストデータ(xteをテスト用説明変数に持つ)と比較用基底データ(xkを比較用説明変数に持つ)との印象度の大小判定を行う(全ての比較用基底データxkに対し、同じ処理を繰り返す)。
本例では、2クラスでのranking LSPCによる大小判定を行うので、2クラスのranking LSPCを用いた大小比較判定部182は、テストデータと比較用基底データとの説明変数の差分(xte−xk)に対し、2データ間の目的変数の大小を推定(yte<ykか、yte≧ykかを推定)して、上記式(12)のように2つにクラス分けする。
そして、2クラスのranking LSPCを用いた大小比較判定部182は、上記大小判定結果を各クラスの確信度の形式で出力する。例えば、xteとxkとの比較のケースにおいては、2クラスのranking LSPCを用いた大小比較判定部182は、例えば、クラス1、クラス2の確信度がそれぞれ0.7,0.3であるとして出力する(図1参照)。
スコア化処理部184は、比較用基底データ毎に出力した大小判定比較結果を用いて、それぞれスコア化処理を、上記式(19)〜式(21)に従って実施する。
スコア合計処理部186は、比較用基底データ毎に算出したスコアを全て加算し、上記数44に示されるように、算出したスコアが最大になる箇所を、印象度の推定結果として出力する。印象度の推定結果は、『テストデータxteを入力した場合の、2クラスのranking LSPCによる目的変数の推定結果(例えば、「かわいらしい」に関する印象度推定結果)』である。
電子機器で第1の実施例に係る印象度推定装置10を構成する場合、印象度推定装置10は、プログラム制御により動作するコンピュータで実現可能である。図示はしないが、この種のコンピュータは、周知のように、データを入力する入力装置と、データ処理装置と、データ処理装置での処理結果を出力する出力装置と、種々のデータベースとして働く補助記憶装置とを備えている。そして、データ処理装置は、プログラムを記憶するリードオンリメモリ(ROM)と、データを一時的に記憶するワークメモリとして使用されるランダムアクセスメモリ(RAM)と、ROMに記憶されたプログラムに従って、RAMに記憶されているデータを処理する中央処理装置(CPU)とから構成される。
この場合、入力装置は、人物画像(画像データ)を入力するための装置(図示せず)として動作する。データ処理装置は、データ取得手段32、回帰分析モードのニューラルネットワーク(連続量推定手段)16、およびランキング最小二乗確率的識別器(順序推定手段)18として動作する。そして、補助記憶装置が、複数個の比較用基底データを蓄積する蓄積手段(図示せず)として働く。
換言すれば、第1の実施例に係る印象度推定装置10の各部は、ハードウェアとソフトウェアとの組み合わせを用いて実現すればよい。ハードウェアとソフトウェアとを組み合わせた形態では、ROMに記憶された印象度推定プログラムに基づいて制御部(CPU)等のハードウェアを動作させることによって、各部を各種手段として実現する。また、該印象度推定プログラムは、記録媒体に記録されて頒布されても良い。当該記録媒体に記録された印象度推定プログラムは、有線、無線、又は記録媒体そのものを介して、メモリに読込まれ、制御部等を動作させる。尚、記録媒体を例示すれば、オプティカルディスクや磁気ディスク、半導体メモリ装置、ハードディスクなどが挙げられる。
このような構成の印象度推定装置10は、人物の両端の印象度を精度よく推定することが出来る。
図示の印象度推定装置10Aは、ランキング最小二乗確率的識別器の構成が相違している点を除いて、図2に示した印象度推定装置10と同様の構成を有し、動作をする。したがって、ランキング最小二乗確率的識別器に18Aの参照符号を付してある。図2に示したものと同様の構成要素には同一の参照符号を付し、説明の簡略化のために、それらの説明について省略する。
図示のランキング最小二乗確率的識別器18Aは、4クラスのランキング最小二乗確率的識別器から成る。
図6は、4クラスのランキング最小二乗確率的識別器18Aの構成を示すブロック図である。4クラスのランキング最小二乗確率的識別器18Aは、4クラスのranking LSPCを用いた大小比較判定部182Aと、スコア化処理部184Aと、スコア合計処理部186とから成る。
すなわち、4クラスのランキング最小二乗確率的識別器18Aは、図4に示した2クラスのランキング最小二乗確率的識別器18とは、ranking LSPCを用いた大小比較判定部とスコア化処理部との構成および動作が異なっている。以下では、説明の簡略化のために、相違点についてのみ説明する。
4クラスのranking LSPCを用いた大小比較判定部182Aは、4クラスのranking LSPCを用い、テストデータ(xteをテスト用説明変数に持つ)と比較用基底データ(xkを比較用説明変数に持つ)との印象度の大小判定を行う(全ての比較用基底データxkに対し、同じ処理を繰り返す)。
本例では、4クラスでのranking LSPCによる大小判定を行うので、4クラスのranking LSPCを用いた大小比較判定部182Aは、テストデータと比較用基底データとの説明変数の差分(xte−xk)に対し、2データ間の目的変数の大小を推定(yte<ykか、yte≧ykかを推定)して、上記式(13)のように4つにクラス分けする。
そして、4クラスのranking LSPCを用いた大小比較判定部182Aは、上記大小判定結果を各クラスの確信度の形式で出力する。例えば、xteとxkの比較のケースにおいては、4クラスのranking LSPCを用いた大小比較判定部182Aは、例えば、クラス1〜クラス4の確信度がそれぞれ0.65,0.2,0.1,0.05であるとして出力する。
スコア化処理部184Aは、比較用基底データ毎に出力した大小判定比較結果を用いて、それぞれスコア化処理を、上記式(24)、式(25)、および式(21)に従って実施する。
そして、スコア合計処理部186は、比較用基底データ毎に算出したスコアを全て加算し、上記式(23)に示されるように、算出したスコアが最大になる箇所を、印象度の推定結果として出力する。印象度の推定結果は、『テストデータxteを入力した場合の、ranking LSPCによる目的変数の推定結果(例えば、「かわいらしい」に関する印象度推定結果)』である。
電子機器で第2の実施例に係る印象度推定装置10Aを構成する場合、印象度推定装置10Aは、プログラム制御により動作するコンピュータで実現可能である。図示はしないが、この種のコンピュータは、周知のように、データを入力する入力装置と、データ処理装置と、データ処理装置での処理結果を出力する出力装置と、種々のデータベースとして働く補助記憶装置とを備えている。そして、データ処理装置は、プログラムを記憶するリードオンリメモリ(ROM)と、データを一時的に記憶するワークメモリとして使用されるランダムアクセスメモリ(RAM)と、ROMに記憶されたプログラムに従って、RAMに記憶されているデータを処理する中央処理装置(CPU)とから構成される。
この場合、入力装置は、人物画像(画像データ)を入力するための装置(図示せず)として動作する。データ処理装置は、データ取得手段32、回帰分析モードのニューラルネットワーク(連続量推定手段)16、およびランキング最小二乗確率的識別器(順序推定手段)18Aとして動作する。そして、補助記憶装置が、複数個の比較用基底データを蓄積する蓄積手段(図示せず)として働く。
換言すれば、第2の実施例に係る印象度推定装置10Aの各部は、ハードウェアとソフトウェアとの組み合わせを用いて実現すればよい。ハードウェアとソフトウェアとを組み合わせた形態では、ROMに記憶された印象度推定プログラムに基づいて制御部(CPU)等のハードウェアを動作させることによって、各部を各種手段として実現する。また、該印象度推定プログラムは、記録媒体に記録されて頒布されても良い。当該記録媒体に記録された印象度推定プログラムは、有線、無線、又は記録媒体そのものを介して、メモリに読込まれ、制御部等を動作させる。尚、記録媒体を例示すれば、オプティカルディスクや磁気ディスク、半導体メモリ装置、ハードディスクなどが挙げられる。
このような構成の印象度推定装置10Aは、人物の両端の印象度を精度よく推定することが出来る。
尚、本第2の実施例でも、顔特徴ベクトルを算出する手段として、ニューラルネットワーク16中の特徴ベクトル算出部34を利用しているが、それに限定されず、他の周知な種々の顔特徴ベクトル算出手段を用いても良い。
図示の印象度推定装置10Bは、最小二乗確率的識別器(LSPC)20および識別器出力の重み付き統合部22がさらに付加されている点を除いて、図5に示した印象度推定装置10Aと同様の構成を有し、動作をする。したがって、図5に示したものと同様の構成要素には同一の参照符号を付し、説明の簡略化のために、それらの説明について省略する。
上述したように、多クラスのranking LSPCを導入することにより、人物の両端の印象度の精度は改善するが、人物の真ん中付近の印象度の精度は芳しくない。
そこで、本第3の実施例に係る印象度推定装置10Bでは、多クラスのranking LSPCによる識別器に加えて、従来技術の手法である回帰分析(regression)とクラス識別(classification)の識別器とを統合することにより、印象度の推定結果の安定化を図っている。
最初に、回帰分析モードのニューラルネットワーク16について説明する。回帰分析モードのニューラルネットワーク16は、人物の印象度を連続量として推定する回帰問題として解く、回帰モードのニューラルネットワークである。複数種類の印象度推定問題を扱う場合は、マルチタスクで学習する場合もある。
引き続いて、ニューラルネットワーク16の出力のスコア化について説明する。
する。ここでは、推定誤差の標準偏差を0.5とした。各印象度z(0.0≦z≦4.0)(0.25間隔)に対し、一度、下記の式(26)
によりスコアを割り当てたのち、スコアを下記の式(27)で正規化する。
そして、ベクトルf1={f1(z)}0.0≦z≦4.0をニューラルネットワーク(回帰モード)16の出力スコア(第1の印象度スコア)とする。
上述したように、回帰分析モードのニューラルネットワーク16は、人物の印象度を連続量として推定する回帰問題として解くので、連続量推定手段とも呼ばれる。
次に、最小二乗確率的識別器(LSPC)20について説明する。最小二乗確率的識別器(LSPC)20は、ニューラルネットワーク16の中間層164の出力を顔特徴ベクトルとして、印象度推定問題を識別問題として解く。この場合、人物の印象度の値域を、例えば(0.0〜/0.5〜/1.5〜/2.5〜/3.5〜)の様に、数クラスに区分し、これらのクラスを識別する様にする。印象度の大小に従って区分を行っているため、これは、ポイントワイズ・アプローチに基づくランキング学習の1種と解釈することも出来る。
引き続いて、最小二乗確率的識別器(LSPC)20の出力のスコア化について説明する。
最小二乗確率的識別器(LSPC)20は、各クラスの確信度を確率形式で出力する。ここでは、前述したニューラルネットワーク(回帰モード)16の出力に対する第1の印象度スコア(ベクトル)f1の形式に合わせる様に、スコア化を行う。
例えば、印象度を0.0〜/0.5〜/1.5〜/2.5〜/3.5〜4.0の5クラスで識別を行う時、最小二乗確率的識別器(LSPC)20の出力した確信度が順にp1,p2,・・・,p5であったする。この時、各印象度zに対し、一旦、次の(式28)
(iは、印象度zの属するクラスに対応)によりスコアを割り当てたのち、スコアを下記の式(29)で正規化する。
そして、ベクトルf2={f2(z)}0.0≦z≦4.0を最小二乗確率的識別器(LSPC)20の出力スコア(第2の印象度スコア)とする。
最小二乗確率的識別器(LSPC)20では、人物の印象度を離散量として推定するので、離散量推定手段とも呼ばれる。
4クラスのランキング最小二乗確率的識別器18Aでは、上記数43で表されるベクトルf3をその出力スコア(第3の印象度スコア)とする。このスコアの形式は、上記ベクトルf1,f2に合わせるものとする。
ランキング最小二乗確率的識別器18Aは、人物の印象度を、上述したように、テストデータと複数の比較用基底データとを順序的に比較することにより推定するので、順序推定手段とも呼ばれる。
次に、識別器出力の重み付き統合部22について説明する。
識別器出力の重み付き統合部22は、重みw1、w2、w3を用いて、各印象度y(0.0≦y≦4.0,0.25間隔)における各識別器16,20,18Aの出力スコア(第1乃至第3の印象度スコア)を、下記の式(30)で表せるように、重み付きで加算する。
そして、識別器出力の重み付き統合部22は、下記の式(31)で表されるy*
となる様なy*を、印象度の推定結果として出力する。
識別器出力の重み付き統合部22は、統合手段と呼ばれる。
また、回帰分析モードのニューラルネットワーク16、最小二乗確率的識別器(LSPC)20、ランキング最小二乗確率的識別器18A、および識別器出力の重み付き統合部22の組み合わせは、統合識別器(16,20,18A,22)と呼ばれる。
次に、重みの探索方法について説明する。
検証データ(モデル学習に用いていないデータ)を用いて、最適な重みw1、w2、w3を虱潰しに探索する。具体的には、数値幅を、0≦wi≦1、探索間隔を0.05に設定し、検証用データで、統合識別器(16,20,18A,22)の評価を実施する。検証用データで評価した時のスコア(各カテゴリの認識率の平均値)が最も高くなる様な重み(w1、w2、w3)を採択する。
電子機器で第3の実施例に係る印象度推定装置10Bを構成する場合、印象度推定装置10Bは、プログラム制御により動作するコンピュータで実現可能である。図示はしないが、この種のコンピュータは、周知のように、データを入力する入力装置と、データ処理装置と、データ処理装置での処理結果を出力する出力装置と、種々のデータベースとして働く補助記憶装置とを備えている。そして、データ処理装置は、プログラムを記憶するリードオンリメモリ(ROM)と、データを一時的に記憶するワークメモリとして使用されるランダムアクセスメモリ(RAM)と、ROMに記憶されたプログラムに従って、RAMに記憶されているデータを処理する中央処理装置(CPU)とから構成される。
この場合、入力装置は、人物画像(画像データ)を入力するための装置(図示せず)として動作する。データ処理装置は、データ取得手段32、回帰分析モードのニューラルネットワーク(連続量推定手段)16、最小二乗確率的識別器(連続量推定手段)20、ランキング最小二乗確率的識別器(順序推定手段)18A、および識別器出力の重み付き統合部(統合手段)22として動作する。そして、補助記憶装置が、複数個の比較用基底データを蓄積する蓄積手段(図示せず)として働く。
換言すれば、第3の実施例に係る印象度推定装置10Bの各部は、ハードウェアとソフトウェアとの組み合わせを用いて実現すればよい。ハードウェアとソフトウェアとを組み合わせた形態では、ROMに記憶された印象度推定プログラムに基づいて制御部(CPU)等のハードウェアを動作させることによって、各部を各種手段として実現する。また、該印象度推定プログラムは、記録媒体に記録されて頒布されても良い。当該記録媒体に記録された印象度推定プログラムは、有線、無線、又は記録媒体そのものを介して、メモリに読込まれ、制御部等を動作させる。尚、記録媒体を例示すれば、オプティカルディスクや磁気ディスク、半導体メモリ装置、ハードディスクなどが挙げられる。
次に、人の顔画像を用いて、‘かわいらしい’印象度を推定した場合の実験結果(すなわち、第3の実施例による印象度推定装置10Bの効果)について説明する。
以下では、回帰分析モードのニューラルネットワーク(連続量推定手段)16を使用した手法を「手法1」と呼び、最小二乗確率的識別器(LSPC)(離散量推定手段)20を使用した手法を「手法2」と呼び、2クラスのランキング最小二乗確率的識別器(順序推定手段)18を使用した手法を「手法3’」と呼び、4クラスのランキング最小二乗確率的識別器(順序推定手段)18Aを使用した手法を「手法3」と呼ぶことにする。
また、本例では、統合識別器(16,20,18A,22)における、(手法1:手法2:手法3)の統合比を、0.35:0.15:0.50とした。
印象度区分が(0.0〜/0.5〜/1.5〜/2.5〜/3.5〜4.0)の5クラス識別問題として解いたとする。図8はその識別問題として解いた場合の各クラスの認識率を示し、図9は回帰問題として解いた場合のMAE(絶対誤差平均)を示す。認識率は、100%であれば誤りなく認識されたことを示す。また、MAE(絶対誤差平均)は、その小さいほど誤差が小さいことを示す。
図8および図9から、手法3において、人物の両端の印象度の推定精度が従来手法(手法1、手法2)より改善していることが分かる。また、(手法3)の4クラスのranking LSPCの方が、(手法3’)の2クラスのranking LSPCより、やや良いことが見て取れる。
このように、本第3の実施例に係る印象度推定装置10Bでは、複数の識別器16、20、18Aの出力を重み付きで統合しているので、各識別器の弱点を相補することが出来、単体の識別器では成し得なかった安定した識別精度を実現することが出来る。
尚、本第3の実施例では、順序推定手段として、4クラスのランキング最小二乗確率的識別器18Aを使用しているが、その代わりに2クラスのランキング最小二乗確率的識別器18を使用してもよい。
以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
例えば、上記第3の実施例では、3つの識別器(連続量推定手段;離散量推定手段;順序推定手段)を統合した場合の例を示しているが、本発明は2つの識別器を統合するようにしても良い。具体的には、本発明の印象度推定装置は、連続量推定手段16と順序推定手段18A(又は18)とを統合しても良いし、離散量推定手段20と順序推定手段18A(又は18)とを統合しても良い。また、上記実施例では、ランキング最小二乗確率的識別器として、2クラスのランキング最小二乗確率的識別器18と2クラスのランキング最小二乗確率的識別器18Aとの例のみを挙げて説明しているが、一般的に、複数クラス(2クラス以上)のランキング最小二乗確率的識別器を使用してよい。
12 頭部検出部
14 顔検出部
16 回帰分析モードのニューラルネットワーク(連続量推定手段)
162 入力層
164 中間層
166 出力層
18、18A ランキング最小二乗確率的識別器(順序推定手段)
182、182A 大小比較判定部
184、184A スコア化処理部
186 スコア合計処理部
20 最小二乗確率的識別器(離散量推定手段)
22 識別器出力の重み付き統合部(統合手段)
34 特徴ベクトル算出部
この出願は、2013年7月18日に出願された、日本特許出願第2013−149123号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
Claims (24)
- 画像データに写された人物の印象度を、印象度推定装置を用いて推定する印象度推定方法であって、
前記画像データから顔画像を抽出する抽出工程と、
前記顔画像から顔特徴ベクトルを算出する算出工程と、
二標本間の印象度の大小関係を複数クラスのランキング最小二乗確率的識別器によりモデル化し、前記顔画像ベクトルを説明変数とするテストデータと学習データから既に得られた複数個の比較用基底データとを前記複数クラスのランキング最小二乗確率的識別器によって順次比較することよって得られる各クラスの確信度を元にスコアリングして、前記人物の印象度を推定する推定工程と、
を含む印象度推定方法。 - 前記複数個の比較用基底データの各々は、顔画像の特徴量である比較用説明変数と該比較用説明変数に対応する印象度の大小を数値化した既知の比較用目的変数とから成る学習データであり、
前記テストデータは、前記顔特徴ベクトルのテスト用説明変数と該テスト用説明変数に対応する未知のテスト用目的変数とから成り、
前記推定工程は、
前記テストデータと前記複数個の比較用基底データとを前記複数クラスのランキング最小二乗確率的識別器を用いて順次に比較して、前記テストデータのテスト用説明変数と各比較用基底データの比較用説明変数の差分に対して、前記テストデータのテスト用目的変数と各比較用基底データの比較用目的変数の差を、大小の度合いに応じて複数のクラスにクラス分けして、前記各クラスの確信度を得る工程と、
該各クラスの確信度を前記比較用基底データ毎にスコア処理してスコアを得る工程と、
前記比較用基底データ毎に算出したスコアを全て加算して、算出した合計スコアが最大となる箇所を、前記人物の印象度と推定する工程と、
を有する、請求項1に記載の印象度推定方法。 - 前記複数個の比較用基底データは、前記複数クラスのランキング最小二乗確率的識別器のモデル学習段階で既に得られたものである、請求項2に記載の印象度推定方法。
- 前記複数クラスのランキング最小二乗確率的識別器は、2クラスのランキング最小二乗確率的識別器から成る、請求項1乃至3のいずれか1項に記載の印象度推定方法。
- 前記複数クラスのランキング最小二乗確率的識別器は、3クラス以上のランキング最小二乗確率的識別器から成る、請求項1乃至3のいずれか1項に記載の印象度推定方法。
- 前記人物の印象度は、「明るくさわやか」、「かわいらしい」、「ビジネス的」、「やさしい」、および「健康的」を含む印象から選択された少なくとも1つの印象の度合いを表す、請求項1乃至5のいずれか1項に記載の印象度推定方法。
- 前記推定工程は、前記人物の印象度として、前記少なくとも1つの印象を複数段階で評価する、請求項6に記載の印象度推定方法。
- 画像データに写された人物の印象度を推定する印象度推定装置であって、
前記画像データから顔画像を抽出するデータ取得手段と、
前記顔画像から顔特徴ベクトルを算出する特徴ベクトル算出手段と、
二標本間の印象度の大小関係を複数クラスのランキング最小二乗確率的識別器によりモデル化し、前記顔画像ベクトルを説明変数とするテストデータと学習データから既に得られた複数個の比較用基底データとを前記複数クラスのランキング最小二乗確率的識別器によって順次比較することよって得られる各クラスの確信度を元にスコアリングして、前記人物の印象度を推定する順序推定手段と、
を含む印象度推定装置。 - 前記複数個の比較用基底データの各々は、顔画像の特徴量である比較用説明変数と該比較用説明変数に対応する印象度の大小を数値化した既知の比較用目的変数とから成る学習データであり、
前記テストデータは、前記顔特徴ベクトルのテスト用説明変数と該テスト用説明変数に対応する未知のテスト用目的変数とから成り、
前記順序推定手段は、
前記テストデータと前記複数個の比較用基底データとを前記複数クラスのランキング最小二乗確率的識別器を用いて順次に比較して、前記テストデータのテスト用説明変数と各比較用基底データの比較用説明変数の差分に対して、前記テストデータのテスト用目的変数と各比較用基底データの比較用目的変数の差を、大小の度合いに応じて複数のクラスにクラス分けして、前記各クラスの確信度を得る大小比較判定部と、
該各クラスの確信度を前記比較用基底データ毎にスコア処理してスコアを得るスコア化処理部と、
前記比較用基底データ毎に算出したスコアを全て加算して、算出した合計スコアが最大となる箇所を、前記人物の印象度と推定するスコア合計処理部と、
を有する、請求項8に記載の印象度推定装置。 - 前記複数個の比較用基底データは、前記複数クラスのランキング最小二乗確率的識別器のモデル学習段階で既に得られたものである、請求項9に記載の印象度推定装置。
- 前記複数クラスのランキング最小二乗確率的識別器は、2クラスのランキング最小二乗確率的識別器から成る、請求項8乃至10のいずれか1項に記載の印象度推定装置。
- 前記複数クラスのランキング最小二乗確率的識別器は、3クラス以上のランキング最小二乗確率的識別器から成る、請求項8乃至10のいずれか1項に記載の印象度推定装置。
- 前記人物の印象度は、「明るくさわやか」、「かわいらしい」、「ビジネス的」、「やさしい」、および「健康的」を含む印象から選択された少なくとも1つの印象の度合いを表す、請求項8乃至12のいずれか1項に記載の印象度推定装置。
- 前記順序推定手段は、前記人物の印象度として、前記少なくとも1つの印象を複数段階で評価する、請求項13に記載の印象度推定装置。
- コンピュータに、画像データに写された人物の印象度を推定させる印象度推定プログラムであって、前記コンピュータに、
前記画像データから顔画像を抽出する抽出手順と、
前記顔画像から顔特徴ベクトルを算出する算出手順と、
二標本間の印象度の大小関係を複数クラスのランキング最小二乗確率的識別器によりモデル化し、前記顔画像ベクトルを説明変数とするテストデータと学習データから既に得られた複数個の比較用基底データとを前記複数クラスのランキング最小二乗確率的識別器によって順次比較することよって得られる各クラスの確信度を元にスコアリングして、前記人物の印象度を推定する推定手順と、
を実行させる印象度推定プログラム。 - 前記複数個の比較用基底データの各々は、顔画像の特徴量である比較用説明変数と該比較用説明変数に対応する印象度の大小を数値化した既知の比較用目的変数とから成る学習データであり、
前記テストデータは、前記顔特徴ベクトルのテスト用説明変数と該テスト用説明変数に対応する未知のテスト用目的変数とから成り、
前記推定手順は、前記コンピュータに、
前記テストデータと前記複数個の比較用基底データとを前記複数クラスのランキング最小二乗確率的識別器を用いて順次に比較して、前記テストデータのテスト用説明変数と各比較用基底データの比較用説明変数の差分に対して、前記テストデータのテスト用目的変数と各比較用基底データの比較用目的変数の差を、大小の度合いに応じて複数のクラスにクラス分けして、前記各クラスの確信度を得る手順と、
該各クラスの確信度を前記比較用基底データ毎にスコア処理してスコアを得る手順と、
前記比較用基底データ毎に算出したスコアを全て加算して、算出した合計スコアが最大となる箇所を、前記人物の印象度と推定する手順と、
を実行させる、請求項15に記載の印象度推定プログラム。 - 前記複数個の比較用基底データは、前記複数クラスのランキング最小二乗確率的識別器のモデル学習段階で既に得られたものである、請求項16に記載の印象度推定プログラム。
- 前記複数クラスのランキング最小二乗確率的識別器は、2クラスのランキング最小二乗確率的識別器から成る、請求項15乃至17のいずれか1項に記載の印象度推定プログラム。
- 前記複数クラスのランキング最小二乗確率的識別器は、3クラス以上のランキング最小二乗確率的識別器から成る、請求項15乃至17のいずれか1項に記載の印象度推定プログラム。
- 前記人物の印象度は、「明るくさわやか」、「かわいらしい」、「ビジネス的」、「やさしい」、および「健康的」を含む印象から選択された少なくとも1つの印象の度合いを表す、請求項15乃至19のいずれか1項に記載の印象度推定プログラム。
- 前記推定手順は、前記コンピュータに、前記人物の印象度として、前記少なくとも1つの印象を複数段階で評価させる、請求項20に記載の印象度推定プログラム。
- 画像データに写された人物の印象度を、印象度推定装置を用いて推定する印象度推定方法であって、
前記画像データから顔画像を抽出する抽出工程と、
前記顔画像をニューラルネットワークに入力して得られる連続量である推定印象度をスコアリングすることによって第1の印象度スコアを推定すると共に、前記顔画像を前記ニューラルネットワークに入力して該ニューラルネットワークの中間層から得られる中間層データを顔特徴ベクトルとして出力する第1の推定工程と、
前記顔特徴ベクトルを最小二乗確率的識別器に入力して得られる離散量である各クラスの確信度をスコアリングすることによって第2の印象度スコアを推定する第2の推定工程と、
二標本間の印象度の大小関係を複数クラスのランキング最小二乗確率的識別器によりモデル化し、前記顔画像ベクトルを説明変数とするテストデータと学習データから既に得られた複数個の比較用基底データとを前記複数クラスのランキング最小二乗確率的識別器によって順次比較することよって得られる各クラスの確信度を元にスコアリングすることによって第3の印象度スコアを推定する第3の推定工程と、
前記第1乃至第3の印象度スコアを重み付きで統合して、前記人物の印象度を推定する統合工程と、
を含む印象度推定方法。 - 画像データに写された人物の印象度を推定する印象度推定装置であって、
前記画像データから顔画像を抽出するデータ取得手段と、
前記顔画像をニューラルネットワークに入力して得られる連続量である推定印象度をスコアリングすることによって第1の印象度スコアを推定すると共に、前記顔画像を前記ニューラルネットワークに入力して該ニューラルネットワークの中間層から得られる中間層データを顔特徴ベクトルとして出力する連続量推定手段と、
前記顔特徴ベクトルを最小二乗確率的識別器に入力して得られる離散量である各クラスの確信度をスコアリングすることによって第2の印象度スコアを推定する離散量推定手段と、
二標本間の印象度の大小関係を複数クラスのランキング最小二乗確率的識別器によりモデル化し、前記顔画像ベクトルを説明変数とするテストデータと学習データから既に得られた複数個の比較用基底データとを前記複数クラスのランキング最小二乗確率的識別器によって順次比較することよって得られる各クラスの確信度を元にスコアリングすることによって第3の印象度スコアを推定する順序推定手段と、
前記第1乃至第3の印象度スコアを重み付きで統合して、前記人物の印象度を推定する統合手段と、
を含む印象度推定装置。 - コンピュータに、画像データに写された人物の印象度を推定させる印象度推定プログラムであって、前記コンピュータに、
前記画像データから顔画像を抽出する抽出手順と、
前記顔画像をニューラルネットワークに入力して得られる連続量である推定印象度をスコアリングすることによって第1の印象度スコアを推定すると共に、前記顔画像を前記ニューラルネットワークに入力して該ニューラルネットワークの中間層から得られる中間層データを顔特徴ベクトルとして出力する第1の推定手順と、
前記顔特徴ベクトルを最小二乗確率的識別器に入力して得られる離散量である各クラスの確信度をスコアリングすることによって第2の印象度スコアを推定する第2の推定手順と、
二標本間の印象度の大小関係を複数クラスのランキング最小二乗確率的識別器によりモデル化し、前記顔画像ベクトルを説明変数とするテストデータと学習データから既に得られた複数個の比較用基底データとを前記複数クラスのランキング最小二乗確率的識別器によって順次比較することよって得られる各クラスの確信度を元にスコアリングすることによって第3の印象度スコアを推定する第3の推定手順と、
前記第1乃至第3の印象度スコアを重み付きで統合して、前記人物の印象度を推定する統合手順と、
を実行させる印象度推定プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013149123 | 2013-07-18 | ||
JP2013149123 | 2013-07-18 | ||
PCT/JP2014/065823 WO2015008567A1 (ja) | 2013-07-18 | 2014-06-10 | 顔印象度推定方法、装置、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6029041B2 true JP6029041B2 (ja) | 2016-11-24 |
JPWO2015008567A1 JPWO2015008567A1 (ja) | 2017-03-02 |
Family
ID=52346040
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015527224A Active JP6029041B2 (ja) | 2013-07-18 | 2014-06-10 | 顔印象度推定方法、装置、及びプログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6029041B2 (ja) |
WO (1) | WO2015008567A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019154923A (ja) * | 2018-03-15 | 2019-09-19 | サンスター株式会社 | フェイシャルエステ提供方法 |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6318765B2 (ja) * | 2014-03-27 | 2018-05-09 | 富士通株式会社 | 情報処理装置、評価器の構築方法、及びプログラム |
US10398389B1 (en) * | 2016-04-11 | 2019-09-03 | Pricewaterhousecoopers Llp | System and method for physiological health simulation |
JP6692271B2 (ja) * | 2016-09-28 | 2020-05-13 | 日本電信電話株式会社 | マルチタスク処理装置、マルチタスクモデル学習装置、及びプログラム |
JP6798614B2 (ja) * | 2017-05-12 | 2020-12-09 | 日本電気株式会社 | 画像認識装置、画像認識方法および画像認識プログラム |
EP3671566A4 (en) * | 2017-08-16 | 2020-08-19 | Sony Corporation | PROGRAM, INFORMATION PROCESSING METHOD AND INFORMATION PROCESSING DEVICE |
JP7223775B2 (ja) * | 2018-05-18 | 2023-02-16 | ジェネシス クラウド サービシーズ ホールディングス セカンド エルエルシー | 自動音声認識システムにおける信頼モデリングのためのマルチクラスアプローチのためのシステム及び方法 |
WO2021019748A1 (ja) * | 2019-07-31 | 2021-02-04 | 富士通株式会社 | 分類方法、分類プログラム、分類装置、学習方法、学習プログラム及び学習装置 |
JP7322965B2 (ja) * | 2019-10-28 | 2023-08-08 | 富士通株式会社 | 学習方法、学習プログラム、および学習装置 |
JP7525150B2 (ja) | 2020-09-11 | 2024-07-30 | 日本メナード化粧品株式会社 | 印象推定装置、印象推定方法および印象推定プログラム |
CN113313007B (zh) * | 2021-05-26 | 2022-10-14 | 每日互动股份有限公司 | 一种基于视频的行人静止状态识别方法、电子设备及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012077476A1 (ja) * | 2010-12-08 | 2012-06-14 | Necソフト株式会社 | 属性値推定装置、属性値推定方法、プログラム及び記録媒体 |
-
2014
- 2014-06-10 JP JP2015527224A patent/JP6029041B2/ja active Active
- 2014-06-10 WO PCT/JP2014/065823 patent/WO2015008567A1/ja active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012077476A1 (ja) * | 2010-12-08 | 2012-06-14 | Necソフト株式会社 | 属性値推定装置、属性値推定方法、プログラム及び記録媒体 |
Non-Patent Citations (4)
Title |
---|
JPN6014028576; 大網 亮磨、外5名: '"監視カメラ映像に基づく人物行動・属性の抽出とその応用"' 電子情報通信学会誌 Vol.95, No.5, 20120501, pp.452-456, 一般社団法人電子情報通信学会 * |
JPN6014028579; Jaak Simm et al.: '"Computationally Efficient Multi-task Learning with Least-squares Probabilistic Classifiers"' IPSJ Transactions on Computer Vision and Applications Vol.3, 20110222, pp.1-8, The Information Processing Society of Japan * |
JPN7014002054; Masashi SUGIYAMA: '"Superfast-Trainable Multi-Class Probabilistic Classifier by Least-Squares Posterior Fitting"' IEICE TRANSACTIONS on Information and Systems Vol.E93-D, No.10, 20101001, pp.2690-2701, The Institute of Electronics, Information and Comm * |
JPN7014002055; Tsubasa KOBAYASHI, Masashi SUGIYAMA: '"Early Stopping Heuristics in Pool-Based Incremental Active Learning for Least-Squares Probabilistic' IEICE TRANSACTIONS on Information and Systems Vol.E95-D, No.8, 20120801, pp.2065-2073, The Institute of Electronics, Informatioǹ * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019154923A (ja) * | 2018-03-15 | 2019-09-19 | サンスター株式会社 | フェイシャルエステ提供方法 |
JP7207857B2 (ja) | 2018-03-15 | 2023-01-18 | サンスター株式会社 | フェイシャルエステ提供方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2015008567A1 (ja) | 2015-01-22 |
JPWO2015008567A1 (ja) | 2017-03-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6029041B2 (ja) | 顔印象度推定方法、装置、及びプログラム | |
TWI677852B (zh) | 一種圖像特徵獲取方法及裝置、電子設備、電腦可讀存儲介質 | |
Guo et al. | A probabilistic fusion approach to human age prediction | |
Zhang et al. | Quantifying facial age by posterior of age comparisons | |
CN110362677B (zh) | 文本数据类别的识别方法及装置、存储介质、计算机设备 | |
Vieira et al. | Detecting siblings in image pairs | |
JP6270182B2 (ja) | 属性要因分析方法、装置、およびプログラム | |
US20190138852A1 (en) | Information processing apparatus, information processing method, and storage medium for generating teacher information | |
Hewahi et al. | Age estimation based on neural networks using face features | |
KR101835333B1 (ko) | 얼굴 인식 서비스 제공 방법 | |
WO2019205729A1 (zh) | 用于识别物体的方法、设备和计算机可读存储介质 | |
JP6041217B2 (ja) | 画像評価装置、画像評価方法、プログラム、集積回路 | |
Singla et al. | Discovery of social relationships in consumer photo collections using markov logic | |
CN111382410B (zh) | 刷脸验证方法及系统 | |
Xu | Mt-resnet: a multi-task deep network for facial attractiveness prediction | |
CN116501978A (zh) | 基于隐私保护机器遗忘算法的推荐模型生成方法及装置 | |
Villegas-Cortez et al. | Interest points reduction using evolutionary algorithms and CBIR for face recognition | |
Huang et al. | Age-puzzle facenet for cross-age face recognition | |
CN106528584A (zh) | 一种基于组合学习的群组推荐方法 | |
Huang et al. | Optimisation of automatic face annotation system used within a collaborative framework for online social networks | |
Li et al. | Eyebrow semantic description via clustering based on Axiomatic Fuzzy Set | |
US11153292B2 (en) | Authentication apparatus and method for clustering and authenticating users | |
Upadhyay et al. | Face Recognition Using EfficientNet | |
JP2017021606A (ja) | 動画像検索方法、動画像検索装置及びそのプログラム | |
JP6982675B1 (ja) | 情報処理装置、情報処理方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160914 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161006 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6029041 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |