JP2013228847A - Facial expression analyzing device and facial expression analyzing program - Google Patents
Facial expression analyzing device and facial expression analyzing program Download PDFInfo
- Publication number
- JP2013228847A JP2013228847A JP2012099904A JP2012099904A JP2013228847A JP 2013228847 A JP2013228847 A JP 2013228847A JP 2012099904 A JP2012099904 A JP 2012099904A JP 2012099904 A JP2012099904 A JP 2012099904A JP 2013228847 A JP2013228847 A JP 2013228847A
- Authority
- JP
- Japan
- Prior art keywords
- facial expression
- image feature
- analysis
- facial
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000008921 facial expression Effects 0.000 title claims abstract description 610
- 238000004458 analytical method Methods 0.000 claims abstract description 182
- 238000011156 evaluation Methods 0.000 claims abstract description 93
- 239000013598 vector Substances 0.000 claims abstract description 92
- 230000001815 facial effect Effects 0.000 claims abstract description 38
- 230000007935 neutral effect Effects 0.000 claims abstract description 32
- 238000000605 extraction Methods 0.000 claims abstract description 19
- 239000000284 extract Substances 0.000 claims abstract description 10
- 238000010195 expression analysis Methods 0.000 claims description 108
- 238000000034 method Methods 0.000 claims description 36
- 238000004364 calculation method Methods 0.000 claims description 34
- 230000008569 process Effects 0.000 claims description 29
- 238000007621 cluster analysis Methods 0.000 claims description 19
- 238000012706 support-vector machine Methods 0.000 claims description 18
- 238000012545 processing Methods 0.000 abstract description 17
- 238000010801 machine learning Methods 0.000 description 115
- 238000001514 detection method Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 16
- 238000012986 modification Methods 0.000 description 8
- 230000004048 modification Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 230000014509 gene expression Effects 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 206010063659 Aversion Diseases 0.000 description 1
- 101100477520 Homo sapiens SHOX gene Proteins 0.000 description 1
- 102000048489 Short Stature Homeobox Human genes 0.000 description 1
- 108700025071 Short Stature Homeobox Proteins 0.000 description 1
- 241000405217 Viola <butterfly> Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、顔表情解析装置および顔表情解析プログラムに関する。 The present invention relates to a facial expression analysis apparatus and a facial expression analysis program.
人物の顔画像が含まれる画像データを解析し、顔表情を6種類(Anger;怒り、Disgust;嫌悪、Fear;恐れ、Happiness;喜び、Sadness;悲しみ、Surprise;驚き)に分類する技術が知られている(例えば、非特許文献1参照)。 A technique for analyzing image data including human face images and classifying facial expressions into six types (Anger; anger, Disgust; aversion, Fear; fear, Happiness; joy, Sadness; sadness, Surprise) is known. (For example, refer nonpatent literature 1).
しかしながら、従来技術では、無表情な顔つきから表情の種類を判別困難な程度の顔つきまでを示す中立的な顔表情(ニュートラル顔表情)を分類することが困難であった。
そこで、本発明は、上記の問題を解決するためになされたものであり、中立的な顔表情の分類を容易にするとともに、顔表情分類の精度を高めることができる、顔表情解析装置および顔表情解析プログラムを提供することを目的とする。
However, with the conventional technology, it has been difficult to classify neutral facial expressions (neutral facial expressions) that show a range from an expressionless face to a face whose degree of expression is difficult to distinguish.
Therefore, the present invention has been made to solve the above-described problems, and facilitates the classification of neutral facial expressions, and can improve the accuracy of facial expression classification and a facial expression analysis apparatus and face The purpose is to provide a facial expression analysis program.
[1]上記の課題を解決するため、本発明の一態様である顔表情解析装置は、画像データを取り込む画像データ取得部と、前記画像データ取得部が取り込んだ前記画像データから顔の解析領域を抽出する顔領域抽出部と、前記顔領域抽出部が抽出した前記解析領域の画像特徴量を計算する画像特徴量計算部と、前記画像特徴量計算部が計算した前記画像特徴量に対し第1のクラスタ分類処理を実行して第1の顔画像特徴ベクトルを生成し、顔画像特徴ベクトル空間においてあらかじめ決定された第1の境界面から前記第1の顔画像特徴ベクトルまでの距離である顔表情強度値を計算する顔表情強度評価部と、前記画像特徴量に対し第2のクラスタ分類処理を実行して第2の顔画像特徴ベクトルを生成し、顔画像特徴ベクトル空間においてあらかじめ決定された第2の境界面に対する前記第2の顔画像特徴ベクトルの位置関係と前記顔表情強度評価部が計算した前記顔表情強度値とに基づき、前記解析領域に対応する顔表情種別を示す顔表情種別情報を生成する顔表情評価部と、を備えることを特徴とする。 [1] In order to solve the above-described problem, a facial expression analysis apparatus according to an aspect of the present invention includes an image data acquisition unit that captures image data, and a face analysis region from the image data captured by the image data acquisition unit. A face area extracting unit for extracting the image area, an image feature amount calculating unit for calculating an image feature amount of the analysis area extracted by the face area extracting unit, and an image feature amount calculated by the image feature amount calculating unit. The first face image feature vector is generated by performing one cluster classification process, and the face is a distance from the first boundary surface determined in advance in the face image feature vector space to the first face image feature vector A facial expression strength evaluation unit that calculates a facial expression strength value, and a second cluster classification process is performed on the image feature amount to generate a second facial image feature vector. The facial expression type corresponding to the analysis region based on the positional relationship of the second facial image feature vector with respect to the second boundary surface determined in advance and the facial expression strength value calculated by the facial expression strength evaluation unit And a facial expression evaluation unit for generating facial expression type information indicating.
[2]上記[1]記載の顔表情解析装置において、前記顔表情評価部は、前記顔表情強度値に基づいて、前記解析領域に対応する顔表情種別がニュートラル顔表情であるか否かを判定し、前記顔表情種別が前記ニュートラル顔表情でないと判定した場合、前記第2の境界面に対する前記第2の顔画像特徴ベクトルの位置関係に基づいて前記顔表情種別情報を生成することを特徴とする。
[3]上記[1]または[2]記載の顔表情解析装置において、前記顔表情強度評価部は、前記顔表情評価部が生成した前記顔表情種別情報に対応する境界面から前記第1の顔画像特徴ベクトルまでの距離である前記顔表情強度値を計算することを特徴とする。
[4]上記[1]から[3]いずれか一項記載の顔表情解析装置において、前記第1の境界面は、顔表情の種類別に、顔表情の度合がそれぞれ異なる顔表情教師データの集合に前記顔表情の種類を示すラベルを対応付けて構成した顔表情教師データ群から取得した複数の顔表情教師データそれぞれの解析領域について画像特徴量を計算し、前記複数の顔表情教師データ分の画像特徴量をクラスタ分析し、前記顔表情の種類ごとの集合における前記顔表情の度合が最小および最大である顔表情教師データそれぞれに対応する画像特徴量を、前記クラスタ分析の結果であるクラスタに分類することによって得られる顔画像特徴ベクトルを適用したサポートベクトルマシンにより計算されることを特徴とする。
[5]上記[4]記載の顔表情解析装置において、前記第2の境界面は、前記複数の顔表情教師データの全てまたは一部の顔表情教師データそれぞれに対応する画像特徴量を、前記クラスタに分類することによって得られる顔画像特徴ベクトルを適用したサポートベクトルマシンにより計算されることを特徴とする。
[6]上記[1]から[5]いずれか一項記載の顔表情解析装置において、前記顔領域抽出部は、前記解析領域を複数の解析部分領域に分割し、前記画像特徴量計算部は、前記複数の解析部分領域それぞれの画像特徴量を計算し、前記顔表情強度評価部は、前記複数の解析部分領域それぞれの画像特徴量に対して前記第1のクラスタ分類処理を実行し、各分類結果を連結することによって前記第1の顔画像特徴ベクトルを生成し、前記顔表情評価部は、前記複数の解析部分領域それぞれの画像特徴量に対して前記第2のクラスタ分類処理を実行し、各分類結果を連結することによって前記第2の顔画像特徴ベクトルを生成することを特徴とする。
[7]上記[1]から[6]いずれか一項記載の顔表情解析装置において、前記顔表情評価部は、複数フレーム分の画像データを含む所定区間ごとに、顔表情種別ごとの顔表情強度値の総和を計算し、総和値が最大となる顔表情種別を示す顔表情種別情報を生成することを特徴とする。
[8]上記[7]記載の顔表情解析装置において、前記顔表情評価部は、前記複数フレームよりも少ないフレーム数おきに、前記所定区間を前記フレーム数分ずらすことを特徴とする。
[2] In the facial expression analysis apparatus according to [1], the facial expression evaluation unit determines whether the facial expression type corresponding to the analysis region is a neutral facial expression based on the facial expression strength value. And determining that the facial expression type information is generated based on a positional relationship of the second facial image feature vector with respect to the second boundary surface when it is determined that the facial expression type is not the neutral facial expression. And
[3] In the facial expression analysis apparatus according to [1] or [2], the facial expression strength evaluation unit includes the first expression from a boundary surface corresponding to the facial expression type information generated by the facial expression evaluation unit. The facial expression intensity value, which is a distance to a face image feature vector, is calculated.
[4] In the facial expression analysis apparatus according to any one of [1] to [3], the first boundary surface includes a set of facial expression teacher data having different degrees of facial expression for each type of facial expression. Image feature amount is calculated for each analysis region of a plurality of facial expression teacher data acquired from a facial expression teacher data group configured by associating a label indicating the type of facial expression with Cluster analysis is performed on the image feature amount, and the image feature amount corresponding to each facial expression teacher data in which the degree of the facial expression in the set for each type of facial expression is minimum and maximum is obtained as a cluster as a result of the cluster analysis. It is calculated by a support vector machine to which a face image feature vector obtained by classification is applied.
[5] In the facial expression analysis apparatus according to [4], the second boundary surface includes image feature amounts corresponding to all or a part of the facial expression teacher data of the plurality of facial expression teacher data. It is calculated by a support vector machine to which face image feature vectors obtained by classifying into clusters are applied.
[6] In the facial expression analysis apparatus according to any one of [1] to [5], the face region extraction unit divides the analysis region into a plurality of analysis partial regions, and the image feature amount calculation unit includes: Calculating the image feature amount of each of the plurality of analysis partial regions, and the facial expression strength evaluation unit executes the first cluster classification processing on the image feature amount of each of the plurality of analysis partial regions, The first facial image feature vector is generated by concatenating the classification results, and the facial expression evaluation unit executes the second cluster classification process on the image feature amount of each of the plurality of analysis partial regions. The second face image feature vector is generated by concatenating each classification result.
[7] The facial expression analysis apparatus according to any one of [1] to [6], wherein the facial expression evaluation unit performs facial expression for each facial expression type for each predetermined section including image data for a plurality of frames. The sum of the intensity values is calculated, and facial expression type information indicating the facial expression type with the maximum total value is generated.
[8] The facial expression analysis apparatus according to [7], wherein the facial expression evaluation unit shifts the predetermined interval by the number of frames every frame number smaller than the plurality of frames.
[9]上記の課題を解決するため、本発明の一態様である顔表情解析プログラムは、コンピュータを、画像データを取り込む画像データ取得部と、前記画像データ取得部が取り込んだ前記画像データから解析領域を抽出する顔領域抽出部と、前記顔領域抽出部が抽出した前記解析領域の画像特徴量を計算する画像特徴量計算部と、前記画像特徴量計算部が計算した前記画像特徴量に対し第1のクラスタ分類処理を実行して第1の顔画像特徴ベクトルを生成し、顔画像特徴ベクトル空間においてあらかじめ決定された第1の境界面から前記第1の顔画像特徴ベクトルまでの距離である顔表情強度値を計算する顔表情強度評価部と、前記画像特徴量に対し第2のクラスタ分類処理を実行して第2の顔画像特徴ベクトルを生成し、顔画像特徴ベクトル空間においてあらかじめ決定された第2の境界面に対する前記第2の顔画像特徴ベクトルの位置関係と前記顔表情強度評価部が計算した前記顔表情強度値とに基づき、前記解析領域に対応する顔表情種別を示す顔表情種別情報を生成する顔表情評価部と、として機能させる。 [9] In order to solve the above-described problem, a facial expression analysis program according to an aspect of the present invention analyzes a computer from an image data acquisition unit that acquires image data and the image data acquired by the image data acquisition unit. A face area extracting unit for extracting an area, an image feature amount calculating unit for calculating an image feature amount of the analysis area extracted by the face area extracting unit, and the image feature amount calculated by the image feature amount calculating unit. The first face image feature vector is generated by executing the first cluster classification process, and is the distance from the first boundary surface determined in advance in the face image feature vector space to the first face image feature vector. A facial expression strength evaluation unit for calculating a facial expression strength value; and a second cluster classification process is performed on the image feature amount to generate a second facial image feature vector, and a facial image feature vector A facial expression corresponding to the analysis region based on a positional relationship of the second facial image feature vector with respect to a second boundary surface determined in advance in space and the facial expression strength value calculated by the facial expression strength evaluation unit It functions as a facial expression evaluation unit that generates facial expression type information indicating the type.
本発明によれば、中立的な顔表情の分類を容易にするとともに、顔表情分類の精度を高めることができる。 According to the present invention, neutral facial expression classification can be facilitated and the accuracy of facial expression classification can be increased.
以下、本発明を実施するための形態について、図面を参照して詳細に説明する。
[第1の実施の形態]
図1は、本発明の第1実施形態である顔表情解析装置の機能構成を示すブロック図である。同図に示すように、顔表情解析装置1は、画像データ取得部10と、顔領域抽出部20と、画像特徴量分析部(画像特徴量計算部)30と、顔表情強度評価部40と、顔表情評価部50と、モード切替部60とを備える。
Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings.
[First Embodiment]
FIG. 1 is a block diagram showing a functional configuration of a facial expression analysis apparatus according to the first embodiment of the present invention. As shown in the figure, the facial expression analysis apparatus 1 includes an image
顔表情解析装置1は、顔表情解析処理を実行することにより、取り込んだ画像データに含まれる人物顔の顔表情強度値を計算してこの顔表情強度値を出力するとともに、その人物顔の顔表情を分類して顔表情種別情報を生成し、この顔表情種別情報を出力する。顔表情強度値は、ニュートラル顔表情からピーク顔表情までの顔表情の度合を強度として示す数値である。ニュートラル顔表情は、人物の中立的な顔表情であり、例えば、人物の無表情な顔つきから表情の種類を判別困難な程度の顔つきまでを示す表情である。つまり、ニュートラル顔表情には、顔表情の幅がある。ピーク顔表情は、人物の感情を豊かに表現した顔表情であり、例えば、怒り、嫌悪、恐れ、喜び、悲しみ、驚き等の感情を強く表現した顔つきを示す。 The facial expression analysis apparatus 1 executes a facial expression analysis process to calculate a facial expression intensity value of a human face included in the captured image data and output the facial expression intensity value. The facial expression classification information is generated by classifying the facial expressions, and the facial expression classification information is output. The facial expression intensity value is a numerical value indicating the degree of facial expression from a neutral facial expression to a peak facial expression as an intensity. The neutral facial expression is a neutral facial expression of a person, for example, a facial expression ranging from a person's expressionless face to a face whose degree of expression is difficult to distinguish. In other words, the neutral facial expression has a range of facial expressions. The peak facial expression is a facial expression that expresses a person's emotions abundantly, and indicates a facial expression that strongly expresses emotions such as anger, disgust, fear, joy, sadness, and surprise.
顔表情解析装置1は、顔表情解析処理の前処理として機械学習処理を実行する。顔表情解析装置1は、機械学習処理を実行することにより、外部の顔表情教師データベースから複数の顔表情教師データを取り込み、これら複数の顔表情教師データを用いて、顔表情強度値を計算するための分類器、および顔表情を分類するための分類器それぞれの機械学習を行う。顔表情教師データベースは、顔表情の種類別に、顔表情の度合がそれぞれ異なる顔表情教師データの集合に、当該顔表情の種類を示すラベルを対応付けて構成した顔表情教師データ群を格納したデータベースである。分類器は、例えば、サポートベクトルマシン(Support Vector Machine;SVM)により実現される。このサポートベクトルマシンについては、例えば、C. Cortes, and V. Vapnik: "Support-Vector Networks", Machine Learning, Vol. 20, No. 3, pp. 273-297, 1995に開示されている。 The facial expression analysis apparatus 1 executes machine learning processing as preprocessing of facial expression analysis processing. The facial expression analysis apparatus 1 executes a machine learning process to capture a plurality of facial expression teacher data from an external facial expression teacher database and calculate a facial expression intensity value using the plurality of facial expression teacher data. Machine learning for a classifier for classifying and a classifier for classifying facial expressions. The facial expression teacher database stores a facial expression teacher data group configured by associating a set of facial expression teacher data with different degrees of facial expression for each type of facial expression with a label indicating the type of facial expression. It is. The classifier is realized by, for example, a support vector machine (SVM). This support vector machine is disclosed in, for example, C. Cortes, and V. Vapnik: “Support-Vector Networks”, Machine Learning, Vol. 20, No. 3, pp. 273-297, 1995.
図1において、モード切替部60は、例えば、顔表情解析装置1がプログラムを実行することにより実現される切替制御により、顔表情解析装置1を機械学習モードから顔表情解析モード、または顔表情解析モードから機械学習モードに切り替える。または、モード切替部60は、いずれのモードにも設定されていない状態(初期状態)から、機械学習モードまたは顔表情解析モードに設定する。機械学習モードは、顔表情解析装置1が機械学習処理を実行する動作モードである。また、顔表情解析モードは、顔表情解析装置1が顔解析処理を実行する動作モードである。
なお、モード切替部60は、例えば、操作者による顔表情解析装置1の切替操作にしたがって、機械学習モードと顔表情解析モードとを切り替えてもよい。
In FIG. 1, the
Note that the
画像データ取得部10は、図示しない外部装置が供給する画像データを取り込む。具体的に、顔表情解析装置1が機械学習モードに設定されているとき、画像データ取得部10は、顔表情教師データベースから複数の顔表情教師データを取り込む。また、顔表情解析装置1が顔表情解析モードに設定されているとき、画像データ取得部10は、例えば、撮影装置または記録装置が供給する評価画像データを取り込む。
The image
画像データ(顔表情教師データ、評価画像データ)は、静止画像データまたは動画像データである。画像データが静止画像データである場合、画像データ取得部10は、取り込んだ静止画像データを顔領域抽出部20に供給する。また、画像データが動画像データである場合、画像データ取得部10は、取り込んだ動画像データからキーフレームを検出し、このキーフレームを画像データとして、順次またはあらかじめ決定された所定フレーム数おきに顔領域抽出部20に供給する。
Image data (facial expression teacher data, evaluation image data) is still image data or moving image data. When the image data is still image data, the image
顔領域抽出部20は、画像データ取得部10が供給する画像データを取り込み、この画像データから人物顔の解析領域を抽出する。
顔領域抽出部20は、その機能構成として、顔領域検出部21と、解析領域決定部22とを備える。
The face
The face
顔領域検出部21は、取り込んだ画像データに対して顔検出処理を実行し、その画像データから人物の顔領域を検出する。この顔領域のデータ(顔領域データ)は、人物顔を含む、例えば矩形の画像データである。顔領域検出部21が実行する顔検出処理のアルゴリズムとして、公知の顔検出アルゴリズム、例えばAdaBoostが適用できる。
なお、公知の顔検出アルゴリズムについては、例えば、PAUL VIOLA, MICHAEL J. JONES, "Robust Real-Time Face Detection", International Journal of Computer Vision, 2004, Vol. 57, No. 2, pp. 137-154に、詳細が開示されている。
The face
Known face detection algorithms include, for example, PAUL VIOLA, MICHAEL J. JONES, “Robust Real-Time Face Detection”, International Journal of Computer Vision, 2004, Vol. 57, No. 2, pp. 137-154. Details are disclosed.
解析領域決定部22は、顔領域検出部21が検出した顔領域データを所定画素サイズに正規化する。そして、解析領域決定部22は、正規化した顔領域データ(正規化顔領域データ)から解析領域を抽出する。具体的に、解析領域決定部22は、顔領域データを所定画素サイズ(例えば、水平方向128画素×垂直方向128画素)の正規化顔領域データに正規化する。すなわち、解析領域決定部22は、顔領域データを上記所定画素サイズの矩形画像に拡大させたり、縮小させたりする画像処理を実行して正規化顔領域データを生成する。つまり、画像データに含まれる人物顔の大きさは画像データによって様々であるため、解析領域決定部22は、顔領域を拡大または縮小させて、全ての画像データにおける顔領域の解像度を同程度にする。これにより、解像度が異なる顔領域データの情報量を略均等(均等を含む)にすることができる。
The analysis
解析領域決定部22は、正規化顔領域データから、画像特徴量を計算するための解析領域を決定し、この解析領域のデータ(解析領域データ)を抽出する。解析領域は、例えば、正規化顔領域の中心位置を中心に設けられる、この正規化顔領域に含まれる円(楕円または真円)領域である。解析領域決定部22は、例えば、正規化顔領域の水平方向であって且つその中心を通る直線で解析領域を二分し、その上部の領域を上部解析領域(第1の解析部分領域)、下部の領域を下部解析領域(第2の解析部分領域)として決定する。言い換えると、解析領域決定部22は、正規化顔領域に内接する円形または楕円形よりも小さな円形または楕円形の解析領域を上下(縦)方向に二分して上部解析領域および下部解析領域を決定する。つまり、解析領域決定部22は、解析領域を二つの解析部分領域に分割する。
The analysis
画像特徴量分析部30は、顔領域抽出部20が抽出した解析領域データの局所特徴量である画像特徴量を計算する。例えば、画像特徴量分析部30は、解析領域決定部22が決定した解析領域における上部解析領域および下部解析領域それぞれのデータについて、SURF(Speeded Up Robust Features)特徴量を計算する。または、例えば、画像特徴量分析部30は、上部解析領域および下部解析領域それぞれのデータについて、SIFT(Scale Invariant Feature Transformation)特徴量を計算する。そして、画像特徴量分析部30は、計算した二つの解析部分領域それぞれの画像特徴量を、顔表情強度評価部40および顔表情評価部50に供給する。
The image feature
顔表情解析装置1が機械学習モードに設定されているとき、顔表情強度評価部40は、複数の顔表情教師データから得られた各解析領域の画像特徴量を用いて、顔表情強度値を計算するための分類器の機械学習を行う。また、顔表情解析装置1が顔表情解析モードに設定されているとき、顔表情強度評価部40は、評価画像データから得られた解析領域の画像特徴量を用いて、機械学習された分類器により顔表情強度値を計算する。
顔表情強度評価部40は、その機能構成として、機械学習部41と、顔表情強度値計算部42とを備える。
When the facial expression analysis apparatus 1 is set to the machine learning mode, the facial expression
The facial expression
顔表情解析装置1が機械学習モードに設定されているとき、機械学習部41は、画像特徴量分析部30が供給する、複数の顔表情教師データから得られた各解析領域の画像特徴量を取り込む。そして、機械学習部41は、複数の顔表情教師データ分の画像特徴量についてクラスタ分析(クラスタリング)を実行する。クラスタ分析として、例えば、K平均法が適用できる。具体的に、機械学習部41は、上部解析領域について画像特徴量のクラスタ分析を実行し、例えば350個のクラスタを生成する。また、機械学習部41は、下部解析領域について画像特徴量のクラスタ分析を実行し、例えば250個のクラスタを生成する。
When the facial expression analysis apparatus 1 is set to the machine learning mode, the
そして、機械学習部41は、顔表情の種類ごとの顔表情教師データの集合における顔表情の度合が最小および最大である顔表情教師データそれぞれに対応する画像特徴量を、クラスタ分析の結果であるクラスタに分類してヒストグラムを生成(クラスタ分類)することにより、顔画像特徴ベクトルを生成する。度合が最小である顔表情はニュートラル顔表情であり、度合が最大である顔表情はピーク顔表情である。
Then, the
具体的に、機械学習部41は、顔表情の種類ごとの顔表情教師データの集合における顔表情の度合が最小および最大である顔表情教師データの上部解析領域に対応する画像特徴量をクラスタに分類する。そして、機械学習部41は、クラスタを階級とし、各クラスタの要素数を頻度とするヒストグラム(第1のヒストグラム)を生成する。また、機械学習部41は、顔表情の種類ごとの顔表情教師データの集合における顔表情の度合が最小および最大である顔表情教師データの下部解析領域に対応する画像特徴量をクラスタに分類する。そして、機械学習部41は、クラスタを階級とし、各クラスタの要素数を頻度とするヒストグラム(第2のヒストグラム)を生成する。そして、機械学習部41は、分類結果である第1のヒストグラムと第2のヒストグラムとを連結して解析領域全体に対するヒストグラム(全体ヒストグラム)を生成する。例えば、機械学習部41は、第1のヒストグラムに第2のヒストグラムを連結して全体ヒストグラムを生成する。または、機械学習部41は、第2のヒストグラムに第1のヒストグラムを連結して全体ヒストグラムを生成する。そして、機械学習部41は、全体ヒストグラムを正規化することにより顔画像特徴ベクトルを生成する。例えば、機械学習部41は、全体ヒストグラムにおける各階級の頻度を、全階級の頻度の合計値で除算して顔画像特徴ベクトルを生成する。
Specifically, the
機械学習部41は、例えば、サポートベクトルマシンによる機械学習を実行し、顔表情の度合が最小である顔画像と、顔表情の度合が最大である顔画像とを分類する境界面(第1の境界面)を計算し、この境界面のデータを顔表情強度値計算部42に供給する。境界面は、超平面、分離超平面、分離平面等ともいう。顔表情強度値計算部42は、機械学習部41が供給する境界面のデータを取り込み、この境界面のデータを記憶する。
For example, the
機械学習部41が様々な顔表情の顔表情教師データから得られた画像特徴量を用いてクラスタ分析を実行することにより、顔表情の強度の変化に応じた顔画像特徴ベクトルを得ることができ、顔表情強度値の精度を高めることができる。
The
顔表情解析装置1が顔表情解析モードに設定されているとき、顔表情強度値計算部42は、画像特徴量分析部30が供給する、評価画像データから得られた解析領域の画像特徴量を取り込む。そして、顔表情強度値計算部42は、取り込んだ画像特徴量を機械学習部41が実行したクラスタ分析の結果であるクラスタに分類(第1のクラスタ分類処理)して、顔画像特徴ベクトル(第1の顔画像特徴ベクトル)を生成する。そして、顔表情強度値計算部42は、記憶した境界面から顔画像特徴ベクトルまでの距離を計算し、この距離の値を顔表情強度値として出力する。この距離とは、特徴ベクトル空間における、顔画像特徴ベクトルから境界面までのユークリッド距離である。顔表情強度値は、例えば、0(ゼロ)を中心として、負方向に大きくなるほどニュートラル顔表情に近づく一方、正方向に大きくなるほどピーク顔表情に近づく数値である。また、顔表情強度値計算部42は、顔表情強度値を顔表情評価部50に供給する。
When the facial expression analysis device 1 is set to the facial expression analysis mode, the facial expression intensity
顔表情解析装置1が機械学習モードに設定されているとき、顔表情評価部50は、複数の顔表情教師データから得られた各解析領域の画像特徴量を用いて、顔表情を分類するための分類器の機械学習を行う。また、顔表情解析装置1が顔表情解析モードに設定されているとき、顔表情評価部50は、評価画像データから得られた解析領域の画像特徴量と顔表情強度評価部40が供給した顔表情強度値とに基づいて、機械学習された分類器により顔表情を分類して顔表情種別情報を生成する。
顔表情評価部50は、その機能構成として、機械学習部51と、顔表情分類部52とを備える。
When the facial expression analysis apparatus 1 is set to the machine learning mode, the facial
The facial
顔表情解析装置1が機械学習モードに設定されているとき、機械学習部51は、画像特徴量分析部30が供給する、複数の顔表情教師データの全てまたは一部の顔表情教師データから得られた各解析領域の画像特徴量を取り込む。一部の顔表情教師データは、例えば、顔表情の種類ごとの顔表情教師データの集合のうち、顔表情の度合が大きい方の所定割合分の顔表情教師データである。そして、機械学習部51は、これらの画像特徴量を、機械学習部41が実行したクラスタ分析の結果であるクラスタに分類してヒストグラムを生成することにより、顔画像特徴ベクトルを生成する。
When the facial expression analysis apparatus 1 is set to the machine learning mode, the
具体的に、機械学習部51は、複数の顔表情教師データの全てまたは一部の顔表情教師データの上部解析領域に対応する画像特徴量をクラスタに分類する。そして、機械学習部51は、クラスタを階級とし、各クラスタの要素数を頻度とするヒストグラム(第3のヒストグラム)を生成する。また、機械学習部51は、複数の顔表情教師データの全てまたは一部の顔表情教師データの下部解析領域に対応する画像特徴量をクラスタに分類する。そして、機械学習部51は、クラスタを階級とし、各クラスタの要素数を頻度とするヒストグラム(第4のヒストグラム)を生成する。そして、機械学習部51は、分類結果である第3のヒストグラムと第4のヒストグラムとを連結して解析領域全体に対するヒストグラム(全体ヒストグラム)を生成する。例えば、機械学習部51は、第3のヒストグラムに第4のヒストグラムを連結して全体ヒストグラムを生成する。または、機械学習部51は、第4のヒストグラムに第3のヒストグラムを連結して全体ヒストグラムを生成する。そして、機械学習部51は、全体ヒストグラムを正規化することにより顔画像特徴ベクトルを生成する。例えば、機械学習部51は、全体ヒストグラムにおける各階級の頻度を、全階級の頻度の合計値で除算して顔画像特徴ベクトルを生成する。
Specifically, the
機械学習部51は、例えば、サポートベクトルマシンによる機械学習を実行し、顔表情の種類別に顔画像を分類する境界面(第2の境界面)を計算し、この境界面のデータを顔表情分類部52に供給する。サポートベクトルマシンは2クラス分類器であるため、機械学習部51は、顔表情の種類数に応じて2クラス分類を繰り返す。顔表情分類部52は、機械学習部51が供給する境界面のデータを取り込み、この境界面のデータを記憶する。
The
顔表情解析装置1が顔表情解析モードに設定されているとき、顔表情分類部52は、画像特徴量分析部30が供給する、評価画像データから得られた解析領域の画像特徴量を取り込む。また、顔表情分類部52は、顔表情強度値計算部42が供給する顔表情強度値を取り込む。そして、顔表情分類部52は、取り込んだ画像特徴量を機械学習部41が実行したクラスタ分析の結果であるクラスタに分類(第2のクラスタ分類処理)して、顔画像特徴ベクトル(第2の顔画像特徴ベクトル)を生成する。
When the facial expression analysis apparatus 1 is set to the facial expression analysis mode, the facial
そして、顔表情分類部52は、記憶した境界面に対する顔画像特徴ベクトルの位置関係と、顔表情強度値計算部42から取り込んだ顔表情強度値とに基づいて、解析領域に対応する顔表情種別を示す顔表情種別情報を生成し、この顔表情種別情報を出力する。
具体的に、顔表情分類部52は、顔表情強度値とあらかじめ保有する閾値とを比較する。そして、顔表情分類部52は、顔表情強度値が閾値以下である場合、解析領域における顔表情がニュートラル顔表情であると判定し、顔表情強度値が閾値を超える場合、解析領域における顔表情が非ニュートラル顔表情であると判定する。そして、顔表情分類部52は、顔表情種別がニュートラル顔表情であると判定した場合、ニュートラル顔表情を示す情報を含めた顔表情種別情報を生成する。一方、顔表情分類部52は、顔表情種別がニュートラル顔表情でないと判定した場合、各境界面に対する顔画像特徴ベクトルの位置を判定して分類を絞り込むことによって顔表情種別情報を生成する。
Then, the facial
Specifically, the facial
なお、顔表情分類部52は、顔表情の種類別に閾値を保有してもよい。顔表情の種類は、例えば、怒り、嫌悪、恐れ、喜び、悲しみ、驚きである。
The facial
図2は、顔表情解析装置1が機械学習モードに設定されて機械学習処理を実行する際に用いる、顔表情教師データベースのデータ構造の一部分を概念的に示す図である。同図に示すように、顔表情教師データベースは、顔表情の種類別に、ニュートラル顔表情からピーク顔表情まで顔表情の度合がそれぞれ異なる顔表情教師データの集合に、当該顔表情の種類を示すラベルを対応付けて構成した顔表情教師データ群を格納している。顔表情の種類は、例えば、「怒り」、「嫌悪」、「恐れ」、「喜び」、「悲しみ」、および「驚き」の6種類である。 FIG. 2 is a diagram conceptually showing a part of the data structure of the facial expression teacher database used when the facial expression analysis apparatus 1 is set to the machine learning mode and executes the machine learning process. As shown in the figure, the facial expression teacher database has a label indicating the type of facial expression in a set of facial expression teacher data with different degrees of facial expression from neutral facial expressions to peak facial expressions for each type of facial expression. Are stored in association with facial expression teacher data group. There are six types of facial expressions, for example, “anger”, “disgust”, “fear”, “joy”, “sadness”, and “surprise”.
顔表情教師データベースとして、例えば、Patrick Lucey, Jeffrey F. Cohn, Takeo Kanade, Jason Saragih, Zara Ambadar, "The Extended Cohn-Kanade Dataset (CK+): A complete dataset for action unit and emotion-specified expression", the Third IEEE Workshop on CVPR for Human Communicative Behavior Analysis, pp. 94-101, 2010に記載された、Cohn-Kanade Facial Expression Databaseを適用できる。 For example, Patrick Lucey, Jeffrey F. Cohn, Takeo Kanade, Jason Saragih, Zara Ambadar, "The Extended Cohn-Kanade Dataset (CK +): A complete dataset for action unit and emotion-specified expression", the The Cohn-Kanade Facial Expression Database described in Third IEEE Workshop on CVPR for Human Communicative Behavior Analysis, pp. 94-101, 2010 can be applied.
図3は、画像データと、この画像データから抽出された顔領域データと、この顔領域データを正規化して得られた正規化顔領域データとを模式的に示す図である。つまり、同図は、画像データ取得部10が取得する画像データ2と、顔領域検出部21が検出する顔領域データ2aと、解析領域決定部22が正規化(ここでは、縮小)する正規化顔領域データ2bとを時系列に示している。同図に示すように、画像データ2は、人物の首より上側を含む画像である。顔領域データ2aは、画像データ2から抽出された人物顔を含む画像である。正規化顔領域データ2bは、例えば、人物の顔表情を決定付ける顔の主要なパーツ(両眉毛、両目、鼻、口)を含むように、水平画素数LX×垂直画素数LYサイズに正規化された画像である。水平画素数LXと垂直画素数LYとの長さの関係は、例えば、水平画素数LX=垂直画素数LYである。
FIG. 3 is a diagram schematically showing image data, face area data extracted from the image data, and normalized face area data obtained by normalizing the face area data. That is, the figure shows the
図4は、解析領域決定部22が正規化顔領域データ2bから決定した解析領域を、視覚的に分かり易く線描画した図である。同図に示すように、解析領域決定部22は、水平画素数LX×垂直画素数LYの正規化顔領域データ2bの中心位置を中心として、正規化顔領域データ2bに含まれる円形の解析領域3を決定する。解析領域3の水平方向の径は、例えば水平画素数LXの0.8倍の長さであり、垂直方向の径は、例えば垂直画素数LYの0.8倍の長さである。このように、解析領域3の径を正規化顔領域データ2bの内接円の径よりも小さくすることにより、人物顔の認識や顔表情認識にとって重要度が低い髪の毛、耳、イヤリング等の情報を除外することができる。解析領域決定部22は、解析領域3の水平方向であって且つその中心を通る直線で、解析領域3を上部解析領域3Uと下部解析領域3Dとに区分する。このように区分することにより、上部解析領域3Uは両眉毛および両目を含み、下部解析領域3Dは鼻頭および口を含むこととなる。
FIG. 4 is a diagram in which the analysis region determined by the analysis
図5は、機械学習部41が画像特徴量をクラスタに分類して生成するヒストグラムを模式的に示した図である。同図は、機械学習部41が上部解析領域における画像特徴量のヒストグラムの後に、下部解析領域における画像特徴量のヒストグラムを連結して解析領域全体のヒストグラムを得る例である。このヒストグラムは顔画像の特徴ベクトルを表す。このように、機械学習部41が解析部分領域ごとにクラスタ分類することにより、画像特徴量に、位置情報(上部解析領域または下部解析領域)が対応付けられる。
なお、機械学習部41は、下部解析領域における画像特徴量のヒストグラムの後に、上部解析領域における画像特徴量のヒストグラムを連結して解析領域全体のヒストグラムを得てもよい。
FIG. 5 is a diagram schematically illustrating a histogram generated by the
Note that the
次に、顔表情解析装置1に適用されるサポートベクトルマシンについて説明する。
図6は、顔表情教師データの顔画像特徴ベクトルが2クラスに分類された様子を示すサポートベクトルマシンの概念図である。便宜上、同図は、顔画像特徴ベクトルの次元数を“2”とした場合を示している。2クラスとは、「ニュートラル顔表情」のクラスおよび「ピーク顔表情」のクラスである。また、同図に示した8個の顔画像(顔表情教師データの顔画像)および1個の顔画像(顔画像特徴ベクトルXに対応する評価画像データの顔画像)のそれぞれは、顔画像特徴ベクトルに対応する顔の表情を視覚化したものであり、各顔画像が配置された位置は、特徴ベクトル空間(ここでは、特徴ベクトル平面)における顔画像特徴ベクトルの位置を示すものである。
Next, a support vector machine applied to the facial expression analysis apparatus 1 will be described.
FIG. 6 is a conceptual diagram of a support vector machine showing how facial image feature vectors of facial expression teacher data are classified into two classes. For convenience, this figure shows a case where the dimension number of the face image feature vector is “2”. The two classes are a “neutral facial expression” class and a “peak facial expression” class. Each of the eight face images (face images of facial expression teacher data) and one face image (face images of evaluation image data corresponding to the face image feature vector X) shown in FIG. The facial expression corresponding to the vector is visualized, and the position where each face image is arranged indicates the position of the face image feature vector in the feature vector space (here, the feature vector plane).
本実施形態では、顔表情解析装置1は、機械学習モードに設定された場合、外部の顔表情教師データベースから複数の顔表情教師データを取り込み、これら複数の顔表情教師データを用いて、サポートベクトルマシンにより境界面Hを計算する。図6では、顔画像特徴ベクトルを2次元としているため、境界面Hは線で表されるが、実際は、顔画像特徴ベクトルの“次元数−1”の次元数による超平面となる。例えば、顔画像特徴ベクトルが600次元のクラスタである場合、境界面Hは、599次元の超平面となる。
同図において、8個の顔表情教師データの顔画像それぞれの顔画像特徴ベクトルは、境界面Hによってニュートラル顔表情のクラスAと、ピーク顔表情のクラスBとに分類される。
In the present embodiment, when the facial expression analysis apparatus 1 is set to the machine learning mode, the facial expression analysis apparatus 1 takes in a plurality of facial expression teacher data from an external facial expression teacher database, and uses the plurality of facial expression teacher data to support vectors. The boundary surface H is calculated by the machine. In FIG. 6, since the face image feature vector is two-dimensional, the boundary surface H is represented by a line. For example, when the face image feature vector is a 600-dimensional cluster, the boundary surface H is a 599-dimensional hyperplane.
In the figure, the face image feature vectors of each of the eight facial expression teacher data face images are classified into a neutral facial expression class A and a peak facial expression class B by the boundary surface H.
顔表情解析装置1が顔表情解析モードに設定された場合、機械学習後のサポートベクトルマシンは、境界面Hから評価画像データの顔画像特徴ベクトルXまでの距離(ユークリッド距離)Dを計算する。本実施形態では、距離Dを、例えば、境界面H上の値が0(ゼロ)、ピーク顔表情のクラスA側が正値、ニュートラル顔表情のクラスB側が負値となる。この距離Dが顔表情強度値である。 When the facial expression analysis apparatus 1 is set to the facial expression analysis mode, the support vector machine after machine learning calculates a distance (Euclidean distance) D from the boundary surface H to the facial image feature vector X of the evaluation image data. In the present embodiment, for example, the value on the boundary surface H is 0 (zero), the peak face expression class A side has a positive value, and the neutral face expression class B side has a negative value. This distance D is a facial expression intensity value.
次に、顔表情解析装置1の動作について、機械学習処理と顔表情解析処理とに分けて説明する。 Next, the operation of the facial expression analysis apparatus 1 will be described separately for machine learning processing and facial expression analysis processing.
図7は、顔表情解析装置1が実行する機械学習処理の手順を示すフローチャートである。
ステップS1において、モード切替部60は、機械学習モードに設定する。
次に、ステップS2において、画像データ取得部10は、外部の顔表情教師データベースに格納された複数の顔表情教師データから一つの顔表情教師データを取り込み、この顔表情教師データを顔領域抽出部20に供給する。
FIG. 7 is a flowchart illustrating a procedure of machine learning processing executed by the facial expression analysis apparatus 1.
In step S1, the
Next, in step S2, the image
次に、ステップS3において、顔領域抽出部20は、画像データ取得部10が供給する画像データを取り込み、この画像データから人物顔の解析領域を抽出する。
具体的に、顔領域検出部21は、取り込んだ画像データに対して顔検出処理を実行し、その画像データから人物の顔領域を検出する。
次に、解析領域決定部22は、顔領域検出部21が検出した顔領域データを所定画素サイズ(例えば、水平方向128画素×垂直方向128画素)に正規化する。
次に、解析領域決定部22は、正規化顔領域データから解析領域を抽出し、この解析領域から二つの解析部分領域(上部解析領域および下部解析領域)を決定する。
Next, in step S <b> 3, the face
Specifically, the face
Next, the analysis
Next, the analysis
次に、ステップS4において、画像特徴量分析部30は、顔領域抽出部20が抽出した解析領域データの画像特徴量を計算する。例えば、画像特徴量分析部30は、解析領域決定部22が決定した解析領域における上部解析領域および下部解析領域それぞれのデータについて、画像特徴量(例えば、SURF特徴量またはSIFT特徴量)を計算する。そして、画像特徴量分析部30は、計算した上部解析領域および下部解析領域それぞれの画像特徴量を、顔表情強度評価部40および顔表情評価部50に供給する。
Next, in step S4, the image feature
次に、ステップS5において、顔表情教師データベースから取り込むべき全ての顔表情教師データの取り込みが完了した場合(S5:YES)、ステップS6の処理に移し、顔表情教師データベースから取り込むべき全ての顔表情教師データの取り込みが完了していない場合(S5:NO)、ステップS2の処理に戻す。 Next, when all the facial expression teacher data to be imported from the facial expression teacher database is completed in step S5 (S5: YES), the process proceeds to step S6, and all the facial expressions to be imported from the facial expression teacher database. If the teacher data has not been taken in (S5: NO), the process returns to step S2.
ステップS6において、顔表情強度評価部40は、複数の顔表情教師データから得られた各解析領域の画像特徴量を用いて、顔表情強度値を計算するための分類器の機械学習を行う。
具体的に、機械学習部41は、複数の顔表情教師データ分の画像特徴量についてクラスタ分析(例えば、K平均法のクラスタリング)を実行する。次に、機械学習部41は、顔表情の種類ごとの顔表情教師データの集合における顔表情の度合が最小および最大である顔表情教師データそれぞれに対応する画像特徴量を、クラスタに分類してヒストグラムを生成(クラスタ分類)することにより、顔画像特徴ベクトルを生成する。
In step S <b> 6, the facial expression
Specifically, the
次に、ステップS7において、機械学習部41は、例えば、サポートベクトルマシンによる機械学習を実行し、顔表情の度合が最小である顔画像と、顔表情の度合が最大である顔画像とを分類する第1の境界面を計算し、この第1の境界面のデータを顔表情強度値計算部42に供給する。そして、顔表情強度値計算部42は、機械学習部41が供給する第1の境界面のデータを取り込み、この第1の境界面のデータを記憶する。
Next, in step S7, the
次に、ステップS8において、顔表情評価部50は、複数の顔表情教師データから得られた各解析領域の画像特徴量を用いて、顔表情を分類するための分類器の機械学習を行う。
具体的に、機械学習部51は、複数の顔表情教師データの全てまたは一部の顔表情教師データから得られた各解析領域の画像特徴量を、機械学習部41が実行したクラスタ分析の結果であるクラスタに分類してヒストグラムを生成(クラスタ分類)することにより、顔画像特徴ベクトルを生成する。
Next, in step S8, the facial
Specifically, the
次に、ステップS9において、機械学習部51は、例えば、サポートベクトルマシンによる機械学習を実行し、顔表情の種類別に顔画像を分類する第2の境界面を計算し、この第2の境界面のデータを顔表情分類部52に供給する。顔表情分類部52は、機械学習部51が供給する第2の境界面のデータを取り込み、この第2の境界面のデータを記憶する。
Next, in step S9, the
図8は、顔表情解析装置1が実行する顔表情解析処理の手順を示すフローチャートである。
ステップS21において、モード切替部60は、顔表情解析モードに設定する。
次に、ステップS22において、画像データ取得部10は、例えば、撮影装置または記録装置が供給する評価画像データを取り込み、この評価画像データを顔領域抽出部20に供給する。
FIG. 8 is a flowchart showing a procedure of facial expression analysis processing executed by the facial expression analysis apparatus 1.
In step S21, the
Next, in step S <b> 22, for example, the image
次に、ステップS23において、顔領域抽出部20は、画像データ取得部10が供給する評価画像データを取り込み、この評価画像データから人物顔の解析領域を抽出する。
具体的に、顔領域検出部21は、取り込んだ評価画像データに対して顔検出処理を実行し、その評価画像データから人物の顔領域を検出する。
次に、解析領域決定部22は、顔領域検出部21が検出した顔領域データを所定画素サイズ(例えば、水平方向128画素×垂直方向128画素)に正規化する。
次に、解析領域決定部22は、正規化顔領域データから解析領域を抽出し、この解析領域から二つの解析部分領域(上部解析領域および下部解析領域)を決定する。
Next, in step S <b> 23, the face
Specifically, the face
Next, the analysis
Next, the analysis
次に、ステップS24において、画像特徴量分析部30は、前述したステップS4の処理と同様に、顔領域抽出部20が抽出した解析領域データの画像特徴量を計算する。つまり、例えば、画像特徴量分析部30は、解析領域決定部22が決定した解析領域における上部解析領域および下部解析領域それぞれのデータについて、画像特徴量(例えば、SURF特徴量またはSIFT特徴量)を計算する。そして、画像特徴量分析部30は、計算した上部解析領域および下部解析領域それぞれの画像特徴量を、顔表情強度評価部40および顔表情評価部50に供給する。
Next, in step S24, the image feature
次に、ステップS25において、顔表情強度評価部40は、評価画像データから得られた解析領域の画像特徴量を用いて、機械学習された分類器により顔表情強度値を計算する。
具体的に、顔表情強度値計算部42は、機械学習部41が実行したクラスタ分析の結果であるクラスタに画像特徴量を分類(第1のクラスタ分類処理)して、顔画像特徴ベクトル(第1の顔画像特徴ベクトル)を生成する。
Next, in step S25, the facial expression
Specifically, the facial expression intensity
次に、ステップS26において、顔表情強度値計算部42は、記憶した境界面から顔画像特徴ベクトルまでの距離を計算し、この距離の値を顔表情強度値として出力するとともに、顔表情評価部50に供給する。
Next, in step S26, the facial expression intensity
次に、ステップS27において、顔表情評価部50は、評価画像データから得られた解析領域の画像特徴量と顔表情強度評価部40が供給した顔表情強度値とに基づいて、機械学習された分類器により顔表情を分類して顔表情種別情報を生成する。
具体的に、顔表情分類部52は、機械学習部41が実行したクラスタ分析の結果であるクラスタに画像特徴量を分類(第2のクラスタ分類処理)して、顔画像特徴ベクトル(第2の顔画像特徴ベクトル)を生成する。
In step S27, the facial
Specifically, the facial
次に、顔表情分類部52は、記憶した境界面に対する顔画像特徴ベクトルの位置関係と顔表情強度値計算部42から取り込んだ顔表情強度値とに基づいて、解析領域に対応する顔表情種別を示す顔表情種別情報を生成し、この顔表情種別情報を出力する。
具体的に、顔表情分類部52は、顔表情強度値とあらかじめ決定された閾値とを比較する。そして、顔表情分類部52は、顔表情強度値が閾値以下である場合、解析領域における顔表情がニュートラル顔表情であると判定し、顔表情強度値が閾値を超える場合、解析領域における顔表情が非ニュートラル顔表情であると判定する。次に、顔表情分類部52は、顔表情種別がニュートラル顔表情であると判定した場合、ニュートラル顔表情を示す情報を含めた顔表情種別情報を生成する。一方、顔表情分類部52は、顔表情種別がニュートラル顔表情でないと判定した場合、各境界面に対する顔画像特徴ベクトルの位置を判定して分類を絞り込むことによって顔表情種別情報を生成する。
Next, the facial
Specifically, the facial
[第2の実施の形態]
図9は、本発明の第2実施形態である顔表情解析装置の機能構成を示すブロック図である。上述した第1実施形態における顔表情解析装置1と同一の構成については、同一の符号を付してその説明を省略する。同図に示すように、顔表情解析装置1aは、顔表情解析装置1から、顔表情強度評価部40および顔表情評価部50を、顔表情強度評価部40aおよび顔表情評価部50aに変更した構成を有する。
[Second Embodiment]
FIG. 9 is a block diagram showing a functional configuration of a facial expression analysis apparatus according to the second embodiment of the present invention. About the same structure as the facial expression analysis apparatus 1 in 1st Embodiment mentioned above, the same code | symbol is attached | subjected and the description is abbreviate | omitted. As shown in the figure, the facial expression analysis apparatus 1a changes the facial expression
顔表情解析装置1aが機械学習モードに設定されているとき、顔表情強度評価部40aは、複数の顔表情教師データから得られた各解析領域の画像特徴量を用いて、顔表情ごとに、顔表情強度値を計算するための分類器の機械学習を行う。また、顔表情解析装置1aが顔表情解析モードに設定されているとき、顔表情強度評価部40aは、評価画像データから得られた解析領域の画像特徴量を用い、顔表情評価部50aが供給する顔表情種別情報に応じた分類器により顔表情強度値を計算する。
顔表情強度評価部40aは、その機能構成として、機械学習部41aと、顔表情強度値計算部42aとを備える。
When the facial expression analysis apparatus 1a is set to the machine learning mode, the facial expression
The facial expression
顔表情解析装置1aが機械学習モードに設定されているとき、機械学習部41aは、画像特徴量分析部30が供給する、複数の顔表情教師データから得られた各解析領域の画像特徴量を取り込む。そして、機械学習部41aは、第1実施形態と同様に、複数の顔表情教師データ分の画像特徴量についてクラスタ分析(クラスタリング)を実行する。
When the facial expression analysis apparatus 1a is set to the machine learning mode, the machine learning unit 41a calculates the image feature amount of each analysis region obtained from the plurality of facial expression teacher data supplied from the image feature
そして、機械学習部41aは、顔表情の種類別に、顔表情教師データの集合における顔表情の度合が最小および最大である顔表情教師データそれぞれに対応する画像特徴量を、クラスタ分析の結果であるクラスタに分類してヒストグラムを生成(クラスタ分類)することにより、顔画像特徴ベクトルを生成する。顔表情の種類が、例えば、怒り、嫌悪、恐れ、喜び、悲しみ、驚きである場合、機械学習部41aは、それら6種類の顔表情別に顔画像特徴ベクトルを生成する。 Then, the machine learning unit 41a is a result of the cluster analysis on the image feature amounts corresponding to the facial expression teacher data having the minimum and maximum degrees of facial expression in the set of facial expression teacher data for each type of facial expression. A face image feature vector is generated by classifying into clusters and generating a histogram (cluster classification). When the types of facial expressions are, for example, anger, disgust, fear, joy, sadness, and surprise, the machine learning unit 41a generates a facial image feature vector for each of these six types of facial expressions.
具体的に、機械学習部41aは、顔表情の種類別に、顔表情教師データの集合における顔表情の度合が最小および最大である顔表情教師データの上部解析領域に対応する画像特徴量をクラスタに分類する。そして、機械学習部41aは、クラスタを階級とし、各クラスタの要素数を頻度とするヒストグラム(第5のヒストグラム)を生成する。また、機械学習部41aは、顔表情の種類別に、顔表情教師データの集合における顔表情の度合が最小および最大である顔表情教師データの下部解析領域に対応する画像特徴量をクラスタに分類する。そして、機械学習部41aは、クラスタを階級とし、各クラスタの要素数を頻度とするヒストグラム(第6のヒストグラム)を生成する。そして、機械学習部41aは、顔表情ごとに、分類結果である第5のヒストグラムと第6のヒストグラムとを連結して解析領域全体に対するヒストグラム(全体ヒストグラム)を生成する。例えば、機械学習部41aは、顔表情ごとに、第5のヒストグラムに第6のヒストグラムを連結して全体ヒストグラムを生成する。または、機械学習部41aは、顔表情ごとに、第6のヒストグラムに第5のヒストグラムを連結して全体ヒストグラムを生成する。そして、機械学習部41aは、各全体ヒストグラムを正規化することにより、顔表情ごとの顔画像特徴ベクトルを生成する。例えば、機械学習部41aは、各全体ヒストグラムにおける各階級の頻度を、全階級の頻度の合計値で除算して、顔表情ごとの顔画像特徴ベクトルを生成する。 Specifically, for each type of facial expression, the machine learning unit 41a clusters image feature amounts corresponding to the upper analysis area of the facial expression teacher data in which the degree of facial expression in the set of facial expression teacher data is minimum and maximum. Classify. Then, the machine learning unit 41a generates a histogram (fifth histogram) having clusters as classes and the number of elements of each cluster as a frequency. Further, the machine learning unit 41a classifies image feature amounts corresponding to the lower analysis region of the facial expression teacher data in which the degree of facial expression in the set of facial expression teacher data is minimum and maximum for each type of facial expression into clusters. . Then, the machine learning unit 41a generates a histogram (sixth histogram) having clusters as classes and the number of elements of each cluster as a frequency. Then, the machine learning unit 41a generates a histogram (overall histogram) for the entire analysis region by connecting the fifth histogram and the sixth histogram, which are the classification results, for each facial expression. For example, the machine learning unit 41a generates a whole histogram by connecting the sixth histogram to the fifth histogram for each facial expression. Alternatively, the machine learning unit 41a generates a whole histogram by connecting the fifth histogram to the sixth histogram for each facial expression. Then, the machine learning unit 41a generates a face image feature vector for each facial expression by normalizing each whole histogram. For example, the machine learning unit 41a divides the frequency of each class in each overall histogram by the total value of the frequencies of all classes to generate a face image feature vector for each facial expression.
機械学習部41aは、例えば、サポートベクトルマシンによる機械学習を実行し、顔表情の度合が最小である顔画像と、顔表情の度合が最大である顔画像とを分類する境界面(第1の境界面)を顔表情ごとに計算し、これら境界面のデータを顔表情強度値計算部42aに供給する。顔表情強度値計算部42aは、機械学習部41aが供給する顔表情ごとの境界面のデータを取り込み、これら境界面のデータを記憶する。
For example, the machine learning unit 41a performs machine learning using a support vector machine, and classifies a face image having the smallest facial expression degree and a face image having the largest facial expression degree (first surface). Boundary surface) is calculated for each facial expression, and the data of these boundary surfaces is supplied to the facial expression intensity
機械学習部41aが顔表情ごとに機械学習を行うことにより、顔表情強度値の精度をより高めることができる。 Since the machine learning unit 41a performs machine learning for each facial expression, the accuracy of the facial expression intensity value can be further increased.
顔表情解析装置1aが顔表情解析モードに設定されているとき、顔表情強度値計算部42aは、画像特徴量分析部30が供給する、評価画像データから得られた解析領域の画像特徴量を取り込む。また、顔表情強度値計算部42aは、顔表情評価部50aが供給する顔表情種別情報を取り込む。そして、顔表情強度値計算部42aは、取り込んだ画像特徴量を機械学習部41aが実行したクラスタ分析の結果であるクラスタに分類(第1のクラスタ分類処理)して、顔画像特徴ベクトル(第1の顔画像特徴ベクトル)を生成する。そして、顔表情強度値計算部42aは、顔表情種別情報に対応する境界面から顔画像特徴ベクトルまでの距離を計算し、この距離の値を顔表情強度値として出力する。また、顔表情強度値計算部42aは、顔表情強度値を顔表情評価部50aに供給する。
When the facial expression analysis apparatus 1a is set to the facial expression analysis mode, the facial expression intensity
顔表情解析装置1aが機械学習モードに設定されているとき、顔表情評価部50aは、第1実施形態における顔表情評価部50と同様に、顔表情を分類するための分類器の機械学習を行う。また、顔表情解析装置1aが顔表情解析モードに設定されているとき、顔表情評価部50aは、第1実施形態における顔表情評価部50と同様に、機械学習された分類器により顔表情を分類して顔表情種別情報を生成する。ただし、顔表情評価部50aは、生成した顔表情種別情報を顔表情強度評価部40aに供給する。
When the facial expression analysis apparatus 1a is set to the machine learning mode, the facial
顔表情評価部50aは、その機能構成として、機械学習部51と、顔表情分類部52aとを備える。機械学習部51は、第1実施形態における機械学習部51と同等であるため、ここではその説明を省略する。
顔表情解析装置1aが顔表情解析モードに設定されているとき、顔表情分類部52aは、第1実施形態における顔表情分類部52と同様に顔表情種別情報を生成する。そして、顔表情分類部52aは、生成した顔表情種別情報を出力するとともに顔表情強度評価部40aに供給する。
The facial
When the facial expression analysis device 1a is set to the facial expression analysis mode, the facial
[第3の実施の形態]
前述した第1実施形態である顔表情解析装置1を顔表情解析モードに設定し、動画像データを供給して顔表情解析処理を実行させた場合、顔表情解析装置1が生成する、一連のキーフレームそれぞれの顔表情種別情報に、周囲と異なる種類の顔表情種別情報が突発的に現出する場合がある。周囲と異なる種類の顔表情種別情報が突発的に現出する原因は、例えば、人物顔を撮影する際の照明による影やカメラに対する顔の向き等が顔表情に影響したり、顔表情強度値のばらつきが影響したりすることである。
本発明の第3実施形態である顔表情解析装置は、この突発的に現出する顔表情種別情報をノイズとみなして除去する。
[Third Embodiment]
When the facial expression analysis apparatus 1 according to the first embodiment described above is set to the facial expression analysis mode, moving image data is supplied and the facial expression analysis process is executed, the facial expression analysis apparatus 1 generates a series of There are cases where face expression type information of a different type from the surroundings suddenly appears in the face expression type information of each key frame. The causes of sudden appearance of facial expression type information of a different type from the surroundings are, for example, shadows due to lighting when shooting a human face, face orientation with respect to the camera, etc. It is that the variation of the influence.
The facial expression analysis apparatus according to the third embodiment of the present invention removes the facial expression type information that appears suddenly as noise.
本実施形態である顔表情解析装置の構成は第1実施形態と同様であるため、図1のブロック図を参照して以下説明する。
顔表情解析装置1の顔表情強度評価部40における顔表情強度値計算部42は、複数フレーム分の画像データを含む区間(時間、フレーム数)ごとに、顔表情強度値の平均を計算し、平均値を当該区間における代表顔表情強度値とする。
Since the configuration of the facial expression analysis apparatus according to this embodiment is the same as that of the first embodiment, it will be described below with reference to the block diagram of FIG.
The facial expression intensity
また、顔表情解析装置1の顔表情評価部50における顔表情分類部52は、上記の区間ごとに、顔表情の種類別に顔表情強度値の総和を計算し、総和値(重要度)が最大となる顔表情の種類(代表顔種別)を示す顔表情種別情報を生成する。
In addition, the facial
図10は、顔表情解析装置1の出力結果を模式的に示した図である。同図における上段のグラフは、第1実施形態である顔表情解析装置1に動画像データを供給した場合に、顔表情解析装置1が出力する顔表情強度値を時系列に示したグラフである。このグラフは、横軸を時間軸とし、縦軸を顔表情強度値としている。このグラフが示すように、第1実施形態である顔表情解析装置1が出力する顔表情強度値は、時間経過に対してばらつきがある。 FIG. 10 is a diagram schematically showing the output result of the facial expression analysis apparatus 1. The upper graph in the figure is a graph showing in time series the facial expression intensity values output by the facial expression analysis apparatus 1 when moving image data is supplied to the facial expression analysis apparatus 1 according to the first embodiment. . In this graph, the horizontal axis is the time axis, and the vertical axis is the facial expression intensity value. As this graph shows, the facial expression intensity value output by the facial expression analysis apparatus 1 according to the first embodiment varies with time.
また、このグラフの直下にある△、▲、および□記号(便宜上、顔表情記号と呼ぶ)は、顔表情解析装置1が出力する顔表情種別情報を示す記号であり、グラフの時間軸に対応付けて図示されている。ここでは、△は幸せ、▲は驚き、□は怒りを示す記号である。このグラフ直下の顔表情記号によれば、一連の時間において、幸せを示す顔表情の中に、突発的に驚きや怒りの顔表情が現出している。 In addition, Δ, ▲, and □ symbols (referred to as facial expression symbols for convenience) immediately below the graph are symbols indicating facial expression type information output by the facial expression analysis device 1, and correspond to the time axis of the graph. It is shown in the drawing. Here, Δ is a symbol indicating happiness, ▲ is a surprise, and □ is a symbol indicating anger. According to the facial expression symbols immediately below the graph, surprise and anger facial expressions suddenly appear in the facial expression showing happiness in a series of times.
また、図10における下段のグラフは、本実施形態である顔表情解析装置1に動画像データを供給した場合に、顔表情解析装置1が出力する顔表情強度値を時系列に示したグラフである。このグラフも、横軸を時間軸とし、縦軸を顔表情強度値としている。このグラフが示すように、本実施形態である顔表情解析装置1は、複数フレーム(例えば10フレーム)ごと(T1,T2,T3,・・・)ではあるが、ばらつきを抑えた顔表情強度値を出力することができ、複数の区間を含む時間における顔表情強度値の信頼度を向上させることができる。 Further, the lower graph in FIG. 10 is a graph showing the facial expression intensity values output by the facial expression analysis apparatus 1 in time series when moving image data is supplied to the facial expression analysis apparatus 1 according to the present embodiment. is there. In this graph, the horizontal axis is the time axis, and the vertical axis is the facial expression intensity value. As shown in this graph, the facial expression analysis apparatus 1 according to the present embodiment is a face that suppresses variation, although every frame (for example, 10 frames) (T 1 , T 2 , T 3 ,...). The expression intensity value can be output, and the reliability of the facial expression intensity value in a time including a plurality of sections can be improved.
また、このグラフの直下の顔表情記号によれば、一連の時間において、突発的な顔表情が現出することなく、安定した顔表情分類の結果が示されている。つまり、本実施形態である顔表情解析装置1は、顔表情強度値の重要度が最大となるように顔表情の分類を行うことによって顔表情のノイズを除去し、顔表情分類の精度を高めることができる。 Further, according to the facial expression symbol immediately below the graph, a stable facial expression classification result is shown without a sudden facial expression appearing in a series of times. That is, the facial expression analysis apparatus 1 according to the present embodiment removes facial expression noise by classifying facial expressions so that the importance of the facial expression intensity value is maximized, thereby improving the accuracy of facial expression classification. be able to.
[第3の実施の形態の変形例]
上述した第3実施形態では、顔表情上解析装置1は、区間ごと(例えば、10フレームごと)に顔表情強度値および顔表情種別情報を得るものであった。
本発明の第3実施形態の変形例である顔表情解析装置は、上記の区間を時間方向にずらしながら顔表情強度値および顔表情種別情報を得る。
つまり、顔表情強度値計算部42は、一区間に含まれる複数フレームよりも少ないフレーム数おきに、当該区間をそのフレーム数分ずらし、顔表情強度値の平均を計算し、平均値を当該区間における代表顔表情強度値とする。
[Modification of Third Embodiment]
In the third embodiment described above, the facial expression analysis apparatus 1 obtains the facial expression strength value and facial expression type information for each section (for example, every 10 frames).
A facial expression analysis apparatus, which is a modification of the third embodiment of the present invention, obtains facial expression intensity values and facial expression type information while shifting the above section in the time direction.
That is, the facial expression strength
また、顔表情分類部52は、上記の区間ごとに、顔表情の種類別に顔表情強度値の総和を計算し、総和値が最大となる顔表情の種類(代表顔種別)を示す顔表情種別情報を生成する。
In addition, the facial
図11は、顔表情解析装置1の出力結果を模式的に示した図である。同図における各グラフは、第3実施形態の変形例である顔表情解析装置1に動画像データを供給した場合に、顔表情解析装置1が出力する顔表情強度値を時系列に示したグラフである。各グラフは、横軸を時間軸とし、縦軸を顔表情強度値としている。時刻t1、時刻t2、および時刻t3は、連続するフレームに対する時刻である。また、時間(tp+tf)は、一区間である。 FIG. 11 is a diagram schematically showing the output result of the facial expression analysis apparatus 1. Each graph in the figure shows the facial expression intensity values output by the facial expression analysis apparatus 1 in time series when moving image data is supplied to the facial expression analysis apparatus 1 which is a modification of the third embodiment. It is. In each graph, the horizontal axis is the time axis, and the vertical axis is the facial expression intensity value. Time t 1 , time t 2 , and time t 3 are times for successive frames. The time (t p + t f ) is one section.
また、各グラフの直下にある△記号(顔表情記号)は、顔表情解析装置1が出力する顔表情種別情報を示す記号(例えば、幸せを示す)であり、グラフの時間軸に対応付けて図示されている。これらグラフ直下の顔表情記号によれば、連続する時刻t1、時刻t2、および時刻t3それぞれにおいて、安定した顔表情分類の結果が示されている。 Further, a Δ symbol (face expression symbol) immediately below each graph is a symbol (for example, indicating happiness) indicating the facial expression type information output by the facial expression analysis apparatus 1, and is associated with the time axis of the graph. It is shown in the figure. According to the facial expression symbols immediately below these graphs, the result of stable facial expression classification is shown at each of time t 1 , time t 2 , and time t 3 .
図11における上段のグラフおよび顔表情記号は、時刻(t1−tp)から時刻(t1+tf)までの区間を対象として、顔表情強度値計算部42が代表顔表情強度値を計算し、顔表情分類部52が代表顔種別を示す顔表情種別情報を生成することを示している。
また、同図における中段のグラフおよび顔表情記号は、時刻(t2−tp)から時刻(t2+tf)までの区間を対象として、顔表情強度値計算部42が代表顔表情強度値を計算し、顔表情分類部52が代表顔種別を示す顔表情種別情報を生成することを示している。
また、同図における下段のグラフおよび顔表情記号は、時刻(t3−tp)から時刻(t3+tf)までの区間を対象として、顔表情強度値計算部42が代表顔表情強度値を計算し、顔表情分類部52が代表顔種別を示す顔表情種別情報を生成することを示している。
In the upper graph and facial expression symbols in FIG. 11, the facial expression intensity
Also, middle graph and facial expression symbols in the figure, the time a section from (
Also, lower graph and facial expression symbols in the figure, the time a section from (
つまり、図11によれば、顔表情解析装置1は、ばらつきを抑えて信頼度を向上させた顔表情強度値および安定した顔表情種別情報を、フレームごとに出力することができる。 That is, according to FIG. 11, the facial expression analysis apparatus 1 can output the facial expression intensity value and the stable facial expression type information with improved reliability by suppressing variation for each frame.
以上説明したとおり、第1実施形態〜第3実施形態および変形によれば、顔表情解析装置1,1aは、画像特徴量に対し第1のクラスタ分類処理を実行して第1の顔画像特徴ベクトルを生成し、顔画像特徴ベクトル空間においてあらかじめ決定された第1の境界面から第1の顔画像特徴ベクトルまでの距離である顔表情強度値を計算する顔表情強度評価部40を備えた。
また、顔表情解析装置1,1aは、画像特徴量に対し第2のクラスタ分類処理を実行して第2の顔画像特徴ベクトルを生成し、顔画像特徴ベクトル空間においてあらかじめ決定された第2の境界面に対する第2の顔画像特徴ベクトルの位置関係と顔表情強度評価部40が計算した顔表情強度値とに基づき、解析領域に対応する顔表情種別を示す顔表情種別情報を生成する顔表情評価部50を備えた。
As described above, according to the first to third embodiments and the modifications, the facial expression analysis apparatuses 1 and 1a execute the first cluster classification process on the image feature amount and perform the first facial image feature. A facial expression
Further, the facial expression analysis apparatuses 1 and 1a execute a second cluster classification process on the image feature quantity to generate a second face image feature vector, and the second facial image feature vector space determined in advance in the face image feature vector space. Based on the positional relationship of the second facial image feature vector with respect to the boundary surface and the facial expression intensity value calculated by the facial expression
このように構成したことにより、無表情な顔つきから表情の種類を判別困難な程度の顔つきまでを示す中立的な顔表情(ニュートラル顔表情)を分類することが容易となった。 したがって、第1実施形態〜第3実施形態および変形によれば、中立的な顔表情の分類を容易にするとともに、顔表情分類の精度を高めることができる。 With this configuration, it becomes easy to classify neutral facial expressions (neutral facial expressions) that show a range from an expressionless face to a face whose degree of expression is difficult to distinguish. Therefore, according to the first to third embodiments and modifications, it is possible to facilitate the classification of neutral facial expressions and to improve the accuracy of facial expression classification.
なお、第1実施形態〜第3実施形態および変形例では、解析領域決定部22は、解析領域を二つの解析部分領域に分割する例であった。解析領域の分割数は二つに限られない。すなわち、解析領域決定部22は、解析領域を分割しなくてもよいし、三つ以上の解析部分領域に分割してもよい。
In the first embodiment to the third embodiment and the modification, the analysis
また、上述した実施形態および変形例における各顔表情解析装置の一部の機能をコンピュータで実現するようにしてもよい。この場合、その機能を実現するための顔表情解析プログラムをコンピュータ読み取り可能な記録媒体に記録し、この記録媒体に記録された顔表情解析プログラムをコンピュータシステムに読み込ませて、このコンピュータシステムが実行することによって実現してもよい。なお、このコンピュータシステムとは、オペレーティング・システム(Operating System;OS)や周辺装置のハードウェアを含むものである。また、コンピュータ読み取り可能な記録媒体とは、フレキシブルディスク、光磁気ディスク、光ディスク、メモリカード等の可搬型記録媒体、コンピュータシステムに備えられる磁気ハードディスクやソリッドステートドライブ等の記憶装置のことをいう。さらに、コンピュータ読み取り可能な記録媒体とは、インターネット等のコンピュータネットワーク、および電話回線や携帯電話網を介してプログラムを送信する場合の通信回線のように、短時間の間、動的にプログラムを保持するもの、さらには、その場合のサーバ装置やクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持するものを含んでもよい。また上記の顔表情解析プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせにより実現するものであってもよい。 Moreover, you may make it implement | achieve a part of function of each facial expression analyzer in embodiment and the modification mentioned above with a computer. In this case, a facial expression analysis program for realizing the function is recorded on a computer-readable recording medium, and the facial expression analysis program recorded on the recording medium is read into the computer system and executed by the computer system. May be realized. This computer system includes an operating system (OS) and hardware of peripheral devices. The computer-readable recording medium is a portable recording medium such as a flexible disk, a magneto-optical disk, an optical disk, or a memory card, and a storage device such as a magnetic hard disk or a solid state drive provided in the computer system. Furthermore, a computer-readable recording medium dynamically holds a program for a short time, such as a computer network such as the Internet, and a communication line when transmitting a program via a telephone line or a cellular phone network. In addition, a server that holds a program for a certain period of time, such as a volatile memory inside a computer system serving as a server device or a client in that case, may be included. Further, the facial expression analysis program described above may be for realizing a part of the functions described above, and further, the function described above is realized by a combination with a program already recorded in a computer system. There may be.
以上、本発明の実施の形態について図面を参照して詳述したが、具体的な構成はその実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計等も含まれる。 As mentioned above, although embodiment of this invention was explained in full detail with reference to drawings, the specific structure is not restricted to that embodiment, The design of the range which does not deviate from the summary of this invention, etc. are included.
1,1a 顔表情解析装置
10 画像データ取得部
20 顔領域抽出部
21 顔領域検出部
22 解析領域決定部
30 画像特徴量分析部(画像特徴量計算部)
40,40a 顔表情強度評価部
41,41a 機械学習部
42,42a 顔表情強度値計算部
50,50a 顔表情評価部
51 機械学習部
52,52a 顔表情分類部
60 モード切替部
DESCRIPTION OF SYMBOLS 1,1a
40, 40a Facial expression
Claims (9)
前記画像データ取得部が取り込んだ前記画像データから顔の解析領域を抽出する顔領域抽出部と、
前記顔領域抽出部が抽出した前記解析領域の画像特徴量を計算する画像特徴量計算部と、
前記画像特徴量計算部が計算した前記画像特徴量に対し第1のクラスタ分類処理を実行して第1の顔画像特徴ベクトルを生成し、顔画像特徴ベクトル空間においてあらかじめ決定された第1の境界面から前記第1の顔画像特徴ベクトルまでの距離である顔表情強度値を計算する顔表情強度評価部と、
前記画像特徴量に対し第2のクラスタ分類処理を実行して第2の顔画像特徴ベクトルを生成し、顔画像特徴ベクトル空間においてあらかじめ決定された第2の境界面に対する前記第2の顔画像特徴ベクトルの位置関係と前記顔表情強度評価部が計算した前記顔表情強度値とに基づき、前記解析領域に対応する顔表情種別を示す顔表情種別情報を生成する顔表情評価部と、
を備えることを特徴とする顔表情解析装置。 An image data acquisition unit for capturing image data;
A face region extraction unit that extracts a face analysis region from the image data captured by the image data acquisition unit;
An image feature amount calculation unit for calculating an image feature amount of the analysis region extracted by the face region extraction unit;
A first cluster classification process is performed on the image feature amount calculated by the image feature amount calculation unit to generate a first face image feature vector, and a first boundary determined in advance in the face image feature vector space A facial expression strength evaluation unit that calculates a facial expression strength value that is a distance from a surface to the first facial image feature vector;
A second cluster classification process is performed on the image feature amount to generate a second face image feature vector, and the second face image feature with respect to a second boundary surface determined in advance in the face image feature vector space. A facial expression evaluation unit that generates facial expression type information indicating a facial expression type corresponding to the analysis region based on a positional relationship between vectors and the facial expression intensity value calculated by the facial expression intensity evaluation unit;
A facial expression analysis apparatus comprising:
ことを特徴とする請求項1記載の顔表情解析装置。 The facial expression evaluation unit determines whether the facial expression type corresponding to the analysis region is a neutral facial expression based on the facial expression intensity value, and determines that the facial expression type is not the neutral facial expression 2. The facial expression analysis apparatus according to claim 1, wherein the facial expression type information is generated based on a positional relationship of the second facial image feature vector with respect to the second boundary surface.
ことを特徴とする請求項1または2記載の顔表情解析装置。 The facial expression strength evaluation unit calculates the facial expression strength value that is a distance from a boundary surface corresponding to the facial expression type information generated by the facial expression evaluation unit to the first facial image feature vector. The facial expression analysis apparatus according to claim 1, wherein the facial expression analysis apparatus is characterized.
ことを特徴とする請求項1から3いずれか一項記載の顔表情解析装置。 The first boundary surface is acquired from a facial expression teacher data group configured by associating a label indicating the type of facial expression with a set of facial expression teacher data having different degrees of facial expression for each type of facial expression. The image feature amount is calculated for each analysis region of the plurality of facial expression teacher data, the image feature amount for the plurality of facial expression teacher data is clustered, and the degree of the facial expression in the set for each type of facial expression is determined. It is calculated by a support vector machine applying a face image feature vector obtained by classifying image feature amounts corresponding to minimum and maximum facial expression teacher data into clusters as a result of the cluster analysis. The facial expression analysis apparatus according to any one of claims 1 to 3.
ことを特徴とする請求項4記載の顔表情解析装置。 The second boundary surface is applied with a face image feature vector obtained by classifying image feature amounts corresponding to all or a part of each of the plurality of face expression teacher data into each of the clusters. 5. The facial expression analysis apparatus according to claim 4, wherein the facial expression analysis apparatus is calculated by a support vector machine.
前記画像特徴量計算部は、前記複数の解析部分領域それぞれの画像特徴量を計算し、
前記顔表情強度評価部は、前記複数の解析部分領域それぞれの画像特徴量に対して前記第1のクラスタ分類処理を実行し、各分類結果を連結することによって前記第1の顔画像特徴ベクトルを生成し、
前記顔表情評価部は、前記複数の解析部分領域それぞれの画像特徴量に対して前記第2のクラスタ分類処理を実行し、各分類結果を連結することによって前記第2の顔画像特徴ベクトルを生成する
ことを特徴とする請求項1から5いずれか一項記載の顔表情解析装置。 The face area extraction unit divides the analysis area into a plurality of analysis partial areas,
The image feature amount calculation unit calculates an image feature amount of each of the plurality of analysis partial regions,
The facial expression strength evaluation unit performs the first cluster classification process on the image feature amount of each of the plurality of analysis partial regions, and combines the classification results to obtain the first facial image feature vector. Generate
The facial expression evaluation unit performs the second cluster classification process on the image feature amount of each of the plurality of analysis partial regions, and generates the second face image feature vector by connecting the classification results. The facial expression analysis apparatus according to any one of claims 1 to 5, wherein:
ことを特徴とする請求項1から6いずれか一項記載の顔表情解析装置。 The facial expression evaluation unit calculates a sum of facial expression intensity values for each facial expression type for each predetermined section including image data for a plurality of frames, and facial expression type information indicating the facial expression type with the maximum total value The facial expression analysis apparatus according to any one of claims 1 to 6, wherein:
ことを特徴とする請求項7記載の顔表情解析装置。 The facial expression analysis apparatus according to claim 7, wherein the facial expression evaluation unit shifts the predetermined section by the number of frames every frame number smaller than the plurality of frames.
画像データを取り込む画像データ取得部と、
前記画像データ取得部が取り込んだ前記画像データから解析領域を抽出する顔領域抽出部と、
前記顔領域抽出部が抽出した前記解析領域の画像特徴量を計算する画像特徴量計算部と、
前記画像特徴量計算部が計算した前記画像特徴量に対し第1のクラスタ分類処理を実行して第1の顔画像特徴ベクトルを生成し、顔画像特徴ベクトル空間においてあらかじめ決定された第1の境界面から前記第1の顔画像特徴ベクトルまでの距離である顔表情強度値を計算する顔表情強度評価部と、
前記画像特徴量に対し第2のクラスタ分類処理を実行して第2の顔画像特徴ベクトルを生成し、顔画像特徴ベクトル空間においてあらかじめ決定された第2の境界面に対する前記第2の顔画像特徴ベクトルの位置関係と前記顔表情強度評価部が計算した前記顔表情強度値とに基づき、前記解析領域に対応する顔表情種別を示す顔表情種別情報を生成する顔表情評価部と、
として機能させるための顔表情解析プログラム。 Computer
An image data acquisition unit for capturing image data;
A face region extraction unit that extracts an analysis region from the image data captured by the image data acquisition unit;
An image feature amount calculation unit for calculating an image feature amount of the analysis region extracted by the face region extraction unit;
A first cluster classification process is performed on the image feature amount calculated by the image feature amount calculation unit to generate a first face image feature vector, and a first boundary determined in advance in the face image feature vector space A facial expression strength evaluation unit that calculates a facial expression strength value that is a distance from a surface to the first facial image feature vector;
A second cluster classification process is performed on the image feature amount to generate a second face image feature vector, and the second face image feature with respect to a second boundary surface determined in advance in the face image feature vector space. A facial expression evaluation unit that generates facial expression type information indicating a facial expression type corresponding to the analysis region based on a positional relationship between vectors and the facial expression intensity value calculated by the facial expression intensity evaluation unit;
Facial expression analysis program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012099904A JP5879188B2 (en) | 2012-04-25 | 2012-04-25 | Facial expression analysis apparatus and facial expression analysis program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012099904A JP5879188B2 (en) | 2012-04-25 | 2012-04-25 | Facial expression analysis apparatus and facial expression analysis program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013228847A true JP2013228847A (en) | 2013-11-07 |
JP5879188B2 JP5879188B2 (en) | 2016-03-08 |
Family
ID=49676425
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012099904A Active JP5879188B2 (en) | 2012-04-25 | 2012-04-25 | Facial expression analysis apparatus and facial expression analysis program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5879188B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015133085A (en) * | 2014-01-15 | 2015-07-23 | キヤノン株式会社 | Information processing device and method thereof |
JP6264492B1 (en) * | 2017-03-14 | 2018-01-24 | オムロン株式会社 | Driver monitoring device, driver monitoring method, learning device, and learning method |
JP2018153570A (en) * | 2017-03-21 | 2018-10-04 | 本田技研工業株式会社 | Sentiment estimation device |
CN109697421A (en) * | 2018-12-18 | 2019-04-30 | 深圳壹账通智能科技有限公司 | Evaluation method, device, computer equipment and storage medium based on micro- expression |
US10587565B2 (en) | 2017-02-10 | 2020-03-10 | International Business Machines Corporation | Automatic response system based on body language |
JP2020525958A (en) * | 2017-10-06 | 2020-08-27 | 三菱電機株式会社 | Image processing system and image processing method |
KR20230026560A (en) * | 2021-08-17 | 2023-02-27 | 성결대학교 산학협력단 | Apparatus and method for learning facial expression recognition |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009087303A (en) * | 2007-10-03 | 2009-04-23 | Nissan Motor Co Ltd | Expression estimation device, expression estimation method, and vehicle controller |
JP2010271956A (en) * | 2009-05-21 | 2010-12-02 | Seiko Epson Corp | Image processing apparatus, image processing method, image processing program, and printer |
-
2012
- 2012-04-25 JP JP2012099904A patent/JP5879188B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009087303A (en) * | 2007-10-03 | 2009-04-23 | Nissan Motor Co Ltd | Expression estimation device, expression estimation method, and vehicle controller |
JP2010271956A (en) * | 2009-05-21 | 2010-12-02 | Seiko Epson Corp | Image processing apparatus, image processing method, image processing program, and printer |
Non-Patent Citations (1)
Title |
---|
JPN6015051587; 奥田誠 外3名: 'テレビ視聴者の興味状態推定に向けた顔表情変化度測定' FIT2011 第10回情報科学技術フォーラム 講演論文集 第3分冊 , 20110822, 第569-570頁, 一般社団法人情報処理学会 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015133085A (en) * | 2014-01-15 | 2015-07-23 | キヤノン株式会社 | Information processing device and method thereof |
US10887272B2 (en) | 2017-02-10 | 2021-01-05 | International Business Machines Corporation | Automatic response system based on body language |
US10587565B2 (en) | 2017-02-10 | 2020-03-10 | International Business Machines Corporation | Automatic response system based on body language |
WO2018168039A1 (en) * | 2017-03-14 | 2018-09-20 | オムロン株式会社 | Driver monitoring device, driver monitoring method, learning device, and learning method |
JP2018152034A (en) * | 2017-03-14 | 2018-09-27 | オムロン株式会社 | Driver monitoring device, driver monitoring method, learning device, and learning method |
WO2018168040A1 (en) * | 2017-03-14 | 2018-09-20 | オムロン株式会社 | Driver monitoring device, driver monitoring method, learning device, and learning method |
JP6264492B1 (en) * | 2017-03-14 | 2018-01-24 | オムロン株式会社 | Driver monitoring device, driver monitoring method, learning device, and learning method |
JP2018153570A (en) * | 2017-03-21 | 2018-10-04 | 本田技研工業株式会社 | Sentiment estimation device |
JP7025123B2 (en) | 2017-03-21 | 2022-02-24 | 本田技研工業株式会社 | Emotion estimation device |
JP2020525958A (en) * | 2017-10-06 | 2020-08-27 | 三菱電機株式会社 | Image processing system and image processing method |
CN109697421A (en) * | 2018-12-18 | 2019-04-30 | 深圳壹账通智能科技有限公司 | Evaluation method, device, computer equipment and storage medium based on micro- expression |
KR20230026560A (en) * | 2021-08-17 | 2023-02-27 | 성결대학교 산학협력단 | Apparatus and method for learning facial expression recognition |
KR102630872B1 (en) * | 2021-08-17 | 2024-02-01 | 성결대학교 산학협력단 | Apparatus and method for learning facial expression recognition |
Also Published As
Publication number | Publication date |
---|---|
JP5879188B2 (en) | 2016-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Vu et al. | Masked face recognition with convolutional neural networks and local binary patterns | |
Nowrin et al. | Comprehensive review on facemask detection techniques in the context of covid-19 | |
Happy et al. | Automatic facial expression recognition using features of salient facial patches | |
Devanne et al. | Motion segment decomposition of RGB-D sequences for human behavior understanding | |
Çeliktutan et al. | A comparative study of face landmarking techniques | |
Rajan et al. | Facial expression recognition techniques: a comprehensive survey | |
JP5879188B2 (en) | Facial expression analysis apparatus and facial expression analysis program | |
Ng et al. | A review of facial gender recognition | |
Holder et al. | Improved gradient local ternary patterns for facial expression recognition | |
Agarwal et al. | Anubhav: recognizing emotions through facial expression | |
Mlakar et al. | Automated facial expression recognition based on histograms of oriented gradient feature vector differences | |
HN et al. | Human Facial Expression Recognition from static images using shape and appearance feature | |
Li et al. | Facial expression classification using salient pattern driven integrated geometric and textual features | |
Wei et al. | Fixation and saccade based face recognition from single image per person with various occlusions and expressions | |
JP6101470B2 (en) | Facial expression analysis apparatus and facial expression analysis program | |
Tofighi et al. | A robust face recognition system in image and video | |
Al-obidi et al. | Facial Features Recognition Based on Their Shape and Color Using YOLOv8 | |
JP2014119879A (en) | Face expression evaluation result smoothing device and face expression evaluation result smoothing program | |
Azam et al. | Feature extraction trends for intelligent facial expression recognition: A survey | |
Gowda | Fiducial points detection of a face using RBF-SVM and adaboost classification | |
Otiniano-Rodríguez et al. | Finger spelling recognition using kernel descriptors and depth images | |
Starostenko et al. | Real-time facial expression recognition using local appearance-based descriptors | |
Viswanathan et al. | Recognition of hand gestures of English alphabets using HOG method | |
Kalsi et al. | A classification of emotion and gender using approximation image Gabor local binary pattern | |
Chen | Design and simulation of AI remote terminal user identity recognition system based on reinforcement learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150302 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160105 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160201 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5879188 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |