JP2014119879A - Face expression evaluation result smoothing device and face expression evaluation result smoothing program - Google Patents
Face expression evaluation result smoothing device and face expression evaluation result smoothing program Download PDFInfo
- Publication number
- JP2014119879A JP2014119879A JP2012273587A JP2012273587A JP2014119879A JP 2014119879 A JP2014119879 A JP 2014119879A JP 2012273587 A JP2012273587 A JP 2012273587A JP 2012273587 A JP2012273587 A JP 2012273587A JP 2014119879 A JP2014119879 A JP 2014119879A
- Authority
- JP
- Japan
- Prior art keywords
- facial expression
- expression intensity
- value
- facial
- analysis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、顔表情評価結果平滑化装置および顔表情評価結果平滑化プログラムに関する。 The present invention relates to a facial expression evaluation result smoothing apparatus and a facial expression evaluation result smoothing program.
人物の顔画像が含まれる画像データを解析して、顔画像における顔表情を6種類(Anger;怒り、Disgust;嫌悪、Fear;恐れ、Happiness;幸せ、Sadness;悲しみ、Surprise;驚き)に分類し、その顔表情の強度を計算する技術が知られている(例えば、非特許文献1参照)。非特許文献1に記載された技術を適用した情報処理装置は、顔表情が異なる複数の顔画像について、顔表情の強度の順序関係が整合するよう強度を求めるとともに、各顔画像における顔表情を上記6種類の顔表情に分類ことができる。
Analyzing image data including human face images, classify facial expressions in face images into 6 types (Anger; anger, Disgust; aversion, Fear; fear, Happiness; happiness, Sadness; sadness, Surprise). A technique for calculating the intensity of the facial expression is known (for example, see Non-Patent Document 1). The information processing apparatus to which the technology described in Non-Patent
しかしながら、上記の情報処理装置に映像データを供給し、この映像データにおける各顔画像の評価処理を実行させた場合に、一連の顔画像それぞれにおける顔表情の中に、周囲と異なる種類の顔表情が突発的に現出することがある。フレーム単位で顔表情が変化することは通常起こり難い現象であり、この突発的に現出した顔表情はエラーである可能性が高い。 However, when video data is supplied to the above information processing apparatus and evaluation processing of each facial image in the video data is executed, the facial expressions in the series of facial images are different from the surrounding facial expressions. May appear suddenly. Changing facial expressions on a frame-by-frame basis is a phenomenon that is unlikely to occur normally, and this suddenly appearing facial expression is likely to be an error.
本発明は、上記の問題を解決するためになされたものであり、一連の顔画像を含む映像データから顔表情評価結果を安定して得る、顔表情評価結果平滑化装置および顔表情評価結果平滑化プログラムを提供することを目的とする。 The present invention has been made to solve the above-described problem. A facial expression evaluation result smoothing apparatus and a facial expression evaluation result smoothing apparatus that stably obtain facial expression evaluation results from video data including a series of facial images. The purpose is to provide a computerized program.
[1]上記の課題を解決するため、本発明の一態様である顔表情評価結果平滑化装置は、顔画像に基づき顔表情種別ごとに得られた複数の顔表情強度値を、フレームごとに取り込む顔表情強度値取得部と、前記顔表情強度値取得部が取り込んだ複数フレーム分の顔表情強度値を参照し、前記顔表情種別ごとの前記複数フレームの顔表情強度値に基づく合計値に基づいて、前記複数フレームに対応する代表顔表情強度値を計算する顔表情強度値平滑化処理部と、を備えることを特徴とする。 [1] In order to solve the above-described problem, a facial expression evaluation result smoothing apparatus according to an aspect of the present invention provides, for each frame, a plurality of facial expression intensity values obtained for each facial expression type based on a facial image. The facial expression intensity value acquisition unit to be captured and the facial expression intensity values for a plurality of frames captured by the facial expression intensity value acquisition unit are referred to, and a total value based on the facial expression intensity values of the plurality of frames for each facial expression type is obtained. And a facial expression intensity value smoothing processing unit that calculates representative facial expression intensity values corresponding to the plurality of frames.
[2]上記[1]記載の顔表情評価結果平滑化装置において、前記合計値は、前記顔表情種別ごとの、前記複数フレーム分の顔表情強度値の合計値である、ことを特徴とする。
[3]上記[1]記載の顔表情評価結果平滑化装置において、前記合計値は、前記複数フレームのそれぞれにおける最大の顔表情強度値の個数を顔表情種別ごとに計数して得た合計値である、ことを特徴とする。
[4]上記[2]または[3]いずれか記載の顔表情評価結果平滑化装置において、前記顔表情強度値平滑化処理部は、前記複数フレーム内における各フレームの位置に応じた重み付けをして前記合計値を計算する、ことを特徴とする。
[5]上記[1]〜[4]いずれか一項記載の顔表情評価結果平滑化装置において、前記顔表情強度値平滑化処理部が求めた、前記顔表情種別ごとの合計値のうち最大の合計値に対応する顔表情種別を、前記複数フレームに対応する顔表情の分類結果として選出する顔表情種別平滑化処理部、をさらに備えることを特徴とする。
[6]上記[1]〜[5]いずれか一項記載の顔表情評価結果平滑化装置において、前記顔表情強度値平滑化処理部は、前記複数フレームよりも少ないフレーム数をシフト量とし、前記複数フレームを前記シフト量だけ時間方向にずらす、ことを特徴とする。
[2] The facial expression evaluation result smoothing apparatus according to [1], wherein the total value is a total value of facial expression intensity values for the plurality of frames for each facial expression type. .
[3] In the facial expression evaluation result smoothing apparatus according to [1], the total value is a total value obtained by counting the number of maximum facial expression intensity values in each of the plurality of frames for each facial expression type. It is characterized by being.
[4] In the facial expression evaluation result smoothing device according to any one of [2] or [3], the facial expression intensity value smoothing processing unit performs weighting according to the position of each frame in the plurality of frames. And calculating the total value.
[5] The facial expression evaluation result smoothing device according to any one of [1] to [4], wherein the facial expression intensity value smoothing processing unit obtains the maximum value among the total values for each facial expression type. A facial expression type smoothing processing unit that selects a facial expression type corresponding to the total value as a classification result of facial expressions corresponding to the plurality of frames.
[6] In the facial expression evaluation result smoothing device according to any one of [1] to [5], the facial expression intensity value smoothing processing unit uses a number of frames smaller than the plurality of frames as a shift amount, The plurality of frames are shifted in the time direction by the shift amount.
[7]上記の課題を解決するため、本発明の一態様である顔表情評価結果平滑化プログラムは、コンピュータを、顔画像に基づき顔表情種別ごとに得られた複数の顔表情強度値を、フレームごとに取り込む顔表情強度値取得部と、前記顔表情強度値取得部が取り込んだ複数フレーム分の顔表情強度値を参照し、前記顔表情種別ごとの前記複数フレームの顔表情強度値に基づく合計値に基づいて、前記複数フレームに対応する代表顔表情強度値を計算する顔表情強度値平滑化処理部と、として機能させる。 [7] In order to solve the above problems, a facial expression evaluation result smoothing program according to an aspect of the present invention uses a computer to calculate a plurality of facial expression intensity values obtained for each facial expression type based on a facial image, Based on the facial expression intensity value of the plurality of frames for each facial expression type, referring to the facial expression intensity value acquisition unit captured for each frame and the facial expression intensity values for a plurality of frames captured by the facial expression intensity value acquisition unit The facial expression strength value smoothing processing unit calculates a representative facial expression strength value corresponding to the plurality of frames based on the total value.
本発明によれば、一連の顔画像を含む映像データから顔表情評価結果を安定して得ることができる。 According to the present invention, a facial expression evaluation result can be stably obtained from video data including a series of facial images.
以下、本発明を実施するための形態について、図面を参照して詳細に説明する。
[第1の実施の形態]
本発明の第1実施形態である顔表情評価結果平滑化装置を適用した顔表情解析装置は、学習処理および顔表情解析処理を、切替制御により切り替えて実行する。学習処理には、事前処理が含まれる。また、顔表情解析処理は、顔表情評価処理および顔表情評価結果平滑化処理を含む。学習処理では、顔表情解析装置は、顔表情種別ごとに、顔表情の度合(強度)がそれぞれ異なる顔画像データ列における各顔画像データの顔領域の画像特徴量と、評価者の主観評価による顔表情の度合を示す顔表情強度教師値との対応関係を回帰分析することにより、顔表情種別ごとの回帰モデルにおけるパラメータ値を求める。また、1フレームあたりの顔表情評価処理では、顔表情解析装置は、顔表情種別ごとに学習した回帰モデルに、評価用の顔画像データ(評価顔画像データ)における顔領域の画像特徴量を適用することによって、顔表情種別ごとに顔表情強度値を計算して顔表情強度値セットを生成する。ここで、顔表情強度値セットとは、1フレーム分の、複数の顔表情種別それぞれに対応する顔表情強度値のまとまりである。また、複数フレーム分の顔表情強度値セットを含む一区間あたりの顔表情評価結果平滑化処理では、顔表情解析装置は、それら複数フレーム分の顔表情強度値セットに基づいて、顔表情強度値および顔表情種別を平滑化する。
Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings.
[First Embodiment]
The facial expression analysis apparatus to which the facial expression evaluation result smoothing apparatus according to the first embodiment of the present invention is applied switches between learning processing and facial expression analysis processing by switching control. The learning process includes a pre-process. The facial expression analysis process includes a facial expression evaluation process and a facial expression evaluation result smoothing process. In the learning process, the facial expression analysis device uses the image feature amount of the facial region of each facial image data in the facial image data sequence having different degrees (intensities) of facial expressions for each facial expression type, and subjective evaluation of the evaluator. By performing a regression analysis of the correspondence with the facial expression intensity teacher value indicating the degree of facial expression, the parameter value in the regression model for each facial expression type is obtained. In the facial expression evaluation process per frame, the facial expression analysis apparatus applies the image feature amount of the facial region in the evaluation facial image data (evaluation facial image data) to the regression model learned for each facial expression type. By doing this, the facial expression strength value is calculated for each facial expression type to generate a facial expression strength value set. Here, the facial expression strength value set is a set of facial expression strength values corresponding to each of a plurality of facial expression types for one frame. In addition, in the facial expression evaluation result smoothing process for each section including the facial expression intensity value sets for a plurality of frames, the facial expression analysis apparatus performs facial expression intensity values based on the facial expression intensity value sets for the plurality of frames. And smoothing facial expression types.
図1は、本発明の第1実施形態である顔表情評価結果平滑化装置を適用した顔表情解析装置の機能構成を示すブロック図である。同図に示すように、顔表情解析装置1は、画像データ取得部10と、顔表情強度教師値取得部20と、顔領域抽出部30と、画像特徴量計算部40と、回帰分析部50と、回帰モデル記憶部60と、顔表情評価部70と、平滑化処理部(顔表情評価結果平滑化装置)80と、モード切替部90とを備える。
FIG. 1 is a block diagram showing a functional configuration of a facial expression analysis apparatus to which the facial expression evaluation result smoothing apparatus according to the first embodiment of the present invention is applied. As shown in the figure, the facial
モード切替部90は、例えば、顔表情解析装置1が制御プログラムを実行することにより実現される切替制御によって、顔表情解析装置1を学習モードと顔表情解析モードとの間で切り替える。学習モードは、顔表情解析装置1が事前処理および学習処理を実行する動作モードである。また、顔表情解析モードは、顔表情解析装置1が顔表情解析処理を実行する動作モードである。なお、モード切替部90は、例えば、操作者による顔表情解析装置1の切替操作にしたがって、学習モードと顔表情解析モードとを切替えてもよい。
The
モード切替部90によって顔表情解析装置1を学習モードに設定している場合、顔表情解析装置1は、画像データ取得部10と、顔表情強度教師値取得部20と、顔領域抽出部30と、画像特徴量計算部40と、回帰分析部50と、回帰モデル記憶部60とを機能させる。また、モード切替部90によって顔表情解析装置1を顔表情解析モードに設定している場合、顔表情解析装置1は、画像データ取得部10と、顔領域抽出部30と、画像特徴量計算部40と、回帰モデル記憶部60と、顔表情評価部70と、平滑化処理部80とを機能させる。
When the facial
画像データ取得部10は、図示しない外部装置が供給する画像データを取り込む。具体的に、顔表情解析装置1が学習モードに設定されている場合、画像データ取得部10は、例えば、顔画像データベースから複数の顔画像データを取り込む。顔画像データベースは、例えば、顔表情の種類別に、複数人の顔表情の度合がそれぞれ異なる顔画像データ列の集合を格納したデータベースである。また、顔表情解析装置1が顔表情解析モードに設定されている場合、画像データ取得部10は、例えば、映像撮影装置または映像記録装置が供給する、顔表情解析のための評価映像データを取り込む。この評価映像データは、時系列のフレームに対応する複数の評価顔画像データを含んでいる。
The image
顔表情解析装置1が学習モードに設定されている場合、画像データ取得部10は、取り込んだ顔画像データを顔領域抽出部30に供給する。また、顔表情解析装置1が顔表情解析モードに設定されている場合、画像データ取得部10は、取り込んだ評価映像データから、順次またはあらかじめ決定された所定フレーム数おきに、顔画像データを顔領域抽出部30に供給する。
When the facial
顔表情解析装置1が学習モードに設定されている場合、顔表情強度教師値取得部20は、図示しない外部装置が供給する顔表情強度教師値を取り込み、この顔表情強度教師値を回帰分析部50に供給する。外部装置は、例えば、前記の顔画像データベースまたはコンピュータ装置等の情報処理装置である。顔表情強度教師値は、顔画像データベースに格納された、顔表情種別ごとの顔画像データ列について、各顔画像データにおける顔表情の度合を、評価者の主観評価にしたがって表した値である。一例として、顔表情強度教師値を、下限値(例えば“0(ゼロ)”)から上限値(例えば“100”)までの整数で表す。これにおいて、顔表情強度教師値が小さいほど顔表情の度合が小さく、顔表情強度教師値が大きいほど顔表情の度合が大きい。なお、顔表情の度合を評価する評価者は、一人でもよいし、複数でもよい。評価者が複数である場合、各評価者によって付された値の平均値を顔表情強度教師値としてもよい。
When the facial
顔表情解析装置1が学習モードに設定されている場合、画像データ取得部10が取り込む顔画像データと、この顔画像データに対応して顔表情強度教師値取得部20が取り込む顔表情強度教師値との対データは、顔表情解析装置1における教師データである。
When the facial
顔領域抽出部30は、画像データ取得部10が供給する画像データ(顔画像データまたは評価顔画像データ)を取り込み、この画像データから顔の解析領域を抽出する。具体的に、顔領域抽出部30は、顔領域検出部31と、解析領域決定部32とを備える。
The face
顔領域検出部31は、画像データ取得部10が供給する画像データを取り込み、この画像データについて顔検出処理を実行することによってその画像データから顔領域を検出する。この顔領域のデータ(顔領域データ)は、例えば矩形の画像データである。
The face
顔領域検出部31が実行する顔検出処理のアルゴリズムとして、公知の顔検出アルゴリズム(例えば、AdaBoost)を適用できる。なお、公知の顔検出アルゴリズムについては、例えば、PAUL VIOLA, MICHAEL J. JONES, "Robust Real-Time Face Detection", International Journal of Computer Vision, 2004, Vol. 57, No. 2, pp. 137-154に、詳細が開示されている。
A known face detection algorithm (for example, AdaBoost) can be applied as the algorithm of the face detection process executed by the face
解析領域決定部32は、顔領域検出部31が検出した顔領域データを所定サイズに正規化する。そして、解析領域決定部32は、正規化した顔領域データ(正規化顔領域データ)から解析領域を抽出する。具体的に、解析領域決定部32は、顔領域データを、例えば水平方向128画素×垂直方向128画素の正規化顔領域データに正規化する。すなわち、解析領域決定部32は、顔領域データを所定サイズの矩形画像に拡大または縮小する画像処理を実行することによって正規化顔領域データを生成する。つまり、画像データに含まれる顔の大きさは画像データによって様々であるため、解析領域決定部32は、顔領域を拡大または縮小させて、全ての画像データにおける顔領域の解像度を同程度にする。これにより、解像度が異なる顔領域データにおける情報量を、略均等にすることができる。
The analysis
解析領域決定部32は、正規化顔領域データから、画像特徴量を計算する領域である解析領域を決定し、この解析領域のデータ(解析領域データ)を抽出する。解析領域は、例えば、正規化顔領域内の中心部の円(楕円または真円)領域である。そして、解析領域決定部32は、例えば、解析領域の中心を通る水平方向の直線で当該解析領域を二分し、その上部の領域を上部解析領域(第1の解析部分領域)、下部の領域を下部解析領域(第2の解析部分領域)として決定する。言い換えると、解析領域決定部32は、正規化顔領域に内接する円形または楕円形よりも小さな円形または楕円形の解析領域を上下(縦)方向に二分して上部解析領域および下部解析領域を決定する。
The analysis
画像特徴量計算部40は、顔領域抽出部30が抽出した解析領域データの画像特徴量を計算する。
The image feature
具体的に、顔表情解析装置1が学習モードに設定されて実行する事前処理において、画像特徴量計算部40は、解析領域決定部32が決定した解析領域における上部解析領域について、例えば、Scale Invariant Feature Transformation(SIFT)特徴量またはSpeeded Up Robust Features(SURF)特徴量等の局所特徴量を計算する。画像特徴量計算部40は、全ての顔画像データについての局所特徴量についてクラスタリング処理を実行することによってクラスタを生成し、このクラスタを内蔵する記憶部に記憶させる。クラスタリング処理として、例えば、K平均法を適用する。画像特徴量計算部40は、下部解析領域についても上部解析領域と同様にクラスタを生成し、このクラスタを上記の記憶部に記憶させる。なお、画像特徴量計算部40は、学習処理において用いる全ての顔画像データについての上部解析領域および下部解析領域それぞれに対するクラスタを、外部装置から取り込んで上記の記憶部に記憶させてもよい。
Specifically, in the pre-processing executed by the facial
顔表情解析装置1が学習モードに設定されて実行する学習処理、または顔表情解析モードに設定されて実行する顔表情評価処理において、画像特徴量計算部40は、解析領域決定部32が決定した解析領域における上部解析領域からSIFT特徴量、またはSURF特徴量等の局所特徴量を計算する。そして、画像特徴量計算部40は、これら局所特徴量を、事前処理において記憶した上部解析領域に対するクラスタに分類し、各クラスタをビン、各クラスタの要素数を頻度とするヒストグラムであるBag−of−Keypointsを生成する。画像特徴量計算部40は、下部解析領域についても上部解析領域と同様に、Bag−of−Keypointsを生成する。
In the learning process executed when the facial
画像特徴量計算部40は、上部解析領域および下部解析領域それぞれについてのBag−of−Keypointsを連結して解析領域全体のBag−of−Keypointsを生成する。具体的に、画像特徴量計算部40は、例えば、上部解析領域に対する175次元のBag−of−Keypointsに、下部解析領域に対する125次元のBag−of−Keypointsを連結し、解析領域全体として300次元のBag−of−Keypointsを生成する。
The image feature
なお、Bag−of−Keypointsについては、例えば、Gabriella Csurka, Christopher R. Dance, Lixin Fan, Jutta Willamowski, Gedric Bray, "Visual Categorization with Bag of Keypoints", Proc. of ECCV Workshop on Statistical Learning in Computer Vision, pp. 59-74, 2004に、詳細が開示されている。 Regarding Bag-of-Keypoints, for example, Gabriella Csurka, Christopher R. Dance, Lixin Fan, Jutta Willamowski, Gedric Bray, "Visual Categorization with Bag of Keypoints", Proc. Of ECCV Workshop on Statistical Learning in Computer Vision, Details are disclosed in pp. 59-74, 2004.
顔表情解析装置1が学習モードに設定されている場合、画像特徴量計算部40は、解析領域全体のBag−of−Keypointsを、画像特徴量として回帰分析部50に供給する。また、顔表情解析装置1が顔表情解析モードに設定されている場合、画像特徴量計算部40は、解析領域全体のBag−of−Keypointsを、画像特徴量として顔表情評価部70に供給する。
When the facial
顔表情解析装置1が学習モードに設定されている場合、回帰分析部50は、画像特徴量計算部40が供給する、顔画像データに対する画像特徴量を取り込み、また、顔表情強度教師値取得部20が供給する、当該顔画像データに対する顔表情強度教師値を取り込む。
When the facial
回帰分析部50は、顔画像データに対する画像特徴量とその顔画像データに対応付けられた顔表情種別ごとの顔表情強度教師値とを用いて回帰分析処理を実行することにより、回帰モデルが有するパラメータ値を顔表情種別ごとに更新する。回帰モデルは、顔領域の画像特徴量から顔表情の度合を示す顔表情強度値を計算するための計算手段である。この回帰モデルは、可変のパラメータを有し、パラメータ値を更新可能とする数式モデルである。回帰分析部50は、例えば、顔表情種別が“怒り”である場合の回帰分析において、顔表情種別が“怒り”である顔画像データについては顔表情強度教師値そのものを用いる一方、顔表情種別が“怒り”以外である顔画像データについては顔表情強度教師値を“0(ゼロ)”として用いて、回帰処理を実行する。そして、回帰分析部50は、回帰処理によって得られるパラメータ値を、回帰モデル記憶部60に記憶させる。なお、回帰分析部50は、顔表情種別ごとに回帰分析処理を実行するのではなく、顔画像データに対する画像特徴量とその顔画像データに対応付けられた全顔表情における顔表情強度教師値とを用いて回帰分析処理を実行してもよい。
The
回帰モデル記憶部60は、回帰分析部50が供給するパラメータ値を、顔表情種別ごとに記憶する。回帰モデル記憶部60は、例えば、磁気ハードディスク装置または半導体記憶装置により実現される。
The regression
顔表情解析装置1が顔表情解析モードに設定されている場合、顔表情評価部70は、画像特徴量計算部40が供給する、評価顔画像データに対する画像特徴量を取り込む。また、顔表情評価部70は、回帰モデル記憶部60から、顔表情種別ごとに回帰モデルのパラメータ値を読み込む。そして、顔表情評価部70は、各回帰モデルに画像特徴量を適用して顔表情種別ごとに顔表情強度値を計算することによって顔表情強度値セットを生成し、この顔表情強度値セットを平滑化処理部80に供給する。この顔表情強度値セットは、1フレーム分の評価顔画像データに対するデータセットである。具体的に、顔表情強度値セットは、各顔表情種別と顔表情強度値とを対応付けたものである。
When the facial
顔表情解析装置1が顔表情解析モードに設定されている場合、平滑化処理部80は、顔表情評価部70が供給する顔表情強度値セットを時系列に取り込んで記憶する。そして、平滑化処理部80は、複数フレーム分の顔表情強度値セットを含む区間ごとに、顔表情強度値を平滑化することによって、当該区間内における各フレームに対する平滑化後の顔表情強度値と顔表情の分類結果である顔表情種別情報を得る。
When the facial
次に、平滑化処理部80の詳細を説明する。
図2は、平滑化処理部80の機能構成を示すブロック図である。同図に示すように、平滑化処理部80は、顔表情強度値取得部81と、顔表情強度値平滑化処理部82と、顔表情種別平滑化処理部83とを備える。
Next, details of the smoothing
FIG. 2 is a block diagram illustrating a functional configuration of the smoothing
顔表情強度値取得部81は、顔表情評価部70が供給する顔表情強度値セットを時系列に取り込んで内蔵するバッファに記憶させる。このバッファは、複数フレームを含む区間における複数組の顔表情強度値セットを記憶可能な容量を有する、FIFO(First In/First Out)形式の記憶部である。
The facial expression intensity
顔表情強度値平滑化処理部82は、顔表情強度値取得部81がバッファに記憶させた複数フレーム分の顔表情強度値セットを含む区間ごとに、前記顔表情強度値取得部が取り込んだ複数フレーム分の顔表情強度値セットを参照し、顔表情種別ごとの複数フレームの顔表情強度値に基づく合計値に基づいて、複数フレームに対応する代表顔表情強度値を計算する。具体的に、顔表情強度値平滑化処理部82は、顔表情強度値取得部81がバッファに記憶させた複数フレーム分の顔表情強度値セットを含む区間ごとに、当該区間内の複数フレーム分の顔表情強度値セットについて、顔表情種別ごとに顔表情強度値の合計値を計算する。そして、顔表情強度値平滑化処理部82は、顔表情種別ごとの顔表情強度値の合計値に基づいて、顔表情種別ごとの平均値を計算する。ここでの平均値は、単純平均値である。そして、顔表情強度値平滑化処理部82は、顔表情種別ごとの顔表情強度値の平均値のうち最大の平均値、言い換えると、顔表情種別ごとの顔表情強度値の合計値のうち最大の合計値から求まる平均値を、当該区間に対応する平滑化後の代表顔表情強度値として出力する。
The facial expression intensity value smoothing
顔表情種別平滑化処理部83は、顔表情強度値取得部81がバッファに記憶させた複数フレーム分の顔表情強度値セットを含む区間ごとに、顔表情強度値平滑化処理部82が求めた最大の平均値に対応する顔表情種別を、当該区間に対応する平滑化後の顔表情の分類結果として選出する。そして、顔表情種別平滑化処理部83は、その顔表情の分類結果を示す顔表情種別情報を生成し、この顔表情種別情報を出力する。
The facial expression type smoothing
図3は、顔表情解析装置1が学習モードに設定されて学習処理を実行する際に用いる、顔画像データベースのデータ構造の一部分を概念的に示す図である。同図に示すように、顔画像データベースは、顔表情種別ごとに、各人物(被写体)のニュートラル顔表情からピーク顔表情まで顔表情の度合がそれぞれ異なる顔画像データ列の集合に、当該顔表情種別を示すラベルを対応付けて構成した顔画像データ群を格納している。顔表情種別は、例えば、「怒り」、「嫌悪」、「恐れ」、「幸せ」、「悲しみ」、および「驚き」の6種類である。ニュートラル顔表情は、人物の中立的な顔表情であり、例えば、人物の無表情な顔つきから表情の種類を判別困難な程度の顔つきまでを示す表情である。つまり、ニュートラル顔表情には、顔表情の幅がある。ピーク顔表情は、人物の感情を豊かに表現した顔表情であり、例えば、怒り、嫌悪、恐れ、幸せ、悲しみ、驚き等の感情が強く表現された顔つきを示す。
FIG. 3 is a diagram conceptually showing a part of the data structure of the face image database used when the facial
顔画像データベースとして、例えば、Patrick Lucey, Jeffrey F. Cohn, Takeo Kanade, Jason Saragih, Zara Ambadar, "The Extended Cohn-Kanade Dataset (CK+): A complete dataset for action unit and emotion-specified expression", the Third IEEE Workshop on CVPR for Human Communicative Behavior Analysis, pp. 94-101, 2010に記載された、Cohn-Kanade Facial Expression Databaseを適用できる。 For example, Patrick Lucey, Jeffrey F. Cohn, Takeo Kanade, Jason Saragih, Zara Ambadar, "The Extended Cohn-Kanade Dataset (CK +): A complete dataset for action unit and emotion-specified expression", the Third The Cohn-Kanade Facial Expression Database described in IEEE Workshop on CVPR for Human Communicative Behavior Analysis, pp. 94-101, 2010 can be applied.
図4は、顔表情解析装置1が学習モードに設定されて学習処理を実行する際に用いる顔表情強度教師値を、顔画像データに対応付けて示す図である。同図に示すように、顔表情強度教師値は、顔画像データ群における顔表情種別ごとの各被写体の顔画像データ列それぞれについて、各顔画像データの顔表情の度合を、評価者による主観評価にしたがって下限値“0(ゼロ)”から上限値“100”までの整数で表される。
FIG. 4 is a diagram showing the facial expression intensity teacher value used when the facial
図4では、顔表情種別が“幸せ”である第1の被写体の顔画像データ列について、ニュートラル顔表情に対応する顔表情強度教師値が“0(ゼロ)”、顔表情の度合が大きくなるにしたがって、顔表情強度教師値が例えば“8”、“46”、“83”等と大きくなり、ピーク顔表情に対応する顔表情強度教師値が“100”となっている。また、顔表情種別が“幸せ”である第2の被写体の顔画像データ列について、ニュートラル顔表情に対応する顔表情強度教師値が“0(ゼロ)”、顔表情の度合が大きくなるにしたがって、顔表情強度教師値が例えば“6”、“52”、“79”等と大きくなり、ピーク顔表情に対応する顔表情強度教師値が“100”となっている。また、顔表情種別が“驚き”である顔画像データ列について、ニュートラル顔表情に対応する顔表情強度教師値が“0(ゼロ)”、顔表情の度合が大きくなるにしたがって、顔表情強度教師値が例えば“7”、“43”、“88”等と大きくなり、ピーク顔表情に対応する顔表情強度教師値が“100”となっている。なお、この例のように、ニュートラル顔表情からピーク顔表情に顔表情が変化する顔画像列に対し、顔表情強度教師値の下限値および上限値を設けることを必須の条件としてもよいし、必須の条件としなくてもよい。 In FIG. 4, for the face image data string of the first subject whose facial expression type is “happy”, the facial expression intensity teacher value corresponding to the neutral facial expression is “0 (zero)”, and the degree of facial expression increases. Accordingly, the facial expression intensity teacher value increases to, for example, “8”, “46”, “83”, and the facial expression intensity teacher value corresponding to the peak facial expression is “100”. For the face image data string of the second subject whose facial expression type is “happy”, the facial expression intensity teacher value corresponding to the neutral facial expression is “0 (zero)”, and the degree of facial expression increases. For example, the facial expression intensity teacher value increases to, for example, “6”, “52”, “79”, and the facial expression intensity teacher value corresponding to the peak facial expression is “100”. In addition, for a facial image data string whose facial expression type is “surprise”, the facial expression intensity teacher value corresponding to the neutral facial expression is “0 (zero)”, and the facial expression intensity teacher increases as the degree of facial expression increases. The value is increased to, for example, “7”, “43”, “88”, and the facial expression intensity teacher value corresponding to the peak facial expression is “100”. In addition, as in this example, it may be an indispensable condition to provide a lower limit value and an upper limit value of the facial expression intensity teacher value for the facial image sequence in which the facial expression changes from the neutral facial expression to the peak facial expression, It does not have to be an indispensable condition.
図5は、画像データと、この画像データから抽出された顔領域データと、この顔領域データを正規化して得られた正規化顔領域データとを模式的に示す図である。つまり、同図は、画像データ取得部10が取得する画像データ2と、顔領域検出部31が検出する顔領域データ2aと、解析領域決定部32が正規化(ここでは、縮小)する正規化顔領域データ2bとを時系列に示している。同図に示すように、画像データ2は、人物の首より上側を含む画像である。顔領域データ2aは、画像データ2から抽出された顔を含む画像である。顔を含む画像とは、例えば、人物の顔表情を決定付ける顔の主要なパーツ(両眉毛、両目、鼻、口)を含む画像である。正規化顔領域データ2bは、顔領域データ2aを水平画素数LX×垂直画素数LYサイズに正規化した画像である。水平画素数LXと垂直画素数LYとの関係は、例えば、正規化顔領域が正方形となる関係である。
FIG. 5 is a diagram schematically showing image data, face area data extracted from the image data, and normalized face area data obtained by normalizing the face area data. That is, the figure shows the
図6は、解析領域決定部32が正規化顔領域データ2bから決定した解析領域を、視覚的に分かり易く線描画した図である。同図に示すように、解析領域決定部32は、水平画素数LX×垂直画素数LYの正規化顔領域データ2bの中心位置を中心として、正規化顔領域データ2bに含まれる円形の解析領域3を決定する。解析領域3の水平方向の径は、例えば水平画素数LXの0.8倍の大きさを有し、垂直方向の径は、例えば垂直画素数LYの0.8倍の大きさを有する。このように、解析領域3の径を正規化顔領域データ2bの内接円の径よりも小さくすることにより、顔の認識や顔表情認識にとって重要度が低い髪の毛、耳、イヤリング等の情報を除外することができる。解析領域決定部32は、解析領域3の中心を通る水平線で、解析領域3を上部解析領域3Uと下部解析領域3Dとに区分する。このように区分することにより、上部解析領域3Uは両眉毛および両目を含み、下部解析領域3Dは鼻頭および口を含むこととなる。
FIG. 6 is a diagram in which the analysis region determined by the analysis
図7は、画像特徴量計算部40によって生成された、上部解析領域における特徴量のヒストグラムと、下部解析領域における特徴量のヒストグラムと、これら二つのヒストグラムが連結された、解析領域全体における特徴量のヒストグラムとを模式的に示した図である。同図は、上部解析領域における特徴量のヒストグラムの後に、下部解析領域における特徴量のヒストグラムを連結した例である。このように、画像特徴量計算部40が、分割された各領域でヒストグラムを生成して連結することにより、Bag−of−Keypointsに位置情報を加えることができる。なお、画像特徴量計算部40は、下部解析領域における特徴量のヒストグラムの後に、上部解析領域における特徴量のヒストグラムを連結することによって、解析領域全体における特徴量のヒストグラムを生成してもよい。
FIG. 7 shows a feature amount histogram generated by the image feature
図8は、回帰分析部50が実行する回帰分析処理における一つの回帰モデルを模式的に示した図である。同図において、横軸は回帰式における独立変数を表し、本実施形態では、顔画像データの顔領域の画像特徴量を表す。縦軸は回帰式における従属変数を表し、本実施形態では、顔表情強度教師値を表わす。同図における複数の四角形印の分布は、画像特徴量とこの画像特徴量に対する顔表情強度教師値との対応関係を示している。また、同図において曲線で表されている実線は、回帰分析部50が実行する回帰分析処理によって得られる回帰式を示すグラフである。
FIG. 8 is a diagram schematically showing one regression model in the regression analysis process executed by the
回帰分析部50は、回帰モデルとして、例えば、線形回帰モデル、ロジスティック回帰モデル、またはサポートベクトル回帰モデルを適用して回帰分析処理を実行する。次に、各回帰モデルを適用した回帰分析処理について説明する。
The
[1]線形回帰モデル
回帰モデルとして線形回帰モデルを適用した場合、回帰分析部50は、線形回帰分析処理として、画像特徴量および顔表情強度教師値の関係を、下記の式(1)に示す積和関数にモデル化する。ただし、Yは顔表情強度教師値、Xiは画像特徴量(i=1,・・・,I)である。また、α、βiはパラメータである。
[1] Linear Regression Model When a linear regression model is applied as the regression model, the
回帰分析部50は、画像特徴量とこの画像特徴量に対する顔表情強度教師値との対応関係を例えば最小二乗法によって回帰させることにより、式(1)に示す積和関数を推計する。具体的に、式(1)が画像特徴量とこの画像特徴量に対する顔表情強度教師値との対データに対して最適な近似式となるように、回帰分析部50は、近似誤差の二乗和が最小となるパラメータα、βiを、例えば最急降下法によって求める。回帰分析部50は、回帰分析処理において、相関が強い(例えば、相関係数が“0.5”以上である)独立変数の一方を削除することによって多重共線を排除または抑制してもよい。また、全ての顔表情種別に共通して“0(ゼロ)”である独立変数(画像特徴量)について、回帰分析部50は、その独立変数を削除する処理を行ってもよい。
The
[2]ロジスティック回帰モデル
回帰モデルとしてロジスティック回帰モデルを適用した場合、回帰分析部50は、ロジスティック回帰分析処理として、画像特徴量および顔表情強度教師値の関係を、下記の式(2)に示す関数にモデル化する。ただし、Yは顔表情強度教師値、Xiは画像特徴量(i=1,・・・,I)である。また、α、βiはパラメータである。
[2] Logistic Regression Model When a logistic regression model is applied as the regression model, the
回帰分析部50は、画像特徴量とこの画像特徴量に対する顔表情強度教師値との対応関係を回帰させることによってパラメータα、βiを求める。このロジスティック回帰モデルを適用することにより、回帰分析部50は、画像特徴量Xiに対する顔表情強度教師値Yが0から100までの間(0≦Y≦100)に収まる回帰式を得ることができる。
The
[3]サポートベクトル回帰モデル
回帰モデルとしてサポートベクトル回帰モデルを適用した場合、回帰分析部50は、サポートベクトル回帰分析処理として、下記の式(3)の形で、画像特徴量Xi(i=1,・・・,I)と顔表情強度教師値Yとを関係付ける。
[3] Support Vector Regression Model When the support vector regression model is applied as the regression model, the
式(3)において、関数φは、I次元の特徴量ベクトルをJ次元のベクトル(行ベクトル)に写像する写像関数である。このサポートベクトル回帰モデルは、関数φによるカーネルトリックを用いる。βj(j=1,・・・,J)は、関数φによる写像後のベクトルの要素それぞれに対応する重み係数である。また、αはバイアス項である。回帰分析部50は、入力される多数の顔表情強度教師値を用いて式(3)の形の回帰を行い、パラメータα,β1,・・・,βJを求める。なお、パラメータの計算自体は、例えば、ニュートン法に基づいて既存のサポートベクトル回帰の学習法を適用することができる。
In equation (3), the function φ is a mapping function that maps an I-dimensional feature vector into a J-dimensional vector (row vector). This support vector regression model uses a kernel trick with a function φ. β j (j = 1,..., J) is a weighting coefficient corresponding to each element of the vector after mapping by the function φ. Α is a bias term.
次に、顔表情解析装置1の動作について説明する。
まず、学習モードに設定された顔表情解析装置1は、学習処理において用いる全ての顔画像データを顔画像データベースから取り込んで、以下に示す事前処理を実行する。すなわち、画像データ取得部10が、顔画像データベースから顔画像データを取り込む。次に、顔領域抽出部30がその取り込んだ顔画像データのサイズを正規化して解析領域(上部解析領域および下部解析領域)を抽出する。次に、画像特徴量計算部40が、上部解析領域について、SIFT特徴量またはSURF特徴量等の局所特徴量を計算する。次に、画像特徴量計算部40が、全ての顔画像データの上部解析領域に対する局所特徴量についてクラスタリング処理を実行することによってクラスタを生成し、このクラスタを記憶部に記憶させる。また、画像特徴量計算部40は、下部解析領域についても上部解析領域と同様にクラスタを生成し、このクラスタを記憶部に記憶させる。
Next, the operation of the facial
First, the facial
次に、顔表情解析装置1の学習処理について説明する。
図9は、顔表情解析装置1が実行する学習処理の手順を示すフローチャートである。
ステップS1において、画像データ取得部10は、例えば、顔画像データベースに格納された複数の顔画像データから一つの顔画像データを取り込み、この顔画像データを顔領域抽出部30に供給する。
次に、ステップS2において、顔表情強度教師値取得部20は、ステップS1の処理において画像データ取得部10に取り込まれた顔画像データに対応する顔表情強度教師値を、外部装置(例えば、顔画像データベース)から取り込み、この顔表情強度教師値を回帰分析部50に供給する。
Next, the learning process of the facial
FIG. 9 is a flowchart showing the procedure of the learning process executed by the facial
In step S <b> 1, for example, the image
Next, in step S2, the facial expression intensity teacher
次に、ステップS3において、顔領域抽出部30は、画像データ取得部10が供給する顔画像データを取り込み、この顔画像データに対して顔検出処理を実行することによってその顔画像データから人物の顔領域を検出する。次に、解析領域決定部32は、顔領域検出部31が検出した顔領域データを所定サイズ(例えば、水平方向128画素×垂直方向128画素)に正規化する。次に、解析領域決定部32は、正規化顔領域データから解析領域を抽出し、この解析領域から二つの解析部分領域(上部解析領域および下部解析領域)を決定する。
Next, in step S <b> 3, the face
次に、ステップS4において、画像特徴量計算部40は、顔領域抽出部30が抽出した解析領域データの画像特徴量を計算する。具体的に、画像特徴量計算部40は、上部解析領域からSIFT特徴量またはSURF特徴量等の局所特徴量を計算する。次に、画像特徴量計算部40は、これら局所特徴量を、事前処理において記憶した上部解析領域に対するクラスタに分類し、各クラスタをビン、各クラスタの要素数を頻度とするヒストグラムを生成する。また、画像特徴量計算部40は、下部解析領域からSIFT特徴量またはSURF等の局所特徴量を計算する。次に、画像特徴量計算部40は、これら局所特徴量を、事前処理において記憶した下部解析領域に対するクラスタに分類し、各クラスタをビン、各クラスタの要素数を頻度とするヒストグラムを生成する。次に、画像特徴量計算部40は、上部解析領域および下部解析領域それぞれについてのヒストグラムを連結して解析領域全体のヒストグラム、言い換えると、解析領域全体のBag−of−Keypointsを生成する。次に、画像特徴量計算部40は、解析領域全体のBag−of−Keypointsを、画像特徴量として回帰分析部50に供給する。
Next, in step S <b> 4, the image feature
次に、ステップS5において、顔画像データベースから取り込むべき全ての顔画像データの取り込みが完了した場合(ステップS5:YES)、顔表情解析装置1はステップS6の処理に移す。一方、顔画像データベースから取り込むべき全ての顔画像データの取り込みが完了していない場合(ステップS5:NO)は、顔表情解析装置1はステップS1の処理に戻す。
Next, in step S5, when the acquisition of all the face image data to be acquired from the face image database is completed (step S5: YES), the facial
ステップS6において、回帰分析部50は、顔画像データに対する画像特徴量とその顔画像データに対応付けられた顔表情種別ごとの顔表情強度教師値とを用いて回帰分析処理を実行することにより、回帰モデルが有するパラメータ値を顔表情種別ごとに更新する。次に、回帰分析部50は、回帰処理を行って得られるパラメータ値を、回帰モデル記憶部60に供給する。
次に、ステップS7において、回帰モデル記憶部60は、回帰分析部50が供給するパラメータ値を、顔表情種別ごとに記憶する。
In step S6, the
Next, in step S7, the regression
図10は、顔表情解析装置1が実行する1フレーム分の顔表情評価処理の手順を示すフローチャートである。
ステップS21において、画像データ取得部10は、例えば、映像撮影装置または映像記録装置が供給する、顔表情解析のための評価顔画像データを取り込み、この評価顔画像データを顔領域抽出部30に供給する。
FIG. 10 is a flowchart illustrating a procedure of facial expression evaluation processing for one frame executed by the facial
In step S <b> 21, the image
次に、ステップS22において、顔領域抽出部30は、画像データ取得部10が供給する評価顔画像データを取り込み、この評価顔画像データに対して顔検出処理を実行することによってその評価顔画像データから人物の顔領域を検出する。次に、解析領域決定部32は、顔領域検出部31が検出した評価顔領域データを所定サイズ(例えば、水平方向128画素×垂直方向128画素)に正規化する。次に、解析領域決定部32は、正規化顔領域データから解析領域を抽出し、この解析領域から二つの解析部分領域(上部解析領域および下部解析領域)を決定する。
Next, in step S22, the face
次に、ステップS23において、画像特徴量計算部40は、顔領域抽出部30が抽出した解析領域データの画像特徴量を計算する。例えば、画像特徴量計算部40は、解析領域決定部32が決定した解析領域における上部解析領域および下部解析領域それぞれのデータについて、学習処理におけるステップS4(図9参照)の処理と同様に、ヒストグラムを計算する。次に、画像特徴量計算部40は、上部解析領域および下部解析領域それぞれについてのヒストグラムを連結して解析領域全体のヒストグラム、つまり、解析領域全体のBag−of−Keypointsを生成する。次に、画像特徴量計算部40は、解析領域全体のBag−of−Keypointsを、画像特徴量として顔表情評価部70に供給する。
Next, in step S23, the image feature
次に、ステップS24において、顔表情評価部70は、画像特徴量計算部40が供給する、評価顔画像データに対する画像特徴量を取り込む。次に、顔表情評価部70は、回帰モデル記憶部60から、顔表情種別ごとに回帰モデルのパラメータ値を読み込む。次に、顔表情評価部70は、各回帰モデルに画像特徴量を適用して顔表情種別ごとに顔表情強度値を計算することによって顔表情強度値セットを生成する。
Next, in step S <b> 24, the facial
図11は、顔表情解析モードに設定されている顔表情解析装置1が評価映像データを取り込んで顔表情評価処理を繰り返し実行することによって顔表情評価部70で得られる、一連の顔表情強度値セットの一例を示す図である。同図において、網掛けされた顔表情強度値は、各顔表情強度値セット、つまり各フレームにおける顔表情強度値の最大値(顔表情強度最大値)である。同図によれば、時刻(t−3)から時刻(t+4)までの8フレームにおいて、時刻(t−3),(t−2),(t−1),(t+1),(t+2),(t+3),(t+4)それぞれの顔表情強度値セットにおける顔表情強度最大値に対応する顔表情種別(代表顔表情種別)は、「悲しみ」である。これに対し、時刻tの顔表情強度値セットにおける顔表情強度最大値に対応する代表顔表情種別は、「幸せ」である。同図を参照して、時刻(t−2)から時刻(t+3)までの6フレームを一区間とした場合の、平滑化処理部80が実行する顔表情評価結果平滑化処理について説明する。
FIG. 11 shows a series of facial expression intensity values obtained by the facial
平滑化処理部80において、顔表情強度値取得部81は、顔表情評価部70が供給する顔表情強度値セットを時系列に取り込んで内蔵するバッファに記憶させる。つまり、顔表情強度値取得部81は、時刻(t−2)から時刻(t+3)までの6フレーム分の顔表情強度値セットをバッファに記憶させる。
In the smoothing
顔表情強度値取得部81のバッファに6フレーム分の顔表情強度値セットが記憶されると、顔表情強度値平滑化処理部82は、そのバッファに記憶された6フレーム分の顔表情強度値セットについて、顔表情種別ごとに当該区間内における顔表情強度値の平均値を計算する。
When the facial expression intensity value set for six frames is stored in the buffer of the facial expression intensity
具体的に、顔表情強度値平滑化処理部82は、当該区間内において、顔表情種別が「怒り」である6個の顔表情強度値の平均値{(6.1+2.4+3.2+3.5+4.1+5.2)/6}を計算し、顔表情種別「怒り」に対する顔表情強度の平均値“4.1”を得る。また、顔表情強度値平滑化処理部82は、当該区間内において、顔表情種別が「嫌悪」である6個の顔表情強度値の平均値{(2.7+3.3+2.4+2.1+0.8+0.1)/6}を計算し、顔表情種別「嫌悪」に対する顔表情強度の平均値“1.9”を得る。また、顔表情強度値平滑化処理部82は、当該区間内において、顔表情種別が「恐れ」である6個の顔表情強度値の平均値{(8.9+11.1+5.2+7.8+2.3+1.7)/6}を計算し、顔表情種別「恐れ」に対する顔表情強度の平均値“6.2”を得る。また、顔表情強度値平滑化処理部82は、当該区間内において、顔表情種別が「幸せ」である6個の顔表情強度値の平均値{(18.8+48.3+78.2+25.5+60.2+40.1)/6}を計算し、顔表情種別「幸せ」に対する顔表情強度の平均値“45.2”を得る。また、顔表情強度値平滑化処理部82は、当該区間内において、顔表情種別が「悲しみ」である6個の顔表情強度値の平均値{(68.3+70.1+72.3+74.5+72.2+74.5)/6}を計算し、顔表情種別「悲しみ」に対する顔表情強度の平均値“72.0”を得る。また、顔表情強度値平滑化処理部82は、当該区間内において、顔表情種別が「驚き」である6個の顔表情強度値の平均値{(1.8+9.2+12.8+6.5+2.1+4.4)/6}を計算し、顔表情種別「驚き」に対する顔表情強度の平均値“6.1”を得る。
Specifically, the facial expression intensity value smoothing
そして、顔表情強度値平滑化処理部82は、6種類の顔表情種別それぞれに対する顔表情強度値の平均値のうち最大の平均値である“72.0”を、当該区間内の時刻tに対応する平滑化後の代表顔表情強度値として出力する。
Then, the facial expression intensity value smoothing
つまり、平滑化処理部80は、下記の式(4)により、当該区間内の時刻tにおける代表顔表情強度値Itを計算する。ただし、eは、顔表情種別(例えば、「怒り(Anger)」、「嫌悪(Disgust)」、「恐れ(Fear)」、「幸せ(Happiness)」、「悲しみ(Sadness)」、および「驚き(Surprise)」の6種類)を示す。IeTは、時刻T((t−m)≦T≦(t+n))における顔表情種別eに対応する顔表情強度値である。よって、時刻(t−m)から時刻(t+n)まで顔表情強度値IeTをたし合わせたものが合計値である。また、図11を適用した場合、mは“2”、nは“3”である。
In other words, the smoothing
また、顔表情種別平滑化処理部83は、顔表情強度値平滑化処理部82が求めた、顔表情種別ごとの顔表情強度値の平均値のうち最大の平均値“72.0”に対応する顔表情種別「悲しみ」を、当該区間内の時刻tに対応する平滑化後の顔表情の分類結果として選出する。そして、顔表情種別平滑化処理部83は、その顔表情の分類結果である「悲しみ」を示す顔表情種別情報を生成し、この顔表情種別情報を出力する。
The facial expression type smoothing
つまり、平滑化処理部80は、下記の式(5)により、当該区間内の時刻tにおける顔表情種別情報Etを計算する。
That is, the smoothing
このように、平滑化処理部80は、一区間における複数の顔表情強度値セット、つまり、この区間における顔表情種別ごとの各顔表情強度値を信頼度として用いることによって、その区間における顔表情評価結果を平滑化する。よって、平滑化処理部80は、当該区間内において、信頼性が高い顔表情強度値および顔表情種別情報を得ることができる。
In this way, the smoothing
図12は、平滑化処理部80が実行する一区間分の顔表情評価結果平滑化処理の手順を示すフローチャートである。
ステップS41において、顔表情強度値取得部81は、顔表情評価部70が供給する1フレーム分の顔表情強度値セットを取り込み、この顔表情強度値セットを内蔵するバッファに記憶させる。
FIG. 12 is a flowchart showing the procedure of the facial expression evaluation result smoothing process for one section executed by the smoothing
In step S41, the facial expression intensity
次に、ステップS42において、顔表情強度値取得部81は、バッファに一区間分の顔表情強度値セットを記憶した場合に(ステップS42:YES)、ステップS43の処理に移し、バッファに一区間分の顔表情強度値セットを記憶していない場合に(ステップS42:NO)、ステップS41の処理に戻す。
Next, in step S42, when the facial expression intensity
ステップS43において、顔表情強度値平滑化処理部82は、顔表情強度値取得部81のバッファに記憶された6フレーム分の顔表情強度値セットについて、顔表情種別ごとに当該区間内における顔表情強度値の平均値を計算する。次に、顔表情強度値平滑化処理部82は、顔表情種別ごとの顔表情強度値の平均値のうち最大の平均値を、当該区間に対応する平滑化後の代表顔表情強度値として出力する。
In step S43, the facial expression intensity value smoothing
次に、ステップS44において、顔表情種別平滑化処理部83は、顔表情強度値平滑化処理部82が求めた、顔表情種別ごとの顔表情強度値の平均値における最大値に対応する顔表情種別を、当該区間内における各フレームに対応する平滑化後の顔表情の分類結果として選出する。次に、顔表情種別平滑化処理部83は、その顔表情の分類結果を示す顔表情種別情報を生成し、この顔表情種別情報を出力する。
Next, in step S44, the facial expression type smoothing
図13は、平滑化処理部80が顔表情評価結果平滑化処理を行う前後それぞれの顔表情評価結果を模式的に示す図である。同図における上段のグラフは、平滑化処理部80が顔表情評価結果平滑化処理を実行する前の顔表情評価結果を時系列に示したグラフである。この上段のグラフは、横軸を時間軸とし、縦軸を顔表情強度値セットにおける顔表情強度最大値としている。上段のグラフが示すように、平滑化処理部80が顔表情評価結果平滑化処理を実行する前の顔表情強度最大値は、時間経過に対してばらつきを有している。
FIG. 13 is a diagram schematically illustrating the facial expression evaluation results before and after the smoothing
また、上段のグラフの直下に示す△、○、および□記号(顔表情記号と呼ぶ)は、顔表情強度最大値に対応する代表顔表情種別が示す表情を表す記号であり、グラフの時間軸に対応付けて図示されている。ここでは、△は「幸せ」、○は「驚き」、□は「怒り」を示す記号である。上段のグラフ直下の一連の顔表情記号によれば、「幸せ」を示す顔表情の中に、突発的に「驚き」および「怒り」の顔表情が現出している。 In addition, Δ, ○, and □ symbols (referred to as facial expression symbols) shown immediately below the upper graph are symbols representing facial expressions represented by the representative facial expression types corresponding to the maximum facial expression intensity values, and the time axis of the graph Are shown in association with each other. Here, Δ is a symbol indicating “happy”, ○ is “surprise”, and □ is “angry”. According to a series of facial expression symbols immediately below the upper graph, suddenly “surprise” and “angry” facial expressions appear in the facial expression indicating “happiness”.
これに対して、図13における下段のグラフは、平滑化処理部80が顔表情評価結果平滑化処理を実行した後の顔表情評価結果を時系列に示したグラフである。この下段のグラフは、横軸を時間軸とし、縦軸を平滑化後の顔表情強度値としている。下段のグラフが示すように、平滑化処理部80が顔表情評価結果平滑化処理を実行した後の顔表情強度値は、複数フレーム(同図では10フレーム)ごと、つまり、時間T1,T2,T3,T4,・・・において、ばらつきがない顔表情強度値となっている。また、下段のグラフ直下の一連の顔表情記号によれば、突発的な顔表情が現出することなく、安定した顔表情分類の結果が示されている。
On the other hand, the lower graph in FIG. 13 is a graph showing the facial expression evaluation results in time series after the smoothing
以上説明したとおり、平滑化処理部80は、複数フレームを含む区間ごとに、これら複数フレーム分の顔表情強度値セットを用いて顔表情評価結果を平滑化することにより、顔表情評価結果におけるエラーを除去し、安定した顔表情強度値と顔表情の分類結果とを得ることができる。
As described above, the smoothing
[第2の実施の形態]
第1実施形態では、平滑化処理部80における顔表情強度値平滑化処理部82が、一区間内の複数フレーム分の顔表情強度値セットについて、顔表情種別ごとに顔表情強度値の平均値(単純平均値)を計算した。これに対し、本発明の第2実施形態では、顔表情強度値平滑化処理部が、一区間内の複数フレーム分の顔表情強度値セットについて、顔表情種別ごとに顔表情強度値の加重平均値を計算する。第2実施形態における顔表情解析装置の構成は、第1実施形態における顔表情解析装置1の構成と同じであるため、図1および図2を参照することとし、第1実施形態と異なる機能についてのみ説明する。
[Second Embodiment]
In the first embodiment, the facial expression strength value smoothing
第2実施形態において、顔表情強度値平滑化処理部82は、顔表情強度値取得部81がバッファに記憶させた複数フレーム分の顔表情強度値セットを含む区間ごとに、当該区間内の複数フレーム分の顔表情強度値セットについて、顔表情種別ごとにフレームの位置に応じて重み付けした顔表情強度値の合計値を計算する。そして、顔表情強度値平滑化処理部82は、顔表情種別ごとの重み付けされた顔表情強度値の合計値に基づいて、顔表情種別ごとの平均値を計算する。つまり、この平均値は加重平均値である。各フレームに対する重み付けの係数(重み係数)は、一区間に含まれる一連のフレームにおいて単調に増加もしくは単調に減少、または単調に増加した後に単調に減少する値とする。例えば、図11に示した一区間を例にすると、時刻(t−2)から時刻tに近づくにしたがって大きくなる重み係数、また、時刻tから時刻(t+3)に近づくにしたがって小さくなる重み係数を、6フレームそれぞれに対する重み係数とする。具体的に、例えば、時刻(t−2)に対して“0.05”、時刻(t−1)に対して“0.2”、時刻tに対して“0.4”、時刻(t+1)に対して“0.2”、時刻(t+2)に対して“0.1”、および時刻(t+3)に対して“0.05”の重み係数とする。
In the second embodiment, the facial expression intensity value smoothing
そして、顔表情強度値平滑化処理部82は、顔表情種別ごとの顔表情強度値の加重平均値のうち最大の加重平均値、言い換えると、顔表情種別ごとの顔表情強度値の重み付けされた合計値のうち最大の合計値から求まる平均値を、当該区間内の時刻tに対応する平滑化後の代表顔表情強度値として出力する。
Then, the facial expression intensity value smoothing
このように構成することにより、顔表情強度値平滑化処理部82は、一区間における所定のフレームおよびこのフレームに近いフレームに大きな信頼度をもたせて顔表情強度値を平滑化することができる。
By configuring in this way, the facial expression intensity value smoothing
また、第2実施形態において、顔表情種別平滑化処理部83は、顔表情強度値取得部81がバッファに記憶させた複数フレーム分の顔表情強度値セットを含む区間ごとに、顔表情強度値平滑化処理部82が求めた加重平均値における最大値に対応する顔表情種別を、当該区間内における各フレームに対応する平滑化後の顔表情の分類結果として選出する。そして、顔表情種別平滑化処理部83は、その顔表情の分類結果を示す顔表情種別情報を生成し、この顔表情種別情報を出力する。
Further, in the second embodiment, the facial expression type smoothing
[第3の実施の形態]
第1実施形態および第2実施形態では、平滑化処理部80における顔表情強度値平滑化処理部82が、一区間内の複数フレーム分の顔表情強度値セットについて、顔表情種別ごとに顔表情強度値の平均値(単純平均値、加重平均値)を計算し、最大の平均値を代表顔表情強度値とした。これに対し、本発明の第3実施形態では、顔表情強度値平滑化処理部が、区間ごとに、当該区間内の複数フレーム分の顔表情強度値セットにおける顔表情強度最大値の個数を代表顔表情種別ごとに計数することに基づいて、代表顔表情強度値を得る。第3実施形態における顔表情解析装置の構成は、第1実施形態における顔表情解析装置1の構成と同じであるため、図1および図2を参照することとし、第1実施形態と異なる機能についてのみ説明する。
[Third Embodiment]
In the first embodiment and the second embodiment, the facial expression strength value smoothing
第3実施形態において、顔表情強度値平滑化処理部82は、バッファに記憶された一区間分の顔表情強度値を参照し、代表顔表情種別ごとに、当該代表顔表情種別の顔表情強度値がフレーム内において最大値(顔表情強度最大値)となる場合のフレームの個数を、当該区間にわたって計数する。そして、顔表情強度値平滑化処理部82は、その計数結果をその代表顔表情種別における合計値とする。そして、顔表情強度値平滑化処理部82は、代表顔表情種別ごとの合計値のうち、最大の合計値に対応する代表顔表情種別についての区間内の顔表情強度最大値の単純平均値を求め、この単純平均値を当該区間における代表顔表情強度値とする。
In the third embodiment, the facial expression intensity value smoothing
また、顔表情種別平滑化処理部83は、顔表情強度値平滑化処理部82が求めた最大の合計値に対応する顔表情種別を、当該区間に対応する平滑化後の顔表情の分類結果として選出する。
In addition, the facial expression type smoothing
具体的に、図11に示した一区間分の顔表情強度値を例とすると、顔表情強度値平滑化処理部82は、当該区間内の6フレーム分の顔表情強度値における顔表情強度最大値(網掛けされた数値)に対応する顔表情種別(代表顔表情種別)として、「幸せ」および「悲しみ」を抽出する。そして、顔表情強度値平滑化処理部82は、抽出した代表顔表情種別それぞれについて顔表情強度最大値の個数を計数し、代表顔表情種別「幸せ」に対して合計値“1”、代表顔表情種別「悲しみ」に対して合計値“5”を得る。そして、顔表情強度値平滑化処理部82は、合計値のうち最大の合計値“5”に対応する代表顔表情種別「悲しみ」についての当該区間内の顔表情強度最大値の平均値“(68.3+70.1+72.3+74.5+72.2+74.5)/6=72.0”を求め、この平均値“72.0”を当該区間における代表顔表情強度値とする。また、顔表情種別平滑化処理部83は、顔表情強度値平滑化処理部82が求めた最大の合計値“5”に対応する顔表情種別「悲しみ」を、当該区間に対応する平滑化後の顔表情の分類結果として選出する。
Specifically, taking the facial expression intensity value for one section shown in FIG. 11 as an example, the facial expression intensity value smoothing
[第4の実施の形態]
第3実施形態では、平滑化処理部80における顔表情強度値平滑化処理部82が、一区間内の顔表情強度値セットにおける顔表情強度最大値の個数を、代表顔表情種別ごとに計数することによって代表顔表情強度値を得た。これに対し、本発明の第4実施形態では、顔表情強度値平滑化処理部が、一区間内の顔表情強度値セットにおける顔表情強度最大値の個数を、フレームの位置に応じた重み付けをして代表顔表情種別ごとに計数することによって代表顔表情強度値を得る。第4実施形態における顔表情解析装置の構成は、第1実施形態における顔表情解析装置1の構成と同じであるため、図1および図2を参照することとし、第1実施形態と異なる機能についてのみ説明する。
[Fourth Embodiment]
In the third embodiment, the facial expression intensity value smoothing
第4実施形態において、顔表情強度値平滑化処理部82は、顔表情強度値取得部81がバッファに記憶させた複数フレーム分の顔表情強度値セットを含む区間ごとに、当該区間内の複数フレーム分の顔表情強度値セットにおける顔表情強度最大値の個数にフレームの位置に応じた重み付けをし、重み付けされた個数を顔表情種別ごとに計数する。各フレームの位置に応じた重み付けの値(重み)は、一区間に含まれる一連のフレームにおいて単調に増加もしくは単調に減少、または単調に増加した後に単調に減少する値とする。例えば、図11に示した一区間を例にすると、時刻(t−2)から時刻tに近づくにしたがって大きくなる重み、また、時刻tから時刻(t+3)に近づくにしたがって小さくなる重みを、6フレームそれぞれに対する重みとする。具体的に、例えば、時刻(t−2)に対して“1”、時刻(t−1)に対して“2”、時刻tに対して“4”、時刻(t+1)に対して“3”、時刻(t+2)に対して“2”、および時刻(t+3)に対して“1”の重みとする。そして、顔表情強度値平滑化処理部82は、個数の合計値のうち最大の合計値を代表顔表情強度値とする。
In the fourth embodiment, the facial expression intensity value smoothing
また、顔表情種別平滑化処理部83は、顔表情強度値平滑化処理部82が求めた最大の合計値に対応する顔表情種別を、当該区間に対応する平滑化後の顔表情の分類結果として選出する。
In addition, the facial expression type smoothing
具体的に、上記の重みを例とし、また、図11に示した一区間分の顔表情強度値を例として説明する。顔表情強度値平滑化処理部82は、当該区間内の6フレーム分の顔表情強度値における顔表情強度最大値に対応する代表顔表情種別として、「幸せ」および「悲しみ」を抽出する。そして、顔表情強度値平滑化処理部82は、抽出した代表顔表情種別それぞれについて、フレームの位置に応じた重み付けをして、顔表情強度最大値の個数を計数する。つまり、顔表情強度値平滑化処理部82は、代表顔表情種別「幸せ」に対して合計値“1×4=4”を得る。また、顔表情強度値平滑化処理部82は、代表顔表情種別「悲しみ」に対して合計値“1×1+1×2+1×3+1×2+1×1=9”を得る。そして、顔表情強度値平滑化処理部82は、合計値のうち最大の合計値“9”に対応する代表顔表情種別「悲しみ」についての当該区間内の顔表情強度値の加重平均値“(1×68.3+2×70.1+4×72.3+3×74.5+2×72.2+1×74.5)/13=72.3”を求め、この加重平均値“72.3”を当該区間における代表顔表情強度値とする。また、顔表情種別平滑化処理部83は、顔表情強度値平滑化処理部82が求めた最大の合計値“9”に対応する顔表情種別「悲しみ」を、当該区間に対応する平滑化後の顔表情の分類結果として選出する。
Specifically, the above weights are taken as an example, and the facial expression intensity values for one section shown in FIG. 11 are taken as an example. The facial expression intensity value smoothing
[第5の実施の形態]
第1実施形態では、平滑化処理部80が、区間ごとに平滑化した顔表情強度値および顔表情種別情報を取得した。これに対し、本発明の第5実施形態では、上記の区間を時間方向にずらしながら顔表情強度値および顔表情種別情報を得る。第5実施形態における顔表情解析装置の構成は、第1実施形態における顔表情解析装置1の構成と同じであるため、図1および図2を参照することとし、第1実施形態と異なる機能についてのみ説明する。
[Fifth Embodiment]
In the first embodiment, the smoothing
第5実施形態において、顔表情強度値平滑化処理部82は、一区間に含まれる複数フレームよりも少ないフレーム数をシフト量(ずらし量)とし、当該区間をそのシフト量ずつ時間方向にずらす。例えば、顔表情強度値平滑化処理部82は、シフト量を1フレームとし、区間を1フレームずつ時間方向にずらす。顔表情強度値平滑化処理部82は、ずらした区間ごとに、当該区間内の顔表情強度値セットについて、顔表情種別ごとに顔表情強度値の平均値を計算する。そして、顔表情強度値平滑化処理部82は、顔表情種別ごとの顔表情強度値の平均値のうち最大の平均値を、当該区間に対応する平滑化後の代表顔表情強度値として出力する。
In the fifth embodiment, the facial expression intensity value smoothing
また、第5実施形態において、顔表情種別平滑化処理部83は、シフト量だけずらされた区間において、顔表情強度値平滑化処理部82が求めた平滑化後の顔表情強度値に対応する顔表情種別を、当該区間内における各フレームに対応する平滑化後の顔表情の分類結果として選出する。そして、顔表情種別平滑化処理部83は、その顔表情の分類結果を示す顔表情種別情報を生成し、この顔表情種別情報を出力する。
In the fifth embodiment, the facial expression type smoothing
なお、顔表情強度値平滑化処理部82が区間をシフト量だけ時間方向にずらす処理は、第2実施形態から第4実施形態いずれにおいても適用できる。
Note that the processing of shifting the section in the time direction by the shift amount by the facial expression intensity value smoothing
図14は、平滑化処理部80における区間の移動を説明するための図である。同図における各グラフは、横軸を時間軸とし、縦軸を顔表情強度値としている。時刻t1、時刻t2、および時刻t3は、連続するフレームに対する時刻である。つまり、時刻t2は、時刻t1におけるフレームの次フレームに対応する時刻、時刻t3は、時刻t2におけるフレームの次フレームに対応する時刻である。また、時間(tp+tf)は、一区間である。よって、同図における上段、中段、および下段のグラフは、1フレームをシフト量とし、時刻(t1−tp)から時刻(t1+tf)までの区間を順次時間方向にずらした様子を示している。
FIG. 14 is a diagram for explaining the movement of the section in the smoothing
第5実施形態によれば、平滑化処理部80は、一区間においてばらつきを抑えて信頼度を向上させた顔表情強度値を、時間方向のシフト量ごとに出力することができる。
According to the fifth embodiment, the smoothing
[その他の実施の形態]
上述した本発明の第1実施形態から第4実施形態における画像特徴量計算部40は、画像特徴量としてBag−of−Keypointsを求める他に、例えば、ローカルバイナリパターン(Local Binary Patterns;LBP)、または拡張ローカルバイナリパターン(拡張LBP)を求めてもよい。
[Other embodiments]
In addition to obtaining Bag-of-Keypoints as the image feature amount, the image feature
ローカルバイナリパターンは、画像特徴量計算部40が、解析領域において走査し選択する注目画素と、この注目画素の周辺画素(例えば、8個の隣接画素)とをそれぞれ比較し大小関係を二値化することによって得られるバイナリパターンを画像特徴量とするものである。画像特徴量計算部40は、解析領域に含まれる各画素を注目画素として順次走査してもよいし、所定数の画素間隔で離散的に走査してもよい。
The local binary pattern is binarized by comparing the target pixel scanned and selected in the analysis region by the image feature
ローカルバイナリパターンについては、例えば、Timo Ojala, Matti Pietikainen, Senior Member, IEEE and Topi Maenpaa, "Multiresolution Gray-Scale and Rotation Invariant Texture Classification with Local Binary Patterns", IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 24, no. 7, July 2002に、詳細が開示されている。 For local binary patterns, see, for example, Timo Ojala, Matti Pietikainen, Senior Member, IEEE and Topi Maenpaa, "Multiresolution Gray-Scale and Rotation Invariant Texture Classification with Local Binary Patterns", IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 24 , no. 7, July 2002, details are disclosed.
具体的に、顔領域抽出部30の解析領域決定部32は、正規化顔領域データを格子状に分割(例えば、水平方向および垂直方向それぞれに8分割)する。つまり、解析領域決定部32は、正規化顔領域データの各分割ブロックデータを解析領域データとする。画像特徴量計算部40は、各分割ブロックデータについて、例えば画素ごとにLBPを計算する。そして、画像特徴量計算部40は、全てのLBPのパターンをビン、各パターンの出力回数を頻度とするヒストグラムを生成する。そして、画像特徴量計算部40は、各分割ブロックのヒストグラムを連結した連結ヒストグラムを顔画像特徴量とする。
Specifically, the analysis
また、拡張ローカルバイナリパターンは、上記のローカルバイナリパターンを時系列方向に拡張して得られるバイナリパターンを特徴量とするものである。つまり、拡張ローカルバイナリパターンは、顔表情解析装置1が評価映像データを取り込む場合に有用な特徴量である。画像特徴量計算部40は、評価映像データに含まれる現在評価顔画像データの特徴量をローカルバイナリパターンとして求める際に、現在評価顔画像データとこの現在評価顔画像データよりも過去および未来の評価顔画像データとの画素の比較結果もバイナリパターンに含める。
Further, the extended local binary pattern is a binary pattern obtained by extending the local binary pattern in the time series direction as a feature amount. That is, the extended local binary pattern is a feature quantity useful when the facial
拡張LBPについては、例えば、Guoying Zhao, Matti Pietikainen, "Dynamic Texture Recognition Using Local Binary Patterns with an Application to Facial Expressions", IEEE Transactions on Patterns Analysis and Machine Intelligence, vol. 29, no. 6, June 2007に、詳細が開示されている。 Regarding extended LBP, for example, Guoying Zhao, Matti Pietikainen, "Dynamic Texture Recognition Using Local Binary Patterns with an Application to Facial Expressions", IEEE Transactions on Patterns Analysis and Machine Intelligence, vol. 29, no. 6, June 2007, Details are disclosed.
また、回帰分析部50に線形回帰モデルまたはサポートベクトル回帰モデルのいずれかを適用してパラメータ値を求めた場合、顔表情評価部70から出力される顔表情強度値が、下限値(例えば“0(ゼロ)”)から上限値(例えば“100”)までの範囲内に収まらない場合がある。そこで、回帰分析部50に線形回帰モデルまたはサポートベクトル回帰モデルのいずれかを適用する場合、顔表情評価部70は、求めた顔表情強度値が“0(ゼロ)”未満であるときは“0(ゼロ)”、“100”を超えるときは“100”として、顔表情強度値を出力してもよい。
When the parameter value is obtained by applying either the linear regression model or the support vector regression model to the
または、回帰分析部50に線形回帰モデルまたはサポートベクトル回帰モデルのいずれかを適用した顔表情解析装置1に、各評価顔画像データについて顔認識処理を実行して人物を識別する顔認識処理部をさらに備えてもよい。この場合、顔表示解析装置1が顔表情解析モードに設定された場合、所定期間において顔認識処理部が認識した人物ごとに、顔表情評価部70に、顔表情強度値の最大値intmaxと最小値intminとを用いて、下記の式(6)によって顔表情強度値intを0から100までの範囲内の値int’に正規化してもよい。
Alternatively, the facial
また、第1実施形態から第4実施形態では、回帰分析部50が実行する回帰分析処理として、線形回帰分析処理、ロジスティック回帰分析処理、およびサポートベクトル回帰分析処理を示した。回帰分析部50が実行する回帰分析処理は、これらの例に限定されることなく、他の回帰分析処理も適用できる。例えば、回帰分析部50は、ニューラルネットワークによる学習処理を回帰分析処理に適用してもよい。
In the first to fourth embodiments, linear regression analysis processing, logistic regression analysis processing, and support vector regression analysis processing are shown as the regression analysis processing executed by the
また、第1実施形態から第5実施形態において、顔表情解析装置1を、顔表情解析モードのみで動作する装置としてもよい。具体的に、顔表情解析装置1から、顔表情強度教師値取得部20と、回帰分析部50と、モード切替部90とを削除し、顔表情解析処処理のみを実行する装置としてもよい。この場合、回帰モデル記憶部60には、顔表情種別ごとに最適化されたパラメータ値があらかじめ記憶される。
Further, in the first to fifth embodiments, the facial
また、上述した各実施形態における顔表情解析装置1の一部の機能、例えば、平滑化処理部80の機能をコンピュータで実現するようにしてもよい。この場合、その機能を実現するための顔表情評価結果平滑化プログラムをコンピュータ読み取り可能な記録媒体に記録し、この記録媒体に記録された顔表情評価結果平滑化プログラムをコンピュータシステムに読み込ませて、このコンピュータシステムが実行することによって実現してもよい。なお、このコンピュータシステムとは、オペレーティング・システム(Operating System;OS)や周辺装置のハードウェアを含むものである。また、コンピュータ読み取り可能な記録媒体とは、フレキシブルディスク、光磁気ディスク、光ディスク、メモリカード等の可搬型記録媒体、コンピュータシステムに備えられる磁気ハードディスクやソリッドステートドライブ等の記憶装置のことをいう。さらに、コンピュータ読み取り可能な記録媒体とは、インターネット等のコンピュータネットワーク、および電話回線や携帯電話網を介してプログラムを送信する場合の通信回線のように、短時間の間、動的にプログラムを保持するもの、さらには、その場合のサーバ装置やクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持するものを含んでもよい。また上記の顔表情評価結果平滑化プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせにより実現するものであってもよい。
Moreover, you may make it implement | achieve the one part function of the facial
以上、本発明の実施の形態について図面を参照して詳述したが、具体的な構成はその実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計等も含まれる。 As mentioned above, although embodiment of this invention was explained in full detail with reference to drawings, the specific structure is not restricted to that embodiment, The design of the range which does not deviate from the summary of this invention, etc. are included.
1 顔表情解析装置
10 画像データ取得部
20 顔表情強度教師値取得部
30 顔領域抽出部
31 顔領域検出部
32 解析領域決定部
40 画像特徴量計算部
50 回帰分析部
60 回帰モデル記憶部
70 顔表情評価部
80 平滑化処理部(顔表情評価結果平滑化装置)
81 顔表情強度値取得部
82 顔表情強度値平滑化処理部
83 顔表情種別平滑化処理部
90 モード切替部
DESCRIPTION OF
81 Facial expression intensity
Claims (7)
前記顔表情強度値取得部が取り込んだ複数フレーム分の顔表情強度値を参照し、前記顔表情種別ごとの前記複数フレームの顔表情強度値に基づく合計値に基づいて、前記複数フレームに対応する代表顔表情強度値を計算する顔表情強度値平滑化処理部と、
を備えることを特徴とする顔表情評価結果平滑化装置。 A facial expression intensity value acquisition unit that captures a plurality of facial expression intensity values obtained for each facial expression type based on a facial image for each frame;
Refer to the facial expression intensity values for a plurality of frames captured by the facial expression intensity value acquisition unit, and correspond to the plurality of frames based on a total value based on the facial expression intensity values of the plurality of frames for each facial expression type. A facial expression intensity value smoothing processing unit for calculating a representative facial expression intensity value;
A facial expression evaluation result smoothing apparatus comprising:
ことを特徴とする請求項1記載の顔表情評価結果平滑化装置。 The total value is the total value of the facial expression intensity values for the plurality of frames for each facial expression type.
The facial expression evaluation result smoothing apparatus according to claim 1.
ことを特徴とする請求項1記載の顔表情評価結果平滑化装置。 The total value is a total value obtained by counting the number of maximum facial expression intensity values in each of the plurality of frames for each facial expression type,
The facial expression evaluation result smoothing apparatus according to claim 1.
ことを特徴とする請求項2または3いずれか記載の顔表情評価結果平滑化装置。 The facial expression intensity value smoothing processing unit calculates the total value by weighting according to the position of each frame in the plurality of frames.
4. The facial expression evaluation result smoothing apparatus according to claim 2, wherein the facial expression evaluation result is smooth.
をさらに備えることを特徴とする請求項1〜4いずれか一項記載の顔表情評価結果平滑化装置。 A face selected from the facial expression types corresponding to the maximum total value among the total values for each facial expression type obtained by the facial expression intensity value smoothing processing unit, as a classification result of facial expressions corresponding to the plurality of frames. Facial expression type smoothing processing unit,
The facial expression evaluation result smoothing device according to claim 1, further comprising:
ことを特徴とする請求項1〜5いずれか一項記載の顔表情評価結果平滑化装置。 The facial expression intensity value smoothing processing unit sets the number of frames smaller than the plurality of frames as a shift amount, and shifts the plurality of frames in the time direction by the shift amount.
The facial expression evaluation result smoothing apparatus according to claim 1, wherein the facial expression evaluation result is smooth.
顔画像に基づき顔表情種別ごとに得られた複数の顔表情強度値を、フレームごとに取り込む顔表情強度値取得部と、
前記顔表情強度値取得部が取り込んだ複数フレーム分の顔表情強度値を参照し、前記顔表情種別ごとの前記複数フレームの顔表情強度値に基づく合計値に基づいて、前記複数フレームに対応する代表顔表情強度値を計算する顔表情強度値平滑化処理部と、
として機能させるための顔表情評価結果平滑化プログラム。 Computer
A facial expression intensity value acquisition unit that captures a plurality of facial expression intensity values obtained for each facial expression type based on a facial image for each frame;
Refer to the facial expression intensity values for a plurality of frames captured by the facial expression intensity value acquisition unit, and correspond to the plurality of frames based on a total value based on the facial expression intensity values of the plurality of frames for each facial expression type. A facial expression intensity value smoothing processing unit for calculating a representative facial expression intensity value;
Program for smoothing facial expression evaluation results.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012273587A JP2014119879A (en) | 2012-12-14 | 2012-12-14 | Face expression evaluation result smoothing device and face expression evaluation result smoothing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012273587A JP2014119879A (en) | 2012-12-14 | 2012-12-14 | Face expression evaluation result smoothing device and face expression evaluation result smoothing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014119879A true JP2014119879A (en) | 2014-06-30 |
Family
ID=51174680
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012273587A Pending JP2014119879A (en) | 2012-12-14 | 2012-12-14 | Face expression evaluation result smoothing device and face expression evaluation result smoothing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014119879A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160116311A (en) * | 2016-09-23 | 2016-10-07 | 경북대학교 산학협력단 | Method for recognizing continuous emotion for robot by analyzing facial expressions, recording medium and device for performing the method |
KR101784418B1 (en) * | 2016-04-04 | 2017-10-11 | 연세대학교 산학협력단 | Apparatus for for recognizing facical expression using adaptive random forest and feedback module and method thereof |
WO2022025113A1 (en) * | 2020-07-29 | 2022-02-03 | 浩行 喜屋武 | Online show rendition system, laughter analysis device, and laughter analysis method |
WO2022064660A1 (en) * | 2020-09-25 | 2022-03-31 | 富士通株式会社 | Machine learning program, machine learning method, and inference device |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10191100A (en) * | 1996-12-26 | 1998-07-21 | Fujitsu Ltd | Video signal processing method |
JP2005064839A (en) * | 2003-08-12 | 2005-03-10 | Sony Corp | Recording device, recording and reproducing device, reproducing device, recording method, recording and reproducing method, and reproducing method |
JP2006106711A (en) * | 2004-09-10 | 2006-04-20 | Matsushita Electric Ind Co Ltd | Information processing terminal |
JP2008084213A (en) * | 2006-09-28 | 2008-04-10 | Sony Corp | Image processor, imaging apparatus, image processing method, and program |
JP2008170820A (en) * | 2007-01-12 | 2008-07-24 | Takeshi Moriyama | Content provision system and method |
JP2009087303A (en) * | 2007-10-03 | 2009-04-23 | Nissan Motor Co Ltd | Expression estimation device, expression estimation method, and vehicle controller |
JP2011511977A (en) * | 2008-01-29 | 2011-04-14 | テセラ テクノロジーズ アイルランド リミテッド | Detection of facial expressions in digital images |
-
2012
- 2012-12-14 JP JP2012273587A patent/JP2014119879A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10191100A (en) * | 1996-12-26 | 1998-07-21 | Fujitsu Ltd | Video signal processing method |
JP2005064839A (en) * | 2003-08-12 | 2005-03-10 | Sony Corp | Recording device, recording and reproducing device, reproducing device, recording method, recording and reproducing method, and reproducing method |
JP2006106711A (en) * | 2004-09-10 | 2006-04-20 | Matsushita Electric Ind Co Ltd | Information processing terminal |
JP2008084213A (en) * | 2006-09-28 | 2008-04-10 | Sony Corp | Image processor, imaging apparatus, image processing method, and program |
JP2008170820A (en) * | 2007-01-12 | 2008-07-24 | Takeshi Moriyama | Content provision system and method |
JP2009087303A (en) * | 2007-10-03 | 2009-04-23 | Nissan Motor Co Ltd | Expression estimation device, expression estimation method, and vehicle controller |
JP2011511977A (en) * | 2008-01-29 | 2011-04-14 | テセラ テクノロジーズ アイルランド リミテッド | Detection of facial expressions in digital images |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101784418B1 (en) * | 2016-04-04 | 2017-10-11 | 연세대학교 산학협력단 | Apparatus for for recognizing facical expression using adaptive random forest and feedback module and method thereof |
KR20160116311A (en) * | 2016-09-23 | 2016-10-07 | 경북대학교 산학협력단 | Method for recognizing continuous emotion for robot by analyzing facial expressions, recording medium and device for performing the method |
KR101697476B1 (en) | 2016-09-23 | 2017-01-19 | 경북대학교 산학협력단 | Method for recognizing continuous emotion for robot by analyzing facial expressions, recording medium and device for performing the method |
WO2022025113A1 (en) * | 2020-07-29 | 2022-02-03 | 浩行 喜屋武 | Online show rendition system, laughter analysis device, and laughter analysis method |
WO2022064660A1 (en) * | 2020-09-25 | 2022-03-31 | 富士通株式会社 | Machine learning program, machine learning method, and inference device |
JP7396509B2 (en) | 2020-09-25 | 2023-12-12 | 富士通株式会社 | Machine learning program, machine learning method and estimation device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Makhmudkhujaev et al. | Facial expression recognition with local prominent directional pattern | |
Yang et al. | Understanding discrete facial expressions in video using an emotion avatar image | |
Jang et al. | Registration-free Face-SSD: Single shot analysis of smiles, facial attributes, and affect in the wild | |
CN111738160B (en) | Video micro-expression recognition method and device, computer equipment and storage medium | |
Vukadinovic et al. | Fully automatic facial feature point detection using Gabor feature based boosted classifiers | |
Wang et al. | Learning and matching of dynamic shape manifolds for human action recognition | |
Mäkinen et al. | An experimental comparison of gender classification methods | |
US9098760B2 (en) | Face recognizing apparatus and face recognizing method | |
Zhang et al. | Adaptive facial point detection and emotion recognition for a humanoid robot | |
Sukno et al. | Active shape models with invariant optimal features: Application to facial analysis | |
Savran et al. | Non-rigid registration based model-free 3D facial expression recognition | |
JP5879188B2 (en) | Facial expression analysis apparatus and facial expression analysis program | |
Bejaoui et al. | Fully automated facial expression recognition using 3D morphable model and mesh-local binary pattern | |
JP6166981B2 (en) | Facial expression analyzer and facial expression analysis program | |
JP6101470B2 (en) | Facial expression analysis apparatus and facial expression analysis program | |
Ullah et al. | Improved deep CNN-based two stream super resolution and hybrid deep model-based facial emotion recognition | |
Wu et al. | Privacy leakage of sift features via deep generative model based image reconstruction | |
JP2014119879A (en) | Face expression evaluation result smoothing device and face expression evaluation result smoothing program | |
Szankin et al. | Influence of thermal imagery resolution on accuracy of deep learning based face recognition | |
Zhang et al. | Three dimensional binary edge feature representation for pain expression analysis | |
Sharma et al. | Solving image processing critical problems using machine learning | |
Dixit et al. | Multi-feature based automatic facial expression recognition using deep convolutional neural network | |
Naveen | Occlusion-aware facial expression recognition: A deep learning approach | |
Dudekula et al. | Linear fusion approach to convolutional neural networks for facial emotion recognition | |
Patil et al. | Automatic detection of facial feature points in image sequences |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151102 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160818 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160823 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170228 |