JP2020149361A - Expression estimating apparatus, feeling determining apparatus, expression estimating method, and program - Google Patents
Expression estimating apparatus, feeling determining apparatus, expression estimating method, and program Download PDFInfo
- Publication number
- JP2020149361A JP2020149361A JP2019046389A JP2019046389A JP2020149361A JP 2020149361 A JP2020149361 A JP 2020149361A JP 2019046389 A JP2019046389 A JP 2019046389A JP 2019046389 A JP2019046389 A JP 2019046389A JP 2020149361 A JP2020149361 A JP 2020149361A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- face
- target person
- facial expression
- angle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 230000014509 gene expression Effects 0.000 title abstract description 9
- 238000003384 imaging method Methods 0.000 claims abstract description 58
- 238000012937 correction Methods 0.000 claims abstract description 42
- 230000008921 facial expression Effects 0.000 claims description 155
- 230000008451 emotion Effects 0.000 claims description 77
- 230000001815 facial effect Effects 0.000 claims description 34
- 230000002996 emotional effect Effects 0.000 claims description 10
- 210000000056 organ Anatomy 0.000 description 24
- 238000010586 diagram Methods 0.000 description 22
- 238000001514 detection method Methods 0.000 description 20
- 238000005259 measurement Methods 0.000 description 10
- 238000007792 addition Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 210000004709 eyebrow Anatomy 0.000 description 2
- 210000000744 eyelid Anatomy 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、人物の顔が撮像された画像データから、人物の表情を推定する表情推定装置および表情推定方法と、表情推定装置を備えた感情判定装置とに関し、さらには、これらを実現するためのプログラムに関する。 The present invention relates to a facial expression estimation device and a facial expression estimation method for estimating a facial expression of a person from image data obtained by capturing a person's face, and an emotion determination device provided with the facial expression estimation device, and further, to realize these. About the program.
近年、人物の顔が撮像された画像データから、その人物の表情を読み取る技術が提案されている。特許文献1には、人物の表情だけでなく、その人物の内面的な状態も分析する心理状態推定方法が開示されている。特許文献1に記載の心理状態推定方法は、帰宅した人物を撮像した画像データから推定した年齢と、普段の表情で写っている標準顔画像データから推定した年齢との差(年齢差)を算出している。その年齢差が大きいと通常よりも老けて見えることを利用して、帰宅した人物がポジティブ感情かネガティブ感情かを推定している。これにより、特許文献1は、対象人物の心理状態を客観的に判断することを可能としている。
In recent years, a technique for reading a person's facial expression from image data obtained by capturing a person's face has been proposed.
しかしながら、特許文献1では、心理状態を推定するには、顔が撮像装置に対して正面を向いた状態で撮像された画像データを用いる必要がある。このため、人物の顔を正面から撮像できない場合には、心理状態を推定することができない、または、推定精度が低下するおそれがある。
However, in
本発明の目的の一例は、人物の表情の推定精度を高くできる、表情推定装置、感情判定装置、表情推定方法及びプログラムを提供することにある。 An example of an object of the present invention is to provide a facial expression estimation device, an emotion determination device, a facial expression estimation method, and a program capable of increasing the estimation accuracy of a person's facial expression.
上記目的を達成するため、本発明の一側面における表情推定装置は、
撮像装置が撮像した対象人物の顔の画像データを取得する撮像データ取得部と、
記憶装置に予め記憶された、前記対象人物の平常時の顔画像データを取得する顔画像データ取得部と、
前記撮像データ取得部が取得した画像データから、前記対象人物の顔の角度を推定する角度推定部と、
前記角度推定部の推定結果に基づいて、前記顔画像データ取得部が取得した顔画像データを補正する補正部と、
前記撮像データ取得部が取得した画像データと、前記補正部による補正後の顔画像データとを対比して、前記対象人物の表情を推定する表情推定部と、
を備えることを特徴とする。
In order to achieve the above object, the facial expression estimation device in one aspect of the present invention is
An imaging data acquisition unit that acquires image data of the face of the target person captured by the imaging device, and
A face image data acquisition unit that acquires face image data of the target person in normal times, which is stored in advance in a storage device,
An angle estimation unit that estimates the face angle of the target person from the image data acquired by the imaging data acquisition unit, and an angle estimation unit.
A correction unit that corrects the face image data acquired by the face image data acquisition unit based on the estimation result of the angle estimation unit, and a correction unit.
A facial expression estimation unit that estimates the facial expression of the target person by comparing the image data acquired by the imaging data acquisition unit with the facial image data corrected by the correction unit.
It is characterized by having.
また、上記目的を達成するため、本発明の一側面における感情判定装置は、
撮像装置が撮像した対象人物の顔の画像データを取得する撮像データ取得部と、
記憶装置に予め記憶された、前記対象人物の平常時の顔画像データを取得する顔画像データ取得部と、
前記撮像データ取得部が取得した画像データから、前記対象人物の顔の角度を推定する角度推定部と、
前記角度推定部の推定結果に基づいて、前記顔画像データ取得部が取得した顔画像データを補正する補正部と、
前記撮像データ取得部が取得した画像データと、前記補正部による補正後の顔画像データとを対比して、前記対象人物の表情を推定する表情推定部と、
前記表情推定部による推定結果に基づいて、前記対象人物の感情を判定する感情判定部と、
を備えることを特徴とする。
Further, in order to achieve the above object, the emotion determination device in one aspect of the present invention is used.
An imaging data acquisition unit that acquires image data of the face of the target person captured by the imaging device, and
A face image data acquisition unit that acquires face image data of the target person in normal times, which is stored in advance in a storage device,
An angle estimation unit that estimates the face angle of the target person from the image data acquired by the imaging data acquisition unit, and an angle estimation unit.
A correction unit that corrects the face image data acquired by the face image data acquisition unit based on the estimation result of the angle estimation unit, and a correction unit.
A facial expression estimation unit that estimates the facial expression of the target person by comparing the image data acquired by the imaging data acquisition unit with the facial image data corrected by the correction unit.
An emotion determination unit that determines the emotion of the target person based on the estimation result by the facial expression estimation unit, and
It is characterized by having.
また、上記目的を達成するため、本発明の一側面における表情推定方法は、
(a)撮像装置が撮像した対象人物の顔の画像データを取得するステップと、
(b)記憶装置に予め記憶された、前記対象人物の平常時の顔画像データを取得するステップと、
(c)前記ステップ(a)で取得した画像データから、前記対象人物の顔の角度を推定するステップと、
(d)前記ステップ(c)での推定結果に基づいて、前記ステップ(b)で取得した顔画像データを補正するステップと、
(e)前記ステップ(a)で取得した画像データと、前記ステップ(d)での補正後の顔画像データとを対比して、前記対象人物の表情を推定するステップと、
を備えることを特徴とする。
Further, in order to achieve the above object, the facial expression estimation method in one aspect of the present invention is:
(A) A step of acquiring image data of the face of the target person captured by the imaging device, and
(B) A step of acquiring the normal face image data of the target person stored in the storage device in advance, and
(C) A step of estimating the face angle of the target person from the image data acquired in the step (a), and
(D) A step of correcting the face image data acquired in the step (b) based on the estimation result in the step (c), and
(E) A step of estimating the facial expression of the target person by comparing the image data acquired in the step (a) with the corrected face image data in the step (d).
It is characterized by having.
また、上記目的を達成するため、本発明の一側面におけるプログラムは、
撮像装置が撮像した対象人物の顔の画像データを取得するコンピュータに、
(a)記憶装置に予め記憶された、前記対象人物の平常時の顔画像データを取得するステップと、
(b)前記画像データから、前記対象人物の顔の角度を推定するステップと、
(c)前記ステップ(b)での推定結果に基づいて、前記ステップ(a)で取得した顔画像データを補正するステップと、
(d)前記画像データと、前記ステップ(c)での補正後の顔画像データとを対比して、前記対象人物の表情を推定するステップと、
を実行させることを特徴とする。
In addition, in order to achieve the above object, the program in one aspect of the present invention
To a computer that acquires image data of the face of the target person captured by the image pickup device
(A) A step of acquiring the normal face image data of the target person stored in advance in the storage device, and
(B) A step of estimating the face angle of the target person from the image data, and
(C) A step of correcting the face image data acquired in the step (a) based on the estimation result in the step (b), and a step of correcting the face image data.
(D) A step of estimating the facial expression of the target person by comparing the image data with the face image data corrected in the step (c).
Is characterized by executing.
本発明によれば、対象人物の顔の情報の欠落が少ない、基準となる顔画像データを補正して、撮像して得られた画像データと比較して表情を推定するため、精度よく表情を推定できる。 According to the present invention, since the facial expression is estimated by correcting the reference facial image data in which the lack of facial information of the target person is small and comparing it with the image data obtained by imaging, the facial expression can be accurately obtained. Can be estimated.
以下、本発明における一実施形態の表情推定装置、感情判定装置および表情推定方法について、図面を参照しながら説明する。 Hereinafter, the facial expression estimation device, the emotion determination device, and the facial expression estimation method according to the embodiment of the present invention will be described with reference to the drawings.
[装置構成]
図1は、本実施形態における表情推定装置1の構成を示すブロック図である。
[Device configuration]
FIG. 1 is a block diagram showing a configuration of a facial
表情推定装置1は、撮像データ取得部2、顔画像データ取得部3、角度推定部4、補正部5および表情推定部6を備えている。
The facial
撮像データ取得部2は、不図示の撮像装置が撮像した対象人物の顔の画像データを取得する。
The imaging
顔画像データ取得部3は、不図示の記憶装置に予め記憶された、対象人物の平常時の顔画像データを取得する。
The face image
角度推定部4は、撮像データ取得部2が取得した画像データから、対象人物の顔の角度を推定する。
The
補正部5は、角度推定部4の推定結果に基づいて、顔画像データ取得部3が取得した顔画像データを補正する。
The
表情推定部6は、撮像データ取得部2が取得した画像データと、補正部5による補正後の顔画像データとを対比して、対象人物の表情を推定する。
The facial
この表情推定装置1は、対象人物の顔の情報の欠落が少ない、基準となる顔画像データを補正して、撮像して得られた画像データと比較して表情を推定するため、精度よく表情を推定できる。
This facial
続いて、図2〜図10を用いて、本実施形態の表情推定装置1の構成について具体的に説明する。表情推定装置1は、感情判定装置の一部構成として用いられる。以下では、感情判定装置について具体的に説明することで、表情推定装置1について説明する。
Subsequently, the configuration of the facial
図2は、感情判定装置10の具体的構成を示すブロック図である。感情判定装置10は、例えば自動車に搭載される。自動車には撮像装置70が搭載されている。撮像装置70は、少なくとも運転者の顔を撮像するように設置されている。感情判定装置10は、その撮像装置70と接続されている。なお、感情判定装置10と撮像装置70とは一体であってもよいし、それぞれ独立した装置であってもよい。また、撮像装置70は、感情判定装置10のために設けられた装置でなくてもよい。
FIG. 2 is a block diagram showing a specific configuration of the
表情推定装置1は、撮像装置70が撮像した画像データ70Aから、運転者の表情を推定する。そして、感情判定装置10は、表情推定装置1が推定した運転者の表情から、運転者の感情を判定する。なお、感情判定装置10が設置される場所は、自動車に限定されず、建物内に設置されてもよい。以下の説明では、運転者は対象人物と言う。
The facial
感情判定装置10は、上記した表情推定装置1に加え、感情判定部11を備えている。また、表情推定装置1は、撮像データ取得部2、顔画像データ取得部3、角度推定部4、補正部5および表情推定部6に加え、顔検出部7、顔特徴点検出部8および顔器官測定部9を備えている。
The
撮像データ取得部2は、撮像装置70により撮像された画像データ70Aを取得する。
The image pickup
顔検出部7は、画像データ70Aから対象人物の顔を検出する。顔検出部7は、例えばエッジ検出または形状パターン検出によって、画像データ70Aにおける顔の候補領域を抽出する。顔検出部7は、抽出した候補領域を小領域に分割し、各小領域の特徴点を、外部から取得した顔認証パターン71とパターン照合することで、顔を検出する。顔認証パターン71は、感情判定装置10内に設置される記憶装置に記憶されていてもよいし、ネットワークを介して感情判定装置10と接続される外部の記憶装置に記憶されていてもよい。また、顔認証パターン71は、機械学習により、顔検出処理が行われる都度、更新される。顔検出部7により顔の検出方法は、上記のものに限定されず、周知の技術を適宜用いることができる。
The
顔特徴点検出部8は、顔検出部7が検出した画像データ70A内の顔を構成する器官(例えば、目、鼻、口など)の特徴点を検出する。図3は、顔特徴点検出部8が検出する特徴点を示す図である。顔特徴点検出部8は、画像データ70Aにおいて、顔検出部7が検出した顔から、例えば、左眉17〜21、右眉22〜26、左目36〜41、右目42〜47など、計68個の特徴点を検出する。
The face feature
顔器官測定部9は、顔特徴点検出部8が検出した特徴点から、顔器官を分類する。また、顔器官測定部9は、分類した各顔器官それぞれについて、所定の項目を測定する。図4は、顔器官の位置の定義と、各器官での測定項目とを示す図である。図4の「位置」の項目に記す数字は、図3の特徴点の位置を示す。例えば、顔器官測定部9は、特徴点5〜11に囲まれた領域(図3の斜線領域)を、「あご」に分類する。そして、顔器官測定部9は、その領域の重心位置(座標)を測定する。なお、図4に示す顔器官の位置の定義、および、各器官での測定項目は一例であり、適宜変更可能である。
The facial
角度推定部4は、画像データ70A内の顔の角度を推定する。顔の角度は、対象人物が撮像装置に対して正面を向いた状態を基準とする。角度を推定する方法は、従来の手法を用いることができる。例えば、角度推定部4は、画像データ70A内の顔の複数の特徴点、例えば、鼻の先端、あご、左目の左隅、右目の右隅、口の左隅、および口の右隅の座標を検出する。そして、角度推定部4は、予め設定された3次元モデルを用いて、上記した鼻の先端などの複数の特徴点を検出する。角度推定部4は、画像データ70Aから検出した特徴点と、3次元モデルから検出した特徴点とから、行列変換などの計算を行い、角度を求める。
The
顔画像データ取得部3は、記憶装置72に記憶されている顔画像データ72Aを取得する。記憶装置72には、対象人物が平常時に、撮像装置に対して表面を向いて撮像された対象人物の顔画像データ72Aが予め記憶されている。平常時とは、対象人物が喜怒哀楽を表していないときである。つまり、顔画像データ72A内の顔の表情は無表情である。顔画像データ取得部3は、その記憶装置72から、撮像データ取得部2が取得した画像データ70Aと同じ対象人物の顔画像データ72Aを取得する。記憶装置72は、表情推定装置1または感情判定装置10が備えていてもよいし、ネットワークを介して表情推定装置1または感情判定装置10と接続されていてもよい。
The face image
補正部5は、角度推定部4の推定結果に応じて、顔画像データ取得部3が取得した顔画像データ72Aを補正する。そして、補正部5は、顔画像データ72A内の顔の角度を、画像データ70Aの顔の角度と一致させる。図5は、補正部5による補正前後における顔画像データを示す図である。図5(A)は、顔画像データ取得部3が取得した顔画像データ72Aであり、(B)は、補正部5により補正された顔画像データ72Bである。
The
補正部5は、図5(A)に示すように、顔画像データ72Aから、顔の特徴点、例えば、鼻の先端、あご、左目の左隅、右目の右隅、口の左隅、および口の右隅の座標を検出する。また、補正部5は、予め用意され、正面向きにした3次元モデルに、検出した特徴点をマッピングする。そして、補正部5は、角度推定部4が推定した角度に応じて3次元モデルを回転させることで、図5(B)に示すように、検出した特徴点を移動させる。これにより、顔画像データ72B内の顔の角度は、画像データ70A内の顔の角度と一致する。
As shown in FIG. 5A, the
表情推定部6は、画像データ70Aと、顔画像データ72B(図5(B))とを対比して、対象人物の表情を推定する。例えば、表情推定部6は、画像データ70Aの顔の表情を、「幸福」、「驚き」、「怒り」、「恐怖」、「悲しみ」、「嫌悪」の6通りの表情に分類する。
The facial
まず、表情推定部6は、顔画像データ72Bに対して、図3および図4での説明と同様に、顔の特徴点を検出して、顔器官の分類、および、各顔器官それぞれについての測定を行う。表情推定部6は、顔画像データ72Bに対する測定結果と、画像データ70Aに対する測定結果とを対比し、図6および図7に示すテーブルを参照して、表情毎に点数を計算する。
First, the facial
図6および図7は、表情毎の点数を計算する際に用いる加点・減点表を示す図である。表情推定部6は、顔画像データ72Bに対する測定結果を基準として、画像データ70Aに対する測定結果がどのように変化したかにより、表情毎の点数を計算する。例えば、「あご」の器官の場合、「あご」の重心位置が下がっていると、表情推定部6は、「驚き」の表情の点数に「+1」加算する。また、「上まぶた」の器官の場合、左右両方の「上まぶた」の位置が上がっていると、表情推定部6は、「驚き」および「恐怖」の点数に「+1」加算する。表情推定部6は、これらの加減算を、各器官について行う。
6 and 7 are diagrams showing a point addition / deduction table used when calculating the score for each facial expression. The facial
表情推定部6は、加減算を行った結果、図8のテーブルを参照し、表情の点数を加減算した回数、および、点数の最終値に応じて、画像データ70A内の顔の表情を推定する。図8は、表情の点数の加減算の結果から、表情を推定する際に用いるテーブルを示す図である。表情推定部6は、図6および図7を用いて、各表情の点数を加減算した結果、加減算した回数と、加減算した結果の点数とから、画像データ70Aの顔の表情を推定する。例えば、表情推定部6は、「幸福」の点数を、2回以上加減算を行い、最終的な「幸福」の点数が、「−6〜+7」の範囲内である場合、画像データ70Aの顔の表情に「幸福」が表れていると推定する。表情推定部6は、表情の点数によって、一の画像データ70A内の顔に、複数の表情が表れていると推定することもある。
As a result of the addition and subtraction, the facial
なお、図6〜図8に示す加減算の定義および各数値は、一例であり、これに限定されることはない。 The definitions of addition and subtraction and each numerical value shown in FIGS. 6 to 8 are examples, and the present invention is not limited thereto.
感情判定部11は、表情推定部6による表情の推定結果から、対象人物の感情を判定する。対象人物の感情には、「快」の感情である肯定的感情、「不快」の感情である否定的感情、および、不同意の感情を含む。感情判定部11は感情の判定結果を数値で表す。
The
図9および図10は、感情の判定結果を数値化する際に用いるテーブルを示す図である。表情推定部6が、画像データ70Aの顔の表情が「幸福、驚き、怒り、恐怖、悲しみ」であると判定した場合、感情判定部11は、図9を用いて、対象人物の快・不快の感情を数値化する。また、表情推定部6が、画像データ70Aの顔の表情が「嫌悪」であると判定した場合、感情判定部11は、図10を用いて、対象人物の不同意の感情を数値化する。
9 and 10 are diagrams showing a table used when quantifying the emotional determination result. When the facial
例えば、表情推定部6が、画像データ70A内の顔の表情が「幸福」であると推定した場合、感情判定部11は、図9を参照し、対象人物の感情は「快」の感情であると判定し、その結果を「0.99081181」の数値で表す。また、表情推定部6が、画像データ70A内の顔の表情が「驚き」と「怒り」とであると推定した場合、感情判定部11は、対象人物の感情が「快」の感情と、「不快」の感情との両方であると判定する。そして、感情判定部11は、「快」の感情を「0.345514304」の数値で表し、「不快」の感情を「0.163369188」の数値で表す。
For example, when the facial
また、表情推定部6が、画像データ70Aの顔の表情が「嫌悪」であると推定した場合、感情判定部11は、対象人物の感情が不同意の感情であると判定し、その判定結果を数値で表す。数値化した結果、「1.0」に近いほど不同意の感情が強く、「0」に近いほど、不同意でない感情(同意の感情)が強い。
Further, when the facial
なお、図9、図10に示す数値は、一例であり、これに限定されることはない。 The numerical values shown in FIGS. 9 and 10 are examples, and are not limited thereto.
図11は、感情判定装置10による判定結果を示す図である。判定結果は、一の画像データ70Aに対して推定された6通りの表情の有無(0または1)、および、数値化された「快」、「不快」、「不同意」の感情、などを含む。この判定結果は、例えば、感情判定装置10から、ネットワークを介して、クラウドへ送信される。そして、クラウド側で各種サービスに用いられる。
FIG. 11 is a diagram showing a determination result by the
[動作説明]
次に、本実施形態における表情推定装置1および感情判定装置10の動作について図12を用いて説明する。図12は、本実施形態における表情推定装置1および感情判定装置10の動作を示すフロー図である。以下の説明においては、適宜図1〜図10を参酌する。また、本実施形態では、表情推定装置1を動作させることによって、表情推定方法が実施される。よって、本実施形態における表情推定方法の説明は、以下の表情推定装置1の動作説明に代える。
[Operation description]
Next, the operations of the facial
まず、前提として、撮像装置70により対象人物の顔が撮像される。この前提において、撮像データ取得部2は、撮像装置70により撮像された画像データ70Aを取得する(S1)。次に、顔検出部7は、画像データ70Aにおける顔を検出する(S2)。顔特徴点検出部8は、画像データ70Aにおいて、顔検出部7が検出した対象人物の顔を構成する器官(例えば、目、鼻、口など)の特徴点を検出する(S3)。そして、顔器官測定部9は、顔特徴点検出部8が検出した特徴点から、顔器官を分類し、分類した各顔器官それぞれについて測定する(S4)。
First, as a premise, the face of the target person is imaged by the
顔画像データ取得部3は、記憶装置72に記憶されている顔画像データ72Aを取得する(S5)角度推定部4は、画像データ70Aにおいて、対象人物の顔の角度を推定する(S6)。補正部5は、角度推定部4の推定結果に応じて、顔画像データ取得部3が取得した顔画像データ72Aを補正して、画像データ70Aの顔の角度に一致させた顔画像データ72Bを生成する(S7)。
The face image
表情推定部6は、S1で取得した画像データ70Aと、S7で補正した顔画像データ72Bとを対比して、対象人物の表情を、「幸福、驚き、怒り、恐怖、悲しみ、嫌悪」の6通りの表情のなかから推定する(S8)。感情判定部11は、S8での表情の推定結果から、対象人物の感情を判定し、判定結果を数値化する(S9)。
The facial
[実施形態による効果]
以上の構成の表情推定装置1により、対象人物の表情を推定する際、対象人物の顔の情報の欠落が少ない、基準となる顔画像データ72Aを補正して、撮像して得られた画像データ70Aと比較して表情を推定するため、表情の推定精度は高い。表情の推定精度を高くすることで、その表情の推定結果を用いて行う感情判定の精度も高くなる。
[Effect of the embodiment]
When the facial expression of the target person is estimated by the facial
また、感情判定装置10により対象人物の感情を判定することで、例えば、車内において、AIによる対話システムを構築する場合、対象人物の感情に応じた対話が可能となる。その結果、対象人物の気持ちに寄り添った対話が可能となる。
Further, by determining the emotion of the target person by the
[プログラム]
本実施形態におけるプログラムは、コンピュータに、図12に示すステップS1〜S9を実行させるプログラムであればよい。このプログラムをコンピュータにインストールし、実行することによって、本実施形態における表情推定装置1、感情判定装置10および表情推定方法を実現することができる。この場合、コンピュータのプロセッサは、撮像データ取得部2、顔画像データ取得部3、角度推定部4、補正部5、表情推定部6および感情判定部11として機能し、処理を行なう。
[program]
The program in this embodiment may be any program that causes a computer to execute steps S1 to S9 shown in FIG. By installing this program on a computer and executing it, the facial
また、本実施形態1におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されてもよい。この場合は、例えば、各コンピュータが、それぞれ、撮像データ取得部2、顔画像データ取得部3、角度推定部4、補正部5、表情推定部6および感情判定部11のいずれかとして機能してもよい。
Further, the program in the first embodiment may be executed by a computer system constructed by a plurality of computers. In this case, for example, each computer functions as one of the imaging
[物理構成]
ここで、本実施形態におけるプログラムを実行することによって、表情推定装置および感情判定装置を実現するコンピュータについて図13を用いて説明する。図13は、本実施形態における表情推定装置1および感情判定装置10を実現するコンピュータの一例を示すブロック図である。
[Physical configuration]
Here, a computer that realizes the facial expression estimation device and the emotion determination device by executing the program in the present embodiment will be described with reference to FIG. FIG. 13 is a block diagram showing an example of a computer that realizes the facial
図13に示すように、コンピュータ110は、CPU111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。なお、コンピュータ110は、CPU111に加えて、またはCPU111に代えて、GPU(Graphics Processing Unit)、またはFPGA(Field-Programmable Gate Array)を備えていてもよい。
As shown in FIG. 13, the
CPU111は、記憶装置113に格納された、本実施形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであってもよい。
The
また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。
Further, specific examples of the
データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
The data reader /
また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))およびSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記録媒体、またはCD−ROM(Compact Disk Read Only Memory)などの光学記録媒体が挙げられる。
Specific examples of the
なお、本実施形態における表情推定装置および感情判定装置は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、表情推定装置および感情判定装置は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。 The facial expression estimation device and the emotion determination device in the present embodiment can also be realized by using the hardware corresponding to each part instead of the computer in which the program is installed. Further, the facial expression estimation device and the emotion determination device may be partially realized by a program and the rest by hardware.
上述した実施形態の一部または全部は、以下に記載する(付記1)〜(付記12)によって表現することができるが、以下の記載に限定されるものではない。 A part or all of the above-described embodiments can be expressed by the following descriptions (Appendix 1) to (Appendix 12), but the present invention is not limited to the following description.
(付記1)
撮像装置が撮像した対象人物の顔の画像データを取得する撮像データ取得部と、
記憶装置に予め記憶された、前記対象人物の平常時の顔画像データを取得する顔画像データ取得部と、
前記撮像データ取得部が取得した画像データから、前記対象人物の顔の角度を推定する角度推定部と、
前記角度推定部の推定結果に基づいて、前記顔画像データ取得部が取得した顔画像データを補正する補正部と、
前記撮像データ取得部が取得した画像データと、前記補正部による補正後の顔画像データとを対比して、前記対象人物の表情を推定する表情推定部と、
を備えることを特徴とする、表情推定装置。
(Appendix 1)
An imaging data acquisition unit that acquires image data of the face of the target person captured by the imaging device, and
A face image data acquisition unit that acquires face image data of the target person in normal times, which is stored in advance in a storage device,
An angle estimation unit that estimates the face angle of the target person from the image data acquired by the imaging data acquisition unit, and an angle estimation unit.
A correction unit that corrects the face image data acquired by the face image data acquisition unit based on the estimation result of the angle estimation unit, and a correction unit.
A facial expression estimation unit that estimates the facial expression of the target person by comparing the image data acquired by the imaging data acquisition unit with the facial image data corrected by the correction unit.
A facial expression estimation device, which comprises.
(付記2)
付記1に記載の表情推定装置であって、
前記補正部は、
前記顔画像データ取得部が取得した顔画像データから、前記対象人物の顔の特徴点を検出し、前記角度推定部が推定した角度に応じて前記特徴点を移動させて、前記顔画像データ内の顔の角度を、前記撮像データ取得部が取得した画像データの顔の角度に一致させる、
ことを特徴とする表情推定装置。
(Appendix 2)
The facial expression estimation device described in
The correction unit
From the face image data acquired by the face image data acquisition unit, the feature points of the face of the target person are detected, the feature points are moved according to the angle estimated by the angle estimation unit, and the feature points are moved in the face image data. Matches the face angle of the image data acquired by the imaging data acquisition unit with the face angle of the image data.
A facial expression estimation device characterized by this.
(付記3)
付記1または付記2に記載の表情推定装置であって、
前記対象人物の平常時の顔画像データは、前記対象人物が撮像装置に対して表面を向いて撮像された画像データである、
ことを特徴とする表情推定装置。
(Appendix 3)
The facial expression estimation device according to
The normal face image data of the target person is image data captured by the target person facing the surface of the imaging device.
A facial expression estimation device characterized by this.
(付記4)
撮像装置が撮像した対象人物の顔の画像データを取得する撮像データ取得部と、
記憶装置に予め記憶された、前記対象人物の平常時の顔画像データを取得する顔画像データ取得部と、
前記撮像データ取得部が取得した画像データから、前記対象人物の顔の角度を推定する角度推定部と、
前記角度推定部の推定結果に基づいて、前記顔画像データ取得部が取得した顔画像データを補正する補正部と、
前記撮像データ取得部が取得した画像データと、前記補正部による補正後の顔画像データとを対比して、前記対象人物の表情を推定する表情推定部と、
前記表情推定部による推定結果に基づいて、前記対象人物の感情を判定する感情判定部と、
を備えることを特徴とする感情判定装置。
(Appendix 4)
An imaging data acquisition unit that acquires image data of the face of the target person captured by the imaging device, and
A face image data acquisition unit that acquires face image data of the target person in normal times, which is stored in advance in a storage device,
An angle estimation unit that estimates the face angle of the target person from the image data acquired by the imaging data acquisition unit, and an angle estimation unit.
A correction unit that corrects the face image data acquired by the face image data acquisition unit based on the estimation result of the angle estimation unit, and a correction unit.
A facial expression estimation unit that estimates the facial expression of the target person by comparing the image data acquired by the imaging data acquisition unit with the facial image data corrected by the correction unit.
An emotion determination unit that determines the emotion of the target person based on the estimation result by the facial expression estimation unit, and
An emotional determination device comprising.
(付記5)
付記4に記載の感情判定装置であって、
前記補正部は、
前記顔画像データ取得部が取得した顔画像データから、前記対象人物の顔の特徴点を検出し、前記角度推定部が推定した角度に応じて前記特徴点を移動させて、前記顔画像データ内の顔の角度を、前記撮像データ取得部が取得した画像データの顔の角度に一致させる、
ことを特徴とする表感情判定装置。
(Appendix 5)
The emotional determination device described in
The correction unit
From the face image data acquired by the face image data acquisition unit, the feature points of the face of the target person are detected, the feature points are moved according to the angle estimated by the angle estimation unit, and the feature points are moved in the face image data. Matches the face angle of the image data acquired by the imaging data acquisition unit with the face angle of the image data.
A table emotion determination device characterized by this.
(付記6)
付記4または付記5に記載の感情判定装置であって、
前記対象人物の平常時の顔画像データは、前記対象人物が撮像装置に対して表面を向いて撮像された画像データである、
ことを特徴とする感情判定装置。
(Appendix 6)
The emotional determination device according to
The normal face image data of the target person is image data captured by the target person facing the surface of the imaging device.
An emotional judgment device characterized by this.
(付記7)
(a)撮像装置が撮像した対象人物の顔の画像データを取得するステップと、
(b)記憶装置に予め記憶された、前記対象人物の平常時の顔画像データを取得するステップと、
(c)前記ステップ(a)で取得した画像データから、前記対象人物の顔の角度を推定するステップと、
(d)前記ステップ(c)での推定結果に基づいて、前記ステップ(b)で取得した顔画像データを補正するステップと、
(e)前記ステップ(a)で取得した画像データと、前記ステップ(d)での補正後の顔画像データとを対比して、前記対象人物の表情を推定するステップと、
を備えることを特徴とする、表情推定方法。
(Appendix 7)
(A) A step of acquiring image data of the face of the target person captured by the imaging device, and
(B) A step of acquiring the normal face image data of the target person stored in the storage device in advance, and
(C) A step of estimating the face angle of the target person from the image data acquired in the step (a), and
(D) A step of correcting the face image data acquired in the step (b) based on the estimation result in the step (c), and
(E) A step of estimating the facial expression of the target person by comparing the image data acquired in the step (a) with the corrected face image data in the step (d).
A facial expression estimation method, which comprises.
(付記8)
付記7に記載の表情推定方法であって、
前記ステップ(d)では、
前記ステップ(a)で取得された画像データから、前記対象人物の顔の特徴点を検出し、前記ステップ(c)で推定された角度に応じて前記特徴点を移動させて、前記顔画像データ内の顔の角度を、前記ステップ(a)で取得された画像データの顔の角度に一致させる、
ことを特徴とする表情推定方法。
(Appendix 8)
The facial expression estimation method described in
In step (d),
From the image data acquired in the step (a), the feature points of the face of the target person are detected, and the feature points are moved according to the angle estimated in the step (c) to move the face image data. Match the angle of the face inside with the angle of the face of the image data acquired in the step (a).
A facial expression estimation method characterized by this.
(付記9)
付記7または付記8に記載の表情推定方法であって、
前記対象人物の平常時の顔画像データは、前記対象人物が撮像装置に対して表面を向いて撮像された画像データである、
ことを特徴とする表情推定方法。
(Appendix 9)
The facial expression estimation method according to
The normal face image data of the target person is image data captured by the target person facing the surface of the imaging device.
A facial expression estimation method characterized by this.
(付記10)
撮像装置が撮像した対象人物の顔の画像データを取得するコンピュータに、
(a)記憶装置に予め記憶された、前記対象人物の平常時の顔画像データを取得するステップと、
(b)前記画像データから、前記対象人物の顔の角度を推定するステップと、
(c)前記ステップ(b)での推定結果に基づいて、前記ステップ(a)で取得した顔画像データを補正するステップと、
(d)前記画像データと、前記ステップ(c)での補正後の顔画像データとを対比して、前記対象人物の表情を推定するステップと、
を実行させることを特徴とする、プログラム。
(Appendix 10)
To a computer that acquires image data of the face of the target person captured by the image pickup device
(A) A step of acquiring the normal face image data of the target person stored in advance in the storage device, and
(B) A step of estimating the face angle of the target person from the image data, and
(C) A step of correcting the face image data acquired in the step (a) based on the estimation result in the step (b), and a step of correcting the face image data.
(D) A step of estimating the facial expression of the target person by comparing the image data with the face image data corrected in the step (c).
A program characterized by executing.
(付記11)
付記10に記載のプログラムであって、
前記ステップ(c)では、
前記画像データから、前記対象人物の顔の特徴点を検出し、前記ステップ(b)で推定した角度に応じて前記特徴点を移動させて、前記顔画像データ内の顔の角度を、前記画像データの顔の角度に一致させる、
ことを特徴とするプログラム。
(Appendix 11)
The program described in
In step (c),
The feature points of the face of the target person are detected from the image data, the feature points are moved according to the angle estimated in the step (b), and the angle of the face in the face image data is determined by the image. Match the face angle of the data,
A program characterized by that.
(付記12)
付記10または付記11に記載のプログラムであって、
前記対象人物の平常時の顔画像データは、前記対象人物が撮像装置に対して表面を向いて撮像された画像データである、
ことを特徴とするプログラム。
(Appendix 12)
The program according to
The normal face image data of the target person is image data captured by the target person facing the surface of the imaging device.
A program characterized by that.
以上のように、本発明によれば、対象人物の顔の情報の欠落が少ない、基準となる顔画像データを補正して、撮像して得られた画像データと比較して表情を推定するため、精度よく表情を推定できる。 As described above, according to the present invention, there is little loss of facial information of the target person, the reference facial image data is corrected, and the facial expression is estimated by comparing with the image data obtained by imaging. , The facial expression can be estimated accurately.
1 :表情推定装置
2 :撮像データ取得部
3 :顔画像データ取得部
4 :角度推定部
5 :補正部
6 :表情推定部
7 :顔検出部
8 :顔特徴点検出部
9 :顔器官測定部
10 :感情判定装置
11 :感情判定部
70 :撮像装置
70A :画像データ
71 :認証パターン
72 :記憶装置
72A :顔画像データ
1: Facial expression estimation device 2: Imaging data acquisition unit 3: Face image data acquisition unit 4: Angle estimation unit 5: Correction unit 6: Facial expression estimation unit 7: Face detection unit 8: Face feature point detection unit 9: Face organ measurement unit 10: Emotion determination device 11: Emotion determination unit 70: Imaging device 70A: Image data 71: Authentication pattern 72:
Claims (12)
記憶装置に予め記憶された、前記対象人物の平常時の顔画像データを取得する顔画像データ取得部と、
前記撮像データ取得部が取得した画像データから、前記対象人物の顔の角度を推定する角度推定部と、
前記角度推定部の推定結果に基づいて、前記顔画像データ取得部が取得した顔画像データを補正する補正部と、
前記撮像データ取得部が取得した画像データと、前記補正部による補正後の顔画像データとを対比して、前記対象人物の表情を推定する表情推定部と、
を備えることを特徴とする、表情推定装置。 An imaging data acquisition unit that acquires image data of the face of the target person captured by the imaging device, and
A face image data acquisition unit that acquires face image data of the target person in normal times, which is stored in advance in a storage device,
An angle estimation unit that estimates the face angle of the target person from the image data acquired by the imaging data acquisition unit, and an angle estimation unit.
A correction unit that corrects the face image data acquired by the face image data acquisition unit based on the estimation result of the angle estimation unit, and a correction unit.
A facial expression estimation unit that estimates the facial expression of the target person by comparing the image data acquired by the imaging data acquisition unit with the facial image data corrected by the correction unit.
A facial expression estimation device, which comprises.
前記補正部は、
前記顔画像データ取得部が取得した顔画像データから、前記対象人物の顔の特徴点を検出し、前記角度推定部が推定した角度に応じて前記特徴点を移動させて、前記顔画像データ内の顔の角度を、前記撮像データ取得部が取得した画像データの顔の角度に一致させる、
ことを特徴とする表情推定装置。 The facial expression estimation device according to claim 1.
The correction unit
From the face image data acquired by the face image data acquisition unit, the feature points of the face of the target person are detected, the feature points are moved according to the angle estimated by the angle estimation unit, and the feature points are moved in the face image data. Matches the face angle of the image data acquired by the imaging data acquisition unit with the face angle of the image data.
A facial expression estimation device characterized by this.
前記対象人物の平常時の顔画像データは、前記対象人物が撮像装置に対して表面を向いて撮像された画像データである、
ことを特徴とする表情推定装置。 The facial expression estimation device according to claim 1 or 2.
The normal face image data of the target person is image data captured by the target person facing the surface of the imaging device.
A facial expression estimation device characterized by this.
記憶装置に予め記憶された、前記対象人物の平常時の顔画像データを取得する顔画像データ取得部と、
前記撮像データ取得部が取得した画像データから、前記対象人物の顔の角度を推定する角度推定部と、
前記角度推定部の推定結果に基づいて、前記顔画像データ取得部が取得した顔画像データを補正する補正部と、
前記撮像データ取得部が取得した画像データと、前記補正部による補正後の顔画像データとを対比して、前記対象人物の表情を推定する表情推定部と、
前記表情推定部による推定結果に基づいて、前記対象人物の感情を判定する感情判定部と、
を備えることを特徴とする感情判定装置。 An imaging data acquisition unit that acquires image data of the face of the target person captured by the imaging device, and
A face image data acquisition unit that acquires face image data of the target person in normal times, which is stored in advance in a storage device,
An angle estimation unit that estimates the face angle of the target person from the image data acquired by the imaging data acquisition unit, and an angle estimation unit.
A correction unit that corrects the face image data acquired by the face image data acquisition unit based on the estimation result of the angle estimation unit, and a correction unit.
A facial expression estimation unit that estimates the facial expression of the target person by comparing the image data acquired by the imaging data acquisition unit with the facial image data corrected by the correction unit.
An emotion determination unit that determines the emotion of the target person based on the estimation result by the facial expression estimation unit, and
An emotional determination device comprising.
前記補正部は、
前記顔画像データ取得部が取得した顔画像データから、前記対象人物の顔の特徴点を検出し、前記角度推定部が推定した角度に応じて前記特徴点を移動させて、前記顔画像データ内の顔の角度を、前記撮像データ取得部が取得した画像データの顔の角度に一致させる、
ことを特徴とする感情判定装置。 The emotion determination device according to claim 4.
The correction unit
From the face image data acquired by the face image data acquisition unit, the feature points of the face of the target person are detected, the feature points are moved according to the angle estimated by the angle estimation unit, and the feature points are moved in the face image data. Matches the face angle of the image data acquired by the imaging data acquisition unit with the face angle of the image data.
An emotional judgment device characterized by this.
前記対象人物の平常時の顔画像データは、前記対象人物が撮像装置に対して表面を向いて撮像された画像データである、
ことを特徴とする感情判定装置。 The emotion determination device according to claim 4 or 5.
The normal face image data of the target person is image data captured by the target person facing the surface of the imaging device.
An emotional judgment device characterized by this.
(b)記憶装置に予め記憶された、前記対象人物の平常時の顔画像データを取得するステップと、
(c)前記ステップ(a)で取得した画像データから、前記対象人物の顔の角度を推定するステップと、
(d)前記ステップ(c)での推定結果に基づいて、前記ステップ(b)で取得した顔画像データを補正するステップと、
(e)前記ステップ(a)で取得した画像データと、前記ステップ(d)での補正後の顔画像データとを対比して、前記対象人物の表情を推定するステップと、
を備えることを特徴とする、表情推定方法。 (A) A step of acquiring image data of the face of the target person captured by the imaging device, and
(B) A step of acquiring the normal face image data of the target person stored in the storage device in advance, and
(C) A step of estimating the face angle of the target person from the image data acquired in the step (a), and
(D) A step of correcting the face image data acquired in the step (b) based on the estimation result in the step (c), and
(E) A step of estimating the facial expression of the target person by comparing the image data acquired in the step (a) with the corrected face image data in the step (d).
A facial expression estimation method, which comprises.
前記ステップ(d)では、
前記ステップ(a)で取得された画像データから、前記対象人物の顔の特徴点を検出し、前記ステップ(c)で推定された角度に応じて前記特徴点を移動させて、前記顔画像データ内の顔の角度を、前記ステップ(a)で取得された画像データの顔の角度に一致させる、
ことを特徴とする表情推定方法。 The facial expression estimation method according to claim 7.
In step (d),
From the image data acquired in the step (a), the feature points of the face of the target person are detected, and the feature points are moved according to the angle estimated in the step (c) to move the face image data. Match the angle of the face inside with the angle of the face of the image data acquired in the step (a).
A facial expression estimation method characterized by this.
前記対象人物の平常時の顔画像データは、前記対象人物が撮像装置に対して表面を向いて撮像された画像データである、
ことを特徴とする表情推定方法。 The facial expression estimation method according to claim 7 or 8.
The normal face image data of the target person is image data captured by the target person facing the surface of the imaging device.
A facial expression estimation method characterized by this.
(a)記憶装置に予め記憶された、前記対象人物の平常時の顔画像データを取得するステップと、
(b)前記画像データから、前記対象人物の顔の角度を推定するステップと、
(c)前記ステップ(b)での推定結果に基づいて、前記ステップ(a)で取得した顔画像データを補正するステップと、
(d)前記画像データと、前記ステップ(c)での補正後の顔画像データとを対比して、前記対象人物の表情を推定するステップと、
を実行させることを特徴とする、プログラム。 To a computer that acquires image data of the face of the target person captured by the image pickup device
(A) A step of acquiring the normal face image data of the target person stored in advance in the storage device, and
(B) A step of estimating the face angle of the target person from the image data, and
(C) A step of correcting the face image data acquired in the step (a) based on the estimation result in the step (b), and a step of correcting the face image data.
(D) A step of estimating the facial expression of the target person by comparing the image data with the face image data corrected in the step (c).
A program characterized by executing.
前記ステップ(c)では、
前記画像データから、前記対象人物の顔の特徴点を検出し、前記ステップ(b)で推定した角度に応じて前記特徴点を移動させて、前記顔画像データ内の顔の角度を、前記画像データの顔の角度に一致させる、
ことを特徴とするプログラム。 The program according to claim 10.
In step (c),
The feature points of the face of the target person are detected from the image data, the feature points are moved according to the angle estimated in the step (b), and the angle of the face in the face image data is determined by the image. Match the face angle of the data,
A program characterized by that.
前記対象人物の平常時の顔画像データは、前記対象人物が撮像装置に対して表面を向いて撮像された画像データである、
ことを特徴とするプログラム。
The program according to claim 10 or 11.
The normal face image data of the target person is image data captured by the target person facing the surface of the imaging device.
A program characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019046389A JP7327776B2 (en) | 2019-03-13 | 2019-03-13 | Facial expression estimation device, emotion determination device, facial expression estimation method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019046389A JP7327776B2 (en) | 2019-03-13 | 2019-03-13 | Facial expression estimation device, emotion determination device, facial expression estimation method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020149361A true JP2020149361A (en) | 2020-09-17 |
JP7327776B2 JP7327776B2 (en) | 2023-08-16 |
Family
ID=72430607
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019046389A Active JP7327776B2 (en) | 2019-03-13 | 2019-03-13 | Facial expression estimation device, emotion determination device, facial expression estimation method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7327776B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022118398A1 (en) * | 2020-12-02 | 2022-06-09 | マクセル株式会社 | Mobile information terminal and facial expression monitoring method |
KR102683330B1 (en) * | 2021-11-05 | 2024-07-09 | 계명대학교 산학협력단 | Face expression recognition method and apparatus using graph convolution neural network |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016149063A (en) * | 2015-02-13 | 2016-08-18 | オムロン株式会社 | Emotion estimation system and emotion estimation method |
JP2017182605A (en) * | 2016-03-31 | 2017-10-05 | セコム株式会社 | Reference point position determination device |
-
2019
- 2019-03-13 JP JP2019046389A patent/JP7327776B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016149063A (en) * | 2015-02-13 | 2016-08-18 | オムロン株式会社 | Emotion estimation system and emotion estimation method |
JP2017182605A (en) * | 2016-03-31 | 2017-10-05 | セコム株式会社 | Reference point position determination device |
Non-Patent Citations (1)
Title |
---|
崔 昌石 CHANG SEOK CHOI: "顔の3次元モデルを用いた顔面表情の分析 Analysis of Facial Expressions Using Three-Dimensional Facia", 電子情報通信学会論文誌 (J74ーDーII) 第6号 THE TRANSACTIONS OF THE INSTITUTE OF ELECTRONI, vol. 第J74-D-II巻, JPN6023008735, JP, pages 766 - 777, ISSN: 0005005466 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022118398A1 (en) * | 2020-12-02 | 2022-06-09 | マクセル株式会社 | Mobile information terminal and facial expression monitoring method |
KR102683330B1 (en) * | 2021-11-05 | 2024-07-09 | 계명대학교 산학협력단 | Face expression recognition method and apparatus using graph convolution neural network |
Also Published As
Publication number | Publication date |
---|---|
JP7327776B2 (en) | 2023-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6900516B2 (en) | Gaze point determination method and devices, electronic devices and computer storage media | |
JP6467965B2 (en) | Emotion estimation device and emotion estimation method | |
JP4950787B2 (en) | Image processing apparatus and method | |
JP6835223B2 (en) | Face recognition device, face recognition method and program | |
JP2011134114A (en) | Pattern recognition method and pattern recognition apparatus | |
EP2923306A1 (en) | Method and apparatus for facial image processing | |
JP2007042072A (en) | Tracking apparatus | |
US9213897B2 (en) | Image processing device and method | |
JP6784261B2 (en) | Information processing equipment, image processing system, image processing method and program | |
KR101089847B1 (en) | Keypoint matching system and method using SIFT algorithm for the face recognition | |
Mayer et al. | Adjusted pixel features for robust facial component classification | |
JP2009064395A (en) | Pointing device, program for making computer to correct error between operator's gaze position and cursor position, and computer-readable recording medium with the program recorded | |
JP7327776B2 (en) | Facial expression estimation device, emotion determination device, facial expression estimation method and program | |
JP2012118927A (en) | Image processing program and image processing device | |
CN113705466A (en) | Human face facial feature occlusion detection method used for occlusion scene, especially under high-imitation occlusion | |
CN112270747A (en) | Face recognition method and device and electronic equipment | |
WO2018032700A1 (en) | Method for tracking finger web position and apparatus thereof | |
JP2014032605A (en) | Image recognition device, image recognition method, and image recognition program | |
JP7439932B2 (en) | Information processing system, data storage device, data generation device, information processing method, data storage method, data generation method, recording medium, and database | |
JP2023005567A (en) | Machine learning program, machine learning method, and facial expression recognition device | |
KR102074977B1 (en) | Electronic devices and methods thereof | |
JP5688514B2 (en) | Gaze measurement system, method and program | |
JP6891633B2 (en) | Face recognition device, face recognition method, and program | |
JP6397439B2 (en) | Attribute estimation device | |
JP2021043914A (en) | Image processor, image processing method, and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220209 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230307 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230428 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230704 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230727 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7327776 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |