JP2020149361A - Expression estimating apparatus, feeling determining apparatus, expression estimating method, and program - Google Patents

Expression estimating apparatus, feeling determining apparatus, expression estimating method, and program Download PDF

Info

Publication number
JP2020149361A
JP2020149361A JP2019046389A JP2019046389A JP2020149361A JP 2020149361 A JP2020149361 A JP 2020149361A JP 2019046389 A JP2019046389 A JP 2019046389A JP 2019046389 A JP2019046389 A JP 2019046389A JP 2020149361 A JP2020149361 A JP 2020149361A
Authority
JP
Japan
Prior art keywords
image data
face
target person
facial expression
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019046389A
Other languages
Japanese (ja)
Other versions
JP7327776B2 (en
Inventor
孝浩 加藤
Takahiro Kato
孝浩 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solution Innovators Ltd
Original Assignee
NEC Solution Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solution Innovators Ltd filed Critical NEC Solution Innovators Ltd
Priority to JP2019046389A priority Critical patent/JP7327776B2/en
Publication of JP2020149361A publication Critical patent/JP2020149361A/en
Application granted granted Critical
Publication of JP7327776B2 publication Critical patent/JP7327776B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)

Abstract

To provide an expression estimating apparatus, a feeling determining apparatus, an expression estimating method, and a program therefor which can estimate expression of a person with higher accuracy.SOLUTION: An expression estimating apparatus 1 has a captured data acquiring unit 2 for acquiring an image data of a face of a target person captured by an imaging device, a face image data acquiring unit 3 for acquiring a normal time face image data of the target person which is stored in advance in a storage device, an angle estimating unit 4 for estimating an angle of the face of the target person from the image data acquired by the captured data acquiring unit 2, a correction unit 4 for correcting the face image data acquired by the face image data acquiring unit 3 based on the estimation result of the angle estimating unit 4, and an expression estimating unit 6 for estimating an expression of the target person by comparing the image data acquired by the captured data acquiring unit 2 and the face image data corrected by the correction unit 5.SELECTED DRAWING: Figure 1

Description

本発明は、人物の顔が撮像された画像データから、人物の表情を推定する表情推定装置および表情推定方法と、表情推定装置を備えた感情判定装置とに関し、さらには、これらを実現するためのプログラムに関する。 The present invention relates to a facial expression estimation device and a facial expression estimation method for estimating a facial expression of a person from image data obtained by capturing a person's face, and an emotion determination device provided with the facial expression estimation device, and further, to realize these. About the program.

近年、人物の顔が撮像された画像データから、その人物の表情を読み取る技術が提案されている。特許文献1には、人物の表情だけでなく、その人物の内面的な状態も分析する心理状態推定方法が開示されている。特許文献1に記載の心理状態推定方法は、帰宅した人物を撮像した画像データから推定した年齢と、普段の表情で写っている標準顔画像データから推定した年齢との差(年齢差)を算出している。その年齢差が大きいと通常よりも老けて見えることを利用して、帰宅した人物がポジティブ感情かネガティブ感情かを推定している。これにより、特許文献1は、対象人物の心理状態を客観的に判断することを可能としている。 In recent years, a technique for reading a person's facial expression from image data obtained by capturing a person's face has been proposed. Patent Document 1 discloses a psychological state estimation method that analyzes not only the facial expression of a person but also the internal state of the person. The psychological state estimation method described in Patent Document 1 calculates the difference (age difference) between the age estimated from the image data of a person who has returned home and the age estimated from the standard facial image data of a normal facial expression. are doing. Taking advantage of the fact that when the age difference is large, the person looks older than usual, it is estimated whether the person who returned home has positive emotions or negative emotions. As a result, Patent Document 1 makes it possible to objectively determine the psychological state of the target person.

特開2016−093313号公報Japanese Unexamined Patent Publication No. 2016-093313

しかしながら、特許文献1では、心理状態を推定するには、顔が撮像装置に対して正面を向いた状態で撮像された画像データを用いる必要がある。このため、人物の顔を正面から撮像できない場合には、心理状態を推定することができない、または、推定精度が低下するおそれがある。 However, in Patent Document 1, in order to estimate the psychological state, it is necessary to use the image data captured with the face facing the front of the imaging device. Therefore, if the face of a person cannot be imaged from the front, the psychological state cannot be estimated, or the estimation accuracy may decrease.

本発明の目的の一例は、人物の表情の推定精度を高くできる、表情推定装置、感情判定装置、表情推定方法及びプログラムを提供することにある。 An example of an object of the present invention is to provide a facial expression estimation device, an emotion determination device, a facial expression estimation method, and a program capable of increasing the estimation accuracy of a person's facial expression.

上記目的を達成するため、本発明の一側面における表情推定装置は、
撮像装置が撮像した対象人物の顔の画像データを取得する撮像データ取得部と、
記憶装置に予め記憶された、前記対象人物の平常時の顔画像データを取得する顔画像データ取得部と、
前記撮像データ取得部が取得した画像データから、前記対象人物の顔の角度を推定する角度推定部と、
前記角度推定部の推定結果に基づいて、前記顔画像データ取得部が取得した顔画像データを補正する補正部と、
前記撮像データ取得部が取得した画像データと、前記補正部による補正後の顔画像データとを対比して、前記対象人物の表情を推定する表情推定部と、
を備えることを特徴とする。
In order to achieve the above object, the facial expression estimation device in one aspect of the present invention is
An imaging data acquisition unit that acquires image data of the face of the target person captured by the imaging device, and
A face image data acquisition unit that acquires face image data of the target person in normal times, which is stored in advance in a storage device,
An angle estimation unit that estimates the face angle of the target person from the image data acquired by the imaging data acquisition unit, and an angle estimation unit.
A correction unit that corrects the face image data acquired by the face image data acquisition unit based on the estimation result of the angle estimation unit, and a correction unit.
A facial expression estimation unit that estimates the facial expression of the target person by comparing the image data acquired by the imaging data acquisition unit with the facial image data corrected by the correction unit.
It is characterized by having.

また、上記目的を達成するため、本発明の一側面における感情判定装置は、
撮像装置が撮像した対象人物の顔の画像データを取得する撮像データ取得部と、
記憶装置に予め記憶された、前記対象人物の平常時の顔画像データを取得する顔画像データ取得部と、
前記撮像データ取得部が取得した画像データから、前記対象人物の顔の角度を推定する角度推定部と、
前記角度推定部の推定結果に基づいて、前記顔画像データ取得部が取得した顔画像データを補正する補正部と、
前記撮像データ取得部が取得した画像データと、前記補正部による補正後の顔画像データとを対比して、前記対象人物の表情を推定する表情推定部と、
前記表情推定部による推定結果に基づいて、前記対象人物の感情を判定する感情判定部と、
を備えることを特徴とする。
Further, in order to achieve the above object, the emotion determination device in one aspect of the present invention is used.
An imaging data acquisition unit that acquires image data of the face of the target person captured by the imaging device, and
A face image data acquisition unit that acquires face image data of the target person in normal times, which is stored in advance in a storage device,
An angle estimation unit that estimates the face angle of the target person from the image data acquired by the imaging data acquisition unit, and an angle estimation unit.
A correction unit that corrects the face image data acquired by the face image data acquisition unit based on the estimation result of the angle estimation unit, and a correction unit.
A facial expression estimation unit that estimates the facial expression of the target person by comparing the image data acquired by the imaging data acquisition unit with the facial image data corrected by the correction unit.
An emotion determination unit that determines the emotion of the target person based on the estimation result by the facial expression estimation unit, and
It is characterized by having.

また、上記目的を達成するため、本発明の一側面における表情推定方法は、
(a)撮像装置が撮像した対象人物の顔の画像データを取得するステップと、
(b)記憶装置に予め記憶された、前記対象人物の平常時の顔画像データを取得するステップと、
(c)前記ステップ(a)で取得した画像データから、前記対象人物の顔の角度を推定するステップと、
(d)前記ステップ(c)での推定結果に基づいて、前記ステップ(b)で取得した顔画像データを補正するステップと、
(e)前記ステップ(a)で取得した画像データと、前記ステップ(d)での補正後の顔画像データとを対比して、前記対象人物の表情を推定するステップと、
を備えることを特徴とする。
Further, in order to achieve the above object, the facial expression estimation method in one aspect of the present invention is:
(A) A step of acquiring image data of the face of the target person captured by the imaging device, and
(B) A step of acquiring the normal face image data of the target person stored in the storage device in advance, and
(C) A step of estimating the face angle of the target person from the image data acquired in the step (a), and
(D) A step of correcting the face image data acquired in the step (b) based on the estimation result in the step (c), and
(E) A step of estimating the facial expression of the target person by comparing the image data acquired in the step (a) with the corrected face image data in the step (d).
It is characterized by having.

また、上記目的を達成するため、本発明の一側面におけるプログラムは、
撮像装置が撮像した対象人物の顔の画像データを取得するコンピュータに、
(a)記憶装置に予め記憶された、前記対象人物の平常時の顔画像データを取得するステップと、
(b)前記画像データから、前記対象人物の顔の角度を推定するステップと、
(c)前記ステップ(b)での推定結果に基づいて、前記ステップ(a)で取得した顔画像データを補正するステップと、
(d)前記画像データと、前記ステップ(c)での補正後の顔画像データとを対比して、前記対象人物の表情を推定するステップと、
を実行させることを特徴とする。
In addition, in order to achieve the above object, the program in one aspect of the present invention
To a computer that acquires image data of the face of the target person captured by the image pickup device
(A) A step of acquiring the normal face image data of the target person stored in advance in the storage device, and
(B) A step of estimating the face angle of the target person from the image data, and
(C) A step of correcting the face image data acquired in the step (a) based on the estimation result in the step (b), and a step of correcting the face image data.
(D) A step of estimating the facial expression of the target person by comparing the image data with the face image data corrected in the step (c).
Is characterized by executing.

本発明によれば、対象人物の顔の情報の欠落が少ない、基準となる顔画像データを補正して、撮像して得られた画像データと比較して表情を推定するため、精度よく表情を推定できる。 According to the present invention, since the facial expression is estimated by correcting the reference facial image data in which the lack of facial information of the target person is small and comparing it with the image data obtained by imaging, the facial expression can be accurately obtained. Can be estimated.

図1は、本実施形態における表情推定装置の構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of a facial expression estimation device according to the present embodiment. 図2は、感情判定装置の具体的構成を示すブロック図である。FIG. 2 is a block diagram showing a specific configuration of the emotion determination device. 図3は、顔特徴点検出部が検出する特徴点を示す図である。FIG. 3 is a diagram showing feature points detected by the face feature point detection unit. 図4は、顔器官の位置の定義と、各器官での測定項目とを示す図である。FIG. 4 is a diagram showing the definition of the position of the facial organ and the measurement items in each organ. 図5は、補正部による補正前後における顔画像データを示す図である。FIG. 5 is a diagram showing face image data before and after correction by the correction unit. 図6は、表情毎の点数を計算する際に用いる加点・減点表を示す図である。FIG. 6 is a diagram showing a point addition / deduction table used when calculating the score for each facial expression. 図7は、表情毎の点数を計算する際に用いる加点・減点表を示す図である。FIG. 7 is a diagram showing a point addition / deduction table used when calculating the score for each facial expression. 図8は、表情の点数の加減算の結果から、表情を推定する際に用いるテーブルを示す図である。FIG. 8 is a diagram showing a table used when estimating facial expressions from the results of addition and subtraction of facial expression scores. 図9は、感情の判定結果を数値化する際に用いるテーブルを示す図である。FIG. 9 is a diagram showing a table used when quantifying the emotional determination result. 図10は、感情の判定結果を数値化する際に用いるテーブルを示す図である。FIG. 10 is a diagram showing a table used when quantifying the emotional determination result. 図11は、感情判定装置による判定結果を示す図である。FIG. 11 is a diagram showing a determination result by the emotion determination device. 図12は、実施形態における表情推定装置および感情判定装置の動作を示すフロー図である。FIG. 12 is a flow chart showing the operation of the facial expression estimation device and the emotion determination device in the embodiment. 図13は、本実施形態における表情推定装置および感情判定装置を実現するコンピュータの一例を示すブロック図である。FIG. 13 is a block diagram showing an example of a computer that realizes the facial expression estimation device and the emotion determination device according to the present embodiment.

以下、本発明における一実施形態の表情推定装置、感情判定装置および表情推定方法について、図面を参照しながら説明する。 Hereinafter, the facial expression estimation device, the emotion determination device, and the facial expression estimation method according to the embodiment of the present invention will be described with reference to the drawings.

[装置構成]
図1は、本実施形態における表情推定装置1の構成を示すブロック図である。
[Device configuration]
FIG. 1 is a block diagram showing a configuration of a facial expression estimation device 1 according to the present embodiment.

表情推定装置1は、撮像データ取得部2、顔画像データ取得部3、角度推定部4、補正部5および表情推定部6を備えている。 The facial expression estimation device 1 includes an imaging data acquisition unit 2, a face image data acquisition unit 3, an angle estimation unit 4, a correction unit 5, and a facial expression estimation unit 6.

撮像データ取得部2は、不図示の撮像装置が撮像した対象人物の顔の画像データを取得する。 The imaging data acquisition unit 2 acquires image data of the face of the target person captured by an imaging device (not shown).

顔画像データ取得部3は、不図示の記憶装置に予め記憶された、対象人物の平常時の顔画像データを取得する。 The face image data acquisition unit 3 acquires the face image data of the target person in normal times, which is stored in advance in a storage device (not shown).

角度推定部4は、撮像データ取得部2が取得した画像データから、対象人物の顔の角度を推定する。 The angle estimation unit 4 estimates the angle of the face of the target person from the image data acquired by the imaging data acquisition unit 2.

補正部5は、角度推定部4の推定結果に基づいて、顔画像データ取得部3が取得した顔画像データを補正する。 The correction unit 5 corrects the face image data acquired by the face image data acquisition unit 3 based on the estimation result of the angle estimation unit 4.

表情推定部6は、撮像データ取得部2が取得した画像データと、補正部5による補正後の顔画像データとを対比して、対象人物の表情を推定する。 The facial expression estimation unit 6 estimates the facial expression of the target person by comparing the image data acquired by the imaging data acquisition unit 2 with the face image data corrected by the correction unit 5.

この表情推定装置1は、対象人物の顔の情報の欠落が少ない、基準となる顔画像データを補正して、撮像して得られた画像データと比較して表情を推定するため、精度よく表情を推定できる。 This facial expression estimation device 1 corrects the reference facial image data in which there is little lack of facial information of the target person, and estimates the facial expression by comparing it with the image data obtained by imaging, so that the facial expression is accurately expressed. Can be estimated.

続いて、図2〜図10を用いて、本実施形態の表情推定装置1の構成について具体的に説明する。表情推定装置1は、感情判定装置の一部構成として用いられる。以下では、感情判定装置について具体的に説明することで、表情推定装置1について説明する。 Subsequently, the configuration of the facial expression estimation device 1 of the present embodiment will be specifically described with reference to FIGS. 2 to 10. The facial expression estimation device 1 is used as a partial configuration of the emotion determination device. Hereinafter, the facial expression estimation device 1 will be described by specifically explaining the emotion determination device.

図2は、感情判定装置10の具体的構成を示すブロック図である。感情判定装置10は、例えば自動車に搭載される。自動車には撮像装置70が搭載されている。撮像装置70は、少なくとも運転者の顔を撮像するように設置されている。感情判定装置10は、その撮像装置70と接続されている。なお、感情判定装置10と撮像装置70とは一体であってもよいし、それぞれ独立した装置であってもよい。また、撮像装置70は、感情判定装置10のために設けられた装置でなくてもよい。 FIG. 2 is a block diagram showing a specific configuration of the emotion determination device 10. The emotion determination device 10 is mounted on, for example, an automobile. The automobile is equipped with an image pickup device 70. The image pickup device 70 is installed so as to image at least the driver's face. The emotion determination device 10 is connected to the image pickup device 70. The emotion determination device 10 and the image pickup device 70 may be integrated or may be independent devices. Further, the imaging device 70 does not have to be a device provided for the emotion determination device 10.

表情推定装置1は、撮像装置70が撮像した画像データ70Aから、運転者の表情を推定する。そして、感情判定装置10は、表情推定装置1が推定した運転者の表情から、運転者の感情を判定する。なお、感情判定装置10が設置される場所は、自動車に限定されず、建物内に設置されてもよい。以下の説明では、運転者は対象人物と言う。 The facial expression estimation device 1 estimates the facial expression of the driver from the image data 70A captured by the image pickup device 70. Then, the emotion determination device 10 determines the driver's emotion from the driver's facial expression estimated by the facial expression estimation device 1. The place where the emotion determination device 10 is installed is not limited to the automobile, and may be installed in the building. In the following description, the driver is referred to as the target person.

感情判定装置10は、上記した表情推定装置1に加え、感情判定部11を備えている。また、表情推定装置1は、撮像データ取得部2、顔画像データ取得部3、角度推定部4、補正部5および表情推定部6に加え、顔検出部7、顔特徴点検出部8および顔器官測定部9を備えている。 The emotion determination device 10 includes an emotion determination unit 11 in addition to the facial expression estimation device 1 described above. Further, the facial expression estimation device 1 includes a face detection unit 7, a face feature point detection unit 8 and a face in addition to the imaging data acquisition unit 2, the face image data acquisition unit 3, the angle estimation unit 4, the correction unit 5, and the facial expression estimation unit 6. The organ measurement unit 9 is provided.

撮像データ取得部2は、撮像装置70により撮像された画像データ70Aを取得する。 The image pickup data acquisition unit 2 acquires the image data 70A captured by the image pickup device 70.

顔検出部7は、画像データ70Aから対象人物の顔を検出する。顔検出部7は、例えばエッジ検出または形状パターン検出によって、画像データ70Aにおける顔の候補領域を抽出する。顔検出部7は、抽出した候補領域を小領域に分割し、各小領域の特徴点を、外部から取得した顔認証パターン71とパターン照合することで、顔を検出する。顔認証パターン71は、感情判定装置10内に設置される記憶装置に記憶されていてもよいし、ネットワークを介して感情判定装置10と接続される外部の記憶装置に記憶されていてもよい。また、顔認証パターン71は、機械学習により、顔検出処理が行われる都度、更新される。顔検出部7により顔の検出方法は、上記のものに限定されず、周知の技術を適宜用いることができる。 The face detection unit 7 detects the face of the target person from the image data 70A. The face detection unit 7 extracts a face candidate region in the image data 70A by, for example, edge detection or shape pattern detection. The face detection unit 7 detects a face by dividing the extracted candidate area into small areas and collating the feature points of each small area with the face authentication pattern 71 acquired from the outside. The face recognition pattern 71 may be stored in a storage device installed in the emotion determination device 10, or may be stored in an external storage device connected to the emotion determination device 10 via a network. Further, the face recognition pattern 71 is updated every time the face detection process is performed by machine learning. The face detection method by the face detection unit 7 is not limited to the above, and a well-known technique can be appropriately used.

顔特徴点検出部8は、顔検出部7が検出した画像データ70A内の顔を構成する器官(例えば、目、鼻、口など)の特徴点を検出する。図3は、顔特徴点検出部8が検出する特徴点を示す図である。顔特徴点検出部8は、画像データ70Aにおいて、顔検出部7が検出した顔から、例えば、左眉17〜21、右眉22〜26、左目36〜41、右目42〜47など、計68個の特徴点を検出する。 The face feature point detection unit 8 detects feature points of organs (for example, eyes, nose, mouth, etc.) constituting the face in the image data 70A detected by the face detection unit 7. FIG. 3 is a diagram showing feature points detected by the face feature point detection unit 8. The face feature point detection unit 8 has a total of 68, such as left eyebrows 17 to 21, right eyebrows 22 to 26, left eyes 36 to 41, and right eyes 42 to 47, from the face detected by the face detection unit 7 in the image data 70A. Detect individual feature points.

顔器官測定部9は、顔特徴点検出部8が検出した特徴点から、顔器官を分類する。また、顔器官測定部9は、分類した各顔器官それぞれについて、所定の項目を測定する。図4は、顔器官の位置の定義と、各器官での測定項目とを示す図である。図4の「位置」の項目に記す数字は、図3の特徴点の位置を示す。例えば、顔器官測定部9は、特徴点5〜11に囲まれた領域(図3の斜線領域)を、「あご」に分類する。そして、顔器官測定部9は、その領域の重心位置(座標)を測定する。なお、図4に示す顔器官の位置の定義、および、各器官での測定項目は一例であり、適宜変更可能である。 The facial organ measuring unit 9 classifies facial organs from the feature points detected by the facial feature point detecting unit 8. In addition, the facial organ measuring unit 9 measures a predetermined item for each of the classified facial organs. FIG. 4 is a diagram showing the definition of the position of the facial organ and the measurement items in each organ. The numbers shown in the item of "position" in FIG. 4 indicate the positions of the feature points in FIG. For example, the facial organ measuring unit 9 classifies the region surrounded by the feature points 5 to 11 (the shaded region in FIG. 3) into the “chin”. Then, the facial organ measuring unit 9 measures the position (coordinates) of the center of gravity of the region. The definition of the position of the facial organ shown in FIG. 4 and the measurement items in each organ are examples and can be changed as appropriate.

角度推定部4は、画像データ70A内の顔の角度を推定する。顔の角度は、対象人物が撮像装置に対して正面を向いた状態を基準とする。角度を推定する方法は、従来の手法を用いることができる。例えば、角度推定部4は、画像データ70A内の顔の複数の特徴点、例えば、鼻の先端、あご、左目の左隅、右目の右隅、口の左隅、および口の右隅の座標を検出する。そして、角度推定部4は、予め設定された3次元モデルを用いて、上記した鼻の先端などの複数の特徴点を検出する。角度推定部4は、画像データ70Aから検出した特徴点と、3次元モデルから検出した特徴点とから、行列変換などの計算を行い、角度を求める。 The angle estimation unit 4 estimates the angle of the face in the image data 70A. The angle of the face is based on the state in which the target person faces the front of the imaging device. As a method of estimating the angle, a conventional method can be used. For example, the angle estimation unit 4 detects the coordinates of a plurality of facial feature points in the image data 70A, for example, the tip of the nose, the chin, the left corner of the left eye, the right corner of the right eye, the left corner of the mouth, and the right corner of the mouth. To do. Then, the angle estimation unit 4 detects a plurality of feature points such as the tip of the nose described above by using a preset three-dimensional model. The angle estimation unit 4 performs calculations such as matrix conversion from the feature points detected from the image data 70A and the feature points detected from the three-dimensional model to obtain the angle.

顔画像データ取得部3は、記憶装置72に記憶されている顔画像データ72Aを取得する。記憶装置72には、対象人物が平常時に、撮像装置に対して表面を向いて撮像された対象人物の顔画像データ72Aが予め記憶されている。平常時とは、対象人物が喜怒哀楽を表していないときである。つまり、顔画像データ72A内の顔の表情は無表情である。顔画像データ取得部3は、その記憶装置72から、撮像データ取得部2が取得した画像データ70Aと同じ対象人物の顔画像データ72Aを取得する。記憶装置72は、表情推定装置1または感情判定装置10が備えていてもよいし、ネットワークを介して表情推定装置1または感情判定装置10と接続されていてもよい。 The face image data acquisition unit 3 acquires the face image data 72A stored in the storage device 72. The storage device 72 stores in advance the face image data 72A of the target person, which is captured by the target person facing the surface of the image pickup device in normal times. Normal time is when the target person does not express emotions. That is, the facial expression in the face image data 72A is expressionless. The face image data acquisition unit 3 acquires the same target person's face image data 72A as the image data 70A acquired by the imaging data acquisition unit 2 from the storage device 72. The storage device 72 may be included in the facial expression estimation device 1 or the emotion determination device 10, or may be connected to the facial expression estimation device 1 or the emotion determination device 10 via a network.

補正部5は、角度推定部4の推定結果に応じて、顔画像データ取得部3が取得した顔画像データ72Aを補正する。そして、補正部5は、顔画像データ72A内の顔の角度を、画像データ70Aの顔の角度と一致させる。図5は、補正部5による補正前後における顔画像データを示す図である。図5(A)は、顔画像データ取得部3が取得した顔画像データ72Aであり、(B)は、補正部5により補正された顔画像データ72Bである。 The correction unit 5 corrects the face image data 72A acquired by the face image data acquisition unit 3 according to the estimation result of the angle estimation unit 4. Then, the correction unit 5 makes the angle of the face in the face image data 72A match the angle of the face in the image data 70A. FIG. 5 is a diagram showing face image data before and after correction by the correction unit 5. FIG. 5A is the face image data 72A acquired by the face image data acquisition unit 3, and FIG. 5B is the face image data 72B corrected by the correction unit 5.

補正部5は、図5(A)に示すように、顔画像データ72Aから、顔の特徴点、例えば、鼻の先端、あご、左目の左隅、右目の右隅、口の左隅、および口の右隅の座標を検出する。また、補正部5は、予め用意され、正面向きにした3次元モデルに、検出した特徴点をマッピングする。そして、補正部5は、角度推定部4が推定した角度に応じて3次元モデルを回転させることで、図5(B)に示すように、検出した特徴点を移動させる。これにより、顔画像データ72B内の顔の角度は、画像データ70A内の顔の角度と一致する。 As shown in FIG. 5A, the correction unit 5 is based on the face image data 72A of the facial feature points, for example, the tip of the nose, the chin, the left corner of the left eye, the right corner of the right eye, the left corner of the mouth, and the mouth. Detect the coordinates of the right corner. Further, the correction unit 5 maps the detected feature points to the three-dimensional model prepared in advance and facing the front. Then, the correction unit 5 moves the detected feature points as shown in FIG. 5 (B) by rotating the three-dimensional model according to the angle estimated by the angle estimation unit 4. As a result, the angle of the face in the face image data 72B coincides with the angle of the face in the image data 70A.

表情推定部6は、画像データ70Aと、顔画像データ72B(図5(B))とを対比して、対象人物の表情を推定する。例えば、表情推定部6は、画像データ70Aの顔の表情を、「幸福」、「驚き」、「怒り」、「恐怖」、「悲しみ」、「嫌悪」の6通りの表情に分類する。 The facial expression estimation unit 6 compares the image data 70A with the face image data 72B (FIG. 5B) to estimate the facial expression of the target person. For example, the facial expression estimation unit 6 classifies the facial expressions of the image data 70A into six types of facial expressions: “happiness”, “surprise”, “anger”, “fear”, “sadness”, and “disgust”.

まず、表情推定部6は、顔画像データ72Bに対して、図3および図4での説明と同様に、顔の特徴点を検出して、顔器官の分類、および、各顔器官それぞれについての測定を行う。表情推定部6は、顔画像データ72Bに対する測定結果と、画像データ70Aに対する測定結果とを対比し、図6および図7に示すテーブルを参照して、表情毎に点数を計算する。 First, the facial expression estimation unit 6 detects facial feature points on the facial image data 72B, as described in FIGS. 3 and 4, to classify the facial organs and to classify each facial organ. Make a measurement. The facial expression estimation unit 6 compares the measurement result for the face image data 72B with the measurement result for the image data 70A, and calculates a score for each facial expression with reference to the tables shown in FIGS. 6 and 7.

図6および図7は、表情毎の点数を計算する際に用いる加点・減点表を示す図である。表情推定部6は、顔画像データ72Bに対する測定結果を基準として、画像データ70Aに対する測定結果がどのように変化したかにより、表情毎の点数を計算する。例えば、「あご」の器官の場合、「あご」の重心位置が下がっていると、表情推定部6は、「驚き」の表情の点数に「+1」加算する。また、「上まぶた」の器官の場合、左右両方の「上まぶた」の位置が上がっていると、表情推定部6は、「驚き」および「恐怖」の点数に「+1」加算する。表情推定部6は、これらの加減算を、各器官について行う。 6 and 7 are diagrams showing a point addition / deduction table used when calculating the score for each facial expression. The facial expression estimation unit 6 calculates a score for each facial expression based on how the measurement result for the image data 70A has changed based on the measurement result for the face image data 72B. For example, in the case of the "chin" organ, when the position of the center of gravity of the "chin" is lowered, the facial expression estimation unit 6 adds "+1" to the score of the "surprise" facial expression. Further, in the case of the "upper eyelid" organ, when the positions of both the left and right "upper eyelids" are raised, the facial expression estimation unit 6 adds "+1" to the points of "surprise" and "fear". The facial expression estimation unit 6 performs these additions and subtractions for each organ.

表情推定部6は、加減算を行った結果、図8のテーブルを参照し、表情の点数を加減算した回数、および、点数の最終値に応じて、画像データ70A内の顔の表情を推定する。図8は、表情の点数の加減算の結果から、表情を推定する際に用いるテーブルを示す図である。表情推定部6は、図6および図7を用いて、各表情の点数を加減算した結果、加減算した回数と、加減算した結果の点数とから、画像データ70Aの顔の表情を推定する。例えば、表情推定部6は、「幸福」の点数を、2回以上加減算を行い、最終的な「幸福」の点数が、「−6〜+7」の範囲内である場合、画像データ70Aの顔の表情に「幸福」が表れていると推定する。表情推定部6は、表情の点数によって、一の画像データ70A内の顔に、複数の表情が表れていると推定することもある。 As a result of the addition and subtraction, the facial expression estimation unit 6 refers to the table of FIG. 8 and estimates the facial expression in the image data 70A according to the number of times the facial expression score is added or subtracted and the final value of the score. FIG. 8 is a diagram showing a table used when estimating facial expressions from the results of addition and subtraction of facial expression scores. The facial expression estimation unit 6 estimates the facial expression of the image data 70A from the number of additions and subtractions as a result of adding and subtracting the points of each facial expression and the points of the result of adding and subtracting using FIGS. 6 and 7. For example, the facial expression estimation unit 6 adds or subtracts the score of "happiness" twice or more, and when the final score of "happiness" is within the range of "-6 to +7", the face of the image data 70A. It is presumed that "happiness" appears in the expression of. The facial expression estimation unit 6 may estimate that a plurality of facial expressions appear on the face in one image data 70A depending on the facial expression score.

なお、図6〜図8に示す加減算の定義および各数値は、一例であり、これに限定されることはない。 The definitions of addition and subtraction and each numerical value shown in FIGS. 6 to 8 are examples, and the present invention is not limited thereto.

感情判定部11は、表情推定部6による表情の推定結果から、対象人物の感情を判定する。対象人物の感情には、「快」の感情である肯定的感情、「不快」の感情である否定的感情、および、不同意の感情を含む。感情判定部11は感情の判定結果を数値で表す。 The emotion determination unit 11 determines the emotion of the target person from the facial expression estimation result by the facial expression estimation unit 6. The emotions of the subject include positive emotions, which are "pleasant" emotions, negative emotions, which are "unpleasant" emotions, and disagreement emotions. The emotion determination unit 11 numerically represents the emotion determination result.

図9および図10は、感情の判定結果を数値化する際に用いるテーブルを示す図である。表情推定部6が、画像データ70Aの顔の表情が「幸福、驚き、怒り、恐怖、悲しみ」であると判定した場合、感情判定部11は、図9を用いて、対象人物の快・不快の感情を数値化する。また、表情推定部6が、画像データ70Aの顔の表情が「嫌悪」であると判定した場合、感情判定部11は、図10を用いて、対象人物の不同意の感情を数値化する。 9 and 10 are diagrams showing a table used when quantifying the emotional determination result. When the facial expression estimation unit 6 determines that the facial expression of the image data 70A is "happiness, surprise, anger, fear, sadness", the emotion determination unit 11 uses FIG. 9 to make the target person feel comfortable or uncomfortable. Quantify the emotions of. Further, when the facial expression estimation unit 6 determines that the facial expression of the image data 70A is "disgust", the emotion determination unit 11 quantifies the disagreement emotion of the target person using FIG.

例えば、表情推定部6が、画像データ70A内の顔の表情が「幸福」であると推定した場合、感情判定部11は、図9を参照し、対象人物の感情は「快」の感情であると判定し、その結果を「0.99081181」の数値で表す。また、表情推定部6が、画像データ70A内の顔の表情が「驚き」と「怒り」とであると推定した場合、感情判定部11は、対象人物の感情が「快」の感情と、「不快」の感情との両方であると判定する。そして、感情判定部11は、「快」の感情を「0.345514304」の数値で表し、「不快」の感情を「0.163369188」の数値で表す。 For example, when the facial expression estimation unit 6 estimates that the facial expression in the image data 70A is "happiness", the emotion determination unit 11 refers to FIG. 9, and the emotion of the target person is "pleasant". It is determined that there is, and the result is represented by a numerical value of "0.99081181". Further, when the facial expression estimation unit 6 estimates that the facial expressions in the image data 70A are "surprise" and "anger", the emotion determination unit 11 determines that the emotion of the target person is "pleasant". Determined to be both "unpleasant" feelings. Then, the emotion determination unit 11 expresses the feeling of "pleasant" by the numerical value of "0.3455514304" and the emotion of "discomfort" by the numerical value of "0.163369188".

また、表情推定部6が、画像データ70Aの顔の表情が「嫌悪」であると推定した場合、感情判定部11は、対象人物の感情が不同意の感情であると判定し、その判定結果を数値で表す。数値化した結果、「1.0」に近いほど不同意の感情が強く、「0」に近いほど、不同意でない感情(同意の感情)が強い。 Further, when the facial expression estimation unit 6 estimates that the facial expression of the image data 70A is "disgust", the emotion determination unit 11 determines that the emotion of the target person is a disagreement, and the determination result. Is expressed numerically. As a result of quantification, the closer it is to "1.0", the stronger the disagreement feeling, and the closer it is to "0", the stronger the non-disagreement feeling (agreement feeling).

なお、図9、図10に示す数値は、一例であり、これに限定されることはない。 The numerical values shown in FIGS. 9 and 10 are examples, and are not limited thereto.

図11は、感情判定装置10による判定結果を示す図である。判定結果は、一の画像データ70Aに対して推定された6通りの表情の有無(0または1)、および、数値化された「快」、「不快」、「不同意」の感情、などを含む。この判定結果は、例えば、感情判定装置10から、ネットワークを介して、クラウドへ送信される。そして、クラウド側で各種サービスに用いられる。 FIG. 11 is a diagram showing a determination result by the emotion determination device 10. The judgment result includes the presence or absence (0 or 1) of six kinds of facial expressions estimated for one image data 70A, and the quantified feelings of "pleasant", "unpleasant", and "disagreement". Including. This determination result is transmitted from, for example, the emotion determination device 10 to the cloud via the network. And it is used for various services on the cloud side.

[動作説明]
次に、本実施形態における表情推定装置1および感情判定装置10の動作について図12を用いて説明する。図12は、本実施形態における表情推定装置1および感情判定装置10の動作を示すフロー図である。以下の説明においては、適宜図1〜図10を参酌する。また、本実施形態では、表情推定装置1を動作させることによって、表情推定方法が実施される。よって、本実施形態における表情推定方法の説明は、以下の表情推定装置1の動作説明に代える。
[Operation description]
Next, the operations of the facial expression estimation device 1 and the emotion determination device 10 in the present embodiment will be described with reference to FIG. FIG. 12 is a flow chart showing the operations of the facial expression estimation device 1 and the emotion determination device 10 in the present embodiment. In the following description, FIGS. 1 to 10 will be referred to as appropriate. Further, in the present embodiment, the facial expression estimation method is implemented by operating the facial expression estimation device 1. Therefore, the description of the facial expression estimation method in the present embodiment is replaced with the following description of the operation of the facial expression estimation device 1.

まず、前提として、撮像装置70により対象人物の顔が撮像される。この前提において、撮像データ取得部2は、撮像装置70により撮像された画像データ70Aを取得する(S1)。次に、顔検出部7は、画像データ70Aにおける顔を検出する(S2)。顔特徴点検出部8は、画像データ70Aにおいて、顔検出部7が検出した対象人物の顔を構成する器官(例えば、目、鼻、口など)の特徴点を検出する(S3)。そして、顔器官測定部9は、顔特徴点検出部8が検出した特徴点から、顔器官を分類し、分類した各顔器官それぞれについて測定する(S4)。 First, as a premise, the face of the target person is imaged by the imaging device 70. Under this premise, the image pickup data acquisition unit 2 acquires the image data 70A captured by the image pickup apparatus 70 (S1). Next, the face detection unit 7 detects the face in the image data 70A (S2). The face feature point detection unit 8 detects feature points of organs (for example, eyes, nose, mouth, etc.) that constitute the face of the target person detected by the face detection unit 7 in the image data 70A (S3). Then, the facial organ measuring unit 9 classifies the facial organs from the feature points detected by the facial feature point detecting unit 8 and measures each of the classified facial organs (S4).

顔画像データ取得部3は、記憶装置72に記憶されている顔画像データ72Aを取得する(S5)角度推定部4は、画像データ70Aにおいて、対象人物の顔の角度を推定する(S6)。補正部5は、角度推定部4の推定結果に応じて、顔画像データ取得部3が取得した顔画像データ72Aを補正して、画像データ70Aの顔の角度に一致させた顔画像データ72Bを生成する(S7)。 The face image data acquisition unit 3 acquires the face image data 72A stored in the storage device 72 (S5), and the angle estimation unit 4 estimates the angle of the face of the target person in the image data 70A (S6). The correction unit 5 corrects the face image data 72A acquired by the face image data acquisition unit 3 according to the estimation result of the angle estimation unit 4, and obtains the face image data 72B that matches the face angle of the image data 70A. Generate (S7).

表情推定部6は、S1で取得した画像データ70Aと、S7で補正した顔画像データ72Bとを対比して、対象人物の表情を、「幸福、驚き、怒り、恐怖、悲しみ、嫌悪」の6通りの表情のなかから推定する(S8)。感情判定部11は、S8での表情の推定結果から、対象人物の感情を判定し、判定結果を数値化する(S9)。 The facial expression estimation unit 6 compares the image data 70A acquired in S1 with the facial image data 72B corrected in S7, and sets the facial expression of the target person to 6 of "happiness, surprise, anger, fear, sadness, disgust". Estimated from the facial expressions on the street (S8). The emotion determination unit 11 determines the emotion of the target person from the estimation result of the facial expression in S8, and quantifies the determination result (S9).

[実施形態による効果]
以上の構成の表情推定装置1により、対象人物の表情を推定する際、対象人物の顔の情報の欠落が少ない、基準となる顔画像データ72Aを補正して、撮像して得られた画像データ70Aと比較して表情を推定するため、表情の推定精度は高い。表情の推定精度を高くすることで、その表情の推定結果を用いて行う感情判定の精度も高くなる。
[Effect of the embodiment]
When the facial expression of the target person is estimated by the facial expression estimation device 1 having the above configuration, the image data obtained by correcting the reference face image data 72A, which has less missing information on the face of the target person, is obtained. Since the facial expression is estimated as compared with 70A, the estimation accuracy of the facial expression is high. By increasing the estimation accuracy of the facial expression, the accuracy of the emotion judgment performed using the estimation result of the facial expression also increases.

また、感情判定装置10により対象人物の感情を判定することで、例えば、車内において、AIによる対話システムを構築する場合、対象人物の感情に応じた対話が可能となる。その結果、対象人物の気持ちに寄り添った対話が可能となる。 Further, by determining the emotion of the target person by the emotion determination device 10, for example, when constructing a dialogue system by AI in the vehicle, it is possible to have a dialogue according to the emotion of the target person. As a result, it is possible to have a dialogue that is close to the feelings of the target person.

[プログラム]
本実施形態におけるプログラムは、コンピュータに、図12に示すステップS1〜S9を実行させるプログラムであればよい。このプログラムをコンピュータにインストールし、実行することによって、本実施形態における表情推定装置1、感情判定装置10および表情推定方法を実現することができる。この場合、コンピュータのプロセッサは、撮像データ取得部2、顔画像データ取得部3、角度推定部4、補正部5、表情推定部6および感情判定部11として機能し、処理を行なう。
[program]
The program in this embodiment may be any program that causes a computer to execute steps S1 to S9 shown in FIG. By installing this program on a computer and executing it, the facial expression estimation device 1, the emotion determination device 10, and the facial expression estimation method according to the present embodiment can be realized. In this case, the computer processor functions as an imaging data acquisition unit 2, a face image data acquisition unit 3, an angle estimation unit 4, a correction unit 5, a facial expression estimation unit 6, and an emotion determination unit 11 to perform processing.

また、本実施形態1におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されてもよい。この場合は、例えば、各コンピュータが、それぞれ、撮像データ取得部2、顔画像データ取得部3、角度推定部4、補正部5、表情推定部6および感情判定部11のいずれかとして機能してもよい。 Further, the program in the first embodiment may be executed by a computer system constructed by a plurality of computers. In this case, for example, each computer functions as one of the imaging data acquisition unit 2, the face image data acquisition unit 3, the angle estimation unit 4, the correction unit 5, the facial expression estimation unit 6, and the emotion determination unit 11, respectively. May be good.

[物理構成]
ここで、本実施形態におけるプログラムを実行することによって、表情推定装置および感情判定装置を実現するコンピュータについて図13を用いて説明する。図13は、本実施形態における表情推定装置1および感情判定装置10を実現するコンピュータの一例を示すブロック図である。
[Physical configuration]
Here, a computer that realizes the facial expression estimation device and the emotion determination device by executing the program in the present embodiment will be described with reference to FIG. FIG. 13 is a block diagram showing an example of a computer that realizes the facial expression estimation device 1 and the emotion determination device 10 in the present embodiment.

図13に示すように、コンピュータ110は、CPU111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。なお、コンピュータ110は、CPU111に加えて、またはCPU111に代えて、GPU(Graphics Processing Unit)、またはFPGA(Field-Programmable Gate Array)を備えていてもよい。 As shown in FIG. 13, the computer 110 includes a CPU 111, a main memory 112, a storage device 113, an input interface 114, a display controller 115, a data reader / writer 116, and a communication interface 117. Each of these parts is connected to each other via a bus 121 so as to be capable of data communication. The computer 110 may include a GPU (Graphics Processing Unit) or an FPGA (Field-Programmable Gate Array) in addition to the CPU 111 or in place of the CPU 111.

CPU111は、記憶装置113に格納された、本実施形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであってもよい。 The CPU 111 expands the programs (codes) of the present embodiment stored in the storage device 113 into the main memory 112 and executes them in a predetermined order to perform various operations. The main memory 112 is typically a volatile storage device such as a DRAM (Dynamic Random Access Memory). Further, the program in the present embodiment is provided in a state of being stored in a computer-readable recording medium 120. The program in this embodiment may be distributed on the Internet connected via the communication interface 117.

また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。 Further, specific examples of the storage device 113 include a semiconductor storage device such as a flash memory in addition to a hard disk drive. The input interface 114 mediates data transmission between the CPU 111 and an input device 118 such as a keyboard and mouse. The display controller 115 is connected to the display device 119 and controls the display on the display device 119.

データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。 The data reader / writer 116 mediates data transmission between the CPU 111 and the recording medium 120, reads a program from the recording medium 120, and writes a processing result in the computer 110 to the recording medium 120. The communication interface 117 mediates data transmission between the CPU 111 and another computer.

また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))およびSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記録媒体、またはCD−ROM(Compact Disk Read Only Memory)などの光学記録媒体が挙げられる。 Specific examples of the recording medium 120 include a general-purpose semiconductor storage device such as CF (Compact Flash (registered trademark)) and SD (Secure Digital), a magnetic recording medium such as a flexible disk, or a CD-. Examples include optical recording media such as ROM (Compact Disk Read Only Memory).

なお、本実施形態における表情推定装置および感情判定装置は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、表情推定装置および感情判定装置は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。 The facial expression estimation device and the emotion determination device in the present embodiment can also be realized by using the hardware corresponding to each part instead of the computer in which the program is installed. Further, the facial expression estimation device and the emotion determination device may be partially realized by a program and the rest by hardware.

上述した実施形態の一部または全部は、以下に記載する(付記1)〜(付記12)によって表現することができるが、以下の記載に限定されるものではない。 A part or all of the above-described embodiments can be expressed by the following descriptions (Appendix 1) to (Appendix 12), but the present invention is not limited to the following description.

(付記1)
撮像装置が撮像した対象人物の顔の画像データを取得する撮像データ取得部と、
記憶装置に予め記憶された、前記対象人物の平常時の顔画像データを取得する顔画像データ取得部と、
前記撮像データ取得部が取得した画像データから、前記対象人物の顔の角度を推定する角度推定部と、
前記角度推定部の推定結果に基づいて、前記顔画像データ取得部が取得した顔画像データを補正する補正部と、
前記撮像データ取得部が取得した画像データと、前記補正部による補正後の顔画像データとを対比して、前記対象人物の表情を推定する表情推定部と、
を備えることを特徴とする、表情推定装置。
(Appendix 1)
An imaging data acquisition unit that acquires image data of the face of the target person captured by the imaging device, and
A face image data acquisition unit that acquires face image data of the target person in normal times, which is stored in advance in a storage device,
An angle estimation unit that estimates the face angle of the target person from the image data acquired by the imaging data acquisition unit, and an angle estimation unit.
A correction unit that corrects the face image data acquired by the face image data acquisition unit based on the estimation result of the angle estimation unit, and a correction unit.
A facial expression estimation unit that estimates the facial expression of the target person by comparing the image data acquired by the imaging data acquisition unit with the facial image data corrected by the correction unit.
A facial expression estimation device, which comprises.

(付記2)
付記1に記載の表情推定装置であって、
前記補正部は、
前記顔画像データ取得部が取得した顔画像データから、前記対象人物の顔の特徴点を検出し、前記角度推定部が推定した角度に応じて前記特徴点を移動させて、前記顔画像データ内の顔の角度を、前記撮像データ取得部が取得した画像データの顔の角度に一致させる、
ことを特徴とする表情推定装置。
(Appendix 2)
The facial expression estimation device described in Appendix 1
The correction unit
From the face image data acquired by the face image data acquisition unit, the feature points of the face of the target person are detected, the feature points are moved according to the angle estimated by the angle estimation unit, and the feature points are moved in the face image data. Matches the face angle of the image data acquired by the imaging data acquisition unit with the face angle of the image data.
A facial expression estimation device characterized by this.

(付記3)
付記1または付記2に記載の表情推定装置であって、
前記対象人物の平常時の顔画像データは、前記対象人物が撮像装置に対して表面を向いて撮像された画像データである、
ことを特徴とする表情推定装置。
(Appendix 3)
The facial expression estimation device according to Appendix 1 or Appendix 2.
The normal face image data of the target person is image data captured by the target person facing the surface of the imaging device.
A facial expression estimation device characterized by this.

(付記4)
撮像装置が撮像した対象人物の顔の画像データを取得する撮像データ取得部と、
記憶装置に予め記憶された、前記対象人物の平常時の顔画像データを取得する顔画像データ取得部と、
前記撮像データ取得部が取得した画像データから、前記対象人物の顔の角度を推定する角度推定部と、
前記角度推定部の推定結果に基づいて、前記顔画像データ取得部が取得した顔画像データを補正する補正部と、
前記撮像データ取得部が取得した画像データと、前記補正部による補正後の顔画像データとを対比して、前記対象人物の表情を推定する表情推定部と、
前記表情推定部による推定結果に基づいて、前記対象人物の感情を判定する感情判定部と、
を備えることを特徴とする感情判定装置。
(Appendix 4)
An imaging data acquisition unit that acquires image data of the face of the target person captured by the imaging device, and
A face image data acquisition unit that acquires face image data of the target person in normal times, which is stored in advance in a storage device,
An angle estimation unit that estimates the face angle of the target person from the image data acquired by the imaging data acquisition unit, and an angle estimation unit.
A correction unit that corrects the face image data acquired by the face image data acquisition unit based on the estimation result of the angle estimation unit, and a correction unit.
A facial expression estimation unit that estimates the facial expression of the target person by comparing the image data acquired by the imaging data acquisition unit with the facial image data corrected by the correction unit.
An emotion determination unit that determines the emotion of the target person based on the estimation result by the facial expression estimation unit, and
An emotional determination device comprising.

(付記5)
付記4に記載の感情判定装置であって、
前記補正部は、
前記顔画像データ取得部が取得した顔画像データから、前記対象人物の顔の特徴点を検出し、前記角度推定部が推定した角度に応じて前記特徴点を移動させて、前記顔画像データ内の顔の角度を、前記撮像データ取得部が取得した画像データの顔の角度に一致させる、
ことを特徴とする表感情判定装置。
(Appendix 5)
The emotional determination device described in Appendix 4,
The correction unit
From the face image data acquired by the face image data acquisition unit, the feature points of the face of the target person are detected, the feature points are moved according to the angle estimated by the angle estimation unit, and the feature points are moved in the face image data. Matches the face angle of the image data acquired by the imaging data acquisition unit with the face angle of the image data.
A table emotion determination device characterized by this.

(付記6)
付記4または付記5に記載の感情判定装置であって、
前記対象人物の平常時の顔画像データは、前記対象人物が撮像装置に対して表面を向いて撮像された画像データである、
ことを特徴とする感情判定装置。
(Appendix 6)
The emotional determination device according to Appendix 4 or Appendix 5.
The normal face image data of the target person is image data captured by the target person facing the surface of the imaging device.
An emotional judgment device characterized by this.

(付記7)
(a)撮像装置が撮像した対象人物の顔の画像データを取得するステップと、
(b)記憶装置に予め記憶された、前記対象人物の平常時の顔画像データを取得するステップと、
(c)前記ステップ(a)で取得した画像データから、前記対象人物の顔の角度を推定するステップと、
(d)前記ステップ(c)での推定結果に基づいて、前記ステップ(b)で取得した顔画像データを補正するステップと、
(e)前記ステップ(a)で取得した画像データと、前記ステップ(d)での補正後の顔画像データとを対比して、前記対象人物の表情を推定するステップと、
を備えることを特徴とする、表情推定方法。
(Appendix 7)
(A) A step of acquiring image data of the face of the target person captured by the imaging device, and
(B) A step of acquiring the normal face image data of the target person stored in the storage device in advance, and
(C) A step of estimating the face angle of the target person from the image data acquired in the step (a), and
(D) A step of correcting the face image data acquired in the step (b) based on the estimation result in the step (c), and
(E) A step of estimating the facial expression of the target person by comparing the image data acquired in the step (a) with the corrected face image data in the step (d).
A facial expression estimation method, which comprises.

(付記8)
付記7に記載の表情推定方法であって、
前記ステップ(d)では、
前記ステップ(a)で取得された画像データから、前記対象人物の顔の特徴点を検出し、前記ステップ(c)で推定された角度に応じて前記特徴点を移動させて、前記顔画像データ内の顔の角度を、前記ステップ(a)で取得された画像データの顔の角度に一致させる、
ことを特徴とする表情推定方法。
(Appendix 8)
The facial expression estimation method described in Appendix 7
In step (d),
From the image data acquired in the step (a), the feature points of the face of the target person are detected, and the feature points are moved according to the angle estimated in the step (c) to move the face image data. Match the angle of the face inside with the angle of the face of the image data acquired in the step (a).
A facial expression estimation method characterized by this.

(付記9)
付記7または付記8に記載の表情推定方法であって、
前記対象人物の平常時の顔画像データは、前記対象人物が撮像装置に対して表面を向いて撮像された画像データである、
ことを特徴とする表情推定方法。
(Appendix 9)
The facial expression estimation method according to Appendix 7 or Appendix 8, wherein the facial expression is estimated.
The normal face image data of the target person is image data captured by the target person facing the surface of the imaging device.
A facial expression estimation method characterized by this.

(付記10)
撮像装置が撮像した対象人物の顔の画像データを取得するコンピュータに、
(a)記憶装置に予め記憶された、前記対象人物の平常時の顔画像データを取得するステップと、
(b)前記画像データから、前記対象人物の顔の角度を推定するステップと、
(c)前記ステップ(b)での推定結果に基づいて、前記ステップ(a)で取得した顔画像データを補正するステップと、
(d)前記画像データと、前記ステップ(c)での補正後の顔画像データとを対比して、前記対象人物の表情を推定するステップと、
を実行させることを特徴とする、プログラム。
(Appendix 10)
To a computer that acquires image data of the face of the target person captured by the image pickup device
(A) A step of acquiring the normal face image data of the target person stored in advance in the storage device, and
(B) A step of estimating the face angle of the target person from the image data, and
(C) A step of correcting the face image data acquired in the step (a) based on the estimation result in the step (b), and a step of correcting the face image data.
(D) A step of estimating the facial expression of the target person by comparing the image data with the face image data corrected in the step (c).
A program characterized by executing.

(付記11)
付記10に記載のプログラムであって、
前記ステップ(c)では、
前記画像データから、前記対象人物の顔の特徴点を検出し、前記ステップ(b)で推定した角度に応じて前記特徴点を移動させて、前記顔画像データ内の顔の角度を、前記画像データの顔の角度に一致させる、
ことを特徴とするプログラム。
(Appendix 11)
The program described in Appendix 10
In step (c),
The feature points of the face of the target person are detected from the image data, the feature points are moved according to the angle estimated in the step (b), and the angle of the face in the face image data is determined by the image. Match the face angle of the data,
A program characterized by that.

(付記12)
付記10または付記11に記載のプログラムであって、
前記対象人物の平常時の顔画像データは、前記対象人物が撮像装置に対して表面を向いて撮像された画像データである、
ことを特徴とするプログラム。
(Appendix 12)
The program according to Appendix 10 or Appendix 11,
The normal face image data of the target person is image data captured by the target person facing the surface of the imaging device.
A program characterized by that.

以上のように、本発明によれば、対象人物の顔の情報の欠落が少ない、基準となる顔画像データを補正して、撮像して得られた画像データと比較して表情を推定するため、精度よく表情を推定できる。 As described above, according to the present invention, there is little loss of facial information of the target person, the reference facial image data is corrected, and the facial expression is estimated by comparing with the image data obtained by imaging. , The facial expression can be estimated accurately.

1 :表情推定装置
2 :撮像データ取得部
3 :顔画像データ取得部
4 :角度推定部
5 :補正部
6 :表情推定部
7 :顔検出部
8 :顔特徴点検出部
9 :顔器官測定部
10 :感情判定装置
11 :感情判定部
70 :撮像装置
70A :画像データ
71 :認証パターン
72 :記憶装置
72A :顔画像データ
1: Facial expression estimation device 2: Imaging data acquisition unit 3: Face image data acquisition unit 4: Angle estimation unit 5: Correction unit 6: Facial expression estimation unit 7: Face detection unit 8: Face feature point detection unit 9: Face organ measurement unit 10: Emotion determination device 11: Emotion determination unit 70: Imaging device 70A: Image data 71: Authentication pattern 72: Storage device 72A: Facial expression data

Claims (12)

撮像装置が撮像した対象人物の顔の画像データを取得する撮像データ取得部と、
記憶装置に予め記憶された、前記対象人物の平常時の顔画像データを取得する顔画像データ取得部と、
前記撮像データ取得部が取得した画像データから、前記対象人物の顔の角度を推定する角度推定部と、
前記角度推定部の推定結果に基づいて、前記顔画像データ取得部が取得した顔画像データを補正する補正部と、
前記撮像データ取得部が取得した画像データと、前記補正部による補正後の顔画像データとを対比して、前記対象人物の表情を推定する表情推定部と、
を備えることを特徴とする、表情推定装置。
An imaging data acquisition unit that acquires image data of the face of the target person captured by the imaging device, and
A face image data acquisition unit that acquires face image data of the target person in normal times, which is stored in advance in a storage device,
An angle estimation unit that estimates the face angle of the target person from the image data acquired by the imaging data acquisition unit, and an angle estimation unit.
A correction unit that corrects the face image data acquired by the face image data acquisition unit based on the estimation result of the angle estimation unit, and a correction unit.
A facial expression estimation unit that estimates the facial expression of the target person by comparing the image data acquired by the imaging data acquisition unit with the facial image data corrected by the correction unit.
A facial expression estimation device, which comprises.
請求項1に記載の表情推定装置であって、
前記補正部は、
前記顔画像データ取得部が取得した顔画像データから、前記対象人物の顔の特徴点を検出し、前記角度推定部が推定した角度に応じて前記特徴点を移動させて、前記顔画像データ内の顔の角度を、前記撮像データ取得部が取得した画像データの顔の角度に一致させる、
ことを特徴とする表情推定装置。
The facial expression estimation device according to claim 1.
The correction unit
From the face image data acquired by the face image data acquisition unit, the feature points of the face of the target person are detected, the feature points are moved according to the angle estimated by the angle estimation unit, and the feature points are moved in the face image data. Matches the face angle of the image data acquired by the imaging data acquisition unit with the face angle of the image data.
A facial expression estimation device characterized by this.
請求項1または請求項2に記載の表情推定装置であって、
前記対象人物の平常時の顔画像データは、前記対象人物が撮像装置に対して表面を向いて撮像された画像データである、
ことを特徴とする表情推定装置。
The facial expression estimation device according to claim 1 or 2.
The normal face image data of the target person is image data captured by the target person facing the surface of the imaging device.
A facial expression estimation device characterized by this.
撮像装置が撮像した対象人物の顔の画像データを取得する撮像データ取得部と、
記憶装置に予め記憶された、前記対象人物の平常時の顔画像データを取得する顔画像データ取得部と、
前記撮像データ取得部が取得した画像データから、前記対象人物の顔の角度を推定する角度推定部と、
前記角度推定部の推定結果に基づいて、前記顔画像データ取得部が取得した顔画像データを補正する補正部と、
前記撮像データ取得部が取得した画像データと、前記補正部による補正後の顔画像データとを対比して、前記対象人物の表情を推定する表情推定部と、
前記表情推定部による推定結果に基づいて、前記対象人物の感情を判定する感情判定部と、
を備えることを特徴とする感情判定装置。
An imaging data acquisition unit that acquires image data of the face of the target person captured by the imaging device, and
A face image data acquisition unit that acquires face image data of the target person in normal times, which is stored in advance in a storage device,
An angle estimation unit that estimates the face angle of the target person from the image data acquired by the imaging data acquisition unit, and an angle estimation unit.
A correction unit that corrects the face image data acquired by the face image data acquisition unit based on the estimation result of the angle estimation unit, and a correction unit.
A facial expression estimation unit that estimates the facial expression of the target person by comparing the image data acquired by the imaging data acquisition unit with the facial image data corrected by the correction unit.
An emotion determination unit that determines the emotion of the target person based on the estimation result by the facial expression estimation unit, and
An emotional determination device comprising.
請求項4に記載の感情判定装置であって、
前記補正部は、
前記顔画像データ取得部が取得した顔画像データから、前記対象人物の顔の特徴点を検出し、前記角度推定部が推定した角度に応じて前記特徴点を移動させて、前記顔画像データ内の顔の角度を、前記撮像データ取得部が取得した画像データの顔の角度に一致させる、
ことを特徴とする感情判定装置。
The emotion determination device according to claim 4.
The correction unit
From the face image data acquired by the face image data acquisition unit, the feature points of the face of the target person are detected, the feature points are moved according to the angle estimated by the angle estimation unit, and the feature points are moved in the face image data. Matches the face angle of the image data acquired by the imaging data acquisition unit with the face angle of the image data.
An emotional judgment device characterized by this.
請求項4または請求項5に記載の感情判定装置であって、
前記対象人物の平常時の顔画像データは、前記対象人物が撮像装置に対して表面を向いて撮像された画像データである、
ことを特徴とする感情判定装置。
The emotion determination device according to claim 4 or 5.
The normal face image data of the target person is image data captured by the target person facing the surface of the imaging device.
An emotional judgment device characterized by this.
(a)撮像装置が撮像した対象人物の顔の画像データを取得するステップと、
(b)記憶装置に予め記憶された、前記対象人物の平常時の顔画像データを取得するステップと、
(c)前記ステップ(a)で取得した画像データから、前記対象人物の顔の角度を推定するステップと、
(d)前記ステップ(c)での推定結果に基づいて、前記ステップ(b)で取得した顔画像データを補正するステップと、
(e)前記ステップ(a)で取得した画像データと、前記ステップ(d)での補正後の顔画像データとを対比して、前記対象人物の表情を推定するステップと、
を備えることを特徴とする、表情推定方法。
(A) A step of acquiring image data of the face of the target person captured by the imaging device, and
(B) A step of acquiring the normal face image data of the target person stored in the storage device in advance, and
(C) A step of estimating the face angle of the target person from the image data acquired in the step (a), and
(D) A step of correcting the face image data acquired in the step (b) based on the estimation result in the step (c), and
(E) A step of estimating the facial expression of the target person by comparing the image data acquired in the step (a) with the corrected face image data in the step (d).
A facial expression estimation method, which comprises.
請求項7に記載の表情推定方法であって、
前記ステップ(d)では、
前記ステップ(a)で取得された画像データから、前記対象人物の顔の特徴点を検出し、前記ステップ(c)で推定された角度に応じて前記特徴点を移動させて、前記顔画像データ内の顔の角度を、前記ステップ(a)で取得された画像データの顔の角度に一致させる、
ことを特徴とする表情推定方法。
The facial expression estimation method according to claim 7.
In step (d),
From the image data acquired in the step (a), the feature points of the face of the target person are detected, and the feature points are moved according to the angle estimated in the step (c) to move the face image data. Match the angle of the face inside with the angle of the face of the image data acquired in the step (a).
A facial expression estimation method characterized by this.
請求項7または請求項8に記載の表情推定方法であって、
前記対象人物の平常時の顔画像データは、前記対象人物が撮像装置に対して表面を向いて撮像された画像データである、
ことを特徴とする表情推定方法。
The facial expression estimation method according to claim 7 or 8.
The normal face image data of the target person is image data captured by the target person facing the surface of the imaging device.
A facial expression estimation method characterized by this.
撮像装置が撮像した対象人物の顔の画像データを取得するコンピュータに、
(a)記憶装置に予め記憶された、前記対象人物の平常時の顔画像データを取得するステップと、
(b)前記画像データから、前記対象人物の顔の角度を推定するステップと、
(c)前記ステップ(b)での推定結果に基づいて、前記ステップ(a)で取得した顔画像データを補正するステップと、
(d)前記画像データと、前記ステップ(c)での補正後の顔画像データとを対比して、前記対象人物の表情を推定するステップと、
を実行させることを特徴とする、プログラム。
To a computer that acquires image data of the face of the target person captured by the image pickup device
(A) A step of acquiring the normal face image data of the target person stored in advance in the storage device, and
(B) A step of estimating the face angle of the target person from the image data, and
(C) A step of correcting the face image data acquired in the step (a) based on the estimation result in the step (b), and a step of correcting the face image data.
(D) A step of estimating the facial expression of the target person by comparing the image data with the face image data corrected in the step (c).
A program characterized by executing.
請求項10に記載のプログラムであって、
前記ステップ(c)では、
前記画像データから、前記対象人物の顔の特徴点を検出し、前記ステップ(b)で推定した角度に応じて前記特徴点を移動させて、前記顔画像データ内の顔の角度を、前記画像データの顔の角度に一致させる、
ことを特徴とするプログラム。
The program according to claim 10.
In step (c),
The feature points of the face of the target person are detected from the image data, the feature points are moved according to the angle estimated in the step (b), and the angle of the face in the face image data is determined by the image. Match the face angle of the data,
A program characterized by that.
請求項10または請求項11に記載のプログラムであって、
前記対象人物の平常時の顔画像データは、前記対象人物が撮像装置に対して表面を向いて撮像された画像データである、
ことを特徴とするプログラム。

The program according to claim 10 or 11.
The normal face image data of the target person is image data captured by the target person facing the surface of the imaging device.
A program characterized by that.

JP2019046389A 2019-03-13 2019-03-13 Facial expression estimation device, emotion determination device, facial expression estimation method and program Active JP7327776B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019046389A JP7327776B2 (en) 2019-03-13 2019-03-13 Facial expression estimation device, emotion determination device, facial expression estimation method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019046389A JP7327776B2 (en) 2019-03-13 2019-03-13 Facial expression estimation device, emotion determination device, facial expression estimation method and program

Publications (2)

Publication Number Publication Date
JP2020149361A true JP2020149361A (en) 2020-09-17
JP7327776B2 JP7327776B2 (en) 2023-08-16

Family

ID=72430607

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019046389A Active JP7327776B2 (en) 2019-03-13 2019-03-13 Facial expression estimation device, emotion determination device, facial expression estimation method and program

Country Status (1)

Country Link
JP (1) JP7327776B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022118398A1 (en) * 2020-12-02 2022-06-09 マクセル株式会社 Mobile information terminal and facial expression monitoring method
KR102683330B1 (en) * 2021-11-05 2024-07-09 계명대학교 산학협력단 Face expression recognition method and apparatus using graph convolution neural network

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016149063A (en) * 2015-02-13 2016-08-18 オムロン株式会社 Emotion estimation system and emotion estimation method
JP2017182605A (en) * 2016-03-31 2017-10-05 セコム株式会社 Reference point position determination device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016149063A (en) * 2015-02-13 2016-08-18 オムロン株式会社 Emotion estimation system and emotion estimation method
JP2017182605A (en) * 2016-03-31 2017-10-05 セコム株式会社 Reference point position determination device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
崔 昌石 CHANG SEOK CHOI: "顔の3次元モデルを用いた顔面表情の分析 Analysis of Facial Expressions Using Three-Dimensional Facia", 電子情報通信学会論文誌 (J74ーDーII) 第6号 THE TRANSACTIONS OF THE INSTITUTE OF ELECTRONI, vol. 第J74-D-II巻, JPN6023008735, JP, pages 766 - 777, ISSN: 0005005466 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022118398A1 (en) * 2020-12-02 2022-06-09 マクセル株式会社 Mobile information terminal and facial expression monitoring method
KR102683330B1 (en) * 2021-11-05 2024-07-09 계명대학교 산학협력단 Face expression recognition method and apparatus using graph convolution neural network

Also Published As

Publication number Publication date
JP7327776B2 (en) 2023-08-16

Similar Documents

Publication Publication Date Title
JP6900516B2 (en) Gaze point determination method and devices, electronic devices and computer storage media
JP6467965B2 (en) Emotion estimation device and emotion estimation method
JP4950787B2 (en) Image processing apparatus and method
JP6835223B2 (en) Face recognition device, face recognition method and program
JP2011134114A (en) Pattern recognition method and pattern recognition apparatus
EP2923306A1 (en) Method and apparatus for facial image processing
JP2007042072A (en) Tracking apparatus
US9213897B2 (en) Image processing device and method
JP6784261B2 (en) Information processing equipment, image processing system, image processing method and program
KR101089847B1 (en) Keypoint matching system and method using SIFT algorithm for the face recognition
Mayer et al. Adjusted pixel features for robust facial component classification
JP2009064395A (en) Pointing device, program for making computer to correct error between operator's gaze position and cursor position, and computer-readable recording medium with the program recorded
JP7327776B2 (en) Facial expression estimation device, emotion determination device, facial expression estimation method and program
JP2012118927A (en) Image processing program and image processing device
CN113705466A (en) Human face facial feature occlusion detection method used for occlusion scene, especially under high-imitation occlusion
CN112270747A (en) Face recognition method and device and electronic equipment
WO2018032700A1 (en) Method for tracking finger web position and apparatus thereof
JP2014032605A (en) Image recognition device, image recognition method, and image recognition program
JP7439932B2 (en) Information processing system, data storage device, data generation device, information processing method, data storage method, data generation method, recording medium, and database
JP2023005567A (en) Machine learning program, machine learning method, and facial expression recognition device
KR102074977B1 (en) Electronic devices and methods thereof
JP5688514B2 (en) Gaze measurement system, method and program
JP6891633B2 (en) Face recognition device, face recognition method, and program
JP6397439B2 (en) Attribute estimation device
JP2021043914A (en) Image processor, image processing method, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230727

R151 Written notification of patent or utility model registration

Ref document number: 7327776

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151