JP2022189703A - 感情推定装置、感情推定方法、及びプログラム - Google Patents

感情推定装置、感情推定方法、及びプログラム Download PDF

Info

Publication number
JP2022189703A
JP2022189703A JP2021215327A JP2021215327A JP2022189703A JP 2022189703 A JP2022189703 A JP 2022189703A JP 2021215327 A JP2021215327 A JP 2021215327A JP 2021215327 A JP2021215327 A JP 2021215327A JP 2022189703 A JP2022189703 A JP 2022189703A
Authority
JP
Japan
Prior art keywords
subject
emotion
face
control unit
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021215327A
Other languages
English (en)
Other versions
JP7442838B2 (ja
Inventor
玲央 浜口
Reo HAMAGUCHI
哲 香山
Satoru Kayama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lifequest Co Ltd
Original Assignee
Lifequest Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lifequest Co Ltd filed Critical Lifequest Co Ltd
Priority to JP2021215327A priority Critical patent/JP7442838B2/ja
Publication of JP2022189703A publication Critical patent/JP2022189703A/ja
Application granted granted Critical
Publication of JP7442838B2 publication Critical patent/JP7442838B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data

Abstract

【課題】感情を正確に推定する。【解決手段】感情推定装置(1)は、撮像部(13)と、制御部(14)と、を備える。撮像部(13)は、被験者に表情を指示するガイダンスに従って表情が変化する被験者の顔を撮像する。制御部(14)は、撮像部(13)で撮像して得られた被験者の顔の画像動画像から、被験者の顔に表れる微表情を検出する。そして、制御部(14)は、検出した微表情の種類毎の割合に基づいて、被験者の感情を推定する。また、制御部(14)は、微表情を検出できなかった場合、撮像部(13)で撮像して得られた被験者の顔の動画像から、被験者の表情の変化速度を求め、変化速度に基づいて、被験者の感情を推定する。【選択図】図1

Description

本発明は、感情推定装置、感情推定方法、及びプログラムに関し、特に、感情を正確に推定可能な感情推定装置、感情推定方法、及びプログラムに関する。
人物の表情を認識してその人物の感情を推定する感情推定装置が知られている(例えば特許文献1参照)。なお、本明細書中に特許文献1の明細書、特許請求の範囲、図面全体を参考として取り込むものとする。
特開2008-146318号公報
しかしながら、人間は、表情を作ることができる。また、人間の感情は、一つではなく、様々な感情が複雑に入り組んでいる。このため、単純に表情のみから人間の感情を正確に推定することはできない。
本発明は、上記の課題を解決するためになされたものであって、感情を正確に推定可能な感情推定装置、感情推定方法、及びプログラムを提供することを目的とする。
上記の目的を達成するため、本発明の第1の観点に係る感情推定装置(1)は、被験者の顔を撮像する撮像部(13)と、前記撮像部(13)で撮像して得られた前記被験者の顔の画像から、該被験者の顔に表れる微表情を検出し、該検出した微表情の種類毎の割合に基づいて、該被験者の感情を推定する制御部(14)と、を備える。
上記の感情推定装置(1)において、前記制御部(14)は、検出した微表情をタイプ別に分類し、該タイプ別に分類した各微表情の割合に基づいて、該被験者の感情を推定する、ことを特徴とする。
上記の感情推定装置(1)において、前記撮像部(13)は、前記被験者に表情を指示するガイダンスに従って該表情が変化する該被験者の顔を撮像し、前記制御部(14)は、前記微表情を検出できなかった場合、前記撮像部(13)で撮像して得られた前記被験者の顔の画像から、前記被験者の表情の変化速度を求め、該変化速度に基づいて、該被験者の感情を推定する、ことを特徴とする。
上記の感情推定装置(1)は、前記感情毎に、前記表情の変化速度のパターンを対応付けて登録する変化速度パターンテーブル(3)をさらに備え、前記制御部(14)は、前記変化速度パターンテーブル(3)において、前記被験者の顔の画像から求めた前記表情の変化速度のパターンに対応する前記感情を、前記被験者の感情として推定する、ことを特徴とする。
本発明の第2の観点に係る感情推定装置(1)は、被験者に表情を指示するガイダンスに従って表情が変化する被験者の顔を撮像する撮像部(13)と、前記撮像部(13)で撮像して得られた前記被験者の顔の画像から、前記被験者の表情の変化速度を求め、該変化速度に基づいて、該被験者の感情を推定する制御部(14)と、を備える。
本発明の第3の観点に係る感情推定方法は、撮像部(13)が、被験者の顔を撮像し、制御部(14)が、前記撮像部(13)で撮像して得られた前記被験者の顔の画像から、該被験者の顔に表れる微表情を検出し、該制御部(14)が、該検出した微表情の種類毎の割合に基づいて、該被験者の感情を推定する、ことを特徴とする。
本発明の第4の観点に係る感情推定方法は、撮像部(13)が、被験者に表情を指示するガイダンスに従って表情が変化する被験者の顔を撮像し、制御部(14)が、前記撮像部(13)で撮像して得られた前記被験者の顔の画像から、前記被験者の表情の変化速度を求め、制御部(14)が、該変化速度に基づいて、該被験者の感情を推定する、ことを特徴とする。
本発明の第5の観点に係るプログラムは、コンピュータに、被験者の顔を撮像する手順と、該撮像して得られた前記被験者の顔の画像から、該被験者の顔に表れる微表情を検出する手順と、該検出した微表情の種類毎の割合に基づいて、該被験者の感情を推定する手順と、を実行させる。
本発明の第6の観点に係るプログラムは、コンピュータに、被験者に表情を指示するガイダンスに従って表情が変化する被験者の顔を撮像する手順と、該撮像して得られた前記被験者の顔の画像から、前記被験者の表情の変化速度を求める手順と、該変化速度に基づいて、該被験者の感情を推定する手順と、を実行させる。
本発明によれば、感情を正確に推定可能な感情推定装置、感情推定方法、及びプログラムを提供することができる。
本実施形態に係る感情推定装置の構成例を示すブロック図である。 ガイダンステーブルの構成例を示す図である。 変化速度パターンテーブルの構成例を示す図である。 感情推定処理の詳細を示すフローチャートである。
以下、本発明を実施するための最良の形態について説明する。
まず、本発明の実施形態に係る感情推定装置の構成について図面を参照しつつ説明する。
本実施形態に係る感情推定装置は、被験者の顔に表れる微表情から、被験者の感情を推定するもので、例えば汎用のスマートフォンや、タブレットコンピュータ、パーソナルコンピュータ等から構成される。
ここで、「微表情」とは、抑制された感情に基づいて一瞬表れて消える極めて素早い顔の動きであって、無意識に表出され得るものである。微表情が表れる時間長は例えば1秒以下であり、一般的に50分の1秒程度の時間長である。したがって、瞬き、痙攣、眼球の移動、及び顔全体の動き等に起因して顔の部分に発生する変化は微表情には含まれない。なお、微表情は、感情に基づいて発生する僅かな顔の動き(微細表情)を含んでもよく、微細表情が表れる時間長は1秒以上でもよい。なお、微表情の定義はこの限りではなく、今後の微表情に関する研究によって変わり得る。微表情の種類、つまり微表情として表れる感情の種類には複数の種類があり、例えば「怒り」、「嫌悪」、「恐怖(恐れ)」、「喜び(幸福、幸せ)」、「悲しみ」、及び「驚き」等の種類がある。微表情の種類によって、変化する顔の部位(目、眉、唇、頬等)と変化の仕方(変化量、変化方向、変化時間等)が異なっている。
例えば、「怒り」の微表情は、両まゆ毛を中央に引き寄せる動作と、目を見開く動作と、まぶたに力を入れる動作と、唇を固く閉じる動作と、口を開ける動作と、の組み合わせである。
「嫌悪」の微表情は、鼻にしわを寄せる動作である。
「恐怖」の微表情は、両眉を上げる動作と、両眉を中央に引き寄せる動作と、目を見開く動作と、まぶたに力を入れる動作と、口角を横に引く動作と、の組み合わせである。
「喜び」の微表情は、頬を上げる動作と、口角を上げる動作と、口角のみを上げる動作と、の組み合わせである。
「悲しみ」の微表情は、眉の内側を上げる動作と、両眉を中央に引き寄せる動作と、口角を下げる動作と、下唇を上げる動作と、の組み合わせである。
「驚き」の微表情は、両眉を上げる動作と、目を見開く動作と、口を開ける動作と、の組み合わせである。
図1は、本実施形態に係る感情推定装置の構成例を示すブロック図である。
図1に示すように、感情推定装置1は、記憶部11と、タッチパネル12と、撮像部13と、制御部14と、を備え、これらはバス等を介して接続される。
記憶部11は、例えば汎用のフラッシュメモリ等の不揮発性メモリ等から構成される。記憶部11には、各種アプリケーションプログラムがインストールされている。本実施形態において、記憶部11には、被験者の顔に表れる微表情から、被験者の感情を推定するための感情推定アプリケーションプログラム(以下、「感情推定アプリ」という。)等がインストールされている。
また、記憶部11は、被験者に表情をイラストで指示するガイダンスを登録するガイダンステーブルと、被験者の表情が変化する速度(変化速度)のパターン(変化速度パターン)を登録する変化速度パターンテーブルと、を記憶する。さらに、記憶部11は、タッチパネル12に表示するガイダンスを指定するガイダンスポインタを記憶する。
図2は、ガイダンステーブルの構成例を示す図である。
図2に示すように、ガイダンステーブル2は、12個のガイダンスを、ガイダンスポインタの値に対応付けて登録する。本実施形態において、ガイダンスは、被験者に異なる二つの表情を2秒ずつイラストで指示した後、1秒間、無表情とすることを指示する計5秒間の画像である。例えば、ガイダンス#1-2は、最初、被験者に2秒間「喜び」の表情をすることを指示した後、次に2秒間「怒り」の表情をすることを指示し、最後に1秒間、無表情とすることを指示する。
図3は、変化速度パターンテーブルの構成例を示す図である。
図3に示すように、変化速度パターンテーブル3は、12個のガイダンスに対応付けて、変化速度パターン#2~#4を登録する。変化速度パターン#2は、被験者の感情が“ハッピー”である場合に、変化速度パターン#3は、“イライラ”である場合に、変化速度パターン#4は、“落ち込み”である場合に、それぞれ対応するものである。即ち、変化速度パターンテーブル3は、感情毎に、変化速度パターン#2~#4を対応付けて登録する。変化速度パターン#2~#4には、それぞれ36個の被験者の表情の変化のうち、変化速度の遅速が21個ずつ予め設定されている。
例えば、被験者の感情が“ハッピー”である場合において、ガイダンス#1-2に従って被験者が表情を変化させたときには、変化速度パターン#2に示すように、最初の「喜び」への変化速度は通常よりも速く、次の「喜び」から「怒り」への変化速度は通常よりも遅くなる。また、ガイダンス#1-3及び#1-4に従って被験者が表情を変化させたときにも、最初の「喜び」への変化速度は通常よりも速く、次の「喜び」から「悲しみ」及び「嫌悪」といった「喜び」以外の表情への変化速度は通常よりも遅くなる。
一方、ガイダンス#1-2~#1-4以外のガイダンスに従って被験者が表情を変化させたときには、変化速度パターン#2に示すように、最初の「喜び」以外の表情への変化速度は通常よりも遅くなる。
また、ガイダンス#2-1、#3-1、及び#4-1に従って被験者が表情を変化させたときには、変化速度パターン#2に示すように、最初の「喜び」以外の表情への変化速度は通常よりも遅く、次の「喜び」への変化速度は通常よりも速く、最後の「無表情」への変化速度は通常よりも遅くなる。
被験者の感情が“イライラ”である場合において、ガイダンス#2-1、#2-3、及び#2-4に従って被験者が表情を変化させたときには、変化速度パターン#3に示すように、最初の「怒り」への変化速度は通常よりも速く、次の「怒り」から「怒り」以外への表情への変化速度は通常よりも遅くなる。
一方、ガイダンス#2-1、#2-3、及び#2-4以外のガイダンスに従って被験者が表情を変化させたときには、変化速度パターン#3に示すように、最初の「怒り」以外の表情への変化速度は通常よりも遅くなる。
また、ガイダンス#1-2、#3-2、及び#4-2に従って被験者が表情を変化させたときには、変化速度パターン#3に示すように、最初の「怒り」以外の表情への変化速度は通常よりも遅く、次の「怒り」への変化速度は通常よりも速く、最後の「無表情」への変化速度は通常よりも遅くなる。
被験者の感情が“落ち込み”である場合において、ガイダンス#3-1、#3-2、及び#3-4に従って被験者が表情を変化させたときには、変化速度パターン#4に示すように、最初の「悲しみ」への変化速度は通常よりも速く、次の「悲しみ」から「悲しみ」以外への表情への変化速度は通常よりも遅くなる。
一方、ガイダンス#3-1、#3-2、及び#3-4以外のガイダンスに従って被験者が表情を変化させたときには、変化速度パターン#4に示すように、最初の「悲しみ」以外の表情への変化速度は通常よりも遅くなる。
また、ガイダンス#1-3、#2-3、及び#4-3に従って被験者が表情を変化させたときには、変化速度パターン#4に示すように、最初の「悲しみ」以外の表情への変化速度は通常よりも遅く、次の「悲しみ」への変化速度は通常よりも速く、最後の「無表情」への変化速度は通常よりも遅くなる。
図1に示すタッチパネル12は、例えば液晶表示装置とポインティングデバイスとを組み合わせた汎用のタッチパネル等から構成される。タッチパネル12は、各種画面を表示するとともに、被験者による各種操作を受け付ける。本実施形態において、被験者は、タッチパネル12に表示される感情推定アプリのアイコンをタップして、感情推定アプリを起動したり、被験者の感情の推定を指示したりする。また、タッチパネル12には、被験者に表情をイラストで指示するガイダンスが表示される。
撮像部13は、例えばCCD(Charge Coupled Device)等の受光素子を含んで構成される。本実施形態において、被験者は、ガイダンスに従って表情が変化する自身の顔を撮像部13で撮像(自撮り)する。
制御部14は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)等から構成される。CPUは、RAMをワークメモリとして用い、ROM及び記憶部11に記憶されている各種プログラム等を適宜実行することによって、感情推定装置1の各種動作を制御する。
本実施形態において、制御部14は、被験者がタッチパネル12に表示される感情推定アプリにおいて被験者の感情の推定を指示したことに応答して、ガイダンスポインタの値を“0”に初期化する。次に、制御部14は、ガイダンスポインタの値に対応するガイダンスをガイダンステーブル2から読み出す。例えば、ガイダンスポインタの値が“0”である場合、制御部14は、ガイダンス#1-2をガイダンステーブル2から読み出す。
そして、制御部14は、ガイダンステーブル2から読み出したガイダンスをタッチパネル12に表示するとともに、ガイダンスに従って表情が変化する被験者の顔を撮像部13で撮像して、30~60フレームレートの動画像を取得する。
続いて、制御部14は、ガイダンスポインタの値が上限値である“11”であるか否かを判別する。制御部14は、ガイダンスポインタの値が“11”未満であれば、全てのガイダンスを未だ表示していないとして、ガイダンスポインタの値を1加算した後、加算後のガイダンスポインタの値に対応するガイダンスをタッチパネル12に表示して、被験者の顔の動画像を撮像部13で再度撮像する。
これに対して、制御部14は、ガイダンスポインタの値が“11”であれば、全てのガイダンスを表示したとして、取得した被験者の顔の動画像から、被験者の顔に表れる微表情を検出する。具体的に、制御部14は、動画像を構成するフレーム画像毎に、微表情を検出する。
ここで、西欧文化に触れたことのない民族を調査した結果によると、「喜び」、「怒り」、「嫌悪」、及び「悲しみ」の四つの表情については、文化による違いがなく認識される一方、「恐れ」及び「驚き」の二つの表情については、見分けがつかないことがわかっている。そこで、制御部14は、微表情を少なくとも一つ検出できた場合、検出した微表情毎に、微表情のタイプを“Positive”、“Negative1”、“Negative2”、及び“Other”のいずれかに分類する。
具体的に、制御部14は、検出した微表情が「喜び」である場合、微表情のタイプを“Positive”に分類する。制御部14は、検出した微表情が「怒り」である場合、微表情のタイプを“Negative1”に分類する。
また、制御部14は、検出した微表情が「悲しみ」である場合、微表情のタイプを“Negative2”に分類する。
さらに、制御部14は、検出した微表情が「嫌悪」である場合、鼻以外の顔の動作から、「怒り」寄りであるか「悲しみ」寄りであるかを判別し、「怒り」寄りであれば、微表情のタイプを“Negative1”に分類する一方、「悲しみ」寄りであれば、“Negative2”に分類する。
また、制御部14は、検出した微表情が「恐怖」である場合、その継続期間が所定期間以上であるか否かにより、瞬間的であるか継続的であるかを判別し、継続期間が所定期間未満であれば瞬間的であると判別し、微表情のタイプを“Other”に分類する。一方、制御部14は、継続期間が所定期間以上であれば継続的であると判別し、鼻以外の顔の動作から、「怒り」寄りであるか「悲しみ」寄りであるかを判別する。そして、制御部14は、「怒り」寄りであれば、微表情のタイプを“Negative1”に分類する一方、「悲しみ」寄りであれば、“Negative2”に分類する。
ここで、人間の感情は、通常一つではなく、複数の感情が複雑に混在しており、それが被験者の顔に微表情として表れる。そこで、制御部14は、被験者の顔の動画像における、タイプ別に分類された各微表情の割合を求める。例えば、制御部14は、“Positive”に分類される微表情が写っているフレーム画像を15個検出し、“Negative1”に分類される微表情が写っているフレーム画像を5個検出し、“Negative2”に分類される微表情が写っているフレーム画像を5個検出した場合、“Positive”に分類される微表情の割合を60%と求め、“Negative1”に分類される微表情の割合を20%と求め、“Negative2”に分類される微表情の割合を20%と求める。
そして、制御部14は、各微表情の割合、即ち微表情の種類毎の割合に基づいて、被験者の感情を、“ニュートラル”、“ハッピー”、“イライラ”、及び“落ち込み”のいずれかに推定する。
具体的に、制御部14は、“Positive”に分類される微表情の割合と、“Negative1”及び“Negative2”のいずれかに分類される微表情の割合と、が略等しい場合、被験者の感情を“ニュートラル”であるものと推定する。
また、制御部14は、“Positive”に分類される微表情の割合が、“Negative1”及び“Negative2”のいずれかに分類される微表情の割合よりも高い場合、被験者の感情を“ハッピー”であるものと推定する。
さらに、制御部14は、“Negative1”に分類される微表情の割合が、“Positive”及び“Negative2”のいずれかに分類される微表情の割合よりも高い場合、被験者の感情を“イライラ”しているものと推定する。
そして、制御部14は、“Negative2”に分類される微表情の割合が、“Positive”及び“Negative1”のいずれかに分類される微表情の割合よりも高い場合、被験者の感情を“落ち込み”しているものと推定する。
これに対して、制御部14は、微表情を一つも検出できなかった場合、被験者がガイダンスに従って表情を変化させる際に要した期間(変化期間)を測定する。具体的に、制御部14は、表情が変化するまでに要したフレーム画像の枚数から、表情の変化期間を測定する。例えば、図2に示すガイダンス#1-2に従って被験者が表情を「喜び」→「怒り」→「無表情」と変化させた場合、制御部14は、被験者が表情を「喜び」に変化させるまでに要した期間と、「怒り」に変化させるまでに要した期間と、「無表情」に変化させるまでに要した期間と、の三つの変化期間を測定する。制御部14は、図2に示す全12個のガイダンスに従って、計36個の変化期間を測定する。
続いて、制御部14は、測定した計36個の変化期間毎に、所定の基準範囲と比較して、変化速度の遅速を判別する。具体的に、制御部14は、変化期間が所定の基準範囲よりも長い場合、変化速度が「遅い」と判別し、所定の基準範囲内である場合、「通常」と判別し、所定の基準範囲よりも短い場合、「速い」と判別する。ここで、主な被験者は、労働年齢の成人であることから、例えば、職業性ストレス簡易調査票により平均的なストレスレベルと判定される被験者から変化時間の平均値±標準偏差を取得し、これを所定の基準範囲とすればよい。
そして、制御部14は、判別した36個の変化速度の遅速のパターンと、図3に示す変化速度パターン#2~#4と、のマッチングを行って、被験者の感情を、“ニュートラル”、“ハッピー”、“イライラ”、及び“落ち込み”のいずれかに推定する。
具体的に、制御部14は、判別した36個の変化速度の遅速と、変化速度パターン#2~#4に設定された21個の変化速度の遅速と、のマッチングをそれぞれ行って、21個中11個以上、即ち50%以上合致している変化速度パターン#2~#4を検出する。
制御部14は、判別した36個の変化速度の遅速が、変化速度パターン#2に設定された21個の変化速度の遅速に50%以上合致していれば、被験者の感情を、変化速度パターン#2に対応する“ハッピー”であるものと推定する。
また、制御部14は、判別した36個の変化速度の遅速が、変化速度パターン#3に設定された21個の変化速度の遅速に50%以上合致していれば、被験者の感情を、変化速度パターン#3に対応する“イライラ”しているものと推定する。
さらに、制御部14は、判別した36個の変化速度の遅速が、変化速度パターン#4に設定された21個の変化速度の遅速に50%以上合致していれば、被験者の感情を、変化速度パターン#4に対応する“落ち込み”しているものと推定する。
このように、制御部14は、図3に示す変化速度パターンテーブル3において、被験者の顔の動画像から求めた表情の変化速度のパターンに対応する感情を、被験者の感情として推定する。
また、制御部14は、変化速度パターン#2~#4のいずれとも合致しているものが3個未満、即ち合致度が15%未満である場合、被験者の感情を“ニュートラル”であるものと推定する。
さらに、制御部14は、変化速度パターン#2~#4いずれとも合致しているものが3個以上11個未満である場合、即ち合致度が15%以上50%未満である場合、被験者の感情を、合致度が最も高い変化速度パターンに対応する感情に推定する。
次に、上記構成を備える感情推定装置1が実行する感情推定処理について図面を参照して説明する。
被験者がタッチパネル12に表示される感情推定アプリのアイコンをタップして感情推定アプリを起動した後、被験者の感情の推定を指示したことに応答して、感情推定装置1は、感情推定処理を開始する。
図4は、感情推定処理の詳細を示すフローチャートである。
図4に示す感情推定処理において、まず、制御部14は、ガイダンスポインタの値を“0”に初期化する(ステップS401)。
次に、制御部14は、ガイダンスポインタの値に対応するガイダンスをガイダンステーブル2から読み出す(ステップS402)。
そして、制御部14は、ステップS402で読み出したガイダンスをタッチパネル12に表示するとともに(ステップS403)、ガイダンスに従って表情が変化する被験者の顔を撮像部13で撮像して、30~60フレームレートの動画像を取得する(ステップS404)。
続いて、制御部14は、ガイダンスポインタの値が上限値である“11”であるか否かを判別する(ステップS405)。
制御部14は、ガイダンスポインタの値が“11”未満であれば(ステップS405;No)、全てのガイダンスを未だ表示していないとして、ガイダンスポインタの値を1加算した後(ステップS406)、ステップS402に戻る。
これに対して、制御部14は、ガイダンスポインタの値が“11”であれば(ステップS405;Yes)、全てのガイダンスを表示したとして、ステップS404で取得した被験者の顔の動画像から、被験者の顔に表れる微表情を検出する(ステップS407)。
制御部14は、ステップS407で微表情を少なくとも一つ検出できた場合(ステップS408;Yes)、ステップS407で検出した微表情毎に、微表情のタイプを“Positive”、“Negative1”、“Negative2”、及び“Other”のいずれかに分類する(ステップS409)。
続いて、制御部14は、被験者の顔の動画像における、タイプ別に分類された各微表情の割合を求める(ステップS410)。
そして、制御部14は、各微表情の割合、即ち微表情の種類毎の割合に基づいて、被験者の感情を、“ニュートラル”、“ハッピー”、“イライラ”、及び“落ち込み”のいずれかに推定してから(ステップS411)、感情推定処理を終了する。
これに対して、制御部14は、ステップS407で微表情を一つも検出できなかった場合(ステップS408;No)、被験者がガイダンスに従って表情を変化させる際に要した期間(変化期間)を測定する(ステップS412)。
続いて、制御部14は、ステップS412で測定した計36個の変化期間毎に、所定の基準範囲と比較して、変化速度の遅速を判別する(ステップS413)。
そして、制御部14は、ステップS413で判別した36個の変化速度の遅速と、図3に示す変化速度パターン#2~#4と、のパターンマッチングを行って、被験者の感情を、“ニュートラル”、“ハッピー”、“イライラ”、及び“落ち込み”のいずれかに推定してから(ステップS414)、感情推定処理を終了する。
以上説明したように、本実施形態に係る感情推定装置1は、撮像部13と、制御部14と、を備える。撮像部13は、被験者に表情を指示するガイダンスに従って表情が変化する被験者の顔を撮像する。制御部14は、撮像部13で撮像して得られた被験者の顔の画像(動画像)から、被験者の顔に表れる微表情を検出する。そして、制御部14は、検出した微表情の種類毎の割合に基づいて、被験者の感情を推定する。具体的に、制御部14は、検出した微表情をタイプ別に分類し、タイプ別に分類した各微表情の割合に基づいて、被験者の感情を推定する。
このように、被験者の顔の動画像から検出した微表情の種類毎の割合に基づいて、被験者の感情を推定することで、複数の感情が複雑に入り組んだ被験者の真の感情を正確に推定することができる。
また、制御部14は、微表情を検出できなかった場合、撮像部13で撮像して得られた被験者の顔の動画像から、被験者の表情の変化速度を求める。そして、制御部14は、求めた変化速度に基づいて、被験者の感情を推定する。具体的に、感情推定装置1は、感情毎に、表情の変化速度のパターンを対応付けて登録する変化速度パターンテーブル3をさらに備える。制御部14は、変化速度パターンテーブル3において、被験者の顔の動画像から求めた表情の変化速度のパターンに対応する感情を、被験者の感情として推定する。
このように、被験者の顔の動画像から求めた表情の変化速度に基づいて、被験者の感情を推定することで、複数の感情が複雑に入り組んだ被験者の真の感情を正確に推定することができる。
なお、本発明は、上記の実施形態に限定されず、種々の変形、応用が可能である。以下、本発明に適用可能な上記の実施形態の変形態様について、説明する。
上記の実施形態において、制御部14は、検出した微表情毎に、微表情のタイプを“Positive”、“Negative1”、“Negative2”、及び“Other”のいずれかに分類するものとして説明した。しかしながら、本発明はこれに限定されるものではなく、制御部14は、微表情のタイプを分類しなくてもよい。この場合、検出した微表情の種類毎の割合、即ち「怒り」、「嫌悪」、「恐怖」、「喜び」、「悲しみ」、及び「驚き」といった6種類の微表情毎の検出割合に基づいて、被験者の感情を推定すればよい。
上記の実施形態において、制御部14は、撮像部13で撮像して得られた被験者の顔の動画像から、被験者の顔に表れる微表情を検出し、検出した微表情の種類毎の割合に基づいて、被験者の感情を推定し、微表情を検出できなかった場合、撮像部13で撮像して得られた被験者の顔の動画像から、被験者の表情の変化速度を求め、変化速度に基づいて、被験者の感情を推定するものとして説明した。しかしながら、本発明はこれに限定されるものではなく、制御部14は、微表情を検出することなく、撮像部13で撮像して得られた被験者の顔の動画像から、被験者の表情の変化速度を求め、変化速度に基づいて、被験者の感情を推定するものであってもよい。
上記の実施形態において、感情推定装置1の制御部14が被験者の感情を推定するものとして説明した。しかしながら、本発明はこれに限定されるものではなく、感情推定装置1とネットワークを介して接続された所定のサーバ装置(サーバコンピュータ)が被験者の感情を推定してもよい。この場合、感情推定装置1の制御部14は、撮像部13で撮像して得られた被験者の顔の動画像をネットワークを介してサーバ装置に送信する。そして、サーバ装置は、感情推定装置1からネットワークを介して受信した被験者の顔の動画像から、被験者の顔に表れる微表情を検出し、検出した微表情の種類毎の割合に基づいて、被験者の感情を推定すればよい。また、サーバ装置は、撮像部13で撮像して得られた被験者の顔の動画像から、被験者の表情の変化速度を求め、変化速度に基づいて、被験者の感情を推定してもよい。そして、サーバ装置は、推定した被害者の感情をネットワークを介して感情推定装置1に送信すればよい。
上記の実施形態において、制御部14のCPUが実行するプログラムは、予めROM、並びに記憶部11等に記憶されるものとして説明したが、本発明はこれに限定されるものではなく、上述の処理を実行させるためのプログラムを、既存の汎用コンピュータに適用することで、上記の実施形態に係る感情推定装置1として機能させてもよい。
このようなプログラムの提供方法は任意であり、例えばコンピュータが読取可能な記録媒体(フレキシブルディスク、CD(Compact Disc)-ROM、DVD(Digital Versatile Disc)-ROM等)に格納して配布してもよいし、インターネット等のネットワーク上のストレージにプログラムを格納しておき、これをダウンロードさせることにより提供してもよい。
さらに、上記の処理をOS(Operating System)とアプリケーションプログラムとの分担、又はOSとアプリケーションプログラムとの協働によって実行する場合には、アプリケーションプログラムのみを記録媒体やストレージに格納してもよい。また、搬送波にプログラムを重畳し、ネットワークを介して配信することも可能である。例えば、ネットワーク上の掲示板(BBS:Bulletin Board System)に上記プログラムを掲示し、ネットワークを介してプログラムを配信してもよい。そして、このプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、上記の処理を実行できるように構成してもよい。
なお、本発明は、本発明の広義の精神と範囲を逸脱することなく、様々な実施の形態及び変形が可能とされるものである。また、上述した実施の形態は、本発明の一実施例を説明するためのものであり、本発明の範囲を限定するものではない。
1 感情推定装置
11 記憶部
12 タッチパネル
13 撮像部
14 制御部
2 ガイダンステーブル
3 変化速度パターンテーブル

Claims (9)

  1. 被験者の顔を撮像する撮像部(13)と、
    前記撮像部(13)で撮像して得られた前記被験者の顔の画像から、該被験者の顔に表れる微表情を検出し、該検出した微表情の種類毎の割合に基づいて、該被験者の感情を推定する制御部(14)と、
    を備える感情推定装置(1)。
  2. 前記制御部(14)は、検出した微表情をタイプ別に分類し、該タイプ別に分類した各微表情の割合に基づいて、該被験者の感情を推定する、
    ことを特徴とする請求項1に記載の感情推定装置(1)。
  3. 前記撮像部(13)は、前記被験者に表情を指示するガイダンスに従って該表情が変化する該被験者の顔を撮像し、
    前記制御部(14)は、前記微表情を検出できなかった場合、前記撮像部(13)で撮像して得られた前記被験者の顔の画像から、前記被験者の表情の変化速度を求め、該変化速度に基づいて、該被験者の感情を推定する、
    ことを特徴とする請求項1に記載の感情推定装置(1)。
  4. 前記感情毎に、前記表情の変化速度のパターンを対応付けて登録する変化速度パターンテーブル(3)をさらに備え、
    前記制御部(14)は、前記変化速度パターンテーブル(3)において、前記被験者の顔の画像から求めた前記表情の変化速度のパターンに対応する前記感情を、前記被験者の感情として推定する、
    ことを特徴とする請求項3に記載の感情推定装置(1)。
  5. 被験者に表情を指示するガイダンスに従って表情が変化する被験者の顔を撮像する撮像部(13)と、
    前記撮像部(13)で撮像して得られた前記被験者の顔の画像から、前記被験者の表情の変化速度を求め、該変化速度に基づいて、該被験者の感情を推定する制御部(14)と、
    を備える感情推定装置(1)。
  6. 撮像部(13)が、被験者の顔を撮像し、
    制御部(14)が、前記撮像部(13)で撮像して得られた前記被験者の顔の画像から、該被験者の顔に表れる微表情を検出し、
    該制御部(14)が、該検出した微表情の種類毎の割合に基づいて、該被験者の感情を推定する、
    ことを特徴とする感情推定方法。
  7. 撮像部(13)が、被験者に表情を指示するガイダンスに従って表情が変化する被験者の顔を撮像し、
    制御部(14)が、前記撮像部(13)で撮像して得られた前記被験者の顔の画像から、前記被験者の表情の変化速度を求め、
    制御部(14)が、該変化速度に基づいて、該被験者の感情を推定する、
    ことを特徴とする感情推定方法。
  8. コンピュータに、
    被験者の顔を撮像する手順と、
    該撮像して得られた前記被験者の顔の画像から、該被験者の顔に表れる微表情を検出する手順と、
    該検出した微表情の種類毎の割合に基づいて、該被験者の感情を推定する手順と、
    を実行させるためのプログラム。
  9. コンピュータに、
    被験者に表情を指示するガイダンスに従って表情が変化する被験者の顔を撮像する手順と、
    該撮像して得られた前記被験者の顔の画像から、前記被験者の表情の変化速度を求める手順と、
    該変化速度に基づいて、該被験者の感情を推定する手順と、
    を実行させるためのプログラム。
JP2021215327A 2021-06-11 2021-12-28 感情推定装置、感情推定方法、及びプログラム Active JP7442838B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021215327A JP7442838B2 (ja) 2021-06-11 2021-12-28 感情推定装置、感情推定方法、及びプログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2021557258A JP7008385B1 (ja) 2021-06-11 2021-06-11 感情推定装置、感情推定方法、及びプログラム
PCT/JP2021/022419 WO2022259560A1 (ja) 2021-06-11 2021-06-11 感情推定装置、感情推定方法、及びプログラム
JP2021215327A JP7442838B2 (ja) 2021-06-11 2021-12-28 感情推定装置、感情推定方法、及びプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021557258A Division JP7008385B1 (ja) 2021-06-11 2021-06-11 感情推定装置、感情推定方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2022189703A true JP2022189703A (ja) 2022-12-22
JP7442838B2 JP7442838B2 (ja) 2024-03-05

Family

ID=80629640

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021557258A Active JP7008385B1 (ja) 2021-06-11 2021-06-11 感情推定装置、感情推定方法、及びプログラム
JP2021215327A Active JP7442838B2 (ja) 2021-06-11 2021-12-28 感情推定装置、感情推定方法、及びプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021557258A Active JP7008385B1 (ja) 2021-06-11 2021-06-11 感情推定装置、感情推定方法、及びプログラム

Country Status (4)

Country Link
EP (1) EP4354386A1 (ja)
JP (2) JP7008385B1 (ja)
CN (1) CN117813623A (ja)
WO (1) WO2022259560A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002091482A (ja) * 2000-09-13 2002-03-27 Agi:Kk 感情検出方法及び感情検出装置ならびに記録媒体
JP2016149063A (ja) * 2015-02-13 2016-08-18 オムロン株式会社 感情推定装置及び感情推定方法
US20160360970A1 (en) * 2015-06-14 2016-12-15 Facense Ltd. Wearable device for taking thermal and visual measurements from fixed relative positions
JP2019200656A (ja) * 2018-05-17 2019-11-21 株式会社日立製作所 計算機及び感情推定方法
JP2020057111A (ja) * 2018-09-28 2020-04-09 パナソニックIpマネジメント株式会社 表情判定システム、プログラム及び表情判定方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI221574B (en) * 2000-09-13 2004-10-01 Agi Inc Sentiment sensing method, perception generation method and device thereof and software
JP4757787B2 (ja) 2006-12-08 2011-08-24 株式会社トヨタIt開発センター 感情推定装置
JP6467966B2 (ja) 2015-02-13 2019-02-13 オムロン株式会社 健康管理補助装置及び健康管理補助方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002091482A (ja) * 2000-09-13 2002-03-27 Agi:Kk 感情検出方法及び感情検出装置ならびに記録媒体
JP2016149063A (ja) * 2015-02-13 2016-08-18 オムロン株式会社 感情推定装置及び感情推定方法
US20160360970A1 (en) * 2015-06-14 2016-12-15 Facense Ltd. Wearable device for taking thermal and visual measurements from fixed relative positions
JP2019200656A (ja) * 2018-05-17 2019-11-21 株式会社日立製作所 計算機及び感情推定方法
JP2020057111A (ja) * 2018-09-28 2020-04-09 パナソニックIpマネジメント株式会社 表情判定システム、プログラム及び表情判定方法

Also Published As

Publication number Publication date
JP7008385B1 (ja) 2022-01-25
CN117813623A (zh) 2024-04-02
JPWO2022259560A1 (ja) 2022-12-15
WO2022259560A1 (ja) 2022-12-15
JP7442838B2 (ja) 2024-03-05
EP4354386A1 (en) 2024-04-17

Similar Documents

Publication Publication Date Title
EP3047884B1 (en) Program, information-processing device, information-processing system, and avatar generating method
CN107251096B (zh) 图像捕获装置和方法
CN113535306B (zh) 头像创建用户界面
US6677969B1 (en) Instruction recognition system having gesture recognition function
US8411171B2 (en) Apparatus and method for generating image including multiple people
JP5423379B2 (ja) 画像処理装置および画像処理方法、並びにプログラム
CN109242765B (zh) 一种人脸图像处理方法、装置和存储介质
US20220383389A1 (en) System and method for generating a product recommendation in a virtual try-on session
JP7278307B2 (ja) コンピュータプログラム、サーバ装置、端末装置及び表示方法
JP2022111142A (ja) コンピュータプログラム、サーバ装置及び方法
JP5349238B2 (ja) 表情認識装置、人物間感情推定装置、表情認識方法、人物間感情推定方法、及びプログラム
KR101719927B1 (ko) 립 모션을 이용한 실시간 메이크업 미러 시뮬레이션 장치
CN112416126B (zh) 页面滚动控制方法和装置、存储介质及电子设备
JPWO2019146405A1 (ja) 表情解析技術を用いた商品に対するモニタの反応を評価するための情報処理装置、情報処理システム、プログラム
WO2022259560A1 (ja) 感情推定装置、感情推定方法、及びプログラム
JP7323248B2 (ja) ストレス判定装置、ストレス判定方法、及びプログラム
JP4689548B2 (ja) 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
US11328187B2 (en) Information processing apparatus and information processing method
KR102152598B1 (ko) 이미지 편집 애플리케이션 제공 장치 및 상기 장치에 의해 수행되는 이미지 내 얼굴 변형 방법
EP3799407B1 (en) Initiating communication between first and second users
Hube et al. Comparing methods for mapping facial expressions to enhance immersive collaboration with signs of emotion
JP7354813B2 (ja) 検出方法、通知方法、検出プログラムおよび通知プログラム
Nishiyama et al. Design of a cognitive user-support system for skin progress analysis using a smart phone
CN111147733B (zh) 信息处理设备、信息处理方法和存储介质
KR102334622B1 (ko) 멀티미디어 디바이스 제어 방법 및 멀티미디어 디바이스

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220704

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220704

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240214

R150 Certificate of patent or registration of utility model

Ref document number: 7442838

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150