JP6132335B2 - 感情推定装置及び感情推定方法 - Google Patents

感情推定装置及び感情推定方法 Download PDF

Info

Publication number
JP6132335B2
JP6132335B2 JP2013053622A JP2013053622A JP6132335B2 JP 6132335 B2 JP6132335 B2 JP 6132335B2 JP 2013053622 A JP2013053622 A JP 2013053622A JP 2013053622 A JP2013053622 A JP 2013053622A JP 6132335 B2 JP6132335 B2 JP 6132335B2
Authority
JP
Japan
Prior art keywords
emotion
timing
information
face image
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013053622A
Other languages
English (en)
Other versions
JP2014178970A (ja
Inventor
一秀 梅田
一秀 梅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solutions Innovators Ltd
Original Assignee
NEC Solutions Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solutions Innovators Ltd filed Critical NEC Solutions Innovators Ltd
Priority to JP2013053622A priority Critical patent/JP6132335B2/ja
Publication of JP2014178970A publication Critical patent/JP2014178970A/ja
Application granted granted Critical
Publication of JP6132335B2 publication Critical patent/JP6132335B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、顔画像から感情や心理状態を推定する技術に関する。
下記特許文献1及び2は、顔画像(表情画像)から感情や心理状態を推定する手法を提案する。これら手法は、複数人の顔画像から、表情マップ、線形判別式、重回帰式等を取得し、これら情報に基づいて、不特定人の顔画像に対応する感情や心理状態を推定する。
また、下記特許文献3は、ユーザの個々の好みに応じた表情の被写体を撮像する撮像装置を提案する。この撮像装置は、個人を識別するための個人識別特徴量と、ユーザの好みに応じた表情を示す表情判断特徴量とを予め格納しておき、撮像された複数の画像に写る個人を特定し、当該複数の画像の中の、その個人の表情判断特徴量と類似する特徴量を持つ画像を出力用画像として記録する。
特開2007−065969号公報 特開2008−146318号公報 特開2006−115406号公報
上記特許文献1及び2で提案される手法は、複数人から得られる標準的な表情との関係から、或る顔画像に対応する感情や心理状態を推定しているため、人や場面によっては、高い推定精度を達成できない可能性がある。例えば、感情を標準的に表情に出さない人や、老人や病人等のように感情を表情に出せない状況にある人に対しては、上述の提案手法は、精度よく感情や心理状態を推定できない可能性が高い。また、上記特許文献3は、各個人の好みの表情を示す表情判断特徴量を予め登録しているものの、各個人の好みに応じた表情と近似する画像を特定しているに過ぎず、各個人の感情や心理状態を推定しているわけではない。
本発明は、このような事情に鑑みてなされたものであり、各個人の感情を高精度に推定する技術を提供することにある。
本発明の各側面では、上述した課題を解決するために、それぞれ以下の構成を採用する。
第1の側面は、感情推定装置に関する。第1の側面に係る感情推定装置は、撮像された被判定者の顔を示す顔画像情報を取得する画像取得部と、画像取得部により取得される顔画像情報、及び、感情情報格納部に格納される、被判定者の各所定感情にそれぞれ対応する複数の表情画像情報を用いて、被判定者の感情を推定する感情推定部と、生体センサにより測定される前記被判定者の生体情報の時系列データを取得する生体情報取得部と、前記生体情報取得部により取得される生体情報の時系列データに基づいて、前記被判定者が所定感情を有したタイミングを推定するタイミング推定部と、前記画像取得部により取得される前記被判定者について逐次撮像された顔画像に関する顔画像情報の時系列データの中から、前記タイミング推定部により推定されるタイミングに対応する顔画像情報を特定し、特定された顔画像情報を、該タイミングに対応する前記所定の感情に関連付けて前記感情情報格納部に格納する感情情報登録部と、を有する。
第2の側面は、少なくとも1つのコンピュータにより実行される感情推定方法に関する。第2の側面に係る感情推定方法は、撮像された被判定者の顔を示す顔画像情報を取得し、取得された顔画像情報、及び、感情情報格納部に格納される、被判定者の各所定感情にそれぞれ対応する複数の表情画像情報を用いて、被判定者の感情を推定し、生体センサにより測定される前記被判定者の生体情報の時系列データを取得し、前記取得された生体情報の時系列データに基づいて、前記被判定者が所定感情を有したタイミングを推定し、前記被判定者について逐次撮像された顔画像に関する顔画像情報の時系列データの中から、前記推定されたタイミングに対応する顔画像情報を特定し、前記特定された顔画像情報を、前記タイミングに対応する前記所定の感情に関連付けて前記感情情報格納部に格納する、ことを含む。
なお、本発明の他の側面としては、上記第2の側面の方法を少なくとも1つのコンピュータに実行させるプログラムであってもよいし、このようなプログラムを記録したコンピュータが読み取り可能な記録媒体であってもよい。この記録媒体は、非一時的な有形の媒体を含む。
上記各側面によれば、各個人の感情を高精度に推定する技術を提供することができる。
実施形態における感情推定システムのハードウェア構成例を概念的に示す図である。 実施形態における感情推定装置の処理構成例を概念的に示す図である。 実施形態における感情推定システムの動作例を示すシーケンスチャートである。 変形例における感情推定システムの処理構成例を概念的に示す図である。
以下、本発明の実施の形態について説明する。なお、以下に挙げる実施形態は例示であり、本発明は以下の実施形態の構成に限定されない。
〔システム構成〕
図1は、実施形態における感情推定システム1のハードウェア構成例を概念的に示す図である。感情推定システム1は、図1に示されるように、撮像装置2、生体センサ3及び感情推定装置10を有する。
感情推定装置10は、いわゆるコンピュータであり、例えば、バス9で相互に接続される、CPU(Central Processing Unit)5、メモリ6、入出力インタフェース(I/F)7等を有する。メモリ6は、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスク、可搬型記憶媒体等である。入出力I/F8は、表示装置(図示せず)、入力装置(図示せず)、通信装置(図示せず)等と接続され得る。例えば、入出力I/F7は、通信装置などを介して、撮像装置2及び生体センサ3と通信を行う。感情推定装置10と、撮像装置2又は生体センサ3との間の通信は、本実施形態では制限されない。その通信は、例えば、USB(Universal Serial Bus)通信やIP(Internet Protocol)通信等である。本実施形態は、感情推定装置10のハードウェア構成を制限しない。
感情推定装置10は、後述の感情情報データベース(DB)17にデータを登録する動作モード(以降、登録モードと表記する)と、感情情報DB17に登録されているデータに基づいて、被判定者の感情を推定する動作モード(以降、推定モードと表記する)とを有する。感情推定装置10は、例えば、入力装置を用いた操作者の入力操作により、その2つの動作モードの間を切り替える。
撮像装置2は、いわゆるカメラであり、任意のタイミングで被判定者を撮像し、被判定者の顔を含む画像の画像信号を出力する。即ち、撮像装置2は、撮像素子を含み、被判定者の像を電気信号(画像信号)に変換し、その画像信号を出力する。撮像装置2は、画像信号を感情推定装置10へ出力してもよいし、その画像信号から生成される画像データ(画像ファイル)を感情推定装置10へ出力してもよい。
生体センサ3は、感情推定装置10が登録モードで動作している場合に、被判定者の被測定部位又はその周辺に取り付けられ、被判定者の生体情報を逐次測定する。生体センサ3により測定される生体情報は、例えば、脳波、脈拍、心拍、心電図、呼吸、発汗、血圧、体温等のうちの少なくとも一つの情報である。本実施形態は、感情を推定可能な生体情報であれば、生体情報の具体的内容を制限しない。例えば、生体センサ3は、脳波計、血圧計及び体温計を含み、これらにより検出される脳波、血圧及び体温の組み合わせを生体情報として測定するようにしてもよい。生体センサ3による各種生体情報の具体的測定手法には、周知技術が用いられればよい。
〔処理構成〕
図2は、実施形態における感情推定装置10の処理構成例を概念的に示す図である。実施形態における感情推定装置10は、画像取得部11、生体情報取得部12、顔画像DB13、生体情報DB14、タイミング推定部15、感情情報登録部16、感情情報DB17、感情推定部18等を有する。これら各処理部は、例えば、CPU5によりメモリ6に格納されるプログラムが実行されることにより実現される。また、当該プログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワーク上の他のコンピュータから入出力I/F7を介してインストールされ、メモリ6に格納されてもよい。
画像取得部11は、撮像装置2により撮像された被判定者の顔を示す顔画像情報を取得する。顔画像情報は、撮像装置2により撮像された被判定者の顔が写る顔画像の画像データであってもよいし、その顔画像の画像データから抽出される特徴量データであってもよい。画像データは、撮像装置2により生成され、撮像装置2から取得されてもよいし、撮像装置2から出力される画像信号に基づいて画像取得部11により生成されてもよい。また、画像データは、可搬型記録媒体、他のコンピュータ等から入出力I/F4を経由して取得されてもよい。
画像取得部11は、上述のように取得された顔画像の画像データから特徴量データを取得することもできる。特徴量データの具体的な取得手法には、周知技術が用いられればよい。例えば、感情推定システム1で推定される各感情を表し易い顔の各構成要素(各部位)に相当する領域画像から得られる特徴量データが取得される。
画像取得部11は、登録モード時には、感情情報DB17への登録対象となり得る顔画像情報を取得し、推定モード時には、感情推定の対象となる顔画像情報を取得する。具体的には、登録モード時には、画像取得部11は、撮像装置2により逐次撮像された被判定者の顔画像に関する顔画像情報の時系列データを取得し、その時系列データを顔画像DB13に格納する。例えば、画像取得部11は、撮像タイミングを撮像装置2に指示し、その撮像タイミングで撮像された画像データを撮像装置2から取得し、その画像データを撮像タイミングに対応する時間情報と共に顔画像DB13に格納するようにしてもよい。また、画像取得部11は、登録モードであることを撮像装置2に通知することで、撮像装置2に所定の周期で被判定者を逐次撮像させるようにしてもよい。画像取得部11は、複数の画像データをまとめて、各画像データの時間情報と共に、撮像装置2から取得してもよい。
生体情報取得部12は、登録モード時に、生体センサ3により測定される被判定者の生体情報の時系列データを取得し、その時系列データを生体情報DB14に格納する。生体情報取得部12は、生体情報と、その生体情報が測定されたタイミングを示す時間情報とを生体センサ3から取得してもよいし、生体センサ3から生体情報を取得し、その生体情報の取得タイミングをその生体情報に対応する時間情報とするようにしてもよい。
顔画像DB13は、画像取得部11により取得された、被判定者の顔画像に関する顔画像情報の時系列データを格納する。具体的には、顔画像DB13は、被判定者の複数の顔画像情報を時間情報と共に格納する。顔画像DB13は、複数の被判定者の顔画像情報を格納するようにしてもよい。
生体情報DB14は、生体情報取得部12により取得された、被判定者の生体情報の時系列データを格納する。具体的には、生体情報DB14は、被判定者の生体情報とそれに対応する時間情報との複数の組を格納する。生体情報DB14は、複数の被判定者の生体情報を格納するようにしてもよい。
タイミング推定部15は、登録モード時に動作する。タイミング推定部15は、生体情報取得部12により取得され、生体情報DB14に格納される生体情報の時系列データに基づいて、被判定者が所定感情を有したタイミングを推定する。具体的には、タイミング推定部15は、生体情報DB14に格納される生体情報の時系列データの中から、感情情報DB17に格納され得る複数の所定感情の各々について、各所定感情を被判定者が有したであろうタイミングをそれぞれ推定する。複数の所定感情は、例えば、喜び、楽しみ、緊張、怒り、哀しみ、恐怖等である。タイミング推定部15は、一定期間の生体情報が生体情報DB14に格納されたことを契機に処理を開始する。
例えば、脳波を周波数解析することで、怒り、哀しみ、喜び等の感情を定量化する様々な手法が提案されている。α波、θ波、β波、δ波等の分布により、感情を推定することができる。また、感情に応じて脈拍、心拍、呼吸、血圧、体温等が変化することも知られている。従って、これら情報の少なくとも1つを用いれば、所定の感情を推定することができる。本実施形態は、タイミングを推定する所定感情の種類を制限せず、かつ、上記タイミングの具体的推定手法を制限しない。感情情報DB17に格納され得る複数の所定感情の種類は、予め決められ、タイミング推定部15に設定されている。
例えば、タイミング推定部15は、上記所定感情へ変化した後のタイミング、又は、上記所定感情を強く表しているタイミングを、被判定者がその所定感情を有したタイミングとして推定する。例えば、タイミング推定部15は、心拍数が所定閾値を超えた直後を被判定者が緊張感を有したタイミングとして推定してもよいし、心拍数が最も高い時をそのタイミングとして推定してもよい。他の例としては、タイミング推定部15は、脳波のθ波、α波及びβ波の各含有率をそれぞれ計算し、各含有率が所定パターンを示す時を被判定者が緊張しているタイミングとして推定してもよいし、β波の含有率が最も大きいときをそのタイミングとして推定してもよい。
感情情報DB17は、被判定者の各所定感情にそれぞれ対応する複数の表情画像情報を格納する。例えば、感情情報DB17は、所定感情毎に、被判定者の表情画像情報とその所定感情を特定する感情IDとを格納する。複数の所定感情は、上述したとおり、例えば、喜び、楽しみ、緊張、怒り、哀しみ、恐怖等である。
感情情報登録部16は、登録モード時に動作する。感情情報登録部16は、顔画像DB13に格納されている、被判定者について逐次撮像された顔画像に関する顔画像情報の時系列データの中から、タイミング推定部15により推定されるタイミングに対応する顔画像情報を特定し、特定された顔画像情報を、そのタイミングに対応する所定の感情に関連付けて感情情報DB17に格納する。具体的には、感情情報登録部16は、タイミング推定部15により推定された各所定感情のタイミングに基づいて、その各タイミングに適合する時間情報と共に格納される各顔画像情報を顔画像DB13からそれぞれ抽出し、抽出された各顔画像情報を各所定感情の感情IDと共に、感情情報DB17に格納する。
感情推定部18は、推定モード時に動作する。感情推定部18は、推定モード時に画像取得部11により取得される顔画像情報、及び、感情情報DB17に格納される、被判定者の各所定感情にそれぞれ対応する複数の表情画像情報を用いて、被判定者の感情を推定する。例えば、感情推定部18は、画像取得部11により取得された顔画像情報に最も近似する顔画像情報を感情情報DB17の中で特定し、その特定された顔画像情報に関連付けられる所定感情を被判定者の感情として決定する。顔画像情報が画像データである場合、感情推定部18は、周知技術である画像データ同士の類似度判定を行う。
また、感情推定部18は、感情情報DB17に格納される各顔画像情報と、画像取得部11により取得された顔画像情報との間の各類似度をそれぞれ算出するようにしてもよい。この場合、感情推定部18は、各類似度を正規化することで得られる各値を、対応する各所定感情のポイントとしてそれぞれ出力するようにしてもよい。
〔動作例〕
以下、実施形態における感情推定方法について図3を用いて説明する。図3は、実施形態における感情推定システム1の動作例を示すシーケンスチャートである。図3では、(S31)〜(S35)が登録モードにおける処理を示し、(S36)及び(S37)が推定モードにおける処理を示す。図3では、登録モードと推定モードとがシーケンシャルに実行される例が示されるが、各動作モードは連続して実行されなくてもよい。また、以下の説明では、感情推定装置10が各方法の実行主体となるが、感情推定装置10に含まれる上述の各処理部が実行主体となってもよい。
感情推定装置10は、顔画像情報の時系列データを取得する(S31)。このとき、撮像装置2は、或る周期で、被判定者を撮像している。撮像装置2による撮像タイミングは、感情推定装置10により指定されてもよいし、所定の周期で決められてもよい。これにより、感情推定装置10は、撮像装置2により逐次撮像された被判定者の顔画像の画像データ又は特徴量データを逐次取得し、画像データ又は特徴量データと、対応する時間情報とを顔画像DB13に順次格納していく。
並行して、感情推定装置10は、その被判定者の生体情報の時系列データを取得する(S32)。このとき、生体センサ3は、或る周期で、被判定者の生体情報を測定している。生体センサ3による測定タイミングは、感情推定装置10により指定されてもよいし、所定の周期で決められてもよい。これにより、感情推定装置10は、生体センサ3により逐次測定された被判定者の生体情報を逐次取得し、その生体情報と、対応する時間情報とを生体情報DB14に順次格納していく。
感情推定装置10は、所定期間分の生体情報が取得されると、取得された生体情報の時系列データに基づいて、被判定者の各所定感情のタイミングをそれぞれ推定する(S33)。例えば、感情推定装置10は、所定感情へ変化した後のタイミング、又は、所定感情を強く表しているタイミングを、被判定者がその所定感情を有したタイミングとして推定する。
感情推定装置10は、推定された各所定感情のタイミングに対応する顔画像情報を抽出する(S34)。具体的には、感情推定装置10は、各所定感情のタイミングに適合する時間情報と関連付けられて顔画像DB13に格納される各顔画像情報をそれぞれ抽出する。
感情推定装置10は、抽出された各顔画像情報を、各所定感情に関連付けて感情情報DB17にそれぞれ格納する(S35)。このように感情情報DB17への顔画像情報の登録が完了すると、感情推定装置10は、いつでも、推定モードに移行して、(S36)の処理を実行することができるようになる。
感情推定装置10は、撮像装置2により撮像された、感情推定のための当該被判定者の顔画像情報を取得する(S36)。
感情推定装置10は、(S36)で取得された顔画像情報と、感情情報DB17に格納される顔画像情報とを用いて、被判定者の感情を推定する(S37)。推定される被判定者の感情は、(S36)で取得された顔画像情報が示す顔画像が撮像された時に、被判定者が有すると推定される感情である。感情推定装置10は、画像データ間、又は、特徴量データ間の類似度判定を行うことで、被判定者の感情を推定する。推定結果は、最も近似する顔画像情報に対応する1つの所定感情であってもよいし、各所定感情に関するポイントであってもよい。
〔実施形態の作用及び効果〕
上述したように本実施形態では、登録モードにおいて、被判定者の顔画像情報と所定感情との対応関係が感情情報DB17に登録され、推定モードにおいて、感情情報DB17に格納される対応関係と、新たに取得された被判定者の顔画像情報とに基づいて、その被判定者の感情が推定される。登録モードでは、次のように、感情情報DB17へのデータ登録が行われる。被判定者の生体情報が順次測定されると共に、その被判定者の顔を含む画像が順次撮像されることで、その被判定者に関する生体情報及び顔画像情報の各時系列データがそれぞれ取得される。そして、その生体情報の時系列データから、被判定者が各所定感情を有していたであろうタイミングがそれぞれ推定され、顔画像情報の時系列データから、各所定感情のタイミングに対応する各顔画像情報がそれぞれ抽出され、抽出された各顔画像情報が各所定感情と関連付けられて感情情報DB17にそれぞれ格納される。
このように、本実施形態によれば、被判定者個人の生体情報及び顔画像情報から、その被判定者の感情が推定されるため、感情を標準的に表情に出さない被判定者に関しても高精度に感情を推定することができる。更に、本実施形態によれば、感情推定のための基になる顔画像情報と所定感情との対応関係が、生体情報という客観的な指標(データ)により生成されるため、被判定者個々に表情への表われ方が異なる感情を被判定者個々に応じて高精度に推定することができる。これにより、寝たきりの患者のように感情を表情に出せない状況にある者に関しても、高精度に感情を推定することができる。即ち、本実施形態によれば、介護施設や病院等で、老人や患者の状態を監視するための感情推定システムとしても大きな効果を発揮する。
ところで、被判定者に生体センサ3を取り付けておき、生体センサ3で測定される生体情報のみを用いてその被判定者の感情を推定することは可能である。しかしながら、この手法では、被判定者は、感情推定時には常時生体センサ3を取り付けておく必要があり、不快である。本実施形態によれば、登録モード時のみ、生体センサ3が被判定者に取り付けられ、推定モード時には、生体センサ3を取り外すことができるため、被判定者の不快感を軽減することができる。
[変形例]
感情推定装置10は、複数の装置(コンピュータ)として実現されてもよい。
図4は、変形例における感情推定システム1の処理構成例を概念的に示す図である。図4に示されるように、感情推定システム1は、上記登録モード時の処理のみを行う情報登録装置20、及び、上記推定モード時の処理のみを行う感情推定装置10を有するようにしてもよい。この場合、感情推定装置10は、画像取得部11及び感情推定部18を有し、情報登録装置20は、上述の感情推定部18以外の処理部を有する。また、顔画像DB13、生体情報DB14及び感情情報DB17が更に他のコンピュータ上に実現されてもよい。
なお、上述の説明で用いたフローチャートでは、複数の工程(処理)が順番に記載されているが、本実施形態で実行される工程の実行順序は、その記載の順番に制限されない。本実施形態では、図示される工程の順番を内容的に支障のない範囲で変更することができる。
上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下に限られない。
1. 撮像された被判定者の顔を示す顔画像情報を取得する画像取得部と、
前記画像取得部により取得される顔画像情報、及び、感情情報格納部に格納される、前記被判定者の各所定感情にそれぞれ対応する複数の表情画像情報を用いて、前記被判定者の感情を推定する感情推定部と、
を備える感情推定装置。
2. 生体センサにより測定される前記被判定者の生体情報の時系列データを取得する生体情報取得部と、
前記生体情報取得部により取得される生体情報の時系列データに基づいて、前記被判定者が所定感情を有したタイミングを推定するタイミング推定部と、
前記画像取得部により取得される前記被判定者について逐次撮像された顔画像に関する顔画像情報の時系列データの中から、前記タイミング推定部により推定されるタイミングに対応する顔画像情報を特定し、特定された顔画像情報を、該タイミングに対応する前記所定の感情に関連付けて前記感情情報格納部に格納する感情情報登録部と、
を更に備える1.に記載の感情推定装置。
3. 前記タイミング推定部は、前記所定感情へ変化した後のタイミング、又は、前記所定感情を強く表しているタイミングを、前記被判定者が所定感情を有したタイミングとして推定する、
2.に記載の感情推定装置。
4. 前記生体情報は、脳波、脈拍、心拍、心電図、呼吸、発汗、血圧、体温のうちの少なくとも一つの情報である2.又は3.に記載の感情推定装置。
5. 少なくとも1つのコンピュータにより実行される感情推定方法において、
撮像された被判定者の顔を示す顔画像情報を取得し、
前記取得された顔画像情報、及び、感情情報格納部に格納される、前記被判定者の各所定感情にそれぞれ対応する複数の表情画像情報を用いて、前記被判定者の感情を推定する、
ことを含む感情推定方法。
6. 生体センサにより測定される前記被判定者の生体情報の時系列データを取得し、
前記取得された生体情報の時系列データに基づいて、前記被判定者が所定感情を有したタイミングを推定し、
前記被判定者について逐次撮像された顔画像に関する顔画像情報の時系列データの中から、前記推定されたタイミングに対応する顔画像情報を特定し、
前記特定された顔画像情報を、前記タイミングに対応する前記所定の感情に関連付けて前記感情情報格納部に格納する、
ことを更に含む5.に記載の感情推定方法。
7. 前記タイミングの推定は、前記所定感情へ変化した後のタイミング、又は、前記所定感情を強く表しているタイミングを、前記被判定者が所定感情を有したタイミングとして推定する、
6.に記載の感情推定方法。
8. 5.から7.のいずれか1つに記載の感情推定方法を少なくとも1つのコンピュータに実行させるプログラム。
1 感情推定システム
2 撮像装置
3 生体センサ
5 CPU
6 メモリ
7 入出力I/F
10 感情推定装置
11 画像取得部
12 生体情報取得部
13 顔画像DB
14 生体情報DB
15 タイミング推定部
16 感情情報登録部
17 感情情報DB
18 感情推定部
20 情報登録装置

Claims (6)

  1. 撮像された被判定者の顔を示す顔画像情報を取得する画像取得部と、
    前記画像取得部により取得される顔画像情報、及び、感情情報格納部に格納される、前記被判定者の各所定感情にそれぞれ対応する複数の表情画像情報を用いて、前記被判定者の感情を推定する感情推定部と、
    生体センサにより測定される前記被判定者の生体情報の時系列データを取得する生体情報取得部と、
    前記生体情報取得部により取得される生体情報の時系列データに基づいて、前記被判定者が所定感情を有したタイミングを推定するタイミング推定部と、
    前記画像取得部により取得される前記被判定者について逐次撮像された顔画像に関する顔画像情報の時系列データの中から、前記タイミング推定部により推定されるタイミングに対応する顔画像情報を特定し、特定された顔画像情報を、該タイミングに対応する前記所定の感情に関連付けて前記感情情報格納部に格納する感情情報登録部と、
    を備える感情推定装置。
  2. 前記タイミング推定部は、前記所定感情へ変化した後のタイミング、又は、前記所定感情を強く表しているタイミングを、前記被判定者が所定感情を有したタイミングとして推定する、
    請求項に記載の感情推定装置。
  3. 前記生体情報は、脳波、脈拍、心拍、心電図、呼吸、発汗、血圧、体温のうちの少なくとも一つの情報である請求項1又はに記載の感情推定装置。
  4. 少なくとも1つのコンピュータにより実行される感情推定方法において、
    撮像された被判定者の顔を示す顔画像情報を取得し、
    前記取得された顔画像情報、及び、感情情報格納部に格納される、前記被判定者の各所定感情にそれぞれ対応する複数の表情画像情報を用いて、前記被判定者の感情を推定し、
    生体センサにより測定される前記被判定者の生体情報の時系列データを取得し、
    前記取得された生体情報の時系列データに基づいて、前記被判定者が所定感情を有したタイミングを推定し、
    前記被判定者について逐次撮像された顔画像に関する顔画像情報の時系列データの中から、前記推定されたタイミングに対応する顔画像情報を特定し、
    前記特定された顔画像情報を、前記タイミングに対応する前記所定の感情に関連付けて前記感情情報格納部に格納する、
    ことを含む感情推定方法。
  5. 前記タイミングの推定は、前記所定感情へ変化した後のタイミング、又は、前記所定感情を強く表しているタイミングを、前記被判定者が所定感情を有したタイミングとして推定する、
    請求項に記載の感情推定方法。
  6. 請求項4又は5に記載の感情推定方法を少なくとも1つのコンピュータに実行させるプログラム。
JP2013053622A 2013-03-15 2013-03-15 感情推定装置及び感情推定方法 Active JP6132335B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013053622A JP6132335B2 (ja) 2013-03-15 2013-03-15 感情推定装置及び感情推定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013053622A JP6132335B2 (ja) 2013-03-15 2013-03-15 感情推定装置及び感情推定方法

Publications (2)

Publication Number Publication Date
JP2014178970A JP2014178970A (ja) 2014-09-25
JP6132335B2 true JP6132335B2 (ja) 2017-05-24

Family

ID=51698832

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013053622A Active JP6132335B2 (ja) 2013-03-15 2013-03-15 感情推定装置及び感情推定方法

Country Status (1)

Country Link
JP (1) JP6132335B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111923322B (zh) * 2020-05-22 2021-03-02 帕艾斯电子技术(南京)有限公司 温度传感器、注塑封装模具及注塑封装方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107209562B (zh) * 2015-02-13 2021-04-30 索尼公司 信息处理系统、信息处理装置、控制方法和存储媒体
US10255487B2 (en) 2015-12-24 2019-04-09 Casio Computer Co., Ltd. Emotion estimation apparatus using facial images of target individual, emotion estimation method, and non-transitory computer readable medium
US10939833B2 (en) * 2017-05-01 2021-03-09 Samsung Electronics Company, Ltd. Determining artery location using camera-based sensing
CN111247505B (zh) * 2017-10-27 2024-04-09 索尼公司 信息处理装置、信息处理方法、记录介质以及信息处理系统
WO2019193781A1 (ja) * 2018-04-04 2019-10-10 パナソニックIpマネジメント株式会社 感情推定装置、感情推定方法及びプログラム
JP2022006253A (ja) 2020-06-24 2022-01-13 オムロン株式会社 感情判定装置および感情判定方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6931147B2 (en) * 2001-12-11 2005-08-16 Koninklijke Philips Electronics N.V. Mood based virtual photo album
US7319780B2 (en) * 2002-11-25 2008-01-15 Eastman Kodak Company Imaging method and system for health monitoring and personal security

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111923322B (zh) * 2020-05-22 2021-03-02 帕艾斯电子技术(南京)有限公司 温度传感器、注塑封装模具及注塑封装方法

Also Published As

Publication number Publication date
JP2014178970A (ja) 2014-09-25

Similar Documents

Publication Publication Date Title
JP6132335B2 (ja) 感情推定装置及び感情推定方法
JP7303854B2 (ja) 評価装置
JP6721156B2 (ja) 生体情報分析装置、システム、及び、プログラム
JP7329549B2 (ja) ユーザのストレスレベルを決定するための装置、システムおよび方法
KR101535432B1 (ko) 콘텐츠 평가 시스템 및 이를 이용한 콘텐츠 평가 방법
KR102271432B1 (ko) 웨어러블 디바이스 및 그 제어 방법
Gradl et al. An overview of the feasibility of permanent, real-time, unobtrusive stress measurement with current wearables
WO2017069644A2 (en) Wireless eeg headphones for cognitive tracking and neurofeedback
EP2609533A2 (en) Monitoring method and system for assessment or prediction of mood trends
JP2014171660A (ja) 心房細動解析装置、心房細動解析システム、心房細動解析方法およびプログラム
JP6788656B2 (ja) Ecgデータにおける活動の自動ラベリングのための方法及びシステム
WO2016185931A1 (ja) 生体情報測定装置
da Silveira et al. Ongoing challenges of evaluating mulsemedia QoE
CA3199919A1 (en) Systems and methods for measuring hemodynamic parameters with wearable cardiovascular sensing
US20190298190A1 (en) Pulse detection, measurement and analysis based health management system, method and apparatus
JP6992505B2 (ja) 情報処理装置、方法及びプログラム
JP7325576B2 (ja) 端末装置、出力方法及びコンピュータプログラム
TWI768999B (zh) 生理監測系統和估計生命體徵資料的方法
Assaf et al. Sleep detection using physiological signals from a wearable device
Badura et al. Multimodal signal acquisition for pain assessment in physiotherapy
JP2020073108A (ja) 睡眠段階判定方法、睡眠段階判定装置、及び睡眠段階判定プログラム
Bernardeschi et al. Using smartwatch sensors to support the acquisition of sleep quality data for supervised machine learning
Sowmiya et al. Pulse rate estimation with a smartphone camera using image processing algorithm
JP2015188649A (ja) 複数の生理指標および視線の分析支援装置、プログラム
WO2022065073A1 (ja) 生体情報解析システム、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20140613

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161227

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170321

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170413

R150 Certificate of patent or registration of utility model

Ref document number: 6132335

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250