JP7172705B2 - 感情推定装置、感情推定方法、プログラム、及び感情推定システム - Google Patents
感情推定装置、感情推定方法、プログラム、及び感情推定システム Download PDFInfo
- Publication number
- JP7172705B2 JP7172705B2 JP2019026724A JP2019026724A JP7172705B2 JP 7172705 B2 JP7172705 B2 JP 7172705B2 JP 2019026724 A JP2019026724 A JP 2019026724A JP 2019026724 A JP2019026724 A JP 2019026724A JP 7172705 B2 JP7172705 B2 JP 7172705B2
- Authority
- JP
- Japan
- Prior art keywords
- emotion
- user
- estimation
- source
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
まず、本発明の第1の実施形態について説明する。第1の実施形態では、2人のユーザが対面している状況で、センサ装置により計測されるユーザに関する情報(以下、「計測情報」とも称される)に基づく感情発生源の推定が行われる例について説明する。
まず、図1を参照して、本発明の第1の実施形態による感情推定システムの概要について説明する。図1は、本発明の第1の実施形態による感情推定システム1000-1の概要を示す図である。図1に示すように、感情推定システム1000-1は、感情推定サーバ10-1、センサ装置20-1、及びネットワーク30を備える。
感情推定サーバ10-1は、ユーザの感情発生源を推定する感情推定装置である。以下では、感情推定装置がサーバ装置により実現される例について説明するが、感情推定装置を実現する装置は、かかる例に限定されない。例えば、感情推定装置は、スマートフォン、タブレット端末、またはウェアラブル端末等の装置により実現されてもよい。
センサ装置20-1は、感情推定サーバ10-1における処理にて用いられる計測情報を計測する装置である。センサ装置20-1は、例えば、感情推定サーバ10-1がユーザ40の感情を推定するための情報(以下、「感情情報」とも称される)を計測する。感情情報の計測後、センサ装置20-1は、ネットワーク30を介して、計測した感情情報を感情推定サーバ10へ送信する。そのため、センサ装置20-1は、計測情報を感情推定サーバ10-1へ送信するための通信機能も有する。
ネットワーク30は、感情推定サーバ10-1及びセンサ装置20-1を接続する機能を有する。ネットワーク30は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク30は、IP-VPN(Internet Protocol-Virtual Private Network)などの専用回線網を含んでもよい。また、ネットワーク30は、Wi-Fi(登録商標)、Bluetooth(登録商標)などの無線通信網を含んでもよい。
以上、本発明の第1の実施形態による感情推定システム1000-1の概要について説明した。続いて、図2を参照して、本発明の第1の実施形態による感情推定サーバの機能構成例について説明する。図2は、本発明の第1の実施形態による感情推定サーバ10-1の機能構成例を示すブロック図である。図2に示すように、感情推定サーバ10-1は、通信部110、制御部120-1、及び記憶部130を備える。
通信部110は、外部装置と通信を行う機能を有する。通信部110は、例えば、外部装置との通信において、外部装置から受信する情報を制御部120-1へ出力する。具体的に、通信部110は、ネットワーク30を介したセンサ装置20-1との通信において、センサ装置20-1から計測情報を受信し、制御部120-1へ出力する。
制御部120-1は、感情推定サーバ10-1の全体の動作を制御する機能を有する。当該機能を実現するために、制御部120-1は、図2に示すように、ユーザ計測部122-1、感情推定部124-1、感情比較部126-1、及び感情発生源推定部128-1を有する。
ユーザ計測部122-1は、センサ装置20-1に計測情報を計測させ、計測情報を取得する機能を有する。ユーザ計測部122-1は、例えば、感情推定部124-1による感情の推定の対象となるユーザ40の感情情報を、センサ装置20-1に計測させる。この時、ユーザ計測部122-1は、通信部110及びネットワーク30を介して、感情情報の計測に関する指示をセンサ装置20-1へ送信する。センサ装置20-1による感情情報の計測後、ユーザ計測部122-1は、ネットワーク30及び通信部110を介してセンサ装置20-1から感情情報を取得し、取得した感情情報を感情推定部124-1へ出力する。
感情推定部124-1は、ユーザ40の感情を推定する機能を有する。感情推定部124-1は、例えば、ユーザ計測部122-1から入力された感情情報から抽出されるユーザ40の特徴量に基づき、ユーザ40の感情を推定する。感情の推定後、感情推定部124-1は、推定した感情を示す情報(例えば感情名または感情のカテゴリ名)を感情比較部126へ出力する。
感情比較部126-1は、複数のユーザ40の感情を比較し、各々の感情の共通性を判定する機能を有する。例えば、感情比較部126-1は、感情推定部124-1から入力されるユーザ40aとユーザ40bの感情を比較し、各々の感情の共通性を判定する。具体的に、感情比較部126-1は、感情のカテゴリを示す情報に基づき、ユーザ40aの感情とユーザ40bの感情を分類し、各々の感情が分類されたカテゴリを比較することで、共通性の判定を行う。判定後、感情比較部126-1は、判定結果を感情発生源推定部128-1へ出力する。なお、感情比較部126-1は、ユーザ40の現在の感情と過去の感情とを比較してもよい。
感情の分類方法は、様々な方法が提案されている。本発明の実施形態では、例えば、ラッセル(Russell)の2次元円環モデルによる感情の分類方法が用いられる。ここで、図3を参照して、2次元円環モデルについて説明する。図3は、本発明の一実施形態による2次元円環モデルの一例を示す図である。
感情発生源推定部128-1は、ユーザ40の感情発生源を推定する機能を有する。例えば、感情発生源推定部128-1は、感情比較部126-1から入力される共通性の判定結果に基づき、ユーザ40aとユーザ40bの感情発生源を推定する。
ユーザ40aの感情とユーザ40bの感情とに共通性が認められる場合、感情発生源推定部128-1は、ユーザ40aの感情発生源がユーザ40aまたはユーザ40bであるかを推定する。具体的に、感情発生源推定部128-1は、ユーザ40aの現在の感情と前回推定時の感情とが同一であるか否かに応じて、ユーザ40aの感情発生源を推定する。同様に、感情発生源推定部128-1は、ユーザ40bの感情発生源も推定する。
ユーザ40aの感情とユーザ40bの感情とに共通性が認められない場合、感情発生源推定部128-1は、各々のユーザ40自身を感情発生源と推定する。例えば、ユーザ40aの感情発生源の推定時、ユーザ40aの感情とユーザ40bの感情とに共通性が認められない場合、感情発生源推定部128-1は、ユーザ40aを、ユーザ40aの感情発生源と推定する。同様に、ユーザ40bの感情発生源の推定時、ユーザ40bの感情とユーザ40aの感情とに共通性が認められない場合、感情発生源推定部128-1は、ユーザ40bを、ユーザ40bの感情発生源と推定する。図4に示す例の場合、No2~No5の行に示すように、ユーザ40aの感情とユーザ40bの感情とは異なっており、共通性が認められないため、ユーザ40aの感情発生源は「ユーザ40a」、ユーザ40bの感情発生源は「ユーザ40b」と推定される。
なお、感情推定部124-1が初めてユーザ40aの感情を推定した場合、感情発生源推定部128-1は、ユーザ40aを、ユーザ40aの感情発生源と推定する。また、感情推定部124-1が初めてユーザ40bの感情を推定した場合、感情発生源推定部128-1は、ユーザ40bを、ユーザ40bの感情発生源と推定する。図4に示す例の場合、No1の行に示すように、ユーザ40aとユーザ40bの感情が初めて推定されているため、ユーザ40aの感情発生源は「ユーザ40a」、ユーザ40bの感情発生源は「ユーザ40b」と推定される。
記憶部130は、感情推定サーバ10-1における処理に関する情報を記憶する機能を有する。例えば、記憶部130は、制御部120-1の感情推定部124-1が推定した各々のユーザの感情を記憶し得る。また、記憶部130は、制御部120-1の感情発生源推定部128-1が推定した各々のユーザの感情発生源を記憶し得る。
以上、本発明の第1の実施形態による感情推定サーバ10-1の機能構成例について説明した。続いて、本発明の第1の実施形態による感情推定サーバ10-1における処理例について説明する。
まず、図5を参照して、本発明の第1の実施形態による感情推定サーバ10-1におけるメイン処理の流れについて説明する。図5は、本発明の第1の実施形態によるメイン処理の流れの一例を示すフローチャートである。
続いて、図6を参照して、本発明の第1の実施形態による感情推定サーバ10-1における感情発生源推定処理の流れについて説明する。図6は、本発明の第1の実施形態による感情発生源推定処理の流れの一例を示すフローチャートである。
以上説明したように本発明の第1の実施形態によれば、感情推定サーバ10-1は、対象領域内に2人のユーザ40が対面している状況で、各々のユーザ40の計測情報に基づき、各々のユーザ40の感情の推定及び比較を行い、各々のユーザ40の感情発生源を推定する。よって、本発明の第1の実施形態は、対象領域内に2人のユーザ40が対面している状況で各々のユーザ40の感情発生源の推定を行い、各々のユーザ40に対して感情発生源に応じたサービスを適切に提供することが可能である。
以上、本発明の第1の実施形態について説明した。続いて、本発明の第2の実施形態について説明する。第2の実施形態では、対象領域内に3人のユーザ40が存在する状況で、計測情報に基づく感情発生源の推定が行われる例について説明する。なお、対象領域内に存在するユーザ40の人数は、かかる例に限定されない。以下では、第1の実施形態と異なる点のみを説明し、重複する点の説明は省略する。
まず、図7を参照して、本発明の第2の実施形態による感情推定システムの概要について説明する。図7は、本発明の第2の実施形態による感情推定システム1000-2の概要を示す図である。図7に示すように、感情推定システム1000-2は、感情推定サーバ10-2、センサ装置20-2、及びネットワーク30を備える。
第1の実施形態では、2人のユーザ40が対面している状況であったため、一方のユーザ40が影響を受けるまたは影響を与えるユーザ40は、もう一方のユーザ40であることが一意に予め定まっていた。そのため、感情推定サーバ10-1は、ユーザ40の感情を比較する前に、予め比較対象を決定する必要はなかった。しかしながら、第2の実施形態では、図7に示すように、ユーザ40a、ユーザ40b、及びユーザ40cの3人のユーザ40が存在する。そのため、あるユーザ40が影響を受けるまたは影響を与えるユーザ40は、他の2人のユーザ40のどちらであるかが一意に予め定まっていない。そのため、感情推定サーバ10-2は、ユーザ40の感情を比較する前に、予め比較対象を決定する必要がある。
センサ装置20-2は、感情情報に加え、感情の比較対象を決定するための情報を計測する。一例として、センサ装置20-2は、ユーザ40の姿勢情報と位置情報を計測する。計測後、センサ装置20-2は、ネットワーク30を介して、計測した姿勢情報及び位置情報を感情推定サーバ10-2へ送信する。
感情推定システム1000-2におけるネットワーク30の構成及び機能は、「<1-1.システム概要>の(3)ネットワーク30」にて説明した内容と同一であるため、本章での説明を省略する。
以上、本発明の第2の実施形態による感情推定システム1000-2の概要について説明した。続いて、図8を参照して、本発明の第2の実施形態による感情推定サーバ10-2の機能構成例について説明する。図8は、本発明の第2の実施形態による感情推定サーバ10-2の機能構成例を示すブロック図である。図8に示すように、感情推定サーバ10-2は、通信部110、制御部120-2、及び記憶部130を備える。
感情推定サーバ10-2における通信部110の機能は、「<1-2.機能構成例>の(1)通信部110」にて説明した内容と同一であるため、本章での説明を省略する。
制御部120-2は、感情推定サーバ10-2の全体の動作を制御する機能を有する。当該機能を実現するために、制御部120-2は、図8に示すように、ユーザ計測部122-2、感情推定部124-2、ユーザ姿勢・位置計測部125、感情比較部126-2、及び感情発生源推定部128-2を有する。
ユーザ計測部122-2は、「<1-2.機能構成例>の(2-1)ユーザ計測部122-1」にて説明したユーザ計測部122-1と同様の機能を有する。
感情推定部124-2は、「<1-2.機能構成例>の(2-2)感情推定部124-1」にて説明した感情推定部124-1と同様の機能を有する。
ユーザ姿勢・位置計測部125は、センサ装置20-2に計測情報を計測させ、計測情報を取得する機能を有する。ユーザ姿勢・位置計測部125は、例えば、対象領域内に存在するユーザ40の姿勢情報及び位置情報を、センサ装置20-2に計測させる。この時、ユーザ姿勢・位置計測部125は、通信部110及びネットワーク30を介して、姿勢情報及び位置情報の計測に関する指示をセンサ装置20-2へ送信する。センサ装置20-2による姿勢情報及び位置情報の計測後、ユーザ姿勢・位置計測部125は、ネットワーク30及び通信部110を介してセンサ装置20-2から姿勢情報及び位置情報を取得し、取得した姿勢情報及び位置情報を感情比較部126-2へ出力する。
感情比較部126-2は、「<1-2.機能構成例>の(2-3)感情比較部126-1」にて説明した感情比較部126-1と同様の機能に加え、ユーザ40の感情の比較対象を決定する機能を有する。感情比較部126-2は、例えば、ユーザ姿勢・位置計測部125から入力されるユーザ40の姿勢情報及び位置情報に基づき、ユーザ40の感情の比較対象を決定する。比較対象の決定後、感情比較部126-2は、感情比較部126-1と同様にして、ユーザ40の感情と比較対象の感情とを比較し、各々の感情の共通性を判定する。判定後、感情比較部126-2は、判定結果を感情発生源推定部128-2へ出力する。
ここで、感情比較部126-2が比較対象を決定する処理である比較対象決定処理について詳細に説明する。感情比較部126-2は、各々のユーザ40の姿勢情報及び位置情報に基づき、複数のユーザ40の中から、第1のユーザの感情の比較対象となる第2のユーザを決定する。
ここで、図9を参照して、比較対象の決定例について説明する。図9は、本発明の第2の実施形態による複数のユーザ40の姿勢及び位置の一例を示す図である。図9に示す例では、ユーザ40a、ユーザ40b、ユーザ40cの視野方向と位置が2次元平面状に投射されている。矢印70aは、ユーザ40aの視野方向であり、2本の破線の間の領域の内、矢印70aが指す方向にある領域がユーザ40aの視野である。矢印70bは、ユーザ40bの視野方向であり、2本の一点鎖線の間の領域の内、矢印70bが指す方向にある領域がユーザ40bの視野である。矢印70cは、ユーザ40cの視野方向であり、2本の二点鎖線の間の領域の内、矢印70cが指す方向にある領域がユーザ40cの視野である。
感情発生源推定部128-2は、「<1-2.機能構成例>の(2-4)感情発生源推定部128-1」にて感情発生源推定部128-2の機能に加え、比較対象の有無に応じた感情発生源の推定を行う機能を有する。
比較対象が存在する場合、感情発生源推定部128-2は、共通性の判定結果に応じて感情発生源を推定する。例えば、共通性が認められ、かつ第1のユーザの感情と前回推定時の比較対象の感情とが同一である比較対象が存在する場合、感情発生源推定部128-2は、前回推定時の比較対象の感情発生源を、第1のユーザの感情発生源と推定する。一例として、第1のユーザがユーザ40aであり、比較対象がユーザ40bであるとする。この時、感情発生源推定部128-2は、ユーザ40aの感情と前回推定時のユーザ40bの感情とが同一であれば、前回推定時のユーザ40bの感情発生源を、ユーザ40aの感情発生源と推定する。
比較対象が存在しない場合、感情発生源推定部128-2は、第1のユーザを、第1のユーザの感情発生源と推定する。一例として、第1のユーザがユーザ40aであり、比較対象が存在しない場合、感情発生源推定部128-2は、ユーザ40aを、ユーザ40aの感情発生源と推定する。
感情推定サーバ10-2における記憶部130の機能は、「<1-2.機能構成例>の(3)記憶部130」にて説明した内容と同一であるため、本章での説明を省略する。
以上、本発明の第2の実施形態による感情推定サーバ10-2の機能構成例について説明した。続いて、本発明の第2の実施形態による感情推定サーバ10-2における処理例について説明する。
まず、図10を参照して、本発明の第2の実施形態による感情推定サーバ10-2におけるメイン処理の流れについて説明する。図10は、本発明の第2の実施形態によるメイン処理の流れの一例を示すフローチャートである。
続いて、図11を参照して、本発明の第2の実施形態による感情推定サーバ10-2における感情発生源推定処理の流れについて説明する。図11は、本発明の第2の実施形態による感情発生源推定処理の流れの一例を示すフローチャートである。
以上説明したように本発明の第2の実施形態によれば、感情推定サーバ10-2は、対象領域内に3人のユーザ40が存在する状況で、各々のユーザ40の計測情報に基づき、各々のユーザ40の感情の推定及び比較を行い、各々のユーザ40の感情発生源を推定する。よって、本発明の第2の実施形態は、対象領域内に3人のユーザ40が存在する状況でも各々のユーザ40の感情発生源の推定を行い、各々のユーザ40に対して感情発生源に応じたサービスを適切に提供することが可能である。
続いて、本発明の実施形態に係る変形例について説明する。以下では、本発明の実施形態の幾つかの変形例を説明する。なお、以下に説明する各変形例は、単独で本発明の実施形態に適用されてもよいし、組み合わせで本発明の実施形態に適用されてもよい。また、各変形例は、本発明の実施形態で説明した構成に代えて適用されてもよいし、本発明の実施形態で説明した構成に対して追加的に適用されてもよい。
上述の実施形態では、感情情報を計測するセンサ装置20として、ユーザ40と接触しない(非接触な)センサ装置、ユーザ40が装着しない(非装着な)センサ装置が用いられる例を説明した。感情情報を計測するセンサ装置20には、ユーザ40と接触するセンサ装置、ユーザ40が装着するセンサ装置が用いられてもよい。具体的なセンサ装置の一例として、ユーザ40の脈拍数、発汗量、呼吸数等の生体情報を計測するためのセンサ装置が挙げられる。接触の一例として、センサ装置が搭載されたスマートフォンをユーザ40が所持することによる接触が挙げられる。なお、センサ装置は、ユーザ40と直接接触してもよい。また、装着の一例として、センサ装置が搭載されたウェアラブルデバイスをユーザ40が装着することが挙げられる。なお、センサ装置は、ユーザ40に直接装着されてもよい。また、センサ装置は、補助具を組み合わせて用いるものであってもよい。
上述の実施形態では、姿勢情報及び位置情報を計測するセンサ装置20として、ユーザ40と接触しない(非接触な)センサ装置、ユーザ40が装着しない(非装着な)センサ装置が用いられる例を説明した。姿勢情報及び位置情報を計測するセンサ装置20には、ユーザ40と接触するセンサ装置、ユーザ40が装着するセンサ装置が用いられてもよい。具体的なセンサ装置の一例として、ビーコンやマーカを計測するセンサ装置が挙げられる。接触の一例として、センサ装置が搭載されたスマートフォンをユーザ40が所持することによる接触が挙げられる。なお、センサ装置は、ユーザ40と直接接触してもよい。また、装着の一例として、センサ装置が搭載されたウェアラブルデバイスをユーザ40が装着することが挙げられる。なお、センサ装置は、ユーザ40に直接装着されてもよい。また、センサ装置は、補助具を組み合わせて用いるものであってもよい。
上述の実施形態では、第1のユーザの感情と第2のユーザの感情に共通性が認められる場合、第1のユーザの感情を、前回推定時の第1のユーザの感情または第2のユーザの感情と比較する例について説明した。制御部120は、推定したユーザ40の感情と感情発生源をタイムスタンプによって管理し、当該タイムスタンプの値に基づく感情の比較を行ってもよい。
最後に、図12を参照して、本発明の一実施形態による感情推定装置のハードウェア構成例について説明する。図12は、本発明の一実施形態による感情推定装置のハードウェア構成例を示すブロック図である。なお、図12に示す感情推定装置900は、例えば、図2に示した感情推定サーバ10-1及び図8に示した感情推定サーバ10-2を実現し得る。各実施形態による感情推定サーバ10における情報処理は、ソフトウェアと、以下に説明するハードウェアとの協働により実現される。
以上説明したように、本発明の実施形態によれば、感情推定装置は、ユーザの計測情報から抽出されるユーザの特徴量に基づき、ユーザの感情を推定する。また、感情推定装置は、推定した第1のユーザの感情と第2のユーザの感情とを比較し、第1のユーザの感情と第2のユーザの感情との共通性を判定する。そして、感情推定装置は、共通性が認められる場合、第1のユーザの感情発生源が第1のユーザまたは第2のユーザであるかを推定する。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
20 センサ装置
30 ネットワーク
110 通信部
120 制御部
122 ユーザ計測部
124 感情推定部
125 ユーザ姿勢・位置計測部
126 感情比較部
128 感情発生源推定部
130 記憶部
1000 感情推定システム
Claims (20)
- ユーザの計測情報から抽出される前記ユーザの特徴量に基づき、前記ユーザの感情を推定する感情推定部と、
前記感情推定部が推定した第1のユーザの前記感情と第2のユーザの前記感情とを比較し、前記第1のユーザの前記感情と前記第2のユーザの前記感情との共通性を判定する感情比較部と、
前記共通性が認められる場合、前記第1のユーザの前記感情の発生源が前記第1のユーザまたは前記第2のユーザであるかを推定する感情発生源推定部と、
を備える、感情推定装置。 - 前記感情発生源推定部は、前記第1のユーザと前記第2のユーザの内、前記共通性が認められた前記感情をより早く表出していたユーザを、前記第1のユーザの前記感情の前記発生源と推定する、請求項1に記載の感情推定装置。
- 前記第1のユーザの前記感情と前回推定時の前記第1のユーザの前記感情とが同一である場合、
前記感情発生源推定部は、前回推定時の前記第1のユーザの前記感情の前記発生源を、前記第1のユーザの前記感情の前記発生源と推定する、請求項2に記載の感情推定装置。 - 前記第1のユーザの前記感情と前回推定時の前記第1のユーザの前記感情とが同一でなく、かつ前記第1のユーザの前記感情と前回推定時の前記第2のユーザの前記感情とが同一である場合、
前記感情発生源推定部は、前記第2のユーザを、前記第1のユーザの前記感情の前記発生源と推定する、請求項2に記載の感情推定装置。 - 前記第1のユーザの前記感情と前回推定時の前記第1のユーザの前記感情とが同一でなく、かつ前記第1のユーザの前記感情と前回推定時の前記第2のユーザの前記感情とが同一でない場合、
前記感情発生源推定部は、前記第1のユーザを、前記第1のユーザの前記感情の前記発生源と推定する、請求項2に記載の感情推定装置。 - 前記共通性が認められない場合、
前記感情発生源推定部は、前記第1のユーザを、前記第1のユーザの前記感情の前記発生源と推定する、請求項1~5のいずれか1項に記載の感情推定装置。 - 前記感情推定部が初めて前記第1のユーザの前記感情を推定した場合、
前記感情発生源推定部は、前記第1のユーザを、前記第1のユーザの前記感情の前記発生源と推定する、請求項1~6のいずれか1項に記載の感情推定装置。 - 前記感情比較部は、各々の前記ユーザの位置情報及び姿勢情報に基づき、複数の前記ユーザの中から、前記第1のユーザの前記感情の比較対象となる前記第2のユーザを決定する、請求項1~7のいずれか1項に記載の感情推定装置。
- 前記感情比較部は、前記姿勢情報に基づき、前記第1のユーザの視野方向を推定し、前記位置情報に基づき、複数の前記ユーザの中から前記第1のユーザの前記視野方向に存在する前記ユーザを推定し、推定した前記ユーザを、前記比較対象となる前記第2のユーザと決定する、請求項8に記載の感情推定装置。
- 複数の前記比較対象が存在する場合、
前記感情比較部は、前記第1のユーザの前記感情と複数の前記比較対象の各々の前記感情とを比較し、前記第1のユーザの前記感情と複数の前記比較対象の各々の前記感情との前記共通性を判定する、請求項9に記載の感情推定装置。 - 前記共通性が認められ、かつ前記第1のユーザの前記感情と前回推定時の前記比較対象の前記感情とが同一である前記比較対象が存在する場合、
前記感情発生源推定部は、前回推定時の前記比較対象の前記感情の前記発生源を、前記第1のユーザの前記感情の前記発生源と推定する、請求項10に記載の感情推定装置。 - 前記共通性が認められる前記比較対象が存在しない、または前記第1のユーザの前記感情と前回推定時の前記比較対象の前記感情とが同一である前記比較対象が存在しない場合、
前記感情発生源推定部は、前記第1のユーザを、前記第1のユーザの前記感情の前記発生源と推定する、請求項10に記載の感情推定装置。 - 前記比較対象が存在しない場合、
前記感情発生源推定部は、前記第1のユーザを、前記第1のユーザの前記感情の前記発生源と推定する、請求項9に記載の感情推定装置。 - 前記感情比較部は、前記感情のカテゴリを示す2次元円環モデルに基づき、前記第1のユーザの前記感情と前記第2のユーザの前記感情とを分類し、各々の前記感情が分類された前記カテゴリを比較することで、前記共通性の判定を行う、請求項1~13のいずれか1項に記載の感情推定装置。
- 前記第1のユーザの前記感情が分類されたカテゴリと前記第2のユーザの前記感情が分類されたカテゴリとが同一のカテゴリである場合、
前記感情比較部は、前記第1のユーザの前記感情と前記第2のユーザの前記感情とに前記共通性があると判定する、請求項14に記載の感情推定装置。 - 前記感情推定部は、前記ユーザの前記感情を機械学習により推定する、請求項1~15のいずれか1項に記載の感情推定装置。
- 前記特徴量は、前記ユーザの顔画像から抽出される前記ユーザの表情の変化を示す情報である、請求項1~16のいずれか1項に記載の感情推定装置。
- ユーザの計測情報から抽出される前記ユーザの特徴量に基づき、前記ユーザの感情を推定することと、
前記推定することにより推定した第1のユーザの前記感情と第2のユーザの前記感情とを比較し、前記第1のユーザの前記感情と前記第2のユーザの前記感情との共通性を判定することと、
前記共通性が認められる場合、前記第1のユーザの前記感情の発生源が前記第1のユーザまたは前記第2のユーザであるかを推定することと、
を含む、プロセッサにより実行される感情推定方法。 - コンピュータを、
ユーザの計測情報から抽出される前記ユーザの特徴量に基づき、前記ユーザの感情を推定する感情推定部と、
前記感情推定部が推定した第1のユーザの前記感情と第2のユーザの前記感情とを比較し、前記第1のユーザの前記感情と前記第2のユーザの前記感情との共通性を判定する感情比較部と、
前記共通性が認められる場合、前記第1のユーザの前記感情の発生源が前記第1のユーザまたは前記第2のユーザであるかを推定する感情発生源推定部と、
として機能させるための、プログラム。 - ユーザの計測情報から抽出される前記ユーザの特徴量に基づき、前記ユーザの感情を推定する感情推定部と、
前記感情推定部が推定した第1のユーザの前記感情と第2のユーザの前記感情とを比較し、前記第1のユーザの前記感情と前記第2のユーザの前記感情との共通性を判定する感情比較部と、
前記共通性が認められる場合、前記第1のユーザの前記感情の発生源が前記第1のユーザまたは前記第2のユーザであるかを推定する感情発生源推定部と、
を備える、感情推定システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019026724A JP7172705B2 (ja) | 2019-02-18 | 2019-02-18 | 感情推定装置、感情推定方法、プログラム、及び感情推定システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019026724A JP7172705B2 (ja) | 2019-02-18 | 2019-02-18 | 感情推定装置、感情推定方法、プログラム、及び感情推定システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020130528A JP2020130528A (ja) | 2020-08-31 |
JP7172705B2 true JP7172705B2 (ja) | 2022-11-16 |
Family
ID=72261505
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019026724A Active JP7172705B2 (ja) | 2019-02-18 | 2019-02-18 | 感情推定装置、感情推定方法、プログラム、及び感情推定システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7172705B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022071797A (ja) * | 2020-10-28 | 2022-05-16 | 株式会社日本総合研究所 | 車両及び表示方法 |
WO2022094485A1 (en) | 2020-11-02 | 2022-05-05 | ViralMoment Inc. | Contextual sentiment analysis of digital memes and trends systems and methods |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012185727A (ja) | 2011-03-07 | 2012-09-27 | Nippon Telegr & Teleph Corp <Ntt> | 対話状態推定装置、方法、及びプログラム |
US20150317564A1 (en) | 2014-05-05 | 2015-11-05 | International Business Machines Corporation | Trait-based early detection of influencers on social media |
US20160253688A1 (en) | 2015-02-24 | 2016-09-01 | Aaron David NIELSEN | System and method of analyzing social media to predict the churn propensity of an individual or community of customers |
WO2016178329A1 (ja) | 2015-05-07 | 2016-11-10 | ソニー株式会社 | 情報処理システム、制御方法、および記憶媒体 |
JP2017021530A (ja) | 2015-07-09 | 2017-01-26 | 富士通株式会社 | 関心度判定装置、関心度判定方法および関心度判定プログラム |
US20180184959A1 (en) | 2015-04-23 | 2018-07-05 | Sony Corporation | Information processing device, control method, and program |
CN109410082A (zh) | 2018-10-31 | 2019-03-01 | 北京航空航天大学 | 一种基于用户情绪分布的在线社交距离估计方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101045659B1 (ko) * | 2009-02-19 | 2011-06-30 | 강장묵 | 감성정보 서비스 시스템 및 방법 |
-
2019
- 2019-02-18 JP JP2019026724A patent/JP7172705B2/ja active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012185727A (ja) | 2011-03-07 | 2012-09-27 | Nippon Telegr & Teleph Corp <Ntt> | 対話状態推定装置、方法、及びプログラム |
US20150317564A1 (en) | 2014-05-05 | 2015-11-05 | International Business Machines Corporation | Trait-based early detection of influencers on social media |
US20160253688A1 (en) | 2015-02-24 | 2016-09-01 | Aaron David NIELSEN | System and method of analyzing social media to predict the churn propensity of an individual or community of customers |
US20180184959A1 (en) | 2015-04-23 | 2018-07-05 | Sony Corporation | Information processing device, control method, and program |
WO2016178329A1 (ja) | 2015-05-07 | 2016-11-10 | ソニー株式会社 | 情報処理システム、制御方法、および記憶媒体 |
JP2017021530A (ja) | 2015-07-09 | 2017-01-26 | 富士通株式会社 | 関心度判定装置、関心度判定方法および関心度判定プログラム |
CN109410082A (zh) | 2018-10-31 | 2019-03-01 | 北京航空航天大学 | 一种基于用户情绪分布的在线社交距离估计方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2020130528A (ja) | 2020-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9800834B2 (en) | Method and system of group interaction by user state detection | |
US11864606B2 (en) | Smart article visual communication based on facial movement | |
Min et al. | Exploring audio and kinetic sensing on earable devices | |
US11308787B2 (en) | Information processing system, recording medium, and information processing method | |
JP2016147006A (ja) | 健康管理補助装置及び健康管理補助方法 | |
US20200005668A1 (en) | Computer readable recording medium and system for providing automatic recommendations based on physiological data of individuals | |
JP2016510144A (ja) | ナチュラルユーザインプットの関与の検出 | |
KR102045575B1 (ko) | 스마트 미러 디스플레이 장치 | |
JP7172705B2 (ja) | 感情推定装置、感情推定方法、プログラム、及び感情推定システム | |
JP2020120908A (ja) | 精神状態推定システム、精神状態推定方法、及び、プログラム | |
TWI734246B (zh) | 人臉辨識的方法及裝置 | |
JP2017224166A (ja) | 画像生成装置、画像生成プログラム及び画像生成方法 | |
US9619023B2 (en) | Terminal, system, communication method, and recording medium storing a communication program | |
WO2017175447A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
WO2019150954A1 (ja) | 情報処理装置 | |
US20220189200A1 (en) | Information processing system and information processing method | |
US11935140B2 (en) | Initiating communication between first and second users | |
JP2015162015A (ja) | 情報取得システム、情報取得方法及びコンピュータプログラム | |
JP6755529B1 (ja) | 情報処理方法、情報処理装置、及び制御プログラム | |
WO2021161387A1 (ja) | 処理装置、処理方法及び記憶媒体 | |
KR20210150988A (ko) | 활력 지수 획득 장치 및 방법 | |
JP2014008096A (ja) | 電子聴診器、電子聴診システム、情報処理方法、制御プログラム、および記録媒体 | |
Hassani et al. | Advanced 3D movement analysis algorithms for robust functional capacity assessment | |
JP7138998B1 (ja) | ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム | |
WO2023145350A1 (ja) | 情報処理方法、情報処理システムおよびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190327 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190328 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211110 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220922 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221004 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221017 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7172705 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |