JP7172705B2 - 感情推定装置、感情推定方法、プログラム、及び感情推定システム - Google Patents

感情推定装置、感情推定方法、プログラム、及び感情推定システム Download PDF

Info

Publication number
JP7172705B2
JP7172705B2 JP2019026724A JP2019026724A JP7172705B2 JP 7172705 B2 JP7172705 B2 JP 7172705B2 JP 2019026724 A JP2019026724 A JP 2019026724A JP 2019026724 A JP2019026724 A JP 2019026724A JP 7172705 B2 JP7172705 B2 JP 7172705B2
Authority
JP
Japan
Prior art keywords
emotion
user
estimation
source
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019026724A
Other languages
English (en)
Other versions
JP2020130528A (ja
Inventor
寛之 福島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2019026724A priority Critical patent/JP7172705B2/ja
Publication of JP2020130528A publication Critical patent/JP2020130528A/ja
Application granted granted Critical
Publication of JP7172705B2 publication Critical patent/JP7172705B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、感情推定装置、感情推定方法、プログラム、及び感情推定システムに関する。
近年、人を対象とした様々な計測情報に基づき、当該人の感情を推定する技術が各種提案されている。さらに、推定された感情に応じたサービスの提供も行われ始めている。
上記技術に関連し、下記特許文献1には、例えば、ユーザと他のユーザが対面している際に、ユーザの感情を推定することで、他のユーザの感情を間接的に推定する技術が開示されている。感情は、ユーザ間で伝染し得るものである。例えば、ユーザと他のユーザとが対面で会話をしている際に、他のユーザの感情は、ユーザの感情の影響を受け、ユーザの感情と相関性の高い感情となり得る。当該技術では、センサ装置により計測した情報に基づきユーザの感情を推定し、推定した感情と相関性の高い感情が他のユーザに伝染しているとみなすことで、他のユーザに関する情報を計測することなく他のユーザの感情を推定する。
国際公開第2016/170810号
しかしながら、上記特許文献1の技術では、推定されたユーザの感情及び他のユーザの感情の各々が、ユーザと他のユーザのどちらが感情の発生源(以下、「感情発生源」とも称される)であるかを推定することまでは考慮されていない。感情発生源が考慮されることで、例えば、ユーザが感情発生源であるか否かに応じたサービスがユーザに提供され得る。そのため、感情に応じたサービスを提供する際には、感情発生源も考慮されることが望ましい。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、ユーザに対して感情発生源に応じたサービスを適切に提供することが可能な、新規かつ改良された感情推定装置、感情推定方法、プログラム、及び感情推定システムを提供することにある。
上記課題を解決するために、本発明のある観点によれば、ユーザの計測情報から抽出される前記ユーザの特徴量に基づき、前記ユーザの感情を推定する感情推定部と、前記感情推定部が推定した第1のユーザの前記感情と第2のユーザの前記感情とを比較し、前記第1のユーザの前記感情と前記第2のユーザの前記感情との共通性を判定する感情比較部と、前記共通性が認められる場合、前記第1のユーザの前記感情の発生源が前記第1のユーザまたは前記第2のユーザであるかを推定する感情発生源推定部と、を備える、感情推定装置が提供される。
前記感情発生源推定部は、前記第1のユーザと前記第2のユーザの内、前記共通性が認められた前記感情をより早く表出していたユーザを、前記第1のユーザの前記感情の前記発生源と推定してもよい。
前記第1のユーザの前記感情と前回推定時の前記第1のユーザの前記感情とが同一である場合、前記感情発生源推定部は、前回推定時の前記第1のユーザの前記感情の前記発生源を、前記第1のユーザの前記感情の前記発生源と推定してもよい。
前記第1のユーザの前記感情と前回推定時の前記第1のユーザの前記感情とが同一でなく、かつ前記第1のユーザの前記感情と前回推定時の前記第2のユーザの前記感情とが同一である場合、前記感情発生源推定部は、前記第2のユーザを、前記第1のユーザの前記感情の前記発生源と推定してもよい。
前記第1のユーザの前記感情と前回推定時の前記第1のユーザの前記感情とが同一でなく、かつ前記第1のユーザの前記感情と前回推定時の前記第2のユーザの前記感情とが同一でない場合、前記感情発生源推定部は、前記第1のユーザを、前記第1のユーザの前記感情の前記発生源と推定してもよい。
前記共通性が認められない場合、前記感情発生源推定部は、前記第1のユーザを、前記第1のユーザの前記感情の前記発生源と推定してもよい。
前記感情推定部が初めて前記第1のユーザの前記感情を推定した場合、前記感情発生源推定部は、前記第1のユーザを、前記第1のユーザの前記感情の前記発生源と推定してもよい。
前記感情比較部は、各々の前記ユーザの位置情報及び姿勢情報に基づき、複数の前記ユーザの中から、前記第1のユーザの前記感情の比較対象となる前記第2のユーザを決定してもよい。
前記感情比較部は、前記姿勢情報に基づき、前記第1のユーザの視野方向を推定し、前記位置情報に基づき、複数の前記ユーザの中から前記第1のユーザの前記視野方向に存在する前記ユーザを推定し、推定した前記ユーザを、前記比較対象となる前記第2のユーザと決定してもよい。
複数の前記比較対象が存在する場合、前記感情比較部は、前記第1のユーザの前記感情と複数の前記比較対象の各々の前記感情とを比較し、前記第1のユーザの前記感情と複数の前記比較対象の各々の前記感情との前記共通性を判定してもよい。
前記共通性が認められ、かつ前記第1のユーザの前記感情と前回推定時の前記比較対象の前記感情とが同一である前記比較対象が存在する場合、前記感情発生源推定部は、前回推定時の前記比較対象の前記感情の前記発生源を、前記第1のユーザの前記感情の前記発生源と推定してもよい。
前記共通性が認められる前記比較対象が存在しない、または前記第1のユーザの前記感情と前回推定時の前記比較対象の前記感情とが同一である前記比較対象が存在しない場合、前記感情発生源推定部は、前記第1のユーザを、前記第1のユーザの前記感情の前記発生源と推定してもよい。
前記比較対象が存在しない場合、前記感情発生源推定部は、前記第1のユーザを、前記第1のユーザの前記感情の前記発生源と推定してもよい。
前記感情比較部は、前記感情のカテゴリを示す2次元円環モデルに基づき、前記第1のユーザの前記感情と前記第2のユーザの前記感情とを分類し、各々の前記感情が分類された前記カテゴリを比較することで、前記共通性の判定を行ってもよい。
前記第1のユーザの前記感情が分類されたカテゴリと前記第2のユーザの前記感情が分類されたカテゴリとが同一のカテゴリである場合、前記感情比較部は、前記第1のユーザの前記感情と前記第2のユーザの前記感情とに前記共通性があると判定してもよい。
前記感情推定部は、前記ユーザの前記感情を機械学習により推定してもよい。
前記特徴量は、前記ユーザの顔画像から抽出される前記ユーザの表情の変化を示す情報であってもよい。
また、上記課題を解決するために、本発明の別の観点によれば、ユーザの計測情報から抽出される前記ユーザの特徴量に基づき、前記ユーザの感情を推定することと、前記推定することにより推定した第1のユーザの前記感情と第2のユーザの前記感情とを比較し、前記第1のユーザの前記感情と前記第2のユーザの前記感情との共通性を判定することと、前記共通性が認められる場合、前記第1のユーザの前記感情の発生源が前記第1のユーザまたは前記第2のユーザであるかを推定することと、を含む、プロセッサにより実行される感情推定方法が提供される。
また、上記課題を解決するために、本発明の別の観点によれば、コンピュータを、ユーザの計測情報から抽出される前記ユーザの特徴量に基づき、前記ユーザの感情を推定する感情推定部と、前記感情推定部が推定した第1のユーザの前記感情と第2のユーザの前記感情とを比較し、前記第1のユーザの前記感情と前記第2のユーザの前記感情との共通性を判定する感情比較部と、前記共通性が認められる場合、前記第1のユーザの前記感情の発生源が前記第1のユーザまたは前記第2のユーザであるかを推定する感情発生源推定部と、として機能させるための、プログラムが提供される。
また、上記課題を解決するために、本発明の別の観点によれば、ユーザの計測情報から抽出される前記ユーザの特徴量に基づき、前記ユーザの感情を推定する感情推定部と、前記感情推定部が推定した第1のユーザの前記感情と第2のユーザの前記感情とを比較し、前記第1のユーザの前記感情と前記第2のユーザの前記感情との共通性を判定する感情比較部と、前記共通性が認められる場合、前記第1のユーザの前記感情の発生源が前記第1のユーザまたは前記第2のユーザであるかを推定する感情発生源推定部と、を備える、感情推定システムが提供される。
以上説明したように本発明によれば、ユーザに対して感情発生源に応じたサービスを適切に提供することが可能である。
本発明の第1の実施形態による感情推定システムの概要を示す図である。 本発明の第1の実施形態による感情推定サーバの機能構成例を示すブロック図である。 本発明の一実施形態による2次元円環モデルの一例を示す図である。 本発明の一実施形態による記憶部に記憶される情報の一例を示す図である。 本発明の第1の実施形態によるメイン処理の流れの一例を示すフローチャートである。 本発明の第1の実施形態による感情発生源推定処理の流れの一例を示すフローチャートである。 本発明の第2の実施形態による感情推定システムの概要を示す図である。 本発明の第2の実施形態による感情推定サーバの機能構成例を示すブロック図である。 本発明の第2の実施形態による複数のユーザの姿勢及び位置の一例を示す図である。 本発明の第2の実施形態によるメイン処理の流れの一例を示すフローチャートである。 本発明の第2の実施形態による感情発生源推定処理の流れの一例を示すフローチャートである。 本発明の一実施形態による感情推定装置のハードウェア構成例を示すブロック図である。
以下に添付図面を参照しながら、本発明の実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書および図面において、実質的に同一の機能構成または論理的意義を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。ただし、実質的に同一の機能構成または論理的意義を有する複数の構成要素の各々を特に区別する必要がない場合、複数の構成要素の各々に同一符号のみを付する。
<<1.第1の実施形態>>
まず、本発明の第1の実施形態について説明する。第1の実施形態では、2人のユーザが対面している状況で、センサ装置により計測されるユーザに関する情報(以下、「計測情報」とも称される)に基づく感情発生源の推定が行われる例について説明する。
<1-1.システム概要>
まず、図1を参照して、本発明の第1の実施形態による感情推定システムの概要について説明する。図1は、本発明の第1の実施形態による感情推定システム1000-1の概要を示す図である。図1に示すように、感情推定システム1000-1は、感情推定サーバ10-1、センサ装置20-1、及びネットワーク30を備える。
(1)感情推定サーバ10-1
感情推定サーバ10-1は、ユーザの感情発生源を推定する感情推定装置である。以下では、感情推定装置がサーバ装置により実現される例について説明するが、感情推定装置を実現する装置は、かかる例に限定されない。例えば、感情推定装置は、スマートフォン、タブレット端末、またはウェアラブル端末等の装置により実現されてもよい。
感情推定サーバ10-1は、2人のユーザの感情を推定し、推定した各々のユーザの感情を比較することで、各々のユーザの感情発生源を推定する。具体的に、まず、感情推定サーバ10-1は、センサ装置20-1による計測が可能な領域(以下、「対象領域」とも称される)内に存在するユーザの計測情報に基づき、ユーザの感情の推定を行う。例えば、感情推定サーバ10-1は、センサ装置20-1が計測するユーザ40a(第1のユーザ)の計測情報に基づき、ユーザ40aの感情を推定する。また、感情推定サーバ10-1は、センサ装置20-1が計測するユーザ40b(第2のユーザ)の計測情報に基づき、ユーザ40bの感情を推定する。
次いで、感情推定サーバ10-1は、推定したユーザ40aの感情とユーザ40bの感情とを比較し、各々の感情の共通性を判定する。例えば、感情推定サーバ10-1は、感情のカテゴリを示す情報に基づき、ユーザ40aの感情とユーザ40bの感情とを比較し、各々の感情の共通性の有無を判定する。
そして、感情推定サーバ10-1は、各々のユーザの感情の共通性の判定結果に基づき、各々のユーザの感情発生源を推定する。例えば、各々のユーザの感情に共通性が認められる場合、感情推定サーバ10-1は、ユーザ40aとユーザ40bの内、共通性が認められた感情をより早く表出していたユーザ40を、ユーザ40aの感情発生源と推定する。同様に、感情推定サーバ10-1は、ユーザ40bの感情発生源も推定し得る。
かかる構成により、感情推定サーバ10-1は、ユーザ40の感情発生源を推定することができる。さらに、感情推定サーバ10-1は、ユーザ40に対して、推定した感情発生源に応じたサービスを適切に提供することができる。
なお、第1のユーザまたは第2のユーザとなるユーザは、感情推定サーバ10-1による感情発生源の推定対象及び感情の比較対象に応じて変わり得る。例えば、感情推定サーバ10-1による感情発生源の推定対象がユーザ40a、感情の比較対象がユーザ40bである場合、ユーザ40aが第1のユーザとなり、ユーザ40bが第2のユーザとなる。他方、感情推定サーバ10-1による感情発生源の推定対象がユーザ40b、感情の比較対象がユーザ40aである場合、ユーザ40bが第1のユーザとなり、ユーザ40aが第2のユーザとなる。
なお、ユーザ40aとユーザ40bの各々が存在する空間は、同一の空間に限定されない。例えば、ユーザ40aとユーザ40bとが異なる空間に存在してもよく、感情推定サーバ10-1は、各々の空間に設けられたセンサ装置20-1による計測情報に基づき、ユーザ40の感情発生源を推定してもよい。一例として、異なる部屋に存在するユーザ40aとユーザ40bとが、テレビ会議にて会話をしている例が挙げられる。
(2)センサ装置20-1
センサ装置20-1は、感情推定サーバ10-1における処理にて用いられる計測情報を計測する装置である。センサ装置20-1は、例えば、感情推定サーバ10-1がユーザ40の感情を推定するための情報(以下、「感情情報」とも称される)を計測する。感情情報の計測後、センサ装置20-1は、ネットワーク30を介して、計測した感情情報を感情推定サーバ10へ送信する。そのため、センサ装置20-1は、計測情報を感情推定サーバ10-1へ送信するための通信機能も有する。
感情情報を計測するセンサ装置20-1は、多様なセンサ装置により実現され得る。例えば、感情情報を計測するセンサ装置20-1は、カメラ、サーモグラフィカメラ、またはマイクロフォン等の少なくともいずれか1つにより実現され得る。なお、以下では、センサ装置20-1がカメラにより実現される例について説明する。
カメラは、RGBカメラ等のレンズ系、駆動系、及び撮像素子を有し、画像(静止画像又は動画像)を撮像する撮像装置である。センサ装置20-1は、当該カメラにより、対象領域内のユーザ40の顔が撮像された顔画像を取得することができる。
サーモグラフィカメラは、サーモ画像を取得する装置である。センサ装置20-1は、当該サーモグラフィカメラにより、対象領域内のユーザ40の体表面の体温の分布を示すサーモ画像を取得することができる。
マイクロフォンは、周囲の音を検出する装置である。マイクロフォンは、周囲の音を収音し、アンプおよびADC(Analog Digital Converter)を介してデジタル信号に変換した音声データを出力する。センサ装置20-1は、当該マイクロフォンにより、対象領域内のユーザ40同士の会話の音声を取得することができる。
なお、センサ装置20-1の数は、特に限定されない。例えば、センサ装置20-1は、1つであってもよいし、ユーザの人数に応じた数のセンサ装置20-1が設置されてもよい。
(3)ネットワーク30
ネットワーク30は、感情推定サーバ10-1及びセンサ装置20-1を接続する機能を有する。ネットワーク30は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク30は、IP-VPN(Internet Protocol-Virtual Private Network)などの専用回線網を含んでもよい。また、ネットワーク30は、Wi-Fi(登録商標)、Bluetooth(登録商標)などの無線通信網を含んでもよい。
<1-2.機能構成例>
以上、本発明の第1の実施形態による感情推定システム1000-1の概要について説明した。続いて、図2を参照して、本発明の第1の実施形態による感情推定サーバの機能構成例について説明する。図2は、本発明の第1の実施形態による感情推定サーバ10-1の機能構成例を示すブロック図である。図2に示すように、感情推定サーバ10-1は、通信部110、制御部120-1、及び記憶部130を備える。
(1)通信部110
通信部110は、外部装置と通信を行う機能を有する。通信部110は、例えば、外部装置との通信において、外部装置から受信する情報を制御部120-1へ出力する。具体的に、通信部110は、ネットワーク30を介したセンサ装置20-1との通信において、センサ装置20-1から計測情報を受信し、制御部120-1へ出力する。
通信部110は、例えば、外部装置との通信において、制御部120-1から入力される情報を外部装置へ送信する。具体的に、通信部110は、制御部120-1のユーザ計測部122-1から入力される計測情報の取得に関する指示をセンサ装置20-1へ送信する。
(2)制御部120-1
制御部120-1は、感情推定サーバ10-1の全体の動作を制御する機能を有する。当該機能を実現するために、制御部120-1は、図2に示すように、ユーザ計測部122-1、感情推定部124-1、感情比較部126-1、及び感情発生源推定部128-1を有する。
(2-1)ユーザ計測部122-1
ユーザ計測部122-1は、センサ装置20-1に計測情報を計測させ、計測情報を取得する機能を有する。ユーザ計測部122-1は、例えば、感情推定部124-1による感情の推定の対象となるユーザ40の感情情報を、センサ装置20-1に計測させる。この時、ユーザ計測部122-1は、通信部110及びネットワーク30を介して、感情情報の計測に関する指示をセンサ装置20-1へ送信する。センサ装置20-1による感情情報の計測後、ユーザ計測部122-1は、ネットワーク30及び通信部110を介してセンサ装置20-1から感情情報を取得し、取得した感情情報を感情推定部124-1へ出力する。
上述の機能を実現するために、ユーザ計測部122-1は、第1のユーザ計測部122-1a及び第2のユーザ計測部122-1bを有する。
第1のユーザ計測部122-1aは、センサ装置20-1に第1のユーザの感情情報を計測させる機能を有する。例えば、第1のユーザがユーザ40aである場合、第1のユーザ計測部122-1aは、ユーザ40aの感情情報をセンサ装置20-1に計測させる。他方、第1のユーザがユーザ40bである場合、第1のユーザ計測部122-1aは、ユーザ40bの感情情報をセンサ装置20-1に計測させる。
第2のユーザ計測部122-1bは、センサ装置20-1に第2のユーザの感情情報を計測させる機能を有する。例えば、第2のユーザがユーザ40aである場合、第2のユーザ計測部122-1bは、ユーザ40aの感情情報をセンサ装置20-1に計測させる。他方、第2のユーザがユーザ40bである場合、第2のユーザ計測部122-1bは、ユーザ40bの感情情報をセンサ装置20-1に計測させる。
(2-2)感情推定部124-1
感情推定部124-1は、ユーザ40の感情を推定する機能を有する。感情推定部124-1は、例えば、ユーザ計測部122-1から入力された感情情報から抽出されるユーザ40の特徴量に基づき、ユーザ40の感情を推定する。感情の推定後、感情推定部124-1は、推定した感情を示す情報(例えば感情名または感情のカテゴリ名)を感情比較部126へ出力する。
特徴量は、感情情報から抽出されるユーザ40の特徴を示す情報である。感情情報がユーザ40の顔画像である場合、特徴量は、例えば、当該顔画像から抽出されるユーザ40の表情の変化を示す情報である。表情の変化を示す情報は、具体的に、ユーザ40の眉毛の上がり具合または下がり具合、ユーザ40の口角の上がり具合または下がり具合等である。
感情情報がユーザ40同士の会話の音声である場合、特徴量は、例えば、当該音声から抽出されるユーザ40の声の変化を示す情報である。声の変化を示す情報は、具体的に、ユーザ40の声質の変化、声量の変化、声の大きさの変化、会話の速度の変化等である。
感情情報がユーザ40のサーモ画像である場合、特徴量は、例えば、当該サーモ画像から抽出されるユーザ40の体温の変化を示す情報である。体温の変化を示す情報は、具体的に、ユーザ40の体温の上がり具合または下がり具合等である。
感情推定部124-1は、例えば、ユーザ40の感情を機械学習により推定する。機械学習の手法の一例として、SVM(Support Vector Machine)やディープラーニングが挙げられる。また、感情推定部124-1は、統計的手法を用いてユーザ40の感情を推定してもよい。
上述の機能を実現するために、感情推定部124-1は、第1のユーザ感情推定部124-1a及び第2のユーザ感情推定部124-1bを有する。
第1のユーザ感情推定部124-1aは、第1のユーザの感情を推定する機能を有する。例えば、第1のユーザがユーザ40aである場合、第1のユーザ感情推定部124-1aは、ユーザ40aの感情を推定する。他方、第1のユーザがユーザ40bである場合、第1のユーザ感情推定部124-1aは、ユーザ40bの感情を推定する。
第2のユーザ感情推定部124-1bは、第2のユーザの感情を推定する機能を有する。例えば、第2のユーザがユーザ40aである場合、第2のユーザ感情推定部124-1bは、ユーザ40aの感情を推定する。他方、第2のユーザがユーザ40bである場合、第2のユーザ感情推定部124-1bは、ユーザ40bの感情を推定する。
(2-3)感情比較部126-1
感情比較部126-1は、複数のユーザ40の感情を比較し、各々の感情の共通性を判定する機能を有する。例えば、感情比較部126-1は、感情推定部124-1から入力されるユーザ40aとユーザ40bの感情を比較し、各々の感情の共通性を判定する。具体的に、感情比較部126-1は、感情のカテゴリを示す情報に基づき、ユーザ40aの感情とユーザ40bの感情を分類し、各々の感情が分類されたカテゴリを比較することで、共通性の判定を行う。判定後、感情比較部126-1は、判定結果を感情発生源推定部128-1へ出力する。なお、感情比較部126-1は、ユーザ40の現在の感情と過去の感情とを比較してもよい。
(感情の分類方法)
感情の分類方法は、様々な方法が提案されている。本発明の実施形態では、例えば、ラッセル(Russell)の2次元円環モデルによる感情の分類方法が用いられる。ここで、図3を参照して、2次元円環モデルについて説明する。図3は、本発明の一実施形態による2次元円環モデルの一例を示す図である。
図3に示すように、2次元円環モデル50は、覚醒度の程度(覚醒-眠気)と快感情の程度(快-不快)の2次元上の軸に各感情を円環上に配することで感情全体を包括している。当該2次元円環モデル50は、本実施形態における感情のカテゴリを示す情報である。感情のカテゴリの一例として、図3に示すように、領域51の驚き、領域52の喜び、領域53の幸せ、領域54のリラックス、領域55の眠い、領域56の飽き、領域57の退屈、領域58の憂鬱、領域59の不満、領域60の怒り、領域61の恐れ等が挙げられる。
感情比較部126-1は、2次元円環モデルに基づき、ユーザ40aの感情とユーザ40bの感情とを分類し、各々の感情が分類されたカテゴリを比較することで、共通性の判定を行う。
例えば、ユーザ40aの感情が分類されたカテゴリとユーザ40bの感情が分類されたカテゴリとが同一のカテゴリである場合、感情比較部126-1は、ユーザ40aの感情とユーザ40bの感情とに共通性があると判定する。一例として、ユーザ40aの感情が領域51の驚きに、ユーザ40bの感情も領域51の驚きに分類されたとする。この場合、感情比較部126-1は、ユーザ40aの感情とユーザ40bの感情とが同一カテゴリに分類されているため、ユーザ40aの感情とユーザ40bの感情とに共通性があると判定する。
一方、ユーザ40aの感情が分類されたカテゴリとユーザ40bの感情が分類されたカテゴリとが同一のカテゴリでない場合、感情比較部126-1は、ユーザ40aの感情とユーザ40bの感情とに共通性がないと判定する。一例として、ユーザ40aの感情が領域51の驚きに、ユーザ40bの感情が領域52の喜びに分類されたとする。この場合、感情比較部126-1は、ユーザ40aの感情とユーザ40bの感情とが同一カテゴリに分類されていないため、ユーザ40aの感情とユーザ40bの感情とに共通性がないと判定する。
なお、感情比較部126-1は、領域51から領域61の領域の内、複数の領域を組み合わせて1つのカテゴリと捉えてもよい。例えば、感情比較部126-1は、領域51、領域52、領域53を覚醒-快の感情を示す1つのカテゴリと捉えてよい。また、感情比較部126-1は、領域54、領域55を快-眠気の感情を示す1つのカテゴリと捉えてよい。また、感情比較部126-1は、領域56、領域57、領域58を眠気-不快の感情を示す1つのカテゴリと捉えてよい。また、感情比較部126-1は、領域59、領域60、領域61を不快-覚醒の感情を示す1つのカテゴリと捉えてよい。
また、感情比較部126-1は、領域51、領域52、領域53、領域59、領域60、領域61を覚醒の感情を示す1つのカテゴリと捉えてよい。また、感情比較部126-1は、領域51、領域52、領域53、領域54、領域55を快の感情を示す1つのカテゴリと捉えてよい。また、感情比較部126-1は、領域54、領域55、領域56、領域57、領域58を眠気の感情を示す1つのカテゴリと捉えてよい。また、感情比較部126-1は、領域56、領域57、領域58、領域59、領域60、領域61を不快の感情を示す1つのカテゴリと捉えてよい。
なお、感情の分類方法は、かかる例に限定されない。他の例としては、例えばポール・エクマン(Paul Ekman)により提唱された、驚き、恐怖、怒り、嫌悪、悲しみ、幸福の六感情による分類方法が挙げられる。
(2-4)感情発生源推定部128-1
感情発生源推定部128-1は、ユーザ40の感情発生源を推定する機能を有する。例えば、感情発生源推定部128-1は、感情比較部126-1から入力される共通性の判定結果に基づき、ユーザ40aとユーザ40bの感情発生源を推定する。
ここで、図4を参照しながら、ユーザ40a及びユーザ40bの感情発生源の推定例について説明する。図4は、本発明の一実施形態による記憶部130に記憶される情報の一例を示す図である。なお、各々のユーザ40の現在の感情に関する情報は、図4に示す表のNo6の行に示されており、各々のユーザ40の前回推定時の感情に関する情報は、図4に示す表のNo5の行に示されているとする。
(共通性が認められる場合)
ユーザ40aの感情とユーザ40bの感情とに共通性が認められる場合、感情発生源推定部128-1は、ユーザ40aの感情発生源がユーザ40aまたはユーザ40bであるかを推定する。具体的に、感情発生源推定部128-1は、ユーザ40aの現在の感情と前回推定時の感情とが同一であるか否かに応じて、ユーザ40aの感情発生源を推定する。同様に、感情発生源推定部128-1は、ユーザ40bの感情発生源も推定する。
ユーザ40aの現在の感情と前回推定時の感情とが同一である場合、感情発生源推定部128-1は、ユーザ40aの現在の感情発生源として、前回推定時の感情発生源を継承する。例えば、ユーザ40aの現在の感情と前回推定時の感情とが同一である場合、感情発生源推定部128-1は、前回推定時のユーザ40aの感情の感情発生源を、ユーザ40aの感情発生源と推定する。図4に示す例の場合、ユーザ40aの現在の感情と前回推定時の感情はどちらも「喜び」であるため、ユーザ40aの現在の感情発生源には、前回推定時の感情発生源である「ユーザ40a」が継承される。同様に、ユーザ40bの現在の感情と前回推定時の感情とが同一である場合、感情発生源推定部128-1は、前回推定時のユーザ40bの感情の感情発生源を、ユーザ40bの感情発生源と推定する。
ユーザ40aの現在の感情と前回推定時の感情とが同一でない場合、感情発生源推定部128-1は、さらに、ユーザ40aの現在の感情と前回推定時のユーザ40bの感情とが同一であるか否かに応じて、ユーザ40aの感情発生源を推定する。同様に、感情発生源推定部128-1は、ユーザ40bの感情発生源も推定する。
ユーザ40aの現在の感情と前回推定時の感情とが同一でなく、かつユーザ40aの現在の感情と前回推定時のユーザ40bの感情とが同一である場合、感情発生源推定部128-1は、ユーザ40bを、ユーザ40aの感情発生源と推定する。同様に、ユーザ40bの現在の感情と前回推定時の感情とが同一でなく、かつユーザ40bの現在の感情と前回推定時のユーザ40aの感情とが同一である場合、感情発生源推定部128-1は、ユーザ40aを、ユーザ40bの感情発生源と推定する。図4に示す例の場合、ユーザ40bの現在の感情は「喜び」であり、前回推定時の感情は「退屈」であるため、ユーザ40bの現在の感情と前回推定時の感情とが同一でない。しかし、ユーザ40aの前回推定時の感情は「喜び」であり、ユーザ40bの現在の感情と同一である。よって、ユーザ40bの現在の感情発生源は、「ユーザ40a」と推定される。
ユーザ40aの現在の感情と前回推定時の感情とが同一でなく、かつユーザ40aの現在の感情と前回推定時のユーザ40bの感情とが同一でない場合、感情発生源推定部128-1は、ユーザ40aを、ユーザ40aの感情発生源と推定する。同様に、ユーザ40bの現在の感情と前回推定時の感情とが同一でなく、かつユーザ40bの現在の感情と前回推定時のユーザ40aの感情とが同一でない場合、感情発生源推定部128-1は、ユーザ40bを、ユーザ40bの感情発生源と推定する。
(共通性が認められない場合)
ユーザ40aの感情とユーザ40bの感情とに共通性が認められない場合、感情発生源推定部128-1は、各々のユーザ40自身を感情発生源と推定する。例えば、ユーザ40aの感情発生源の推定時、ユーザ40aの感情とユーザ40bの感情とに共通性が認められない場合、感情発生源推定部128-1は、ユーザ40aを、ユーザ40aの感情発生源と推定する。同様に、ユーザ40bの感情発生源の推定時、ユーザ40bの感情とユーザ40aの感情とに共通性が認められない場合、感情発生源推定部128-1は、ユーザ40bを、ユーザ40bの感情発生源と推定する。図4に示す例の場合、No2~No5の行に示すように、ユーザ40aの感情とユーザ40bの感情とは異なっており、共通性が認められないため、ユーザ40aの感情発生源は「ユーザ40a」、ユーザ40bの感情発生源は「ユーザ40b」と推定される。
(初回推定時)
なお、感情推定部124-1が初めてユーザ40aの感情を推定した場合、感情発生源推定部128-1は、ユーザ40aを、ユーザ40aの感情発生源と推定する。また、感情推定部124-1が初めてユーザ40bの感情を推定した場合、感情発生源推定部128-1は、ユーザ40bを、ユーザ40bの感情発生源と推定する。図4に示す例の場合、No1の行に示すように、ユーザ40aとユーザ40bの感情が初めて推定されているため、ユーザ40aの感情発生源は「ユーザ40a」、ユーザ40bの感情発生源は「ユーザ40b」と推定される。
(3)記憶部130
記憶部130は、感情推定サーバ10-1における処理に関する情報を記憶する機能を有する。例えば、記憶部130は、制御部120-1の感情推定部124-1が推定した各々のユーザの感情を記憶し得る。また、記憶部130は、制御部120-1の感情発生源推定部128-1が推定した各々のユーザの感情発生源を記憶し得る。
なお、記憶部130が記憶する情報は、上述の例に限定されない。例えば、記憶部130は、センサ装置20-1が計測した計測情報、各種アプリケーション等のプログラムを記憶してもよい。
<1-3.処理例>
以上、本発明の第1の実施形態による感情推定サーバ10-1の機能構成例について説明した。続いて、本発明の第1の実施形態による感情推定サーバ10-1における処理例について説明する。
(1)メイン処理
まず、図5を参照して、本発明の第1の実施形態による感情推定サーバ10-1におけるメイン処理の流れについて説明する。図5は、本発明の第1の実施形態によるメイン処理の流れの一例を示すフローチャートである。
図5に示すように、まず、制御部120-1の第1のユーザ計測部122-1aは、センサ装置20-1にユーザ40a(第1のユーザ)の感情情報を計測させ、ユーザ40aの感情情報を取得する(S102)。次いで、第1のユーザ感情推定部124-1aは、第1のユーザ計測部122-1aが取得したユーザ40aの感情情報に基づき、ユーザ40aの感情を推定する(S104)。
S102及びS104と並行して、第2のユーザ計測部122-1bは、センサ装置20-1にユーザ40b(第2のユーザ)の感情情報を計測させ、ユーザ40bの感情情報を取得する(S106)。次いで、第2のユーザ感情推定部124-1bは、第2のユーザ計測部122-1bが取得したユーザ40bの感情情報に基づき、ユーザ40bの感情を推定する(S108)。
ユーザ40aとユーザ40bの感情の推定後、感情発生源推定部128-1は、感情発生源推定処理を行う(S110)。なお、感情発生源推定処理の詳細は、後述される。
感情発生源推定処理後、記憶部130は、全ユーザ40(ユーザ40a及びユーザ40b)の感情推定結果と感情発生源を示す情報を記憶する(S112)。そして、制御部120-1は、S102からS112の処理を繰り返す。
(2)感情発生源推定処理
続いて、図6を参照して、本発明の第1の実施形態による感情推定サーバ10-1における感情発生源推定処理の流れについて説明する。図6は、本発明の第1の実施形態による感情発生源推定処理の流れの一例を示すフローチャートである。
図6に示すように、制御部120-1は、全ユーザ40(ユーザ40a及びユーザ40b)に対して、S202からS214の処理を行う。なお、以下では、一例として、ユーザ40aに対してS202からS214の処理を行う例について説明する。
まず、制御部120-1の感情比較部126-1は、感情発生源推定処理がユーザ40aにとって初めての処理であるか否か(記憶部130に前回推定時の感情及び感情発生源が記憶されているか否か)を確認する(S202)。
初めての処理である場合(S202/YES)、感情発生源推定部128-1は、ユーザ40aの感情発生源としてユーザ40aを設定する(S204)。ユーザ40aの感情発生源の設定後、制御部120-1は、次のユーザ40に対する処理をS202から行う。
初めての処理でない場合(S202/NO)、感情比較部126-1は、ユーザ40aの感情が前回推定時のユーザ40aの感情と同一であるか否かを確認する(S206)。
ユーザ40aの感情が前回推定時のユーザ40aの感情と同一である場合(S206/YES)、感情発生源推定部128-1は、ユーザ40aの感情発生源として、ユーザ40aの前回推定時の感情発生源を設定する(S208)。ユーザ40aの感情発生源の設定後、制御部120-1は、次のユーザ40に対する処理をS202から行う。
ユーザ40aの感情が前回推定時のユーザ40aの感情と同一でない場合(S206/NO)、感情比較部126-1は、ユーザ40aの感情がユーザ40bの感情と同一であるか否かを確認する(S210)。
ユーザ40aの感情がユーザ40bの感情と同一でない場合(S210/NO)、感情発生源推定部128-1は、ユーザ40aの感情発生源としてユーザ40aを設定する(S204)。ユーザ40aの感情発生源の設定後、制御部120-1は、次のユーザ40に対する処理をS202から行う。
ユーザ40aの感情がユーザ40bの感情と同一である場合(S210/YES)、感情比較部126-1は、ユーザ40aの感情が前回推定時のユーザ40bの感情と同一であるか否かを確認する(S212)。
ユーザ40aの感情が前回推定時のユーザ40bの感情と同一でない場合(S212/NO)、感情発生源推定部128-1は、ユーザ40aの感情発生源としてユーザ40aを設定する(S204)。ユーザ40aの感情発生源の設定後、制御部120-1は、次のユーザ40に対する処理をS202から行う。
ユーザ40aの感情が前回推定時のユーザ40bの感情と同一である場合(S212/YES)、感情発生源推定部128-1は、ユーザ40aの感情発生源としてユーザ40bを設定する(S214)。ユーザ40aの感情発生源の設定後、制御部120-1は、次のユーザ40に対する処理をS202から行う。
全ユーザ40に対してS202からS214の処理を実行後、制御部120-1は、感情発生源推定処理を終了してメイン処理に戻り、S112の処理を行う。
<1-4.作用効果>
以上説明したように本発明の第1の実施形態によれば、感情推定サーバ10-1は、対象領域内に2人のユーザ40が対面している状況で、各々のユーザ40の計測情報に基づき、各々のユーザ40の感情の推定及び比較を行い、各々のユーザ40の感情発生源を推定する。よって、本発明の第1の実施形態は、対象領域内に2人のユーザ40が対面している状況で各々のユーザ40の感情発生源の推定を行い、各々のユーザ40に対して感情発生源に応じたサービスを適切に提供することが可能である。
<<2.第2の実施形態>>
以上、本発明の第1の実施形態について説明した。続いて、本発明の第2の実施形態について説明する。第2の実施形態では、対象領域内に3人のユーザ40が存在する状況で、計測情報に基づく感情発生源の推定が行われる例について説明する。なお、対象領域内に存在するユーザ40の人数は、かかる例に限定されない。以下では、第1の実施形態と異なる点のみを説明し、重複する点の説明は省略する。
<2-1.システム概要>
まず、図7を参照して、本発明の第2の実施形態による感情推定システムの概要について説明する。図7は、本発明の第2の実施形態による感情推定システム1000-2の概要を示す図である。図7に示すように、感情推定システム1000-2は、感情推定サーバ10-2、センサ装置20-2、及びネットワーク30を備える。
(1)感情推定サーバ10-2
第1の実施形態では、2人のユーザ40が対面している状況であったため、一方のユーザ40が影響を受けるまたは影響を与えるユーザ40は、もう一方のユーザ40であることが一意に予め定まっていた。そのため、感情推定サーバ10-1は、ユーザ40の感情を比較する前に、予め比較対象を決定する必要はなかった。しかしながら、第2の実施形態では、図7に示すように、ユーザ40a、ユーザ40b、及びユーザ40cの3人のユーザ40が存在する。そのため、あるユーザ40が影響を受けるまたは影響を与えるユーザ40は、他の2人のユーザ40のどちらであるかが一意に予め定まっていない。そのため、感情推定サーバ10-2は、ユーザ40の感情を比較する前に、予め比較対象を決定する必要がある。
そこで、感情推定サーバ10-2は、ユーザ40の感情の比較対象を決定する機能を追加で有する。ユーザ40が影響を受けるまたは影響を与える他のユーザ40は、ユーザ40が見ている他のユーザ40である。よって、感情推定サーバ10-2は、ユーザ40が見ている他のユーザ40を推定し、推定した他のユーザ40を、ユーザ40の感情の比較対象と決定する。一例として、図7に示すように、対象領域内にユーザ40a、ユーザ40b、及びユーザ40cが存在し、ユーザ40aはユーザ40bを見ていて、ユーザ40bはユーザ40aを見ていて、ユーザ40cはユーザ40aを見ているとする。この場合、ユーザ40aの感情の比較対象は、ユーザ40bである。また、ユーザ40bの感情の比較対象は、ユーザ40aである。また、ユーザ40cの感情の比較対象は、ユーザ40aである。
感情推定サーバ10-2は、例えば、ユーザ40の姿勢情報に基づき、ユーザ40の視野方向を推定する。また、感情推定サーバ10-2は、他のユーザ40の位置情報に基づき、ユーザ40の視野方向に存在する他のユーザ40を推定する。かかる構成により、感情推定サーバ10-2は、ユーザ40が見ている他のユーザ40を推定し、ユーザ40の感情の比較対象を決定することができる。なお、比較対象の決定方法の詳細は、後述される。
(2)センサ装置20-2
センサ装置20-2は、感情情報に加え、感情の比較対象を決定するための情報を計測する。一例として、センサ装置20-2は、ユーザ40の姿勢情報と位置情報を計測する。計測後、センサ装置20-2は、ネットワーク30を介して、計測した姿勢情報及び位置情報を感情推定サーバ10-2へ送信する。
姿勢情報や位置情報を計測するセンサ装置20は、多様なセンサ装置により実現され得る。例えば、姿勢情報を計測するセンサ装置20は、カメラにより実現され得る。また、位置情報を計測するセンサ装置20は、カメラ、測距センサ、デプスセンサ等の少なくともいずれか1つにより実現され得る。
姿勢情報を計測するカメラは、例えば、RGB-Dカメラ等のRGB画像を撮像する撮像装置である。センサ装置20-2は、当該RGB-Dカメラにより、対象領域内のユーザ40に関するRGB画像を取得することができる。
位置情報を計測するカメラは、例えば、RGBカメラ等のレンズ系、駆動系、及び撮像素子を有し、画像を撮像する撮像装置である。センサ装置20-2は、当該カメラにより、対象領域内のユーザ40が撮像された画像を取得することができる。
測距センサは、例えば、ToF(Time of Flight)センサ等の距離情報を取得する装置である。デプスセンサは、例えば、赤外線測距装置、超音波測距装置、LiDAR(Laser Imaging Detection and Ranging)又はステレオカメラ等の深度情報を取得する装置である。センサ装置20-2は、当該測距センサまたは当該デプスセンサにより、対象領域内のユーザ40までの距離情報を取得することができる。
(3)ネットワーク30
感情推定システム1000-2におけるネットワーク30の構成及び機能は、「<1-1.システム概要>の(3)ネットワーク30」にて説明した内容と同一であるため、本章での説明を省略する。
<2-2.機能構成例>
以上、本発明の第2の実施形態による感情推定システム1000-2の概要について説明した。続いて、図8を参照して、本発明の第2の実施形態による感情推定サーバ10-2の機能構成例について説明する。図8は、本発明の第2の実施形態による感情推定サーバ10-2の機能構成例を示すブロック図である。図8に示すように、感情推定サーバ10-2は、通信部110、制御部120-2、及び記憶部130を備える。
(1)通信部110
感情推定サーバ10-2における通信部110の機能は、「<1-2.機能構成例>の(1)通信部110」にて説明した内容と同一であるため、本章での説明を省略する。
(2)制御部120-2
制御部120-2は、感情推定サーバ10-2の全体の動作を制御する機能を有する。当該機能を実現するために、制御部120-2は、図8に示すように、ユーザ計測部122-2、感情推定部124-2、ユーザ姿勢・位置計測部125、感情比較部126-2、及び感情発生源推定部128-2を有する。
(2-1)ユーザ計測部122-2
ユーザ計測部122-2は、「<1-2.機能構成例>の(2-1)ユーザ計測部122-1」にて説明したユーザ計測部122-1と同様の機能を有する。
なお、上述の機能を実現するために、ユーザ計測部122-2は、第1のユーザ計測部122-2a、第2のユーザ計測部122-2b、及び第3のユーザ計測部122-2cを有する。
第1のユーザ計測部122-2aは、「<1-2.機能構成例>の(2-1)ユーザ計測部122-1」にて説明した第1のユーザ計測部122-1aと同様の機能を有する。なお、第1のユーザがユーザ40cである場合、第1のユーザ計測部122-2aは、ユーザ40cの感情情報をセンサ装置20-2に計測させる。
第2のユーザ計測部122-2bは、「<1-2.機能構成例>の(2-1)ユーザ計測部122-1」にて説明した第2のユーザ計測部122-1bと同様の機能を有する。なお、第2のユーザがユーザ40cである場合、第2のユーザ計測部122-2bは、ユーザ40cの感情情報をセンサ装置20-2に計測させる。
第3のユーザ計測部122-2cは、センサ装置20に第3のユーザの感情情報を計測させる機能を有する。例えば、第3のユーザがユーザ40aである場合、第3のユーザ計測部122-2cは、ユーザ40aの感情情報をセンサ装置20-2に計測させる。他方、第3のユーザがユーザ40bである場合、第3のユーザ計測部122-2cは、ユーザ40bの感情情報をセンサ装置20-2に計測させる。他方、第3のユーザがユーザ40cである場合、第3のユーザ計測部122-2cは、ユーザ40cの感情情報をセンサ装置20-2に計測させる。
(2-2)感情推定部124-2
感情推定部124-2は、「<1-2.機能構成例>の(2-2)感情推定部124-1」にて説明した感情推定部124-1と同様の機能を有する。
なお、上述の機能を実現するために、感情推定部124-2は、第1のユーザ感情推定部124-2a、第2のユーザ感情推定部124-2b、及び第3のユーザ感情推定部124-2cを有する。
第1のユーザ感情推定部124-2aは、「<1-2.機能構成例>の(2-2)感情推定部124-1」にて説明した第1のユーザ感情推定部124-1aと同様の機能を有する。なお、第1のユーザがユーザ40cである場合、第1のユーザ感情推定部124-2aは、ユーザ40cの感情を推定する。
第2のユーザ感情推定部124-2bは、「<1-2.機能構成例>の(2-2)感情推定部124-1」にて説明した第2のユーザ感情推定部124-1bと同様の機能を有する。なお、第2のユーザがユーザ40cである場合、第2のユーザ感情推定部124-2bは、ユーザ40cの感情を推定する。
第3のユーザ感情推定部124-2cは、第3のユーザの感情を推定する機能を有する。例えば、第3のユーザがユーザ40aである場合、第3のユーザ感情推定部124-2cは、ユーザ40aの感情を推定する。他方、第3のユーザがユーザ40bである場合、第3のユーザ感情推定部124-2cは、ユーザ40bの感情を推定する。他方、第3のユーザがユーザ40cである場合、第3のユーザ感情推定部124-2cは、ユーザ40cの感情を推定する。
(2-3)ユーザ姿勢・位置計測部125
ユーザ姿勢・位置計測部125は、センサ装置20-2に計測情報を計測させ、計測情報を取得する機能を有する。ユーザ姿勢・位置計測部125は、例えば、対象領域内に存在するユーザ40の姿勢情報及び位置情報を、センサ装置20-2に計測させる。この時、ユーザ姿勢・位置計測部125は、通信部110及びネットワーク30を介して、姿勢情報及び位置情報の計測に関する指示をセンサ装置20-2へ送信する。センサ装置20-2による姿勢情報及び位置情報の計測後、ユーザ姿勢・位置計測部125は、ネットワーク30及び通信部110を介してセンサ装置20-2から姿勢情報及び位置情報を取得し、取得した姿勢情報及び位置情報を感情比較部126-2へ出力する。
上述の機能を実現するために、ユーザ姿勢・位置計測部125は、第1のユーザ姿勢・位置計測部125a、第2のユーザ姿勢・位置計測部125b、及び第3のユーザ姿勢・位置計測部125cを有する。
第1のユーザ姿勢・位置計測部125aは、センサ装置20-2に第1のユーザの姿勢情報及び位置情報を計測させる機能を有する。例えば、第1のユーザがユーザ40aである場合、第1のユーザ姿勢・位置計測部125aは、ユーザ40aの姿勢情報及び位置情報をセンサ装置20-2に計測させる。他方、第1のユーザがユーザ40bである場合、第1のユーザ姿勢・位置計測部125aは、ユーザ40bの姿勢情報及び位置情報をセンサ装置20-2に計測させる。他方、第1のユーザがユーザ40cである場合、第1のユーザ姿勢・位置計測部125aは、ユーザ40cの姿勢情報及び位置情報をセンサ装置20-2に計測させる。
第2のユーザ姿勢・位置計測部125bは、センサ装置20-2に第2のユーザの姿勢情報及び位置情報を計測させる機能を有する。例えば、第2のユーザがユーザ40aである場合、第2のユーザ姿勢・位置計測部125bは、ユーザ40aの姿勢情報及び位置情報をセンサ装置20-2に計測させる。他方、第2のユーザがユーザ40bである場合、第2のユーザ姿勢・位置計測部125bは、ユーザ40bの姿勢情報及び位置情報をセンサ装置20-2に計測させる。他方、第2のユーザがユーザ40cである場合、第2のユーザ姿勢・位置計測部125bは、ユーザ40cの姿勢情報及び位置情報をセンサ装置20-2に計測させる。
第3のユーザ姿勢・位置計測部125cは、センサ装置20-2に第3のユーザの姿勢情報及び位置情報を計測させる機能を有する。例えば、第3のユーザがユーザ40aである場合、第3のユーザ姿勢・位置計測部125cは、ユーザ40aの姿勢情報及び位置情報をセンサ装置20-2に計測させる。他方、第3のユーザがユーザ40bである場合、第3のユーザ姿勢・位置計測部125cは、ユーザ40bの姿勢情報及び位置情報をセンサ装置20-2に計測させる。他方、第3のユーザがユーザ40cである場合、第3のユーザ姿勢・位置計測部125cは、ユーザ40cの姿勢情報及び位置情報をセンサ装置20-2に計測させる。
(2-4)感情比較部126-2
感情比較部126-2は、「<1-2.機能構成例>の(2-3)感情比較部126-1」にて説明した感情比較部126-1と同様の機能に加え、ユーザ40の感情の比較対象を決定する機能を有する。感情比較部126-2は、例えば、ユーザ姿勢・位置計測部125から入力されるユーザ40の姿勢情報及び位置情報に基づき、ユーザ40の感情の比較対象を決定する。比較対象の決定後、感情比較部126-2は、感情比較部126-1と同様にして、ユーザ40の感情と比較対象の感情とを比較し、各々の感情の共通性を判定する。判定後、感情比較部126-2は、判定結果を感情発生源推定部128-2へ出力する。
(比較対象決定処理)
ここで、感情比較部126-2が比較対象を決定する処理である比較対象決定処理について詳細に説明する。感情比較部126-2は、各々のユーザ40の姿勢情報及び位置情報に基づき、複数のユーザ40の中から、第1のユーザの感情の比較対象となる第2のユーザを決定する。
比較対象を決定するにあたり、感情比較部126-2は、まず、姿勢情報に基づき、第1のユーザの視野方向を決定する。一例として、感情比較部126-2は、姿勢情報であるRGB画像におけるユーザ40の領域に対して、人の骨格モデルを当てはめ、当該骨格モデルにおける頭部の向きを第1のユーザの視野方向と決定する。
次いで、感情比較部126-1は、位置情報に基づき、複数のユーザ40の中から第1のユーザの視野方向に存在するユーザ40を推定する。一例として、感情比較部126-2は、センサ装置20-2により取得された距離情報に基づき、対象領域内における複数のユーザ40の各々の位置を推定する。位置の推定後、感情比較部126-2は、第1のユーザの視野方向と推定した複数のユーザ40の各々の位置に基づき、第1のユーザの視野方向に存在するユーザ40を推定する。
第1のユーザの視野方向にユーザ40が存在する場合、感情比較部126-2は、第1のユーザの視野方向に存在するユーザ40を、比較対象となる第2のユーザと決定する。かかる構成により、感情比較部126-2は、複数のユーザ40の中から、第1のユーザが影響を受けるユーザ40を第2のユーザとして決定することができる。
(比較対象の決定例)
ここで、図9を参照して、比較対象の決定例について説明する。図9は、本発明の第2の実施形態による複数のユーザ40の姿勢及び位置の一例を示す図である。図9に示す例では、ユーザ40a、ユーザ40b、ユーザ40cの視野方向と位置が2次元平面状に投射されている。矢印70aは、ユーザ40aの視野方向であり、2本の破線の間の領域の内、矢印70aが指す方向にある領域がユーザ40aの視野である。矢印70bは、ユーザ40bの視野方向であり、2本の一点鎖線の間の領域の内、矢印70bが指す方向にある領域がユーザ40bの視野である。矢印70cは、ユーザ40cの視野方向であり、2本の二点鎖線の間の領域の内、矢印70cが指す方向にある領域がユーザ40cの視野である。
感情比較部126-2は、第1のユーザが影響を受け得るユーザ40を比較対象となる第2のユーザと決定する。例えば、感情比較部126-2は、第1のユーザの安定注視野領域に存在するユーザ40を比較対象となる第2のユーザと決定する。安定注視野領域とは、水平方向の±30~45°の視野領域である。
一例として、図9に示すように、ユーザ40aの安定注視野内にユーザ40bが存在することから、ユーザ40aは、ユーザ40bから影響を受け得る。よって、ユーザ40aが第1のユーザである場合、感情比較部126-2は、ユーザ40bを比較対象となる第2のユーザと決定する。また、ユーザ40bの安定注視野内にユーザ40aが存在することから、ユーザ40bは、ユーザ40aから影響を受け得る。よって、ユーザ40bが第1のユーザである場合、感情比較部126-2は、ユーザ40aを比較対象となる第2のユーザと決定する。また、ユーザ40cの安定注視野方向にユーザ40aが存在することから、ユーザ40cは、ユーザ40aから影響を受け得る。よって、ユーザ40cが第1のユーザである場合、感情比較部126-2は、ユーザ40aを比較対象となる第2のユーザと決定する。
なお、第1のユーザの安定注視野領域内に複数のユーザ40が存在する場合、感情比較部126-2は、当該複数のユーザ40を比較対象となる第2のユーザと決定してもよい。例えば、ユーザ40aの安定注視野内にユーザ40b及びユーザ40cが存在した場合、ユーザ40aは、ユーザ40b及びユーザ40cから影響を受け得る。よって、ユーザ40aが第1のユーザである場合、感情比較部126-2は、ユーザ40bとユーザ40bを比較対象となる第2のユーザと決定する。
複数の比較対象が存在する場合、感情比較部126-2は、第1のユーザの感情と複数の比較対象の各々の感情とを比較し、第1のユーザの感情と複数の比較対象の各々の感情との共通性を判定する。例えば、第1のユーザがユーザ40aであり、比較対象がユーザ40bとユーザ40cである場合、感情比較部126-2は、ユーザ40aの感情とユーザ40bの感情との共通性、ユーザ40aの感情とユーザ40cの感情との共通性を判定する。かかる構成により、感情比較部126-2は、複数のユーザ40の中から、第1のユーザが影響を受ける複数のユーザ40を第2のユーザとして決定することができる。
(2-5)感情発生源推定部128-2
感情発生源推定部128-2は、「<1-2.機能構成例>の(2-4)感情発生源推定部128-1」にて感情発生源推定部128-2の機能に加え、比較対象の有無に応じた感情発生源の推定を行う機能を有する。
(比較対象が存在する場合)
比較対象が存在する場合、感情発生源推定部128-2は、共通性の判定結果に応じて感情発生源を推定する。例えば、共通性が認められ、かつ第1のユーザの感情と前回推定時の比較対象の感情とが同一である比較対象が存在する場合、感情発生源推定部128-2は、前回推定時の比較対象の感情発生源を、第1のユーザの感情発生源と推定する。一例として、第1のユーザがユーザ40aであり、比較対象がユーザ40bであるとする。この時、感情発生源推定部128-2は、ユーザ40aの感情と前回推定時のユーザ40bの感情とが同一であれば、前回推定時のユーザ40bの感情発生源を、ユーザ40aの感情発生源と推定する。
共通性が認められる比較対象が存在しない、または第1のユーザの感情と前回推定時の比較対象の感情とが同一である比較対象が存在しない場合、感情発生源推定部128-2は、第1のユーザを、第1のユーザの感情発生源と推定する。一例として、第1のユーザがユーザ40aであり、比較対象がユーザ40bであるとする。この時、感情発生源推定部128-2は、ユーザ40aの感情とユーザ40bの感情とに共通性が認められない、またはユーザ40aの感情と前回推定時のユーザ40bの感情とが同一でない場合、ユーザ40aを、ユーザ40aの感情発生源と推定する。
(比較対象が存在しない場合)
比較対象が存在しない場合、感情発生源推定部128-2は、第1のユーザを、第1のユーザの感情発生源と推定する。一例として、第1のユーザがユーザ40aであり、比較対象が存在しない場合、感情発生源推定部128-2は、ユーザ40aを、ユーザ40aの感情発生源と推定する。
(3)記憶部130
感情推定サーバ10-2における記憶部130の機能は、「<1-2.機能構成例>の(3)記憶部130」にて説明した内容と同一であるため、本章での説明を省略する。
<2-3.処理例>
以上、本発明の第2の実施形態による感情推定サーバ10-2の機能構成例について説明した。続いて、本発明の第2の実施形態による感情推定サーバ10-2における処理例について説明する。
(1)メイン処理
まず、図10を参照して、本発明の第2の実施形態による感情推定サーバ10-2におけるメイン処理の流れについて説明する。図10は、本発明の第2の実施形態によるメイン処理の流れの一例を示すフローチャートである。
図10に示すように、まず、制御部120-2の第1のユーザ計測部122-2aは、センサ装置20にユーザ40a(第1のユーザ)の感情情報を計測させ、ユーザ40aの感情情報を取得する(S302)。また、制御部120-2の第1のユーザ姿勢・位置計測部125aは、センサ装置20にユーザ40a(第1のユーザ)の姿勢情報及び位置情報を計測させ、ユーザ40aの姿勢情報及び位置情報を取得する(S302)。次いで、第1のユーザ感情推定部124-2aは、第1のユーザ計測部122-2aが取得したユーザ40aの感情情報に基づき、ユーザ40aの感情を推定する(S304)。
S302及びS304と並行して、制御部120-2の第2のユーザ計測部122-2bは、センサ装置20にユーザ40b(第2のユーザ)の感情情報を計測させ、ユーザ40bの感情情報を取得する(S306)。また、制御部120-2の第2のユーザ姿勢・位置計測部125bは、センサ装置20にユーザ40b(第2のユーザ)の姿勢情報及び位置情報を計測させ、ユーザ40bの姿勢情報及び位置情報を取得する(S306)。次いで、第2のユーザ感情推定部124-2bは、第2のユーザ計測部122-2bが取得したユーザ40bの感情情報に基づき、ユーザ40bの感情を推定する(S308)。
S302からS308と並行して、制御部120-2の第3のユーザ計測部122-2cは、センサ装置20にユーザ40c(第3のユーザ)の感情情報を計測させ、ユーザ40cの感情情報を取得する(S310)。また、制御部120-2の第3のユーザ姿勢・位置計測部125cは、センサ装置20にユーザ40c(第3のユーザ)の姿勢情報及び位置情報を計測させ、ユーザ40cの姿勢情報及び位置情報を取得する(S312)。次いで、第3のユーザ感情推定部124-2cは、第3のユーザ計測部122-2cが取得したユーザ40cの感情情報に基づき、ユーザ40cの感情を推定する(S312)。
ユーザ40a、ユーザ40b、及びユーザ40cの各々の感情の推定後、感情比較部126-2は、比較対象決定処理を行う(S314)。比較対象決定処理後、感情発生源推定部128-2は、感情発生源推定処理を行う(S316)。なお、感情発生源推定処理の詳細は、後述される。
感情発生源推定処理後、記憶部130は、全ユーザ40(ユーザ40a、ユーザ40b、及びユーザ40c)の感情推定結果と感情発生源を示す情報を記憶する(S318)。そして、制御部120-2は、S302からS318の処理を繰り返す。
(2)感情発生源推定処理
続いて、図11を参照して、本発明の第2の実施形態による感情推定サーバ10-2における感情発生源推定処理の流れについて説明する。図11は、本発明の第2の実施形態による感情発生源推定処理の流れの一例を示すフローチャートである。
図11に示すように、制御部120-2は、全ユーザ40(ユーザ40a、ユーザ40b、及びユーザ40c)に対して、S402からS418の処理を行う。なお、以下では、一例として、ユーザ40aに対してS402からS418の処理を行う例について説明する。
まず、制御部120-2の感情比較部126-2は、感情発生源推定処理がユーザ40aにとって初めての処理であるか否か(記憶部130に前回推定時の感情及び感情発生源が記憶されているか否か)を確認する(S402)。
初めての処理である場合(S402/YES)、感情発生源推定部128-2は、ユーザ40aの感情発生源としてユーザ40aを設定する(S404)。ユーザ40aの感情発生源の設定後、制御部120-2は、次のユーザ40に対する処理をS402から行う。
初めての処理でない場合(S402/NO)、感情比較部126-2は、ユーザ40aの感情が前回推定時のユーザ40aの感情と同一であるか否かを確認する(S406)。
ユーザ40aの感情が前回推定時のユーザ40aの感情と同一である場合(S406/YES)、感情発生源推定部128-2は、ユーザ40aの感情発生源として、ユーザ40aの前回推定時の感情発生源を設定する(S408)。ユーザ40aの感情発生源の設定後、制御部120-2は、次のユーザ40に対する処理をS402から行う。
ユーザ40aの感情が前回推定時のユーザ40aの感情と同一でない場合(S408/NO)、感情比較部126-2は、ユーザ40aが感情の影響を受ける第2のユーザ(比較対象)が存在するか否かを確認する(S410)。
ユーザ40aが感情の影響を受ける第2のユーザが存在しない場合(S410/NO)、感情発生源推定部128-2は、ユーザ40aの感情発生源としてユーザ40aを設定する(S404)。ユーザ40aの感情発生源の設定後、制御部120-2は、次のユーザ40に対する処理をS402から行う。
ユーザ40aが感情の影響を受ける第2のユーザが存在する場合(S410/YES)、制御部120-2は、ユーザ40aが影響を受ける全ての第2のユーザを比較対象として、S412からS416の処理を行う。
まず、感情比較部126-2は、ユーザ40aの感情が比較対象の感情と同一であるか否かを確認する(S412)。ユーザ40aの感情が比較対象の感情と同一でない場合(S412/NO)、制御部120-2は、S414及びS416の処理をスキップし、次の比較対象に対する処理をS412から行う。
ユーザ40aの感情が比較対象の感情と同一である場合(S412/YES)、感情比較部126-2は、ユーザ40aの感情が比較対象の前回推定時の感情と同一であるか否かを確認する(S414)。ユーザ40aの感情が比較対象の前回推定時の感情と同一でない場合(S414/NO)、制御部120-2は、S416の処理をスキップし、次の比較対象に対する処理をS412から行う。
ユーザ40aの感情が比較対象の前回推定時の感情と同一である場合(S414/YES)、感情発生源推定部128-2は、ユーザ40aの感情発生源として比較対象の前回推定時の感情発生源を設定する(S416)。ユーザ40aの感情発生源の設定後、制御部120-2は、次の比較対象に対する処理をS412から行う。
全ての比較対象に対してS412からS416の処理を実行後、感情発生源推定部128-2は、ユーザ40aの感情発生源が未設定か否かを確認する(S418)。ユーザ40aの感情発生源が未設定である場合(S418/YES)、感情発生源推定部128-2は、ユーザ40aの感情発生源としてユーザ40aを設定する(S404)。
ユーザ40aの感情発生源が未設定でない場合(S418/NO)、制御部120-2は、次のユーザ40に対する処理をS402から行う。
全ユーザ40に対してS402からS418の処理を実行後、制御部120-2は、感情発生源推定処理を終了してメイン処理に戻り、S318の処理を行う。
<2-4.作用効果>
以上説明したように本発明の第2の実施形態によれば、感情推定サーバ10-2は、対象領域内に3人のユーザ40が存在する状況で、各々のユーザ40の計測情報に基づき、各々のユーザ40の感情の推定及び比較を行い、各々のユーザ40の感情発生源を推定する。よって、本発明の第2の実施形態は、対象領域内に3人のユーザ40が存在する状況でも各々のユーザ40の感情発生源の推定を行い、各々のユーザ40に対して感情発生源に応じたサービスを適切に提供することが可能である。
<<3.変形例>>
続いて、本発明の実施形態に係る変形例について説明する。以下では、本発明の実施形態の幾つかの変形例を説明する。なお、以下に説明する各変形例は、単独で本発明の実施形態に適用されてもよいし、組み合わせで本発明の実施形態に適用されてもよい。また、各変形例は、本発明の実施形態で説明した構成に代えて適用されてもよいし、本発明の実施形態で説明した構成に対して追加的に適用されてもよい。
<3-1.第1の変形例>
上述の実施形態では、感情情報を計測するセンサ装置20として、ユーザ40と接触しない(非接触な)センサ装置、ユーザ40が装着しない(非装着な)センサ装置が用いられる例を説明した。感情情報を計測するセンサ装置20には、ユーザ40と接触するセンサ装置、ユーザ40が装着するセンサ装置が用いられてもよい。具体的なセンサ装置の一例として、ユーザ40の脈拍数、発汗量、呼吸数等の生体情報を計測するためのセンサ装置が挙げられる。接触の一例として、センサ装置が搭載されたスマートフォンをユーザ40が所持することによる接触が挙げられる。なお、センサ装置は、ユーザ40と直接接触してもよい。また、装着の一例として、センサ装置が搭載されたウェアラブルデバイスをユーザ40が装着することが挙げられる。なお、センサ装置は、ユーザ40に直接装着されてもよい。また、センサ装置は、補助具を組み合わせて用いるものであってもよい。
<3-2.第2の変形例>
上述の実施形態では、姿勢情報及び位置情報を計測するセンサ装置20として、ユーザ40と接触しない(非接触な)センサ装置、ユーザ40が装着しない(非装着な)センサ装置が用いられる例を説明した。姿勢情報及び位置情報を計測するセンサ装置20には、ユーザ40と接触するセンサ装置、ユーザ40が装着するセンサ装置が用いられてもよい。具体的なセンサ装置の一例として、ビーコンやマーカを計測するセンサ装置が挙げられる。接触の一例として、センサ装置が搭載されたスマートフォンをユーザ40が所持することによる接触が挙げられる。なお、センサ装置は、ユーザ40と直接接触してもよい。また、装着の一例として、センサ装置が搭載されたウェアラブルデバイスをユーザ40が装着することが挙げられる。なお、センサ装置は、ユーザ40に直接装着されてもよい。また、センサ装置は、補助具を組み合わせて用いるものであってもよい。
<3-3.第3の変形例>
上述の実施形態では、第1のユーザの感情と第2のユーザの感情に共通性が認められる場合、第1のユーザの感情を、前回推定時の第1のユーザの感情または第2のユーザの感情と比較する例について説明した。制御部120は、推定したユーザ40の感情と感情発生源をタイムスタンプによって管理し、当該タイムスタンプの値に基づく感情の比較を行ってもよい。
<<4.ハードウェア構成>>
最後に、図12を参照して、本発明の一実施形態による感情推定装置のハードウェア構成例について説明する。図12は、本発明の一実施形態による感情推定装置のハードウェア構成例を示すブロック図である。なお、図12に示す感情推定装置900は、例えば、図2に示した感情推定サーバ10-1及び図8に示した感情推定サーバ10-2を実現し得る。各実施形態による感情推定サーバ10における情報処理は、ソフトウェアと、以下に説明するハードウェアとの協働により実現される。
図12に示すように、感情推定装置900は、CPU(Central Processing Unit)901と、ROM(Read Only Memory)902と、RAM(Random Access Memory)903とを備える。また、感情推定装置900は、ホストバス904と、ブリッジ905と、外部バス906と、インタフェース907とを備える。また、感情推定装置900は、入力部908と、出力部909と、ストレージ部910と、ドライブ911と、外部インタフェース912と、ネットワークインタフェース913とを備える。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ハードウェア構成は、ここで示される構成要素以外の構成要素をさらに含んでもよい。
CPU901は、演算処理装置および制御装置として機能し、ROM902、RAM903、又はストレージ部910に記録された各種プログラムに従って感情推定装置内の動作全般を制御する。CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバス904により相互に接続されている。CPU901、ROM902およびRAM903は、ソフトウェアとの協働により図2を参照して説明した制御部120-1及び図8を参照して説明した制御部120-2の機能を実現し得る。
ホストバス904は、ブリッジ905を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス906に接続されている。なお、必ずしもホストバス904、ブリッジ905及び外部バス906を分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
入力部908は、例えば、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチ及びレバー等、ユーザによって情報が入力される装置によって実現される。また、入力部908は、例えば、上記の入力手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などを含んでいてもよい。感情推定装置900のユーザは、この入力部908を操作することにより、感情推定装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力部909は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で形成される。このような装置として、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、プラズマディスプレイ装置、ELディスプレイ装置、レーザープロジェクタ、LEDプロジェクタ及びランプ等の表示装置や、スピーカ及びヘッドフォン等の音声出力装置や、プリンタ装置等がある。出力部909は、例えば、感情推定装置900が行った各種処理により得られた結果を出力する。具体的には、表示装置は、感情推定装置900が行った各種処理により得られた結果を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
ストレージ部910は、データ格納用の装置である。ストレージ部910は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ部910は、例えば、HDD(Hard Disk Drive)またはSSD(Solid Strage Drive)、あるいは同等の機能を有するメモリ等で構成される。このストレージ部910は、ストレージを駆動し、CPU901が実行するプログラムや各種データを格納する。ストレージ部910は、例えば、図2及び図8を参照して説明した記憶部130の機能を実現し得る。
ドライブ911は、記憶媒体用リーダライタであり、感情推定装置900に内蔵、あるいは外付けされる。ドライブ911は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体920に記録されている情報を読み出して、RAM903またはストレージ部910に出力する。また、ドライブ911は、リムーバブル記憶媒体920に情報を書き込むこともできる。
外部インタフェース912は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS-232Cポート、又は光オーディオ端子等のような外部接続機器922を接続するためのインタフェースである。
ネットワークインタフェース913は、例えば、ネットワーク924に接続するための通信デバイス等で構成されたインタフェースである。かかるインタフェースは、例えば、Bluetooth(登録商標)またはZigBee(登録商標)等の近距離無線通信インタフェースや、無線LAN(Local Area Network)、Wi-Fi(登録商標)、または携帯通信網(LTE、3G)等の通信インタフェースである。また、ネットワークインタフェース913は、有線による通信を行う有線通信装置であってもよい。ネットワークインタフェース913は、例えば、図2及び図8を参照して説明した通信部110の機能を実現し得る。
<<5.むすび>>
以上説明したように、本発明の実施形態によれば、感情推定装置は、ユーザの計測情報から抽出されるユーザの特徴量に基づき、ユーザの感情を推定する。また、感情推定装置は、推定した第1のユーザの感情と第2のユーザの感情とを比較し、第1のユーザの感情と第2のユーザの感情との共通性を判定する。そして、感情推定装置は、共通性が認められる場合、第1のユーザの感情発生源が第1のユーザまたは第2のユーザであるかを推定する。
かかる構成により、感情推定装置は、推定した複数のユーザの感情を比較することで、各々のユーザの感情発生源を推定することができる。また、感情推定装置は、各々のユーザの感情発生源が分かることで、発生源に応じたサービスを各々のユーザに対して提供することができる。
以上より、ユーザに対して感情発生源に応じたサービスを適切に提供することが可能な、新規かつ改良された感情推定装置、感情推定方法、プログラム、及び感情推定システムを提供することが可能である。
<<6.補足>>
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
なお、本明細書の感情推定サーバ10の処理における各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、感情推定サーバ10の処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。また、追加的な処理ステップが採用されてもよく、一部の処理ステップが省略されてもよい。
また、感情推定サーバ10に内蔵されるCPU、ROMおよびRAMなどのハードウェアに、上述した感情推定サーバ10の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。
また、本明細書において説明した各装置は、それぞれ単独の装置として実現されてもよく、一部または全部が別々の装置として実現されてもよい。例えば、図2及び図8に示したように、感情推定サーバ10及びセンサ装置20は、それぞれ単独の装置として実現される。また、感情推定サーバ10及びセンサ装置20の機能は、両方の機能を有する1つの装置で実現されてもよい。
10 感情推定サーバ
20 センサ装置
30 ネットワーク
110 通信部
120 制御部
122 ユーザ計測部
124 感情推定部
125 ユーザ姿勢・位置計測部
126 感情比較部
128 感情発生源推定部
130 記憶部
1000 感情推定システム

Claims (20)

  1. ユーザの計測情報から抽出される前記ユーザの特徴量に基づき、前記ユーザの感情を推定する感情推定部と、
    前記感情推定部が推定した第1のユーザの前記感情と第2のユーザの前記感情とを比較し、前記第1のユーザの前記感情と前記第2のユーザの前記感情との共通性を判定する感情比較部と、
    前記共通性が認められる場合、前記第1のユーザの前記感情の発生源が前記第1のユーザまたは前記第2のユーザであるかを推定する感情発生源推定部と、
    を備える、感情推定装置。
  2. 前記感情発生源推定部は、前記第1のユーザと前記第2のユーザの内、前記共通性が認められた前記感情をより早く表出していたユーザを、前記第1のユーザの前記感情の前記発生源と推定する、請求項1に記載の感情推定装置。
  3. 前記第1のユーザの前記感情と前回推定時の前記第1のユーザの前記感情とが同一である場合、
    前記感情発生源推定部は、前回推定時の前記第1のユーザの前記感情の前記発生源を、前記第1のユーザの前記感情の前記発生源と推定する、請求項2に記載の感情推定装置。
  4. 前記第1のユーザの前記感情と前回推定時の前記第1のユーザの前記感情とが同一でなく、かつ前記第1のユーザの前記感情と前回推定時の前記第2のユーザの前記感情とが同一である場合、
    前記感情発生源推定部は、前記第2のユーザを、前記第1のユーザの前記感情の前記発生源と推定する、請求項2に記載の感情推定装置。
  5. 前記第1のユーザの前記感情と前回推定時の前記第1のユーザの前記感情とが同一でなく、かつ前記第1のユーザの前記感情と前回推定時の前記第2のユーザの前記感情とが同一でない場合、
    前記感情発生源推定部は、前記第1のユーザを、前記第1のユーザの前記感情の前記発生源と推定する、請求項2に記載の感情推定装置。
  6. 前記共通性が認められない場合、
    前記感情発生源推定部は、前記第1のユーザを、前記第1のユーザの前記感情の前記発生源と推定する、請求項1~5のいずれか1項に記載の感情推定装置。
  7. 前記感情推定部が初めて前記第1のユーザの前記感情を推定した場合、
    前記感情発生源推定部は、前記第1のユーザを、前記第1のユーザの前記感情の前記発生源と推定する、請求項1~6のいずれか1項に記載の感情推定装置。
  8. 前記感情比較部は、各々の前記ユーザの位置情報及び姿勢情報に基づき、複数の前記ユーザの中から、前記第1のユーザの前記感情の比較対象となる前記第2のユーザを決定する、請求項1~7のいずれか1項に記載の感情推定装置。
  9. 前記感情比較部は、前記姿勢情報に基づき、前記第1のユーザの視野方向を推定し、前記位置情報に基づき、複数の前記ユーザの中から前記第1のユーザの前記視野方向に存在する前記ユーザを推定し、推定した前記ユーザを、前記比較対象となる前記第2のユーザと決定する、請求項8に記載の感情推定装置。
  10. 複数の前記比較対象が存在する場合、
    前記感情比較部は、前記第1のユーザの前記感情と複数の前記比較対象の各々の前記感情とを比較し、前記第1のユーザの前記感情と複数の前記比較対象の各々の前記感情との前記共通性を判定する、請求項9に記載の感情推定装置。
  11. 前記共通性が認められ、かつ前記第1のユーザの前記感情と前回推定時の前記比較対象の前記感情とが同一である前記比較対象が存在する場合、
    前記感情発生源推定部は、前回推定時の前記比較対象の前記感情の前記発生源を、前記第1のユーザの前記感情の前記発生源と推定する、請求項10に記載の感情推定装置。
  12. 前記共通性が認められる前記比較対象が存在しない、または前記第1のユーザの前記感情と前回推定時の前記比較対象の前記感情とが同一である前記比較対象が存在しない場合、
    前記感情発生源推定部は、前記第1のユーザを、前記第1のユーザの前記感情の前記発生源と推定する、請求項10に記載の感情推定装置。
  13. 前記比較対象が存在しない場合、
    前記感情発生源推定部は、前記第1のユーザを、前記第1のユーザの前記感情の前記発生源と推定する、請求項9に記載の感情推定装置。
  14. 前記感情比較部は、前記感情のカテゴリを示す2次元円環モデルに基づき、前記第1のユーザの前記感情と前記第2のユーザの前記感情とを分類し、各々の前記感情が分類された前記カテゴリを比較することで、前記共通性の判定を行う、請求項1~13のいずれか1項に記載の感情推定装置。
  15. 前記第1のユーザの前記感情が分類されたカテゴリと前記第2のユーザの前記感情が分類されたカテゴリとが同一のカテゴリである場合、
    前記感情比較部は、前記第1のユーザの前記感情と前記第2のユーザの前記感情とに前記共通性があると判定する、請求項14に記載の感情推定装置。
  16. 前記感情推定部は、前記ユーザの前記感情を機械学習により推定する、請求項1~15のいずれか1項に記載の感情推定装置。
  17. 前記特徴量は、前記ユーザの顔画像から抽出される前記ユーザの表情の変化を示す情報である、請求項1~16のいずれか1項に記載の感情推定装置。
  18. ユーザの計測情報から抽出される前記ユーザの特徴量に基づき、前記ユーザの感情を推定することと、
    前記推定することにより推定した第1のユーザの前記感情と第2のユーザの前記感情とを比較し、前記第1のユーザの前記感情と前記第2のユーザの前記感情との共通性を判定することと、
    前記共通性が認められる場合、前記第1のユーザの前記感情の発生源が前記第1のユーザまたは前記第2のユーザであるかを推定することと、
    を含む、プロセッサにより実行される感情推定方法。
  19. コンピュータを、
    ユーザの計測情報から抽出される前記ユーザの特徴量に基づき、前記ユーザの感情を推定する感情推定部と、
    前記感情推定部が推定した第1のユーザの前記感情と第2のユーザの前記感情とを比較し、前記第1のユーザの前記感情と前記第2のユーザの前記感情との共通性を判定する感情比較部と、
    前記共通性が認められる場合、前記第1のユーザの前記感情の発生源が前記第1のユーザまたは前記第2のユーザであるかを推定する感情発生源推定部と、
    として機能させるための、プログラム。
  20. ユーザの計測情報から抽出される前記ユーザの特徴量に基づき、前記ユーザの感情を推定する感情推定部と、
    前記感情推定部が推定した第1のユーザの前記感情と第2のユーザの前記感情とを比較し、前記第1のユーザの前記感情と前記第2のユーザの前記感情との共通性を判定する感情比較部と、
    前記共通性が認められる場合、前記第1のユーザの前記感情の発生源が前記第1のユーザまたは前記第2のユーザであるかを推定する感情発生源推定部と、
    を備える、感情推定システム。
JP2019026724A 2019-02-18 2019-02-18 感情推定装置、感情推定方法、プログラム、及び感情推定システム Active JP7172705B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019026724A JP7172705B2 (ja) 2019-02-18 2019-02-18 感情推定装置、感情推定方法、プログラム、及び感情推定システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019026724A JP7172705B2 (ja) 2019-02-18 2019-02-18 感情推定装置、感情推定方法、プログラム、及び感情推定システム

Publications (2)

Publication Number Publication Date
JP2020130528A JP2020130528A (ja) 2020-08-31
JP7172705B2 true JP7172705B2 (ja) 2022-11-16

Family

ID=72261505

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019026724A Active JP7172705B2 (ja) 2019-02-18 2019-02-18 感情推定装置、感情推定方法、プログラム、及び感情推定システム

Country Status (1)

Country Link
JP (1) JP7172705B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022071797A (ja) * 2020-10-28 2022-05-16 株式会社日本総合研究所 車両及び表示方法
WO2022094485A1 (en) 2020-11-02 2022-05-05 ViralMoment Inc. Contextual sentiment analysis of digital memes and trends systems and methods

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012185727A (ja) 2011-03-07 2012-09-27 Nippon Telegr & Teleph Corp <Ntt> 対話状態推定装置、方法、及びプログラム
US20150317564A1 (en) 2014-05-05 2015-11-05 International Business Machines Corporation Trait-based early detection of influencers on social media
US20160253688A1 (en) 2015-02-24 2016-09-01 Aaron David NIELSEN System and method of analyzing social media to predict the churn propensity of an individual or community of customers
WO2016178329A1 (ja) 2015-05-07 2016-11-10 ソニー株式会社 情報処理システム、制御方法、および記憶媒体
JP2017021530A (ja) 2015-07-09 2017-01-26 富士通株式会社 関心度判定装置、関心度判定方法および関心度判定プログラム
US20180184959A1 (en) 2015-04-23 2018-07-05 Sony Corporation Information processing device, control method, and program
CN109410082A (zh) 2018-10-31 2019-03-01 北京航空航天大学 一种基于用户情绪分布的在线社交距离估计方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101045659B1 (ko) * 2009-02-19 2011-06-30 강장묵 감성정보 서비스 시스템 및 방법

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012185727A (ja) 2011-03-07 2012-09-27 Nippon Telegr & Teleph Corp <Ntt> 対話状態推定装置、方法、及びプログラム
US20150317564A1 (en) 2014-05-05 2015-11-05 International Business Machines Corporation Trait-based early detection of influencers on social media
US20160253688A1 (en) 2015-02-24 2016-09-01 Aaron David NIELSEN System and method of analyzing social media to predict the churn propensity of an individual or community of customers
US20180184959A1 (en) 2015-04-23 2018-07-05 Sony Corporation Information processing device, control method, and program
WO2016178329A1 (ja) 2015-05-07 2016-11-10 ソニー株式会社 情報処理システム、制御方法、および記憶媒体
JP2017021530A (ja) 2015-07-09 2017-01-26 富士通株式会社 関心度判定装置、関心度判定方法および関心度判定プログラム
CN109410082A (zh) 2018-10-31 2019-03-01 北京航空航天大学 一种基于用户情绪分布的在线社交距离估计方法

Also Published As

Publication number Publication date
JP2020130528A (ja) 2020-08-31

Similar Documents

Publication Publication Date Title
US9800834B2 (en) Method and system of group interaction by user state detection
US11864606B2 (en) Smart article visual communication based on facial movement
Min et al. Exploring audio and kinetic sensing on earable devices
US11308787B2 (en) Information processing system, recording medium, and information processing method
JP2016147006A (ja) 健康管理補助装置及び健康管理補助方法
US20200005668A1 (en) Computer readable recording medium and system for providing automatic recommendations based on physiological data of individuals
JP2016510144A (ja) ナチュラルユーザインプットの関与の検出
KR102045575B1 (ko) 스마트 미러 디스플레이 장치
JP7172705B2 (ja) 感情推定装置、感情推定方法、プログラム、及び感情推定システム
JP2020120908A (ja) 精神状態推定システム、精神状態推定方法、及び、プログラム
TWI734246B (zh) 人臉辨識的方法及裝置
JP2017224166A (ja) 画像生成装置、画像生成プログラム及び画像生成方法
US9619023B2 (en) Terminal, system, communication method, and recording medium storing a communication program
WO2017175447A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2019150954A1 (ja) 情報処理装置
US20220189200A1 (en) Information processing system and information processing method
US11935140B2 (en) Initiating communication between first and second users
JP2015162015A (ja) 情報取得システム、情報取得方法及びコンピュータプログラム
JP6755529B1 (ja) 情報処理方法、情報処理装置、及び制御プログラム
WO2021161387A1 (ja) 処理装置、処理方法及び記憶媒体
KR20210150988A (ko) 활력 지수 획득 장치 및 방법
JP2014008096A (ja) 電子聴診器、電子聴診システム、情報処理方法、制御プログラム、および記録媒体
Hassani et al. Advanced 3D movement analysis algorithms for robust functional capacity assessment
JP7138998B1 (ja) ビデオセッション評価端末、ビデオセッション評価システム及びビデオセッション評価プログラム
WO2023145350A1 (ja) 情報処理方法、情報処理システムおよびプログラム

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190327

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221017

R150 Certificate of patent or registration of utility model

Ref document number: 7172705

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150