JP2022097293A - 情報処理装置、情報処理方法、及び情報処理プログラム - Google Patents

情報処理装置、情報処理方法、及び情報処理プログラム Download PDF

Info

Publication number
JP2022097293A
JP2022097293A JP2020210798A JP2020210798A JP2022097293A JP 2022097293 A JP2022097293 A JP 2022097293A JP 2020210798 A JP2020210798 A JP 2020210798A JP 2020210798 A JP2020210798 A JP 2020210798A JP 2022097293 A JP2022097293 A JP 2022097293A
Authority
JP
Japan
Prior art keywords
user
terminal device
information processing
learning
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020210798A
Other languages
English (en)
Other versions
JP7476091B2 (ja
Inventor
孝太 坪内
Kota Tsubouchi
祥太 山中
Shota Yamanaka
香 池松
Kaori Ikematsu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2020210798A priority Critical patent/JP7476091B2/ja
Publication of JP2022097293A publication Critical patent/JP2022097293A/ja
Application granted granted Critical
Publication of JP7476091B2 publication Critical patent/JP7476091B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】適切なユーザの感情推定を可能にすること。【解決手段】本願に係る情報処理装置は、取得部と、学習部とを有する。取得部は、ユーザが頭部に装着した端末装置が出力するコンテンツがユーザに与える心理的な作用を示すラベル情報と、端末装置によるコンテンツの出力時に端末装置により検知されるユーザの生体信号である入力用データとを含む学習用データを取得する。学習部は、学習用データを用いて、入力用データの入力に応じて当該入力用データに対応する人の感情を推定する情報を出力する推定モデルを学習する。【選択図】図2

Description

本発明は、情報処理装置、情報処理方法、及び情報処理プログラムに関する。
人の表情等から感情を推定する技術が提供されている。例えば、撮像装置が撮像した対象人物の顔の画像データを用いて、人物の表情から感情を推定する技術が提供されている(例えば特許文献1等)。また、画像データではなく、生体信号の一種である人の顔の筋電図を用いて人の感情を読む技術が提供されている(例えば非特許文献1等)。また、画像データや生体信号以外にも加速度やジャイロなどの非生体センサのデータを用いて人の感情を推定する技術が提供されている(例えば非特許文献2等)。
特開2020-149361号公報
"A wearable interface for reading,facial expressions based on bioelectrical signals", Anna GRUEBLER, and Kenji SUZUKI, <インターネット>https://www.keer.org/keer2010/Papers/2310.pdf(令和2年11月19日検索)日検索) "Recognition of human affection in Smartphone perspective based on accelerometer and user's sitting position", Rasam Bin Hossain and Ben Taskar<インターネット>https://www.researchgate.net/profile/Hasan_Mahmud3/publication/277004963_Recognition_of_human_affection_in_Smartphone_perspective_based_on_accelerometer_and_user%27s_sitting_position/links/5a9e2874aca272cd09c22cd3/Recognition-of-human-affection-in-Smartphone-perspective-based-on-accelerometer-and-users-sitting-position.pdf(令和2年12月17日検索)
しかしながら、例えば、上記の特許文献1では、対象人物の平常時の顔画像等の画像を用いており、画像に現れないような細かい変化を捉えることが難しい。また、例えば、上記の非特許文献1では、どの筋電図の状態にどの感情を対応付けるかが難しい。そのため、上記の従来技術には、感情を推定する点で改善の余地がある。
本願は、上記に鑑みてなされたものであって、適切なユーザの感情推定を可能にする情報処理装置、情報処理方法、及び情報処理プログラムを提供することを目的とする。
本願に係る情報処理装置は、ユーザが頭部に装着した端末装置が出力するコンテンツが前記ユーザに与える心理的な作用を示すラベル情報と、前記端末装置による前記コンテンツの出力時に前記端末装置により検知される前記ユーザの生体信号である入力用データとを含む学習用データを取得する取得部と、前記学習用データを用いて、入力用データの入力に応じて当該入力用データに対応する人の感情を推定する情報を出力する推定モデルを学習する学習部と、を備えたことを特徴とする。
実施形態の一態様によれば、適切なユーザの感情推定を可能にすることができるという効果を奏する。
図1は、実施形態に係る情報処理システムによる処理の一例を示す図である。 図2は、実施形態に係る情報処理装置の構成例を示す図である。 図3は、実施形態に係る学習用データ記憶部の一例を示す図である。 図4は、実施形態に係るモデル情報記憶部の一例を示す図である。 図5は、実施形態に係るコンテンツ情報記憶部の一例を示す図である。 図6は、実施形態に係る端末装置の構成例を示す図である。 図7は、実施形態に係る情報処理装置による処理の一例を示すフローチャートである。 図8は、ハードウェア構成の一例を示す図である。
以下に、本願に係る情報処理装置、情報処理方法、及び情報処理プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法、及び情報処理プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
〔1.情報処理〕
図1を用いて、実施形態に係る情報処理の一例について説明する。図1は、実施形態に係る情報処理システムによる処理の一例を示す図である。図1では、情報処理装置100は、ユーザが頭部に装着した端末装置10が出力するコンテンツがユーザに引き起こす感情を示すラベル情報と、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの生体信号を用いて人の感情を推定する推定モデルを学習する。そして、情報処理装置100は、推定モデルを用いてユーザの感情を推定する。
図1の例では、ユーザが頭部に装着する端末装置10の一例として、コンテンツの表示及び音声出力が可能なヘッドセット一体型のヘッドマウントディスプレイ(以下単に「ヘッドマウントディスプレイ」ともいう)を示す。なお、ユーザが頭部に装着する端末装置10はヘッドマウントディスプレイに限られない。例えば、端末装置10には、ヘッドマウントディスプレイ単体、オーバーイヤーヘッドホン、ヘッドセット一体型のVR(Virtual Reality)ゴーグル、スマートフォンはめ込み型のVRゴーグル、眼鏡やイヤホン等と一体化したウェアラブルデバイス等様々な装置が採用可能である。また、図1では、ユーザの生体信号の一例として、ユーザの顔の筋電位を示すが、ユーザの生体信号は、顔の筋電位に限らず、頭部の様々な身体的部位の筋電位であってもよい。また、ユーザの生体信号は、筋電位以外のユーザの生体信号を用いてもよいが、この点については後述する。
まず、情報処理システム1の構成について説明する。図1に示すように、情報処理システム1には、複数台の端末装置10と、情報処理装置100とが含まれる。各端末装置10と、情報処理装置100とは図示しない所定の通信網を介して、有線または無線により通信可能に接続される。なお、図1に示した情報処理システム1には、複数台の情報処理装置100が含まれてもよい。
情報処理装置100は、コンテンツに対応付けられた感情を示すラベル情報(単に「ラベル」ともいう)と、コンテンツの出力時におけるユーザの生体信号とを含む学習用データを用いて、人の感情を推定する推定モデルを学習するコンピュータである。また、情報処理装置100は、人の感情を推定する推定モデルを用いてユーザの感情を推定する。また、情報処理装置100は、端末装置10へコンテンツを提供する。なお、情報処理システム1に、端末装置10へコンテンツを提供するコンテンツ提供装置が含まれる場合、情報処理装置100は、端末装置10へコンテンツの提供を行わなくてもよい。この場合、情報処理装置100は、推定したユーザの感情を示す情報をコンテンツ提供装置へ提供してもよい。
端末装置10は、ユーザの頭部に装着されユーザによって利用されるデバイス(コンピュータ)である。端末装置10は、コンテンツを出力する。端末装置10は、情報処理装置100からコンテンツを受信し、受信したコンテンツを出力する。例えば、端末装置10は、コンテンツを表示したり、音声出力したりする。また、端末装置10は、ユーザによる操作を受け付ける。
また、端末装置10は、筋電位を検知するセンサ(筋電位センサ)を有する。図1では、端末装置10は、顔の筋電位を検知する筋電位センサを有し、ユーザの顔の筋電位をユーザの生体信号として検知する。なお、端末装置10は、筋電位以外のユーザの生体信号を検知し、取得可能であってもよい。例えば、端末装置10は、ユーザの眼電位を検知する眼電位センサを有し、ユーザの眼電位を検知してもよい。また、端末装置10は、電位を検知するセンサに限らず、心拍センサ等を有してもよいが、この点については後述する。例えば、端末装置10を利用するユーザは、端末装置10と通信可能なウェアラブルデバイスを身に付けることにより、端末装置10によりユーザの生体信号を取得可能としてもよい。例えば、端末装置10を利用するユーザは、端末装置10と通信可能なリストバンド型のウェアラブルデバイスを身に付けることにより、端末装置10によりユーザ自身の心拍(脈拍)に関する情報を端末装置10が取得可能としてもよい。なお、上記は一例であり、端末装置10は、様々な情報を検知するセンサを有してもよい。
また、以下では、端末装置10をユーザと表記する場合がある。すなわち、以下では、ユーザを端末装置10と読み替えることもできる。図1の例では、端末装置10がヘッドマウントディスプレイである場合を示す。
以下では、ユーザID「U1」により識別されるユーザを「ユーザU1」とする場合がある。このように、以下では、「ユーザU*(*は任意の数値)」と記載した場合、そのユーザはユーザID「U*」により識別されるユーザであることを示す。例えば、「ユーザU2」と記載した場合、そのユーザはユーザID「U2」により識別されるユーザである。また、図1に示す例においては、端末装置10を利用するユーザに応じて、端末装置10を端末装置10-1、10-2として説明する。例えば、端末装置10-1は、ユーザID「U1」により識別されるユーザ(ユーザU1)により使用される端末装置10である。また、例えば、端末装置10-2は、ユーザID「U2」により識別される(ユーザU2)により使用される端末装置10である。また、以下では、端末装置10-1、10-2について、特に区別なく説明する場合には、端末装置10と記載する。
以下、図1を用いて、情報処理の一例を説明する。まず、情報処理装置100による推定モデルの学習処理について説明した後、情報処理装置100による推定モデルを用いた感情の推定処理について説明する。
まず、情報処理装置100は、ユーザU1が利用する端末装置10-1にコンテンツを提供する(ステップS11)。情報処理装置100は、ユーザに与える心理的な作用を示すラベルが対応付けられたコンテンツの一覧から、ユーザU1に提供するコンテンツを決定する。情報処理装置100は、コンテンツの一覧から、ランダムにユーザU1に提供するコンテンツを決定してもよいし、ユーザU1の年齢、性別、興味関心等のユーザ属性を基にユーザU1に提供するコンテンツを決定してもよい。なお、上記は一例に過ぎず、情報処理装置100は、様々な情報を適宜用いて、ユーザU1に提供するコンテンツを決定してもよい。
例えば、情報処理装置100は、端末装置10-1が再生可能なコンテンツの種別に応じてユーザU1に提供するコンテンツを決定してもよい。この場合、情報処理装置100は、端末装置10-1が映像を出力可能であれば、映像のみを含むコンテンツをユーザU1に提供するコンテンツとして決定してもよい。また、情報処理装置100は、端末装置10-1が音声のみを出力可能であれば、音声を含むコンテンツをユーザU1に提供するコンテンツとして決定してもよい。また、情報処理装置100は、端末装置10-1が映像及び音声を出力可能であれば、映像及び音声を含むコンテンツをユーザU1に提供するコンテンツとして決定してもよい。例えば、端末装置10-1が音声のみを出力可能な装置(オーバーイヤーヘッドホン等)である場合、情報処理装置100は、音声を含むコンテンツをユーザU1に提供するコンテンツとして決定する。
そして、情報処理装置100は、決定したコンテンツをユーザU1が利用する端末装置10-1へ送信する。図1では、情報処理装置100は、ユーザに与える心理的な作用が喜びの感情であることを示すラベルLB1が対応付けられたコンテンツCT1をユーザU1が利用する端末装置10-1へ送信する。
情報処理装置100からコンテンツCT1を受信した端末装置10-1は、コンテンツCT1を出力する(ステップS12)。例えば、端末装置10-1は、映像と音声を含むコンテンツCT1を表示し、音声出力を行う。なお、端末装置10-1がオーバーイヤーヘッドホンのような音声出力のみを行う装置である場合、端末装置10-1は、コンテンツCT1の音声出力のみを行ってもよい。端末装置10-1は、コンテンツCT1を出力するとともに、コンテンツCT1を出力時のユーザU1の顔の筋電位であるユーザU1の生体信号を検知する。これにより、端末装置10-1は、コンテンツCT1を出力時のユーザU1の顔の筋電位であるユーザU1の生体信号を収集する。そして、ユーザU1の生体信号を収集した端末装置10-1は、収集したユーザU1の生体信号(生体信号データDT1)を情報処理装置100へ送信する(ステップS13)。
情報処理装置100は、端末装置10から取得した生体信号データを、コンテンツやそのコンテンツが引き起こす感情を示すラベルに対応付け、学習用データとして追加する(ステップS14)。端末装置10-1からユーザU1の生体信号(生体信号データDT1)を取得した情報処理装置100は、取得したユーザU1の生体信号をコンテンツCT1の分類ラベルと対応付けてデータセットDS1に追加する。例えば、情報処理装置100は、生体信号データDT1をコンテンツCT1、及び喜びの感情を示すラベルLB1に対応付けて、学習用データとしてデータセットDS1に追加する。
また、情報処理装置100は、他のユーザにもコンテンツを提供し、提供したコンテンツの出力時のそのユーザの生体信号データと、提供したコンテンツの分類ラベルとを対応付けて、学習用データとしてデータセットDS1に追加する。これにより、情報処理装置100は、図1のデータセットDS1に示すように複数の学習用データを含むデータセットを生成する。なお、情報処理装置100は、外部装置からデータセットDS1を取得してもよい。すなわち、学習用データの収集は、情報処理装置100以外の外部装置が行い、情報処理装置100は、その外部装置から取得したデータセットを用いて、推定モデルの学習を行ってもよい。
そして、情報処理装置100は、データセットDS1を用いて、ユーザの生体信号を入力として、そのユーザの感情を分類する情報を出力する感情推定モデルである推定モデルM1を学習する(ステップS15)。例えば、情報処理装置100は、ユーザの顔の筋電位であるユーザの生体信号の入力に応じて、そのユーザの感情がどの感情であるかの可能性を示す各感情のスコアを出力する推定モデルM1を学習する。この場合、情報処理装置100は、推定モデルM1が出力したスコアが最大の感情を、そのユーザの感情であると推定する。例えば、情報処理装置100は、ニューラルネットワークのネットワーク構成を有する推定モデルM1を学習する。なお、推定モデルM1のネットワーク構成は、感情の推定に用いる情報を出力可能であれば、どのようなネットワーク構成であってもよい。
例えば、情報処理装置100は、生体信号データDT1が入力された場合に、ラベルLB1に対応する感情「喜び」に対応するスコアが最大になるように推定モデルM1の重み等のパラメータを学習する。また、例えば、情報処理装置100は、生体信号データDT2が入力された場合に、ラベルLB2に対応する感情「怒り」に対応するスコアが最大になるように推定モデルM1の重み等のパラメータを学習する。情報処理装置100は、推定モデルM1のネットワーク構成や学習したパラメータ等を含むモデルデータMDT1を生成する。これにより、情報処理装置100は、感情推定モデルである推定モデルM1を生成する。推定モデルM1の学習処理には、任意の手法が採用可能である。
例えば、情報処理装置100は、バックプロパゲーション(誤差逆伝播法)等の手法により学習処理を行う。例えば、情報処理装置100は、学習処理により、ノード間で値が伝達する際に考慮される重み(すなわち、接続係数)の値を調整する。このように、情報処理装置100は、推定モデルM1における出力と、入力に対応する正解(正解データ)との誤差が少なくなるようにパラメータ(接続係数)を補正するバックプロパゲーション等の処理により推定モデルM1を学習する。例えば、情報処理装置100は、所定の損失(ロス)関数を最小化するようにバックプロパゲーション等の処理を行うことにより推定モデルM1を生成する。これにより、情報処理装置100は、推定モデルM1のパラメータを学習する学習処理を行うことができる。情報処理装置100は、学習処理により生成した推定モデルM1をモデル情報記憶部122(図4参照)に格納する。
次に、情報処理装置100による推定モデルを用いた感情の推定処理について説明する。図1では、端末装置10-2を使用するユーザU2を対象として推定処理を行う場合を示す。
端末装置10-2は、ユーザU2の顔の筋電位であるユーザU2の生体信号を検知し、ユーザU2の顔の筋電位であるユーザU2の生体信号を収集する。そして、ユーザU2の生体信号を収集した端末装置10-2は、収集したユーザU2の生体信号を情報処理装置100へ送信する(ステップS21)。
端末装置10-2からユーザU2の生体信号を受信した情報処理装置100は、受信したユーザU2の生体信号を入力用データINとして、推定モデルM1に入力する(ステップS22)。情報処理装置100は、モデル情報記憶部122から推定モデルM1を取得し、取得した推定モデルM1に、受信したユーザU2の生体信号を入力用データINとして入力する。これにより、ユーザU2の生体信号が入力された推定モデルM1は、ユーザU2の感情推定情報を出力データOTとして出力する(ステップS23)。例えば、推定モデルM1は、ユーザU2の生体信号に対応する各感情のスコアを出力する。図1では、推定モデルM1は、ユーザU2の生体信号の入力に応じて、ラベルLB2に対応する感情「怒り」に対応するスコアが最大となる各感情のスコアを出力する。
そして、情報処理装置100は、出力データOTを基に、ユーザU2の感情を推定する(ステップS24)。図1では、情報処理装置100は、ラベルLB2に対応する感情「怒り」に対応するスコアが最大であるため、推定結果RSに示すように、ユーザU2の感情が怒りの感情であると推定する。そして、情報処理装置100は、推定結果に応じてユーザU2に情報提供する(ステップS25)。例えば、情報処理装置100は、ユーザU2の感情が怒りであるため、怒りの感情を鎮めるように促す通知情報を送信する。また、情報処理装置100は、ユーザU2の感情が怒りであるため、怒りの感情を鎮めるためのコンテンツを提供してもよいが、この点については後述する。
上述したように、情報処理装置100は、コンテンツがユーザに与える心理的な作用を示すラベルと、そのコンテンツが出力時のユーザの生体信号とを用いて、人の感情を推定する推定モデルを学習することにより、ユーザの感情と生体信号との対応関係を適切に学習したモデルを生成することができる。したがって、情報処理装置100は、適切なユーザの感情推定を可能にすることができる。また、情報処理装置100は、推定モデルを用いてユーザの感情を推定することにより、適切にユーザの感情を推定することができる。上記のような推定モデルを生成しておくことにより、情報処理システム1は、筋電位や眼電位を取得しない端末装置(ヘッドマウントディスプレイ、ヘッドフォン等)であっても表示する画像や出力される音声等のコンテンツによって、ユーザに生じる感情を推定することができる。また、情報処理システム1は、推定モデルによりコンテンツを視聴していないユーザも対象として、そのユーザに生じる感情を推定することができる。すなわち、情報処理システム1は、推定モデルの入力とするデータが取得可能な全ユーザを対象として、ユーザに生じる感情を推定することができる。また、情報処理装置100は、生体信号に限らず、様々な種別のデータを入力とする推定モデルを生成してもよい。例えば、情報処理装置100は、センサ部16が有する様々なセンサにより検知されるセンサ情報を用いて推定モデルを生成してもよい。この場合、情報処理装置100は、センサ部16が有する様々なセンサにより検知されるセンサ情報を入力とする推定モデルを生成する。例えば、情報処理装置100は、生体信号に加えて、他の種別のデータを入力とする推定モデルを生成してもよい。例えば、情報処理装置100は、画像データを入力とする推定モデルを生成してもよい。また、情報処理装置100は、加速度やジャイロなどの非生体センサのデータを入力とする推定モデルを生成してもよい。すなわち、情報処理装置100は、ユーザの感情の推定に利用可能な情報であれば、生体信号のみに限らず、様々な情報を用いてもよい。
〔1-1.生体信号〕
上記の例では、顔の筋電位をユーザの生体信号として用いる場合を一例として説明したが、ユーザの生体信号は顔の筋電位に限られない。例えば、情報処理装置100は、ユーザの眼電位をユーザの生体信号として用いてもよい。この場合、情報処理装置100は、ユーザの眼電位を入力用データに含む推定モデルを学習してもよい。そして、情報処理装置100は、ユーザの眼電位を含む入力用データを推定モデルに入力することにより、ユーザの感情を推定してもよい。
また、情報処理装置100は、ユーザの心拍をユーザの生体信号として用いてもよい。この場合、情報処理装置100は、ユーザの心拍を入力用データに含む推定モデルを学習してもよい。そして、情報処理装置100は、ユーザの心拍を含む入力用データを推定モデルに入力することにより、ユーザの感情を推定してもよい。
また、情報処理装置100は、ユーザの脳波をユーザの生体信号として用いてもよい。この場合、情報処理装置100は、ユーザの脳波を入力用データに含む推定モデルを学習してもよい。そして、情報処理装置100は、ユーザの脳波を含む入力用データを推定モデルに入力することにより、ユーザの感情を推定してもよい。
また、情報処理装置100は、ユーザの脈拍をユーザの生体信号として用いてもよい。この場合、情報処理装置100は、ユーザの脈拍を入力用データに含む推定モデルを学習してもよい。そして、情報処理装置100は、ユーザの脈拍を含む入力用データを推定モデルに入力することにより、ユーザの感情を推定してもよい。
また、情報処理装置100は、ユーザの呼吸をユーザの生体信号として用いてもよい。この場合、情報処理装置100は、ユーザの呼吸を入力用データに含む推定モデルを学習してもよい。そして、情報処理装置100は、ユーザの呼吸を含む入力用データを推定モデルに入力することにより、ユーザの感情を推定してもよい。
また、情報処理装置100は、ユーザの発汗をユーザの生体信号として用いてもよい。この場合、情報処理装置100は、ユーザの発汗を入力用データに含む推定モデルを学習してもよい。そして、情報処理装置100は、ユーザの発汗を含む入力用データを推定モデルに入力することにより、ユーザの感情を推定してもよい。
なお、上記は一例に過ぎず、情報処理装置100は、ユーザの様々な種別の生体信号を用いてもよい。また、情報処理装置100は、上述した各種別の生体信号を組み合わせて用いてもよい。例えば、情報処理装置100は、ユーザの顔の筋電位とユーザの呼吸との2つの種別の生体信号を入力用データとする推定モデルを用いた処理を行ってもよい。例えば、情報処理装置100は、ユーザの顔の筋電位とユーザの呼吸との2つの種別の生体信号を入力用データとする推定モデルを学習したり、その推定モデルを用いた推定処理を行ったりしてもよい。
〔1-2.感情〕
なお、図1の例では、ラベル(感情)として、「喜び」、「怒り」、「悲しみ」、「楽しみ」の4つのラベル(感情)のみを例示するが、ラベル情報は上記の4つに限らず、感情の分類は、上記に限らず、目的等に応じて種々の分類であってもよい。例えば「無感情」(図5参照)等の様々な感情を示すラベルであってもよい。また、ラベル(感情)は、怒りや悲しみ等を負の感情を併合した「負の感情」や、喜びや楽しみ等を正の感情を併合した「正の感情」等のより抽象的なラベルであってもよい。
〔2.情報処理装置の構成〕
次に、図2を用いて、実施形態に係る情報処理装置100の構成について説明する。図2は、実施形態に係る情報処理装置100の構成例を示す図である。図2に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、情報処理装置100は、情報処理装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、所定の通信網(ネットワーク)と有線または無線で接続され、端末装置10との間で情報の送受信を行う。
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部120は、図2に示すように、学習用データ記憶部121と、モデル情報記憶部122と、コンテンツ情報記憶部123とを有する。
(学習用データ記憶部121)
実施形態に係る学習用データ記憶部121は、学習に用いるデータに関する各種情報を記憶する。学習用データ記憶部121は、学習に用いる学習データ(データセット)を記憶する。図3は、本開示の実施形態に係る学習用データ記憶部の一例を示す図である。例えば、学習用データ記憶部121は、学習に用いる学習データや精度評価(測定)に用いる評価用データ等の種々のデータに関する各種情報を記憶する。図3に、実施形態に係る学習用データ記憶部121の一例を示す。図3の例では、学習用データ記憶部121は、「データセットID」、「データID」、「生体信号データ」、「コンテンツID」、「分類ラベル」といった項目が含まれる。
「データセットID」は、データセットを識別するための識別情報を示す。「データID」は、各学習用データを識別するための識別情報を示す。また、「生体信号データ」は、データIDにより識別されるデータ(生体信号データ)を示す。「生体信号データ」は、モデルの入力として用いられる生体信号データ(入力用データ)を示す。「生体信号データ」には、どのユーザの生体信号であるかを示す情報(例えばユーザID)が対応付けられてもよい。
「コンテンツID」は、対応する生体信号データが検知された際に出力されたコンテンツを示す。「分類ラベル」は、対応するコンテンツに対応付けられたラベル情報(正解情報)を示す。「分類ラベル」は、対応するデータ(入力用データ)に対応するユーザの感情の分類結果を示す。図3の例では、「分類ラベル」は、入力用データである生体信号データに対応するユーザの感情を推定するための分類を示す。「分類ラベル」は、対応するデータ(入力用データ)がモデルに入力された場合に、モデルが出力することが期待されるユーザの感情を示す情報(分類ラベル)を示す。
図3の例では、データセットID「DS1」により識別されるデータセット(データセットDS1)には、データID「DID1」、「DID2」、「DID3」等により識別される複数のデータが含まれることを示す。
データID「DID1」により識別される生体信号データDT1は、コンテンツID「CT1」により識別されるコンテンツ(コンテンツCT1)の出力時に検知されたユーザの生体信号を示す。また、生体信号データDT1は、分類ラベルが「LB1」であることを示す。図3では抽象的に図示するが、ラベルLB1は「喜び」の感情に対応するラベル(値)であるものとする。
なお、学習用データ記憶部121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、学習用データ記憶部121は、音声や画像等の教師データの種別を示す情報を各データに対応付けて記憶する。例えば、学習用データ記憶部121は、データの種別を示す情報を各データに対応付けて記憶する。
例えば、学習用データ記憶部121は、各生体信号データが学習データであるか、評価用データであるか等を特定可能に記憶してもよい。例えば、学習用データ記憶部121は、学習データと評価用データとを区別可能に記憶する。学習用データ記憶部121は、各データが学習データや評価用データであるかを識別する情報を記憶してもよい。情報処理装置100は、学習データとして用いられる各生体信号データと分類ラベルとに基づいて、モデルを学習する。情報処理装置100は、評価用データとして用いられる各生体信号データと分類ラベルとに基づいて、モデルの精度を測定する。情報処理装置100は、評価用データを入力した場合にモデルが出力する出力結果(感情を推定する出力情報)と、分類ラベルとを比較した結果を収集することにより、モデルの精度を測定する。
(モデル情報記憶部122)
実施形態に係るモデル情報記憶部122は、モデルに関する情報を記憶する。例えば、モデル情報記憶部122は、学習処理により学習(生成)された学習済みモデル(モデル)の情報(モデルデータ)を記憶する。図4は、本開示の第1の実施形態に係るモデル情報記憶部の一例を示す図である。図4に、第1の実施形態に係るモデル情報記憶部122の一例を示す。図4に示した例では、モデル情報記憶部122は、「モデルID」、「用途」、「モデルデータ」といった項目が含まれる。
「モデルID」は、モデルを識別するための識別情報を示す。「用途」は、対応するモデルの用途を示す。「モデルデータ」は、モデルのデータを示す。図4等では「モデルデータ」に「MDT1」といった概念的な情報が格納される例を示したが、実際には、モデルの構成(ネットワーク構成)の情報やパラメータに関する情報等、そのモデルを構成する種々の情報が含まれる。例えば、「モデルデータ」には、ネットワークの各層におけるノードと、各ノードが採用する関数と、ノードの接続関係と、ノード間の接続に対して設定される接続係数とを含む情報が含まれる。
図4に示す例では、モデルID「M1」により識別されるモデル(推定モデルM1)は、用途が「感情推定」であることを示す。例えば、推定モデルM1は、ユーザの生体信号である入力用データが入力された場合に、入力用データに対応するユーザの感情を推定する情報を出力する推定モデル(感情推定モデル)であることを示す。また、推定モデルM1のモデルデータは、モデルデータMDT1であることを示す。
なお、モデル情報記憶部122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。
(コンテンツ情報記憶部123)
実施形態に係るコンテンツ情報記憶部123は、コンテンツ(記事)に関する各種情報を記憶する。図5は、実施形態に係るコンテンツ情報記憶部の一例を示す図である。図5に示すコンテンツ情報記憶部123は、「コンテンツID」、「コンテンツ」、「ラベル情報」といった項目を有する。なお、図5の例では、ラベル情報として、「喜び」、「怒り」、「悲しみ」、「楽しみ」、「無感情」の5つのラベル(感情)のみを例示するが、ラベル情報は上記の5つに限らず、様々な感情を示すラベルであってもよい。
「コンテンツID」は、コンテンツを識別するための識別情報を示す。「コンテンツ」は、映画などの動画コンテンツであってもよいし、楽曲などの音声コンテンツ等の様々な種別のコンテンツであってもよい。図5では「コンテンツ」に「Aコンテンツ」といった概念的な情報が格納される例を示したが、実際には、そのコンテンツ自体、または、そのコンテンツの格納場所を示すファイルパス名などが格納される。
また、「ラベル情報」は、コンテンツがユーザに与える心理的な作用を示す。例えば、「ラベル情報」は、コンテンツがユーザに対して出力された場合にユーザがどのような心理状態(感情)になるかを示す。すなわち、「ラベル情報」は、コンテンツの出力によりユーザに引き起こされる感情(正解情報)を示す。
図5の例では、コンテンツID「CT1」により識別されるAコンテンツ(コンテンツCT1)は、ラベル情報LB1が関連付けられていることを示す。例えば、コンテンツCT1は、ラベル情報LB1に対応する「喜び」の感情をユーザに引き起こさせることを示す。
また、コンテンツID「CT2」により識別されるBコンテンツ(コンテンツCT2)は、ラベル情報LB2が関連付けられていることを示す。例えば、コンテンツCT2は、ラベル情報LB2に対応する「怒り」の感情をユーザに引き起こさせることを示す。
なお、コンテンツ情報記憶部123は、上記に限らず、目的に応じて種々の情報を記憶してもよい。
(制御部130)
図2の説明に戻って、制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
図2に示すように、制御部130は、取得部131と、学習部132と、推定部133と、提供部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図2に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図2に示した接続関係に限られず、他の接続関係であってもよい。
(取得部131)
取得部131は、記憶部120から各種の情報を取得する。取得部131は、ユーザが使用する端末装置10からユーザの生体信号を受信する。取得部131は、学習用データ記憶部121から学習に用いるデータを取得する。取得部131は、モデル情報記憶部122からモデルの情報を取得する。取得部131は、コンテンツ情報記憶部123からユーザに提供するコンテンツを取得する。
取得部131は、ユーザが頭部に装着した端末装置10が出力するコンテンツがユーザに与える心理的な作用を示すラベル情報と、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの生体信号である入力用データとを含む学習用データを取得する。
取得部131は、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの生体電位である入力用データを含む学習用データを取得する。取得部131は、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの頭部の筋電位を含む入力用データを含む学習用データを取得する。取得部131は、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの顔の筋電位を含む入力用データを含む学習用データを取得する。
取得部131は、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの眼電位を含む入力用データを含む学習用データを取得する。取得部131は、コンテンツによりユーザに引き起こされる感情を示すラベル情報を含む学習用データを取得する。
取得部131は、ユーザが頭部に装着したヘッドマウントディスプレイである端末装置10が出力するコンテンツのラベル情報を含む学習用データを取得する。取得部131は、映像を含むコンテンツがユーザに与える心理的な作用を示すラベル情報を含む学習用データを取得する。
取得部131は、ユーザが頭部に装着したオーバーイヤーヘッドホンである端末装置10が出力するコンテンツのラベル情報を含む学習用データを取得する。取得部131は、音声を含むコンテンツがユーザに与える心理的な作用を示すラベル情報を含む学習用データを取得する。
取得部131は、ユーザが頭部に装着した端末装置10が出力するコンテンツがユーザに与える心理的な作用を示すラベル情報と、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの生体信号である入力用データとを含む学習用データを用いて生成された推定モデルであって、入力用データの入力に応じて当該入力用データに対応する人の感情を推定する情報を出力する推定モデルを取得する。取得部131は、モデル情報記憶部122から推定モデルを取得する。取得部131は、端末装置10を装着した対象ユーザの生体信号である対象生体信号を取得する。
(学習部132)
学習部132は、モデルを学習する。学習部132は、外部の情報処理装置からの情報や記憶部120に記憶された情報に基づいて、各種情報を学習する。学習部132は、学習用データ記憶部121に記憶された情報に基づいて、各種情報を学習する。学習部132は、学習により生成したモデルをモデル情報記憶部122に格納する。
学習部132は、学習用データを用いて、入力用データの入力に応じて当該入力用データに対応する人の感情を推定する情報を出力する推定モデルを学習する。学習部132は、学習用データを用いて、生体電位に対応する人の感情を推定する情報を出力する推定モデルを学習する。学習部132は、学習用データを用いて、頭部の筋電位に対応する人の感情を推定する情報を出力する推定モデルを学習する。学習部132は、学習用データを用いて、顔の筋電位に対応する人の感情を推定する情報を出力する推定モデルを学習する。
学習部132は、学習用データを用いて、眼電位に対応する人の感情を推定する情報を出力する推定モデルを学習する。学習部132は、学習用データを用いて、推定モデルを学習する。学習部132は、学習用データを用いて、端末装置10を装着した人の感情を推定する推定モデルを学習する。学習部132は、学習用データを用いて、端末装置10を装着した人の感情を推定する推定モデルを学習する。
学習部132は、モデル(ネットワーク)のパラメータを学習する。学習部132は、接続されたノード間の接続係数(重み)等のパラメータを学習する。学習部132は、種々の機械学習に関する技術を用いて、モデルを学習する。学習部132は、モデルに入力するデータと、そのデータが入力された場合の出力を示す分類ラベル(正解ラベル)を用いて行う学習処理、すなわち教師有り学習の手法によりモデルのパラメータを学習する。なお、上記は一例であり、学習部132は、モデルのパラメータを学習可能であれば、どのような学習処理により、モデルのパラメータを学習してもよい。
なお、情報処理装置100が外部装置から外部装置が学習した推定モデルを取得し、取得した推定モデルを用いて人の感情を推定する場合、情報処理装置100は、学習部132を有しなくてもよい。
(推定部133)
推定部133は、人の感情を推定する推定処理を実行する。推定部133は、学習部132により学習された推定モデルを用いて、人の感情を推定する。推定部133は、推定モデルに対象生体信号を入力することにより、対象ユーザの感情を推定する。
推定部133は、推定したユーザの感情を用いた各種処理を行う。推定部133は、推定したユーザの感情を基に決定処理を行う。推定部133は、推定したユーザの感情に基づいて、ユーザに提供するコンテンツを決定する。推定部133は、推定したユーザの感情に対応するコンテンツをそのユーザに提供すると決定する。推定部133は、推定したユーザの感情とは逆の感情を引き起こすコンテンツをそのユーザに提供すると決定する。推定部133は、推定したユーザの感情が悲しみである場合、喜びの感情が対応付けられたすコンテンツをそのユーザに提供すると決定する。
(提供部134)
提供部134は、ユーザへ情報を提供する。提供部134は、通信部110を介して、端末装置10へ情報を送信する。提供部134は、コンテンツ情報記憶部123に記憶されたコンテンツをユーザに提供する。提供部134は、コンテンツがユーザに与える心理的な作用を示すラベルが対応付けられたコンテンツをユーザの端末装置10へ送信する。
提供部134は、推定部133による推定結果に応じて情報を提供する。例えば、提供部134は、推定部133による決定に応じたコンテンツを提供する。提供部134は、推定部133による推定されたユーザの感情に対応するコンテンツをそのユーザに提供する。提供部134は、推定部133による推定されたユーザの感情とは逆の感情を引き起こすコンテンツをそのユーザの端末装置10に送信する。提供部134は、推定部133による推定されたユーザの感情が悲しみである場合、喜びの感情が対応付けられたすコンテンツをそのユーザの端末装置10に送信する。
〔3.端末装置の構成〕
次に、図6を用いて、実施形態に係る端末装置10の構成について説明する。図6は、実施形態に係る端末装置10の構成例を示す図である。図6に示すように、端末装置10は、通信部11と、音声出力部12と、表示部13と、記憶部14と、制御部15と、センサ部16とを有する。なお、図示を省略するが端末装置10は、ユーザの各種操作が入力される入力部を有してもよい。例えば、入力部は、音声によるユーザに有力を受け付けるマイク(音声入力部)を有する。入力部は、ユーザの発話による各種操作を受け付ける。また、例えば、入力部は、ユーザのジェスチャ等を検知するモーションセンサ等により、ユーザのジェスチャによる操作を受け付けてもよい。この場合、センサ部16は、モーションセンサを有する。
(通信部11)
通信部11は、例えば、NICや通信回路等によって実現される。そして、通信部11は、所定の通信網(ネットワーク)と有線または無線で接続され、外部の情報処理装置との間で情報の送受信を行う。例えば、通信部11は、所定の通信網と有線または無線で接続され、情報処理装置100との間で情報の送受信を行う。
(音声出力部12)
音声出力部12は、音声を出力するスピーカによって実現され、各種情報を音声として出力するための出力装置である。音声出力部12は、情報処理装置100から提供されるコンテンツを音声出力する。例えば、音声出力部12は、表示部13に表示される情報に対応する音声を出力する。
(表示部13)
表示部13は、例えば液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイ等によって実現されるタブレット端末等の表示画面であり、各種情報を表示するための表示装置である。例えば、端末装置10がヘッドマウントディスプレイである場合、ユーザが端末装置10を装着時において、表示部13はユーザの眼前に配置される。なお、端末装置10が例えばオーバーイヤーヘッドホン等、情報の表示を行わない場合、端末装置10は、表示部13を有しなくてもよい。
(記憶部14)
記憶部14は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部14は、例えば、情報処理装置100から受信した各種情報を記憶する。記憶部14は、例えば、端末装置10にインストールされているアプリケーション(例えば情報出力アプリ等)に関する情報、例えばプログラム等を記憶する。
(制御部15)
制御部15は、コントローラ(controller)であり、例えば、CPUやMPU等によって、端末装置10内部の記憶部14などの記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。例えば、この各種プログラムは、情報処理を行うアプリケーション(例えば情報出力アプリ)のプログラムが含まれる。また、制御部15は、コントローラ(controller)であり、例えば、ASICやFPGA等の集積回路により実現される。
図6に示すように、制御部15は、収集部151と、送信部152と、受信部153と、処理部154とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部15の内部構成は、図6に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部15が有する各処理部の接続関係は、図6に示した接続関係に限られず、他の接続関係であってもよい。
(収集部151)
収集部151は、各種情報を収集する。例えば、収集部151は、外部の情報処理装置から各種情報を収集する。例えば、収集部151は、収集した各種情報を記憶部14に格納する。収集部151は、センサ部16により検知されたセンサ情報を収集する。
収集部151は、端末装置10によるコンテンツの出力時にセンサ部16により検知されるユーザの生体信号を収集する。収集部151は、センサ部16により検知されたユーザの生体電位を収集する。収集部151は、センサ部16により検知されたユーザの頭部の筋電位を収集する。収集部151は、センサ部16により検知されたユーザの顔の筋電位を収集する。
(送信部152)
送信部152は、通信部11を介して、外部の情報処理装置へ種々の情報を送信する。送信部152は、情報処理装置100へ各種情報を送信する。送信部152は、記憶部14に記憶された各種情報を外部の情報処理装置へ送信する。送信部152は、収集部151により収集された各種情報を情報処理装置100へ送信する。送信部152は、収集部151により収集されたセンサ情報を情報処理装置100へ送信する。送信部152は、センサ部16により検知されたセンサ情報を情報処理装置100へ送信する。送信部152は、ユーザの各種生体信号を情報処理装置100へ送信する。
(受信部153)
受信部153は、通信部11を介して、情報処理装置100から情報を受信する。受信部153は、情報処理装置100が提供する情報を受信する。受信部153は、情報処理装置100からコンテンツを受信する。受信部153は、情報処理装置100から通知情報として広告を受信する。受信部153は、そのコンテンツの出力時にユーザに与える心理的な作用を示すラベル情報が付されたコンテンツを受信する。
(処理部154)
処理部154は、各種の処理を実行する。処理部154は、表示部13を介して各種情報を表示する。例えば、処理部154は、表示部13の表示を制御する。処理部154は、音声出力部12を介して各種情報を音声出力する。例えば、処理部154は、音声出力部12の音声出力を制御する。
処理部154は、受信部153が受信した情報を出力する。処理部154は、情報処理装置100から提供されたコンテンツを出力する。処理部154は、受信部153が受信したコンテンツを、音声出力部12または表示部13を介して出力する。処理部154は、表示部13を介してコンテンツを表示する。処理部154は、音声出力部12を介してコンテンツを音声出力する。
なお、上述した制御部15による各処理は、例えば、JavaScript(登録商標)などにより実現されてもよい。また、上述した制御部15による情報処理等の処理は、所定のアプリケーションにより行われる場合、制御部15の各部は、例えば、所定のアプリケーションにより実現されてもよい。例えば、制御部15による情報処理等の処理は、外部の情報処理装置から受信した制御情報により実現されてもよい。例えば、上述した表示処理が所定のアプリケーション(例えば情報出力アプリ等)により行われる場合、制御部15は、例えば、所定のアプリや専用アプリを制御するアプリ制御部を有してもよい。
(センサ部16)
センサ部16は、所定の情報を検知する。センサ部16は、ユーザの生体信号を検知するためのセンサ(生体信号センサ)を有する。センサ部16は、ユーザの顔の筋電位を検知するための筋電センサを有する。筋電センサは、ユーザの耳から頬付近に配置され、ユーザの顔の筋電位を検知する。また、端末装置10は、筋電センサに限らず、様々なユーザの生体信号を検知するセンサを有してもよい。また、端末装置10は、ユーザの眼電位を検知する眼電位センサを有してもよい。例えば、端末装置10は、ユーザの心拍を検知する心拍センサ、ユーザの脳波を検知する脳波センサ、ユーザの脈拍を検知する脈拍センサ(脈波センサ)、ユーザの呼吸を検知する呼吸センサ(呼気センサ)、ユーザの発汗を検知する発汗センサ等の種々の生体信号を検知するセンサを有してもよい。なお、端末装置10は、ユーザが装着時において、各センサが対応する生体信号を検知可能な位置に配置されるように構成される。
なお、センサ部16は、上述したユーザの生体信号を検知するためのセンサに限らず、情報処理に用いる情報を検知するための様々なセンサを有してもよい。例えば、センサ部16は、ユーザの健康に関する処理に用いる情報を検知するセンサを有する。例えば、センサ部16は、ユーザによる端末装置10の使用態様を示す使用態様情報として用いる各種のセンサ情報を検知するためのセンサを有する。
例えば、センサ部16は、モーションセンサを有する。例えば、センサ部16は、画像を検知するカメラ(画像センサ)を有してもよい。例えば、センサ部16は、ユーザを撮像するために画像センサを有する。
例えば、センサ部16は、加速度センサを有する。例えば、センサ部16は、ユーザによる所定の操作の際の端末装置10の加速度情報を検知するセンサを有する。センサ部16は、端末装置10の位置を検知するセンサ(位置センサ)を有する。例えば、センサ部16は、GPS(Global Positioning System)センサを有してもよい。また、端末装置10の位置情報をセンサ情報として取得する場合、センサ部16は、通信を行っている基地局の位置情報や、WiFi(登録商標)(Wireless Fidelity)の電波を用いて推定された端末装置10の位置情報を取得してもよい。
また、センサ部16には、上記に限らず、種々のセンサが含まれてもよい。例えば、センサ部16は、端末装置10外の情報を検知するセンサを含んでもよい。
なお、センサ部16における上記の各種情報を検知するセンサは共通のセンサであってもよいし、各々異なるセンサにより実現されてもよい。
〔4.処理フロー〕
次に、図7を用いて、実施形態に係る情報処理システム1による情報処理の手順について説明する。図7は、実施形態に係る情報処理装置による処理の一例を示すフローチャートである。
図7に示すように、情報処理装置100は、ユーザが頭部に装着した端末装置10が出力するコンテンツがユーザに与える心理的な作用を示すラベル情報と、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの生体信号である入力用データとを含む学習用データを取得する(ステップS101)。
情報処理装置100は、学習用データを用いて、入力用データの入力に応じて当該入力用データに対応する人の感情を推定する情報を出力する推定モデルを学習する(ステップS102)。情報処理装置100は、推定モデルを用いて人の感情を推定する(ステップS103)。例えば、情報処理装置100は、端末装置10を装着した対象ユーザの生体信号である対象生体信号を取得し、推定モデルに対象生体信号を入力することにより、対象ユーザの感情を推定する。
〔5.効果〕
上述してきたように、実施形態に係る情報処理装置100は、取得部131と、学習部132とを有する。取得部131は、ユーザが頭部に装着した端末装置10が出力するコンテンツがユーザに与える心理的な作用を示すラベル情報と、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの生体信号である入力用データとを含む学習用データを取得する。学習部132は、学習用データを用いて、入力用データの入力に応じて当該入力用データに対応する人の感情を推定する情報を出力する推定モデルを学習する。
これにより、実施形態に係る情報処理装置100は、コンテンツがユーザに与える心理的な作用を示すラベルと、そのコンテンツが出力時のユーザの生体信号とを用いて、人の感情を推定する推定モデルを学習することにより、ユーザの感情と生体信号との対応関係を適切に学習したモデルを生成することができる。したがって、情報処理装置100は、適切なユーザの感情推定を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの生体電位である入力用データを含む学習用データを取得する。学習部132は、学習用データを用いて、生体電位に対応する人の感情を推定する情報を出力する推定モデルを学習する。
これにより、実施形態に係る情報処理装置100は、ユーザの生体電位を入力とする人の感情の推定モデルを学習することにより、ユーザの感情と生体電位との対応関係を適切に学習したモデルを生成することができる。したがって、情報処理装置100は、適切なユーザの感情推定を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの頭部の筋電位を含む入力用データを含む学習用データを取得する。学習部132は、学習用データを用いて、頭部の筋電位に対応する人の感情を推定する情報を出力する推定モデルを学習する。
これにより、実施形態に係る情報処理装置100は、ユーザの頭部の筋電位を入力とする人の感情の推定モデルを学習することにより、ユーザの感情と頭部の筋電位との対応関係を適切に学習したモデルを生成することができる。したがって、情報処理装置100は、適切なユーザの感情推定を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの顔の筋電位を含む入力用データを含む学習用データを取得する。学習部132は、学習用データを用いて、顔の筋電位に対応する人の感情を推定する情報を出力する推定モデルを学習する。
これにより、実施形態に係る情報処理装置100は、ユーザの顔の筋電位を入力とする人の感情の推定モデルを学習することにより、ユーザの感情と顔の筋電位との対応関係を適切に学習したモデルを生成することができる。したがって、情報処理装置100は、適切なユーザの感情推定を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの眼電位を含む入力用データを含む学習用データを取得する。学習部132は、学習用データを用いて、眼電位に対応する人の感情を推定する情報を出力する推定モデルを学習する。
これにより、実施形態に係る情報処理装置100は、ユーザの眼電位を入力とする人の感情の推定モデルを学習することにより、ユーザの感情と眼電位との対応関係を適切に学習したモデルを生成することができる。したがって、情報処理装置100は、適切なユーザの感情推定を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、コンテンツによりユーザに引き起こされる感情を示すラベル情報を含む学習用データを取得する。学習部132は、学習用データを用いて、推定モデルを学習する。
これにより、実施形態に係る情報処理装置100は、コンテンツによりユーザに引き起こされる感情を示すラベルと、そのコンテンツが出力時のユーザの生体信号とを用いて、人の感情を推定する推定モデルを学習することにより、ユーザの感情と生体信号との対応関係を適切に学習したモデルを生成することができる。したがって、情報処理装置100は、適切なユーザの感情推定を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、ユーザが頭部に装着したヘッドマウントディスプレイである端末装置10が出力するコンテンツのラベル情報を含む学習用データを取得する。学習部132は、学習用データを用いて、端末装置10を装着した人の感情を推定する推定モデルを学習する。
これにより、実施形態に係る情報処理装置100は、ヘッドマウントディスプレイによりユーザに対して出力されたコンテンツのラベルと、ヘッドマウントディスプレイを装着したユーザのコンテンツ出力時の生体信号とを用いて、人の感情を推定する推定モデルを学習することにより、ユーザの感情と生体信号との対応関係を適切に学習したモデルを生成することができる。したがって、情報処理装置100は、適切なユーザの感情推定を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、映像を含むコンテンツがユーザに与える心理的な作用を示すラベル情報を含む学習用データを取得する。
これにより、実施形態に係る情報処理装置100は、コンテンツのラベルと、ユーザの映像出力時の生体信号とを用いて、人の感情を推定する推定モデルを学習することにより、ユーザの感情と生体信号との対応関係を適切に学習したモデルを生成することができる。したがって、情報処理装置100は、適切なユーザの感情推定を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、ユーザが頭部に装着したオーバーイヤーヘッドホンである端末装置10が出力するコンテンツのラベル情報を含む学習用データを取得する。学習部132は、学習用データを用いて、端末装置10を装着した人の感情を推定する推定モデルを学習する。
これにより、実施形態に係る情報処理装置100は、オーバーイヤーヘッドホンによりユーザに対して出力されたコンテンツのラベルと、オーバーイヤーヘッドホンを装着したユーザのコンテンツ出力時の生体信号とを用いて、人の感情を推定する推定モデルを学習することにより、ユーザの感情と生体信号との対応関係を適切に学習したモデルを生成することができる。したがって、情報処理装置100は、適切なユーザの感情推定を可能にすることができる。
また、実施形態に係る情報処理装置100において、取得部131は、音声を含むコンテンツがユーザに与える心理的な作用を示すラベル情報を含む学習用データを取得する。
これにより、実施形態に係る情報処理装置100は、コンテンツのラベルと、ユーザの音声出力時の生体信号とを用いて、人の感情を推定する推定モデルを学習することにより、ユーザの感情と生体信号との対応関係を適切に学習したモデルを生成することができる。したがって、情報処理装置100は、適切なユーザの感情推定を可能にすることができる。
また、実施形態に係る情報処理装置100は、推定部133を有する。推定部133は、学習部132により学習された推定モデルを用いて、人の感情を推定する。
これにより、実施形態に係る情報処理装置100は、適切にユーザの感情を推定することができる。
また、実施形態に係る情報処理装置100において、取得部131は、ユーザが頭部に装着した端末装置10が出力するコンテンツがユーザに与える心理的な作用を示すラベル情報と、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの生体信号である入力用データとを含む学習用データを用いて生成された推定モデルであって、入力用データの入力に応じて当該入力用データに対応する人の感情を推定する情報を出力する推定モデルを取得する。推定部133は、推定モデルを用いて、人の感情を推定する。
これにより、実施形態に係る情報処理装置100は、適切にユーザの感情を推定することができる。
また、実施形態に係る情報処理装置100において、取得部131は、端末装置10を装着した対象ユーザの生体信号である対象生体信号を取得する。推定部133は、推定モデルに対象生体信号を入力することにより、対象ユーザの感情を推定する。
これにより、実施形態に係る情報処理装置100は、端末装置10を装着した対象ユーザを対象として、適切にユーザの感情を推定することができる。
〔6.ハードウェア構成〕
また、上述した実施形態に係る端末装置10や情報処理装置100は、例えば図8に示すような構成のコンピュータ1000によって実現される。以下、情報処理装置100を例に挙げて説明する。図8は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力I/F(Interface)1060、入力I/F1070、ネットワークI/F1080がバス1090により接続された形態を有する。
演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。演算装置1030は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等により実現される。
一次記憶装置1040は、RAM(Random Access Memory)等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等により実現される。二次記憶装置1050は、内蔵ストレージであってもよいし、外付けストレージであってもよい。また、二次記憶装置1050は、USBメモリやSD(Secure Digital)メモリカード等の取り外し可能な記憶媒体であってもよい。また、二次記憶装置1050は、クラウドストレージ(オンラインストレージ)やNAS(Network Attached Storage)、ファイルサーバ等であってもよい。
出力I/F1060は、ディスプレイ、プロジェクタ、及びプリンタ等といった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインターフェイスであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力I/F1070は、マウス、キーボード、キーパッド、ボタン、及びスキャナ等といった各種の入力装置1020から情報を受信するためのインターフェイスであり、例えば、USB等により実現される。
また、出力I/F1060及び入力I/F1070はそれぞれ出力装置1010及び入力装置1020と無線で接続してもよい。すなわち、出力装置1010及び入力装置1020は、ワイヤレス機器であってもよい。
また、出力装置1010及び入力装置1020は、タッチパネルのように一体化していてもよい。この場合、出力I/F1060及び入力I/F1070も、入出力I/Fとして一体化していてもよい。
なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、又は半導体メモリ等から情報を読み出す装置であってもよい。
ネットワークI/F1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。
演算装置1030は、出力I/F1060や入力I/F1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。
例えば、コンピュータ1000が情報処理装置100として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器から取得したプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行してもよい。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器と連携し、プログラムの機能やデータ等を他の機器の他のプログラムから呼び出して利用してもよい。
〔7.その他〕
以上、本願の実施形態を説明したが、これら実施形態の内容により本発明が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。
例えば、上述した情報処理装置100は、複数のサーバコンピュータで実現してもよく、また、機能によっては外部のプラットホーム等をAPI(Application Programming Interface)やネットワークコンピューティング等で呼び出して実現するなど、構成は柔軟に変更できる。また、情報処理装置100と端末装置10とは一体であってもよい。この場合、例えばユーザが利用する端末装置10が情報処理装置100としての機能を有してもよい。
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。
1 情報処理システム
100 情報処理装置
120 記憶部
121 学習用データ記憶部
122 モデル情報記憶部
123 コンテンツ情報記憶部
130 制御部
131 取得部
132 学習部
133 推定部
134 提供部
10 端末装置
11 通信部
12 音声出力部
13 表示部
14 記憶部
15 制御部
151 収集部
152 送信部
153 受信部
154 処理部
16 センサ部

Claims (17)

  1. ユーザが頭部に装着した端末装置が出力するコンテンツが前記ユーザに与える心理的な作用を示すラベル情報と、前記端末装置による前記コンテンツの出力時に前記端末装置により検知される前記ユーザの生体信号である入力用データとを含む学習用データを取得する取得部と、
    前記学習用データを用いて、入力用データの入力に応じて当該入力用データに対応する人の感情を推定する情報を出力する推定モデルを学習する学習部と、
    を備えたことを特徴とする情報処理装置。
  2. 前記取得部は、
    前記端末装置による前記コンテンツの出力時に前記端末装置により検知される前記ユーザの生体電位である前記入力用データを含む前記学習用データを取得し、
    前記学習部は、
    前記学習用データを用いて、生体電位に対応する人の感情を推定する情報を出力する前記推定モデルを学習する
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記取得部は、
    前記端末装置による前記コンテンツの出力時に前記端末装置により検知される前記ユーザの頭部の筋電位を含む前記入力用データを含む前記学習用データを取得し、
    前記学習部は、
    前記学習用データを用いて、頭部の筋電位に対応する人の感情を推定する情報を出力する前記推定モデルを学習する
    ことを特徴とする請求項2に記載の情報処理装置。
  4. 前記取得部は、
    前記端末装置による前記コンテンツの出力時に前記端末装置により検知される前記ユーザの顔の筋電位を含む前記入力用データを含む前記学習用データを取得し、
    前記学習部は、
    前記学習用データを用いて、顔の筋電位に対応する人の感情を推定する情報を出力する前記推定モデルを学習する
    ことを特徴とする請求項3に記載の情報処理装置。
  5. 前記取得部は、
    前記端末装置による前記コンテンツの出力時に前記端末装置により検知される前記ユーザの眼電位を含む前記入力用データを含む前記学習用データを取得し、
    前記学習部は、
    前記学習用データを用いて、眼電位に対応する人の感情を推定する情報を出力する前記推定モデルを学習する
    ことを特徴とする請求項2~4のいずれか1項に記載の情報処理装置。
  6. 前記取得部は、
    前記コンテンツにより前記ユーザに引き起こされる感情を示す前記ラベル情報を含む前記学習用データを取得し、
    前記学習部は、
    前記学習用データを用いて、前記推定モデルを学習する
    ことを特徴とする請求項1~5のいずれか1項に記載の情報処理装置。
  7. 前記取得部は、
    前記ユーザが頭部に装着したヘッドマウントディスプレイである前記端末装置が出力する前記コンテンツの前記ラベル情報を含む前記学習用データを取得し、
    前記学習部は、
    前記学習用データを用いて、前記端末装置を装着した人の感情を推定する前記推定モデルを学習する
    ことを特徴とする請求項1~6のいずれか1項に記載の情報処理装置。
  8. 前記取得部は、
    映像を含む前記コンテンツが前記ユーザに与える心理的な作用を示す前記ラベル情報を含む前記学習用データを取得する
    ことを特徴とする請求項7に記載の情報処理装置。
  9. 前記取得部は、
    前記ユーザが頭部に装着したオーバーイヤーヘッドホンである前記端末装置が出力する前記コンテンツの前記ラベル情報を含む前記学習用データを取得し、
    前記学習部は、
    前記学習用データを用いて、前記端末装置を装着した人の感情を推定する前記推定モデルを学習する
    ことを特徴とする請求項1~6のいずれか1項に記載の情報処理装置。
  10. 前記取得部は、
    音声を含む前記コンテンツが前記ユーザに与える心理的な作用を示す前記ラベル情報を含む前記学習用データを取得する
    ことを特徴とする請求項7~9のいずれか1項に記載の情報処理装置。
  11. 前記学習部により学習された前記推定モデルを用いて、人の感情を推定する推定部、
    をさらに備えることを特徴とする請求項1~10のいずれか1項に記載の情報処理装置。
  12. コンピュータが実行する情報処理方法であって、
    ユーザが頭部に装着した端末装置が出力するコンテンツが前記ユーザに与える心理的な作用を示すラベル情報と、前記端末装置による前記コンテンツの出力時に前記端末装置により検知される前記ユーザの生体信号である入力用データとを含む学習用データを取得する取得工程と、
    前記学習用データを用いて、入力用データの入力に応じて当該入力用データに対応する人の感情を推定する情報を出力する推定モデルを学習する学習工程と、
    を含むことを特徴とする情報処理方法。
  13. ユーザが頭部に装着した端末装置が出力するコンテンツが前記ユーザに与える心理的な作用を示すラベル情報と、前記端末装置による前記コンテンツの出力時に前記端末装置により検知される前記ユーザの生体信号である入力用データとを含む学習用データを取得する取得手順と、
    前記学習用データを用いて、入力用データの入力に応じて当該入力用データに対応する人の感情を推定する情報を出力する推定モデルを学習する学習手順と、
    をコンピュータに実行させることを特徴とする情報処理プログラム。
  14. ユーザが頭部に装着した端末装置が出力するコンテンツが前記ユーザに与える心理的な作用を示すラベル情報と、前記端末装置による前記コンテンツの出力時に前記端末装置により検知される前記ユーザの生体信号である入力用データとを含む学習用データを用いて生成された推定モデルであって、入力用データの入力に応じて当該入力用データに対応する人の感情を推定する情報を出力する推定モデルを取得する取得部と、
    前記推定モデルを用いて、人の感情を推定する推定部と、
    を備えたことを特徴とする情報処理装置。
  15. 前記取得部は、
    前記端末装置を装着した対象ユーザの生体信号である対象生体信号を取得し、
    前記推定部は、
    前記推定モデルに前記対象生体信号を入力することにより、前記対象ユーザの感情を推定する
    ことを特徴とする請求項14に記載の情報処理装置。
  16. ユーザが頭部に装着した端末装置が出力するコンテンツが前記ユーザに与える心理的な作用を示すラベル情報と、前記端末装置による前記コンテンツの出力時に前記端末装置により検知される前記ユーザの生体信号である入力用データとを含む学習用データを用いて生成された推定モデルであって、入力用データの入力に応じて当該入力用データに対応する人の感情を推定する情報を出力する推定モデルを取得する取得工程と、
    前記推定モデルを用いて、人の感情を推定する推定工程と、
    を含んだことを特徴とする情報処理方法。
  17. ユーザが頭部に装着した端末装置が出力するコンテンツが前記ユーザに与える心理的な作用を示すラベル情報と、前記端末装置による前記コンテンツの出力時に前記端末装置により検知される前記ユーザの生体信号である入力用データとを含む学習用データを用いて生成された推定モデルであって、入力用データの入力に応じて当該入力用データに対応する人の感情を推定する情報を出力する推定モデルを取得する取得手順と、
    前記推定モデルを用いて、人の感情を推定する推定手順と、
    をコンピュータに実行させることを特徴とする情報処理プログラム。
JP2020210798A 2020-12-18 2020-12-18 情報処理装置、情報処理方法、及び情報処理プログラム Active JP7476091B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020210798A JP7476091B2 (ja) 2020-12-18 2020-12-18 情報処理装置、情報処理方法、及び情報処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020210798A JP7476091B2 (ja) 2020-12-18 2020-12-18 情報処理装置、情報処理方法、及び情報処理プログラム

Publications (2)

Publication Number Publication Date
JP2022097293A true JP2022097293A (ja) 2022-06-30
JP7476091B2 JP7476091B2 (ja) 2024-04-30

Family

ID=82165327

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020210798A Active JP7476091B2 (ja) 2020-12-18 2020-12-18 情報処理装置、情報処理方法、及び情報処理プログラム

Country Status (1)

Country Link
JP (1) JP7476091B2 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010220151A (ja) * 2009-03-19 2010-09-30 Nomura Research Institute Ltd コンテンツ配信システム、コンテンツ配信方法及びコンピュータプログラム
JP2015228142A (ja) * 2014-05-31 2015-12-17 Kddi株式会社 ユーザの感情に基づいてコンテンツをレコメンドする装置、プログラム及び方法
JP2017021737A (ja) * 2015-07-15 2017-01-26 Kddi株式会社 筋電信号を用いてアプリケーションに感情識別子を付与するプログラム、端末及びシステム
JP2018504719A (ja) * 2014-11-02 2018-02-15 エヌゴーグル インコーポレイテッド スマートオーディオヘッドホンシステム
WO2018088187A1 (ja) * 2016-11-08 2018-05-17 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
WO2018135057A1 (ja) * 2017-01-20 2018-07-26 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4965322B2 (ja) 2007-04-17 2012-07-04 日本電信電話株式会社 ユーザ支援方法、ユーザ支援装置およびユーザ支援プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010220151A (ja) * 2009-03-19 2010-09-30 Nomura Research Institute Ltd コンテンツ配信システム、コンテンツ配信方法及びコンピュータプログラム
JP2015228142A (ja) * 2014-05-31 2015-12-17 Kddi株式会社 ユーザの感情に基づいてコンテンツをレコメンドする装置、プログラム及び方法
JP2018504719A (ja) * 2014-11-02 2018-02-15 エヌゴーグル インコーポレイテッド スマートオーディオヘッドホンシステム
JP2017021737A (ja) * 2015-07-15 2017-01-26 Kddi株式会社 筋電信号を用いてアプリケーションに感情識別子を付与するプログラム、端末及びシステム
WO2018088187A1 (ja) * 2016-11-08 2018-05-17 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
WO2018135057A1 (ja) * 2017-01-20 2018-07-26 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
JP7476091B2 (ja) 2024-04-30

Similar Documents

Publication Publication Date Title
Stopczynski et al. The smartphone brain scanner: a portable real-time neuroimaging system
EP2652578B1 (en) Correlation of bio-signals with modes of operation of an apparatus
Min et al. Exploring audio and kinetic sensing on earable devices
US20130245396A1 (en) Mental state analysis using wearable-camera devices
Booth et al. Multimodal human and environmental sensing for longitudinal behavioral studies in naturalistic settings: Framework for sensor selection, deployment, and management
US11751813B2 (en) System, method and computer program product for detecting a mobile phone user's risky medical condition
US11775068B2 (en) Apparatus, methods, and systems for using imagined direction to define actions, functions, or execution
JP7009342B2 (ja) 咀嚼や笑みに係る量に基づき食事を評価可能な装置、プログラム及び方法
US9241664B2 (en) Using physical sensory input to determine human response to multimedia content displayed on a mobile device
Gashi et al. Hierarchical classification and transfer learning to recognize head gestures and facial expressions using earbuds
JP2016177483A (ja) コミュニケーション支援装置、コミュニケーション支援方法及びプログラム
Roy et al. CovidAlert-a wristwatch-based system to alert users from face touching
Islam et al. Exploring human activities using eSense earable device
Khan et al. Pal: A wearable platform for real-time, personalized and context-aware health and cognition support
JP7172705B2 (ja) 感情推定装置、感情推定方法、プログラム、及び感情推定システム
JP7476091B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP7405357B2 (ja) 高齢者等見守システム
KR20210150988A (ko) 활력 지수 획득 장치 및 방법
JP2020201536A (ja) 情報処理装置、情報処理システム及び情報処理プログラム
JP7348150B2 (ja) 学習装置、学習方法、及び学習プログラム
US20240008766A1 (en) System, method and computer program product for processing a mobile phone user's condition
JP2020042709A (ja) 聴衆間の心理状態の類似度合を評定するシステム
US20220358645A1 (en) Systems and methods for developmental monitoring of children
Chugh et al. Exploring Earables to Monitor Temporal Lack of Focus during Online Meetings to Identify Onset of Neurological Disorders
EP4085835A1 (en) Discreet hands- and eyes-free input by voluntary tensor tympani muscle contraction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230105

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230704

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230712

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20230922

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20231026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240417

R150 Certificate of patent or registration of utility model

Ref document number: 7476091

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150