JP2022097293A - 情報処理装置、情報処理方法、及び情報処理プログラム - Google Patents
情報処理装置、情報処理方法、及び情報処理プログラム Download PDFInfo
- Publication number
- JP2022097293A JP2022097293A JP2020210798A JP2020210798A JP2022097293A JP 2022097293 A JP2022097293 A JP 2022097293A JP 2020210798 A JP2020210798 A JP 2020210798A JP 2020210798 A JP2020210798 A JP 2020210798A JP 2022097293 A JP2022097293 A JP 2022097293A
- Authority
- JP
- Japan
- Prior art keywords
- user
- terminal device
- information processing
- learning
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 234
- 238000003672 processing method Methods 0.000 title claims description 8
- 230000004800 psychological effect Effects 0.000 claims abstract description 26
- 230000008451 emotion Effects 0.000 claims description 176
- 230000003183 myoelectrical effect Effects 0.000 claims description 42
- 238000000034 method Methods 0.000 claims description 41
- 230000008569 process Effects 0.000 claims description 24
- 230000004044 response Effects 0.000 claims description 11
- 238000002570 electrooculography Methods 0.000 claims description 10
- 230000001815 facial effect Effects 0.000 claims description 5
- 238000012545 processing Methods 0.000 description 36
- 238000004891 communication Methods 0.000 description 18
- 238000013500 data storage Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 14
- 230000005540 biological transmission Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 238000011156 evaluation Methods 0.000 description 7
- 230000029058 respiratory gaseous exchange Effects 0.000 description 7
- 210000004556 brain Anatomy 0.000 description 5
- 230000035900 sweating Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 101001111655 Homo sapiens Retinol dehydrogenase 11 Proteins 0.000 description 3
- 102100023916 Retinol dehydrogenase 11 Human genes 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 101100366082 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) SNF7 gene Proteins 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 101150047375 DID2 gene Proteins 0.000 description 1
- 101100317166 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) VPS24 gene Proteins 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
図1を用いて、実施形態に係る情報処理の一例について説明する。図1は、実施形態に係る情報処理システムによる処理の一例を示す図である。図1では、情報処理装置100は、ユーザが頭部に装着した端末装置10が出力するコンテンツがユーザに引き起こす感情を示すラベル情報と、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの生体信号を用いて人の感情を推定する推定モデルを学習する。そして、情報処理装置100は、推定モデルを用いてユーザの感情を推定する。
上記の例では、顔の筋電位をユーザの生体信号として用いる場合を一例として説明したが、ユーザの生体信号は顔の筋電位に限られない。例えば、情報処理装置100は、ユーザの眼電位をユーザの生体信号として用いてもよい。この場合、情報処理装置100は、ユーザの眼電位を入力用データに含む推定モデルを学習してもよい。そして、情報処理装置100は、ユーザの眼電位を含む入力用データを推定モデルに入力することにより、ユーザの感情を推定してもよい。
なお、図1の例では、ラベル(感情)として、「喜び」、「怒り」、「悲しみ」、「楽しみ」の4つのラベル(感情)のみを例示するが、ラベル情報は上記の4つに限らず、感情の分類は、上記に限らず、目的等に応じて種々の分類であってもよい。例えば「無感情」(図5参照)等の様々な感情を示すラベルであってもよい。また、ラベル(感情)は、怒りや悲しみ等を負の感情を併合した「負の感情」や、喜びや楽しみ等を正の感情を併合した「正の感情」等のより抽象的なラベルであってもよい。
次に、図2を用いて、実施形態に係る情報処理装置100の構成について説明する。図2は、実施形態に係る情報処理装置100の構成例を示す図である。図2に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、情報処理装置100は、情報処理装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、所定の通信網(ネットワーク)と有線または無線で接続され、端末装置10との間で情報の送受信を行う。
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部120は、図2に示すように、学習用データ記憶部121と、モデル情報記憶部122と、コンテンツ情報記憶部123とを有する。
実施形態に係る学習用データ記憶部121は、学習に用いるデータに関する各種情報を記憶する。学習用データ記憶部121は、学習に用いる学習データ(データセット)を記憶する。図3は、本開示の実施形態に係る学習用データ記憶部の一例を示す図である。例えば、学習用データ記憶部121は、学習に用いる学習データや精度評価(測定)に用いる評価用データ等の種々のデータに関する各種情報を記憶する。図3に、実施形態に係る学習用データ記憶部121の一例を示す。図3の例では、学習用データ記憶部121は、「データセットID」、「データID」、「生体信号データ」、「コンテンツID」、「分類ラベル」といった項目が含まれる。
実施形態に係るモデル情報記憶部122は、モデルに関する情報を記憶する。例えば、モデル情報記憶部122は、学習処理により学習(生成)された学習済みモデル(モデル)の情報(モデルデータ)を記憶する。図4は、本開示の第1の実施形態に係るモデル情報記憶部の一例を示す図である。図4に、第1の実施形態に係るモデル情報記憶部122の一例を示す。図4に示した例では、モデル情報記憶部122は、「モデルID」、「用途」、「モデルデータ」といった項目が含まれる。
実施形態に係るコンテンツ情報記憶部123は、コンテンツ(記事)に関する各種情報を記憶する。図5は、実施形態に係るコンテンツ情報記憶部の一例を示す図である。図5に示すコンテンツ情報記憶部123は、「コンテンツID」、「コンテンツ」、「ラベル情報」といった項目を有する。なお、図5の例では、ラベル情報として、「喜び」、「怒り」、「悲しみ」、「楽しみ」、「無感情」の5つのラベル(感情)のみを例示するが、ラベル情報は上記の5つに限らず、様々な感情を示すラベルであってもよい。
図2の説明に戻って、制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
取得部131は、記憶部120から各種の情報を取得する。取得部131は、ユーザが使用する端末装置10からユーザの生体信号を受信する。取得部131は、学習用データ記憶部121から学習に用いるデータを取得する。取得部131は、モデル情報記憶部122からモデルの情報を取得する。取得部131は、コンテンツ情報記憶部123からユーザに提供するコンテンツを取得する。
学習部132は、モデルを学習する。学習部132は、外部の情報処理装置からの情報や記憶部120に記憶された情報に基づいて、各種情報を学習する。学習部132は、学習用データ記憶部121に記憶された情報に基づいて、各種情報を学習する。学習部132は、学習により生成したモデルをモデル情報記憶部122に格納する。
推定部133は、人の感情を推定する推定処理を実行する。推定部133は、学習部132により学習された推定モデルを用いて、人の感情を推定する。推定部133は、推定モデルに対象生体信号を入力することにより、対象ユーザの感情を推定する。
提供部134は、ユーザへ情報を提供する。提供部134は、通信部110を介して、端末装置10へ情報を送信する。提供部134は、コンテンツ情報記憶部123に記憶されたコンテンツをユーザに提供する。提供部134は、コンテンツがユーザに与える心理的な作用を示すラベルが対応付けられたコンテンツをユーザの端末装置10へ送信する。
次に、図6を用いて、実施形態に係る端末装置10の構成について説明する。図6は、実施形態に係る端末装置10の構成例を示す図である。図6に示すように、端末装置10は、通信部11と、音声出力部12と、表示部13と、記憶部14と、制御部15と、センサ部16とを有する。なお、図示を省略するが端末装置10は、ユーザの各種操作が入力される入力部を有してもよい。例えば、入力部は、音声によるユーザに有力を受け付けるマイク(音声入力部)を有する。入力部は、ユーザの発話による各種操作を受け付ける。また、例えば、入力部は、ユーザのジェスチャ等を検知するモーションセンサ等により、ユーザのジェスチャによる操作を受け付けてもよい。この場合、センサ部16は、モーションセンサを有する。
通信部11は、例えば、NICや通信回路等によって実現される。そして、通信部11は、所定の通信網(ネットワーク)と有線または無線で接続され、外部の情報処理装置との間で情報の送受信を行う。例えば、通信部11は、所定の通信網と有線または無線で接続され、情報処理装置100との間で情報の送受信を行う。
音声出力部12は、音声を出力するスピーカによって実現され、各種情報を音声として出力するための出力装置である。音声出力部12は、情報処理装置100から提供されるコンテンツを音声出力する。例えば、音声出力部12は、表示部13に表示される情報に対応する音声を出力する。
表示部13は、例えば液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイ等によって実現されるタブレット端末等の表示画面であり、各種情報を表示するための表示装置である。例えば、端末装置10がヘッドマウントディスプレイである場合、ユーザが端末装置10を装着時において、表示部13はユーザの眼前に配置される。なお、端末装置10が例えばオーバーイヤーヘッドホン等、情報の表示を行わない場合、端末装置10は、表示部13を有しなくてもよい。
記憶部14は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部14は、例えば、情報処理装置100から受信した各種情報を記憶する。記憶部14は、例えば、端末装置10にインストールされているアプリケーション(例えば情報出力アプリ等)に関する情報、例えばプログラム等を記憶する。
制御部15は、コントローラ(controller)であり、例えば、CPUやMPU等によって、端末装置10内部の記憶部14などの記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。例えば、この各種プログラムは、情報処理を行うアプリケーション(例えば情報出力アプリ)のプログラムが含まれる。また、制御部15は、コントローラ(controller)であり、例えば、ASICやFPGA等の集積回路により実現される。
収集部151は、各種情報を収集する。例えば、収集部151は、外部の情報処理装置から各種情報を収集する。例えば、収集部151は、収集した各種情報を記憶部14に格納する。収集部151は、センサ部16により検知されたセンサ情報を収集する。
送信部152は、通信部11を介して、外部の情報処理装置へ種々の情報を送信する。送信部152は、情報処理装置100へ各種情報を送信する。送信部152は、記憶部14に記憶された各種情報を外部の情報処理装置へ送信する。送信部152は、収集部151により収集された各種情報を情報処理装置100へ送信する。送信部152は、収集部151により収集されたセンサ情報を情報処理装置100へ送信する。送信部152は、センサ部16により検知されたセンサ情報を情報処理装置100へ送信する。送信部152は、ユーザの各種生体信号を情報処理装置100へ送信する。
受信部153は、通信部11を介して、情報処理装置100から情報を受信する。受信部153は、情報処理装置100が提供する情報を受信する。受信部153は、情報処理装置100からコンテンツを受信する。受信部153は、情報処理装置100から通知情報として広告を受信する。受信部153は、そのコンテンツの出力時にユーザに与える心理的な作用を示すラベル情報が付されたコンテンツを受信する。
処理部154は、各種の処理を実行する。処理部154は、表示部13を介して各種情報を表示する。例えば、処理部154は、表示部13の表示を制御する。処理部154は、音声出力部12を介して各種情報を音声出力する。例えば、処理部154は、音声出力部12の音声出力を制御する。
センサ部16は、所定の情報を検知する。センサ部16は、ユーザの生体信号を検知するためのセンサ(生体信号センサ)を有する。センサ部16は、ユーザの顔の筋電位を検知するための筋電センサを有する。筋電センサは、ユーザの耳から頬付近に配置され、ユーザの顔の筋電位を検知する。また、端末装置10は、筋電センサに限らず、様々なユーザの生体信号を検知するセンサを有してもよい。また、端末装置10は、ユーザの眼電位を検知する眼電位センサを有してもよい。例えば、端末装置10は、ユーザの心拍を検知する心拍センサ、ユーザの脳波を検知する脳波センサ、ユーザの脈拍を検知する脈拍センサ(脈波センサ)、ユーザの呼吸を検知する呼吸センサ(呼気センサ)、ユーザの発汗を検知する発汗センサ等の種々の生体信号を検知するセンサを有してもよい。なお、端末装置10は、ユーザが装着時において、各センサが対応する生体信号を検知可能な位置に配置されるように構成される。
次に、図7を用いて、実施形態に係る情報処理システム1による情報処理の手順について説明する。図7は、実施形態に係る情報処理装置による処理の一例を示すフローチャートである。
上述してきたように、実施形態に係る情報処理装置100は、取得部131と、学習部132とを有する。取得部131は、ユーザが頭部に装着した端末装置10が出力するコンテンツがユーザに与える心理的な作用を示すラベル情報と、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの生体信号である入力用データとを含む学習用データを取得する。学習部132は、学習用データを用いて、入力用データの入力に応じて当該入力用データに対応する人の感情を推定する情報を出力する推定モデルを学習する。
また、上述した実施形態に係る端末装置10や情報処理装置100は、例えば図8に示すような構成のコンピュータ1000によって実現される。以下、情報処理装置100を例に挙げて説明する。図8は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力I/F(Interface)1060、入力I/F1070、ネットワークI/F1080がバス1090により接続された形態を有する。
以上、本願の実施形態を説明したが、これら実施形態の内容により本発明が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。
100 情報処理装置
120 記憶部
121 学習用データ記憶部
122 モデル情報記憶部
123 コンテンツ情報記憶部
130 制御部
131 取得部
132 学習部
133 推定部
134 提供部
10 端末装置
11 通信部
12 音声出力部
13 表示部
14 記憶部
15 制御部
151 収集部
152 送信部
153 受信部
154 処理部
16 センサ部
Claims (17)
- ユーザが頭部に装着した端末装置が出力するコンテンツが前記ユーザに与える心理的な作用を示すラベル情報と、前記端末装置による前記コンテンツの出力時に前記端末装置により検知される前記ユーザの生体信号である入力用データとを含む学習用データを取得する取得部と、
前記学習用データを用いて、入力用データの入力に応じて当該入力用データに対応する人の感情を推定する情報を出力する推定モデルを学習する学習部と、
を備えたことを特徴とする情報処理装置。 - 前記取得部は、
前記端末装置による前記コンテンツの出力時に前記端末装置により検知される前記ユーザの生体電位である前記入力用データを含む前記学習用データを取得し、
前記学習部は、
前記学習用データを用いて、生体電位に対応する人の感情を推定する情報を出力する前記推定モデルを学習する
ことを特徴とする請求項1に記載の情報処理装置。 - 前記取得部は、
前記端末装置による前記コンテンツの出力時に前記端末装置により検知される前記ユーザの頭部の筋電位を含む前記入力用データを含む前記学習用データを取得し、
前記学習部は、
前記学習用データを用いて、頭部の筋電位に対応する人の感情を推定する情報を出力する前記推定モデルを学習する
ことを特徴とする請求項2に記載の情報処理装置。 - 前記取得部は、
前記端末装置による前記コンテンツの出力時に前記端末装置により検知される前記ユーザの顔の筋電位を含む前記入力用データを含む前記学習用データを取得し、
前記学習部は、
前記学習用データを用いて、顔の筋電位に対応する人の感情を推定する情報を出力する前記推定モデルを学習する
ことを特徴とする請求項3に記載の情報処理装置。 - 前記取得部は、
前記端末装置による前記コンテンツの出力時に前記端末装置により検知される前記ユーザの眼電位を含む前記入力用データを含む前記学習用データを取得し、
前記学習部は、
前記学習用データを用いて、眼電位に対応する人の感情を推定する情報を出力する前記推定モデルを学習する
ことを特徴とする請求項2~4のいずれか1項に記載の情報処理装置。 - 前記取得部は、
前記コンテンツにより前記ユーザに引き起こされる感情を示す前記ラベル情報を含む前記学習用データを取得し、
前記学習部は、
前記学習用データを用いて、前記推定モデルを学習する
ことを特徴とする請求項1~5のいずれか1項に記載の情報処理装置。 - 前記取得部は、
前記ユーザが頭部に装着したヘッドマウントディスプレイである前記端末装置が出力する前記コンテンツの前記ラベル情報を含む前記学習用データを取得し、
前記学習部は、
前記学習用データを用いて、前記端末装置を装着した人の感情を推定する前記推定モデルを学習する
ことを特徴とする請求項1~6のいずれか1項に記載の情報処理装置。 - 前記取得部は、
映像を含む前記コンテンツが前記ユーザに与える心理的な作用を示す前記ラベル情報を含む前記学習用データを取得する
ことを特徴とする請求項7に記載の情報処理装置。 - 前記取得部は、
前記ユーザが頭部に装着したオーバーイヤーヘッドホンである前記端末装置が出力する前記コンテンツの前記ラベル情報を含む前記学習用データを取得し、
前記学習部は、
前記学習用データを用いて、前記端末装置を装着した人の感情を推定する前記推定モデルを学習する
ことを特徴とする請求項1~6のいずれか1項に記載の情報処理装置。 - 前記取得部は、
音声を含む前記コンテンツが前記ユーザに与える心理的な作用を示す前記ラベル情報を含む前記学習用データを取得する
ことを特徴とする請求項7~9のいずれか1項に記載の情報処理装置。 - 前記学習部により学習された前記推定モデルを用いて、人の感情を推定する推定部、
をさらに備えることを特徴とする請求項1~10のいずれか1項に記載の情報処理装置。 - コンピュータが実行する情報処理方法であって、
ユーザが頭部に装着した端末装置が出力するコンテンツが前記ユーザに与える心理的な作用を示すラベル情報と、前記端末装置による前記コンテンツの出力時に前記端末装置により検知される前記ユーザの生体信号である入力用データとを含む学習用データを取得する取得工程と、
前記学習用データを用いて、入力用データの入力に応じて当該入力用データに対応する人の感情を推定する情報を出力する推定モデルを学習する学習工程と、
を含むことを特徴とする情報処理方法。 - ユーザが頭部に装着した端末装置が出力するコンテンツが前記ユーザに与える心理的な作用を示すラベル情報と、前記端末装置による前記コンテンツの出力時に前記端末装置により検知される前記ユーザの生体信号である入力用データとを含む学習用データを取得する取得手順と、
前記学習用データを用いて、入力用データの入力に応じて当該入力用データに対応する人の感情を推定する情報を出力する推定モデルを学習する学習手順と、
をコンピュータに実行させることを特徴とする情報処理プログラム。 - ユーザが頭部に装着した端末装置が出力するコンテンツが前記ユーザに与える心理的な作用を示すラベル情報と、前記端末装置による前記コンテンツの出力時に前記端末装置により検知される前記ユーザの生体信号である入力用データとを含む学習用データを用いて生成された推定モデルであって、入力用データの入力に応じて当該入力用データに対応する人の感情を推定する情報を出力する推定モデルを取得する取得部と、
前記推定モデルを用いて、人の感情を推定する推定部と、
を備えたことを特徴とする情報処理装置。 - 前記取得部は、
前記端末装置を装着した対象ユーザの生体信号である対象生体信号を取得し、
前記推定部は、
前記推定モデルに前記対象生体信号を入力することにより、前記対象ユーザの感情を推定する
ことを特徴とする請求項14に記載の情報処理装置。 - ユーザが頭部に装着した端末装置が出力するコンテンツが前記ユーザに与える心理的な作用を示すラベル情報と、前記端末装置による前記コンテンツの出力時に前記端末装置により検知される前記ユーザの生体信号である入力用データとを含む学習用データを用いて生成された推定モデルであって、入力用データの入力に応じて当該入力用データに対応する人の感情を推定する情報を出力する推定モデルを取得する取得工程と、
前記推定モデルを用いて、人の感情を推定する推定工程と、
を含んだことを特徴とする情報処理方法。 - ユーザが頭部に装着した端末装置が出力するコンテンツが前記ユーザに与える心理的な作用を示すラベル情報と、前記端末装置による前記コンテンツの出力時に前記端末装置により検知される前記ユーザの生体信号である入力用データとを含む学習用データを用いて生成された推定モデルであって、入力用データの入力に応じて当該入力用データに対応する人の感情を推定する情報を出力する推定モデルを取得する取得手順と、
前記推定モデルを用いて、人の感情を推定する推定手順と、
をコンピュータに実行させることを特徴とする情報処理プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020210798A JP7476091B2 (ja) | 2020-12-18 | 2020-12-18 | 情報処理装置、情報処理方法、及び情報処理プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020210798A JP7476091B2 (ja) | 2020-12-18 | 2020-12-18 | 情報処理装置、情報処理方法、及び情報処理プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022097293A true JP2022097293A (ja) | 2022-06-30 |
JP7476091B2 JP7476091B2 (ja) | 2024-04-30 |
Family
ID=82165327
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020210798A Active JP7476091B2 (ja) | 2020-12-18 | 2020-12-18 | 情報処理装置、情報処理方法、及び情報処理プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7476091B2 (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010220151A (ja) * | 2009-03-19 | 2010-09-30 | Nomura Research Institute Ltd | コンテンツ配信システム、コンテンツ配信方法及びコンピュータプログラム |
JP2015228142A (ja) * | 2014-05-31 | 2015-12-17 | Kddi株式会社 | ユーザの感情に基づいてコンテンツをレコメンドする装置、プログラム及び方法 |
JP2017021737A (ja) * | 2015-07-15 | 2017-01-26 | Kddi株式会社 | 筋電信号を用いてアプリケーションに感情識別子を付与するプログラム、端末及びシステム |
JP2018504719A (ja) * | 2014-11-02 | 2018-02-15 | エヌゴーグル インコーポレイテッド | スマートオーディオヘッドホンシステム |
WO2018088187A1 (ja) * | 2016-11-08 | 2018-05-17 | ソニー株式会社 | 情報処理装置、および情報処理方法、並びにプログラム |
WO2018135057A1 (ja) * | 2017-01-20 | 2018-07-26 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4965322B2 (ja) | 2007-04-17 | 2012-07-04 | 日本電信電話株式会社 | ユーザ支援方法、ユーザ支援装置およびユーザ支援プログラム |
-
2020
- 2020-12-18 JP JP2020210798A patent/JP7476091B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010220151A (ja) * | 2009-03-19 | 2010-09-30 | Nomura Research Institute Ltd | コンテンツ配信システム、コンテンツ配信方法及びコンピュータプログラム |
JP2015228142A (ja) * | 2014-05-31 | 2015-12-17 | Kddi株式会社 | ユーザの感情に基づいてコンテンツをレコメンドする装置、プログラム及び方法 |
JP2018504719A (ja) * | 2014-11-02 | 2018-02-15 | エヌゴーグル インコーポレイテッド | スマートオーディオヘッドホンシステム |
JP2017021737A (ja) * | 2015-07-15 | 2017-01-26 | Kddi株式会社 | 筋電信号を用いてアプリケーションに感情識別子を付与するプログラム、端末及びシステム |
WO2018088187A1 (ja) * | 2016-11-08 | 2018-05-17 | ソニー株式会社 | 情報処理装置、および情報処理方法、並びにプログラム |
WO2018135057A1 (ja) * | 2017-01-20 | 2018-07-26 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP7476091B2 (ja) | 2024-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Stopczynski et al. | The smartphone brain scanner: a portable real-time neuroimaging system | |
EP2652578B1 (en) | Correlation of bio-signals with modes of operation of an apparatus | |
Min et al. | Exploring audio and kinetic sensing on earable devices | |
US20130245396A1 (en) | Mental state analysis using wearable-camera devices | |
Booth et al. | Multimodal human and environmental sensing for longitudinal behavioral studies in naturalistic settings: Framework for sensor selection, deployment, and management | |
US11751813B2 (en) | System, method and computer program product for detecting a mobile phone user's risky medical condition | |
US11775068B2 (en) | Apparatus, methods, and systems for using imagined direction to define actions, functions, or execution | |
JP7009342B2 (ja) | 咀嚼や笑みに係る量に基づき食事を評価可能な装置、プログラム及び方法 | |
US9241664B2 (en) | Using physical sensory input to determine human response to multimedia content displayed on a mobile device | |
Gashi et al. | Hierarchical classification and transfer learning to recognize head gestures and facial expressions using earbuds | |
JP2016177483A (ja) | コミュニケーション支援装置、コミュニケーション支援方法及びプログラム | |
Roy et al. | CovidAlert-a wristwatch-based system to alert users from face touching | |
Islam et al. | Exploring human activities using eSense earable device | |
Khan et al. | Pal: A wearable platform for real-time, personalized and context-aware health and cognition support | |
JP7172705B2 (ja) | 感情推定装置、感情推定方法、プログラム、及び感情推定システム | |
JP7476091B2 (ja) | 情報処理装置、情報処理方法、及び情報処理プログラム | |
JP7405357B2 (ja) | 高齢者等見守システム | |
KR20210150988A (ko) | 활력 지수 획득 장치 및 방법 | |
JP2020201536A (ja) | 情報処理装置、情報処理システム及び情報処理プログラム | |
JP7348150B2 (ja) | 学習装置、学習方法、及び学習プログラム | |
US20240008766A1 (en) | System, method and computer program product for processing a mobile phone user's condition | |
JP2020042709A (ja) | 聴衆間の心理状態の類似度合を評定するシステム | |
US20220358645A1 (en) | Systems and methods for developmental monitoring of children | |
Chugh et al. | Exploring Earables to Monitor Temporal Lack of Focus during Online Meetings to Identify Onset of Neurological Disorders | |
EP4085835A1 (en) | Discreet hands- and eyes-free input by voluntary tensor tympani muscle contraction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210317 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220517 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220719 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230105 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230704 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230712 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20230922 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20231026 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240417 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7476091 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |