JP7476091B2 - Information processing device, information processing method, and information processing program - Google Patents
Information processing device, information processing method, and information processing program Download PDFInfo
- Publication number
- JP7476091B2 JP7476091B2 JP2020210798A JP2020210798A JP7476091B2 JP 7476091 B2 JP7476091 B2 JP 7476091B2 JP 2020210798 A JP2020210798 A JP 2020210798A JP 2020210798 A JP2020210798 A JP 2020210798A JP 7476091 B2 JP7476091 B2 JP 7476091B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- content
- information
- information processing
- terminal device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 225
- 238000003672 processing method Methods 0.000 title claims description 7
- 230000008451 emotion Effects 0.000 claims description 161
- 238000000034 method Methods 0.000 claims description 39
- 230000003183 myoelectrical effect Effects 0.000 claims description 37
- 230000008569 process Effects 0.000 claims description 31
- 230000004800 psychological effect Effects 0.000 claims description 28
- 238000002570 electrooculography Methods 0.000 claims description 16
- 230000000763 evoking effect Effects 0.000 claims description 7
- 230000035900 sweating Effects 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims 3
- 238000012545 processing Methods 0.000 description 29
- 238000004891 communication Methods 0.000 description 18
- 238000013500 data storage Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 9
- 230000004044 response Effects 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 7
- 230000029058 respiratory gaseous exchange Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 5
- 230000001815 facial effect Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 101001111655 Homo sapiens Retinol dehydrogenase 11 Proteins 0.000 description 3
- 102100023916 Retinol dehydrogenase 11 Human genes 0.000 description 3
- 210000004556 brain Anatomy 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 101100366082 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) SNF7 gene Proteins 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 210000004243 sweat Anatomy 0.000 description 2
- 101150047375 DID2 gene Proteins 0.000 description 1
- 101100317166 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) VPS24 gene Proteins 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000001914 calming effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001114 myogenic effect Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、情報処理装置、情報処理方法、及び情報処理プログラムに関する。 The present invention relates to an information processing device, an information processing method, and an information processing program.
人の表情等から感情を推定する技術が提供されている。例えば、撮像装置が撮像した対象人物の顔の画像データを用いて、人物の表情から感情を推定する技術が提供されている(例えば特許文献1等)。また、画像データではなく、生体信号の一種である人の顔の筋電図を用いて人の感情を読む技術が提供されている(例えば非特許文献1等)。また、画像データや生体信号以外にも加速度やジャイロなどの非生体センサのデータを用いて人の感情を推定する技術が提供されている(例えば非特許文献2等)。 Technologies are provided that estimate emotions from a person's facial expressions, etc. For example, there is provided a technology that estimates emotions from a person's facial expressions using image data of the target person's face captured by an imaging device (e.g., Patent Document 1, etc.). There is also provided a technology that reads a person's emotions using the electromyogram of the person's face, which is a type of biosignal, rather than image data (e.g., Non-Patent Document 1, etc.). There is also provided a technology that estimates a person's emotions using data from non-biological sensors such as acceleration and gyroscopes in addition to image data and biosignals (e.g., Non-Patent Document 2, etc.).
しかしながら、例えば、上記の特許文献1では、対象人物の平常時の顔画像等の画像を用いており、画像に現れないような細かい変化を捉えることが難しい。また、例えば、上記の非特許文献1では、どの筋電図の状態にどの感情を対応付けるかが難しい。そのため、上記の従来技術には、感情を推定する点で改善の余地がある。 However, for example, in Patent Document 1, images such as a facial image of the target person in a normal state are used, making it difficult to capture small changes that do not appear in the image. Also, for example, in Non-Patent Document 1, it is difficult to associate which emotion with which electromyogram state. Therefore, the above conventional technology has room for improvement in terms of estimating emotions.
本願は、上記に鑑みてなされたものであって、適切なユーザの感情推定を可能にする情報処理装置、情報処理方法、及び情報処理プログラムを提供することを目的とする。 The present application has been made in consideration of the above, and aims to provide an information processing device, an information processing method, and an information processing program that enable appropriate estimation of a user's emotions.
本願に係る情報処理装置は、ユーザが頭部に装着した端末装置が出力するコンテンツが前記ユーザに与える心理的な作用を示すラベル情報と、前記端末装置による前記コンテンツの出力時に前記端末装置により検知される前記ユーザの生体信号である入力用データとを含む学習用データを取得する取得部と、前記学習用データを用いて、入力用データの入力に応じて当該入力用データに対応する人の感情を推定する情報を出力する推定モデルを学習する学習部と、を備えたことを特徴とする。 The information processing device according to the present application is characterized by comprising: an acquisition unit that acquires learning data including label information indicating the psychological effect that content output by a terminal device worn by a user on the head has on the user, and input data that is the user's biosignal detected by the terminal device when the terminal device outputs the content; and a learning unit that uses the learning data to learn an estimation model that outputs information that estimates the emotion of a person corresponding to the input data in response to the input of the input data.
実施形態の一態様によれば、適切なユーザの感情推定を可能にすることができるという効果を奏する。 According to one aspect of the embodiment, it is possible to achieve the effect of enabling appropriate estimation of a user's emotions.
以下に、本願に係る情報処理装置、情報処理方法、及び情報処理プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法、及び情報処理プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Below, the information processing device, information processing method, and information processing program according to the present application will be described in detail with reference to the drawings. Note that the information processing device, information processing method, and information processing program according to the present application are not limited to these embodiments. In addition, the same parts in the following embodiments will be denoted by the same reference numerals, and duplicated descriptions will be omitted.
〔1.情報処理〕
図1を用いて、実施形態に係る情報処理の一例について説明する。図1は、実施形態に係る情報処理システムによる処理の一例を示す図である。図1では、情報処理装置100は、ユーザが頭部に装着した端末装置10が出力するコンテンツがユーザに引き起こす感情を示すラベル情報と、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの生体信号を用いて人の感情を推定する推定モデルを学習する。そして、情報処理装置100は、推定モデルを用いてユーザの感情を推定する。
[1. Information Processing]
An example of information processing according to the embodiment will be described with reference to Fig. 1. Fig. 1 is a diagram showing an example of processing by an information processing system according to the embodiment. In Fig. 1, an
図1の例では、ユーザが頭部に装着する端末装置10の一例として、コンテンツの表示及び音声出力が可能なヘッドセット一体型のヘッドマウントディスプレイ(以下単に「ヘッドマウントディスプレイ」ともいう)を示す。なお、ユーザが頭部に装着する端末装置10はヘッドマウントディスプレイに限られない。例えば、端末装置10には、ヘッドマウントディスプレイ単体、オーバーイヤーヘッドホン、ヘッドセット一体型のVR(Virtual Reality)ゴーグル、スマートフォンはめ込み型のVRゴーグル、眼鏡やイヤホン等と一体化したウェアラブルデバイス等様々な装置が採用可能である。また、図1では、ユーザの生体信号の一例として、ユーザの顔の筋電位を示すが、ユーザの生体信号は、顔の筋電位に限らず、頭部の様々な身体的部位の筋電位であってもよい。また、ユーザの生体信号は、筋電位以外のユーザの生体信号を用いてもよいが、この点については後述する。
In the example of FIG. 1, a head-mounted display (hereinafter simply referred to as a "head-mounted display") that is integrated with a headset and capable of displaying content and outputting audio is shown as an example of a
まず、情報処理システム1の構成について説明する。図1に示すように、情報処理システム1には、複数台の端末装置10と、情報処理装置100とが含まれる。各端末装置10と、情報処理装置100とは図示しない所定の通信網を介して、有線または無線により通信可能に接続される。なお、図1に示した情報処理システム1には、複数台の情報処理装置100が含まれてもよい。
First, the configuration of the information processing system 1 will be described. As shown in FIG. 1, the information processing system 1 includes multiple
情報処理装置100は、コンテンツに対応付けられた感情を示すラベル情報(単に「ラベル」ともいう)と、コンテンツの出力時におけるユーザの生体信号とを含む学習用データを用いて、人の感情を推定する推定モデルを学習するコンピュータである。また、情報処理装置100は、人の感情を推定する推定モデルを用いてユーザの感情を推定する。また、情報処理装置100は、端末装置10へコンテンツを提供する。なお、情報処理システム1に、端末装置10へコンテンツを提供するコンテンツ提供装置が含まれる場合、情報処理装置100は、端末装置10へコンテンツの提供を行わなくてもよい。この場合、情報処理装置100は、推定したユーザの感情を示す情報をコンテンツ提供装置へ提供してもよい。
The
端末装置10は、ユーザの頭部に装着されユーザによって利用されるデバイス(コンピュータ)である。端末装置10は、コンテンツを出力する。端末装置10は、情報処理装置100からコンテンツを受信し、受信したコンテンツを出力する。例えば、端末装置10は、コンテンツを表示したり、音声出力したりする。また、端末装置10は、ユーザによる操作を受け付ける。
The
また、端末装置10は、筋電位を検知するセンサ(筋電位センサ)を有する。図1では、端末装置10は、顔の筋電位を検知する筋電位センサを有し、ユーザの顔の筋電位をユーザの生体信号として検知する。なお、端末装置10は、筋電位以外のユーザの生体信号を検知し、取得可能であってもよい。例えば、端末装置10は、ユーザの眼電位を検知する眼電位センサを有し、ユーザの眼電位を検知してもよい。また、端末装置10は、電位を検知するセンサに限らず、心拍センサ等を有してもよいが、この点については後述する。例えば、端末装置10を利用するユーザは、端末装置10と通信可能なウェアラブルデバイスを身に付けることにより、端末装置10によりユーザの生体信号を取得可能としてもよい。例えば、端末装置10を利用するユーザは、端末装置10と通信可能なリストバンド型のウェアラブルデバイスを身に付けることにより、端末装置10によりユーザ自身の心拍(脈拍)に関する情報を端末装置10が取得可能としてもよい。なお、上記は一例であり、端末装置10は、様々な情報を検知するセンサを有してもよい。
The
また、以下では、端末装置10をユーザと表記する場合がある。すなわち、以下では、ユーザを端末装置10と読み替えることもできる。図1の例では、端末装置10がヘッドマウントディスプレイである場合を示す。
In addition, in the following, the
以下では、ユーザID「U1」により識別されるユーザを「ユーザU1」とする場合がある。このように、以下では、「ユーザU*(*は任意の数値)」と記載した場合、そのユーザはユーザID「U*」により識別されるユーザであることを示す。例えば、「ユーザU2」と記載した場合、そのユーザはユーザID「U2」により識別されるユーザである。また、図1に示す例においては、端末装置10を利用するユーザに応じて、端末装置10を端末装置10-1、10-2として説明する。例えば、端末装置10-1は、ユーザID「U1」により識別されるユーザ(ユーザU1)により使用される端末装置10である。また、例えば、端末装置10-2は、ユーザID「U2」により識別される(ユーザU2)により使用される端末装置10である。また、以下では、端末装置10-1、10-2について、特に区別なく説明する場合には、端末装置10と記載する。
In the following, a user identified by user ID "U1" may be referred to as "user U1". In this way, when "user U* (* is an arbitrary numerical value)" is written below, it indicates that the user is identified by user ID "U*". For example, when "user U2" is written, the user is identified by user ID "U2". In addition, in the example shown in FIG. 1, the
以下、図1を用いて、情報処理の一例を説明する。まず、情報処理装置100による推定モデルの学習処理について説明した後、情報処理装置100による推定モデルを用いた感情の推定処理について説明する。
An example of information processing will be described below with reference to FIG. 1. First, the learning process of the estimation model by the
まず、情報処理装置100は、ユーザU1が利用する端末装置10-1にコンテンツを提供する(ステップS11)。情報処理装置100は、ユーザに与える心理的な作用を示すラベルが対応付けられたコンテンツの一覧から、ユーザU1に提供するコンテンツを決定する。情報処理装置100は、コンテンツの一覧から、ランダムにユーザU1に提供するコンテンツを決定してもよいし、ユーザU1の年齢、性別、興味関心等のユーザ属性を基にユーザU1に提供するコンテンツを決定してもよい。なお、上記は一例に過ぎず、情報処理装置100は、様々な情報を適宜用いて、ユーザU1に提供するコンテンツを決定してもよい。
First, the
例えば、情報処理装置100は、端末装置10-1が再生可能なコンテンツの種別に応じてユーザU1に提供するコンテンツを決定してもよい。この場合、情報処理装置100は、端末装置10-1が映像を出力可能であれば、映像のみを含むコンテンツをユーザU1に提供するコンテンツとして決定してもよい。また、情報処理装置100は、端末装置10-1が音声のみを出力可能であれば、音声を含むコンテンツをユーザU1に提供するコンテンツとして決定してもよい。また、情報処理装置100は、端末装置10-1が映像及び音声を出力可能であれば、映像及び音声を含むコンテンツをユーザU1に提供するコンテンツとして決定してもよい。例えば、端末装置10-1が音声のみを出力可能な装置(オーバーイヤーヘッドホン等)である場合、情報処理装置100は、音声を含むコンテンツをユーザU1に提供するコンテンツとして決定する。
For example, the
そして、情報処理装置100は、決定したコンテンツをユーザU1が利用する端末装置10-1へ送信する。図1では、情報処理装置100は、ユーザに与える心理的な作用が喜びの感情であることを示すラベルLB1が対応付けられたコンテンツCT1をユーザU1が利用する端末装置10-1へ送信する。
Then, the
情報処理装置100からコンテンツCT1を受信した端末装置10-1は、コンテンツCT1を出力する(ステップS12)。例えば、端末装置10-1は、映像と音声を含むコンテンツCT1を表示し、音声出力を行う。なお、端末装置10-1がオーバーイヤーヘッドホンのような音声出力のみを行う装置である場合、端末装置10-1は、コンテンツCT1の音声出力のみを行ってもよい。端末装置10-1は、コンテンツCT1を出力するとともに、コンテンツCT1を出力時のユーザU1の顔の筋電位であるユーザU1の生体信号を検知する。これにより、端末装置10-1は、コンテンツCT1を出力時のユーザU1の顔の筋電位であるユーザU1の生体信号を収集する。そして、ユーザU1の生体信号を収集した端末装置10-1は、収集したユーザU1の生体信号(生体信号データDT1)を情報処理装置100へ送信する(ステップS13)。
The terminal device 10-1 that has received the content CT1 from the
情報処理装置100は、端末装置10から取得した生体信号データを、コンテンツやそのコンテンツが引き起こす感情を示すラベルに対応付け、学習用データとして追加する(ステップS14)。端末装置10-1からユーザU1の生体信号(生体信号データDT1)を取得した情報処理装置100は、取得したユーザU1の生体信号をコンテンツCT1の分類ラベルと対応付けてデータセットDS1に追加する。例えば、情報処理装置100は、生体信号データDT1をコンテンツCT1、及び喜びの感情を示すラベルLB1に対応付けて、学習用データとしてデータセットDS1に追加する。
The
また、情報処理装置100は、他のユーザにもコンテンツを提供し、提供したコンテンツの出力時のそのユーザの生体信号データと、提供したコンテンツの分類ラベルとを対応付けて、学習用データとしてデータセットDS1に追加する。これにより、情報処理装置100は、図1のデータセットDS1に示すように複数の学習用データを含むデータセットを生成する。なお、情報処理装置100は、外部装置からデータセットDS1を取得してもよい。すなわち、学習用データの収集は、情報処理装置100以外の外部装置が行い、情報処理装置100は、その外部装置から取得したデータセットを用いて、推定モデルの学習を行ってもよい。
The
そして、情報処理装置100は、データセットDS1を用いて、ユーザの生体信号を入力として、そのユーザの感情を分類する情報を出力する感情推定モデルである推定モデルM1を学習する(ステップS15)。例えば、情報処理装置100は、ユーザの顔の筋電位であるユーザの生体信号の入力に応じて、そのユーザの感情がどの感情であるかの可能性を示す各感情のスコアを出力する推定モデルM1を学習する。この場合、情報処理装置100は、推定モデルM1が出力したスコアが最大の感情を、そのユーザの感情であると推定する。例えば、情報処理装置100は、ニューラルネットワークのネットワーク構成を有する推定モデルM1を学習する。なお、推定モデルM1のネットワーク構成は、感情の推定に用いる情報を出力可能であれば、どのようなネットワーク構成であってもよい。
Then, the
例えば、情報処理装置100は、生体信号データDT1が入力された場合に、ラベルLB1に対応する感情「喜び」に対応するスコアが最大になるように推定モデルM1の重み等のパラメータを学習する。また、例えば、情報処理装置100は、生体信号データDT2が入力された場合に、ラベルLB2に対応する感情「怒り」に対応するスコアが最大になるように推定モデルM1の重み等のパラメータを学習する。情報処理装置100は、推定モデルM1のネットワーク構成や学習したパラメータ等を含むモデルデータMDT1を生成する。これにより、情報処理装置100は、感情推定モデルである推定モデルM1を生成する。推定モデルM1の学習処理には、任意の手法が採用可能である。
For example, when biosignal data DT1 is input, the
例えば、情報処理装置100は、バックプロパゲーション(誤差逆伝播法)等の手法により学習処理を行う。例えば、情報処理装置100は、学習処理により、ノード間で値が伝達する際に考慮される重み(すなわち、接続係数)の値を調整する。このように、情報処理装置100は、推定モデルM1における出力と、入力に対応する正解(正解データ)との誤差が少なくなるようにパラメータ(接続係数)を補正するバックプロパゲーション等の処理により推定モデルM1を学習する。例えば、情報処理装置100は、所定の損失(ロス)関数を最小化するようにバックプロパゲーション等の処理を行うことにより推定モデルM1を生成する。これにより、情報処理装置100は、推定モデルM1のパラメータを学習する学習処理を行うことができる。情報処理装置100は、学習処理により生成した推定モデルM1をモデル情報記憶部122(図4参照)に格納する。
For example, the
次に、情報処理装置100による推定モデルを用いた感情の推定処理について説明する。図1では、端末装置10-2を使用するユーザU2を対象として推定処理を行う場合を示す。
Next, we will explain the emotion estimation process using the estimation model by the
端末装置10-2は、ユーザU2の顔の筋電位であるユーザU2の生体信号を検知し、ユーザU2の顔の筋電位であるユーザU2の生体信号を収集する。そして、ユーザU2の生体信号を収集した端末装置10-2は、収集したユーザU2の生体信号を情報処理装置100へ送信する(ステップS21)。 The terminal device 10-2 detects the biosignal of the user U2, which is the myoelectric potential of the user U2's face, and collects the biosignal of the user U2, which is the myoelectric potential of the user U2's face. The terminal device 10-2 that has collected the biosignal of the user U2 then transmits the collected biosignal of the user U2 to the information processing device 100 (step S21).
端末装置10-2からユーザU2の生体信号を受信した情報処理装置100は、受信したユーザU2の生体信号を入力用データINとして、推定モデルM1に入力する(ステップS22)。情報処理装置100は、モデル情報記憶部122から推定モデルM1を取得し、取得した推定モデルM1に、受信したユーザU2の生体信号を入力用データINとして入力する。これにより、ユーザU2の生体信号が入力された推定モデルM1は、ユーザU2の感情推定情報を出力データOTとして出力する(ステップS23)。例えば、推定モデルM1は、ユーザU2の生体信号に対応する各感情のスコアを出力する。図1では、推定モデルM1は、ユーザU2の生体信号の入力に応じて、ラベルLB2に対応する感情「怒り」に対応するスコアが最大となる各感情のスコアを出力する。
The
そして、情報処理装置100は、出力データOTを基に、ユーザU2の感情を推定する(ステップS24)。図1では、情報処理装置100は、ラベルLB2に対応する感情「怒り」に対応するスコアが最大であるため、推定結果RSに示すように、ユーザU2の感情が怒りの感情であると推定する。そして、情報処理装置100は、推定結果に応じてユーザU2に情報提供する(ステップS25)。例えば、情報処理装置100は、ユーザU2の感情が怒りであるため、怒りの感情を鎮めるように促す通知情報を送信する。また、情報処理装置100は、ユーザU2の感情が怒りであるため、怒りの感情を鎮めるためのコンテンツを提供してもよいが、この点については後述する。
Then, the
上述したように、情報処理装置100は、コンテンツがユーザに与える心理的な作用を示すラベルと、そのコンテンツが出力時のユーザの生体信号とを用いて、人の感情を推定する推定モデルを学習することにより、ユーザの感情と生体信号との対応関係を適切に学習したモデルを生成することができる。したがって、情報処理装置100は、適切なユーザの感情推定を可能にすることができる。また、情報処理装置100は、推定モデルを用いてユーザの感情を推定することにより、適切にユーザの感情を推定することができる。上記のような推定モデルを生成しておくことにより、情報処理システム1は、筋電位や眼電位を取得しない端末装置(ヘッドマウントディスプレイ、ヘッドフォン等)であっても表示する画像や出力される音声等のコンテンツによって、ユーザに生じる感情を推定することができる。また、情報処理システム1は、推定モデルによりコンテンツを視聴していないユーザも対象として、そのユーザに生じる感情を推定することができる。すなわち、情報処理システム1は、推定モデルの入力とするデータが取得可能な全ユーザを対象として、ユーザに生じる感情を推定することができる。また、情報処理装置100は、生体信号に限らず、様々な種別のデータを入力とする推定モデルを生成してもよい。例えば、情報処理装置100は、センサ部16が有する様々なセンサにより検知されるセンサ情報を用いて推定モデルを生成してもよい。この場合、情報処理装置100は、センサ部16が有する様々なセンサにより検知されるセンサ情報を入力とする推定モデルを生成する。例えば、情報処理装置100は、生体信号に加えて、他の種別のデータを入力とする推定モデルを生成してもよい。例えば、情報処理装置100は、画像データを入力とする推定モデルを生成してもよい。また、情報処理装置100は、加速度やジャイロなどの非生体センサのデータを入力とする推定モデルを生成してもよい。すなわち、情報処理装置100は、ユーザの感情の推定に利用可能な情報であれば、生体信号のみに限らず、様々な情報を用いてもよい。
As described above, the
〔1-1.生体信号〕
上記の例では、顔の筋電位をユーザの生体信号として用いる場合を一例として説明したが、ユーザの生体信号は顔の筋電位に限られない。例えば、情報処理装置100は、ユーザの眼電位をユーザの生体信号として用いてもよい。この場合、情報処理装置100は、ユーザの眼電位を入力用データに含む推定モデルを学習してもよい。そして、情報処理装置100は、ユーザの眼電位を含む入力用データを推定モデルに入力することにより、ユーザの感情を推定してもよい。
[1-1. Biosignals]
In the above example, a case where facial myoelectric potential is used as a biosignal of the user has been described as an example, but the biosignal of the user is not limited to facial myoelectric potential. For example, the
また、情報処理装置100は、ユーザの心拍をユーザの生体信号として用いてもよい。この場合、情報処理装置100は、ユーザの心拍を入力用データに含む推定モデルを学習してもよい。そして、情報処理装置100は、ユーザの心拍を含む入力用データを推定モデルに入力することにより、ユーザの感情を推定してもよい。
The
また、情報処理装置100は、ユーザの脳波をユーザの生体信号として用いてもよい。この場合、情報処理装置100は、ユーザの脳波を入力用データに含む推定モデルを学習してもよい。そして、情報処理装置100は、ユーザの脳波を含む入力用データを推定モデルに入力することにより、ユーザの感情を推定してもよい。
The
また、情報処理装置100は、ユーザの脈拍をユーザの生体信号として用いてもよい。この場合、情報処理装置100は、ユーザの脈拍を入力用データに含む推定モデルを学習してもよい。そして、情報処理装置100は、ユーザの脈拍を含む入力用データを推定モデルに入力することにより、ユーザの感情を推定してもよい。
The
また、情報処理装置100は、ユーザの呼吸をユーザの生体信号として用いてもよい。この場合、情報処理装置100は、ユーザの呼吸を入力用データに含む推定モデルを学習してもよい。そして、情報処理装置100は、ユーザの呼吸を含む入力用データを推定モデルに入力することにより、ユーザの感情を推定してもよい。
The
また、情報処理装置100は、ユーザの発汗をユーザの生体信号として用いてもよい。この場合、情報処理装置100は、ユーザの発汗を入力用データに含む推定モデルを学習してもよい。そして、情報処理装置100は、ユーザの発汗を含む入力用データを推定モデルに入力することにより、ユーザの感情を推定してもよい。
The
なお、上記は一例に過ぎず、情報処理装置100は、ユーザの様々な種別の生体信号を用いてもよい。また、情報処理装置100は、上述した各種別の生体信号を組み合わせて用いてもよい。例えば、情報処理装置100は、ユーザの顔の筋電位とユーザの呼吸との2つの種別の生体信号を入力用データとする推定モデルを用いた処理を行ってもよい。例えば、情報処理装置100は、ユーザの顔の筋電位とユーザの呼吸との2つの種別の生体信号を入力用データとする推定モデルを学習したり、その推定モデルを用いた推定処理を行ったりしてもよい。
Note that the above is merely an example, and the
〔1-2.感情〕
なお、図1の例では、ラベル(感情)として、「喜び」、「怒り」、「悲しみ」、「楽しみ」の4つのラベル(感情)のみを例示するが、ラベル情報は上記の4つに限らず、感情の分類は、上記に限らず、目的等に応じて種々の分類であってもよい。例えば「無感情」(図5参照)等の様々な感情を示すラベルであってもよい。また、ラベル(感情)は、怒りや悲しみ等を負の感情を併合した「負の感情」や、喜びや楽しみ等を正の感情を併合した「正の感情」等のより抽象的なラベルであってもよい。
[1-2. Emotions
In the example of FIG. 1, only four labels (emotions) "joy", "anger", "sadness", and "pleasure" are shown as examples of labels (emotions), but the label information is limited to these four. The classification of emotions is not limited to the above, and various classifications may be used depending on the purpose, etc. For example, labels indicating various emotions such as "neutral" (see FIG. 5) may be used. In addition, labels (emotions) can be more abstract, such as "negative emotions" that combine negative emotions such as anger and sadness, or "positive emotions" that combine positive emotions such as joy and pleasure. may be also possible.
〔2.情報処理装置の構成〕
次に、図2を用いて、実施形態に係る情報処理装置100の構成について説明する。図2は、実施形態に係る情報処理装置100の構成例を示す図である。図2に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、情報処理装置100は、情報処理装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
2. Configuration of information processing device
Next, the configuration of the
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、所定の通信網(ネットワーク)と有線または無線で接続され、端末装置10との間で情報の送受信を行う。
(Communication unit 110)
The communication unit 110 is realized by, for example, a network interface card (NIC) etc. The communication unit 110 is connected to a predetermined communication network by wire or wirelessly, and transmits and receives information to and from the
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部120は、図2に示すように、学習用データ記憶部121と、モデル情報記憶部122と、コンテンツ情報記憶部123とを有する。
(Memory unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory element such as a random access memory (RAM) or a flash memory, or a storage device such as a hard disk or an optical disk. As shown in FIG. 2 , the storage unit 120 according to the embodiment has a learning
(学習用データ記憶部121)
実施形態に係る学習用データ記憶部121は、学習に用いるデータに関する各種情報を記憶する。学習用データ記憶部121は、学習に用いる学習データ(データセット)を記憶する。図3は、本開示の実施形態に係る学習用データ記憶部の一例を示す図である。例えば、学習用データ記憶部121は、学習に用いる学習データや精度評価(測定)に用いる評価用データ等の種々のデータに関する各種情報を記憶する。図3に、実施形態に係る学習用データ記憶部121の一例を示す。図3の例では、学習用データ記憶部121は、「データセットID」、「データID」、「生体信号データ」、「コンテンツID」、「分類ラベル」といった項目が含まれる。
(Learning Data Storage Unit 121)
The learning
「データセットID」は、データセットを識別するための識別情報を示す。「データID」は、各学習用データを識別するための識別情報を示す。また、「生体信号データ」は、データIDにより識別されるデータ(生体信号データ)を示す。「生体信号データ」は、モデルの入力として用いられる生体信号データ(入力用データ)を示す。「生体信号データ」には、どのユーザの生体信号であるかを示す情報(例えばユーザID)が対応付けられてもよい。 "Dataset ID" indicates identification information for identifying a dataset. "Data ID" indicates identification information for identifying each piece of learning data. Furthermore, "biological signal data" indicates data (biological signal data) identified by a data ID. "Biological signal data" indicates biological signal data (input data) used as input for a model. "Biological signal data" may be associated with information indicating which user's biological signal it is (e.g., a user ID).
「コンテンツID」は、対応する生体信号データが検知された際に出力されたコンテンツを示す。「分類ラベル」は、対応するコンテンツに対応付けられたラベル情報(正解情報)を示す。「分類ラベル」は、対応するデータ(入力用データ)に対応するユーザの感情の分類結果を示す。図3の例では、「分類ラベル」は、入力用データである生体信号データに対応するユーザの感情を推定するための分類を示す。「分類ラベル」は、対応するデータ(入力用データ)がモデルに入力された場合に、モデルが出力することが期待されるユーザの感情を示す情報(分類ラベル)を示す。 "Content ID" indicates the content output when the corresponding biosignal data was detected. "Classification label" indicates label information (correct answer information) associated with the corresponding content. "Classification label" indicates the classification result of the user's emotion corresponding to the corresponding data (input data). In the example of Figure 3, "classification label" indicates a classification for estimating the user's emotion corresponding to the biosignal data that is the input data. "Classification label" indicates information (classification label) that indicates the user's emotion that is expected to be output by the model when the corresponding data (input data) is input to the model.
図3の例では、データセットID「DS1」により識別されるデータセット(データセットDS1)には、データID「DID1」、「DID2」、「DID3」等により識別される複数のデータが含まれることを示す。 The example in Figure 3 shows that the dataset (dataset DS1) identified by the dataset ID "DS1" includes multiple data identified by data IDs "DID1", "DID2", "DID3", etc.
データID「DID1」により識別される生体信号データDT1は、コンテンツID「CT1」により識別されるコンテンツ(コンテンツCT1)の出力時に検知されたユーザの生体信号を示す。また、生体信号データDT1は、分類ラベルが「LB1」であることを示す。図3では抽象的に図示するが、ラベルLB1は「喜び」の感情に対応するラベル(値)であるものとする。 The biosignal data DT1 identified by the data ID "DID1" indicates the user's biosignal detected when the content (content CT1) identified by the content ID "CT1" is output. The biosignal data DT1 also indicates that the classification label is "LB1." Although illustrated abstractly in FIG. 3, the label LB1 is assumed to be a label (value) corresponding to the emotion of "joy."
なお、学習用データ記憶部121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、学習用データ記憶部121は、音声や画像等の教師データの種別を示す情報を各データに対応付けて記憶する。例えば、学習用データ記憶部121は、データの種別を示す情報を各データに対応付けて記憶する。
The learning
例えば、学習用データ記憶部121は、各生体信号データが学習データであるか、評価用データであるか等を特定可能に記憶してもよい。例えば、学習用データ記憶部121は、学習データと評価用データとを区別可能に記憶する。学習用データ記憶部121は、各データが学習データや評価用データであるかを識別する情報を記憶してもよい。情報処理装置100は、学習データとして用いられる各生体信号データと分類ラベルとに基づいて、モデルを学習する。情報処理装置100は、評価用データとして用いられる各生体信号データと分類ラベルとに基づいて、モデルの精度を測定する。情報処理装置100は、評価用データを入力した場合にモデルが出力する出力結果(感情を推定する出力情報)と、分類ラベルとを比較した結果を収集することにより、モデルの精度を測定する。
For example, the learning
(モデル情報記憶部122)
実施形態に係るモデル情報記憶部122は、モデルに関する情報を記憶する。例えば、モデル情報記憶部122は、学習処理により学習(生成)された学習済みモデル(モデル)の情報(モデルデータ)を記憶する。図4は、本開示の第1の実施形態に係るモデル情報記憶部の一例を示す図である。図4に、第1の実施形態に係るモデル情報記憶部122の一例を示す。図4に示した例では、モデル情報記憶部122は、「モデルID」、「用途」、「モデルデータ」といった項目が含まれる。
(Model information storage unit 122)
The model
「モデルID」は、モデルを識別するための識別情報を示す。「用途」は、対応するモデルの用途を示す。「モデルデータ」は、モデルのデータを示す。図4等では「モデルデータ」に「MDT1」といった概念的な情報が格納される例を示したが、実際には、モデルの構成(ネットワーク構成)の情報やパラメータに関する情報等、そのモデルを構成する種々の情報が含まれる。例えば、「モデルデータ」には、ネットワークの各層におけるノードと、各ノードが採用する関数と、ノードの接続関係と、ノード間の接続に対して設定される接続係数とを含む情報が含まれる。 "Model ID" indicates identification information for identifying a model. "Use" indicates the use of the corresponding model. "Model data" indicates the data of the model. Figure 4 etc. shows an example in which conceptual information such as "MDT1" is stored in "model data", but in reality, various information that constitutes the model is included, such as information on the model configuration (network configuration) and information on parameters. For example, "model data" includes information including the nodes in each layer of the network, the functions employed by each node, the connection relationships between the nodes, and the connection coefficients set for the connections between the nodes.
図4に示す例では、モデルID「M1」により識別されるモデル(推定モデルM1)は、用途が「感情推定」であることを示す。例えば、推定モデルM1は、ユーザの生体信号である入力用データが入力された場合に、入力用データに対応するユーザの感情を推定する情報を出力する推定モデル(感情推定モデル)であることを示す。また、推定モデルM1のモデルデータは、モデルデータMDT1であることを示す。 In the example shown in FIG. 4, the model identified by the model ID "M1" (estimation model M1) indicates that its use is "emotion estimation." For example, estimation model M1 indicates that it is an estimation model (emotion estimation model) that outputs information that estimates the user's emotion corresponding to input data when input data that is a user's biosignal is input. In addition, it indicates that the model data of estimation model M1 is model data MDT1.
なお、モデル情報記憶部122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。
The model
(コンテンツ情報記憶部123)
実施形態に係るコンテンツ情報記憶部123は、コンテンツ(記事)に関する各種情報を記憶する。図5は、実施形態に係るコンテンツ情報記憶部の一例を示す図である。図5に示すコンテンツ情報記憶部123は、「コンテンツID」、「コンテンツ」、「ラベル情報」といった項目を有する。なお、図5の例では、ラベル情報として、「喜び」、「怒り」、「悲しみ」、「楽しみ」、「無感情」の5つのラベル(感情)のみを例示するが、ラベル情報は上記の5つに限らず、様々な感情を示すラベルであってもよい。
(Content information storage unit 123)
The content
「コンテンツID」は、コンテンツを識別するための識別情報を示す。「コンテンツ」は、映画などの動画コンテンツであってもよいし、楽曲などの音声コンテンツ等の様々な種別のコンテンツであってもよい。図5では「コンテンツ」に「Aコンテンツ」といった概念的な情報が格納される例を示したが、実際には、そのコンテンツ自体、または、そのコンテンツの格納場所を示すファイルパス名などが格納される。 "Content ID" indicates identification information for identifying the content. "Content" may be video content such as a movie, or various types of content such as audio content such as music. Figure 5 shows an example in which conceptual information such as "Content A" is stored in "Content", but in reality, the content itself or a file path name indicating the storage location of the content is stored.
また、「ラベル情報」は、コンテンツがユーザに与える心理的な作用を示す。例えば、「ラベル情報」は、コンテンツがユーザに対して出力された場合にユーザがどのような心理状態(感情)になるかを示す。すなわち、「ラベル情報」は、コンテンツの出力によりユーザに引き起こされる感情(正解情報)を示す。 Furthermore, the "label information" indicates the psychological effect that the content has on the user. For example, the "label information" indicates the psychological state (emotion) that the user will be in when the content is output to the user. In other words, the "label information" indicates the emotion (correct answer information) that is evoked in the user by the output of the content.
図5の例では、コンテンツID「CT1」により識別されるAコンテンツ(コンテンツCT1)は、ラベル情報LB1が関連付けられていることを示す。例えば、コンテンツCT1は、ラベル情報LB1に対応する「喜び」の感情をユーザに引き起こさせることを示す。 In the example of FIG. 5, content A (content CT1) identified by content ID "CT1" indicates that label information LB1 is associated with it. For example, content CT1 indicates that it induces in the user the emotion of "joy" corresponding to label information LB1.
また、コンテンツID「CT2」により識別されるBコンテンツ(コンテンツCT2)は、ラベル情報LB2が関連付けられていることを示す。例えば、コンテンツCT2は、ラベル情報LB2に対応する「怒り」の感情をユーザに引き起こさせることを示す。 In addition, B content (content CT2) identified by the content ID "CT2" indicates that it is associated with label information LB2. For example, content CT2 indicates that it evokes in the user the emotion of "anger" corresponding to label information LB2.
なお、コンテンツ情報記憶部123は、上記に限らず、目的に応じて種々の情報を記憶してもよい。
The content
(制御部130)
図2の説明に戻って、制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(Control unit 130)
Returning to the explanation of Fig. 2, the control unit 130 is a controller, and is realized, for example, by a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like, executing various programs (corresponding to an example of an information processing program) stored in a storage device inside the
図2に示すように、制御部130は、取得部131と、学習部132と、推定部133と、提供部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図2に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図2に示した接続関係に限られず、他の接続関係であってもよい。
As shown in FIG. 2, the control unit 130 has an acquisition unit 131, a learning unit 132, an
(取得部131)
取得部131は、記憶部120から各種の情報を取得する。取得部131は、ユーザが使用する端末装置10からユーザの生体信号を受信する。取得部131は、学習用データ記憶部121から学習に用いるデータを取得する。取得部131は、モデル情報記憶部122からモデルの情報を取得する。取得部131は、コンテンツ情報記憶部123からユーザに提供するコンテンツを取得する。
(Acquisition unit 131)
The acquisition unit 131 acquires various types of information from the storage unit 120. The acquisition unit 131 receives a biosignal of a user from the
取得部131は、ユーザが頭部に装着した端末装置10が出力するコンテンツがユーザに与える心理的な作用を示すラベル情報と、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの生体信号である入力用データとを含む学習用データを取得する。
The acquisition unit 131 acquires learning data including label information indicating the psychological effect on the user of the content output by the
取得部131は、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの生体電位である入力用データを含む学習用データを取得する。取得部131は、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの頭部の筋電位を含む入力用データを含む学習用データを取得する。取得部131は、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの顔の筋電位を含む入力用データを含む学習用データを取得する。
The acquisition unit 131 acquires learning data including input data that is the bioelectric potential of the user detected by the
取得部131は、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの眼電位を含む入力用データを含む学習用データを取得する。取得部131は、コンテンツによりユーザに引き起こされる感情を示すラベル情報を含む学習用データを取得する。
The acquisition unit 131 acquires learning data including input data including the user's electrooculography detected by the
取得部131は、ユーザが頭部に装着したヘッドマウントディスプレイである端末装置10が出力するコンテンツのラベル情報を含む学習用データを取得する。取得部131は、映像を含むコンテンツがユーザに与える心理的な作用を示すラベル情報を含む学習用データを取得する。
The acquisition unit 131 acquires learning data including label information of content output by the
取得部131は、ユーザが頭部に装着したオーバーイヤーヘッドホンである端末装置10が出力するコンテンツのラベル情報を含む学習用データを取得する。取得部131は、音声を含むコンテンツがユーザに与える心理的な作用を示すラベル情報を含む学習用データを取得する。
The acquisition unit 131 acquires learning data including label information of content output by the
取得部131は、ユーザが頭部に装着した端末装置10が出力するコンテンツがユーザに与える心理的な作用を示すラベル情報と、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの生体信号である入力用データとを含む学習用データを用いて生成された推定モデルであって、入力用データの入力に応じて当該入力用データに対応する人の感情を推定する情報を出力する推定モデルを取得する。取得部131は、モデル情報記憶部122から推定モデルを取得する。取得部131は、端末装置10を装着した対象ユーザの生体信号である対象生体信号を取得する。
The acquisition unit 131 acquires an estimation model that is generated using learning data including label information indicating the psychological effect that content output by the
(学習部132)
学習部132は、モデルを学習する。学習部132は、外部の情報処理装置からの情報や記憶部120に記憶された情報に基づいて、各種情報を学習する。学習部132は、学習用データ記憶部121に記憶された情報に基づいて、各種情報を学習する。学習部132は、学習により生成したモデルをモデル情報記憶部122に格納する。
(Learning Unit 132)
The learning unit 132 learns a model. The learning unit 132 learns various pieces of information based on information from an external information processing device and information stored in the storage unit 120. The learning unit 132 learns various pieces of information based on information stored in the learning
学習部132は、学習用データを用いて、入力用データの入力に応じて当該入力用データに対応する人の感情を推定する情報を出力する推定モデルを学習する。学習部132は、学習用データを用いて、生体電位に対応する人の感情を推定する情報を出力する推定モデルを学習する。学習部132は、学習用データを用いて、頭部の筋電位に対応する人の感情を推定する情報を出力する推定モデルを学習する。学習部132は、学習用データを用いて、顔の筋電位に対応する人の感情を推定する情報を出力する推定モデルを学習する。 The learning unit 132 uses the learning data to learn an estimation model that outputs information that estimates a person's emotion corresponding to input data in response to the input of the input data. The learning unit 132 uses the learning data to learn an estimation model that outputs information that estimates a person's emotion corresponding to a bioelectric potential. The learning unit 132 uses the learning data to learn an estimation model that outputs information that estimates a person's emotion corresponding to the myoelectric potential of the head. The learning unit 132 uses the learning data to learn an estimation model that outputs information that estimates a person's emotion corresponding to the myoelectric potential of the face.
学習部132は、学習用データを用いて、眼電位に対応する人の感情を推定する情報を出力する推定モデルを学習する。学習部132は、学習用データを用いて、推定モデルを学習する。学習部132は、学習用データを用いて、端末装置10を装着した人の感情を推定する推定モデルを学習する。学習部132は、学習用データを用いて、端末装置10を装着した人の感情を推定する推定モデルを学習する。
The learning unit 132 uses the learning data to learn an estimation model that outputs information that estimates the emotion of a person corresponding to the electrooculography. The learning unit 132 uses the learning data to learn the estimation model. The learning unit 132 uses the learning data to learn an estimation model that estimates the emotion of a person wearing the
学習部132は、モデル(ネットワーク)のパラメータを学習する。学習部132は、接続されたノード間の接続係数(重み)等のパラメータを学習する。学習部132は、種々の機械学習に関する技術を用いて、モデルを学習する。学習部132は、モデルに入力するデータと、そのデータが入力された場合の出力を示す分類ラベル(正解ラベル)を用いて行う学習処理、すなわち教師有り学習の手法によりモデルのパラメータを学習する。なお、上記は一例であり、学習部132は、モデルのパラメータを学習可能であれば、どのような学習処理により、モデルのパラメータを学習してもよい。 The learning unit 132 learns the parameters of the model (network). The learning unit 132 learns parameters such as the connection coefficients (weights) between connected nodes. The learning unit 132 learns the model using various machine learning techniques. The learning unit 132 learns the model parameters by a learning process that uses data to be input to the model and classification labels (correct answer labels) that indicate the output when that data is input, that is, a supervised learning method. Note that the above is just one example, and the learning unit 132 may learn the model parameters by any learning process as long as it is capable of learning the model parameters.
なお、情報処理装置100が外部装置から外部装置が学習した推定モデルを取得し、取得した推定モデルを用いて人の感情を推定する場合、情報処理装置100は、学習部132を有しなくてもよい。
Note that when the
(推定部133)
推定部133は、人の感情を推定する推定処理を実行する。推定部133は、学習部132により学習された推定モデルを用いて、人の感情を推定する。推定部133は、推定モデルに対象生体信号を入力することにより、対象ユーザの感情を推定する。
(Estimation unit 133)
The
推定部133は、推定したユーザの感情を用いた各種処理を行う。推定部133は、推定したユーザの感情を基に決定処理を行う。推定部133は、推定したユーザの感情に基づいて、ユーザに提供するコンテンツを決定する。推定部133は、推定したユーザの感情に対応するコンテンツをそのユーザに提供すると決定する。推定部133は、推定したユーザの感情とは逆の感情を引き起こすコンテンツをそのユーザに提供すると決定する。推定部133は、推定したユーザの感情が悲しみである場合、喜びの感情が対応付けられたすコンテンツをそのユーザに提供すると決定する。
The
(提供部134)
提供部134は、ユーザへ情報を提供する。提供部134は、通信部110を介して、端末装置10へ情報を送信する。提供部134は、コンテンツ情報記憶部123に記憶されたコンテンツをユーザに提供する。提供部134は、コンテンツがユーザに与える心理的な作用を示すラベルが対応付けられたコンテンツをユーザの端末装置10へ送信する。
(Providing Unit 134)
The providing unit 134 provides information to the user. The providing unit 134 transmits information to the
提供部134は、推定部133による推定結果に応じて情報を提供する。例えば、提供部134は、推定部133による決定に応じたコンテンツを提供する。提供部134は、推定部133による推定されたユーザの感情に対応するコンテンツをそのユーザに提供する。提供部134は、推定部133による推定されたユーザの感情とは逆の感情を引き起こすコンテンツをそのユーザの端末装置10に送信する。提供部134は、推定部133による推定されたユーザの感情が悲しみである場合、喜びの感情が対応付けられたすコンテンツをそのユーザの端末装置10に送信する。
The providing unit 134 provides information according to the estimation result by the
〔3.端末装置の構成〕
次に、図6を用いて、実施形態に係る端末装置10の構成について説明する。図6は、実施形態に係る端末装置10の構成例を示す図である。図6に示すように、端末装置10は、通信部11と、音声出力部12と、表示部13と、記憶部14と、制御部15と、センサ部16とを有する。なお、図示を省略するが端末装置10は、ユーザの各種操作が入力される入力部を有してもよい。例えば、入力部は、音声によるユーザに有力を受け付けるマイク(音声入力部)を有する。入力部は、ユーザの発話による各種操作を受け付ける。また、例えば、入力部は、ユーザのジェスチャ等を検知するモーションセンサ等により、ユーザのジェスチャによる操作を受け付けてもよい。この場合、センサ部16は、モーションセンサを有する。
3. Configuration of terminal device
Next, the configuration of the
(通信部11)
通信部11は、例えば、NICや通信回路等によって実現される。そして、通信部11は、所定の通信網(ネットワーク)と有線または無線で接続され、外部の情報処理装置との間で情報の送受信を行う。例えば、通信部11は、所定の通信網と有線または無線で接続され、情報処理装置100との間で情報の送受信を行う。
(Communication unit 11)
The communication unit 11 is realized by, for example, a NIC or a communication circuit. The communication unit 11 is connected to a predetermined communication network by wire or wirelessly, and transmits and receives information to and from an external information processing device. For example, the communication unit 11 is connected to a predetermined communication network by wire or wirelessly, and transmits and receives information to and from the
(音声出力部12)
音声出力部12は、音声を出力するスピーカによって実現され、各種情報を音声として出力するための出力装置である。音声出力部12は、情報処理装置100から提供されるコンテンツを音声出力する。例えば、音声出力部12は、表示部13に表示される情報に対応する音声を出力する。
(Audio output unit 12)
The audio output unit 12 is realized by a speaker that outputs audio, and is an output device for outputting various information as audio. The audio output unit 12 outputs content provided from the
(表示部13)
表示部13は、例えば液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイ等によって実現されるタブレット端末等の表示画面であり、各種情報を表示するための表示装置である。例えば、端末装置10がヘッドマウントディスプレイである場合、ユーザが端末装置10を装着時において、表示部13はユーザの眼前に配置される。なお、端末装置10が例えばオーバーイヤーヘッドホン等、情報の表示を行わない場合、端末装置10は、表示部13を有しなくてもよい。
(Display unit 13)
The display unit 13 is a display screen of a tablet terminal or the like realized by, for example, a liquid crystal display or an organic EL (Electro-Luminescence) display, and is a display device for displaying various information. For example, if the
(記憶部14)
記憶部14は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部14は、例えば、情報処理装置100から受信した各種情報を記憶する。記憶部14は、例えば、端末装置10にインストールされているアプリケーション(例えば情報出力アプリ等)に関する情報、例えばプログラム等を記憶する。
(Memory unit 14)
The storage unit 14 is realized by, for example, a semiconductor memory element such as a random access memory (RAM) or a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 14 stores, for example, various information received from the
(制御部15)
制御部15は、コントローラ(controller)であり、例えば、CPUやMPU等によって、端末装置10内部の記憶部14などの記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。例えば、この各種プログラムは、情報処理を行うアプリケーション(例えば情報出力アプリ)のプログラムが含まれる。また、制御部15は、コントローラ(controller)であり、例えば、ASICやFPGA等の集積回路により実現される。
(Control unit 15)
The control unit 15 is a controller, and is realized, for example, by a CPU, an MPU, or the like, executing various programs stored in a storage device such as the storage unit 14 inside the
図6に示すように、制御部15は、収集部151と、送信部152と、受信部153と、処理部154とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部15の内部構成は、図6に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部15が有する各処理部の接続関係は、図6に示した接続関係に限られず、他の接続関係であってもよい。
As shown in FIG. 6, the control unit 15 has a collection unit 151, a
(収集部151)
収集部151は、各種情報を収集する。例えば、収集部151は、外部の情報処理装置から各種情報を収集する。例えば、収集部151は、収集した各種情報を記憶部14に格納する。収集部151は、センサ部16により検知されたセンサ情報を収集する。
(Collection Unit 151)
The collection unit 151 collects various types of information. For example, the collection unit 151 collects various types of information from an external information processing device. For example, the collection unit 151 stores the collected various types of information in the storage unit 14. The collection unit 151 collects sensor information detected by the sensor unit 16.
収集部151は、端末装置10によるコンテンツの出力時にセンサ部16により検知されるユーザの生体信号を収集する。収集部151は、センサ部16により検知されたユーザの生体電位を収集する。収集部151は、センサ部16により検知されたユーザの頭部の筋電位を収集する。収集部151は、センサ部16により検知されたユーザの顔の筋電位を収集する。
The collection unit 151 collects the biosignals of the user detected by the sensor unit 16 when content is output by the
(送信部152)
送信部152は、通信部11を介して、外部の情報処理装置へ種々の情報を送信する。送信部152は、情報処理装置100へ各種情報を送信する。送信部152は、記憶部14に記憶された各種情報を外部の情報処理装置へ送信する。送信部152は、収集部151により収集された各種情報を情報処理装置100へ送信する。送信部152は、収集部151により収集されたセンサ情報を情報処理装置100へ送信する。送信部152は、センサ部16により検知されたセンサ情報を情報処理装置100へ送信する。送信部152は、ユーザの各種生体信号を情報処理装置100へ送信する。
(Transmitting unit 152)
The transmitting
(受信部153)
受信部153は、通信部11を介して、情報処理装置100から情報を受信する。受信部153は、情報処理装置100が提供する情報を受信する。受信部153は、情報処理装置100からコンテンツを受信する。受信部153は、情報処理装置100から通知情報として広告を受信する。受信部153は、そのコンテンツの出力時にユーザに与える心理的な作用を示すラベル情報が付されたコンテンツを受信する。
(Receiving unit 153)
The receiving unit 153 receives information from the
(処理部154)
処理部154は、各種の処理を実行する。処理部154は、表示部13を介して各種情報を表示する。例えば、処理部154は、表示部13の表示を制御する。処理部154は、音声出力部12を介して各種情報を音声出力する。例えば、処理部154は、音声出力部12の音声出力を制御する。
(Processing Unit 154)
The
処理部154は、受信部153が受信した情報を出力する。処理部154は、情報処理装置100から提供されたコンテンツを出力する。処理部154は、受信部153が受信したコンテンツを、音声出力部12または表示部13を介して出力する。処理部154は、表示部13を介してコンテンツを表示する。処理部154は、音声出力部12を介してコンテンツを音声出力する。
The
なお、上述した制御部15による各処理は、例えば、JavaScript(登録商標)などにより実現されてもよい。また、上述した制御部15による情報処理等の処理は、所定のアプリケーションにより行われる場合、制御部15の各部は、例えば、所定のアプリケーションにより実現されてもよい。例えば、制御部15による情報処理等の処理は、外部の情報処理装置から受信した制御情報により実現されてもよい。例えば、上述した表示処理が所定のアプリケーション(例えば情報出力アプリ等)により行われる場合、制御部15は、例えば、所定のアプリや専用アプリを制御するアプリ制御部を有してもよい。 Note that each of the processes by the control unit 15 described above may be realized by, for example, JavaScript (registered trademark). Furthermore, when the information processing and other processes by the control unit 15 described above are performed by a specified application, each unit of the control unit 15 may be realized by, for example, the specified application. For example, the information processing and other processes by the control unit 15 may be realized by control information received from an external information processing device. For example, when the display process described above is performed by a specified application (for example, an information output application), the control unit 15 may have, for example, an application control unit that controls the specified application or a dedicated application.
(センサ部16)
センサ部16は、所定の情報を検知する。センサ部16は、ユーザの生体信号を検知するためのセンサ(生体信号センサ)を有する。センサ部16は、ユーザの顔の筋電位を検知するための筋電センサを有する。筋電センサは、ユーザの耳から頬付近に配置され、ユーザの顔の筋電位を検知する。また、端末装置10は、筋電センサに限らず、様々なユーザの生体信号を検知するセンサを有してもよい。また、端末装置10は、ユーザの眼電位を検知する眼電位センサを有してもよい。例えば、端末装置10は、ユーザの心拍を検知する心拍センサ、ユーザの脳波を検知する脳波センサ、ユーザの脈拍を検知する脈拍センサ(脈波センサ)、ユーザの呼吸を検知する呼吸センサ(呼気センサ)、ユーザの発汗を検知する発汗センサ等の種々の生体信号を検知するセンサを有してもよい。なお、端末装置10は、ユーザが装着時において、各センサが対応する生体信号を検知可能な位置に配置されるように構成される。
(Sensor unit 16)
The sensor unit 16 detects predetermined information. The sensor unit 16 has a sensor (biological signal sensor) for detecting a biosignal of the user. The sensor unit 16 has an electromyogram sensor for detecting the myoelectric potential of the user's face. The electromyogram sensor is disposed from the ear to the cheek of the user and detects the myoelectric potential of the user's face. The
なお、センサ部16は、上述したユーザの生体信号を検知するためのセンサに限らず、情報処理に用いる情報を検知するための様々なセンサを有してもよい。例えば、センサ部16は、ユーザの健康に関する処理に用いる情報を検知するセンサを有する。例えば、センサ部16は、ユーザによる端末装置10の使用態様を示す使用態様情報として用いる各種のセンサ情報を検知するためのセンサを有する。
The sensor unit 16 is not limited to the above-mentioned sensor for detecting the user's biosignal, and may have various sensors for detecting information used in information processing. For example, the sensor unit 16 has a sensor for detecting information used in processing related to the user's health. For example, the sensor unit 16 has a sensor for detecting various types of sensor information used as usage mode information indicating the usage mode of the
例えば、センサ部16は、モーションセンサを有する。例えば、センサ部16は、画像を検知するカメラ(画像センサ)を有してもよい。例えば、センサ部16は、ユーザを撮像するために画像センサを有する。 For example, the sensor unit 16 has a motion sensor. For example, the sensor unit 16 may have a camera (image sensor) that detects an image. For example, the sensor unit 16 has an image sensor for capturing an image of the user.
例えば、センサ部16は、加速度センサを有する。例えば、センサ部16は、ユーザによる所定の操作の際の端末装置10の加速度情報を検知するセンサを有する。センサ部16は、端末装置10の位置を検知するセンサ(位置センサ)を有する。例えば、センサ部16は、GPS(Global Positioning System)センサを有してもよい。また、端末装置10の位置情報をセンサ情報として取得する場合、センサ部16は、通信を行っている基地局の位置情報や、WiFi(登録商標)(Wireless Fidelity)の電波を用いて推定された端末装置10の位置情報を取得してもよい。
For example, the sensor unit 16 has an acceleration sensor. For example, the sensor unit 16 has a sensor that detects acceleration information of the
また、センサ部16には、上記に限らず、種々のセンサが含まれてもよい。例えば、センサ部16は、端末装置10外の情報を検知するセンサを含んでもよい。
The sensor unit 16 may include various sensors, not limited to those described above. For example, the sensor unit 16 may include a sensor that detects information outside the
なお、センサ部16における上記の各種情報を検知するセンサは共通のセンサであってもよいし、各々異なるセンサにより実現されてもよい。 The sensors that detect the various types of information in the sensor unit 16 may be a common sensor, or each may be a different sensor.
〔4.処理フロー〕
次に、図7を用いて、実施形態に係る情報処理システム1による情報処理の手順について説明する。図7は、実施形態に係る情報処理装置による処理の一例を示すフローチャートである。
4. Processing Flow
Next, a procedure of information processing by the information processing system 1 according to the embodiment will be described with reference to Fig. 7. Fig. 7 is a flowchart showing an example of processing by the information processing device according to the embodiment.
図7に示すように、情報処理装置100は、ユーザが頭部に装着した端末装置10が出力するコンテンツがユーザに与える心理的な作用を示すラベル情報と、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの生体信号である入力用データとを含む学習用データを取得する(ステップS101)。
As shown in FIG. 7, the
情報処理装置100は、学習用データを用いて、入力用データの入力に応じて当該入力用データに対応する人の感情を推定する情報を出力する推定モデルを学習する(ステップS102)。情報処理装置100は、推定モデルを用いて人の感情を推定する(ステップS103)。例えば、情報処理装置100は、端末装置10を装着した対象ユーザの生体信号である対象生体信号を取得し、推定モデルに対象生体信号を入力することにより、対象ユーザの感情を推定する。
The
〔5.効果〕
上述してきたように、実施形態に係る情報処理装置100は、取得部131と、学習部132とを有する。取得部131は、ユーザが頭部に装着した端末装置10が出力するコンテンツがユーザに与える心理的な作用を示すラベル情報と、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの生体信号である入力用データとを含む学習用データを取得する。学習部132は、学習用データを用いて、入力用データの入力に応じて当該入力用データに対応する人の感情を推定する情報を出力する推定モデルを学習する。
5. Effects
As described above, the
これにより、実施形態に係る情報処理装置100は、コンテンツがユーザに与える心理的な作用を示すラベルと、そのコンテンツが出力時のユーザの生体信号とを用いて、人の感情を推定する推定モデルを学習することにより、ユーザの感情と生体信号との対応関係を適切に学習したモデルを生成することができる。したがって、情報処理装置100は、適切なユーザの感情推定を可能にすることができる。
As a result, the
また、実施形態に係る情報処理装置100において、取得部131は、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの生体電位である入力用データを含む学習用データを取得する。学習部132は、学習用データを用いて、生体電位に対応する人の感情を推定する情報を出力する推定モデルを学習する。
In addition, in the
これにより、実施形態に係る情報処理装置100は、ユーザの生体電位を入力とする人の感情の推定モデルを学習することにより、ユーザの感情と生体電位との対応関係を適切に学習したモデルを生成することができる。したがって、情報処理装置100は、適切なユーザの感情推定を可能にすることができる。
As a result, the
また、実施形態に係る情報処理装置100において、取得部131は、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの頭部の筋電位を含む入力用データを含む学習用データを取得する。学習部132は、学習用データを用いて、頭部の筋電位に対応する人の感情を推定する情報を出力する推定モデルを学習する。
In addition, in the
これにより、実施形態に係る情報処理装置100は、ユーザの頭部の筋電位を入力とする人の感情の推定モデルを学習することにより、ユーザの感情と頭部の筋電位との対応関係を適切に学習したモデルを生成することができる。したがって、情報処理装置100は、適切なユーザの感情推定を可能にすることができる。
As a result, the
また、実施形態に係る情報処理装置100において、取得部131は、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの顔の筋電位を含む入力用データを含む学習用データを取得する。学習部132は、学習用データを用いて、顔の筋電位に対応する人の感情を推定する情報を出力する推定モデルを学習する。
In addition, in the
これにより、実施形態に係る情報処理装置100は、ユーザの顔の筋電位を入力とする人の感情の推定モデルを学習することにより、ユーザの感情と顔の筋電位との対応関係を適切に学習したモデルを生成することができる。したがって、情報処理装置100は、適切なユーザの感情推定を可能にすることができる。
As a result, the
また、実施形態に係る情報処理装置100において、取得部131は、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの眼電位を含む入力用データを含む学習用データを取得する。学習部132は、学習用データを用いて、眼電位に対応する人の感情を推定する情報を出力する推定モデルを学習する。
In addition, in the
これにより、実施形態に係る情報処理装置100は、ユーザの眼電位を入力とする人の感情の推定モデルを学習することにより、ユーザの感情と眼電位との対応関係を適切に学習したモデルを生成することができる。したがって、情報処理装置100は、適切なユーザの感情推定を可能にすることができる。
As a result, the
また、実施形態に係る情報処理装置100において、取得部131は、コンテンツによりユーザに引き起こされる感情を示すラベル情報を含む学習用データを取得する。学習部132は、学習用データを用いて、推定モデルを学習する。
In addition, in the
これにより、実施形態に係る情報処理装置100は、コンテンツによりユーザに引き起こされる感情を示すラベルと、そのコンテンツが出力時のユーザの生体信号とを用いて、人の感情を推定する推定モデルを学習することにより、ユーザの感情と生体信号との対応関係を適切に学習したモデルを生成することができる。したがって、情報処理装置100は、適切なユーザの感情推定を可能にすることができる。
As a result, the
また、実施形態に係る情報処理装置100において、取得部131は、ユーザが頭部に装着したヘッドマウントディスプレイである端末装置10が出力するコンテンツのラベル情報を含む学習用データを取得する。学習部132は、学習用データを用いて、端末装置10を装着した人の感情を推定する推定モデルを学習する。
In the
これにより、実施形態に係る情報処理装置100は、ヘッドマウントディスプレイによりユーザに対して出力されたコンテンツのラベルと、ヘッドマウントディスプレイを装着したユーザのコンテンツ出力時の生体信号とを用いて、人の感情を推定する推定モデルを学習することにより、ユーザの感情と生体信号との対応関係を適切に学習したモデルを生成することができる。したがって、情報処理装置100は、適切なユーザの感情推定を可能にすることができる。
As a result, the
また、実施形態に係る情報処理装置100において、取得部131は、映像を含むコンテンツがユーザに与える心理的な作用を示すラベル情報を含む学習用データを取得する。
In addition, in the
これにより、実施形態に係る情報処理装置100は、コンテンツのラベルと、ユーザの映像出力時の生体信号とを用いて、人の感情を推定する推定モデルを学習することにより、ユーザの感情と生体信号との対応関係を適切に学習したモデルを生成することができる。したがって、情報処理装置100は、適切なユーザの感情推定を可能にすることができる。
As a result, the
また、実施形態に係る情報処理装置100において、取得部131は、ユーザが頭部に装着したオーバーイヤーヘッドホンである端末装置10が出力するコンテンツのラベル情報を含む学習用データを取得する。学習部132は、学習用データを用いて、端末装置10を装着した人の感情を推定する推定モデルを学習する。
In addition, in the
これにより、実施形態に係る情報処理装置100は、オーバーイヤーヘッドホンによりユーザに対して出力されたコンテンツのラベルと、オーバーイヤーヘッドホンを装着したユーザのコンテンツ出力時の生体信号とを用いて、人の感情を推定する推定モデルを学習することにより、ユーザの感情と生体信号との対応関係を適切に学習したモデルを生成することができる。したがって、情報処理装置100は、適切なユーザの感情推定を可能にすることができる。
As a result, the
また、実施形態に係る情報処理装置100において、取得部131は、音声を含むコンテンツがユーザに与える心理的な作用を示すラベル情報を含む学習用データを取得する。
In addition, in the
これにより、実施形態に係る情報処理装置100は、コンテンツのラベルと、ユーザの音声出力時の生体信号とを用いて、人の感情を推定する推定モデルを学習することにより、ユーザの感情と生体信号との対応関係を適切に学習したモデルを生成することができる。したがって、情報処理装置100は、適切なユーザの感情推定を可能にすることができる。
As a result, the
また、実施形態に係る情報処理装置100は、推定部133を有する。推定部133は、学習部132により学習された推定モデルを用いて、人の感情を推定する。
The
これにより、実施形態に係る情報処理装置100は、適切にユーザの感情を推定することができる。
This allows the
また、実施形態に係る情報処理装置100において、取得部131は、ユーザが頭部に装着した端末装置10が出力するコンテンツがユーザに与える心理的な作用を示すラベル情報と、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの生体信号である入力用データとを含む学習用データを用いて生成された推定モデルであって、入力用データの入力に応じて当該入力用データに対応する人の感情を推定する情報を出力する推定モデルを取得する。推定部133は、推定モデルを用いて、人の感情を推定する。
In addition, in the
これにより、実施形態に係る情報処理装置100は、適切にユーザの感情を推定することができる。
This allows the
また、実施形態に係る情報処理装置100において、取得部131は、端末装置10を装着した対象ユーザの生体信号である対象生体信号を取得する。推定部133は、推定モデルに対象生体信号を入力することにより、対象ユーザの感情を推定する。
In addition, in the
これにより、実施形態に係る情報処理装置100は、端末装置10を装着した対象ユーザを対象として、適切にユーザの感情を推定することができる。
As a result, the
〔6.ハードウェア構成〕
また、上述した実施形態に係る端末装置10や情報処理装置100は、例えば図8に示すような構成のコンピュータ1000によって実現される。以下、情報処理装置100を例に挙げて説明する。図8は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力I/F(Interface)1060、入力I/F1070、ネットワークI/F1080がバス1090により接続された形態を有する。
6. Hardware Configuration
Moreover, the
演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。演算装置1030は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等により実現される。
The
一次記憶装置1040は、RAM(Random Access Memory)等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等により実現される。二次記憶装置1050は、内蔵ストレージであってもよいし、外付けストレージであってもよい。また、二次記憶装置1050は、USBメモリやSD(Secure Digital)メモリカード等の取り外し可能な記憶媒体であってもよい。また、二次記憶装置1050は、クラウドストレージ(オンラインストレージ)やNAS(Network Attached Storage)、ファイルサーバ等であってもよい。
The
出力I/F1060は、ディスプレイ、プロジェクタ、及びプリンタ等といった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインターフェイスであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力I/F1070は、マウス、キーボード、キーパッド、ボタン、及びスキャナ等といった各種の入力装置1020から情報を受信するためのインターフェイスであり、例えば、USB等により実現される。
The output I/
また、出力I/F1060及び入力I/F1070はそれぞれ出力装置1010及び入力装置1020と無線で接続してもよい。すなわち、出力装置1010及び入力装置1020は、ワイヤレス機器であってもよい。
In addition, the output I/
また、出力装置1010及び入力装置1020は、タッチパネルのように一体化していてもよい。この場合、出力I/F1060及び入力I/F1070も、入出力I/Fとして一体化していてもよい。
The
なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、又は半導体メモリ等から情報を読み出す装置であってもよい。
The
ネットワークI/F1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。
The network I/
演算装置1030は、出力I/F1060や入力I/F1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。
The
例えば、コンピュータ1000が情報処理装置100として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器から取得したプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行してもよい。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器と連携し、プログラムの機能やデータ等を他の機器の他のプログラムから呼び出して利用してもよい。
For example, when the
〔7.その他〕
以上、本願の実施形態を説明したが、これら実施形態の内容により本発明が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。
[7. Other]
Although the embodiments of the present application have been described above, the present invention is not limited to the contents of these embodiments. The above-described components include those that a person skilled in the art can easily imagine, those that are substantially the same, and those that are within the so-called equivalent range. Furthermore, the above-described components can be appropriately combined. Furthermore, various omissions, substitutions, or modifications of the components can be made without departing from the spirit of the above-described embodiments.
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。 Furthermore, among the processes described in the above embodiments, all or part of the processes described as being performed automatically can be performed manually, or all or part of the processes described as being performed manually can be performed automatically using known methods. In addition, the information including the processing procedures, specific names, various data, and parameters shown in the above documents and drawings can be changed as desired unless otherwise specified. For example, the various information shown in each drawing is not limited to the information shown in the drawings.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。 In addition, each component of each device shown in the figure is a functional concept, and does not necessarily have to be physically configured as shown in the figure. In other words, the specific form of distribution and integration of each device is not limited to that shown in the figure, and all or part of them can be functionally or physically distributed and integrated in any unit depending on various loads, usage conditions, etc.
例えば、上述した情報処理装置100は、複数のサーバコンピュータで実現してもよく、また、機能によっては外部のプラットホーム等をAPI(Application Programming Interface)やネットワークコンピューティング等で呼び出して実現するなど、構成は柔軟に変更できる。また、情報処理装置100と端末装置10とは一体であってもよい。この場合、例えばユーザが利用する端末装置10が情報処理装置100としての機能を有してもよい。
For example, the
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 The above-described embodiments and variations can be combined as appropriate to the extent that they do not cause inconsistencies in the processing content.
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 In addition, the above-mentioned "section, module, unit" can be read as "means" or "circuit." For example, an acquisition unit can be read as an acquisition means or an acquisition circuit.
1 情報処理システム
100 情報処理装置
120 記憶部
121 学習用データ記憶部
122 モデル情報記憶部
123 コンテンツ情報記憶部
130 制御部
131 取得部
132 学習部
133 推定部
134 提供部
10 端末装置
11 通信部
12 音声出力部
13 表示部
14 記憶部
15 制御部
151 収集部
152 送信部
153 受信部
154 処理部
16 センサ部
REFERENCE SIGNS LIST 1
Claims (13)
ユーザが頭部に装着した端末装置が出力するコンテンツであって、前記端末装置が再生可能な種別及び前記ユーザのユーザ属性に応じて前記ユーザに提供すると前記情報処理装置が決定したコンテンツが前記ユーザに与える心理的な作用を示すラベル情報であって、前記コンテンツに予め対応付けられた正解情報であるラベル情報と、前記端末装置による前記コンテンツの出力時に前記端末装置が有するセンサ部により検知される前記ユーザの発汗を示す情報を含む前記ユーザの生体信号と、前記コンテンツとが対応付けられた学習用データを記憶部から取得する取得部と、
前記学習用データを用いて、複数の心理的な作用の各々に対応する複数のスコアを出力する推定モデルであって、前記ユーザの生体信号を入力とした場合、当該生体信号に対応付けられたラベル情報が示す心理的な作用に対応するスコアが最大となるように学習する学習処理により、入力として用いられた生体信号に対応する前記複数のスコアであって、入力として用いられた生体信号の検知対象となった人の感情を推定するために必要な情報である前記複数のスコアの生成に用いられる推定モデルを学習する学習部と、
を備えたことを特徴とする情報処理装置。 An information processing device,
an acquisition unit that acquires from a storage unit learning data associated with a content, the learning data including label information that indicates a psychological effect of a content output by a terminal device worn on the head of a user, the label information being correct answer information that is associated in advance with the content, the label information being correct answer information that is associated with the content, the label information being correct answer information that is associated in advance with the content, the label information being correct answer information that is associated with the content , and a biological signal of the user including information indicating sweating of the user detected by a sensor unit of the terminal device when the content is output by the terminal device, the biological signal being associated with the content, the biological signal being correct answer information that is associated with the content, and the biological signal being associated with the content, the biological signal being correct answer information that is ... correct answer information that is associated with the content, the biological signal being correct answer information that is correct answer information that is associated with the content, the biological signal being correct answer information that is correct answer information that is correct answer information
a learning unit that uses the learning data to learn an estimation model that outputs a plurality of scores corresponding to each of a plurality of psychological effects, and that learns, by a learning process in which, when a biosignal of the user is input, a score corresponding to a psychological effect indicated by label information associated with the biosignal is maximized, to generate the plurality of scores corresponding to the biosignal used as an input, the plurality of scores being information necessary for estimating the emotion of a person who is the detection target of the biosignal used as an input;
An information processing device comprising:
前記端末装置による前記コンテンツの出力時に前記端末装置により検知される前記ユーザの生体電位である
ことを特徴とする請求項1に記載の情報処理装置。 The biosignal of the user is
a bioelectric potential of the user detected by the terminal device when the terminal device outputs the content;
2. The information processing apparatus according to claim 1,
前記端末装置による前記コンテンツの出力時に前記端末装置により検知される前記ユーザの頭部の筋電位である
ことを特徴とする請求項2に記載の情報処理装置。 The biosignal of the user is
The information processing apparatus according to claim 2 , wherein the input is a myoelectric potential of the head of the user detected by the terminal device when the content is output by the terminal device.
前記端末装置による前記コンテンツの出力時に前記端末装置により検知される前記ユーザの顔の筋電位である
ことを特徴とする請求項3に記載の情報処理装置。 The biosignal of the user is
The information processing apparatus according to claim 3 , wherein the input is a myoelectric potential of the face of the user detected by the terminal device when the content is output by the terminal device.
前記端末装置による前記コンテンツの出力時に前記端末装置により検知される前記ユーザの眼電位である
ことを特徴とする請求項2~4のいずれか1項に記載の情報処理装置。 The biosignal of the user is
5. The information processing device according to claim 2, wherein the electrooculography of the user is detected by the terminal device when the content is output by the terminal device.
前記コンテンツにより前記ユーザに引き起こされる感情を示す前記ラベル情報を含む前記学習用データを取得し、
前記学習部は、
前記学習用データを用いて、前記推定モデルを学習する
ことを特徴とする請求項1~5のいずれか1項に記載の情報処理装置。 The acquisition unit is
acquiring the learning data including the label information indicating an emotion evoked in the user by the content;
The learning unit is
The information processing apparatus according to any one of claims 1 to 5, characterized in that the estimation model is trained using the learning data.
前記ユーザが頭部に装着したヘッドマウントディスプレイである前記端末装置が出力する前記コンテンツの前記ラベル情報を含む前記学習用データを取得する
ことを特徴とする請求項1~6のいずれか1項に記載の情報処理装置。 The acquisition unit is
The information processing device according to any one of claims 1 to 6, characterized in that the learning data is acquired including the label information of the content output by the terminal device, which is a head-mounted display worn on the user's head.
映像を含む前記コンテンツが前記ユーザに与える心理的な作用を示す前記ラベル情報を含む前記学習用データを取得する
ことを特徴とする請求項7に記載の情報処理装置。 The acquisition unit is
The information processing apparatus according to claim 7 , further comprising: acquiring the learning data including the label information indicating a psychological effect that the content including a video has on the user.
前記ユーザが頭部に装着したオーバーイヤーヘッドホンである前記端末装置が出力する前記コンテンツの前記ラベル情報を含む前記学習用データを取得する
ことを特徴とする請求項1~6のいずれか1項に記載の情報処理装置。 The acquisition unit is
The information processing device according to any one of claims 1 to 6, characterized in that the learning data is acquired including the label information of the content output by the terminal device, which is an over-ear headphone worn on the user's head.
音声を含む前記コンテンツが前記ユーザに与える心理的な作用を示す前記ラベル情報を含む前記学習用データを取得する
ことを特徴とする請求項7~9のいずれか1項に記載の情報処理装置。 The acquisition unit is
10. The information processing apparatus according to claim 7, further comprising: acquiring the learning data including the label information indicating a psychological effect that the content including audio has on the user.
をさらに備えることを特徴とする請求項1~10のいずれか1項に記載の情報処理装置。 an estimation unit that estimates human emotions using the estimation model trained by the learning unit;
11. The information processing apparatus according to claim 1, further comprising:
ユーザが頭部に装着した端末装置が出力するコンテンツであって、前記端末装置が再生可能な種別及び前記ユーザのユーザ属性に応じて前記ユーザに提供すると前記コンピュータが決定したコンテンツが前記ユーザに与える心理的な作用を示すラベル情報であって、前記コンテンツに予め対応付けられた正解情報であるラベル情報と、前記端末装置による前記コンテンツの出力時に前記端末装置が有するセンサ部により検知される前記ユーザの発汗を示す情報を含む前記ユーザの生体信号と、前記コンテンツとが対応付けられた学習用データを記憶部から取得する取得工程と、
前記学習用データを用いて、複数の心理的な作用の各々に対応する複数のスコアを出力する推定モデルであって、前記ユーザの生体信号を入力とした場合、当該生体信号に対応付けられたラベル情報が示す心理的な作用に対応するスコアが最大となるように学習する学習処理により、入力として用いられた生体信号に対応する前記複数のスコアであって、入力として用いられた生体信号の検知対象となった人の感情を推定するために必要な情報である前記複数のスコアの生成に用いられる推定モデルを学習する学習工程と、
を含むことを特徴とする情報処理方法。 1. A computer-implemented information processing method, comprising:
an acquisition process for acquiring, from a storage unit, learning data in which label information indicating a psychological effect exerted on the user by content output by a terminal device worn on the user's head and determined by the computer to be provided to the user in accordance with the type of content that can be played back by the terminal device and the user attributes of the user, the label information being correct answer information previously associated with the content , a biological signal of the user including information indicating sweating of the user detected by a sensor unit of the terminal device when the content is output by the terminal device , and the content are associated with the label information;
a learning process for learning an estimation model that uses the learning data to output a plurality of scores corresponding to each of a plurality of psychological effects, the estimation model being used to generate the plurality of scores corresponding to the biosignal used as an input , the plurality of scores being information necessary for estimating the emotions of a person who is the detection target of the biosignal used as an input, by a learning process that learns so as to maximize a score corresponding to a psychological effect indicated by label information associated with the biosignal when the biosignal of the user is input;
13. An information processing method comprising:
ユーザが頭部に装着した端末装置が出力するコンテンツであって、前記端末装置が再生可能な種別及び前記ユーザのユーザ属性に応じて前記ユーザに提供すると前記コンピュータが決定したコンテンツが前記ユーザに与える心理的な作用を示すラベル情報であって、前記コンテンツに予め対応付けられた正解情報であるラベル情報と、前記端末装置による前記コンテンツの出力時に前記端末装置が有するセンサ部により検知される前記ユーザの発汗を示す情報を含む前記ユーザの生体信号と、前記コンテンツとが対応付けられた学習用データを記憶部から取得する取得手順と、
前記学習用データを用いて、複数の心理的な作用の各々に対応する複数のスコアを出力する推定モデルであって、前記ユーザの生体信号を入力とした場合、当該生体信号に対応付けられたラベル情報が示す心理的な作用に対応するスコアが最大となるように学習する学習処理により、入力として用いられた生体信号に対応する前記複数のスコアであって、入力として用いられた生体信号の検知対象となった人の感情を推定するために必要な情報である前記複数のスコアの生成に用いられる推定モデルを学習する学習手順と、
をコンピュータに実行させることを特徴とする情報処理プログラム。 An information processing program executed by a computer,
an acquisition step of acquiring, from a storage unit, label information indicating a psychological effect exerted on the user by content output by a terminal device worn on the user's head, the content being determined by the computer to be provided to the user according to a type of content that can be played back by the terminal device and a user attribute of the user, the label information being correct answer information previously associated with the content , learning data associated with the content, and a biosignal of the user including information indicating sweating of the user detected by a sensor unit of the terminal device when the content is output by the terminal device ;
a learning procedure for learning an estimation model that uses the learning data to output a plurality of scores corresponding to each of a plurality of psychological effects, the estimation model being used to generate the plurality of scores corresponding to the biosignal used as an input , the plurality of scores being information necessary for estimating the emotions of a person who is the detection target of the biosignal used as an input, by a learning process that learns so as to maximize a score corresponding to a psychological effect indicated by label information associated with the biosignal when the biosignal of the user is input;
An information processing program characterized by causing a computer to execute the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020210798A JP7476091B2 (en) | 2020-12-18 | 2020-12-18 | Information processing device, information processing method, and information processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020210798A JP7476091B2 (en) | 2020-12-18 | 2020-12-18 | Information processing device, information processing method, and information processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022097293A JP2022097293A (en) | 2022-06-30 |
JP7476091B2 true JP7476091B2 (en) | 2024-04-30 |
Family
ID=82165327
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020210798A Active JP7476091B2 (en) | 2020-12-18 | 2020-12-18 | Information processing device, information processing method, and information processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7476091B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008269065A (en) | 2007-04-17 | 2008-11-06 | Nippon Telegr & Teleph Corp <Ntt> | User support method, device, and program |
JP2018504719A (en) | 2014-11-02 | 2018-02-15 | エヌゴーグル インコーポレイテッド | Smart audio headphone system |
WO2018135057A1 (en) | 2017-01-20 | 2018-07-26 | ソニー株式会社 | Information processing device, information processing method, and program |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010220151A (en) * | 2009-03-19 | 2010-09-30 | Nomura Research Institute Ltd | Content distribution system, content distribution method, and computer program |
JP6338456B2 (en) * | 2014-05-31 | 2018-06-06 | Kddi株式会社 | Apparatus, program, and method for recommending content based on user's emotion |
JP6521778B2 (en) * | 2015-07-15 | 2019-05-29 | Kddi株式会社 | Program, terminal and system for giving emotional identifier to application using myoelectric signal |
WO2018088187A1 (en) * | 2016-11-08 | 2018-05-17 | ソニー株式会社 | Information processing device, information processing method, and program |
-
2020
- 2020-12-18 JP JP2020210798A patent/JP7476091B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008269065A (en) | 2007-04-17 | 2008-11-06 | Nippon Telegr & Teleph Corp <Ntt> | User support method, device, and program |
JP2018504719A (en) | 2014-11-02 | 2018-02-15 | エヌゴーグル インコーポレイテッド | Smart audio headphone system |
WO2018135057A1 (en) | 2017-01-20 | 2018-07-26 | ソニー株式会社 | Information processing device, information processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP2022097293A (en) | 2022-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Lim et al. | Emotion recognition using eye-tracking: taxonomy, review and current challenges | |
Stopczynski et al. | The smartphone brain scanner: a portable real-time neuroimaging system | |
Saini et al. | Kinect sensor-based interaction monitoring system using the BLSTM neural network in healthcare | |
JP7427611B2 (en) | Computer-implemented system and method for determining user attention | |
Min et al. | Exploring audio and kinetic sensing on earable devices | |
JP2019522300A (en) | Mobile and wearable video capture and feedback platform for the treatment of mental disorders | |
US11301775B2 (en) | Data annotation method and apparatus for enhanced machine learning | |
US20130245396A1 (en) | Mental state analysis using wearable-camera devices | |
US10638938B1 (en) | Eyeglasses to detect abnormal medical events including stroke and migraine | |
Booth et al. | Multimodal human and environmental sensing for longitudinal behavioral studies in naturalistic settings: Framework for sensor selection, deployment, and management | |
US20140278455A1 (en) | Providing Feedback Pertaining to Communication Style | |
US10299716B2 (en) | Side face image-based mental state determination | |
KR20120092846A (en) | System and method for multi-modality emotion recognition and recording medium thereof | |
US20200375544A1 (en) | System, method and computer program product for detecting a mobile phone user's risky medical condition | |
JP5718493B1 (en) | Sound saliency estimating apparatus, method and program thereof | |
US11775068B2 (en) | Apparatus, methods, and systems for using imagined direction to define actions, functions, or execution | |
WO2019071166A1 (en) | Multi-disciplinary clinical evaluation in virtual or augmented reality | |
JP2016177483A (en) | Communication support device, communication support method, and program | |
Roy et al. | CovidAlert-a wristwatch-based system to alert users from face touching | |
Al-Azani et al. | A comprehensive literature review on children’s databases for machine learning applications | |
Landowska | Emotion monitor-concept, construction and lessons learned | |
JP7476091B2 (en) | Information processing device, information processing method, and information processing program | |
US20220142535A1 (en) | System and method for screening conditions of developmental impairments | |
JP7172705B2 (en) | Emotion estimation device, emotion estimation method, program, and emotion estimation system | |
WO2023102125A1 (en) | Management of psychiatric or mental conditions using digital or augmented reality with personalized exposure progression |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210317 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220517 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220719 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230105 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230704 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230712 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20230922 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20231026 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240417 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7476091 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |