JP7476091B2 - Information processing device, information processing method, and information processing program - Google Patents

Information processing device, information processing method, and information processing program Download PDF

Info

Publication number
JP7476091B2
JP7476091B2 JP2020210798A JP2020210798A JP7476091B2 JP 7476091 B2 JP7476091 B2 JP 7476091B2 JP 2020210798 A JP2020210798 A JP 2020210798A JP 2020210798 A JP2020210798 A JP 2020210798A JP 7476091 B2 JP7476091 B2 JP 7476091B2
Authority
JP
Japan
Prior art keywords
user
content
information
information processing
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020210798A
Other languages
Japanese (ja)
Other versions
JP2022097293A (en
Inventor
孝太 坪内
祥太 山中
香 池松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2020210798A priority Critical patent/JP7476091B2/en
Publication of JP2022097293A publication Critical patent/JP2022097293A/en
Application granted granted Critical
Publication of JP7476091B2 publication Critical patent/JP7476091B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、情報処理装置、情報処理方法、及び情報処理プログラムに関する。 The present invention relates to an information processing device, an information processing method, and an information processing program.

人の表情等から感情を推定する技術が提供されている。例えば、撮像装置が撮像した対象人物の顔の画像データを用いて、人物の表情から感情を推定する技術が提供されている(例えば特許文献1等)。また、画像データではなく、生体信号の一種である人の顔の筋電図を用いて人の感情を読む技術が提供されている(例えば非特許文献1等)。また、画像データや生体信号以外にも加速度やジャイロなどの非生体センサのデータを用いて人の感情を推定する技術が提供されている(例えば非特許文献2等)。 Technologies are provided that estimate emotions from a person's facial expressions, etc. For example, there is provided a technology that estimates emotions from a person's facial expressions using image data of the target person's face captured by an imaging device (e.g., Patent Document 1, etc.). There is also provided a technology that reads a person's emotions using the electromyogram of the person's face, which is a type of biosignal, rather than image data (e.g., Non-Patent Document 1, etc.). There is also provided a technology that estimates a person's emotions using data from non-biological sensors such as acceleration and gyroscopes in addition to image data and biosignals (e.g., Non-Patent Document 2, etc.).

特開2020-149361号公報JP 2020-149361 A

“A wearable interface for reading,facial expressions based on bioelectrical signals”, Anna GRUEBLER, and Kenji SUZUKI, <インターネット>https://www.keer.org/keer2010/Papers/2310.pdf(令和2年11月19日検索)日検索)"A wearable interface for reading,facial expressions based on bioelectrical signals", Anna GRUEBLER, and Kenji SUZUKI, <Internet> https://www.keer.org/keer2010/Papers/2310.pdf (Retrieved November 19, 2020) “Recognition of human affection in Smartphone perspective based on accelerometer and user's sitting position”, Rasam Bin Hossain and Ben Taskar<インターネット>https://www.researchgate.net/profile/Hasan_Mahmud3/publication/277004963_Recognition_of_human_affection_in_Smartphone_perspective_based_on_accelerometer_and_user%27s_sitting_position/links/5a9e2874aca272cd09c22cd3/Recognition-of-human-affection-in-Smartphone-perspective-based-on-accelerometer-and-users-sitting-position.pdf(令和2年12月17日検索)“Recognition of human affection in Smartphone perspective based on accelerometer and user's sitting position”, Rasam Bin Hossain and Ben Taskar<Internet>https://www.researchgate.net/profile/Hasan_Mahmud3/publication/277004963_Recognition_of_human_affection_in_Smartphone_perspective_based_on_accelerometer_and_user%27s_sitting_position/links/5a9e2874aca272cd09c22cd3/Recognition-of-human-affection-in-Smartphone-perspective-based-on-accelerometer-and-users-sitting-position.pdf(Retrieved December 17, 2020)

しかしながら、例えば、上記の特許文献1では、対象人物の平常時の顔画像等の画像を用いており、画像に現れないような細かい変化を捉えることが難しい。また、例えば、上記の非特許文献1では、どの筋電図の状態にどの感情を対応付けるかが難しい。そのため、上記の従来技術には、感情を推定する点で改善の余地がある。 However, for example, in Patent Document 1, images such as a facial image of the target person in a normal state are used, making it difficult to capture small changes that do not appear in the image. Also, for example, in Non-Patent Document 1, it is difficult to associate which emotion with which electromyogram state. Therefore, the above conventional technology has room for improvement in terms of estimating emotions.

本願は、上記に鑑みてなされたものであって、適切なユーザの感情推定を可能にする情報処理装置、情報処理方法、及び情報処理プログラムを提供することを目的とする。 The present application has been made in consideration of the above, and aims to provide an information processing device, an information processing method, and an information processing program that enable appropriate estimation of a user's emotions.

本願に係る情報処理装置は、ユーザが頭部に装着した端末装置が出力するコンテンツが前記ユーザに与える心理的な作用を示すラベル情報と、前記端末装置による前記コンテンツの出力時に前記端末装置により検知される前記ユーザの生体信号である入力用データとを含む学習用データを取得する取得部と、前記学習用データを用いて、入力用データの入力に応じて当該入力用データに対応する人の感情を推定する情報を出力する推定モデルを学習する学習部と、を備えたことを特徴とする。 The information processing device according to the present application is characterized by comprising: an acquisition unit that acquires learning data including label information indicating the psychological effect that content output by a terminal device worn by a user on the head has on the user, and input data that is the user's biosignal detected by the terminal device when the terminal device outputs the content; and a learning unit that uses the learning data to learn an estimation model that outputs information that estimates the emotion of a person corresponding to the input data in response to the input of the input data.

実施形態の一態様によれば、適切なユーザの感情推定を可能にすることができるという効果を奏する。 According to one aspect of the embodiment, it is possible to achieve the effect of enabling appropriate estimation of a user's emotions.

図1は、実施形態に係る情報処理システムによる処理の一例を示す図である。FIG. 1 is a diagram illustrating an example of processing by an information processing system according to an embodiment. 図2は、実施形態に係る情報処理装置の構成例を示す図である。FIG. 2 is a diagram illustrating an example of the configuration of the information processing apparatus according to the embodiment. 図3は、実施形態に係る学習用データ記憶部の一例を示す図である。FIG. 3 is a diagram illustrating an example of a learning data storage unit according to the embodiment. 図4は、実施形態に係るモデル情報記憶部の一例を示す図である。FIG. 4 is a diagram illustrating an example of a model information storage unit according to the embodiment. 図5は、実施形態に係るコンテンツ情報記憶部の一例を示す図である。FIG. 5 is a diagram illustrating an example of a content information storage unit according to the embodiment. 図6は、実施形態に係る端末装置の構成例を示す図である。FIG. 6 is a diagram illustrating an example of the configuration of a terminal device according to the embodiment. 図7は、実施形態に係る情報処理装置による処理の一例を示すフローチャートである。FIG. 7 is a flowchart illustrating an example of processing by the information processing device according to the embodiment. 図8は、ハードウェア構成の一例を示す図である。FIG. 8 is a diagram illustrating an example of a hardware configuration.

以下に、本願に係る情報処理装置、情報処理方法、及び情報処理プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法、及び情報処理プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Below, the information processing device, information processing method, and information processing program according to the present application will be described in detail with reference to the drawings. Note that the information processing device, information processing method, and information processing program according to the present application are not limited to these embodiments. In addition, the same parts in the following embodiments will be denoted by the same reference numerals, and duplicated descriptions will be omitted.

〔1.情報処理〕
図1を用いて、実施形態に係る情報処理の一例について説明する。図1は、実施形態に係る情報処理システムによる処理の一例を示す図である。図1では、情報処理装置100は、ユーザが頭部に装着した端末装置10が出力するコンテンツがユーザに引き起こす感情を示すラベル情報と、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの生体信号を用いて人の感情を推定する推定モデルを学習する。そして、情報処理装置100は、推定モデルを用いてユーザの感情を推定する。
[1. Information Processing]
An example of information processing according to the embodiment will be described with reference to Fig. 1. Fig. 1 is a diagram showing an example of processing by an information processing system according to the embodiment. In Fig. 1, an information processing device 100 learns an estimation model that estimates human emotions using label information indicating emotions evoked in a user by content output by a terminal device 10 worn by the user on the head and a biosignal of the user detected by the terminal device 10 when the content is output by the terminal device 10. Then, the information processing device 100 estimates the user's emotions using the estimation model.

図1の例では、ユーザが頭部に装着する端末装置10の一例として、コンテンツの表示及び音声出力が可能なヘッドセット一体型のヘッドマウントディスプレイ(以下単に「ヘッドマウントディスプレイ」ともいう)を示す。なお、ユーザが頭部に装着する端末装置10はヘッドマウントディスプレイに限られない。例えば、端末装置10には、ヘッドマウントディスプレイ単体、オーバーイヤーヘッドホン、ヘッドセット一体型のVR(Virtual Reality)ゴーグル、スマートフォンはめ込み型のVRゴーグル、眼鏡やイヤホン等と一体化したウェアラブルデバイス等様々な装置が採用可能である。また、図1では、ユーザの生体信号の一例として、ユーザの顔の筋電位を示すが、ユーザの生体信号は、顔の筋電位に限らず、頭部の様々な身体的部位の筋電位であってもよい。また、ユーザの生体信号は、筋電位以外のユーザの生体信号を用いてもよいが、この点については後述する。 In the example of FIG. 1, a head-mounted display (hereinafter simply referred to as a "head-mounted display") that is integrated with a headset and capable of displaying content and outputting audio is shown as an example of a terminal device 10 that a user wears on his/her head. Note that the terminal device 10 that a user wears on his/her head is not limited to a head-mounted display. For example, the terminal device 10 may be a head-mounted display alone, over-ear headphones, a headset-integrated VR (Virtual Reality) goggle, a smartphone-mounted VR goggle, a wearable device integrated with glasses, earphones, or the like. In addition, FIG. 1 shows the myoelectric potential of the user's face as an example of a user's biosignal, but the user's biosignal is not limited to the myoelectric potential of the face and may be the myoelectric potential of various physical parts of the head. In addition, the user's biosignal may be a biosignal of the user other than the myoelectric potential, which will be described later.

まず、情報処理システム1の構成について説明する。図1に示すように、情報処理システム1には、複数台の端末装置10と、情報処理装置100とが含まれる。各端末装置10と、情報処理装置100とは図示しない所定の通信網を介して、有線または無線により通信可能に接続される。なお、図1に示した情報処理システム1には、複数台の情報処理装置100が含まれてもよい。 First, the configuration of the information processing system 1 will be described. As shown in FIG. 1, the information processing system 1 includes multiple terminal devices 10 and an information processing device 100. Each terminal device 10 and the information processing device 100 are connected to each other via a predetermined communication network (not shown) so as to be able to communicate with each other via a wired or wireless connection. Note that the information processing system 1 shown in FIG. 1 may include multiple information processing devices 100.

情報処理装置100は、コンテンツに対応付けられた感情を示すラベル情報(単に「ラベル」ともいう)と、コンテンツの出力時におけるユーザの生体信号とを含む学習用データを用いて、人の感情を推定する推定モデルを学習するコンピュータである。また、情報処理装置100は、人の感情を推定する推定モデルを用いてユーザの感情を推定する。また、情報処理装置100は、端末装置10へコンテンツを提供する。なお、情報処理システム1に、端末装置10へコンテンツを提供するコンテンツ提供装置が含まれる場合、情報処理装置100は、端末装置10へコンテンツの提供を行わなくてもよい。この場合、情報処理装置100は、推定したユーザの感情を示す情報をコンテンツ提供装置へ提供してもよい。 The information processing device 100 is a computer that learns an estimation model that estimates human emotions using learning data including label information (also simply called "label") indicating emotions associated with content and the user's biosignal at the time of outputting the content. The information processing device 100 also estimates the user's emotions using the estimation model that estimates human emotions. The information processing device 100 also provides content to the terminal device 10. Note that if the information processing system 1 includes a content providing device that provides content to the terminal device 10, the information processing device 100 does not need to provide content to the terminal device 10. In this case, the information processing device 100 may provide information indicating the estimated user's emotions to the content providing device.

端末装置10は、ユーザの頭部に装着されユーザによって利用されるデバイス(コンピュータ)である。端末装置10は、コンテンツを出力する。端末装置10は、情報処理装置100からコンテンツを受信し、受信したコンテンツを出力する。例えば、端末装置10は、コンテンツを表示したり、音声出力したりする。また、端末装置10は、ユーザによる操作を受け付ける。 The terminal device 10 is a device (computer) that is worn on the user's head and used by the user. The terminal device 10 outputs content. The terminal device 10 receives content from the information processing device 100 and outputs the received content. For example, the terminal device 10 displays the content and outputs audio. The terminal device 10 also accepts operations by the user.

また、端末装置10は、筋電位を検知するセンサ(筋電位センサ)を有する。図1では、端末装置10は、顔の筋電位を検知する筋電位センサを有し、ユーザの顔の筋電位をユーザの生体信号として検知する。なお、端末装置10は、筋電位以外のユーザの生体信号を検知し、取得可能であってもよい。例えば、端末装置10は、ユーザの眼電位を検知する眼電位センサを有し、ユーザの眼電位を検知してもよい。また、端末装置10は、電位を検知するセンサに限らず、心拍センサ等を有してもよいが、この点については後述する。例えば、端末装置10を利用するユーザは、端末装置10と通信可能なウェアラブルデバイスを身に付けることにより、端末装置10によりユーザの生体信号を取得可能としてもよい。例えば、端末装置10を利用するユーザは、端末装置10と通信可能なリストバンド型のウェアラブルデバイスを身に付けることにより、端末装置10によりユーザ自身の心拍(脈拍)に関する情報を端末装置10が取得可能としてもよい。なお、上記は一例であり、端末装置10は、様々な情報を検知するセンサを有してもよい。 The terminal device 10 also has a sensor (myogenic potential sensor) that detects myoelectric potential. In FIG. 1, the terminal device 10 has a myoelectric potential sensor that detects myoelectric potential of the face, and detects the myoelectric potential of the user's face as the user's biosignal. The terminal device 10 may detect and acquire a biosignal of the user other than myoelectric potential. For example, the terminal device 10 may have an electrooculography sensor that detects the user's electrooculography and detect the user's electrooculography. The terminal device 10 may also have a heart rate sensor or the like, not limited to a sensor that detects potential, but will be described later. For example, a user who uses the terminal device 10 may wear a wearable device that can communicate with the terminal device 10, thereby enabling the terminal device 10 to acquire the user's biosignal. For example, a user who uses the terminal device 10 may wear a wristband-type wearable device that can communicate with the terminal device 10, thereby enabling the terminal device 10 to acquire information about the user's own heart rate (pulse). Note that the above is just one example, and the terminal device 10 may have sensors that detect various information.

また、以下では、端末装置10をユーザと表記する場合がある。すなわち、以下では、ユーザを端末装置10と読み替えることもできる。図1の例では、端末装置10がヘッドマウントディスプレイである場合を示す。 In addition, in the following, the terminal device 10 may be referred to as the user. In other words, in the following, the user may be read as the terminal device 10. In the example of FIG. 1, the terminal device 10 is a head-mounted display.

以下では、ユーザID「U1」により識別されるユーザを「ユーザU1」とする場合がある。このように、以下では、「ユーザU*(*は任意の数値)」と記載した場合、そのユーザはユーザID「U*」により識別されるユーザであることを示す。例えば、「ユーザU2」と記載した場合、そのユーザはユーザID「U2」により識別されるユーザである。また、図1に示す例においては、端末装置10を利用するユーザに応じて、端末装置10を端末装置10-1、10-2として説明する。例えば、端末装置10-1は、ユーザID「U1」により識別されるユーザ(ユーザU1)により使用される端末装置10である。また、例えば、端末装置10-2は、ユーザID「U2」により識別される(ユーザU2)により使用される端末装置10である。また、以下では、端末装置10-1、10-2について、特に区別なく説明する場合には、端末装置10と記載する。 In the following, a user identified by user ID "U1" may be referred to as "user U1". In this way, when "user U* (* is an arbitrary numerical value)" is written below, it indicates that the user is identified by user ID "U*". For example, when "user U2" is written, the user is identified by user ID "U2". In addition, in the example shown in FIG. 1, the terminal device 10 will be described as terminal device 10-1 or 10-2 depending on the user who uses the terminal device 10. For example, the terminal device 10-1 is a terminal device 10 used by a user (user U1) identified by user ID "U1". In addition, for example, the terminal device 10-2 is a terminal device 10 used by a user (user U2) identified by user ID "U2". In addition, in the following, when the terminal devices 10-1 and 10-2 are described without any particular distinction, they will be described as terminal device 10.

以下、図1を用いて、情報処理の一例を説明する。まず、情報処理装置100による推定モデルの学習処理について説明した後、情報処理装置100による推定モデルを用いた感情の推定処理について説明する。 An example of information processing will be described below with reference to FIG. 1. First, the learning process of the estimation model by the information processing device 100 will be described, and then the emotion estimation process using the estimation model by the information processing device 100 will be described.

まず、情報処理装置100は、ユーザU1が利用する端末装置10-1にコンテンツを提供する(ステップS11)。情報処理装置100は、ユーザに与える心理的な作用を示すラベルが対応付けられたコンテンツの一覧から、ユーザU1に提供するコンテンツを決定する。情報処理装置100は、コンテンツの一覧から、ランダムにユーザU1に提供するコンテンツを決定してもよいし、ユーザU1の年齢、性別、興味関心等のユーザ属性を基にユーザU1に提供するコンテンツを決定してもよい。なお、上記は一例に過ぎず、情報処理装置100は、様々な情報を適宜用いて、ユーザU1に提供するコンテンツを決定してもよい。 First, the information processing device 100 provides content to the terminal device 10-1 used by the user U1 (step S11). The information processing device 100 determines the content to be provided to the user U1 from a list of content associated with a label indicating the psychological effect it has on the user. The information processing device 100 may randomly determine the content to be provided to the user U1 from the list of content, or may determine the content to be provided to the user U1 based on the user attributes such as the age, gender, and interests of the user U1. Note that the above is merely an example, and the information processing device 100 may determine the content to be provided to the user U1 by appropriately using various information.

例えば、情報処理装置100は、端末装置10-1が再生可能なコンテンツの種別に応じてユーザU1に提供するコンテンツを決定してもよい。この場合、情報処理装置100は、端末装置10-1が映像を出力可能であれば、映像のみを含むコンテンツをユーザU1に提供するコンテンツとして決定してもよい。また、情報処理装置100は、端末装置10-1が音声のみを出力可能であれば、音声を含むコンテンツをユーザU1に提供するコンテンツとして決定してもよい。また、情報処理装置100は、端末装置10-1が映像及び音声を出力可能であれば、映像及び音声を含むコンテンツをユーザU1に提供するコンテンツとして決定してもよい。例えば、端末装置10-1が音声のみを出力可能な装置(オーバーイヤーヘッドホン等)である場合、情報処理装置100は、音声を含むコンテンツをユーザU1に提供するコンテンツとして決定する。 For example, the information processing device 100 may determine the content to be provided to the user U1 according to the type of content that the terminal device 10-1 can play. In this case, if the terminal device 10-1 is capable of outputting video, the information processing device 100 may determine the content including only video as the content to be provided to the user U1. Furthermore, if the terminal device 10-1 is capable of outputting audio only, the information processing device 100 may determine the content including audio as the content to be provided to the user U1. Furthermore, if the terminal device 10-1 is capable of outputting video and audio, the information processing device 100 may determine the content including video and audio as the content to be provided to the user U1. For example, if the terminal device 10-1 is a device that can output only audio (such as over-ear headphones), the information processing device 100 determines the content including audio as the content to be provided to the user U1.

そして、情報処理装置100は、決定したコンテンツをユーザU1が利用する端末装置10-1へ送信する。図1では、情報処理装置100は、ユーザに与える心理的な作用が喜びの感情であることを示すラベルLB1が対応付けられたコンテンツCT1をユーザU1が利用する端末装置10-1へ送信する。 Then, the information processing device 100 transmits the determined content to the terminal device 10-1 used by the user U1. In FIG. 1, the information processing device 100 transmits content CT1 associated with a label LB1 indicating that the psychological effect on the user is an emotion of joy to the terminal device 10-1 used by the user U1.

情報処理装置100からコンテンツCT1を受信した端末装置10-1は、コンテンツCT1を出力する(ステップS12)。例えば、端末装置10-1は、映像と音声を含むコンテンツCT1を表示し、音声出力を行う。なお、端末装置10-1がオーバーイヤーヘッドホンのような音声出力のみを行う装置である場合、端末装置10-1は、コンテンツCT1の音声出力のみを行ってもよい。端末装置10-1は、コンテンツCT1を出力するとともに、コンテンツCT1を出力時のユーザU1の顔の筋電位であるユーザU1の生体信号を検知する。これにより、端末装置10-1は、コンテンツCT1を出力時のユーザU1の顔の筋電位であるユーザU1の生体信号を収集する。そして、ユーザU1の生体信号を収集した端末装置10-1は、収集したユーザU1の生体信号(生体信号データDT1)を情報処理装置100へ送信する(ステップS13)。 The terminal device 10-1 that has received the content CT1 from the information processing device 100 outputs the content CT1 (step S12). For example, the terminal device 10-1 displays the content CT1 including video and audio, and performs audio output. If the terminal device 10-1 is a device that only performs audio output, such as over-ear headphones, the terminal device 10-1 may only perform audio output of the content CT1. The terminal device 10-1 outputs the content CT1 and detects the biosignal of the user U1, which is the myoelectric potential of the user U1's face when the content CT1 is output. As a result, the terminal device 10-1 collects the biosignal of the user U1, which is the myoelectric potential of the user U1's face when the content CT1 is output. Then, the terminal device 10-1 that has collected the biosignal of the user U1 transmits the collected biosignal of the user U1 (biological signal data DT1) to the information processing device 100 (step S13).

情報処理装置100は、端末装置10から取得した生体信号データを、コンテンツやそのコンテンツが引き起こす感情を示すラベルに対応付け、学習用データとして追加する(ステップS14)。端末装置10-1からユーザU1の生体信号(生体信号データDT1)を取得した情報処理装置100は、取得したユーザU1の生体信号をコンテンツCT1の分類ラベルと対応付けてデータセットDS1に追加する。例えば、情報処理装置100は、生体信号データDT1をコンテンツCT1、及び喜びの感情を示すラベルLB1に対応付けて、学習用データとしてデータセットDS1に追加する。 The information processing device 100 associates the biosignal data acquired from the terminal device 10 with a label indicating the content and the emotion evoked by the content, and adds it as learning data (step S14). The information processing device 100 acquires the biosignal (biosignal data DT1) of the user U1 from the terminal device 10-1, associates the acquired biosignal of the user U1 with the classification label of the content CT1, and adds it to the dataset DS1. For example, the information processing device 100 associates the biosignal data DT1 with the content CT1 and a label LB1 indicating the emotion of joy, and adds it to the dataset DS1 as learning data.

また、情報処理装置100は、他のユーザにもコンテンツを提供し、提供したコンテンツの出力時のそのユーザの生体信号データと、提供したコンテンツの分類ラベルとを対応付けて、学習用データとしてデータセットDS1に追加する。これにより、情報処理装置100は、図1のデータセットDS1に示すように複数の学習用データを含むデータセットを生成する。なお、情報処理装置100は、外部装置からデータセットDS1を取得してもよい。すなわち、学習用データの収集は、情報処理装置100以外の外部装置が行い、情報処理装置100は、その外部装置から取得したデータセットを用いて、推定モデルの学習を行ってもよい。 The information processing device 100 also provides content to other users, associates the biosignal data of the users at the time of outputting the provided content with the classification label of the provided content, and adds the data to the dataset DS1 as learning data. As a result, the information processing device 100 generates a dataset including multiple learning data as shown in the dataset DS1 in FIG. 1. Note that the information processing device 100 may obtain the dataset DS1 from an external device. That is, the learning data may be collected by an external device other than the information processing device 100, and the information processing device 100 may use the dataset obtained from the external device to learn the estimation model.

そして、情報処理装置100は、データセットDS1を用いて、ユーザの生体信号を入力として、そのユーザの感情を分類する情報を出力する感情推定モデルである推定モデルM1を学習する(ステップS15)。例えば、情報処理装置100は、ユーザの顔の筋電位であるユーザの生体信号の入力に応じて、そのユーザの感情がどの感情であるかの可能性を示す各感情のスコアを出力する推定モデルM1を学習する。この場合、情報処理装置100は、推定モデルM1が出力したスコアが最大の感情を、そのユーザの感情であると推定する。例えば、情報処理装置100は、ニューラルネットワークのネットワーク構成を有する推定モデルM1を学習する。なお、推定モデルM1のネットワーク構成は、感情の推定に用いる情報を出力可能であれば、どのようなネットワーク構成であってもよい。 Then, the information processing device 100 uses the dataset DS1 to train an estimation model M1, which is an emotion estimation model that takes a user's biosignal as input and outputs information classifying the user's emotion (step S15). For example, the information processing device 100 trains an estimation model M1 that outputs a score for each emotion indicating the likelihood of the user's emotion in response to an input of the user's biosignal, which is the myoelectric potential of the user's face. In this case, the information processing device 100 estimates that the emotion output by the estimation model M1 with the highest score is the emotion of the user. For example, the information processing device 100 trains an estimation model M1 having a neural network network configuration. Note that the network configuration of the estimation model M1 may be any network configuration as long as it is capable of outputting information used for emotion estimation.

例えば、情報処理装置100は、生体信号データDT1が入力された場合に、ラベルLB1に対応する感情「喜び」に対応するスコアが最大になるように推定モデルM1の重み等のパラメータを学習する。また、例えば、情報処理装置100は、生体信号データDT2が入力された場合に、ラベルLB2に対応する感情「怒り」に対応するスコアが最大になるように推定モデルM1の重み等のパラメータを学習する。情報処理装置100は、推定モデルM1のネットワーク構成や学習したパラメータ等を含むモデルデータMDT1を生成する。これにより、情報処理装置100は、感情推定モデルである推定モデルM1を生成する。推定モデルM1の学習処理には、任意の手法が採用可能である。 For example, when biosignal data DT1 is input, the information processing device 100 learns parameters such as weights of the estimation model M1 so that the score corresponding to the emotion "joy" corresponding to label LB1 is maximized. Also, for example, when biosignal data DT2 is input, the information processing device 100 learns parameters such as weights of the estimation model M1 so that the score corresponding to the emotion "anger" corresponding to label LB2 is maximized. The information processing device 100 generates model data MDT1 including the network configuration of the estimation model M1, the learned parameters, and the like. As a result, the information processing device 100 generates the estimation model M1, which is an emotion estimation model. Any method can be adopted for the learning process of the estimation model M1.

例えば、情報処理装置100は、バックプロパゲーション(誤差逆伝播法)等の手法により学習処理を行う。例えば、情報処理装置100は、学習処理により、ノード間で値が伝達する際に考慮される重み(すなわち、接続係数)の値を調整する。このように、情報処理装置100は、推定モデルM1における出力と、入力に対応する正解(正解データ)との誤差が少なくなるようにパラメータ(接続係数)を補正するバックプロパゲーション等の処理により推定モデルM1を学習する。例えば、情報処理装置100は、所定の損失(ロス)関数を最小化するようにバックプロパゲーション等の処理を行うことにより推定モデルM1を生成する。これにより、情報処理装置100は、推定モデルM1のパラメータを学習する学習処理を行うことができる。情報処理装置100は、学習処理により生成した推定モデルM1をモデル情報記憶部122(図4参照)に格納する。 For example, the information processing device 100 performs a learning process using a method such as backpropagation. For example, the information processing device 100 adjusts the value of the weight (i.e., the connection coefficient) that is taken into account when a value is transmitted between nodes through the learning process. In this way, the information processing device 100 learns the estimation model M1 through a process such as backpropagation that corrects the parameters (connection coefficients) so as to reduce the error between the output in the estimation model M1 and the correct answer (correct answer data) corresponding to the input. For example, the information processing device 100 generates the estimation model M1 by performing a process such as backpropagation to minimize a predetermined loss function. This allows the information processing device 100 to perform a learning process that learns the parameters of the estimation model M1. The information processing device 100 stores the estimation model M1 generated through the learning process in the model information storage unit 122 (see FIG. 4).

次に、情報処理装置100による推定モデルを用いた感情の推定処理について説明する。図1では、端末装置10-2を使用するユーザU2を対象として推定処理を行う場合を示す。 Next, we will explain the emotion estimation process using the estimation model by the information processing device 100. Figure 1 shows a case where the estimation process is performed on a user U2 who uses the terminal device 10-2.

端末装置10-2は、ユーザU2の顔の筋電位であるユーザU2の生体信号を検知し、ユーザU2の顔の筋電位であるユーザU2の生体信号を収集する。そして、ユーザU2の生体信号を収集した端末装置10-2は、収集したユーザU2の生体信号を情報処理装置100へ送信する(ステップS21)。 The terminal device 10-2 detects the biosignal of the user U2, which is the myoelectric potential of the user U2's face, and collects the biosignal of the user U2, which is the myoelectric potential of the user U2's face. The terminal device 10-2 that has collected the biosignal of the user U2 then transmits the collected biosignal of the user U2 to the information processing device 100 (step S21).

端末装置10-2からユーザU2の生体信号を受信した情報処理装置100は、受信したユーザU2の生体信号を入力用データINとして、推定モデルM1に入力する(ステップS22)。情報処理装置100は、モデル情報記憶部122から推定モデルM1を取得し、取得した推定モデルM1に、受信したユーザU2の生体信号を入力用データINとして入力する。これにより、ユーザU2の生体信号が入力された推定モデルM1は、ユーザU2の感情推定情報を出力データOTとして出力する(ステップS23)。例えば、推定モデルM1は、ユーザU2の生体信号に対応する各感情のスコアを出力する。図1では、推定モデルM1は、ユーザU2の生体信号の入力に応じて、ラベルLB2に対応する感情「怒り」に対応するスコアが最大となる各感情のスコアを出力する。 The information processing device 100 receives the biosignal of user U2 from the terminal device 10-2 and inputs the received biosignal of user U2 as input data IN to the estimation model M1 (step S22). The information processing device 100 acquires the estimation model M1 from the model information storage unit 122 and inputs the received biosignal of user U2 to the acquired estimation model M1 as input data IN. As a result, the estimation model M1 to which the biosignal of user U2 has been input outputs emotion estimation information of user U2 as output data OT (step S23). For example, the estimation model M1 outputs the score of each emotion corresponding to the biosignal of user U2. In FIG. 1, the estimation model M1 outputs the score of each emotion corresponding to the emotion "anger" corresponding to label LB2 in response to the input of the biosignal of user U2, with the score being the maximum.

そして、情報処理装置100は、出力データOTを基に、ユーザU2の感情を推定する(ステップS24)。図1では、情報処理装置100は、ラベルLB2に対応する感情「怒り」に対応するスコアが最大であるため、推定結果RSに示すように、ユーザU2の感情が怒りの感情であると推定する。そして、情報処理装置100は、推定結果に応じてユーザU2に情報提供する(ステップS25)。例えば、情報処理装置100は、ユーザU2の感情が怒りであるため、怒りの感情を鎮めるように促す通知情報を送信する。また、情報処理装置100は、ユーザU2の感情が怒りであるため、怒りの感情を鎮めるためのコンテンツを提供してもよいが、この点については後述する。 Then, the information processing device 100 estimates the emotion of the user U2 based on the output data OT (step S24). In FIG. 1, the information processing device 100 estimates that the emotion of the user U2 is anger, as shown in the estimation result RS, because the score corresponding to the emotion "anger" corresponding to the label LB2 is the largest. Then, the information processing device 100 provides information to the user U2 according to the estimation result (step S25). For example, since the emotion of the user U2 is anger, the information processing device 100 transmits notification information urging the user U2 to calm down the emotion of anger. Furthermore, since the emotion of the user U2 is anger, the information processing device 100 may provide content for calming down the emotion of anger, which will be described later.

上述したように、情報処理装置100は、コンテンツがユーザに与える心理的な作用を示すラベルと、そのコンテンツが出力時のユーザの生体信号とを用いて、人の感情を推定する推定モデルを学習することにより、ユーザの感情と生体信号との対応関係を適切に学習したモデルを生成することができる。したがって、情報処理装置100は、適切なユーザの感情推定を可能にすることができる。また、情報処理装置100は、推定モデルを用いてユーザの感情を推定することにより、適切にユーザの感情を推定することができる。上記のような推定モデルを生成しておくことにより、情報処理システム1は、筋電位や眼電位を取得しない端末装置(ヘッドマウントディスプレイ、ヘッドフォン等)であっても表示する画像や出力される音声等のコンテンツによって、ユーザに生じる感情を推定することができる。また、情報処理システム1は、推定モデルによりコンテンツを視聴していないユーザも対象として、そのユーザに生じる感情を推定することができる。すなわち、情報処理システム1は、推定モデルの入力とするデータが取得可能な全ユーザを対象として、ユーザに生じる感情を推定することができる。また、情報処理装置100は、生体信号に限らず、様々な種別のデータを入力とする推定モデルを生成してもよい。例えば、情報処理装置100は、センサ部16が有する様々なセンサにより検知されるセンサ情報を用いて推定モデルを生成してもよい。この場合、情報処理装置100は、センサ部16が有する様々なセンサにより検知されるセンサ情報を入力とする推定モデルを生成する。例えば、情報処理装置100は、生体信号に加えて、他の種別のデータを入力とする推定モデルを生成してもよい。例えば、情報処理装置100は、画像データを入力とする推定モデルを生成してもよい。また、情報処理装置100は、加速度やジャイロなどの非生体センサのデータを入力とする推定モデルを生成してもよい。すなわち、情報処理装置100は、ユーザの感情の推定に利用可能な情報であれば、生体信号のみに限らず、様々な情報を用いてもよい。 As described above, the information processing device 100 can generate a model that appropriately learns the correspondence between the user's emotions and the biosignals by learning an estimation model that estimates a person's emotions using a label indicating the psychological effect that the content has on the user and the user's biosignal at the time the content is output. Therefore, the information processing device 100 can appropriately estimate the user's emotions by estimating the user's emotions using the estimation model. By generating the estimation model as described above, the information processing system 1 can estimate the emotions of the user from the content such as the image displayed and the sound output even in a terminal device (head-mounted display, headphones, etc.) that does not acquire myoelectric potential or electrooculography. Furthermore, the information processing system 1 can estimate the emotions of the user using the estimation model, even for users who do not watch the content. That is, the information processing system 1 can estimate the emotions of the user for all users from whom data to be input to the estimation model can be acquired. Furthermore, the information processing device 1 may generate an estimation model that inputs various types of data, not limited to biosignals. For example, the information processing device 100 may generate an estimation model using sensor information detected by various sensors included in the sensor unit 16. In this case, the information processing device 100 generates an estimation model that receives as input sensor information detected by various sensors included in the sensor unit 16. For example, the information processing device 100 may generate an estimation model that receives as input other types of data in addition to biosignals. For example, the information processing device 100 may generate an estimation model that receives as input image data. Furthermore, the information processing device 100 may generate an estimation model that receives as input data from non-biometric sensors such as acceleration and gyro. In other words, the information processing device 100 may use various information, not limited to biosignals, as long as the information can be used to estimate the user's emotions.

〔1-1.生体信号〕
上記の例では、顔の筋電位をユーザの生体信号として用いる場合を一例として説明したが、ユーザの生体信号は顔の筋電位に限られない。例えば、情報処理装置100は、ユーザの眼電位をユーザの生体信号として用いてもよい。この場合、情報処理装置100は、ユーザの眼電位を入力用データに含む推定モデルを学習してもよい。そして、情報処理装置100は、ユーザの眼電位を含む入力用データを推定モデルに入力することにより、ユーザの感情を推定してもよい。
[1-1. Biosignals]
In the above example, a case where facial myoelectric potential is used as a biosignal of the user has been described as an example, but the biosignal of the user is not limited to facial myoelectric potential. For example, the information processing device 100 may use the user's electrooculography as the biosignal of the user. In this case, the information processing device 100 may learn an estimation model including the user's electrooculography in input data. Then, the information processing device 100 may estimate the user's emotion by inputting the input data including the user's electrooculography to the estimation model.

また、情報処理装置100は、ユーザの心拍をユーザの生体信号として用いてもよい。この場合、情報処理装置100は、ユーザの心拍を入力用データに含む推定モデルを学習してもよい。そして、情報処理装置100は、ユーザの心拍を含む入力用データを推定モデルに入力することにより、ユーザの感情を推定してもよい。 The information processing device 100 may also use the user's heart rate as the user's biosignal. In this case, the information processing device 100 may learn an estimation model that includes the user's heart rate in the input data. Then, the information processing device 100 may estimate the user's emotions by inputting the input data that includes the user's heart rate into the estimation model.

また、情報処理装置100は、ユーザの脳波をユーザの生体信号として用いてもよい。この場合、情報処理装置100は、ユーザの脳波を入力用データに含む推定モデルを学習してもよい。そして、情報処理装置100は、ユーザの脳波を含む入力用データを推定モデルに入力することにより、ユーザの感情を推定してもよい。 The information processing device 100 may also use the user's brain waves as the user's biosignal. In this case, the information processing device 100 may learn an estimation model that includes the user's brain waves in the input data. Then, the information processing device 100 may estimate the user's emotions by inputting the input data that includes the user's brain waves into the estimation model.

また、情報処理装置100は、ユーザの脈拍をユーザの生体信号として用いてもよい。この場合、情報処理装置100は、ユーザの脈拍を入力用データに含む推定モデルを学習してもよい。そして、情報処理装置100は、ユーザの脈拍を含む入力用データを推定モデルに入力することにより、ユーザの感情を推定してもよい。 The information processing device 100 may also use the user's pulse as the user's biosignal. In this case, the information processing device 100 may learn an estimation model that includes the user's pulse in the input data. Then, the information processing device 100 may estimate the user's emotions by inputting the input data that includes the user's pulse into the estimation model.

また、情報処理装置100は、ユーザの呼吸をユーザの生体信号として用いてもよい。この場合、情報処理装置100は、ユーザの呼吸を入力用データに含む推定モデルを学習してもよい。そして、情報処理装置100は、ユーザの呼吸を含む入力用データを推定モデルに入力することにより、ユーザの感情を推定してもよい。 The information processing device 100 may also use the user's breathing as the user's biosignal. In this case, the information processing device 100 may learn an estimation model that includes the user's breathing in the input data. Then, the information processing device 100 may estimate the user's emotions by inputting the input data that includes the user's breathing into the estimation model.

また、情報処理装置100は、ユーザの発汗をユーザの生体信号として用いてもよい。この場合、情報処理装置100は、ユーザの発汗を入力用データに含む推定モデルを学習してもよい。そして、情報処理装置100は、ユーザの発汗を含む入力用データを推定モデルに入力することにより、ユーザの感情を推定してもよい。 The information processing device 100 may also use the user's sweating as the user's biosignal. In this case, the information processing device 100 may learn an estimation model that includes the user's sweating in the input data. Then, the information processing device 100 may estimate the user's emotions by inputting the input data that includes the user's sweating into the estimation model.

なお、上記は一例に過ぎず、情報処理装置100は、ユーザの様々な種別の生体信号を用いてもよい。また、情報処理装置100は、上述した各種別の生体信号を組み合わせて用いてもよい。例えば、情報処理装置100は、ユーザの顔の筋電位とユーザの呼吸との2つの種別の生体信号を入力用データとする推定モデルを用いた処理を行ってもよい。例えば、情報処理装置100は、ユーザの顔の筋電位とユーザの呼吸との2つの種別の生体信号を入力用データとする推定モデルを学習したり、その推定モデルを用いた推定処理を行ったりしてもよい。 Note that the above is merely an example, and the information processing device 100 may use various types of biosignals of the user. Furthermore, the information processing device 100 may use a combination of the various types of biosignals described above. For example, the information processing device 100 may perform processing using an estimation model in which two types of biosignals, the myoelectric potential of the user's face and the user's breathing, are used as input data. For example, the information processing device 100 may learn an estimation model in which two types of biosignals, the myoelectric potential of the user's face and the user's breathing, are used as input data, and perform estimation processing using the estimation model.

〔1-2.感情〕
なお、図1の例では、ラベル(感情)として、「喜び」、「怒り」、「悲しみ」、「楽しみ」の4つのラベル(感情)のみを例示するが、ラベル情報は上記の4つに限らず、感情の分類は、上記に限らず、目的等に応じて種々の分類であってもよい。例えば「無感情」(図5参照)等の様々な感情を示すラベルであってもよい。また、ラベル(感情)は、怒りや悲しみ等を負の感情を併合した「負の感情」や、喜びや楽しみ等を正の感情を併合した「正の感情」等のより抽象的なラベルであってもよい。
[1-2. Emotions
In the example of FIG. 1, only four labels (emotions) "joy", "anger", "sadness", and "pleasure" are shown as examples of labels (emotions), but the label information is limited to these four. The classification of emotions is not limited to the above, and various classifications may be used depending on the purpose, etc. For example, labels indicating various emotions such as "neutral" (see FIG. 5) may be used. In addition, labels (emotions) can be more abstract, such as "negative emotions" that combine negative emotions such as anger and sadness, or "positive emotions" that combine positive emotions such as joy and pleasure. may be also possible.

〔2.情報処理装置の構成〕
次に、図2を用いて、実施形態に係る情報処理装置100の構成について説明する。図2は、実施形態に係る情報処理装置100の構成例を示す図である。図2に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、情報処理装置100は、情報処理装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
2. Configuration of information processing device
Next, the configuration of the information processing device 100 according to the embodiment will be described with reference to Fig. 2. Fig. 2 is a diagram showing an example of the configuration of the information processing device 100 according to the embodiment. As shown in Fig. 2, the information processing device 100 has a communication unit 110, a storage unit 120, and a control unit 130. Note that the information processing device 100 may have an input unit (e.g., a keyboard, a mouse, etc.) that accepts various operations from an administrator of the information processing device 100, and a display unit (e.g., a liquid crystal display, etc.) that displays various information.

(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、所定の通信網(ネットワーク)と有線または無線で接続され、端末装置10との間で情報の送受信を行う。
(Communication unit 110)
The communication unit 110 is realized by, for example, a network interface card (NIC) etc. The communication unit 110 is connected to a predetermined communication network by wire or wirelessly, and transmits and receives information to and from the terminal device 10.

(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部120は、図2に示すように、学習用データ記憶部121と、モデル情報記憶部122と、コンテンツ情報記憶部123とを有する。
(Memory unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory element such as a random access memory (RAM) or a flash memory, or a storage device such as a hard disk or an optical disk. As shown in FIG. 2 , the storage unit 120 according to the embodiment has a learning data storage unit 121, a model information storage unit 122, and a content information storage unit 123.

(学習用データ記憶部121)
実施形態に係る学習用データ記憶部121は、学習に用いるデータに関する各種情報を記憶する。学習用データ記憶部121は、学習に用いる学習データ(データセット)を記憶する。図3は、本開示の実施形態に係る学習用データ記憶部の一例を示す図である。例えば、学習用データ記憶部121は、学習に用いる学習データや精度評価(測定)に用いる評価用データ等の種々のデータに関する各種情報を記憶する。図3に、実施形態に係る学習用データ記憶部121の一例を示す。図3の例では、学習用データ記憶部121は、「データセットID」、「データID」、「生体信号データ」、「コンテンツID」、「分類ラベル」といった項目が含まれる。
(Learning Data Storage Unit 121)
The learning data storage unit 121 according to the embodiment stores various information related to data used for learning. The learning data storage unit 121 stores learning data (dataset) used for learning. FIG. 3 is a diagram illustrating an example of the learning data storage unit according to the embodiment of the present disclosure. For example, the learning data storage unit 121 stores various information related to various data such as learning data used for learning and evaluation data used for accuracy evaluation (measurement). FIG. 3 illustrates an example of the learning data storage unit 121 according to the embodiment. In the example of FIG. 3, the learning data storage unit 121 includes items such as "dataset ID", "data ID", "biological signal data", "content ID", and "classification label".

「データセットID」は、データセットを識別するための識別情報を示す。「データID」は、各学習用データを識別するための識別情報を示す。また、「生体信号データ」は、データIDにより識別されるデータ(生体信号データ)を示す。「生体信号データ」は、モデルの入力として用いられる生体信号データ(入力用データ)を示す。「生体信号データ」には、どのユーザの生体信号であるかを示す情報(例えばユーザID)が対応付けられてもよい。 "Dataset ID" indicates identification information for identifying a dataset. "Data ID" indicates identification information for identifying each piece of learning data. Furthermore, "biological signal data" indicates data (biological signal data) identified by a data ID. "Biological signal data" indicates biological signal data (input data) used as input for a model. "Biological signal data" may be associated with information indicating which user's biological signal it is (e.g., a user ID).

「コンテンツID」は、対応する生体信号データが検知された際に出力されたコンテンツを示す。「分類ラベル」は、対応するコンテンツに対応付けられたラベル情報(正解情報)を示す。「分類ラベル」は、対応するデータ(入力用データ)に対応するユーザの感情の分類結果を示す。図3の例では、「分類ラベル」は、入力用データである生体信号データに対応するユーザの感情を推定するための分類を示す。「分類ラベル」は、対応するデータ(入力用データ)がモデルに入力された場合に、モデルが出力することが期待されるユーザの感情を示す情報(分類ラベル)を示す。 "Content ID" indicates the content output when the corresponding biosignal data was detected. "Classification label" indicates label information (correct answer information) associated with the corresponding content. "Classification label" indicates the classification result of the user's emotion corresponding to the corresponding data (input data). In the example of Figure 3, "classification label" indicates a classification for estimating the user's emotion corresponding to the biosignal data that is the input data. "Classification label" indicates information (classification label) that indicates the user's emotion that is expected to be output by the model when the corresponding data (input data) is input to the model.

図3の例では、データセットID「DS1」により識別されるデータセット(データセットDS1)には、データID「DID1」、「DID2」、「DID3」等により識別される複数のデータが含まれることを示す。 The example in Figure 3 shows that the dataset (dataset DS1) identified by the dataset ID "DS1" includes multiple data identified by data IDs "DID1", "DID2", "DID3", etc.

データID「DID1」により識別される生体信号データDT1は、コンテンツID「CT1」により識別されるコンテンツ(コンテンツCT1)の出力時に検知されたユーザの生体信号を示す。また、生体信号データDT1は、分類ラベルが「LB1」であることを示す。図3では抽象的に図示するが、ラベルLB1は「喜び」の感情に対応するラベル(値)であるものとする。 The biosignal data DT1 identified by the data ID "DID1" indicates the user's biosignal detected when the content (content CT1) identified by the content ID "CT1" is output. The biosignal data DT1 also indicates that the classification label is "LB1." Although illustrated abstractly in FIG. 3, the label LB1 is assumed to be a label (value) corresponding to the emotion of "joy."

なお、学習用データ記憶部121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、学習用データ記憶部121は、音声や画像等の教師データの種別を示す情報を各データに対応付けて記憶する。例えば、学習用データ記憶部121は、データの種別を示す情報を各データに対応付けて記憶する。 The learning data storage unit 121 may store various information according to the purpose, not limited to the above. For example, the learning data storage unit 121 stores information indicating the type of teacher data, such as audio or image, in association with each piece of data. For example, the learning data storage unit 121 stores information indicating the type of data in association with each piece of data.

例えば、学習用データ記憶部121は、各生体信号データが学習データであるか、評価用データであるか等を特定可能に記憶してもよい。例えば、学習用データ記憶部121は、学習データと評価用データとを区別可能に記憶する。学習用データ記憶部121は、各データが学習データや評価用データであるかを識別する情報を記憶してもよい。情報処理装置100は、学習データとして用いられる各生体信号データと分類ラベルとに基づいて、モデルを学習する。情報処理装置100は、評価用データとして用いられる各生体信号データと分類ラベルとに基づいて、モデルの精度を測定する。情報処理装置100は、評価用データを入力した場合にモデルが出力する出力結果(感情を推定する出力情報)と、分類ラベルとを比較した結果を収集することにより、モデルの精度を測定する。 For example, the learning data storage unit 121 may store each piece of biosignal data in a manner that allows identification as to whether it is learning data or evaluation data. For example, the learning data storage unit 121 stores learning data and evaluation data in a manner that allows distinction between them. The learning data storage unit 121 may store information that identifies whether each piece of data is learning data or evaluation data. The information processing device 100 learns a model based on each piece of biosignal data used as learning data and the classification label. The information processing device 100 measures the accuracy of the model based on each piece of biosignal data used as evaluation data and the classification label. The information processing device 100 measures the accuracy of the model by collecting the results of a comparison between the output result (output information that estimates emotions) output by the model when evaluation data is input and the classification label.

(モデル情報記憶部122)
実施形態に係るモデル情報記憶部122は、モデルに関する情報を記憶する。例えば、モデル情報記憶部122は、学習処理により学習(生成)された学習済みモデル(モデル)の情報(モデルデータ)を記憶する。図4は、本開示の第1の実施形態に係るモデル情報記憶部の一例を示す図である。図4に、第1の実施形態に係るモデル情報記憶部122の一例を示す。図4に示した例では、モデル情報記憶部122は、「モデルID」、「用途」、「モデルデータ」といった項目が含まれる。
(Model information storage unit 122)
The model information storage unit 122 according to the embodiment stores information related to a model. For example, the model information storage unit 122 stores information (model data) of a trained model (model) trained (generated) by a learning process. FIG. 4 is a diagram illustrating an example of a model information storage unit according to the first embodiment of the present disclosure. FIG. 4 illustrates an example of the model information storage unit 122 according to the first embodiment. In the example illustrated in FIG. 4, the model information storage unit 122 includes items such as "model ID", "purpose", and "model data".

「モデルID」は、モデルを識別するための識別情報を示す。「用途」は、対応するモデルの用途を示す。「モデルデータ」は、モデルのデータを示す。図4等では「モデルデータ」に「MDT1」といった概念的な情報が格納される例を示したが、実際には、モデルの構成(ネットワーク構成)の情報やパラメータに関する情報等、そのモデルを構成する種々の情報が含まれる。例えば、「モデルデータ」には、ネットワークの各層におけるノードと、各ノードが採用する関数と、ノードの接続関係と、ノード間の接続に対して設定される接続係数とを含む情報が含まれる。 "Model ID" indicates identification information for identifying a model. "Use" indicates the use of the corresponding model. "Model data" indicates the data of the model. Figure 4 etc. shows an example in which conceptual information such as "MDT1" is stored in "model data", but in reality, various information that constitutes the model is included, such as information on the model configuration (network configuration) and information on parameters. For example, "model data" includes information including the nodes in each layer of the network, the functions employed by each node, the connection relationships between the nodes, and the connection coefficients set for the connections between the nodes.

図4に示す例では、モデルID「M1」により識別されるモデル(推定モデルM1)は、用途が「感情推定」であることを示す。例えば、推定モデルM1は、ユーザの生体信号である入力用データが入力された場合に、入力用データに対応するユーザの感情を推定する情報を出力する推定モデル(感情推定モデル)であることを示す。また、推定モデルM1のモデルデータは、モデルデータMDT1であることを示す。 In the example shown in FIG. 4, the model identified by the model ID "M1" (estimation model M1) indicates that its use is "emotion estimation." For example, estimation model M1 indicates that it is an estimation model (emotion estimation model) that outputs information that estimates the user's emotion corresponding to input data when input data that is a user's biosignal is input. In addition, it indicates that the model data of estimation model M1 is model data MDT1.

なお、モデル情報記憶部122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。 The model information storage unit 122 may store various types of information depending on the purpose, not limited to the above.

(コンテンツ情報記憶部123)
実施形態に係るコンテンツ情報記憶部123は、コンテンツ(記事)に関する各種情報を記憶する。図5は、実施形態に係るコンテンツ情報記憶部の一例を示す図である。図5に示すコンテンツ情報記憶部123は、「コンテンツID」、「コンテンツ」、「ラベル情報」といった項目を有する。なお、図5の例では、ラベル情報として、「喜び」、「怒り」、「悲しみ」、「楽しみ」、「無感情」の5つのラベル(感情)のみを例示するが、ラベル情報は上記の5つに限らず、様々な感情を示すラベルであってもよい。
(Content information storage unit 123)
The content information storage unit 123 according to the embodiment stores various information related to content (articles). Fig. 5 is a diagram showing an example of the content information storage unit according to the embodiment. The content information storage unit 123 shown in Fig. 5 has items such as "content ID", "content", and "label information". Note that in the example of Fig. 5, only five labels (emotions) of "joy", "anger", "sadness", "enjoyment", and "neutrality" are illustrated as label information, but the label information is not limited to the above five and may be labels indicating various emotions.

「コンテンツID」は、コンテンツを識別するための識別情報を示す。「コンテンツ」は、映画などの動画コンテンツであってもよいし、楽曲などの音声コンテンツ等の様々な種別のコンテンツであってもよい。図5では「コンテンツ」に「Aコンテンツ」といった概念的な情報が格納される例を示したが、実際には、そのコンテンツ自体、または、そのコンテンツの格納場所を示すファイルパス名などが格納される。 "Content ID" indicates identification information for identifying the content. "Content" may be video content such as a movie, or various types of content such as audio content such as music. Figure 5 shows an example in which conceptual information such as "Content A" is stored in "Content", but in reality, the content itself or a file path name indicating the storage location of the content is stored.

また、「ラベル情報」は、コンテンツがユーザに与える心理的な作用を示す。例えば、「ラベル情報」は、コンテンツがユーザに対して出力された場合にユーザがどのような心理状態(感情)になるかを示す。すなわち、「ラベル情報」は、コンテンツの出力によりユーザに引き起こされる感情(正解情報)を示す。 Furthermore, the "label information" indicates the psychological effect that the content has on the user. For example, the "label information" indicates the psychological state (emotion) that the user will be in when the content is output to the user. In other words, the "label information" indicates the emotion (correct answer information) that is evoked in the user by the output of the content.

図5の例では、コンテンツID「CT1」により識別されるAコンテンツ(コンテンツCT1)は、ラベル情報LB1が関連付けられていることを示す。例えば、コンテンツCT1は、ラベル情報LB1に対応する「喜び」の感情をユーザに引き起こさせることを示す。 In the example of FIG. 5, content A (content CT1) identified by content ID "CT1" indicates that label information LB1 is associated with it. For example, content CT1 indicates that it induces in the user the emotion of "joy" corresponding to label information LB1.

また、コンテンツID「CT2」により識別されるBコンテンツ(コンテンツCT2)は、ラベル情報LB2が関連付けられていることを示す。例えば、コンテンツCT2は、ラベル情報LB2に対応する「怒り」の感情をユーザに引き起こさせることを示す。 In addition, B content (content CT2) identified by the content ID "CT2" indicates that it is associated with label information LB2. For example, content CT2 indicates that it evokes in the user the emotion of "anger" corresponding to label information LB2.

なお、コンテンツ情報記憶部123は、上記に限らず、目的に応じて種々の情報を記憶してもよい。 The content information storage unit 123 may store various types of information depending on the purpose, not limited to the above.

(制御部130)
図2の説明に戻って、制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(Control unit 130)
Returning to the explanation of Fig. 2, the control unit 130 is a controller, and is realized, for example, by a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like, executing various programs (corresponding to an example of an information processing program) stored in a storage device inside the information processing device 100 using a RAM as a working area. The control unit 130 is also a controller, and is realized, for example, by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

図2に示すように、制御部130は、取得部131と、学習部132と、推定部133と、提供部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図2に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図2に示した接続関係に限られず、他の接続関係であってもよい。 As shown in FIG. 2, the control unit 130 has an acquisition unit 131, a learning unit 132, an estimation unit 133, and a provision unit 134, and realizes or executes the functions and actions of the information processing described below. Note that the internal configuration of the control unit 130 is not limited to the configuration shown in FIG. 2, and may be other configurations as long as they perform the information processing described below. Also, the connection relationship between each processing unit of the control unit 130 is not limited to the connection relationship shown in FIG. 2, and may be other connection relationships.

(取得部131)
取得部131は、記憶部120から各種の情報を取得する。取得部131は、ユーザが使用する端末装置10からユーザの生体信号を受信する。取得部131は、学習用データ記憶部121から学習に用いるデータを取得する。取得部131は、モデル情報記憶部122からモデルの情報を取得する。取得部131は、コンテンツ情報記憶部123からユーザに提供するコンテンツを取得する。
(Acquisition unit 131)
The acquisition unit 131 acquires various types of information from the storage unit 120. The acquisition unit 131 receives a biosignal of a user from the terminal device 10 used by the user. The acquisition unit 131 acquires data to be used for learning from the learning data storage unit 121. The acquisition unit 131 acquires model information from the model information storage unit 122. The acquisition unit 131 acquires content to be provided to the user from the content information storage unit 123.

取得部131は、ユーザが頭部に装着した端末装置10が出力するコンテンツがユーザに与える心理的な作用を示すラベル情報と、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの生体信号である入力用データとを含む学習用データを取得する。 The acquisition unit 131 acquires learning data including label information indicating the psychological effect on the user of the content output by the terminal device 10 worn on the user's head, and input data which is the user's biosignal detected by the terminal device 10 when the content is output by the terminal device 10.

取得部131は、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの生体電位である入力用データを含む学習用データを取得する。取得部131は、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの頭部の筋電位を含む入力用データを含む学習用データを取得する。取得部131は、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの顔の筋電位を含む入力用データを含む学習用データを取得する。 The acquisition unit 131 acquires learning data including input data that is the bioelectric potential of the user detected by the terminal device 10 when the terminal device 10 outputs content. The acquisition unit 131 acquires learning data including input data that includes the myoelectric potential of the user's head detected by the terminal device 10 when the terminal device 10 outputs content. The acquisition unit 131 acquires learning data including input data that includes the myoelectric potential of the user's face detected by the terminal device 10 when the terminal device 10 outputs content.

取得部131は、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの眼電位を含む入力用データを含む学習用データを取得する。取得部131は、コンテンツによりユーザに引き起こされる感情を示すラベル情報を含む学習用データを取得する。 The acquisition unit 131 acquires learning data including input data including the user's electrooculography detected by the terminal device 10 when the terminal device 10 outputs content. The acquisition unit 131 acquires learning data including label information indicating the emotion evoked in the user by the content.

取得部131は、ユーザが頭部に装着したヘッドマウントディスプレイである端末装置10が出力するコンテンツのラベル情報を含む学習用データを取得する。取得部131は、映像を含むコンテンツがユーザに与える心理的な作用を示すラベル情報を含む学習用データを取得する。 The acquisition unit 131 acquires learning data including label information of content output by the terminal device 10, which is a head-mounted display worn by a user on the head. The acquisition unit 131 acquires learning data including label information indicating the psychological effect that content including video has on the user.

取得部131は、ユーザが頭部に装着したオーバーイヤーヘッドホンである端末装置10が出力するコンテンツのラベル情報を含む学習用データを取得する。取得部131は、音声を含むコンテンツがユーザに与える心理的な作用を示すラベル情報を含む学習用データを取得する。 The acquisition unit 131 acquires learning data including label information of content output by the terminal device 10, which is an over-ear headphone worn by a user on the head. The acquisition unit 131 acquires learning data including label information indicating the psychological effect that content including audio has on a user.

取得部131は、ユーザが頭部に装着した端末装置10が出力するコンテンツがユーザに与える心理的な作用を示すラベル情報と、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの生体信号である入力用データとを含む学習用データを用いて生成された推定モデルであって、入力用データの入力に応じて当該入力用データに対応する人の感情を推定する情報を出力する推定モデルを取得する。取得部131は、モデル情報記憶部122から推定モデルを取得する。取得部131は、端末装置10を装着した対象ユーザの生体信号である対象生体信号を取得する。 The acquisition unit 131 acquires an estimation model that is generated using learning data including label information indicating the psychological effect that content output by the terminal device 10 worn by the user on the head has on the user, and input data that is the user's biosignal detected by the terminal device 10 when the terminal device 10 outputs the content, and that outputs information that estimates the emotion of a person corresponding to the input data in response to the input of the input data. The acquisition unit 131 acquires the estimation model from the model information storage unit 122. The acquisition unit 131 acquires a target biosignal that is the biosignal of a target user wearing the terminal device 10.

(学習部132)
学習部132は、モデルを学習する。学習部132は、外部の情報処理装置からの情報や記憶部120に記憶された情報に基づいて、各種情報を学習する。学習部132は、学習用データ記憶部121に記憶された情報に基づいて、各種情報を学習する。学習部132は、学習により生成したモデルをモデル情報記憶部122に格納する。
(Learning Unit 132)
The learning unit 132 learns a model. The learning unit 132 learns various pieces of information based on information from an external information processing device and information stored in the storage unit 120. The learning unit 132 learns various pieces of information based on information stored in the learning data storage unit 121. The learning unit 132 stores the model generated by learning in the model information storage unit 122.

学習部132は、学習用データを用いて、入力用データの入力に応じて当該入力用データに対応する人の感情を推定する情報を出力する推定モデルを学習する。学習部132は、学習用データを用いて、生体電位に対応する人の感情を推定する情報を出力する推定モデルを学習する。学習部132は、学習用データを用いて、頭部の筋電位に対応する人の感情を推定する情報を出力する推定モデルを学習する。学習部132は、学習用データを用いて、顔の筋電位に対応する人の感情を推定する情報を出力する推定モデルを学習する。 The learning unit 132 uses the learning data to learn an estimation model that outputs information that estimates a person's emotion corresponding to input data in response to the input of the input data. The learning unit 132 uses the learning data to learn an estimation model that outputs information that estimates a person's emotion corresponding to a bioelectric potential. The learning unit 132 uses the learning data to learn an estimation model that outputs information that estimates a person's emotion corresponding to the myoelectric potential of the head. The learning unit 132 uses the learning data to learn an estimation model that outputs information that estimates a person's emotion corresponding to the myoelectric potential of the face.

学習部132は、学習用データを用いて、眼電位に対応する人の感情を推定する情報を出力する推定モデルを学習する。学習部132は、学習用データを用いて、推定モデルを学習する。学習部132は、学習用データを用いて、端末装置10を装着した人の感情を推定する推定モデルを学習する。学習部132は、学習用データを用いて、端末装置10を装着した人の感情を推定する推定モデルを学習する。 The learning unit 132 uses the learning data to learn an estimation model that outputs information that estimates the emotion of a person corresponding to the electrooculography. The learning unit 132 uses the learning data to learn the estimation model. The learning unit 132 uses the learning data to learn an estimation model that estimates the emotion of a person wearing the terminal device 10. The learning unit 132 uses the learning data to learn an estimation model that estimates the emotion of a person wearing the terminal device 10.

学習部132は、モデル(ネットワーク)のパラメータを学習する。学習部132は、接続されたノード間の接続係数(重み)等のパラメータを学習する。学習部132は、種々の機械学習に関する技術を用いて、モデルを学習する。学習部132は、モデルに入力するデータと、そのデータが入力された場合の出力を示す分類ラベル(正解ラベル)を用いて行う学習処理、すなわち教師有り学習の手法によりモデルのパラメータを学習する。なお、上記は一例であり、学習部132は、モデルのパラメータを学習可能であれば、どのような学習処理により、モデルのパラメータを学習してもよい。 The learning unit 132 learns the parameters of the model (network). The learning unit 132 learns parameters such as the connection coefficients (weights) between connected nodes. The learning unit 132 learns the model using various machine learning techniques. The learning unit 132 learns the model parameters by a learning process that uses data to be input to the model and classification labels (correct answer labels) that indicate the output when that data is input, that is, a supervised learning method. Note that the above is just one example, and the learning unit 132 may learn the model parameters by any learning process as long as it is capable of learning the model parameters.

なお、情報処理装置100が外部装置から外部装置が学習した推定モデルを取得し、取得した推定モデルを用いて人の感情を推定する場合、情報処理装置100は、学習部132を有しなくてもよい。 Note that when the information processing device 100 acquires an estimation model learned by an external device from an external device and estimates human emotions using the acquired estimation model, the information processing device 100 does not need to include the learning unit 132.

(推定部133)
推定部133は、人の感情を推定する推定処理を実行する。推定部133は、学習部132により学習された推定モデルを用いて、人の感情を推定する。推定部133は、推定モデルに対象生体信号を入力することにより、対象ユーザの感情を推定する。
(Estimation unit 133)
The estimation unit 133 executes an estimation process to estimate the emotion of a person. The estimation unit 133 estimates the emotion of a person by using the estimation model learned by the learning unit 132. The estimation unit 133 estimates the emotion of a target user by inputting a target biological signal to the estimation model.

推定部133は、推定したユーザの感情を用いた各種処理を行う。推定部133は、推定したユーザの感情を基に決定処理を行う。推定部133は、推定したユーザの感情に基づいて、ユーザに提供するコンテンツを決定する。推定部133は、推定したユーザの感情に対応するコンテンツをそのユーザに提供すると決定する。推定部133は、推定したユーザの感情とは逆の感情を引き起こすコンテンツをそのユーザに提供すると決定する。推定部133は、推定したユーザの感情が悲しみである場合、喜びの感情が対応付けられたすコンテンツをそのユーザに提供すると決定する。 The estimation unit 133 performs various processes using the estimated user emotion. The estimation unit 133 performs a decision process based on the estimated user emotion. The estimation unit 133 decides on content to be provided to the user based on the estimated user emotion. The estimation unit 133 decides to provide the user with content that corresponds to the estimated user emotion. The estimation unit 133 decides to provide the user with content that evokes an emotion opposite to the estimated user emotion. If the estimated user emotion is sadness, the estimation unit 133 decides to provide the user with content associated with the emotion of joy.

(提供部134)
提供部134は、ユーザへ情報を提供する。提供部134は、通信部110を介して、端末装置10へ情報を送信する。提供部134は、コンテンツ情報記憶部123に記憶されたコンテンツをユーザに提供する。提供部134は、コンテンツがユーザに与える心理的な作用を示すラベルが対応付けられたコンテンツをユーザの端末装置10へ送信する。
(Providing Unit 134)
The providing unit 134 provides information to the user. The providing unit 134 transmits information to the terminal device 10 via the communication unit 110. The providing unit 134 provides the user with content stored in the content information storage unit 123. The providing unit 134 transmits content associated with a label indicating the psychological effect that the content has on the user to the terminal device 10 of the user.

提供部134は、推定部133による推定結果に応じて情報を提供する。例えば、提供部134は、推定部133による決定に応じたコンテンツを提供する。提供部134は、推定部133による推定されたユーザの感情に対応するコンテンツをそのユーザに提供する。提供部134は、推定部133による推定されたユーザの感情とは逆の感情を引き起こすコンテンツをそのユーザの端末装置10に送信する。提供部134は、推定部133による推定されたユーザの感情が悲しみである場合、喜びの感情が対応付けられたすコンテンツをそのユーザの端末装置10に送信する。 The providing unit 134 provides information according to the estimation result by the estimation unit 133. For example, the providing unit 134 provides content according to the decision by the estimation unit 133. The providing unit 134 provides the user with content corresponding to the user's emotion estimated by the estimation unit 133. The providing unit 134 transmits content that evokes an emotion opposite to the user's emotion estimated by the estimation unit 133 to the user's terminal device 10. When the user's emotion estimated by the estimation unit 133 is sadness, the providing unit 134 transmits content associated with the emotion of joy to the user's terminal device 10.

〔3.端末装置の構成〕
次に、図6を用いて、実施形態に係る端末装置10の構成について説明する。図6は、実施形態に係る端末装置10の構成例を示す図である。図6に示すように、端末装置10は、通信部11と、音声出力部12と、表示部13と、記憶部14と、制御部15と、センサ部16とを有する。なお、図示を省略するが端末装置10は、ユーザの各種操作が入力される入力部を有してもよい。例えば、入力部は、音声によるユーザに有力を受け付けるマイク(音声入力部)を有する。入力部は、ユーザの発話による各種操作を受け付ける。また、例えば、入力部は、ユーザのジェスチャ等を検知するモーションセンサ等により、ユーザのジェスチャによる操作を受け付けてもよい。この場合、センサ部16は、モーションセンサを有する。
3. Configuration of terminal device
Next, the configuration of the terminal device 10 according to the embodiment will be described with reference to FIG. 6. FIG. 6 is a diagram showing an example of the configuration of the terminal device 10 according to the embodiment. As shown in FIG. 6, the terminal device 10 has a communication unit 11, a voice output unit 12, a display unit 13, a storage unit 14, a control unit 15, and a sensor unit 16. Although not shown, the terminal device 10 may have an input unit to which various operations of the user are input. For example, the input unit has a microphone (voice input unit) that receives input from the user by voice. The input unit receives various operations by the user's speech. Also, for example, the input unit may receive operations by the user's gestures by a motion sensor that detects the user's gestures, etc. In this case, the sensor unit 16 has a motion sensor.

(通信部11)
通信部11は、例えば、NICや通信回路等によって実現される。そして、通信部11は、所定の通信網(ネットワーク)と有線または無線で接続され、外部の情報処理装置との間で情報の送受信を行う。例えば、通信部11は、所定の通信網と有線または無線で接続され、情報処理装置100との間で情報の送受信を行う。
(Communication unit 11)
The communication unit 11 is realized by, for example, a NIC or a communication circuit. The communication unit 11 is connected to a predetermined communication network by wire or wirelessly, and transmits and receives information to and from an external information processing device. For example, the communication unit 11 is connected to a predetermined communication network by wire or wirelessly, and transmits and receives information to and from the information processing device 100.

(音声出力部12)
音声出力部12は、音声を出力するスピーカによって実現され、各種情報を音声として出力するための出力装置である。音声出力部12は、情報処理装置100から提供されるコンテンツを音声出力する。例えば、音声出力部12は、表示部13に表示される情報に対応する音声を出力する。
(Audio output unit 12)
The audio output unit 12 is realized by a speaker that outputs audio, and is an output device for outputting various information as audio. The audio output unit 12 outputs content provided from the information processing device 100 as audio. For example, the audio output unit 12 outputs audio corresponding to information displayed on the display unit 13.

(表示部13)
表示部13は、例えば液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイ等によって実現されるタブレット端末等の表示画面であり、各種情報を表示するための表示装置である。例えば、端末装置10がヘッドマウントディスプレイである場合、ユーザが端末装置10を装着時において、表示部13はユーザの眼前に配置される。なお、端末装置10が例えばオーバーイヤーヘッドホン等、情報の表示を行わない場合、端末装置10は、表示部13を有しなくてもよい。
(Display unit 13)
The display unit 13 is a display screen of a tablet terminal or the like realized by, for example, a liquid crystal display or an organic EL (Electro-Luminescence) display, and is a display device for displaying various information. For example, if the terminal device 10 is a head-mounted display, the display unit 13 is disposed in front of the user's eyes when the user wears the terminal device 10. Note that, if the terminal device 10 does not display information, such as over-ear headphones, the terminal device 10 does not need to have the display unit 13.

(記憶部14)
記憶部14は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部14は、例えば、情報処理装置100から受信した各種情報を記憶する。記憶部14は、例えば、端末装置10にインストールされているアプリケーション(例えば情報出力アプリ等)に関する情報、例えばプログラム等を記憶する。
(Memory unit 14)
The storage unit 14 is realized by, for example, a semiconductor memory element such as a random access memory (RAM) or a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 14 stores, for example, various information received from the information processing device 100. The storage unit 14 stores, for example, information related to an application (for example, an information output application) installed in the terminal device 10, such as a program.

(制御部15)
制御部15は、コントローラ(controller)であり、例えば、CPUやMPU等によって、端末装置10内部の記憶部14などの記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。例えば、この各種プログラムは、情報処理を行うアプリケーション(例えば情報出力アプリ)のプログラムが含まれる。また、制御部15は、コントローラ(controller)であり、例えば、ASICやFPGA等の集積回路により実現される。
(Control unit 15)
The control unit 15 is a controller, and is realized, for example, by a CPU, an MPU, or the like, executing various programs stored in a storage device such as the storage unit 14 inside the terminal device 10 using the RAM as a working area. For example, the various programs include a program for an application that performs information processing (for example, an information output application). The control unit 15 is also a controller, and is realized, for example, by an integrated circuit such as an ASIC or an FPGA.

図6に示すように、制御部15は、収集部151と、送信部152と、受信部153と、処理部154とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部15の内部構成は、図6に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部15が有する各処理部の接続関係は、図6に示した接続関係に限られず、他の接続関係であってもよい。 As shown in FIG. 6, the control unit 15 has a collection unit 151, a transmission unit 152, a reception unit 153, and a processing unit 154, and realizes or executes the functions and actions of the information processing described below. Note that the internal configuration of the control unit 15 is not limited to the configuration shown in FIG. 6, and may be other configurations as long as they perform the information processing described below. Also, the connection relationship between each processing unit of the control unit 15 is not limited to the connection relationship shown in FIG. 6, and may be other connection relationships.

(収集部151)
収集部151は、各種情報を収集する。例えば、収集部151は、外部の情報処理装置から各種情報を収集する。例えば、収集部151は、収集した各種情報を記憶部14に格納する。収集部151は、センサ部16により検知されたセンサ情報を収集する。
(Collection Unit 151)
The collection unit 151 collects various types of information. For example, the collection unit 151 collects various types of information from an external information processing device. For example, the collection unit 151 stores the collected various types of information in the storage unit 14. The collection unit 151 collects sensor information detected by the sensor unit 16.

収集部151は、端末装置10によるコンテンツの出力時にセンサ部16により検知されるユーザの生体信号を収集する。収集部151は、センサ部16により検知されたユーザの生体電位を収集する。収集部151は、センサ部16により検知されたユーザの頭部の筋電位を収集する。収集部151は、センサ部16により検知されたユーザの顔の筋電位を収集する。 The collection unit 151 collects the biosignals of the user detected by the sensor unit 16 when content is output by the terminal device 10. The collection unit 151 collects the bioelectric potential of the user detected by the sensor unit 16. The collection unit 151 collects the myoelectric potential of the user's head detected by the sensor unit 16. The collection unit 151 collects the myoelectric potential of the user's face detected by the sensor unit 16.

(送信部152)
送信部152は、通信部11を介して、外部の情報処理装置へ種々の情報を送信する。送信部152は、情報処理装置100へ各種情報を送信する。送信部152は、記憶部14に記憶された各種情報を外部の情報処理装置へ送信する。送信部152は、収集部151により収集された各種情報を情報処理装置100へ送信する。送信部152は、収集部151により収集されたセンサ情報を情報処理装置100へ送信する。送信部152は、センサ部16により検知されたセンサ情報を情報処理装置100へ送信する。送信部152は、ユーザの各種生体信号を情報処理装置100へ送信する。
(Transmitting unit 152)
The transmitting unit 152 transmits various information to an external information processing device via the communication unit 11. The transmitting unit 152 transmits various information to the information processing device 100. The transmitting unit 152 transmits various information stored in the memory unit 14 to an external information processing device. The transmitting unit 152 transmits various information collected by the collecting unit 151 to the information processing device 100. The transmitting unit 152 transmits sensor information collected by the collecting unit 151 to the information processing device 100. The transmitting unit 152 transmits sensor information detected by the sensor unit 16 to the information processing device 100. The transmitting unit 152 transmits various biological signals of the user to the information processing device 100.

(受信部153)
受信部153は、通信部11を介して、情報処理装置100から情報を受信する。受信部153は、情報処理装置100が提供する情報を受信する。受信部153は、情報処理装置100からコンテンツを受信する。受信部153は、情報処理装置100から通知情報として広告を受信する。受信部153は、そのコンテンツの出力時にユーザに与える心理的な作用を示すラベル情報が付されたコンテンツを受信する。
(Receiving unit 153)
The receiving unit 153 receives information from the information processing device 100 via the communication unit 11. The receiving unit 153 receives information provided by the information processing device 100. The receiving unit 153 receives content from the information processing device 100. The receiving unit 153 receives advertisements as notification information from the information processing device 100. The receiving unit 153 receives content to which label information indicating the psychological effect to be given to the user when the content is output is attached.

(処理部154)
処理部154は、各種の処理を実行する。処理部154は、表示部13を介して各種情報を表示する。例えば、処理部154は、表示部13の表示を制御する。処理部154は、音声出力部12を介して各種情報を音声出力する。例えば、処理部154は、音声出力部12の音声出力を制御する。
(Processing Unit 154)
The processing unit 154 executes various processes. The processing unit 154 displays various information via the display unit 13. For example, the processing unit 154 controls the display of the display unit 13. The processing unit 154 outputs various information as audio via the audio output unit 12. For example, the processing unit 154 controls the audio output of the audio output unit 12.

処理部154は、受信部153が受信した情報を出力する。処理部154は、情報処理装置100から提供されたコンテンツを出力する。処理部154は、受信部153が受信したコンテンツを、音声出力部12または表示部13を介して出力する。処理部154は、表示部13を介してコンテンツを表示する。処理部154は、音声出力部12を介してコンテンツを音声出力する。 The processing unit 154 outputs information received by the receiving unit 153. The processing unit 154 outputs content provided by the information processing device 100. The processing unit 154 outputs the content received by the receiving unit 153 via the audio output unit 12 or the display unit 13. The processing unit 154 displays the content via the display unit 13. The processing unit 154 outputs the content as audio via the audio output unit 12.

なお、上述した制御部15による各処理は、例えば、JavaScript(登録商標)などにより実現されてもよい。また、上述した制御部15による情報処理等の処理は、所定のアプリケーションにより行われる場合、制御部15の各部は、例えば、所定のアプリケーションにより実現されてもよい。例えば、制御部15による情報処理等の処理は、外部の情報処理装置から受信した制御情報により実現されてもよい。例えば、上述した表示処理が所定のアプリケーション(例えば情報出力アプリ等)により行われる場合、制御部15は、例えば、所定のアプリや専用アプリを制御するアプリ制御部を有してもよい。 Note that each of the processes by the control unit 15 described above may be realized by, for example, JavaScript (registered trademark). Furthermore, when the information processing and other processes by the control unit 15 described above are performed by a specified application, each unit of the control unit 15 may be realized by, for example, the specified application. For example, the information processing and other processes by the control unit 15 may be realized by control information received from an external information processing device. For example, when the display process described above is performed by a specified application (for example, an information output application), the control unit 15 may have, for example, an application control unit that controls the specified application or a dedicated application.

(センサ部16)
センサ部16は、所定の情報を検知する。センサ部16は、ユーザの生体信号を検知するためのセンサ(生体信号センサ)を有する。センサ部16は、ユーザの顔の筋電位を検知するための筋電センサを有する。筋電センサは、ユーザの耳から頬付近に配置され、ユーザの顔の筋電位を検知する。また、端末装置10は、筋電センサに限らず、様々なユーザの生体信号を検知するセンサを有してもよい。また、端末装置10は、ユーザの眼電位を検知する眼電位センサを有してもよい。例えば、端末装置10は、ユーザの心拍を検知する心拍センサ、ユーザの脳波を検知する脳波センサ、ユーザの脈拍を検知する脈拍センサ(脈波センサ)、ユーザの呼吸を検知する呼吸センサ(呼気センサ)、ユーザの発汗を検知する発汗センサ等の種々の生体信号を検知するセンサを有してもよい。なお、端末装置10は、ユーザが装着時において、各センサが対応する生体信号を検知可能な位置に配置されるように構成される。
(Sensor unit 16)
The sensor unit 16 detects predetermined information. The sensor unit 16 has a sensor (biological signal sensor) for detecting a biosignal of the user. The sensor unit 16 has an electromyogram sensor for detecting the myoelectric potential of the user's face. The electromyogram sensor is disposed from the ear to the cheek of the user and detects the myoelectric potential of the user's face. The terminal device 10 may have a sensor that detects various biosignals of the user, not limited to the electromyogram sensor. The terminal device 10 may have an electrooculography sensor that detects the electrooculography of the user. For example, the terminal device 10 may have sensors that detect various biosignals, such as a heartbeat sensor that detects the user's heartbeat, an electroencephalogram sensor that detects the user's electroencephalogram, a pulse sensor (pulse wave sensor) that detects the user's pulse, a respiration sensor (breath sensor) that detects the user's respiration, and a sweat sensor that detects the user's sweat. The terminal device 10 is configured to be disposed at a position where each sensor can detect a corresponding biosignal when worn by the user.

なお、センサ部16は、上述したユーザの生体信号を検知するためのセンサに限らず、情報処理に用いる情報を検知するための様々なセンサを有してもよい。例えば、センサ部16は、ユーザの健康に関する処理に用いる情報を検知するセンサを有する。例えば、センサ部16は、ユーザによる端末装置10の使用態様を示す使用態様情報として用いる各種のセンサ情報を検知するためのセンサを有する。 The sensor unit 16 is not limited to the above-mentioned sensor for detecting the user's biosignal, and may have various sensors for detecting information used in information processing. For example, the sensor unit 16 has a sensor for detecting information used in processing related to the user's health. For example, the sensor unit 16 has a sensor for detecting various types of sensor information used as usage mode information indicating the usage mode of the terminal device 10 by the user.

例えば、センサ部16は、モーションセンサを有する。例えば、センサ部16は、画像を検知するカメラ(画像センサ)を有してもよい。例えば、センサ部16は、ユーザを撮像するために画像センサを有する。 For example, the sensor unit 16 has a motion sensor. For example, the sensor unit 16 may have a camera (image sensor) that detects an image. For example, the sensor unit 16 has an image sensor for capturing an image of the user.

例えば、センサ部16は、加速度センサを有する。例えば、センサ部16は、ユーザによる所定の操作の際の端末装置10の加速度情報を検知するセンサを有する。センサ部16は、端末装置10の位置を検知するセンサ(位置センサ)を有する。例えば、センサ部16は、GPS(Global Positioning System)センサを有してもよい。また、端末装置10の位置情報をセンサ情報として取得する場合、センサ部16は、通信を行っている基地局の位置情報や、WiFi(登録商標)(Wireless Fidelity)の電波を用いて推定された端末装置10の位置情報を取得してもよい。 For example, the sensor unit 16 has an acceleration sensor. For example, the sensor unit 16 has a sensor that detects acceleration information of the terminal device 10 when a user performs a predetermined operation. The sensor unit 16 has a sensor (position sensor) that detects the position of the terminal device 10. For example, the sensor unit 16 may have a GPS (Global Positioning System) sensor. Furthermore, when acquiring the position information of the terminal device 10 as sensor information, the sensor unit 16 may acquire the position information of a base station with which the terminal device 10 is communicating, or the position information of the terminal device 10 estimated using Wi-Fi (registered trademark) (Wireless Fidelity) radio waves.

また、センサ部16には、上記に限らず、種々のセンサが含まれてもよい。例えば、センサ部16は、端末装置10外の情報を検知するセンサを含んでもよい。 The sensor unit 16 may include various sensors, not limited to those described above. For example, the sensor unit 16 may include a sensor that detects information outside the terminal device 10.

なお、センサ部16における上記の各種情報を検知するセンサは共通のセンサであってもよいし、各々異なるセンサにより実現されてもよい。 The sensors that detect the various types of information in the sensor unit 16 may be a common sensor, or each may be a different sensor.

〔4.処理フロー〕
次に、図7を用いて、実施形態に係る情報処理システム1による情報処理の手順について説明する。図7は、実施形態に係る情報処理装置による処理の一例を示すフローチャートである。
4. Processing Flow
Next, a procedure of information processing by the information processing system 1 according to the embodiment will be described with reference to Fig. 7. Fig. 7 is a flowchart showing an example of processing by the information processing device according to the embodiment.

図7に示すように、情報処理装置100は、ユーザが頭部に装着した端末装置10が出力するコンテンツがユーザに与える心理的な作用を示すラベル情報と、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの生体信号である入力用データとを含む学習用データを取得する(ステップS101)。 As shown in FIG. 7, the information processing device 100 acquires learning data including label information indicating the psychological effect on the user of the content output by the terminal device 10 worn on the user's head, and input data which is the user's biosignal detected by the terminal device 10 when the content is output by the terminal device 10 (step S101).

情報処理装置100は、学習用データを用いて、入力用データの入力に応じて当該入力用データに対応する人の感情を推定する情報を出力する推定モデルを学習する(ステップS102)。情報処理装置100は、推定モデルを用いて人の感情を推定する(ステップS103)。例えば、情報処理装置100は、端末装置10を装着した対象ユーザの生体信号である対象生体信号を取得し、推定モデルに対象生体信号を入力することにより、対象ユーザの感情を推定する。 The information processing device 100 uses the learning data to learn an estimation model that outputs information that estimates the emotion of a person corresponding to input data in response to the input of the input data (step S102). The information processing device 100 estimates the emotion of the person using the estimation model (step S103). For example, the information processing device 100 acquires a target biosignal that is a biosignal of a target user wearing the terminal device 10, and inputs the target biosignal into the estimation model to estimate the emotion of the target user.

〔5.効果〕
上述してきたように、実施形態に係る情報処理装置100は、取得部131と、学習部132とを有する。取得部131は、ユーザが頭部に装着した端末装置10が出力するコンテンツがユーザに与える心理的な作用を示すラベル情報と、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの生体信号である入力用データとを含む学習用データを取得する。学習部132は、学習用データを用いて、入力用データの入力に応じて当該入力用データに対応する人の感情を推定する情報を出力する推定モデルを学習する。
5. Effects
As described above, the information processing device 100 according to the embodiment includes the acquisition unit 131 and the learning unit 132. The acquisition unit 131 acquires learning data including label information indicating a psychological effect on the user of content output by the terminal device 10 worn on the user's head, and input data which is a biosignal of the user detected by the terminal device 10 when the terminal device 10 outputs the content. The learning unit 132 uses the learning data to learn an estimation model that outputs information for estimating the emotion of a person corresponding to the input data in response to the input of the input data.

これにより、実施形態に係る情報処理装置100は、コンテンツがユーザに与える心理的な作用を示すラベルと、そのコンテンツが出力時のユーザの生体信号とを用いて、人の感情を推定する推定モデルを学習することにより、ユーザの感情と生体信号との対応関係を適切に学習したモデルを生成することができる。したがって、情報処理装置100は、適切なユーザの感情推定を可能にすることができる。 As a result, the information processing device 100 according to the embodiment can generate a model that appropriately learns the correspondence between the user's emotions and bio-signals by learning an estimation model that estimates a person's emotions using a label indicating the psychological effect that the content has on the user and the user's bio-signals at the time the content is output. Therefore, the information processing device 100 can appropriately estimate the user's emotions.

また、実施形態に係る情報処理装置100において、取得部131は、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの生体電位である入力用データを含む学習用データを取得する。学習部132は、学習用データを用いて、生体電位に対応する人の感情を推定する情報を出力する推定モデルを学習する。 In addition, in the information processing device 100 according to the embodiment, the acquisition unit 131 acquires learning data including input data that is the bioelectric potential of the user detected by the terminal device 10 when the terminal device 10 outputs content. The learning unit 132 uses the learning data to learn an estimation model that outputs information that estimates the emotion of a person corresponding to the bioelectric potential.

これにより、実施形態に係る情報処理装置100は、ユーザの生体電位を入力とする人の感情の推定モデルを学習することにより、ユーザの感情と生体電位との対応関係を適切に学習したモデルを生成することができる。したがって、情報処理装置100は、適切なユーザの感情推定を可能にすることができる。 As a result, the information processing device 100 according to the embodiment can generate a model that appropriately learns the correspondence between the user's emotions and bioelectric potentials by learning an estimation model of human emotions using the user's bioelectric potentials as input. Therefore, the information processing device 100 can make it possible to appropriately estimate the user's emotions.

また、実施形態に係る情報処理装置100において、取得部131は、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの頭部の筋電位を含む入力用データを含む学習用データを取得する。学習部132は、学習用データを用いて、頭部の筋電位に対応する人の感情を推定する情報を出力する推定モデルを学習する。 In addition, in the information processing device 100 according to the embodiment, the acquisition unit 131 acquires learning data including input data including the myoelectric potential of the user's head detected by the terminal device 10 when the terminal device 10 outputs content. The learning unit 132 uses the learning data to learn an estimation model that outputs information that estimates a person's emotion corresponding to the myoelectric potential of the head.

これにより、実施形態に係る情報処理装置100は、ユーザの頭部の筋電位を入力とする人の感情の推定モデルを学習することにより、ユーザの感情と頭部の筋電位との対応関係を適切に学習したモデルを生成することができる。したがって、情報処理装置100は、適切なユーザの感情推定を可能にすることができる。 As a result, the information processing device 100 according to the embodiment can generate a model that appropriately learns the correspondence between the user's emotions and the head's myoelectric potential by learning an estimation model of human emotions using the user's head's myoelectric potential as input. Therefore, the information processing device 100 can make it possible to appropriately estimate the user's emotions.

また、実施形態に係る情報処理装置100において、取得部131は、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの顔の筋電位を含む入力用データを含む学習用データを取得する。学習部132は、学習用データを用いて、顔の筋電位に対応する人の感情を推定する情報を出力する推定モデルを学習する。 In addition, in the information processing device 100 according to the embodiment, the acquisition unit 131 acquires learning data including input data including the myoelectric potential of the user's face detected by the terminal device 10 when the terminal device 10 outputs content. The learning unit 132 uses the learning data to learn an estimation model that outputs information that estimates a person's emotion corresponding to the myoelectric potential of the face.

これにより、実施形態に係る情報処理装置100は、ユーザの顔の筋電位を入力とする人の感情の推定モデルを学習することにより、ユーザの感情と顔の筋電位との対応関係を適切に学習したモデルを生成することができる。したがって、情報処理装置100は、適切なユーザの感情推定を可能にすることができる。 As a result, the information processing device 100 according to the embodiment can generate a model that appropriately learns the correspondence between the user's emotions and the facial myoelectric potential by learning an estimation model of human emotions using the user's facial myoelectric potential as input. Therefore, the information processing device 100 can make it possible to appropriately estimate the user's emotions.

また、実施形態に係る情報処理装置100において、取得部131は、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの眼電位を含む入力用データを含む学習用データを取得する。学習部132は、学習用データを用いて、眼電位に対応する人の感情を推定する情報を出力する推定モデルを学習する。 In addition, in the information processing device 100 according to the embodiment, the acquisition unit 131 acquires learning data including input data including the user's electrooculography detected by the terminal device 10 when the terminal device 10 outputs content. The learning unit 132 uses the learning data to learn an estimation model that outputs information that estimates a person's emotion corresponding to the electrooculography.

これにより、実施形態に係る情報処理装置100は、ユーザの眼電位を入力とする人の感情の推定モデルを学習することにより、ユーザの感情と眼電位との対応関係を適切に学習したモデルを生成することができる。したがって、情報処理装置100は、適切なユーザの感情推定を可能にすることができる。 As a result, the information processing device 100 according to the embodiment can generate a model that appropriately learns the correspondence between the user's emotion and the electrooculography by learning an estimation model of human emotion using the user's electrooculography as input. Therefore, the information processing device 100 can make it possible to appropriately estimate the user's emotion.

また、実施形態に係る情報処理装置100において、取得部131は、コンテンツによりユーザに引き起こされる感情を示すラベル情報を含む学習用データを取得する。学習部132は、学習用データを用いて、推定モデルを学習する。 In addition, in the information processing device 100 according to the embodiment, the acquisition unit 131 acquires learning data including label information indicating the emotion evoked in the user by the content. The learning unit 132 uses the learning data to learn the estimation model.

これにより、実施形態に係る情報処理装置100は、コンテンツによりユーザに引き起こされる感情を示すラベルと、そのコンテンツが出力時のユーザの生体信号とを用いて、人の感情を推定する推定モデルを学習することにより、ユーザの感情と生体信号との対応関係を適切に学習したモデルを生成することができる。したがって、情報処理装置100は、適切なユーザの感情推定を可能にすることができる。 As a result, the information processing device 100 according to the embodiment can generate a model that appropriately learns the correspondence between the user's emotions and bio-signals by learning an estimation model that estimates human emotions using labels indicating the emotions evoked in the user by the content and the user's bio-signals at the time the content is output. Therefore, the information processing device 100 can make it possible to appropriately estimate the user's emotions.

また、実施形態に係る情報処理装置100において、取得部131は、ユーザが頭部に装着したヘッドマウントディスプレイである端末装置10が出力するコンテンツのラベル情報を含む学習用データを取得する。学習部132は、学習用データを用いて、端末装置10を装着した人の感情を推定する推定モデルを学習する。 In the information processing device 100 according to the embodiment, the acquisition unit 131 acquires learning data including label information of content output by the terminal device 10, which is a head-mounted display worn by a user on the head. The learning unit 132 uses the learning data to learn an estimation model that estimates the emotions of a person wearing the terminal device 10.

これにより、実施形態に係る情報処理装置100は、ヘッドマウントディスプレイによりユーザに対して出力されたコンテンツのラベルと、ヘッドマウントディスプレイを装着したユーザのコンテンツ出力時の生体信号とを用いて、人の感情を推定する推定モデルを学習することにより、ユーザの感情と生体信号との対応関係を適切に学習したモデルを生成することができる。したがって、情報処理装置100は、適切なユーザの感情推定を可能にすることができる。 As a result, the information processing device 100 according to the embodiment can generate a model that appropriately learns the correspondence between the user's emotions and bio-signals by learning an estimation model that estimates human emotions using the labels of content output to the user by the head-mounted display and the bio-signals of the user wearing the head-mounted display when the content is output. Therefore, the information processing device 100 can appropriately estimate the user's emotions.

また、実施形態に係る情報処理装置100において、取得部131は、映像を含むコンテンツがユーザに与える心理的な作用を示すラベル情報を含む学習用データを取得する。 In addition, in the information processing device 100 according to the embodiment, the acquisition unit 131 acquires learning data including label information indicating the psychological effect that content including video has on the user.

これにより、実施形態に係る情報処理装置100は、コンテンツのラベルと、ユーザの映像出力時の生体信号とを用いて、人の感情を推定する推定モデルを学習することにより、ユーザの感情と生体信号との対応関係を適切に学習したモデルを生成することができる。したがって、情報処理装置100は、適切なユーザの感情推定を可能にすることができる。 As a result, the information processing device 100 according to the embodiment can generate a model that appropriately learns the correspondence between the user's emotions and biosignals by learning an estimation model that estimates a person's emotions using the content label and the user's biosignals at the time of video output. Therefore, the information processing device 100 can make it possible to appropriately estimate the user's emotions.

また、実施形態に係る情報処理装置100において、取得部131は、ユーザが頭部に装着したオーバーイヤーヘッドホンである端末装置10が出力するコンテンツのラベル情報を含む学習用データを取得する。学習部132は、学習用データを用いて、端末装置10を装着した人の感情を推定する推定モデルを学習する。 In addition, in the information processing device 100 according to the embodiment, the acquisition unit 131 acquires learning data including label information of content output by the terminal device 10, which is an over-ear headphone worn by a user on the head. The learning unit 132 uses the learning data to learn an estimation model that estimates the emotions of a person wearing the terminal device 10.

これにより、実施形態に係る情報処理装置100は、オーバーイヤーヘッドホンによりユーザに対して出力されたコンテンツのラベルと、オーバーイヤーヘッドホンを装着したユーザのコンテンツ出力時の生体信号とを用いて、人の感情を推定する推定モデルを学習することにより、ユーザの感情と生体信号との対応関係を適切に学習したモデルを生成することができる。したがって、情報処理装置100は、適切なユーザの感情推定を可能にすることができる。 As a result, the information processing device 100 according to the embodiment can generate a model that appropriately learns the correspondence between the user's emotions and biosignals by learning an estimation model that estimates human emotions using the labels of content output to the user through the over-ear headphones and the biosignals of the user wearing the over-ear headphones when the content is output. Therefore, the information processing device 100 can appropriately estimate the user's emotions.

また、実施形態に係る情報処理装置100において、取得部131は、音声を含むコンテンツがユーザに与える心理的な作用を示すラベル情報を含む学習用データを取得する。 In addition, in the information processing device 100 according to the embodiment, the acquisition unit 131 acquires learning data including label information indicating the psychological effect that content including audio has on the user.

これにより、実施形態に係る情報処理装置100は、コンテンツのラベルと、ユーザの音声出力時の生体信号とを用いて、人の感情を推定する推定モデルを学習することにより、ユーザの感情と生体信号との対応関係を適切に学習したモデルを生成することができる。したがって、情報処理装置100は、適切なユーザの感情推定を可能にすることができる。 As a result, the information processing device 100 according to the embodiment can generate a model that appropriately learns the correspondence between the user's emotions and the biosignals by learning an estimation model that estimates a person's emotions using the content labels and the biosignals when the user outputs voice. Therefore, the information processing device 100 can make it possible to appropriately estimate the user's emotions.

また、実施形態に係る情報処理装置100は、推定部133を有する。推定部133は、学習部132により学習された推定モデルを用いて、人の感情を推定する。 The information processing device 100 according to the embodiment also includes an estimation unit 133. The estimation unit 133 estimates human emotions using the estimation model learned by the learning unit 132.

これにより、実施形態に係る情報処理装置100は、適切にユーザの感情を推定することができる。 This allows the information processing device 100 according to the embodiment to appropriately estimate the user's emotions.

また、実施形態に係る情報処理装置100において、取得部131は、ユーザが頭部に装着した端末装置10が出力するコンテンツがユーザに与える心理的な作用を示すラベル情報と、端末装置10によるコンテンツの出力時に端末装置10により検知されるユーザの生体信号である入力用データとを含む学習用データを用いて生成された推定モデルであって、入力用データの入力に応じて当該入力用データに対応する人の感情を推定する情報を出力する推定モデルを取得する。推定部133は、推定モデルを用いて、人の感情を推定する。 In addition, in the information processing device 100 according to the embodiment, the acquisition unit 131 acquires an estimation model that is generated using learning data including label information indicating the psychological effect that content output by the terminal device 10 worn by the user on the head has on the user, and input data that is the user's biosignal detected by the terminal device 10 when the terminal device 10 outputs the content, and that outputs information that estimates the emotion of a person corresponding to the input data in response to the input of the input data. The estimation unit 133 estimates the emotion of the person using the estimation model.

これにより、実施形態に係る情報処理装置100は、適切にユーザの感情を推定することができる。 This allows the information processing device 100 according to the embodiment to appropriately estimate the user's emotions.

また、実施形態に係る情報処理装置100において、取得部131は、端末装置10を装着した対象ユーザの生体信号である対象生体信号を取得する。推定部133は、推定モデルに対象生体信号を入力することにより、対象ユーザの感情を推定する。 In addition, in the information processing device 100 according to the embodiment, the acquisition unit 131 acquires a target biosignal, which is a biosignal of a target user wearing the terminal device 10. The estimation unit 133 estimates the emotion of the target user by inputting the target biosignal to an estimation model.

これにより、実施形態に係る情報処理装置100は、端末装置10を装着した対象ユーザを対象として、適切にユーザの感情を推定することができる。 As a result, the information processing device 100 according to the embodiment can appropriately estimate the user's emotions for a target user wearing the terminal device 10.

〔6.ハードウェア構成〕
また、上述した実施形態に係る端末装置10や情報処理装置100は、例えば図8に示すような構成のコンピュータ1000によって実現される。以下、情報処理装置100を例に挙げて説明する。図8は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力I/F(Interface)1060、入力I/F1070、ネットワークI/F1080がバス1090により接続された形態を有する。
6. Hardware Configuration
Moreover, the terminal device 10 and the information processing device 100 according to the above-described embodiment are realized by a computer 1000 having a configuration as shown in Fig. 8, for example. The information processing device 100 will be described below as an example. Fig. 8 is a diagram showing an example of a hardware configuration. The computer 1000 is connected to an output device 1010 and an input device 1020, and has a configuration in which a calculation device 1030, a primary storage device 1040, a secondary storage device 1050, an output I/F (Interface) 1060, an input I/F 1070, and a network I/F 1080 are connected by a bus 1090.

演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。演算装置1030は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等により実現される。 The arithmetic device 1030 operates based on programs stored in the primary storage device 1040 and the secondary storage device 1050, programs read from the input device 1020, and the like, and executes various processes. The arithmetic device 1030 is realized, for example, by a CPU (Central Processing Unit), an MPU (Micro Processing Unit), an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or the like.

一次記憶装置1040は、RAM(Random Access Memory)等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等により実現される。二次記憶装置1050は、内蔵ストレージであってもよいし、外付けストレージであってもよい。また、二次記憶装置1050は、USBメモリやSD(Secure Digital)メモリカード等の取り外し可能な記憶媒体であってもよい。また、二次記憶装置1050は、クラウドストレージ(オンラインストレージ)やNAS(Network Attached Storage)、ファイルサーバ等であってもよい。 The primary storage device 1040 is a memory device such as a RAM (Random Access Memory) that primarily stores data used by the arithmetic device 1030 for various calculations. The secondary storage device 1050 is a storage device in which data used by the arithmetic device 1030 for various calculations and various databases are registered, and is realized by a ROM (Read Only Memory), a HDD (Hard Disk Drive), a SSD (Solid State Drive), a flash memory, or the like. The secondary storage device 1050 may be an internal storage device or an external storage device. The secondary storage device 1050 may be a removable storage medium such as a USB memory or a Secure Digital (SD) memory card. The secondary storage device 1050 may be a cloud storage device (online storage device), a NAS (Network Attached Storage), a file server, or the like.

出力I/F1060は、ディスプレイ、プロジェクタ、及びプリンタ等といった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインターフェイスであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力I/F1070は、マウス、キーボード、キーパッド、ボタン、及びスキャナ等といった各種の入力装置1020から情報を受信するためのインターフェイスであり、例えば、USB等により実現される。 The output I/F 1060 is an interface for transmitting information to be output to an output device 1010 that outputs various types of information, such as a display, projector, printer, etc., and is realized by a connector conforming to a standard such as USB (Universal Serial Bus), DVI (Digital Visual Interface), or HDMI (registered trademark) (High Definition Multimedia Interface). The input I/F 1070 is an interface for receiving information from various input devices 1020, such as a mouse, keyboard, keypad, button, scanner, etc., and is realized by a USB, etc.

また、出力I/F1060及び入力I/F1070はそれぞれ出力装置1010及び入力装置1020と無線で接続してもよい。すなわち、出力装置1010及び入力装置1020は、ワイヤレス機器であってもよい。 In addition, the output I/F 1060 and the input I/F 1070 may be wirelessly connected to the output device 1010 and the input device 1020, respectively. That is, the output device 1010 and the input device 1020 may be wireless devices.

また、出力装置1010及び入力装置1020は、タッチパネルのように一体化していてもよい。この場合、出力I/F1060及び入力I/F1070も、入出力I/Fとして一体化していてもよい。 The output device 1010 and the input device 1020 may be integrated together, such as a touch panel. In this case, the output I/F 1060 and the input I/F 1070 may also be integrated together as an input/output I/F.

なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、又は半導体メモリ等から情報を読み出す装置であってもよい。 The input device 1020 may be a device that reads information from, for example, an optical recording medium such as a CD (Compact Disc), a DVD (Digital Versatile Disc), or a PD (Phase change rewritable Disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory.

ネットワークI/F1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。 The network I/F 1080 receives data from other devices via the network N and sends it to the computing device 1030, and also transmits data generated by the computing device 1030 to other devices via the network N.

演算装置1030は、出力I/F1060や入力I/F1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。 The arithmetic unit 1030 controls the output device 1010 and the input device 1020 via the output I/F 1060 and the input I/F 1070. For example, the arithmetic unit 1030 loads a program from the input device 1020 or the secondary storage device 1050 onto the primary storage device 1040 and executes the loaded program.

例えば、コンピュータ1000が情報処理装置100として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器から取得したプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行してもよい。また、コンピュータ1000の演算装置1030は、ネットワークI/F1080を介して他の機器と連携し、プログラムの機能やデータ等を他の機器の他のプログラムから呼び出して利用してもよい。 For example, when the computer 1000 functions as the information processing device 100, the arithmetic unit 1030 of the computer 1000 executes a program loaded onto the primary storage device 1040 to realize the functions of the control unit 130. The arithmetic unit 1030 of the computer 1000 may also load a program acquired from another device via the network I/F 1080 onto the primary storage device 1040 and execute the loaded program. The arithmetic unit 1030 of the computer 1000 may also cooperate with other devices via the network I/F 1080 and use the functions and data of a program by calling them from other programs of the other devices.

〔7.その他〕
以上、本願の実施形態を説明したが、これら実施形態の内容により本発明が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。
[7. Other]
Although the embodiments of the present application have been described above, the present invention is not limited to the contents of these embodiments. The above-described components include those that a person skilled in the art can easily imagine, those that are substantially the same, and those that are within the so-called equivalent range. Furthermore, the above-described components can be appropriately combined. Furthermore, various omissions, substitutions, or modifications of the components can be made without departing from the spirit of the above-described embodiments.

また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。 Furthermore, among the processes described in the above embodiments, all or part of the processes described as being performed automatically can be performed manually, or all or part of the processes described as being performed manually can be performed automatically using known methods. In addition, the information including the processing procedures, specific names, various data, and parameters shown in the above documents and drawings can be changed as desired unless otherwise specified. For example, the various information shown in each drawing is not limited to the information shown in the drawings.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。 In addition, each component of each device shown in the figure is a functional concept, and does not necessarily have to be physically configured as shown in the figure. In other words, the specific form of distribution and integration of each device is not limited to that shown in the figure, and all or part of them can be functionally or physically distributed and integrated in any unit depending on various loads, usage conditions, etc.

例えば、上述した情報処理装置100は、複数のサーバコンピュータで実現してもよく、また、機能によっては外部のプラットホーム等をAPI(Application Programming Interface)やネットワークコンピューティング等で呼び出して実現するなど、構成は柔軟に変更できる。また、情報処理装置100と端末装置10とは一体であってもよい。この場合、例えばユーザが利用する端末装置10が情報処理装置100としての機能を有してもよい。 For example, the information processing device 100 described above may be realized by multiple server computers, and depending on the function, the configuration can be flexibly changed, such as by calling an external platform using an API (Application Programming Interface) or network computing. Also, the information processing device 100 and the terminal device 10 may be integrated. In this case, for example, the terminal device 10 used by a user may have the function of the information processing device 100.

また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 The above-described embodiments and variations can be combined as appropriate to the extent that they do not cause inconsistencies in the processing content.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 In addition, the above-mentioned "section, module, unit" can be read as "means" or "circuit." For example, an acquisition unit can be read as an acquisition means or an acquisition circuit.

1 情報処理システム
100 情報処理装置
120 記憶部
121 学習用データ記憶部
122 モデル情報記憶部
123 コンテンツ情報記憶部
130 制御部
131 取得部
132 学習部
133 推定部
134 提供部
10 端末装置
11 通信部
12 音声出力部
13 表示部
14 記憶部
15 制御部
151 収集部
152 送信部
153 受信部
154 処理部
16 センサ部
REFERENCE SIGNS LIST 1 Information processing system 100 Information processing device 120 Storage unit 121 Learning data storage unit 122 Model information storage unit 123 Content information storage unit 130 Control unit 131 Acquisition unit 132 Learning unit 133 Estimation unit 134 Provision unit 10 Terminal device 11 Communication unit 12 Audio output unit 13 Display unit 14 Storage unit 15 Control unit 151 Collection unit 152 Transmission unit 153 Reception unit 154 Processing unit 16 Sensor unit

Claims (13)

情報処理装置であって、
ユーザが頭部に装着した端末装置が出力するコンテンツであって、前記端末装置が再生可能な種別及び前記ユーザのユーザ属性に応じて前記ユーザに提供すると前記情報処理装置が決定たコンテンツが前記ユーザに与える心理的な作用を示すラベル情報であって、前記コンテンツに予め対応付けられた正解情報であるラベル情報と、前記端末装置による前記コンテンツの出力時に前記端末装置が有するセンサ部により検知される前記ユーザの発汗を示す情報を含む前記ユーザの生体信号と、前記コンテンツとが対応付けられた学習用データを記憶部から取得する取得部と、
前記学習用データを用いて、複数の心理的な作用の各々に対応する複数のスコアを出力する推定モデルであって、前記ユーザの生体信号を入力とした場合、当該生体信号に対応付けられたラベル情報が示す心理的な作用に対応するスコアが最大となるように学習する学習処理により、入力として用いられた生体信号に対応する前記複数のスコアであって、入力として用いられた生体信号の検知対象となった人の感情を推定するために必要な情報である前記複数のスコアの生成に用いられる推定モデルを学習する学習部と、
を備えたことを特徴とする情報処理装置。
An information processing device,
an acquisition unit that acquires from a storage unit learning data associated with a content, the learning data including label information that indicates a psychological effect of a content output by a terminal device worn on the head of a user, the label information being correct answer information that is associated in advance with the content, the label information being correct answer information that is associated with the content, the label information being correct answer information that is associated in advance with the content, the label information being correct answer information that is associated with the content , and a biological signal of the user including information indicating sweating of the user detected by a sensor unit of the terminal device when the content is output by the terminal device, the biological signal being associated with the content, the biological signal being correct answer information that is associated with the content, and the biological signal being associated with the content, the biological signal being correct answer information that is ... correct answer information that is associated with the content, the biological signal being correct answer information that is correct answer information that is associated with the content, the biological signal being correct answer information that is correct answer information that is correct answer information
a learning unit that uses the learning data to learn an estimation model that outputs a plurality of scores corresponding to each of a plurality of psychological effects, and that learns, by a learning process in which, when a biosignal of the user is input, a score corresponding to a psychological effect indicated by label information associated with the biosignal is maximized, to generate the plurality of scores corresponding to the biosignal used as an input, the plurality of scores being information necessary for estimating the emotion of a person who is the detection target of the biosignal used as an input;
An information processing device comprising:
前記ユーザの生体信号は、
前記端末装置による前記コンテンツの出力時に前記端末装置により検知される前記ユーザの生体電位である
ことを特徴とする請求項1に記載の情報処理装置。
The biosignal of the user is
a bioelectric potential of the user detected by the terminal device when the terminal device outputs the content;
2. The information processing apparatus according to claim 1,
前記ユーザの生体信号は、
前記端末装置による前記コンテンツの出力時に前記端末装置により検知される前記ユーザの頭部の筋電位であ
ことを特徴とする請求項2に記載の情報処理装置。
The biosignal of the user is
The information processing apparatus according to claim 2 , wherein the input is a myoelectric potential of the head of the user detected by the terminal device when the content is output by the terminal device.
前記ユーザの生体信号は、
前記端末装置による前記コンテンツの出力時に前記端末装置により検知される前記ユーザの顔の筋電位であ
ことを特徴とする請求項3に記載の情報処理装置。
The biosignal of the user is
The information processing apparatus according to claim 3 , wherein the input is a myoelectric potential of the face of the user detected by the terminal device when the content is output by the terminal device.
前記ユーザの生体信号は、
前記端末装置による前記コンテンツの出力時に前記端末装置により検知される前記ユーザの眼電位であ
ことを特徴とする請求項2~4のいずれか1項に記載の情報処理装置。
The biosignal of the user is
5. The information processing device according to claim 2, wherein the electrooculography of the user is detected by the terminal device when the content is output by the terminal device.
前記取得部は、
前記コンテンツにより前記ユーザに引き起こされる感情を示す前記ラベル情報を含む前記学習用データを取得し、
前記学習部は、
前記学習用データを用いて、前記推定モデルを学習する
ことを特徴とする請求項1~5のいずれか1項に記載の情報処理装置。
The acquisition unit is
acquiring the learning data including the label information indicating an emotion evoked in the user by the content;
The learning unit is
The information processing apparatus according to any one of claims 1 to 5, characterized in that the estimation model is trained using the learning data.
前記取得部は、
前記ユーザが頭部に装着したヘッドマウントディスプレイである前記端末装置が出力する前記コンテンツの前記ラベル情報を含む前記学習用データを取得す
ことを特徴とする請求項1~6のいずれか1項に記載の情報処理装置。
The acquisition unit is
The information processing device according to any one of claims 1 to 6, characterized in that the learning data is acquired including the label information of the content output by the terminal device, which is a head-mounted display worn on the user's head.
前記取得部は、
映像を含む前記コンテンツが前記ユーザに与える心理的な作用を示す前記ラベル情報を含む前記学習用データを取得する
ことを特徴とする請求項7に記載の情報処理装置。
The acquisition unit is
The information processing apparatus according to claim 7 , further comprising: acquiring the learning data including the label information indicating a psychological effect that the content including a video has on the user.
前記取得部は、
前記ユーザが頭部に装着したオーバーイヤーヘッドホンである前記端末装置が出力する前記コンテンツの前記ラベル情報を含む前記学習用データを取得す
ことを特徴とする請求項1~6のいずれか1項に記載の情報処理装置。
The acquisition unit is
The information processing device according to any one of claims 1 to 6, characterized in that the learning data is acquired including the label information of the content output by the terminal device, which is an over-ear headphone worn on the user's head.
前記取得部は、
音声を含む前記コンテンツが前記ユーザに与える心理的な作用を示す前記ラベル情報を含む前記学習用データを取得する
ことを特徴とする請求項7~9のいずれか1項に記載の情報処理装置。
The acquisition unit is
10. The information processing apparatus according to claim 7, further comprising: acquiring the learning data including the label information indicating a psychological effect that the content including audio has on the user.
前記学習部により学習された前記推定モデルを用いて、人の感情を推定する推定部、
をさらに備えることを特徴とする請求項1~10のいずれか1項に記載の情報処理装置。
an estimation unit that estimates human emotions using the estimation model trained by the learning unit;
11. The information processing apparatus according to claim 1, further comprising:
コンピュータが実行する情報処理方法であって、
ユーザが頭部に装着した端末装置が出力するコンテンツであって、前記端末装置が再生可能な種別及び前記ユーザのユーザ属性に応じて前記ユーザに提供すると前記コンピュータが決定たコンテンツが前記ユーザに与える心理的な作用を示すラベル情報であって、前記コンテンツに予め対応付けられた正解情報であるラベル情報と、前記端末装置による前記コンテンツの出力時に前記端末装置が有するセンサ部により検知される前記ユーザの発汗を示す情報を含む前記ユーザの生体信号と、前記コンテンツとが対応付けられた学習用データを記憶部から取得する取得工程と、
前記学習用データを用いて、複数の心理的な作用の各々に対応する複数のスコアを出力する推定モデルであって、前記ユーザの生体信号を入力とした場合、当該生体信号に対応付けられたラベル情報が示す心理的な作用に対応するスコアが最大となるように学習する学習処理により、入力として用いられた生体信号に対応する前記複数のスコアであって、入力として用いられた生体信号の検知対象となった人の感情を推定するために必要な情報である前記複数のスコアの生成に用いられる推定モデルを学習する学習工程と、
を含むことを特徴とする情報処理方法。
1. A computer-implemented information processing method, comprising:
an acquisition process for acquiring, from a storage unit, learning data in which label information indicating a psychological effect exerted on the user by content output by a terminal device worn on the user's head and determined by the computer to be provided to the user in accordance with the type of content that can be played back by the terminal device and the user attributes of the user, the label information being correct answer information previously associated with the content , a biological signal of the user including information indicating sweating of the user detected by a sensor unit of the terminal device when the content is output by the terminal device , and the content are associated with the label information;
a learning process for learning an estimation model that uses the learning data to output a plurality of scores corresponding to each of a plurality of psychological effects, the estimation model being used to generate the plurality of scores corresponding to the biosignal used as an input , the plurality of scores being information necessary for estimating the emotions of a person who is the detection target of the biosignal used as an input, by a learning process that learns so as to maximize a score corresponding to a psychological effect indicated by label information associated with the biosignal when the biosignal of the user is input;
13. An information processing method comprising:
コンピュータが実行する情報処理プログラムであって、
ユーザが頭部に装着した端末装置が出力するコンテンツであって、前記端末装置が再生可能な種別及び前記ユーザのユーザ属性に応じて前記ユーザに提供すると前記コンピュータが決定たコンテンツが前記ユーザに与える心理的な作用を示すラベル情報であって、前記コンテンツに予め対応付けられた正解情報であるラベル情報と、前記端末装置による前記コンテンツの出力時に前記端末装置が有するセンサ部により検知される前記ユーザの発汗を示す情報を含む前記ユーザの生体信号と、前記コンテンツとが対応付けられた学習用データを記憶部から取得する取得手順と、
前記学習用データを用いて、複数の心理的な作用の各々に対応する複数のスコアを出力する推定モデルであって、前記ユーザの生体信号を入力とした場合、当該生体信号に対応付けられたラベル情報が示す心理的な作用に対応するスコアが最大となるように学習する学習処理により、入力として用いられた生体信号に対応する前記複数のスコアであって、入力として用いられた生体信号の検知対象となった人の感情を推定するために必要な情報である前記複数のスコアの生成に用いられる推定モデルを学習する学習手順と、
をコンピュータに実行させることを特徴とする情報処理プログラム。
An information processing program executed by a computer,
an acquisition step of acquiring, from a storage unit, label information indicating a psychological effect exerted on the user by content output by a terminal device worn on the user's head, the content being determined by the computer to be provided to the user according to a type of content that can be played back by the terminal device and a user attribute of the user, the label information being correct answer information previously associated with the content , learning data associated with the content, and a biosignal of the user including information indicating sweating of the user detected by a sensor unit of the terminal device when the content is output by the terminal device ;
a learning procedure for learning an estimation model that uses the learning data to output a plurality of scores corresponding to each of a plurality of psychological effects, the estimation model being used to generate the plurality of scores corresponding to the biosignal used as an input , the plurality of scores being information necessary for estimating the emotions of a person who is the detection target of the biosignal used as an input, by a learning process that learns so as to maximize a score corresponding to a psychological effect indicated by label information associated with the biosignal when the biosignal of the user is input;
An information processing program characterized by causing a computer to execute the above.
JP2020210798A 2020-12-18 2020-12-18 Information processing device, information processing method, and information processing program Active JP7476091B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020210798A JP7476091B2 (en) 2020-12-18 2020-12-18 Information processing device, information processing method, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020210798A JP7476091B2 (en) 2020-12-18 2020-12-18 Information processing device, information processing method, and information processing program

Publications (2)

Publication Number Publication Date
JP2022097293A JP2022097293A (en) 2022-06-30
JP7476091B2 true JP7476091B2 (en) 2024-04-30

Family

ID=82165327

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020210798A Active JP7476091B2 (en) 2020-12-18 2020-12-18 Information processing device, information processing method, and information processing program

Country Status (1)

Country Link
JP (1) JP7476091B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008269065A (en) 2007-04-17 2008-11-06 Nippon Telegr & Teleph Corp <Ntt> User support method, device, and program
JP2018504719A (en) 2014-11-02 2018-02-15 エヌゴーグル インコーポレイテッド Smart audio headphone system
WO2018135057A1 (en) 2017-01-20 2018-07-26 ソニー株式会社 Information processing device, information processing method, and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010220151A (en) * 2009-03-19 2010-09-30 Nomura Research Institute Ltd Content distribution system, content distribution method, and computer program
JP6338456B2 (en) * 2014-05-31 2018-06-06 Kddi株式会社 Apparatus, program, and method for recommending content based on user's emotion
JP6521778B2 (en) * 2015-07-15 2019-05-29 Kddi株式会社 Program, terminal and system for giving emotional identifier to application using myoelectric signal
WO2018088187A1 (en) * 2016-11-08 2018-05-17 ソニー株式会社 Information processing device, information processing method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008269065A (en) 2007-04-17 2008-11-06 Nippon Telegr & Teleph Corp <Ntt> User support method, device, and program
JP2018504719A (en) 2014-11-02 2018-02-15 エヌゴーグル インコーポレイテッド Smart audio headphone system
WO2018135057A1 (en) 2017-01-20 2018-07-26 ソニー株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP2022097293A (en) 2022-06-30

Similar Documents

Publication Publication Date Title
Lim et al. Emotion recognition using eye-tracking: taxonomy, review and current challenges
Stopczynski et al. The smartphone brain scanner: a portable real-time neuroimaging system
Saini et al. Kinect sensor-based interaction monitoring system using the BLSTM neural network in healthcare
JP7427611B2 (en) Computer-implemented system and method for determining user attention
Min et al. Exploring audio and kinetic sensing on earable devices
JP2019522300A (en) Mobile and wearable video capture and feedback platform for the treatment of mental disorders
US11301775B2 (en) Data annotation method and apparatus for enhanced machine learning
US20130245396A1 (en) Mental state analysis using wearable-camera devices
US10638938B1 (en) Eyeglasses to detect abnormal medical events including stroke and migraine
Booth et al. Multimodal human and environmental sensing for longitudinal behavioral studies in naturalistic settings: Framework for sensor selection, deployment, and management
US20140278455A1 (en) Providing Feedback Pertaining to Communication Style
US10299716B2 (en) Side face image-based mental state determination
KR20120092846A (en) System and method for multi-modality emotion recognition and recording medium thereof
US20200375544A1 (en) System, method and computer program product for detecting a mobile phone user&#39;s risky medical condition
JP5718493B1 (en) Sound saliency estimating apparatus, method and program thereof
US11775068B2 (en) Apparatus, methods, and systems for using imagined direction to define actions, functions, or execution
WO2019071166A1 (en) Multi-disciplinary clinical evaluation in virtual or augmented reality
JP2016177483A (en) Communication support device, communication support method, and program
Roy et al. CovidAlert-a wristwatch-based system to alert users from face touching
Al-Azani et al. A comprehensive literature review on children’s databases for machine learning applications
Landowska Emotion monitor-concept, construction and lessons learned
JP7476091B2 (en) Information processing device, information processing method, and information processing program
US20220142535A1 (en) System and method for screening conditions of developmental impairments
JP7172705B2 (en) Emotion estimation device, emotion estimation method, program, and emotion estimation system
WO2023102125A1 (en) Management of psychiatric or mental conditions using digital or augmented reality with personalized exposure progression

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230105

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230704

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230712

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20230922

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20231026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240417

R150 Certificate of patent or registration of utility model

Ref document number: 7476091

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150