JP2023065808A - Information provision device, information provision method, and computer program - Google Patents

Information provision device, information provision method, and computer program Download PDF

Info

Publication number
JP2023065808A
JP2023065808A JP2021176155A JP2021176155A JP2023065808A JP 2023065808 A JP2023065808 A JP 2023065808A JP 2021176155 A JP2021176155 A JP 2021176155A JP 2021176155 A JP2021176155 A JP 2021176155A JP 2023065808 A JP2023065808 A JP 2023065808A
Authority
JP
Japan
Prior art keywords
information
subject
emotion
user
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021176155A
Other languages
Japanese (ja)
Inventor
圭子 小島
Keiko Kojima
小春 佐野
Koharu Sano
崇文 中西
Takafumi Nakanishi
龍太郎 岡田
Ryutaro Okada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Musashino Univ
NTT Communications Corp
Original Assignee
Musashino Univ
NTT Communications Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Musashino Univ, NTT Communications Corp filed Critical Musashino Univ
Priority to JP2021176155A priority Critical patent/JP2023065808A/en
Publication of JP2023065808A publication Critical patent/JP2023065808A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide information for promoting mental support of an object person using biological data on a body of the object person.SOLUTION: An information provision device includes a provision part for generating display information including information for visualizing at least a degree of stress of an object person on the basis of a heartbeat variable parameter, which is an index indicating an activity of an autonomic nervous system acquired from biological data on a body of the object person obtained with a biological sensor worn by the object person, and providing the generated display information to a user device operated by the object person or a user device operated by a user related to the object person.SELECTED DRAWING: Figure 3

Description

本発明は、情報提供装置、情報提供方法及びコンピュータプログラムに関する。 The present invention relates to an information providing device, an information providing method, and a computer program.

従来、人の感情を推定する技術が提案されている(例えば、特許文献1参照)。特許文献1に記載の技術では、Webページから算出される特徴量と、Webページの閲覧期間中に取得されたユーザの生体信号の特徴量とに基づいて、ユーザが持った感情の種類を表す情報を推定結果として出力する。 Conventionally, techniques for estimating human emotions have been proposed (see Patent Literature 1, for example). In the technology described in Patent Document 1, the type of emotion that the user has is expressed based on the feature amount calculated from the web page and the feature amount of the user's biosignal acquired during the browsing period of the web page. Output information as estimation results.

特開2014-222397号公報JP 2014-222397 A

上記のように推定されたユーザの感情は、ユーザの生体信号に基づく感情であるからユーザ自身の身体の状態を表しているものといえる。近年では、ストレス社会と呼ばれるように日常生活においても多くのストレスが発生する。そのため、人によっては、知らず知らずのうちにストレスを抱え込んでしまい、気持ちが落ち込んでしまうことも考えられる。そこで、ユーザから得られる生体信号を用いて、対象者の精神面のサポートを促すことができる技術が望まれている。 Since the user's emotion estimated as described above is based on the user's biological signals, it can be said that the user's own physical state is expressed. In recent years, a lot of stress occurs even in daily life so as to be called a stress society. Therefore, it is conceivable that some people unwittingly carry stress and become depressed. Therefore, there is a demand for a technique that can encourage the subject to receive mental support using biomedical signals obtained from the user.

上記事情に鑑み、本発明は、対象者の生体に関する生体データを用いて、対象者の精神面のサポートを促すための情報を提供することができる技術の提供を目的としている。 In view of the above circumstances, an object of the present invention is to provide a technology capable of providing information for encouraging mental support of a subject using biometric data relating to the subject's body.

本発明の一態様は、対象者に身に付けられた生体センサで取得された前記対象者の生体に関する生体データにより得られる自律神経系の活動を表す指標である心拍変動パラメータに基づいて、少なくとも前記対象者のストレス度合いを可視化するための情報を含む表示情報を生成し、生成した前記表示情報を、前記対象者が操作するユーザ装置、又は、前記対象者に関連するユーザが操作するユーザ装置に提供する提供部、を備える情報提供装置である。 In one aspect of the present invention, based on a heart rate variability parameter, which is an index representing the activity of the autonomic nervous system obtained from biometric data related to the subject's body acquired by a biosensor worn by the subject, at least generating display information including information for visualizing the degree of stress of the subject, and displaying the generated display information to a user device operated by the subject or a user device operated by a user related to the subject; An information providing device comprising a providing unit for providing to.

本発明の一態様は、上記の情報提供装置であって、前記提供部は、前記対象者のストレス度合いを表す画像情報と、前記対象者のストレス度合いに応じたアドバイスとを含む前記表示情報を、前記対象者が操作するユーザ装置に提供する。 One aspect of the present invention is the above information providing apparatus, wherein the providing unit provides the display information including image information representing the degree of stress of the subject and advice according to the degree of stress of the subject. , to a user device operated by said subject.

本発明の一態様は、上記の情報提供装置であって、前記対象者に関連するユーザは、コミュニティサービスにおいて互いの状況を閲覧可能となっているユーザであり、前記提供部は、前記対象者のストレス度合いを表す画像情報を含む前記表示情報を、前記対象者に関連するユーザが操作するユーザ装置に提供する。 One aspect of the present invention is the information providing apparatus described above, wherein the users related to the target person are users who can view each other's situations in a community service, and the providing unit includes: The display information including image information representing the degree of stress of the subject is provided to a user device operated by a user associated with the subject.

本発明の一態様は、上記の情報提供装置であって、前記心拍変動パラメータを用いて、前記対象者のストレス度合いを表す感情を推定する感情推定部をさらに備え、前記感情推定部は、前記心拍変動パラメータの値と、感情に対応付けられた心拍変動パラメータの値とを比較して前記対象者の感情を推定する。 One aspect of the present invention is the information providing apparatus described above, further comprising an emotion estimation unit that estimates an emotion representing the degree of stress of the subject using the heart rate variability parameter, wherein the emotion estimation unit includes: The emotion of the subject is estimated by comparing the value of the heart rate variability parameter and the value of the heart rate variability parameter associated with the emotion.

本発明の一態様は、上記の情報提供装置であって、前記心拍変動パラメータには、少なくともSDNN(Standard Deviation of the Normal to Normal Interval)、RMSSD(Root Mean Square of the Successive Differences)又はCVSD(Coefficient of variation of successive differences equal to the rmssd divided by mean_nni)のいずれかが含まれ、前記感情推定部は、前記SDNN、前記RMSSD又は前記CVSDのいずれかの値と、感情に対応付けられたSDNN、RMSSD又はCVSDのいずれかの値とを比較して、類似する値に対応付けられた感情を、前記対象者の感情として推定する。 An aspect of the present invention is the above information providing apparatus, wherein the heart rate variability parameter includes at least SDNN (Standard Deviation of the Normal to Normal Interval), RMSSD (Root Mean Square of the Successive Differences) or CVSD (Coefficient of variation of successive differences equal to the rmssd divided by mean_nni), and the emotion estimator includes any value of the SDNN, the RMSSD, or the CVSD, and the SDNN, RMSSD associated with the emotion Or by comparing with any value of CVSD, the emotion associated with a similar value is estimated as the subject's emotion.

本発明の一態様は、上記の情報提供装置であって、前記心拍変動パラメータを用いて、前記対象者のストレス度合いを表す感情を推定する感情推定部をさらに備え、前記感情推定部は、前記心拍変動パラメータを入力して、感情の情報を出力するように構成された学習済みモデルを用いて前記対象者の感情を推定する。 One aspect of the present invention is the information providing apparatus described above, further comprising an emotion estimation unit that estimates an emotion representing the degree of stress of the subject using the heart rate variability parameter, wherein the emotion estimation unit includes: Estimate the subject's emotion using a trained model configured to input heart rate variability parameters and output information about the subject's emotion.

本発明の一態様は、対象者に身に付けられた生体センサで取得された前記対象者の生体に関する生体データにより得られる自律神経系の活動を表す指標である心拍変動パラメータに基づいて、少なくとも前記対象者のストレス度合いを可視化するための情報を含む表示情報を生成し、生成した前記表示情報を、前記対象者が操作するユーザ装置、又は、前記対象者に関連するユーザが操作するユーザ装置に提供する情報提供方法である。 In one aspect of the present invention, based on a heart rate variability parameter, which is an index representing the activity of the autonomic nervous system obtained from biometric data related to the subject's body acquired by a biosensor worn by the subject, at least generating display information including information for visualizing the degree of stress of the subject, and displaying the generated display information to a user device operated by the subject or a user device operated by a user related to the subject; It is a method of providing information to

本発明の一態様は、対象者に身に付けられた生体センサで取得された前記対象者の生体に関する生体データにより得られる自律神経系の活動を表す指標である心拍変動パラメータに基づいて、少なくとも前記対象者のストレス度合いを可視化するための情報を含む表示情報を生成し、生成した前記表示情報を、前記対象者が操作するユーザ装置、又は、前記対象者に関連するユーザが操作するユーザ装置に提供する提供ステップ、をコンピュータに実行させるためのコンピュータプログラムである。 In one aspect of the present invention, based on a heart rate variability parameter, which is an index representing the activity of the autonomic nervous system obtained from biometric data related to the subject's body acquired by a biosensor worn by the subject, at least generating display information including information for visualizing the degree of stress of the subject, and displaying the generated display information to a user device operated by the subject or a user device operated by a user related to the subject; A computer program for causing a computer to execute a providing step of providing to.

本発明により、対象者の生体に関する生体データを用いて、対象者の精神面のサポートを促すための情報を提供することが可能となる。 INDUSTRIAL APPLICABILITY According to the present invention, it is possible to provide information for encouraging mental support of a subject using biometric data relating to the subject's body.

第1の実施形態における情報提供システムのシステム構成を表す構成図である。It is a lineblock diagram showing the system configuration of the information service system in a 1st embodiment. 第1の実施形態におけるユーザ装置の具体的な構成を示す図である。FIG. 3 is a diagram showing a specific configuration of a user device according to the first embodiment; FIG. 第1の実施形態における情報提供装置の具体的な構成を示す図である。It is a figure which shows the concrete structure of the information provision apparatus in 1st Embodiment. 第1の実施形態におけるユーザ情報テーブルの一具体例を示す図である。It is a figure which shows one specific example of the user information table in 1st Embodiment. 第1の実施形態における感情推定テーブルの一具体例を示す図である。FIG. 4 is a diagram showing one specific example of an emotion estimation table in the first embodiment; FIG. 第1の実施形態における状態定義テーブルの一具体例を示す図である。It is a figure which shows one specific example of the state definition table in 1st Embodiment. 第1の実施形態における情報提供システムの処理の流れを示すシーケンス図である。It is a sequence diagram showing the flow of processing of the information providing system in the first embodiment. ユーザ装置のユーザのフレンドであるユーザが操作するユーザ装置の表示部の画面に表示される情報の一例を示す図である。FIG. 4 is a diagram showing an example of information displayed on a screen of a display unit of a user device operated by a user who is a friend of the user of the user device; 第2の実施形態におけるユーザ装置の具体的な構成を示す図である。FIG. 10 is a diagram showing a specific configuration of a user device according to the second embodiment; FIG. 第2の実施形態における情報提供装置の具体的な構成を示す図である。It is a figure which shows the concrete structure of the information provision apparatus in 2nd Embodiment. 第2の実施形態におけるユーザ情報テーブルの一具体例を示す図である。FIG. 11 is a diagram showing a specific example of a user information table in the second embodiment; FIG. 第2の実施形態における応答情報テーブルの一具体例を示す図である。It is a figure which shows one specific example of the response information table in 2nd Embodiment. ユーザ装置の表示部の画面に表示される応答内容の一例を示す図である。It is a figure which shows an example of the content of the response displayed on the screen of the display part of a user device. 第2の実施形態における情報提供システムの処理の流れを示すシーケンス図である。FIG. 11 is a sequence diagram showing the flow of processing of the information providing system in the second embodiment;

以下、本発明の一実施形態を、図面を参照しながら説明する。
(概要)
本発明では、まず生体データの取得対象となる人物(以下「対象者」という。)の生体データを用いて、対象者の心拍変動パラメータを取得する。心拍変動パラメータは、自律神経系(例えば、交感神経及び副交感神経)の活動を表す指標である。心拍変動パラメータの値が低いほどストレス状態、心拍変動パラメータの値が高いほどリラックス状態とみなすことができる。ストレス状態とは、交感神経が緊張状態である状態を表し、リラックス状態とは、副交感神経が緊張状態である状態を表す。以下の説明では、心拍変動パラメータを表す指標として、迷走緊張強度やストレス値に影響されるSDNN(Standard Deviation of the Normal to Normal Interval)、RMSSD(Root Mean Square of the Successive Differences)、CVSD(Coefficient of variation of successive differences equal to the rmssd divided by mean_nni)を用いる。
An embodiment of the present invention will be described below with reference to the drawings.
(overview)
In the present invention, first, the heart rate variability parameter of the subject is obtained using the biometric data of a person from whom the biometric data is to be obtained (hereinafter referred to as the "subject"). A heart rate variability parameter is an index representing activity of the autonomic nervous system (eg, sympathetic and parasympathetic nerves). A lower heart rate variability parameter value can be regarded as a stress state, and a higher heart rate variability parameter value can be regarded as a relaxed state. The stress state represents a state in which the sympathetic nerves are in a tense state, and the relaxed state represents a state in which the parasympathetic nerves are in a tense state. In the following description, as indexes representing heart rate variability parameters, SDNN (Standard Deviation of the Normal to Normal Interval), RMSSD (Root Mean Square of the Successive Differences), CVSD (Coefficient of variation of successive differences equal to the rmssd divided by mean_nni).

SDNNは、交感神経及び副交感神経の両方を含む自律神経系全体の活動状態を表す指標であり、例えば心拍間隔の標準偏差を求めることにより算出される。RMSSDは、副交感神経系の活動状態を表す指標であり、例えば連続して隣接する心拍間隔の差の二乗平均平方根を求めることにより算出される。RMSSDの低下は、副交感神経活動の低下を表す。CVSDは、変動係数であり、例えばRMSSDを心拍間隔の平均値で除算することにより算出される。 SDNN is an index representing the activity state of the entire autonomic nervous system including both sympathetic nerves and parasympathetic nerves, and is calculated, for example, by obtaining the standard deviation of heartbeat intervals. RMSSD is an index representing the activity state of the parasympathetic nervous system, and is calculated, for example, by obtaining the root mean square of the difference between consecutive adjacent heartbeat intervals. A decrease in RMSSD represents a decrease in parasympathetic activity. CVSD is a coefficient of variation, and is calculated, for example, by dividing RMSSD by the mean heartbeat interval.

次に、本発明では、取得した対象者の心拍変動パラメータを用いて対象者の感情を推定する。本発明では、対象者の感情として、例えば、通常の感情、負の感情(望ましいことが起こらない)、負の感情(望ましくないことが起こる)、正の感情(望ましくないことが起こらない)、正の感情(望ましいことが起こる)の5つの感情を用いる。このように、対象者の感情は、対象者のストレス度合いを表す。通常の感情は、対象者が平常心であることを表す。すなわち、通常の状態は、正の感情でも負の感情でもないことを表す。 Next, in the present invention, the emotion of the subject is estimated using the obtained heart rate variability parameter of the subject. In the present invention, the subject's emotions include, for example, normal emotions, negative emotions (desirable things do not occur), negative emotions (undesirable things do not occur), positive emotions (undesirable things do not occur), Use the 5 emotions of positive emotions (desired things happen). Thus, the subject's emotion represents the subject's degree of stress. A normal emotion indicates that the subject is normal-minded. That is, the normal state represents neither positive emotion nor negative emotion.

正の感情とは、対象者の気分が上昇している状態を意味する。ここで、一例として正の感情(望ましくないことが起こらない)は対象者が安堵している状態であることを意味し、正の感情(望ましいことが起こる)は対象者が喜んでいる状態であることを意味する。負の感情とは、対象者の気分が下降している状態を意味する。ここで、一例として負の感情(望ましいことが起こらない)は対象者が悲しんでいる状態であることを意味し、負の感情(望ましくないことが起こる)は対象者が苦痛な状態であることを意味する。 A positive emotion means a state in which the subject's mood is elevated. Here, as an example, positive emotion (undesirable things do not happen) means that the subject is in a state of relief, and positive emotion (desirable things happen) means that the subject is happy. It means that there is Negative emotion means a state in which the subject's mood is depressed. Here, as an example, negative emotion (desired things do not happen) means that the subject is in a state of sadness, and negative emotion (undesirable things happen) means that the subject is in pain. means

次に、本発明では、推定した対象者の感情を可視化するために、例えば感情を示すアイコンを選択する。アイコンは、対象者の感情を明示的に示すために、表情付きのアイコンの画像を用いる。そして、本発明では、対象者の感情を可視化した情報を、対象者が操作するユーザ装置、又は、対象者に関連する人物が操作するユーザ装置に対して提供する。このような構成により、対象者に関連する人物は、対象者の感情をアイコンにより把握することができ、対象者の精神面のサポートが可能になる。
以下、上記処理を実現するための具体的な構成について説明する。
Next, in the present invention, for example, an icon indicating the emotion is selected in order to visualize the estimated emotion of the subject. The icon uses an icon image with a facial expression to explicitly indicate the subject's emotion. Then, in the present invention, information that visualizes the subject's emotions is provided to a user device operated by the subject or a user device operated by a person related to the subject. With such a configuration, a person related to the target person can grasp the target person's emotions from the icon, and can provide mental support to the target person.
A specific configuration for realizing the above processing will be described below.

(第1の実施形態)
図1は、第1の実施形態における情報提供システム100のシステム構成を表す構成図である。情報提供システム100は、複数の生体センサ10(例えば、図1では、生体センサ10-1及び10-2)、複数のユーザ装置20(例えば、図1では、ユーザ装置20-1及び20-2)及び情報提供装置30を備える。生体センサ10と、ユーザ装置20とは、有線又は無線により接続される。無線通信は、例えば短距離無線通信(例えばBluetooth(登録商標))であってもよい。なお、図1では、生体センサ10及びユーザ装置20の数がそれぞれ2つの場合を示しているが、情報提供システム100には、3つ以上の生体センサ10及びユーザ装置20が含まれていてもよい。
(First embodiment)
FIG. 1 is a configuration diagram showing the system configuration of an information providing system 100 according to the first embodiment. The information providing system 100 includes a plurality of biosensors 10 (for example, biosensors 10-1 and 10-2 in FIG. 1), a plurality of user devices 20 (for example, user devices 20-1 and 20-2 in FIG. ) and an information providing device 30 . The biosensor 10 and the user device 20 are connected by wire or wirelessly. The wireless communication may be, for example, short-range wireless communication (eg, Bluetooth®). Note that FIG. 1 shows a case where there are two biosensors 10 and two user devices 20, but the information providing system 100 may include three or more biosensors 10 and user devices 20. good.

生体センサ10は、対象者の生体データを取得する。生体センサ10は、取得した生体データに、生体データが取得された日時の情報を対応付けてユーザ装置20に送信する。生体データは、対象者の生体に関する情報であり、例えば対象者の心拍数、心拍の波形を示すデータ(例えば、心電図)、体温、音声の出力レベル、血圧、脈拍等である。生体センサ10は、ウェアラブルなセンサであり、例えばシャツ型のセンサであってもよいし、時計型であってもよい。 The biosensor 10 acquires biometric data of a subject. The biosensor 10 associates the acquired biometric data with information on the date and time when the biometric data was acquired, and transmits the acquired biometric data to the user device 20 . The biometric data is information about the subject's body, and includes, for example, the subject's heart rate, heartbeat waveform data (e.g., electrocardiogram), body temperature, voice output level, blood pressure, and pulse. The biosensor 10 is a wearable sensor, and may be, for example, a shirt-shaped sensor or a watch-shaped sensor.

例えば、生体センサ10-1は、ユーザ装置20-1を操作する対象者の生体データを取得する。例えば、生体センサ10-2は、ユーザ装置20-2を操作する対象者の生体データを取得する。 For example, the biosensor 10-1 acquires biometric data of a subject who operates the user device 20-1. For example, the biosensor 10-2 acquires biometric data of a subject who operates the user device 20-2.

ユーザ装置20は、生体センサ10によって取得された生体データを、所定のタイミングで情報提供装置30に送信する。所定のタイミングは、例えばユーザ装置20が生体データを取得したタイミングであってもよいし、一定期間分の生体データを取得したタイミングであってもよい。 The user device 20 transmits biometric data acquired by the biosensor 10 to the information providing device 30 at a predetermined timing. The predetermined timing may be, for example, the timing at which the user device 20 acquires the biometric data, or may be the timing at which the biometric data for a certain period of time is acquired.

ユーザ装置20は、情報提供装置30により提供されるコミュニティサービス、いわゆるSNS(Social Networking Service)(以下「提供コミュニケーションサービス」という。)を利用して、ネットワーク40を介して他のユーザ装置20との間で通信を行う。情報提供装置30により提供されるSNSは、例えば少なくともフレンドとなったユーザとの間でチャットによるコミュニケーションが可能なコミュニケーションサービスである。したがって、ユーザ装置20は、ネットワーク40を介して他のユーザ装置20との間で、文章のやり取りによりコミュニケーションを図ることができる。ここで、フレンドとは、提供コミュニケーションサービスにおいて、各ユーザ装置20のユーザ同士が互いに登録して互いの状況を閲覧可能となっているユーザを意味する。 User device 20 communicates with other user device 20 via network 40 using a community service provided by information providing device 30, a so-called SNS (Social Networking Service) (hereinafter referred to as “provided communication service”). communication between The SNS provided by the information providing device 30 is, for example, a communication service that enables communication by chat with at least users who have become friends. Therefore, the user device 20 can communicate with other user devices 20 through the network 40 by exchanging sentences. Here, a friend means a user who is registered with another user of each user device 20 in the provided communication service so that they can view each other's situation.

さらに、ユーザ装置20は、提供コミュニケーションサービスにおけるフレンド一覧表示画面において、フレンドとなったユーザの生体データに基づく情報を表示する。ユーザの生体データに基づく情報とは、例えばフレンドとなったユーザの心拍数、ユーザの感情を示すアイコン等である。ユーザ装置20は、例えばスマートフォン、携帯電話、タブレット端末、パーソナルコンピュータ、ノートパソコン等の情報処理装置を用いて構成される。ユーザ装置20は、例えば対象者が操作する装置である。 Furthermore, the user device 20 displays information based on the biometric data of users who have become friends on the friend list display screen in the provided communication service. The information based on the user's biometric data is, for example, the heart rate of the user who has become a friend, an icon indicating the user's emotion, and the like. The user device 20 is configured using an information processing device such as a smart phone, a mobile phone, a tablet terminal, a personal computer, or a notebook computer. The user device 20 is, for example, a device operated by a subject.

情報提供装置30は、各ユーザ装置20に対して提供コミュニケーションサービスを提供する。各ユーザ装置20は、情報提供装置30から提供される提供コミュニケーションサービスのアプリケーションをインストールすることにより、提供コミュニケーションサービスを利用することができる。情報提供装置30は、対象者の生体データに基づく情報を表示させるための表示情報を各ユーザ装置20に提供する。表示情報には、少なくともアイコン情報と、心拍数の情報とが含まれる。情報提供装置30は、例えばパーソナルコンピュータ等の情報処理装置を用いて構成される。 The information providing device 30 provides the provided communication service to each user device 20 . Each user device 20 can use the provided communication service by installing the provided communication service application provided from the information providing device 30 . The information providing device 30 provides each user device 20 with display information for displaying information based on the biological data of the subject. The display information includes at least icon information and heart rate information. The information providing device 30 is configured using an information processing device such as a personal computer, for example.

図2は、第1の実施形態におけるユーザ装置20の具体的な構成を示す図である。ユーザ装置20は、操作部21、表示部22、通信部23、記憶部24及び制御部25を備える。 FIG. 2 is a diagram showing a specific configuration of the user device 20 according to the first embodiment. The user device 20 includes an operation unit 21 , a display unit 22 , a communication unit 23 , a storage unit 24 and a control unit 25 .

操作部21は、キーボード、ポインティングデバイス(マウス、タブレット等)、タッチパネル、ボタン等の既存の入力装置を用いて構成される。操作部21は、ユーザの指示をユーザ装置20に入力する際にユーザによって操作される。操作部21は、入力装置をユーザ装置20に接続するためのインタフェースであってもよい。この場合、操作部21は、入力装置においてユーザの入力に応じて生成された入力信号をユーザ装置20に入力する。 The operation unit 21 is configured using existing input devices such as a keyboard, pointing device (mouse, tablet, etc.), touch panel, and buttons. The operation unit 21 is operated by the user when inputting user instructions to the user device 20 . The operation unit 21 may be an interface for connecting an input device to the user device 20 . In this case, the operation unit 21 inputs to the user device 20 an input signal generated by the input device according to the user's input.

表示部22は、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、CRT(Cathode Ray Tube)ディスプレイ等の画像表示装置である。表示部22は、例えば、提供コミュニケーションサービスに関する情報を表示する。表示部22は、画像表示装置をユーザ装置20に接続するためのインタフェースであってもよい。この場合、表示部22は、ユーザ装置20を表示するための映像信号を生成し、自身に接続されている画像表示装置に映像信号を出力する。 The display unit 22 is an image display device such as a liquid crystal display, an organic EL (Electro Luminescence) display, a CRT (Cathode Ray Tube) display, or the like. The display unit 22 displays, for example, information regarding the provided communication service. The display unit 22 may be an interface for connecting an image display device to the user device 20 . In this case, the display unit 22 generates a video signal for displaying the user device 20 and outputs the video signal to the image display device connected thereto.

通信部23は、他の装置との間で通信を行う。例えば、通信部23は、生体センサ10及び情報提供装置30との間で通信を行う。通信部23は、生体センサ10から送信された生体データを受信する。通信部23は、生体データを情報提供装置30に送信する。通信部23は、情報提供装置30から送信された表示情報を受信する。 The communication unit 23 communicates with other devices. For example, the communication unit 23 communicates with the biosensor 10 and the information providing device 30 . The communication unit 23 receives biometric data transmitted from the biosensor 10 . The communication unit 23 transmits the biometric data to the information providing device 30 . The communication unit 23 receives display information transmitted from the information providing device 30 .

記憶部24には、アプリケーションプログラム241、生体データ242及び表示データ243が記憶されている。アプリケーションプログラム241は、制御部25により実行されるプログラム(例えば、提供コミュニケーションサービスを利用するためのプログラム)である。制御部25によりアプリケーションプログラム241が実行されることにより、ユーザ装置20のユーザは、提供コミュニケーションサービスを利用することが可能になる。生体データ242は、生体センサ10から得られた対象者の生体データである。表示データ243は、提供コミュニケーションサービスの利用時に表示されるデータであり、例えば情報提供装置30から得られた表示情報を含む。記憶部24は、磁気記憶装置や半導体記憶装置などの記憶装置を用いて構成される。 The storage unit 24 stores an application program 241 , biometric data 242 and display data 243 . The application program 241 is a program (for example, a program for using the provided communication service) executed by the control unit 25 . Execution of the application program 241 by the control unit 25 enables the user of the user device 20 to use the provided communication service. The biometric data 242 is the subject's biometric data obtained from the biosensor 10 . The display data 243 is data displayed when the provided communication service is used, and includes display information obtained from the information providing device 30, for example. The storage unit 24 is configured using a storage device such as a magnetic storage device or a semiconductor storage device.

制御部25は、ユーザ装置20全体を制御する。制御部25は、CPU(Central Processing Unit)等のプロセッサやメモリを用いて構成される。制御部25は、アプリケーションプログラム241を実行することによって、取得部251、通信制御部252及び表示制御部253の機能を実現する。 The control unit 25 controls the user device 20 as a whole. The control unit 25 is configured using a processor such as a CPU (Central Processing Unit) and a memory. The control unit 25 realizes the functions of the acquisition unit 251 , the communication control unit 252 and the display control unit 253 by executing the application program 241 .

取得部251、通信制御部252及び表示制御部253のうち一部または全部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)、FPGAなどのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアとの協働によって実現されてもよい。プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置などの非一時的な記憶媒体である。プログラムは、電気通信回線を介して送信されてもよい。 Some or all of the acquisition unit 251, the communication control unit 252, and the display control unit 253 are implemented by hardware (including circuitry) such as ASIC (Application Specific Integrated Circuit), PLD (Programmable Logic Device), and FPGA. It may be realized, or may be realized by cooperation of software and hardware. The program may be recorded on a computer-readable recording medium. Computer-readable recording media are portable media such as flexible disks, magneto-optical disks, ROMs and CD-ROMs, and non-temporary storage media such as hard disks built into computer systems. The program may be transmitted over telecommunications lines.

取得部251、通信制御部252及び表示制御部253の機能の一部は、予めユーザ装置20に搭載されている必要はなく、追加のアプリケーションプログラムがユーザ装置20にインストールされることで実現されてもよい。 Some of the functions of the acquisition unit 251, the communication control unit 252, and the display control unit 253 do not need to be installed in the user device 20 in advance, and are realized by installing an additional application program on the user device 20. good too.

取得部251は、各種情報を取得する。例えば、取得部251は、通信部23によって受信された生体データ及び表示情報を取得する。 Acquisition unit 251 acquires various types of information. For example, the acquisition unit 251 acquires the biometric data and display information received by the communication unit 23 .

通信制御部252は、通信部23による通信を制御する。例えば、通信制御部252は、取得部251により得られた生体データの送信タイミングを制御する。 The communication control section 252 controls communication by the communication section 23 . For example, the communication control unit 252 controls transmission timing of biometric data obtained by the acquisition unit 251 .

表示制御部253は、表示部22の表示を制御する。例えば、表示制御部253は、取得部251により得られた表示情報を解析し、解析結果に応じた画面データを表示部22に表示させる。 The display control section 253 controls display on the display section 22 . For example, the display control unit 253 analyzes the display information obtained by the acquisition unit 251 and causes the display unit 22 to display screen data according to the analysis result.

図3は、第1の実施形態における情報提供装置30の具体的な構成を示す図である。情報提供装置30は、通信部31、記憶部32及び制御部33を備える。 FIG. 3 is a diagram showing a specific configuration of the information providing device 30 according to the first embodiment. The information providing device 30 includes a communication section 31 , a storage section 32 and a control section 33 .

通信部31は、他の装置との間で通信を行う。例えば、通信部31は、ユーザ装置20との間で通信を行う。通信部31は、各ユーザ装置20から送信された生体データを受信する。通信部31は、表示情報をユーザ装置20に送信する。 The communication unit 31 communicates with other devices. For example, the communication unit 31 communicates with the user device 20 . The communication unit 31 receives biometric data transmitted from each user device 20 . The communication unit 31 transmits display information to the user device 20 .

記憶部32には、アプリケーションプログラム321、ユーザ情報テーブル322、感情推定テーブル323及び状態定義テーブル324が記憶されている。アプリケーションプログラム321は、制御部33により実行されるプログラムである。制御部33によりアプリケーションプログラム321が実行されることにより、情報提供装置30は対象者の心拍変動パラメータを算出する機能、感情を推定する機能及び表示情報の提供機能を実現することができる。ユーザ情報テーブル322は、対象者に関する情報が登録されたテーブルである。感情推定テーブル323は、対象者の感情を推定するための情報が登録されたテーブルである。状態定義テーブル324は、対象者の感情に応じた対象者の状態が定義されたテーブルである。記憶部32は、磁気記憶装置や半導体記憶装置などの記憶装置を用いて構成される。 The storage unit 32 stores an application program 321 , a user information table 322 , an emotion estimation table 323 and a state definition table 324 . The application program 321 is a program executed by the control unit 33 . By executing the application program 321 by the control unit 33, the information providing device 30 can realize the function of calculating the heart rate variability parameter of the subject, the function of estimating the emotion of the subject, and the function of providing display information. The user information table 322 is a table in which information on subjects is registered. The emotion estimation table 323 is a table in which information for estimating the subject's emotion is registered. The state definition table 324 is a table in which states of subjects corresponding to emotions of the subjects are defined. The storage unit 32 is configured using a storage device such as a magnetic storage device or a semiconductor storage device.

制御部33は、情報提供装置30全体を制御する。制御部33は、CPU等のプロセッサやメモリを用いて構成される。制御部33は、アプリケーションプログラム321を実行することによって、取得部331、心拍変動パラメータ算出部332、感情推定部333及び情報提供部334の機能を実現する。 The control unit 33 controls the information providing device 30 as a whole. The control unit 33 is configured using a processor such as a CPU and a memory. The control unit 33 implements functions of an acquisition unit 331 , a heart rate variability parameter calculation unit 332 , an emotion estimation unit 333 and an information provision unit 334 by executing the application program 321 .

取得部331、心拍変動パラメータ算出部332、感情推定部333及び情報提供部334のうち一部または全部は、ASICやPLD、FPGAなどのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアとの協働によって実現されてもよい。プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置などの非一時的な記憶媒体である。プログラムは、電気通信回線を介して送信されてもよい。 Some or all of the acquiring unit 331, the heart rate variability parameter calculating unit 332, the emotion estimating unit 333, and the information providing unit 334 may be implemented by hardware (including circuitry) such as ASIC, PLD, and FPGA. Alternatively, it may be implemented by cooperation of software and hardware. The program may be recorded on a computer-readable recording medium. Computer-readable recording media are portable media such as flexible disks, magneto-optical disks, ROMs and CD-ROMs, and non-temporary storage media such as hard disks built into computer systems. The program may be transmitted over telecommunications lines.

取得部331、心拍変動パラメータ算出部332、感情推定部333及び情報提供部334の機能の一部は、予め情報提供装置30に搭載されている必要はなく、追加のアプリケーションプログラムが情報提供装置30にインストールされることで実現されてもよい。 Some of the functions of the acquisition unit 331, the heart rate variability parameter calculation unit 332, the emotion estimation unit 333, and the information provision unit 334 do not need to be installed in the information provision device 30 in advance, and an additional application program is installed in the information provision device 30. It may be realized by being installed in

取得部331は、各種情報を取得する。例えば、取得部331は、通信部31によって受信された生体データを取得する。 The acquisition unit 331 acquires various types of information. For example, the acquisition unit 331 acquires biometric data received by the communication unit 31 .

心拍変動パラメータ算出部332は、取得部331によって取得された生体データに基づいて心拍変動パラメータを算出する。例えば、情報提供装置30は、生体データに含まれる心電図を用いて、対象者の心拍変動パラメータを算出する。 The heart rate variability parameter calculator 332 calculates heart rate variability parameters based on the biological data acquired by the acquirer 331 . For example, the information providing device 30 calculates the heart rate variability parameter of the subject using the electrocardiogram included in the biometric data.

感情推定部333は、心拍変動パラメータ算出部332により算出された心拍変動パラメータと、記憶部32に記憶されている感情推定テーブル323とに基づいて対象者の感情を推定する。 The emotion estimation unit 333 estimates the subject's emotion based on the heart rate variability parameter calculated by the heart rate variability parameter calculation unit 332 and the emotion estimation table 323 stored in the storage unit 32 .

情報提供部334は、感情推定部333により得られた感情の推定結果と、状態定義テーブル324とに基づいて対象者の感情を示す情報であるアイコン情報を取得する。情報提供部334は、アイコン情報と、心拍数の情報とを含む表示情報を生成し、生成した表示情報をユーザ装置20に提供する。 The information providing unit 334 acquires icon information, which is information indicating the subject's emotion, based on the emotion estimation result obtained by the emotion estimation unit 333 and the state definition table 324 . The information providing unit 334 generates display information including icon information and heart rate information, and provides the user device 20 with the generated display information.

図4は、第1の実施形態におけるユーザ情報テーブル322の一具体例を示す図である。ユーザ情報テーブル322には、ユーザID(メイン)と、アドレス情報と、生体データと、アイコン情報と、フレンド情報とが対応付けて登録されている。ユーザID(メイン)は、提供コミュニケーションサービスを利用するユーザ(対象者)を識別するための識別情報を表す。アドレス情報は、ユーザID(メイン)で識別されるユーザが提供コミュニケーションサービスに登録したメールアドレスを表す。なお、アドレス情報には、ユーザ装置20のMACアドレスが含まれていてもよい。ユーザ装置20のMACアドレスが登録されることにより、特定のユーザ装置20を用いた場合のみ提供コミュニケーションサービスを利用可能とすることができる。これにより、セキュリティを向上させることができる。生体データは、ユーザID(メイン)で識別されるユーザの生体データを表す。アイコン情報は、ユーザID(メイン)で識別されるユーザの感情を示すアイコンを表す。 FIG. 4 is a diagram showing a specific example of the user information table 322 in the first embodiment. A user ID (main), address information, biometric data, icon information, and friend information are associated and registered in the user information table 322 . The user ID (main) represents identification information for identifying a user (target person) who uses the provided communication service. The address information represents the e-mail address registered with the provided communication service by the user identified by the user ID (main). Note that the address information may include the MAC address of the user device 20 . By registering the MAC address of the user device 20, the provided communication service can be made available only when a specific user device 20 is used. This can improve security. The biometric data represents the biometric data of the user identified by the user ID (main). The icon information represents an icon indicating the emotion of the user identified by the user ID (main).

フレンド情報は、ユーザID(メイン)で識別されるユーザのフレンドの情報を表す。フレンド情報には、ユーザID、生体データ、アイコン情報及びメッセージ情報が含まれる。フレンド情報におけるユーザIDは、ユーザID(メイン)で識別されるユーザのフレンドとなっているユーザを識別するための識別情報を表す。フレンド情報における生体データは、フレンドとなっているユーザの生体データを表す。フレンド情報におけるアイコン情報は、フレンドとなっているユーザの感情を示すアイコンを表す。メッセージ情報は、ユーザID(メイン)で識別されるユーザと、フレンドとなっているユーザとの間で送受信されたメッセージを表す。 The friend information represents information about friends of the user identified by the user ID (main). The friend information includes a user ID, biometric data, icon information and message information. The user ID in the friend information represents identification information for identifying users who are friends of the user identified by the user ID (main). Biometric data in the friend information represents biometric data of users who are friends. The icon information in the friend information represents an icon indicating the emotion of the friend user. The message information represents messages sent and received between the user identified by the user ID (main) and the user who is a friend.

ユーザID(メイン)のユーザの生体データ及びアイコン情報が更新された場合、他のレコードにおける同一のユーザIDの生体データ及びアイコン情報も更新される。すなわち、生体データ及びアイコン情報が更新されたユーザをフレンドとしているユーザのユーザIDに対応付けられているフレンド情報のうち、生体データ及びアイコン情報が更新されたユーザと同一のユーザIDの生体データ及びアイコン情報が更新される。例えば、ユーザID(メイン)“AA”のユーザの生体データ及びアイコン情報が更新された場合、ユーザID“AA”のユーザをフレンドとしているユーザID(メイン)“BB”のユーザのレコードのフレンド情報のうち、ユーザID“AA”のユーザの生体データ及びアイコン情報が更新されることになる。 When the biometric data and icon information of the user with the user ID (main) are updated, the biometric data and icon information with the same user ID in other records are also updated. That is, among the friend information associated with the user ID of the user whose friend is the user whose biometric data and icon information have been updated, the biometric data and the biometric data of the same user ID as the user whose biometric data and icon information have been updated Icon information is updated. For example, when the biometric data and icon information of the user with the user ID (main) “AA” are updated, the friend information of the record of the user with the user ID (main) “BB” who is friends with the user with the user ID “AA” Of these, the biometric data and icon information of the user with the user ID "AA" are updated.

図5は、第1の実施形態における感情推定テーブル323の一具体例を示す図である。感情推定テーブル323は、心拍変動パラメータと、感情の各値が対応付けられた複数のレコードで構成される。図5では、感情推定テーブル323の心拍変動パラメータの項目には、SDNN、RMSSD及びCVSDの各値が示されている。感情推定テーブル323における感情は、対象者の感情として推定される候補となる感情を表す。感情は、心拍変動パラメータの値に応じて推定される。図5では、感情として、通常の状態、負の感情(望ましいことが起こらない)、負の感情(望ましくないことが起こらない)、正の感情(望ましくないことが起こる)、正の感情(望ましいことが起こる)の5つの感情が示されている。図5に示すように、感情毎には、SDNN、RMSSD及びCVSDの各値が対応付けられている。 FIG. 5 is a diagram showing a specific example of the emotion estimation table 323 in the first embodiment. The emotion estimation table 323 includes a plurality of records in which heart rate variability parameters and emotion values are associated with each other. In FIG. 5, the values of SDNN, RMSSD and CVSD are shown in the heart rate variability parameter item of the emotion estimation table 323 . Emotions in the emotion estimation table 323 represent candidate emotions to be estimated as the emotions of the subject. Emotion is estimated according to the value of the heart rate variability parameter. In FIG. 5, as emotions, normal state, negative emotion (desirable does not occur), negative emotion (undesirable does not occur), positive emotion (undesirable occurs), positive emotion (desirable 5 emotions are shown. As shown in FIG. 5, values of SDNN, RMSSD, and CVSD are associated with each emotion.

図6は、第1の実施形態における状態定義テーブル324の一具体例を示す図である。状態定義テーブル324は、感情と、アイコン情報の各値が対応付けられた複数のレコードで構成される。状態定義テーブル324における感情は、対象者の感情として推定される候補となる感情を表す。アイコン情報は、対応付けられている感情を表す指標となるアイコンを表す。図6では、アイコン情報として、顔付きのアイコンを示しているが、アイコン情報は顔付きのアイコンの画像に限定される必要はない。例えば、アイコン情報として、記号や文字等の画像情報が用いられてもよい。 FIG. 6 is a diagram showing a specific example of the state definition table 324 in the first embodiment. The state definition table 324 is composed of a plurality of records in which each value of icon information is associated with an emotion. Emotions in the state definition table 324 represent candidate emotions that are estimated as the subject's emotions. The icon information represents an icon that is an index representing the associated emotion. In FIG. 6, an icon with a face is shown as the icon information, but the icon information need not be limited to an image of an icon with a face. For example, image information such as symbols and characters may be used as icon information.

図7は、第1の実施形態における情報提供システム100の処理の流れを示すシーケンス図である。図7では、ユーザ装置20-1のユーザの生体データに基づいてユーザ装置20-1のユーザの感情を推定し、ユーザ装置20-2のユーザに対してユーザ装置20-1のユーザの感情を示す情報を提供する構成について説明する。 FIG. 7 is a sequence diagram showing the flow of processing of the information providing system 100 according to the first embodiment. In FIG. 7, the emotion of the user of the user device 20-1 is estimated based on the biometric data of the user of the user device 20-1, and the emotion of the user of the user device 20-1 is estimated for the user of the user device 20-2. A configuration for providing the information shown will be described.

ユーザ装置20-1の取得部251は、生体センサ10-1から送信された生体データを取得する(ステップS101)。取得部251は、取得した生体データを記憶部24に保存する。通信制御部252は、通信部23を制御して、取得された生体データを情報提供装置30に送信させる。通信部23は、通信制御部252の制御に従って生体データを情報提供装置30に送信する(ステップS102)。通信部23は、生体データにユーザ装置20-1のユーザのユーザIDを付与して送信する。なお、ステップS101及びステップS102の処理は、生体データが取得される度に実行される。 The acquisition unit 251 of the user device 20-1 acquires the biometric data transmitted from the biosensor 10-1 (step S101). Acquisition unit 251 stores the acquired biometric data in storage unit 24 . The communication control unit 252 controls the communication unit 23 to transmit the acquired biometric data to the information providing device 30 . The communication unit 23 transmits the biometric data to the information providing device 30 under the control of the communication control unit 252 (step S102). The communication unit 23 attaches the user ID of the user of the user device 20-1 to the biometric data and transmits the biometric data. Note that the processing of steps S101 and S102 is executed each time biometric data is acquired.

情報提供装置30の通信部31は、ユーザ装置20-1から送信された生体データを受信する(ステップS103)。取得部331は、通信部31により受信された生体データを取得する。取得部331は、取得した生体データを記憶部32に保存する。具体的には、取得部331は、ユーザ情報テーブル322を記憶部32から読み出して、読み出したユーザ情報テーブル322のレコードのうち、生体データに付与されたユーザIDに対応するレコードを選択する。取得部331は、選択したレコードの生体データの項目に、取得した生体データを保存する。 The communication unit 31 of the information providing device 30 receives the biometric data transmitted from the user device 20-1 (step S103). Acquisition unit 331 acquires the biometric data received by communication unit 31 . Acquisition unit 331 stores the acquired biometric data in storage unit 32 . Specifically, the acquisition unit 331 reads the user information table 322 from the storage unit 32 and selects a record corresponding to the user ID given to the biometric data from among the records of the read user information table 322 . The acquisition unit 331 stores the acquired biometric data in the biometric data item of the selected record.

なお、この生体データは、ユーザID(メイン)のユーザの生体データであるため、取得部331はユーザID(メイン)のユーザに対応する項目に生体データを時系列順に追加して保存する。さらに、取得部331は、フレンド情報の項目において、生体データに付与されたユーザIDに対応するレコードの生体データの項目に生体データを時系列順に追加して保存する。 Since this biometric data is the biometric data of the user with the user ID (main), the acquisition unit 331 adds the biometric data to the item corresponding to the user with the user ID (main) in chronological order and saves it. Furthermore, the acquiring unit 331 adds the biometric data to the biometric data item of the record corresponding to the user ID assigned to the biometric data in the friend information item in chronological order and stores the biometric data.

心拍変動パラメータ算出部332は、所定期間分の生体データが記憶部32に保存されると、所定期間分の生体データに含まれる心電図を用いて心拍変動パラメータ(SDNN、RMSSD及びCVSD)を算出する(ステップS104)。通常、心電図を測定する際には、ノイズが発生することがある。そこで、心拍変動パラメータ算出部332は、取得された心電図のノイズを除去するために、心拍変動パラメータの算出前に心電図の加重平均を算出してもよい。心拍変動パラメータ算出部332は、算出した心拍変動パラメータを感情推定部333に出力する。 The heart rate variability parameter calculator 332 calculates the heart rate variability parameters (SDNN, RMSSD and CVSD) using the electrocardiogram included in the biological data for the predetermined period when the biological data for the predetermined period is stored in the storage unit 32. (Step S104). Normally, noise may occur when measuring an electrocardiogram. Therefore, the heart rate variability parameter calculator 332 may calculate a weighted average of the electrocardiograms before calculating the heart rate variability parameters in order to remove noise from the acquired electrocardiograms. The heart rate variability parameter calculator 332 outputs the calculated heart rate variability parameter to the emotion estimator 333 .

感情推定部333は、心拍変動パラメータ算出部332によって算出された心拍変動パラメータと、記憶部32に記憶されている感情推定テーブル323とに基づいて、ユーザ装置20-1のユーザの感情を推定する(ステップS105)。具体的には、感情推定部333は、算出されたSDNN、RMSSD及びCVSDの各値と、感情推定テーブル323に登録されている感情毎のSDNN、RMSSD及びCVSDの値とを比較する。 The emotion estimation unit 333 estimates the emotion of the user of the user device 20-1 based on the heart rate variability parameter calculated by the heart rate variability parameter calculation unit 332 and the emotion estimation table 323 stored in the storage unit 32. (Step S105). Specifically, the emotion estimation unit 333 compares the calculated values of SDNN, RMSSD and CVSD with values of SDNN, RMSSD and CVSD for each emotion registered in the emotion estimation table 323 .

例えば、感情推定部333は、算出されたSDNNの値と、各感情におけるSDNNの値とを比較する。例えば、感情推定部333は、算出されたRMSSDの値と、各感情におけるRMSSDの値とを比較する。例えば、感情推定部333は、算出されたCVSDの値と、各感情におけるCVSDの値とを比較する。感情推定部333は、SDNN、RMSSD及びCVSDの各値の比較結果に基づいて、類似していると判断された感情をそれぞれ取得する。ここで、類似していると判断するための基準は、予め設定されているものとする。例えば、感情推定部333は、算出された値と、感情推定テーブル323に登録されている値との差が閾値未満である場合に類似していると判断してもよい。なお、1つの指標において、類似していると判断された値が複数ある場合、感情推定部333は差が最も小さい値を選択してもよい。 For example, the emotion estimation unit 333 compares the calculated SDNN value with the SDNN value for each emotion. For example, the emotion estimation unit 333 compares the calculated RMSSD value with the RMSSD value for each emotion. For example, the emotion estimation unit 333 compares the calculated CVSD value with the CVSD value for each emotion. The emotion estimating unit 333 acquires each emotion judged to be similar based on the comparison results of the values of SDNN, RMSSD and CVSD. Here, it is assumed that the criteria for determining similarity are set in advance. For example, the emotion estimation unit 333 may determine similarity when the difference between the calculated value and the value registered in the emotion estimation table 323 is less than a threshold. Note that if there are multiple values determined to be similar in one index, the emotion estimation unit 333 may select the value with the smallest difference.

感情推定部333は、上記の処理により最少で1つの感情の情報を取得し、最大で3つの感情の情報を取得することになる。最大で3つの感情の情報を取得されるのは、SDNNで1つの感情が選択され、RMSSDで1つの感情が選択され、CVSDで1つの感情が選択されるためである。その後、感情推定部333は、取得された3つの感情の中で、最も投票数が多かった感情が、現在の対象者の感情に最も近い感情であると推定する。感情推定部333は、感情の推定結果を情報提供部334に出力する。 The emotion estimation unit 333 acquires at least one emotion information and at most three emotion information through the above process. The reason why information on three emotions at maximum is acquired is that one emotion is selected by SDNN, one emotion is selected by RMSSD, and one emotion is selected by CVSD. After that, the emotion estimation unit 333 estimates that the emotion with the largest number of votes among the acquired three emotions is the emotion closest to the current emotion of the subject. Emotion estimating section 333 outputs the emotion estimation result to information providing section 334 .

情報提供部334は、感情推定部333から出力された推定結果と、記憶部32に記憶されている状態定義テーブル324とに基づいて、感情を示すアイコンを選択する(ステップS106)。具体的には、情報提供部334は、状態定義テーブル324を参照し、推定結果に含まれる感情に対応付けられているアイコン情報を選択する。情報提供部334は、選択したアイコン情報を、生体データに付与されたユーザIDに対応するレコードのアイコン情報の項目に保存する。なお、既にアイコン情報が保存されている場合には、情報提供部334は新たに選択したアイコンの情報で、既に保存されているアイコン情報を上書きすることでアイコン情報を更新する。 The information provision unit 334 selects an icon indicating an emotion based on the estimation result output from the emotion estimation unit 333 and the state definition table 324 stored in the storage unit 32 (step S106). Specifically, the information providing unit 334 refers to the state definition table 324 and selects icon information associated with the emotion included in the estimation result. The information providing unit 334 stores the selected icon information in the icon information item of the record corresponding to the user ID assigned to the biometric data. If the icon information has already been saved, the information providing unit 334 updates the icon information by overwriting the already saved icon information with the information of the newly selected icon.

さらに、情報提供部334は、フレンド情報の項目において、生体データに付与されたユーザIDに対応するレコードのアイコン情報の項目に保存する。なお、既にアイコン情報が保存されている場合には、情報提供部334は新たに選択したアイコンの情報で、既に保存されているアイコン情報を上書きすることでアイコン情報を更新する。これにより、フレンド情報の項目におけるアイコン情報を更新することができる。 Further, the information providing unit 334 saves in the item of icon information of the record corresponding to the user ID given to the biometric data in the item of friend information. If the icon information has already been saved, the information providing unit 334 updates the icon information by overwriting the already saved icon information with the information of the newly selected icon. Thereby, the icon information in the friend information item can be updated.

ステップS101からステップS106までの処理は、生体データが取得される度に実行される。そのため、最新の生体データ及びアイコン情報が登録される。ユーザ装置20-2のユーザが、ユーザ装置20-2を操作して、提供コミュニケーションサービスにアクセスしたとする(ステップS107)。この場合、ユーザ装置20-2の通信部23は、ユーザ装置20-2のユーザのユーザIDを含む情報を情報提供装置30に送信する。 The processing from step S101 to step S106 is executed each time biometric data is acquired. Therefore, the latest biometric data and icon information are registered. Assume that the user of the user device 20-2 operates the user device 20-2 to access the provided communication service (step S107). In this case, the communication unit 23 of the user device 20-2 transmits information including the user ID of the user of the user device 20-2 to the information providing device 30. FIG.

情報提供装置30の通信部31は、ユーザ装置20-2から送信された情報を受信する。情報提供部334は、ユーザ装置20-2から送信された情報に含まれるユーザIDを取得する。情報提供部334は、ユーザ情報テーブル322を参照し、取得したユーザIDに対応するレコードを取得する。情報提供部334は、取得したレコードに登録されている生体データ及びアイコン情報と、フレンド情報の項目に登録されている各種情報とを取得する。情報提供部334は、取得した情報を含む表示情報を生成する(ステップS108)。情報提供部334は、生成した表示情報を、ユーザ装置20-2に提供する(ステップS109)。 The communication unit 31 of the information providing device 30 receives information transmitted from the user device 20-2. The information providing unit 334 acquires the user ID included in the information transmitted from the user device 20-2. The information providing unit 334 refers to the user information table 322 and acquires a record corresponding to the acquired user ID. The information providing unit 334 acquires biometric data and icon information registered in the acquired record, and various types of information registered in the item of friend information. The information providing unit 334 generates display information including the acquired information (step S108). The information providing unit 334 provides the generated display information to the user device 20-2 (step S109).

ユーザ装置20-2の通信部23は、情報提供装置30から送信された表示情報を受信する(ステップS110)。表示制御部253は、通信部23によって受信された表示情報に基づく画面を表示部22に表示させる。表示部22は、表示制御部253の制御に従って、表示情報に基づく画面を表示する(ステップS111)。例えば、ユーザ装置20-2の表示部22には、図8のような画面が表示される。 The communication unit 23 of the user device 20-2 receives the display information transmitted from the information providing device 30 (step S110). The display control unit 253 causes the display unit 22 to display a screen based on the display information received by the communication unit 23 . The display unit 22 displays a screen based on the display information under the control of the display control unit 253 (step S111). For example, a screen as shown in FIG. 8 is displayed on the display unit 22 of the user device 20-2.

図8は、ユーザ装置20-1のユーザのフレンドであるユーザが操作するユーザ装置20-2の表示部22の画面に表示される情報の一例を示す図である。
図8に示すユーザ装置20-2の表示部22の画面には、表示情報に含まれるフレンド情報に基づいてフレンドの情報51が表示されている。図8では、一例として、6人のフレンドの情報51が表示された場合を示している。各フレンドの情報51には、画像表示領域52と、アイコン表示領域53と、心拍数表示領域54とが表されている。画像表示領域52は、フレンド(対象者)のプロフィール画像が表示される領域である。ユーザは、画像表示領域52に表示されている画像を見ることでフレンドを識別することができる。アイコン表示領域53は、フレンドの感情に応じたアイコン情報(ストレス度合いを表す画像情報)が表示される領域である。心拍数表示領域54は、フレンドの心拍数の情報が表示される領域である。
FIG. 8 is a diagram showing an example of information displayed on the screen of the display unit 22 of the user device 20-2 operated by the user who is a friend of the user of the user device 20-1.
Friend information 51 is displayed on the screen of the display unit 22 of the user device 20-2 shown in FIG. 8 based on the friend information included in the display information. FIG. 8 shows a case where information 51 of six friends is displayed as an example. An image display area 52, an icon display area 53, and a heart rate display area 54 are displayed in the information 51 of each friend. The image display area 52 is an area where the profile image of the friend (target person) is displayed. The user can identify the friend by viewing the image displayed in the image display area 52 . The icon display area 53 is an area where icon information (image information representing the degree of stress) corresponding to the friend's emotion is displayed. The heart rate display area 54 is an area in which the friend's heart rate information is displayed.

図8に示すように、フレンド毎に、アイコン情報と心拍数の情報とが表示される。これにより、ユーザは、アイコン情報や心拍数の情報を参照して、落ち込んでいるユーザを早期に発見することができ、落ち込んでいるユーザに対してメッセージを送ることができる。例えば、ユーザがフレンドの情報51を選択(押下)することで、図8に示す画面がチャットを行うための画面に切り替わる。なお、表示制御部253は、負の感情を表すアイコン情報を示すフレンドがいる場合、ポップアップで表示させてもよい。 As shown in FIG. 8, icon information and heart rate information are displayed for each friend. Thereby, the user can refer to the icon information and heart rate information to find the depressed user at an early stage, and can send a message to the depressed user. For example, when the user selects (presses) friend information 51, the screen shown in FIG. 8 is switched to a screen for chatting. Note that the display control unit 253 may display a pop-up when there is a friend showing icon information representing negative emotions.

以上のように構成された第1の実施形態における情報提供システム100では、情報提供装置30が対象の生体データにより得られる心拍変動パラメータに基づいて対象者の感情を推定する。情報提供装置30は、推定した感情を可視化するためのアイコン情報を取得し、取得したアイコン情報と、心拍数の情報とを少なくとも含む表示情報を、対象者のフレンドとなっているユーザが操作するユーザ装置20に提供する。これにより、対象者のフレンドとなっているユーザは、画面上に表示されたアイコン情報を見るだけで対象者の現在の状態を把握することができる。これにより、対象者の現在の状態に応じた対応が可能になる。例えば、対象者の気持ちが落ち込んでいる場合には、ユーザはメッセージや電話などで対象者とコミュニケーションを図ることができる。その結果、対象者の精神面のサポートが可能になる。このように、情報提供システム100における情報提供装置30は、対象者の精神面のサポートを促すための情報を提供することができる。 In the information providing system 100 according to the first embodiment configured as described above, the information providing device 30 estimates the emotion of the subject based on the heart rate variability parameter obtained from the biometric data of the subject. The information providing device 30 acquires icon information for visualizing the estimated emotion, and a user who is a friend of the target person operates display information including at least the acquired icon information and heart rate information. Provided to the user device 20 . As a result, the user who is a friend of the target person can grasp the current state of the target person only by looking at the icon information displayed on the screen. This makes it possible to respond according to the subject's current condition. For example, if the target person is depressed, the user can communicate with the target person by message, phone call, or the like. As a result, it becomes possible to provide psychological support to the subject. In this way, the information providing device 30 in the information providing system 100 can provide information for prompting mental support of the subject.

情報提供装置30は、対象者から得られる生体データに基づく対象者の感情を、シンプルなアイコンとしてユーザ装置20に提供している。このように、情報提供装置30は、ユーザ装置20のユーザに対して、対象者の感情を理解しやすい情報として提供することができる。その結果、ユーザ装置20のユーザは、対象者の感情を容易に理解することができる。 The information providing device 30 provides the user device 20 with the subject's emotion based on the biometric data obtained from the subject as a simple icon. In this way, the information providing device 30 can provide the user of the user device 20 with information that makes it easy to understand the subject's emotions. As a result, the user of user device 20 can easily understand the emotions of the subject.

(第1の実施形態における変形例)
情報提供装置30は、機械学習により得られる学習済みモデルを用いてユーザの感情を推定するように構成されてもよい。このように構成される場合、情報提供装置30は、ユーザの生体データ(例えば、心電図)により得られた心拍変動パラメータを入力としてユーザの感情の情報を出力するように学習された学習済みモデルを用いればよい。
(Modified example of the first embodiment)
The information providing device 30 may be configured to estimate the user's emotion using a trained model obtained by machine learning. When configured in this way, the information providing device 30 uses a trained model trained to output information about the user's emotion with heart rate variability parameters obtained from the user's biometric data (e.g., electrocardiogram) as input. You can use it.

上記の実施形態では、感情推定部333が、算出されたSDNN、RMSSD及びCVSDの各値と、感情推定テーブル323に登録されている感情毎のSDNN、RMSSD及びCVSDの値とを比較する構成を示した。感情推定部333は、SDNN、RMSSD及びCVSDの指標のうち少なくとも1つの指標に基づいて、対象者の感情を推定するように構成されてもよい。このように構成される場合の処理について、感情推定部333が、SDNN、RMSSD及びCVSDの指標のうちSDNNに基づいて対象者の感情を推定する構成を例に説明する。感情推定部333は、算出されたSDNNの値と、各感情におけるSDNNの値とを比較する。感情推定部333は、SDNNの値の比較結果に基づいて、類似していると判断された感情の情報を取得する。なお、1つの指標において、類似していると判断された値が複数ある場合、感情推定部333は差が最も小さい値を選択してもよい。感情推定部333は、取得した感情の情報で示される感情を、現在の対象者の感情に最も近い感情であると推定する。なお、感情推定部333が、SDNN、RMSSD及びCVSDの指標のうち2つの指標に基づいて対象者の感情を推定する場合には、3つの指標を用いる場合と同様の処理を行う。 In the above embodiment, the emotion estimation unit 333 is configured to compare the calculated SDNN, RMSSD, and CVSD values with the SDNN, RMSSD, and CVSD values for each emotion registered in the emotion estimation table 323. Indicated. The emotion estimator 333 may be configured to estimate the subject's emotion based on at least one of the indicators of SDNN, RMSSD and CVSD. Processing in such a case will be described by taking as an example a configuration in which the emotion estimating unit 333 estimates the subject's emotion based on the SDNN among indicators of SDNN, RMSSD, and CVSD. The emotion estimation unit 333 compares the calculated SDNN value with the SDNN value for each emotion. The emotion estimating unit 333 acquires emotion information determined to be similar based on the comparison result of the SDNN values. Note that if there are multiple values determined to be similar in one index, the emotion estimation unit 333 may select the value with the smallest difference. The emotion estimation unit 333 estimates that the emotion indicated by the acquired emotion information is the emotion closest to the current emotion of the subject. When the emotion estimating unit 333 estimates the subject's emotion based on two of the SDNN, RMSSD, and CVSD indicators, the same processing as in the case of using three indicators is performed.

上記の実施形態では、情報提供装置30において生体データに基づいて心拍変動パラメータを算出する構成を示したが、ユーザ装置20が生体データに基づいて心拍変動パラメータを算出するように構成されてもよい。このように構成される場合、ユーザ装置20は、心拍変動パラメータ算出部332を備え、情報提供装置30は心拍変動パラメータ算出部332を備えなくてよい。ユーザ装置20は、心拍変動パラメータ及び生体データを情報提供装置30に送信する。情報提供装置30は、ユーザ装置20から得られた心拍変動パラメータを用いてユーザの感情を推定する。 In the above embodiment, the information providing device 30 is configured to calculate heart rate variability parameters based on biological data, but the user device 20 may be configured to calculate heart rate variability parameters based on biological data. . In such a configuration, the user device 20 may include the heart rate variability parameter calculator 332 and the information providing device 30 may not include the heart rate variability parameter calculator 332 . The user device 20 transmits heart rate variability parameters and biological data to the information providing device 30 . The information providing device 30 estimates the user's emotions using the heart rate variability parameters obtained from the user device 20 .

上記の実施形態では、情報提供装置30においてユーザの感情を推定し、推定結果に応じたアイコンを選択する構成を示したが、ユーザ装置20がユーザの感情を推定するように構成されてもよい。このように構成される場合、ユーザ装置20は、感情推定部333及び感情推定テーブル323を備え、情報提供装置30は感情推定部333及び感情推定テーブル323を備えなくてよい。ユーザ装置20は、ユーザの感情の推定結果及び生体データを情報提供装置30に送信する。情報提供装置30は、ユーザ装置20から得られたユーザの感情の推定結果を用いて推定結果に応じたアイコンを選択する。 In the above embodiment, the information providing device 30 estimates the user's emotion and selects an icon according to the estimation result. However, the user device 20 may be configured to estimate the user's emotion. . In this configuration, the user device 20 may include the emotion estimation unit 333 and the emotion estimation table 323 , and the information providing device 30 may not include the emotion estimation unit 333 and the emotion estimation table 323 . The user device 20 transmits the user's emotion estimation result and biometric data to the information providing device 30 . The information providing device 30 selects an icon according to the estimation result using the estimation result of the user's emotion obtained from the user device 20 .

情報提供部334は、負の感情を表すアイコン情報を示すフレンドがいる場合、負の感情を表すアイコン情報を示すフレンドがいることをユーザに通知するためのポップアップを表示させる指示を表示情報に含めてユーザ装置20に提供してもよい。 The information providing unit 334 includes, in the display information, an instruction to display a pop-up for notifying the user that there is a friend showing icon information representing a negative emotion when there is a friend showing icon information representing a negative emotion. may be provided to the user device 20.

情報提供装置30が備える機能に関するAPI(Application Programming Interface)を提供し、既存のSNS(例えば、Twitter(登録商標)、LINE(登録商標)Facebook等)と連携してもよい。これにより、既存のSNSにおいても、対象者の感情を可視化することが可能になる。そのため、利便性を向上させることができる。 An API (Application Programming Interface) relating to the functions of the information providing apparatus 30 may be provided to cooperate with existing SNS (for example, Twitter (registered trademark), LINE (registered trademark) Facebook, etc.). This makes it possible to visualize the subject's emotions even in the existing SNS. Therefore, convenience can be improved.

(第2の実施形態)
第2の実施形態では、情報提供装置がチャットボットの機能を備え、ユーザ装置から送信された生体データに基づいて推定される感情に応じた応答をユーザ装置に提供する。第2の実施形態における情報提供システム100のシステム構成は、基本的には第1の実施形態と同様であるが、第2の実施形態では生体センサ及びユーザ装置は少なくとも1台ずつ備えられればよい。以下、第1の実施形態との相違点について説明する。
(Second embodiment)
In the second embodiment, the information providing device has a chatbot function and provides the user device with a response according to the emotion estimated based on the biometric data transmitted from the user device. The system configuration of the information providing system 100 in the second embodiment is basically the same as in the first embodiment, but in the second embodiment, at least one biosensor and at least one user device may be provided. . Differences from the first embodiment will be described below.

ユーザ装置20aは、情報提供装置30aにより提供されるチャットボットの機能を利用して、情報提供装置30aから対象者の感情に応じた応答内容を画面に表示する。対象者の感情に応じた応答内容とは、対象者のストレス度合いに応じたアドバイスであり、例えば対象者の感情が負の感情である場合には対象者のメンタルを気遣う内容であり、対象者の感情が正の感情である場合には対象者の気分をさらに上昇させるような内容が好ましい。なお、応答内容は、上記に限られず、気持ちに変化をもたらすことができる行動をレコメンドする内容であってもよい。 The user device 20a uses the chatbot function provided by the information providing device 30a to display on the screen the content of the response from the information providing device 30a according to the subject's emotion. The content of the response according to the subject's emotions is advice according to the degree of stress of the subject. If the emotion is a positive emotion, it is preferable that the content further raises the subject's mood. Note that the content of the response is not limited to the above, and may be the content of recommending an action that can bring about a change in feelings.

このように第2の実施形態におけるユーザ装置20aは、提供コミュニケーションサービスではなく、チャットボットの機能を利用して、対象者の精神面のサポートを行うことができる。ユーザ装置20aは、例えばスマートフォン、携帯電話、タブレット端末、パーソナルコンピュータ、ノートパソコン等の情報処理装置を用いて構成される。ユーザ装置20は、例えば対象者が操作する装置である。 As described above, the user device 20a in the second embodiment can provide mental support to the target person by using the chatbot function instead of the provided communication service. The user device 20a is configured using an information processing device such as a smart phone, a mobile phone, a tablet terminal, a personal computer, or a notebook computer, for example. The user device 20 is, for example, a device operated by a subject.

情報提供装置30aは、ユーザ装置20aに対してチャットボットの機能を提供する。ユーザ装置20aは、情報提供装置30aから提供されるチャットボットの機能を実現するためのアプリケーションをインストールすることにより、チャットボットの機能を利用することができる。情報提供装置30aは、対象者の感情に応じた応答内容を含む表示情報をユーザ装置20aに提供する。第2の実施形態において表示情報には、少なくとも応答内容と、アイコン情報と、心拍数の情報とが含まれる。情報提供装置30aは、例えばパーソナルコンピュータ等の情報処理装置を用いて構成される。 The information providing device 30a provides a chatbot function to the user device 20a. The user device 20a can use the chatbot function by installing an application for implementing the chatbot function provided by the information providing device 30a. The information providing device 30a provides the user device 20a with display information including response content corresponding to the emotion of the subject. In the second embodiment, the display information includes at least response content, icon information, and heart rate information. The information providing device 30a is configured using an information processing device such as a personal computer, for example.

図9は、第2の実施形態におけるユーザ装置20aの具体的な構成を示す図である。ユーザ装置20aは、操作部21、表示部22、通信部23、記憶部24a、制御部25a及びスピーカー26を備える。ユーザ装置20aは、記憶部24及び制御部25に代えて記憶部24a及び制御部25aを備える点、スピーカー26を新たに備える点でユーザ装置20と構成が異なる。ユーザ装置20aが備えるその他の構成については、ユーザ装置20と同様である。 FIG. 9 is a diagram showing a specific configuration of the user device 20a according to the second embodiment. The user device 20 a includes an operation unit 21 , a display unit 22 , a communication unit 23 , a storage unit 24 a, a control unit 25 a and a speaker 26 . The configuration of the user device 20a differs from that of the user device 20 in that it includes a storage unit 24a and a control unit 25a instead of the storage unit 24 and the control unit 25, and in that it additionally includes a speaker 26. FIG. Other configurations of the user device 20 a are the same as those of the user device 20 .

記憶部24aには、アプリケーションプログラム241a、生体データ242及び表示データ243が記憶されている。アプリケーションプログラム241aは、制御部25aにより実行されるプログラム(例えば、チャットボットの機能を利用するためのプログラム)である。制御部25aによりアプリケーションプログラム241aが実行されることにより、ユーザ装置20aのユーザは、チャットボットの機能を利用することが可能になる。記憶部24aは、磁気記憶装置や半導体記憶装置などの記憶装置を用いて構成される。 An application program 241a, biometric data 242, and display data 243 are stored in the storage unit 24a. The application program 241a is a program (for example, a program for using the chatbot function) executed by the control unit 25a. By executing the application program 241a by the control unit 25a, the user of the user device 20a can use the function of the chatbot. The storage unit 24a is configured using a storage device such as a magnetic storage device or a semiconductor storage device.

制御部25aは、ユーザ装置20a全体を制御する。制御部25aは、CPU等のプロセッサやメモリを用いて構成される。制御部25aは、アプリケーションプログラム241aを実行することによって、取得部251、通信制御部252、表示制御部253及び音声出力制御部254の機能を実現する。 The control unit 25a controls the entire user device 20a. The control unit 25a is configured using a processor such as a CPU and a memory. The control unit 25a implements the functions of the acquisition unit 251, the communication control unit 252, the display control unit 253, and the audio output control unit 254 by executing the application program 241a.

取得部251、通信制御部252、表示制御部253及び音声出力制御部254のうち一部または全部は、ASICやPLD、FPGAなどのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアとの協働によって実現されてもよい。プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置などの非一時的な記憶媒体である。プログラムは、電気通信回線を介して送信されてもよい。 Some or all of the acquisition unit 251, the communication control unit 252, the display control unit 253, and the audio output control unit 254 may be implemented by hardware (including circuitry) such as ASIC, PLD, and FPGA. However, it may be realized by cooperation of software and hardware. The program may be recorded on a computer-readable recording medium. Computer-readable recording media are portable media such as flexible disks, magneto-optical disks, ROMs and CD-ROMs, and non-temporary storage media such as hard disks built into computer systems. The program may be transmitted over telecommunications lines.

取得部251、通信制御部252、表示制御部253及び音声出力制御部254の機能の一部は、予めユーザ装置20aに搭載されている必要はなく、追加のアプリケーションプログラムがユーザ装置20aにインストールされることで実現されてもよい。 Some of the functions of the acquisition unit 251, the communication control unit 252, the display control unit 253, and the audio output control unit 254 do not need to be installed in the user device 20a in advance, and an additional application program is installed in the user device 20a. It may be realized by

音声出力制御部254は、情報提供装置30aから取得される表示情報に含まれる応答内容を、スピーカー26を介して音声出力させる。 The voice output control unit 254 causes the response content included in the display information acquired from the information providing device 30a to be voice-output via the speaker 26. FIG.

スピーカー26は、音声出力制御部254の制御に従って、応答内容を音声で出力する。 The speaker 26 outputs the content of the response by voice under the control of the voice output control section 254 .

図10は、第2の実施形態における情報提供装置30aの具体的な構成を示す図である。情報提供装置30aは、通信部31、記憶部32a及び制御部33aを備える。情報提供装置30aは、記憶部32及び制御部33に代えて記憶部32a及び制御部33aを備える点で情報提供装置30と構成が異なる。情報提供装置30aが備えるその他の構成については、情報提供装置30と同様である。 FIG. 10 is a diagram showing a specific configuration of the information providing device 30a according to the second embodiment. The information providing device 30a includes a communication section 31, a storage section 32a and a control section 33a. The information providing device 30a is different in configuration from the information providing device 30 in that it includes a storage section 32a and a control section 33a instead of the storage section 32 and the control section 33 . Other configurations of the information providing device 30 a are the same as those of the information providing device 30 .

記憶部32aには、アプリケーションプログラム321、ユーザ情報テーブル322a、感情推定テーブル323、状態定義テーブル324及び応答情報テーブル325が記憶されている。応答情報テーブル325は、推定された感情に応じた応答内容が登録されたテーブルである。応答情報テーブル325には、応答内容として、生体データに基づいて推定された感情に応じて対象者へ問いかけるためのメッセージが含まれる。記憶部32aは、磁気記憶装置や半導体記憶装置などの記憶装置を用いて構成される。 An application program 321, a user information table 322a, an emotion estimation table 323, a state definition table 324, and a response information table 325 are stored in the storage unit 32a. The response information table 325 is a table in which response contents corresponding to estimated emotions are registered. The response information table 325 includes, as response content, a message for asking the subject according to the emotion estimated based on the biometric data. The storage unit 32a is configured using a storage device such as a magnetic storage device or a semiconductor storage device.

図11は、第2の実施形態におけるユーザ情報テーブル322aの一具体例を示す図である。ユーザ情報テーブル322aには、ユーザIDと、アドレス情報と、生体データと、アイコン情報とが対応付けて登録されている。ユーザIDは、ユーザ(対象者)を識別するための識別情報を表す。アドレス情報は、ユーザIDで識別されるユーザが情報提供装置30aに登録したメールアドレスを表す。なお、アドレス情報には、ユーザ装置20aのMACアドレスが含まれていてもよい。ユーザ装置20aのMACアドレスが登録されることにより、特定のユーザ装置20aを用いた場合のみサービスを利用可能とすることができる。これにより、セキュリティを向上させることができる。生体データは、ユーザIDで識別されるユーザの生体データを表す。アイコン情報は、ユーザIDで識別されるユーザの感情を示すアイコンを表す。 FIG. 11 is a diagram showing a specific example of the user information table 322a in the second embodiment. User IDs, address information, biometric data, and icon information are associated and registered in the user information table 322a. The user ID represents identification information for identifying a user (subject). The address information represents an e-mail address registered in the information providing device 30a by the user identified by the user ID. Note that the address information may include the MAC address of the user device 20a. By registering the MAC address of the user device 20a, the service can be made available only when a specific user device 20a is used. This can improve security. The biometric data represents biometric data of the user identified by the user ID. The icon information represents an icon indicating the emotion of the user identified by the user ID.

図12は、第2の実施形態における応答情報テーブル325の一具体例を示す図である。応答情報テーブル325には、アイコン情報と、応答内容とが対応付けて登録されている。アイコン情報は、対象者の感情を示すアイコンを表す。応答内容は、対象者の感情に応じて対象者に提供される内容を表す。 FIG. 12 is a diagram showing a specific example of the response information table 325 in the second embodiment. Icon information and response content are registered in the response information table 325 in association with each other. The icon information represents an icon indicating the subject's emotion. The response content represents the content provided to the subject according to the subject's emotion.

図12に示す例では、アイコン情報I1~I5それぞれに対して、1つの応答内容が登録されている。なお、アイコン情報に対応付けて登録される応答内容は、1つに限られず複数であってもよい。アイコン情報I1は、対象者の感情が「通常の状態」であることを示すアイコンであり、アイコン情報I1には応答内容として「そうでしたか、ハーブティーを飲むと疲れが取れますよ」といった内容が対応付けられている。すなわち、情報提供装置30aは、通常の状態である対象者に対して、「そうでしたか、ハーブティーを飲むと疲れが取れますよ」といった内容の応答を提供することが示されている。 In the example shown in FIG. 12, one response content is registered for each of the icon information items I1 to I5. Note that the number of response contents registered in association with icon information is not limited to one, and may be plural. The icon information I1 is an icon indicating that the subject's emotion is in a "normal state", and the icon information I1 has a response content such as "Is that so? Drinking herbal tea will help you get rid of fatigue." Content is associated. In other words, the information providing device 30a is shown to provide a response such as "Is that so? Drinking herbal tea will help you get rid of your fatigue" to the subject who is in a normal state.

アイコン情報I2は、対象者の感情が「負の感情(望ましいことが起こらない)」であることを示すアイコンであり、アイコン情報I2には応答内容として「深呼吸しよう」といった内容が対応付けられている。すなわち、情報提供装置30aは、負の感情(望ましいことが起こらない)である対象者に対して、気持ちを落ち着かせるために「深呼吸しよう」といった内容の応答を提供することが示されている。 The icon information I2 is an icon indicating that the target person's emotion is "negative emotion (desired things do not occur)", and the icon information I2 is associated with a response content such as "Let's take a deep breath". there is That is, the information providing device 30a is shown to provide a response with content such as "Let's take a deep breath" to calm down the subject who is feeling negative (desired things do not occur).

アイコン情報I4は、対象者の感情が「正の感情(望ましくないことが起こらない)」であることを示すアイコンであり、アイコン情報I4には応答内容として「楽しもう」といった内容が対応付けられている。すなわち、情報提供装置30aは、正の感情(望ましくないことが起こらない)である対象者に対して、気持ちを向上させるために「楽しもう」といった内容の応答を提供することが示されている。 The icon information I4 is an icon indicating that the target person's emotion is a "positive emotion (undesirable things do not occur)", and the icon information I4 is associated with a response content such as "Let's have fun". ing. In other words, the information providing device 30a is shown to provide a response with content such as "let's have fun" in order to improve the feeling of the subject who has a positive feeling (no undesirable things happen). .

図10に戻って、情報提供装置30aの説明を続ける。
制御部33aは、情報提供装置30a全体を制御する。制御部33aは、CPU等のプロセッサやメモリを用いて構成される。制御部33aは、アプリケーションプログラム321を実行することによって、取得部331、心拍変動パラメータ算出部332、感情推定部333及び情報提供部334aの機能を実現する。
Returning to FIG. 10, the description of the information providing device 30a is continued.
The control unit 33a controls the entire information providing device 30a. The control unit 33a is configured using a processor such as a CPU and a memory. By executing the application program 321, the control unit 33a implements the functions of an acquisition unit 331, a heart rate variability parameter calculation unit 332, an emotion estimation unit 333, and an information provision unit 334a.

取得部331、心拍変動パラメータ算出部332、感情推定部333及び情報提供部334aのうち一部または全部は、ASICやPLD、FPGAなどのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアとの協働によって実現されてもよい。プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置などの非一時的な記憶媒体である。プログラムは、電気通信回線を介して送信されてもよい。 Some or all of the acquiring unit 331, the heart rate variability parameter calculating unit 332, the emotion estimating unit 333, and the information providing unit 334a may be implemented by hardware (including circuitry) such as ASIC, PLD, and FPGA. Alternatively, it may be implemented by cooperation of software and hardware. The program may be recorded on a computer-readable recording medium. Computer-readable recording media are portable media such as flexible disks, magneto-optical disks, ROMs and CD-ROMs, and non-temporary storage media such as hard disks built into computer systems. The program may be transmitted over telecommunications lines.

取得部331、心拍変動パラメータ算出部332、感情推定部333及び情報提供部334aの機能の一部は、予め情報提供装置30aに搭載されている必要はなく、追加のアプリケーションプログラムが情報提供装置30aにインストールされることで実現されてもよい。 Some of the functions of the acquisition unit 331, the heart rate variability parameter calculation unit 332, the emotion estimation unit 333, and the information provision unit 334a do not need to be installed in the information provision device 30a in advance, and an additional application program is installed in the information provision device 30a. It may be realized by being installed in

情報提供部334aは、感情推定部333により得られた感情の推定結果と、状態定義テーブル324とに基づいて対象者の感情を示す情報であるアイコン情報を取得する。さらに、情報提供部334aは、取得したアイコン情報と、応答情報テーブル325とに基づいて、感情に応じた応答内容を取得する。情報提供部334aは、アイコン情報と、取得した応答内容と、心拍数の情報とを含む表示情報を生成し、生成した表示情報をユーザ装置20aに提供する。 The information providing unit 334 a acquires icon information, which is information indicating the subject's emotion, based on the emotion estimation result obtained by the emotion estimation unit 333 and the state definition table 324 . Further, the information providing unit 334a acquires response content corresponding to the emotion based on the acquired icon information and the response information table 325. FIG. The information providing unit 334a generates display information including the icon information, the acquired response content, and the heart rate information, and provides the generated display information to the user device 20a.

図13は、ユーザ装置20aの表示部22の画面に表示される応答内容の一例を示す図である。図13に示すユーザ装置20aの表示部22の画面には、アイコン表示領域53と、心拍数表示領域54と、メッセージ表示領域55と、音声再生選択領域56とが表されている。アイコン表示領域53は、対象者の感情に応じたアイコン情報が表示される領域である。心拍数表示領域54は、対象者の心拍数の情報が表示される領域である。メッセージ表示領域55は、対象者への応答内容が表示される領域である。音声再生選択領域56は、対象者への応答内容の音声再生するための選択領域である。 FIG. 13 is a diagram showing an example of response content displayed on the screen of the display unit 22 of the user device 20a. An icon display area 53, a heart rate display area 54, a message display area 55, and an audio reproduction selection area 56 are displayed on the screen of the display unit 22 of the user device 20a shown in FIG. The icon display area 53 is an area where icon information corresponding to the subject's emotion is displayed. The heart rate display area 54 is an area where information on the subject's heart rate is displayed. The message display area 55 is an area in which the content of the response to the target person is displayed. The audio reproduction selection area 56 is a selection area for audio reproduction of the content of the response to the subject.

例えば、対象者が、ユーザ装置20aを操作して音声再生選択領域56を選択(押下)することで、応答内容の音声再生と停止とを切り替えることができる。 For example, by operating the user device 20a and selecting (pressing) the audio reproduction selection area 56, the target person can switch between audio reproduction and stop of the response content.

図14は、第2の実施形態における情報提供システム100の処理の流れを示すシーケンス図である。
ユーザ装置20aの取得部251は、生体センサ10から送信された生体データを取得する(ステップS201)。取得部251は、取得した生体データを記憶部24に保存する。通信制御部252は、通信部23を制御して、取得された生体データを情報提供装置30aに送信させる。通信部23は、通信制御部252の制御に従って生体データを情報提供装置30aに送信する(ステップS202)。通信部23は、生体データにユーザ装置20aのユーザのユーザIDを付与して送信する。なお、ステップS201及びステップS202の処理は、生体データが取得される度に実行される。
FIG. 14 is a sequence diagram showing the flow of processing of the information providing system 100 according to the second embodiment.
The acquisition unit 251 of the user device 20a acquires the biometric data transmitted from the biosensor 10 (step S201). Acquisition unit 251 stores the acquired biometric data in storage unit 24 . The communication control unit 252 controls the communication unit 23 to transmit the acquired biometric data to the information providing device 30a. The communication unit 23 transmits the biometric data to the information providing device 30a under the control of the communication control unit 252 (step S202). The communication unit 23 attaches the user ID of the user of the user device 20a to the biometric data and transmits the biometric data. Note that the processing of steps S201 and S202 is executed each time biometric data is acquired.

情報提供装置30aの通信部31は、ユーザ装置20aから送信された生体データを受信する(ステップS203)。取得部331は、通信部31により受信された生体データを取得する。取得部331は、取得した生体データを記憶部32aに保存する。具体的には、取得部331は、ユーザ情報テーブル322aを記憶部32aから読み出して、読み出したユーザ情報テーブル322aのレコードのうち、生体データに付与されたユーザIDに対応するレコードを選択する。取得部331は、選択したレコードの生体データの項目に、取得した生体データを保存する。 The communication unit 31 of the information providing device 30a receives the biometric data transmitted from the user device 20a (step S203). Acquisition unit 331 acquires the biometric data received by communication unit 31 . The acquisition unit 331 stores the acquired biometric data in the storage unit 32a. Specifically, the acquisition unit 331 reads out the user information table 322a from the storage unit 32a, and selects a record corresponding to the user ID assigned to the biometric data from among the records in the read user information table 322a. The acquisition unit 331 stores the acquired biometric data in the biometric data item of the selected record.

心拍変動パラメータ算出部332は、所定期間分の生体データが記憶部32aに保存されると、所定期間分の生体データに含まれる心電図を用いて心拍変動パラメータ(SDNN、RMSSD及びCVSD)を算出する(ステップS204)。心拍変動パラメータ算出部332は、算出した心拍変動パラメータを感情推定部333に出力する。 The heart rate variability parameter calculator 332 calculates the heart rate variability parameters (SDNN, RMSSD and CVSD) using the electrocardiogram included in the biological data for the predetermined period when the biological data for the predetermined period is stored in the storage unit 32a. (Step S204). The heart rate variability parameter calculator 332 outputs the calculated heart rate variability parameter to the emotion estimator 333 .

感情推定部333は、心拍変動パラメータ算出部332によって算出された心拍変動パラメータと、記憶部32aに記憶されている感情推定テーブル323とに基づいて、ユーザ装置20aのユーザの感情を推定する(ステップS205)。感情推定部333は、感情の推定結果を情報提供部334aに出力する。 The emotion estimation unit 333 estimates the emotion of the user of the user device 20a based on the heart rate variability parameter calculated by the heart rate variability parameter calculation unit 332 and the emotion estimation table 323 stored in the storage unit 32a (step S205). The emotion estimation unit 333 outputs the result of emotion estimation to the information providing unit 334a.

情報提供部334aは、感情推定部333から出力された推定結果と、記憶部32aに記憶されている状態定義テーブル324とに基づいて、感情を示すアイコンを選択する(ステップS206)。情報提供部334aは、選択したアイコン情報を、生体データに付与されたユーザIDに対応するレコードのアイコン情報の項目に保存する。なお、既にアイコン情報が保存されている場合には、情報提供部334aは新たに選択したアイコンの情報で、既に保存されているアイコン情報を上書きすることでアイコン情報を更新する。 The information provision unit 334a selects an icon indicating an emotion based on the estimation result output from the emotion estimation unit 333 and the state definition table 324 stored in the storage unit 32a (step S206). The information providing unit 334a saves the selected icon information in the icon information item of the record corresponding to the user ID assigned to the biometric data. If the icon information has already been saved, the information providing unit 334a updates the icon information by overwriting the already saved icon information with the information of the newly selected icon.

次に、情報提供部334aは、選択したアイコンの情報と、応答情報テーブル325とに基づいて、選択されたアイコンで示される感情に応じた応答内容を取得する(ステップS206)。情報提供部334aは、応答内容と、ユーザ装置20aを操作している対象者の生体データ及びアイコン情報とを含む表示情報を生成する(ステップS207)。情報提供部334aは、生成した表示情報を、ユーザ装置20aに提供する(ステップS208)。 Next, the information providing unit 334a acquires response content corresponding to the emotion indicated by the selected icon based on the information of the selected icon and the response information table 325 (step S206). The information providing unit 334a generates display information including the content of the response, the biometric data of the subject operating the user device 20a, and the icon information (step S207). The information providing unit 334a provides the generated display information to the user device 20a (step S208).

ユーザ装置20aの通信部23は、情報提供装置30aから送信された表示情報を受信する(ステップS209)。表示制御部253は、通信部23によって受信された表示情報に基づく画面を表示部22に表示させる。表示部22は、表示制御部253の制御に従って、表示情報に基づく画面を表示する(ステップS210)。例えば、ユーザ装置20aの表示部22は、図13に示す画面を表示する。音声出力制御部254は、対象者の操作に応じて、スピーカー26から応答内容に応じた音声を出力させる(ステップS211) The communication unit 23 of the user device 20a receives the display information transmitted from the information providing device 30a (step S209). The display control unit 253 causes the display unit 22 to display a screen based on the display information received by the communication unit 23 . The display unit 22 displays a screen based on the display information under the control of the display control unit 253 (step S210). For example, the display unit 22 of the user device 20a displays the screen shown in FIG. The voice output control unit 254 causes the speaker 26 to output voice corresponding to the content of the response in accordance with the operation of the subject (step S211).

以上のように構成された第2の実施形態における情報提供システム100では、情報提供装置30aが対象の生体データにより得られる心拍変動パラメータに基づいて対象者の感情を推定する。情報提供装置30aは、推定した感情を可視化するためのアイコン情報を取得し、取得したアイコン情報と、心拍数の情報と、感情に応じた応答内容とを少なくとも含む表示情報を、対象者が操作するユーザ装置20aに提供する。これにより、対象者は、アイコン情報により自身の現在の状態を把握することができるとともに、アドバイスを得ることができる。例えば、対象者の気持ちが落ち込んでいる場合には、応答内容として対象者を気遣う内容を含む表示情報が情報提供装置30aから提供され、対象者は提供された応答内容を見ることで気持ちを緩和することができる。その結果、対象者の精神面のサポートが可能になる。このように、情報提供システム100における情報提供装置30aは、対象者の精神面のサポートを促すための情報を提供することができる。 In the information providing system 100 according to the second embodiment configured as described above, the information providing device 30a estimates the emotion of the subject based on the heart rate variability parameter obtained from the biometric data of the subject. The information providing device 30a acquires icon information for visualizing the estimated emotion, and the target person operates the display information including at least the acquired icon information, heart rate information, and response content according to the emotion. provided to the user device 20a. As a result, the subject can grasp his or her current state from the icon information, and can obtain advice. For example, when the target person is depressed, the information providing device 30a provides the display information including the content of concern for the target person as the response content, and the target person relaxes by seeing the provided response content. can do. As a result, it becomes possible to provide psychological support to the subject. In this way, the information providing device 30a in the information providing system 100 can provide information for prompting mental support of the subject.

(第2の実施形態における変形例)
ユーザ装置20a及び情報提供装置30aは、第1の実施形態に示す同名の装置と同様に変形されてもよい。
(Modification of Second Embodiment)
The user device 20a and the information providing device 30a may be modified in the same manner as the device with the same name shown in the first embodiment.

上記の実施形態では、情報提供装置30aが、通常の状態、正の感情又は負の感情のいずれの場合であっても応答内容を提供する構成を示したが、情報提供装置30aは対象者が負の感情である場合にのみ応答内容を提供するように構成されてもよい。 In the above-described embodiment, the information providing device 30a has a configuration in which the response content is provided regardless of whether the subject is in a normal state, a positive emotion, or a negative emotion, but the information providing device 30a It may be configured to provide response content only in the case of negative sentiment.

情報提供装置30aは、楽しかった時やリラックス時の状況や行動を予め保存しておき、対象者が負の感情である場合に、予め保存されている楽しかった時やリラックス時の状況や行動をレコメンドするように構成されてもよい。 The information providing device 30a stores in advance the situations and behaviors during a happy time and relaxation time, and when the target person has a negative emotion, the information providing device 30a stores the previously saved situations and behaviors during a happy time and relaxation time. It may be configured to recommend.

情報提供装置30aは、同じ状態(例えば、負の感情)の人がリラックスするために過去に行った行動(例えば、特定の音楽を聴く、映画を見る等)をレコメンドするように構成されてもよい。 The information providing device 30a may be configured to recommend actions (e.g., listening to specific music, watching movies, etc.) that a person in the same state (e.g., negative emotion) has done in the past to relax. good.

情報提供装置30aは、ユーザが選択した感情に応じた応答内容又は行動を提供するように構成されてもよい。例えば、面接時において緊張をほぐしたいユーザが、ユーザ装置20aを操作して、リラックスしたい旨の指示を入力した場合、情報提供装置30aはリラックスできるような応答内容又は行動の情報を提供する。 The information providing device 30a may be configured to provide response content or action according to the emotion selected by the user. For example, when a user who wants to relax during an interview operates the user device 20a to input an instruction to relax, the information providing device 30a provides information on response content or behavior that will help the user relax.

上記の実施形態では、感情に応じた応答内容が対象者によらず同一である構成を示したが、情報提供装置30aは、対象者に応じて応答内容を変更するように構成されてもよい。このように構成される場合、情報提供装置30aは、ユーザ毎の好み、行動等の情報を収集して学習してユーザ毎の好みに合った応答内容を提供するように構成される。例えば、ユーザ毎の好み、行動等の情報を収集する方法として、ユーザ毎の好みや趣味などの情報を入力させてもよいし、第1の実施形態のようなコミュニティサービスのSNSが利用されてもよい。コミュニティサービスのSNSを利用する場合には、フレンドとのメッセージのやり取りや、投稿などからユーザ毎の好みや趣味などの情報を収集することが考えられる。 In the above-described embodiment, the configuration in which the content of the response corresponding to the emotion is the same regardless of the target person is shown, but the information providing device 30a may be configured to change the content of the response depending on the target person. . When configured in this way, the information providing device 30a is configured to collect and learn information such as preferences and behaviors of each user, and provide response contents that match the preferences of each user. For example, as a method of collecting information such as preferences and behaviors of each user, information such as preferences and hobbies of each user may be input. good too. When using a community service SNS, it is conceivable to collect information such as preferences and hobbies of each user from exchanges of messages with friends, postings, and the like.

第1の実施形態と第2の実施形態とが組み合わせて構成されてもよい。すなわち、情報提供装置30aは、第2の実施形態における処理に加え、提供コミュニケーションサービスを提供して、第1の実施形態における情報提供装置30と同様の処理を行ってもよい。この場合、ユーザ装置20aも、第2の実施形態における処理に加え、第1の実施形態におけるユーザ装置20と同様の処理を行う。 The first embodiment and the second embodiment may be combined. In other words, the information providing device 30a may perform the same processing as the information providing device 30 in the first embodiment by providing the provided communication service in addition to the processing in the second embodiment. In this case, the user device 20a also performs the same processing as the user device 20 in the first embodiment in addition to the processing in the second embodiment.

(第1の実施形態及び第2の実施形態のその他の適用例)
第1の実施形態又は第2の実施形態に示した構成は、例えばコールセンターのオペレータ、オフィスワーカー、在宅勤務の人物、又は、スポーツ選手等に適用することができる。例えば、第1の実施形態における構成をコールセンターのオペレータに適用した場合、フレンドは例えばコールセンターの他の従業員(例えば、同僚や上司)であってもよい。第1の実施形態のように、情報提供部334が、フレンドに対して対象者の感情を示すアイコン情報を含む表示情報を提供することにより、コールセンターの従業員が、他の従業員の現在の状態を把握することができる。このような構成により、対象者のメンタルケアが可能になる。例えば、コールセンターのオペレータは、クレーム対応を多くこなしている場合等、心の負担が大きくなる。第1の実施形態の構成により、対象者の負荷を可視化することができるため、適切なサポート支援が可能になる。これにより、心の負荷による離職率を低下させることもできる。
(Other application examples of the first embodiment and the second embodiment)
The configuration shown in the first embodiment or the second embodiment can be applied to, for example, call center operators, office workers, telecommuters, athletes, and the like. For example, if the configuration in the first embodiment is applied to a call center operator, the friend may be another call center employee (eg, colleague or boss). As in the first embodiment, the information providing unit 334 provides display information including icon information indicating the emotion of the target person to the friend, so that the call center employee can status can be grasped. Such a configuration enables mental care of the subject. For example, when a call center operator handles many complaints, the burden on the mind becomes heavy. With the configuration of the first embodiment, it is possible to visualize the load of the target person, so appropriate support can be provided. As a result, it is possible to reduce the turnover rate due to mental load.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 Although the embodiment of the present invention has been described in detail with reference to the drawings, the specific configuration is not limited to this embodiment, and design and the like are included within the scope of the gist of the present invention.

10、10-1~10-2…生体センサ, 20、20a、20-1~20-2…ユーザ装置, 21…操作部, 22…表示部, 23…通信部, 24、24a…記憶部, 25、25a…制御部, 26…スピーカー, 30、30a…情報提供装置, 31…通信部, 32、32a…記憶部, 33、33a…制御部, 40…ネットワーク, 251…取得部, 252…通信制御部, 253…表示制御部, 254…音声出力制御部, 331…取得部, 332…心拍変動パラメータ算出部, 333…感情推定部, 334、334a…情報提供部 Reference Signs List 10, 10-1 to 10-2... Biosensor 20, 20a, 20-1 to 20-2... User device 21... Operation unit 22... Display unit 23... Communication unit 24, 24a... Storage unit, DESCRIPTION OF SYMBOLS 25, 25a... Control part 26... Speaker 30, 30a... Information provision apparatus 31... Communication part 32, 32a... Storage part 33, 33a... Control part 40... Network 251... Acquisition part 252... Communication Control unit 253 Display control unit 254 Audio output control unit 331 Acquisition unit 332 Heart rate variability parameter calculation unit 333 Emotion estimation unit 334, 334a Information provision unit

Claims (8)

対象者に身に付けられた生体センサで取得された前記対象者の生体に関する生体データにより得られる自律神経系の活動を表す指標である心拍変動パラメータに基づいて、少なくとも前記対象者のストレス度合いを可視化するための情報を含む表示情報を生成し、生成した前記表示情報を、前記対象者が操作するユーザ装置、又は、前記対象者に関連するユーザが操作するユーザ装置に提供する提供部、
を備える情報提供装置。
Based on the heart rate variability parameter, which is an index representing the activity of the autonomic nervous system obtained from biometric data relating to the body of the subject obtained by a biosensor worn by the subject, at least the degree of stress of the subject is determined. a providing unit that generates display information including information for visualization, and provides the generated display information to a user device operated by the subject or a user device operated by a user related to the subject;
An information providing device.
前記提供部は、前記対象者のストレス度合いを表す画像情報と、前記対象者のストレス度合いに応じたアドバイスとを含む前記表示情報を、前記対象者が操作するユーザ装置に提供する、
請求項1に記載の情報提供装置。
The providing unit provides the display information including image information representing the degree of stress of the subject and advice according to the degree of stress of the subject to the user device operated by the subject.
The information providing device according to claim 1.
前記対象者に関連するユーザは、コミュニティサービスにおいて互いの状況を閲覧可能となっているユーザであり、
前記提供部は、前記対象者のストレス度合いを表す画像情報を含む前記表示情報を、前記対象者に関連するユーザが操作するユーザ装置に提供する、
請求項1又は2に記載の情報提供装置。
The user related to the target person is a user who can view each other's situation in the community service,
The providing unit provides the display information including image information representing the degree of stress of the subject to a user device operated by a user associated with the subject.
The information providing device according to claim 1 or 2.
前記心拍変動パラメータを用いて、前記対象者のストレス度合いを表す感情を推定する感情推定部をさらに備え、
前記感情推定部は、前記心拍変動パラメータの値と、感情に対応付けられた心拍変動パラメータの値とを比較して前記対象者の感情を推定する、
請求項1から3のいずれか一項に記載の情報提供装置。
further comprising an emotion estimating unit that estimates an emotion representing the degree of stress of the subject using the heart rate variability parameter;
The emotion estimation unit estimates the emotion of the subject by comparing the value of the heart rate variability parameter and the value of the heart rate variability parameter associated with the emotion.
The information providing device according to any one of claims 1 to 3.
前記心拍変動パラメータには、少なくともSDNN(Standard Deviation of the Normal to Normal Interval)、RMSSD(Root Mean Square of the Successive Differences)又はCVSD(Coefficient of variation of successive differences equal to the rmssd divided by mean_nni)のいずれかが含まれ、
前記感情推定部は、前記SDNN、前記RMSSD又は前記CVSDのいずれかの値と、感情に対応付けられたSDNN、RMSSD又はCVSDのいずれかの値とを比較して、類似する値に対応付けられた感情を、前記対象者の感情として推定する、
請求項4に記載の情報提供装置。
The heart rate variability parameter includes at least one of SDNN (Standard Deviation of the Normal to Normal Interval), RMSSD (Root Mean Square of the Successive Differences), or CVSD (Coefficient of variation of successive differences equal to the rmssd divided by mean_nni). includes
The emotion estimation unit compares the value of any one of the SDNN, the RMSSD, or the CVSD with the value of any one of the SDNN, RMSSD, or CVSD associated with the emotion, and estimating the emotion as the subject's emotion,
5. The information providing device according to claim 4.
前記心拍変動パラメータを用いて、前記対象者のストレス度合いを表す感情を推定する感情推定部をさらに備え、
前記感情推定部は、前記心拍変動パラメータを入力して、感情の情報を出力するように構成された学習済みモデルを用いて前記対象者の感情を推定する、
請求項1から3のいずれか一項に記載の情報提供装置。
further comprising an emotion estimating unit that estimates an emotion representing the degree of stress of the subject using the heart rate variability parameter;
The emotion estimating unit inputs the heart rate variability parameter and estimates the subject's emotion using a trained model configured to output emotion information.
The information providing device according to any one of claims 1 to 3.
対象者に身に付けられた生体センサで取得された前記対象者の生体に関する生体データにより得られる自律神経系の活動を表す指標である心拍変動パラメータに基づいて、少なくとも前記対象者のストレス度合いを可視化するための情報を含む表示情報を生成し、生成した前記表示情報を、前記対象者が操作するユーザ装置、又は、前記対象者に関連するユーザが操作するユーザ装置に提供する情報提供方法。 Based on the heart rate variability parameter, which is an index representing the activity of the autonomic nervous system obtained from biometric data relating to the body of the subject obtained by a biosensor worn by the subject, at least the degree of stress of the subject is determined. An information providing method for generating display information including information for visualization, and providing the generated display information to a user device operated by the subject or a user device operated by a user related to the subject. 対象者に身に付けられた生体センサで取得された前記対象者の生体に関する生体データにより得られる自律神経系の活動を表す指標である心拍変動パラメータに基づいて、少なくとも前記対象者のストレス度合いを可視化するための情報を含む表示情報を生成し、生成した前記表示情報を、前記対象者が操作するユーザ装置、又は、前記対象者に関連するユーザが操作するユーザ装置に提供する提供ステップ、
をコンピュータに実行させるためのコンピュータプログラム。
Based on the heart rate variability parameter, which is an index representing the activity of the autonomic nervous system obtained from biometric data relating to the body of the subject obtained by a biosensor worn by the subject, at least the degree of stress of the subject is determined. A providing step of generating display information including information for visualization, and providing the generated display information to a user device operated by the subject or a user device operated by a user related to the subject;
A computer program that causes a computer to execute
JP2021176155A 2021-10-28 2021-10-28 Information provision device, information provision method, and computer program Pending JP2023065808A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021176155A JP2023065808A (en) 2021-10-28 2021-10-28 Information provision device, information provision method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021176155A JP2023065808A (en) 2021-10-28 2021-10-28 Information provision device, information provision method, and computer program

Publications (1)

Publication Number Publication Date
JP2023065808A true JP2023065808A (en) 2023-05-15

Family

ID=86322381

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021176155A Pending JP2023065808A (en) 2021-10-28 2021-10-28 Information provision device, information provision method, and computer program

Country Status (1)

Country Link
JP (1) JP2023065808A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7344423B1 (en) * 2023-06-08 2023-09-14 ロゴスサイエンス株式会社 Healthcare system and methods

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7344423B1 (en) * 2023-06-08 2023-09-14 ロゴスサイエンス株式会社 Healthcare system and methods

Similar Documents

Publication Publication Date Title
US20210267514A1 (en) Method and apparatus for monitoring emotional compatibility in online dating
US11160479B2 (en) Information processing device and control method
US9313634B2 (en) Information processing device, control method, and a non-transitory computer readable storage medium
Ciman et al. Individuals’ stress assessment using human-smartphone interaction analysis
US6878111B2 (en) System for measuring subjective well being
WO2017033697A1 (en) Lifestyle management assistance device and lifestyle management assistance method
CN103702609A (en) Bio signal based mobile device applications
GB2478034A (en) Systems for inducing change in a human physiological characteristic representative of an emotional state
GB2478035A (en) Systems for inducing change in a human physiological characteristic representative of an emotional state
JP6952257B2 (en) Information processing device for content presentation, control method of information processing device, and control program
Wittenberg et al. Validation of a model of family caregiver communication types and related caregiver outcomes
JP6930277B2 (en) Presentation device, presentation method, communication control device, communication control method and communication control system
JP4609475B2 (en) Information processing apparatus, information processing method, and recording medium
JP2013066672A (en) Training support system
JP2023065808A (en) Information provision device, information provision method, and computer program
JP7205528B2 (en) emotion estimation system
CN109067830A (en) Information push method, device and terminal
JP7452898B2 (en) Information processing device and program
WO2022102721A1 (en) Depression-state-determining program
WO2021053964A1 (en) Information processing device and information processing program
JP2018138155A (en) Emotion estimation server device, emotion estimation method, presentation device and emotion estimation system
US20210097631A1 (en) Systems and methods of generating consciousness affects
JP2019022540A (en) Program, information processor, and stress evaluation method
Zeyda et al. Your body tells more than words–Predicting perceived meeting productivity through body signals
Whang The emotional computer adaptive to human emotion

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20211028