JP2020052847A - Emotion management system, emotion management method and program - Google Patents

Emotion management system, emotion management method and program Download PDF

Info

Publication number
JP2020052847A
JP2020052847A JP2018182932A JP2018182932A JP2020052847A JP 2020052847 A JP2020052847 A JP 2020052847A JP 2018182932 A JP2018182932 A JP 2018182932A JP 2018182932 A JP2018182932 A JP 2018182932A JP 2020052847 A JP2020052847 A JP 2020052847A
Authority
JP
Japan
Prior art keywords
emotion
information
target person
unit
situation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018182932A
Other languages
Japanese (ja)
Inventor
幸嗣 瓜生
Yukitsugu Uryu
幸嗣 瓜生
川口 健一
Kenichi Kawaguchi
健一 川口
公彦 中務
Kimihiko Nakatsukasa
公彦 中務
光司 橘田
Koji Kitsuta
光司 橘田
村嶋 祐二
Yuji Murashima
祐二 村嶋
健介 水原
Kensuke Mizuhara
健介 水原
未佳 砂川
Mika Sunagawa
未佳 砂川
隆志 佐々木
Takashi Sasaki
隆志 佐々木
亜珠沙 門村
Azusa Kadomura
亜珠沙 門村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2018182932A priority Critical patent/JP2020052847A/en
Publication of JP2020052847A publication Critical patent/JP2020052847A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an emotion management system, an emotion management method and a program for allowing more detailed identification of an emotion.SOLUTION: An emotion management system 1 comprises: an emotion acquisition part; a situation acquisition part: and an association part. The emotion acquisition part acquires emotion information I1 regarding an emotion of an object person U1. The situation acquisition part acquires situation information I2 of a surrounding situation of the object person U1 when the emotion information I1 is acquired. The association part associates the emotion information I1 with the situation information I2.SELECTED DRAWING: Figure 1

Description

本開示は、一般に感情管理システム、感情管理方法及びプログラムに関し、より詳細には対象者の感情を管理するための感情管理システム、感情管理方法及びプログラムに関する。   The present disclosure relates generally to an emotion management system, an emotion management method, and a program, and more particularly, to an emotion management system, an emotion management method, and a program for managing an emotion of a subject.

特許文献1には、対象者を撮像した画像から認識される対象者の表情に基づいて、対象者の感情を推定する感情推定装置が記載されている。   Patent Literature 1 describes an emotion estimation device that estimates an emotion of a target person based on a facial expression of the target person recognized from an image of the target person.

特許文献1に記載の感情推定装置では、対象者を時系列で撮影した複数の画像のそれぞれから対象者の表情を認識し、その認識結果である時系列データから、対象者の表情の時間的変化に関わる特徴を検出する。そして、感情推定装置は、検出された特徴に基づいて、対象者が推定対象期間のあいだに抱いた感情を推定する。   The emotion estimation device described in Patent Literature 1 recognizes a facial expression of a target person from each of a plurality of images taken in a time series of the target person, and obtains a temporal expression of the facial expression of the target person from time-series data as a result of the recognition. Detect changes related features. Then, the emotion estimation device estimates the emotion held by the target person during the estimation target period based on the detected features.

特開2016−149063号公報JP-A-2006-149063

しかし、特許文献1に記載の構成では、対象者を撮像した画像から、対象者の感情を、真顔、喜び、怒り、嫌悪、驚き、怖れ及び悲しみに分類するに過ぎず、より詳細な感情の特定が望まれることがある。   However, the configuration described in Patent Document 1 merely classifies the emotion of the target person into a true face, joy, anger, disgust, surprise, fear, and sadness from an image of the target person, and provides more detailed emotions. May be desired.

本開示は上記事由に鑑みてなされており、より詳細な感情の特定を可能とする感情管理システム、感情管理方法及びプログラムを提供することを目的とする。   The present disclosure has been made in view of the above circumstances, and it is an object of the present disclosure to provide an emotion management system, an emotion management method, and a program that can specify emotion in more detail.

本開示の一態様に係る感情管理システムは、感情取得部と、状況取得部と、対応付部と、を備える。前記感情取得部は、対象者の感情に関する感情情報を取得する。前記状況取得部は、前記感情情報を取得したときの前記対象者の周辺状況に関する状況情報を取得する。前記対応付部は、前記感情情報と前記状況情報とを対応付ける。   An emotion management system according to an aspect of the present disclosure includes an emotion acquisition unit, a situation acquisition unit, and an association unit. The emotion acquisition unit acquires emotion information about the emotion of the target person. The situation acquisition unit acquires situation information about a surrounding situation of the subject at the time of acquiring the emotion information. The association unit associates the emotion information with the situation information.

本開示の一態様に係る感情管理方法は、感情取得処理と、状況取得処理と、対応付処理と、を有する。前記感情取得処理は、対象者の感情に関する感情情報を取得する処理である。前記状況取得処理は、前記感情情報を取得したときの前記対象者の周辺状況に関する状況情報を取得する処理である。前記対応付処理は、前記感情情報と前記状況情報とを対応付ける処理である。   An emotion management method according to an aspect of the present disclosure includes an emotion acquisition process, a situation acquisition process, and an association process. The emotion acquisition process is a process of acquiring emotion information about the emotion of the target person. The situation acquisition process is a process of acquiring situation information relating to a surrounding situation of the subject at the time of acquiring the emotion information. The associating process is a process of associating the emotion information with the situation information.

本開示の一態様に係るプログラムは、1以上のプロセッサに、前記感情管理方法を実行させるためのプログラムである。   A program according to one embodiment of the present disclosure is a program for causing one or more processors to execute the emotion management method.

本開示によれば、より詳細な感情の特定が可能である、という利点がある。   According to the present disclosure, there is an advantage that more detailed emotion can be specified.

図1は、実施形態1に係る感情管理システムの使用例を示す概念図である。FIG. 1 is a conceptual diagram illustrating a usage example of the emotion management system according to the first embodiment. 図2は、同上の感情管理システムのブロック図である。FIG. 2 is a block diagram of the emotion management system according to the first embodiment. 図3Aは、同上の感情管理システムのウェアラブル端末の装着例を示す概略図である。図3Bは、図3Aの領域Z1内の概略構成を表す概略図である。FIG. 3A is a schematic diagram showing an example of wearing a wearable terminal of the emotion management system of the above. FIG. 3B is a schematic diagram illustrating a schematic configuration in a region Z1 of FIG. 3A. 図4は、同上の感情管理システムの動作例を示すフローチャートである。FIG. 4 is a flowchart showing an operation example of the emotion management system according to the first embodiment. 図5は、同上の感情管理システムを用いたコミュニケーション支援の場面を示す概念図である。FIG. 5 is a conceptual diagram showing a scene of communication support using the emotion management system of the above. 図6は、同上の感情管理システムを用いたリコメンドの場面を示す概念図である。FIG. 6 is a conceptual diagram showing a recommendation scene using the above emotion management system. 図7Aは、実施形態1の変形例に係る感情管理システムのウェアラブル端末の装着例を示す概略図である。図7Bは、図7Aの領域Z1内の概略構成を表す概略図である。FIG. 7A is a schematic diagram illustrating a mounting example of a wearable terminal of the emotion management system according to the modification of the first embodiment. FIG. 7B is a schematic diagram illustrating a schematic configuration in a region Z1 of FIG. 7A. 図8は、実施形態2に係る感情管理システムのブロック図である。FIG. 8 is a block diagram of the emotion management system according to the second embodiment. 図9は、同上の感情管理システムを用いた出会いの演出の場面を示す概念図である。FIG. 9 is a conceptual diagram showing a scene of a production of an encounter using the emotion management system according to the first embodiment. 図10は、同上の感情管理システムを用いた出会いの演出の場面を示す概略図である。FIG. 10 is a schematic diagram showing a scene of a presentation of an encounter using the emotion management system of the above.

(実施形態1)
(1)概要
本実施形態に係る感情管理システム1は、図1に示すように、対象者U1の感情を管理するためのシステムである。本開示でいう「感情」は、例えば、喜怒哀楽及び好悪等の、物事に感じて起こる気持ちを意味し、情動、気分及び情操等を含む。
(Embodiment 1)
(1) Overview As shown in FIG. 1, the emotion management system 1 according to the present embodiment is a system for managing the emotion of the target person U1. “Emotions” in the present disclosure means, for example, emotions caused by feeling things, such as emotions, emotions, and evils, and includes emotions, moods, and emotions.

特に、本実施形態に係る感情管理システム1は、特定のシーンにおける感情だけでなく、対象者U1が普段の生活の中で抱く様々な感情を管理する。つまり、対象者U1は、普段から例えば、驚き、喜び、退屈、悲しみ、恐れ、嫌悪及び愛好等の様々な感情を抱いて生活している。本実施形態に係る感情管理システム1では、対象者U1に極力意識させない形で、このように、対象者U1が普段の生活で抱く様々な感情を管理する。   In particular, the emotion management system 1 according to the present embodiment manages not only emotions in a specific scene, but also various emotions that the subject U1 has in his or her daily life. That is, the target person U1 usually lives with various emotions such as surprise, joy, boredom, sadness, fear, disgust, and love. The emotion management system 1 according to the present embodiment manages various emotions that the subject U1 has in his or her daily life in a manner that minimizes the awareness of the subject U1.

本実施形態に係る感情管理システム1は、図2に示すように、感情取得部22と、状況取得部21と、対応付部24と、を備えている。感情取得部22は、対象者U1の感情に関する感情情報I1を取得する。状況取得部21は、感情情報I1を取得したときの対象者U1の周辺状況に関する状況情報I2を取得する。対応付部24は、感情情報I1と状況情報I2とを対応付ける。本開示でいう「対応付ける」は、2つ以上の物について、対応する関係にある状態、つまり相対する関係にある状態とすること、を意味する。よって、感情管理システム1では、感情取得部22で取得される「感情情報」と、状況取得部21で取得される「状況情報」と、は相対する関係となる。また、本開示でいう「周辺状況」は、対象者U1の周辺の状況を意味し、例えば、対象者U1から見える対象者U1の周囲の映像、又は対象者U1に聞こえている対象者U1の周囲の音等を含む。つまり、対象者U1が話し相手と向かい合って会話している場面においては、話し相手の容姿、視線、表情、音声、ジェスチャ及び行動等についても、対象者U1の周辺状況に含まれる。   As shown in FIG. 2, the emotion management system 1 according to the present embodiment includes an emotion acquisition unit 22, a situation acquisition unit 21, and an association unit 24. The emotion acquisition unit 22 acquires the emotion information I1 regarding the emotion of the target person U1. The situation acquisition unit 21 acquires situation information I2 relating to the surrounding situation of the subject U1 at the time of acquiring the emotion information I1. The association unit 24 associates the emotion information I1 with the situation information I2. “Associating” in the present disclosure means that two or more objects are in a state of a corresponding relationship, that is, a state of an opposing relationship. Therefore, in the emotion management system 1, “emotion information” acquired by the emotion acquisition unit 22 and “situation information” acquired by the situation acquisition unit 21 have a relative relationship. In addition, the “peripheral situation” in the present disclosure means a situation around the subject U1, for example, an image around the subject U1 seen from the subject U1, or the subject U1 being heard by the subject U1. Including surrounding sounds. In other words, in a scene where the target person U1 is talking face-to-face with the talk partner, the appearance, gaze, facial expression, voice, gesture, behavior, and the like of the talk partner are also included in the surrounding situation of the target person U1.

上述した構成によれば、感情管理システム1は、ある瞬間の対象者U1の感情に関する感情情報I1に、そのときの対象者U1の周辺状況に関する状況情報I2が対応付けられた状態で管理される。これにより、感情管理システム1は、例えば、対象者U1が何を見て喜んでいるのか、又は対象者U1が何を聞いて驚いているのか等、対象者U1の感情を、そのときの対象者U1の周辺状況と対応付けて管理することができる。そのため、感情管理システム1によれば、対象者U1の感情のみではなく、対象者U1がそのような感情を抱く背景となる状況をも、感情とセットで管理することができる。したがって、本実施形態に係る感情管理システム1では、例えば、単に対象者U1の感情を、驚き、喜び、退屈、悲しみ、恐れ、嫌悪及び愛好等に分類するだけでなく、そのときの状況も含めて、より詳細な感情の特定が可能になる。   According to the above-described configuration, the emotion management system 1 is managed in a state where the emotion information I1 regarding the emotion of the target person U1 at a certain moment is associated with the situation information I2 regarding the surrounding situation of the target person U1 at that moment. . This allows the emotion management system 1 to display the emotions of the subject U1 such as, for example, what the subject U1 sees and is pleased with, or what the subject U1 is surprised by hearing. It can be managed in association with the surrounding situation of the person U1. Therefore, according to the emotion management system 1, not only the emotion of the target person U1 but also the situation that the background of the target person U1 has such an emotion can be managed together with the emotion. Therefore, in the emotion management system 1 according to the present embodiment, for example, the emotions of the target person U1 are not only classified into surprise, joy, boredom, sadness, fear, disgust, love, etc., but also include the situation at that time. Therefore, it is possible to specify emotions in more detail.

(2)構成
以下、本実施形態に係る感情管理システム1の構成について、図1〜図3Bを参照して説明する。
(2) Configuration Hereinafter, the configuration of the emotion management system 1 according to the present embodiment will be described with reference to FIGS. 1 to 3B.

以下では、感情管理システム1が特定の場所だけでなく、屋外を含めて様々な場所で用いられる場合を例として説明する。ここでは、一例として、感情管理システム1は、対象者U1の人体の一部に装着されるウェアラブル端末2を備えている。これにより、対象者U1は、様々な場所に居ながらも、感情管理システム1によるサービスをウェアラブル端末2にて受けることが可能である。特に、以下の説明では、老若男女、国籍等を問わず、不特定多数の対象者U1が、普段から、ウェアラブル端末2を装着して生活していることを前提とする。   Hereinafter, a case where the emotion management system 1 is used not only in a specific place but also in various places including outdoors will be described as an example. Here, as an example, the emotion management system 1 includes a wearable terminal 2 that is worn on a part of the human body of the target person U1. Thus, the target person U1 can receive the service provided by the emotion management system 1 on the wearable terminal 2 while staying in various places. In particular, in the following description, it is assumed that an unspecified number of subjects U1 usually wear and wear the wearable terminal 2 regardless of age, gender, nationality, and the like.

(2.1)全体構成
まず、本実施形態に係る感情管理システム1の全体構成について説明する。
(2.1) Overall Configuration First, the overall configuration of the emotion management system 1 according to the present embodiment will be described.

本実施形態に係る感情管理システム1は、ウェアラブル端末2と、上位システム3と、を備えている。本実施形態では、感情管理システム1は、1台の上位システム3と、複数台(多数台)のウェアラブル端末2と、を備えている。   The emotion management system 1 according to the present embodiment includes a wearable terminal 2 and a host system 3. In the present embodiment, the emotion management system 1 includes one host system 3 and a plurality of (many) wearable terminals 2.

以下、感情管理システム1に含まれる複数台のウェアラブル端末2をまとめて「端末群20」ともいう。言い換えれば、感情管理システム1は、上位システム3と、複数台のウェアラブル端末2からなる端末群20と、を備えている。本実施形態では、端末群20を構成する複数台のウェアラブル端末2は共通の構成を採用している。そのため、以下では、特に断りが無い限り、端末群20を構成する複数台のウェアラブル端末2のうちの1台のウェアラブル端末2を例に説明するが、他のウェアラブル端末2にも同様の構成が採用される。   Hereinafter, the plurality of wearable terminals 2 included in the emotion management system 1 are collectively referred to as a “terminal group 20”. In other words, the emotion management system 1 includes the host system 3 and a terminal group 20 including a plurality of wearable terminals 2. In the present embodiment, a plurality of wearable terminals 2 constituting the terminal group 20 adopt a common configuration. Therefore, in the following, unless otherwise specified, one wearable terminal 2 of the plurality of wearable terminals 2 constituting the terminal group 20 will be described as an example, but a similar configuration is applied to other wearable terminals 2. Adopted.

上位システム3とウェアラブル端末2とは、互いに通信可能に構成されている。本開示において「通信可能」とは、有線通信又は無線通信の適宜の通信方式により、直接的、又はネットワーク若しくは中継器等を介して間接的に、情報を授受できることを意味する。すなわち、上位システム3とウェアラブル端末2とは、互いに情報を授受することができる。本実施形態では、上位システム3とウェアラブル端末2とは、互いに双方向に通信可能であって、上位システム3からウェアラブル端末2への情報の送信、及びウェアラブル端末2から上位システム3への情報の送信の両方が可能である。ここでは、上位システム3とウェアラブル端末2とは、例えば、インターネット等のネットワーク4に接続されており、ネットワーク4を介して間接的に情報を授受する。   The host system 3 and the wearable terminal 2 are configured to be able to communicate with each other. In the present disclosure, “communicable” means that information can be exchanged directly or indirectly via a network or a relay device by an appropriate communication method of wired communication or wireless communication. That is, the upper system 3 and the wearable terminal 2 can exchange information with each other. In the present embodiment, the host system 3 and the wearable terminal 2 can communicate with each other bidirectionally, and transmit information from the host system 3 to the wearable terminal 2 and transmit information from the wearable terminal 2 to the host system 3. Both transmissions are possible. Here, the host system 3 and the wearable terminal 2 are connected to a network 4 such as the Internet, for example, and exchange information indirectly via the network 4.

ウェアラブル端末2は、対象者U1に関連する種々の情報を上位システム3に出力したり、上位システム3からの指示を受けて種々の情報を対象者U1に出力したりする、インタフェースとしての機能を有している。そのため、ウェアラブル端末2は、個々の対象者U1に装着されている。   The wearable terminal 2 has a function as an interface that outputs various information related to the subject U1 to the host system 3 or outputs various information to the subject U1 in response to an instruction from the host system 3. Have. Therefore, the wearable terminal 2 is attached to each of the target persons U1.

本開示でいう「ウェアラブル端末」は、通信機能及び情報処理の機能を有するコンピュータ端末のうち、単に持ち運べる端末とは異なり、対象者U1が身に着けた状態で使用可能な端末である。ウェアラブル端末2には、例えば、耳掛け型、腕時計型(スマートウォッチ)、眼鏡型(スマートグラス)、指輪型、靴型、懐中型及びペンダント型等がある。本実施形態では一例として、図1に示すように、ウェアラブル端末2が耳掛け型である場合について説明する。すなわち、ウェアラブル端末2は、人体の一部P1である対象者U1の「耳」に装着される。   The “wearable terminal” in the present disclosure is a computer terminal having a communication function and an information processing function, which is different from a simply portable terminal and is a terminal that can be used while worn by the subject U1. The wearable terminal 2 includes, for example, an ear hanging type, a watch type (smart watch), an eyeglass type (smart glass), a ring type, a shoe type, a pocket type, a pendant type, and the like. In the present embodiment, as an example, a case where the wearable terminal 2 is an ear-hook type as shown in FIG. 1 will be described. That is, the wearable terminal 2 is attached to the “ear” of the subject U1 which is a part P1 of the human body.

ウェアラブル端末2は、図2に示すように、感情取得部22と、状況取得部21と、対応付部24と、を備えている。本実施形態では、ウェアラブル端末2は、感情取得部22、状況取得部21及び対応付部24に加えて、出力部23、処理部25及び下位通信部26を更に有している。   The wearable terminal 2 includes an emotion acquisition unit 22, a situation acquisition unit 21, and an association unit 24, as shown in FIG. In the present embodiment, the wearable terminal 2 further includes an output unit 23, a processing unit 25, and a lower communication unit 26, in addition to the emotion acquisition unit 22, the situation acquisition unit 21, and the association unit 24.

ウェアラブル端末2は、メモリ及びプロセッサを含むコンピュータシステムを主構成とする。すなわち、コンピュータシステムのメモリに記録されたプログラムを、プロセッサが実行することにより、ウェアラブル端末2の各部(状況取得部21、感情取得部22、出力部23、対応付部24及び処理部25等)の機能が実現される。プログラムはメモリに予め記録されていてもよいし、インターネット等の電気通信回線を通して提供されてもよく、メモリカード等の非一時的記録媒体に記録されて提供されてもよい。   The wearable terminal 2 mainly has a computer system including a memory and a processor. That is, when the processor executes the program recorded in the memory of the computer system, each unit of the wearable terminal 2 (the situation acquisition unit 21, the emotion acquisition unit 22, the output unit 23, the association unit 24, the processing unit 25, and the like). Function is realized. The program may be recorded in a memory in advance, may be provided through an electric communication line such as the Internet, or may be recorded in a non-transitory recording medium such as a memory card and provided.

感情取得部22は、対象者U1の感情に関する感情情報I1を取得する。本実施形態では、感情取得部22は、脳波センサ221及び脈拍センサ222を含んでいる。感情取得部22は、これらの脳波センサ221及び脈拍センサ222で取得した対象者U1の生体情報(脳波情報及び脈拍情報)に基づいて、対象者U1の感情に関する感情情報I1を推定することで、感情情報I1を取得する。   The emotion acquisition unit 22 acquires the emotion information I1 regarding the emotion of the target person U1. In the present embodiment, the emotion acquisition unit 22 includes an electroencephalogram sensor 221 and a pulse sensor 222. The emotion acquiring unit 22 estimates the emotion information I1 relating to the emotion of the subject U1 based on the biological information (the brain wave information and the pulse information) of the subject U1 acquired by the brain wave sensor 221 and the pulse sensor 222, Acquire emotion information I1.

脳波センサ221は、対象者U1の脳波を検知するためのセンサである。脳波センサ221は、対象者U1の頭部の一部である測定箇所に配置される電極にて採取される脳波を表す脳波情報を取得する。本開示でいう「脳波」(Electroencephalogram:EEG)とは、大脳の神経細胞(群)の発する電気信号(活動電位)を体外に導出し、記録した波形を意味する。さらに、本開示でいう「脳波」は、脳磁計(Magnetoencephalography:MEG)によって測定される脳磁場から得られる脳波も含む。本開示においては、特に断りが無い限り、大脳皮質の多数のニューロン群(神経網)の総括的な活動電位を対象として、これを体表に装着した電極を用いて記録する頭皮上脳波を「脳波」という。   The brain wave sensor 221 is a sensor for detecting a brain wave of the subject U1. The electroencephalogram sensor 221 acquires electroencephalogram information representing electroencephalograms collected by electrodes arranged at measurement points that are part of the head of the subject U1. The term “encephalogram” (Electroencephalogram: EEG) as used in the present disclosure means a waveform in which an electrical signal (action potential) generated by nerve cells (group) of the cerebrum is derived outside the body and recorded. Further, the “encephalogram” in the present disclosure also includes an electroencephalogram obtained from a brain magnetic field measured by a magnetoencephalography (MEG). In the present disclosure, unless otherwise specified, the scalp electroencephalogram recording the action potential of a large number of neurons (nerve network) of the cerebral cortex using an electrode attached to the body surface is referred to as “ It is called "brain wave".

脈拍センサ222は、対象者U1の脈拍を検知するためのセンサである。脈拍センサ222は、対象者U1の頭部の一部である測定箇所に配置される電極にて採取される脈拍を表す脈拍情報を取得する。ただし、感情取得部22は、これらのセンサに限らず、例えば、対象者U1の耳に装着されるウェアラブル端末2以外のウェアラブル端末にて検知される対象者U1の心拍(心臓の拍動)等の情報を、生体情報として用いてもよい。   The pulse sensor 222 is a sensor for detecting the pulse of the subject U1. The pulse sensor 222 acquires pulse information representing a pulse collected by an electrode disposed at a measurement location that is a part of the head of the subject U1. However, the emotion acquisition unit 22 is not limited to these sensors. For example, the heart rate (beat of the heart) of the subject U1 detected by a wearable terminal other than the wearable terminal 2 worn on the ear of the subject U1 May be used as biological information.

感情取得部22は、これらの生体情報(脳波情報及び脈拍情報)に基づいて、リアルタイムで、対象者U1の感情の推定を行う。対象者U1の感情の推定には、一例として、ラッセル円環モデルと呼ばれる、人の感情の二次元モデルを用いた推定アルゴリズムを採用可能である。   The emotion acquiring unit 22 estimates the emotion of the subject U1 in real time based on the biological information (the brain wave information and the pulse information). For example, an estimation algorithm using a two-dimensional human emotion model called a Russell ring model can be used for estimating the emotion of the subject U1.

すなわち、一般的に、人は、覚醒、驚き、喜び、気楽、眠気、退屈、悲しみ、イライラ、怒り又は恐れというようなさまざまな感情を抱く。ラッセル円環モデルは、覚醒の度合いである覚醒感(Arousal Level)と、快適さの度合いである快適感(Valence Level)と、を2軸とする平面上に、人が抱く様々な感情が配置したモデルである。人の感情は、このような平面において円環状に配置され得ることが知られている。そこで、感情取得部22は、例えば、対象者U1の脳波及び脈拍に基づいて、まずは対象者U1の覚醒の度合いを示す覚醒感と、対象者U1の快適さの度合いを示す快適感とを算出する。感情取得部22は、このように算出される覚醒感及び快適感から、対象者U1の感情を推定可能である。このとき、人の覚醒の度合い及び快適さの度合いと人の感情との対応関係に基づいて、対象者U1の感情が推定される。人の覚醒の度合い及び快適さの度合いと人の感情との対応関係は、例えば、ラッセル円環モデルに相当し、メモリに記憶されている。   That is, in general, a person has various emotions such as arousal, surprise, joy, comfort, drowsiness, boredom, sadness, frustration, anger, or fear. In the Russell ring model, various emotions held by a person are arranged on a plane having two axes, a feeling of arousal (Arousal Level) which is a degree of arousal and a feeling of comfort (Valence Level) which is a degree of comfort. Model. It is known that human emotions can be arranged in an annular shape in such a plane. Therefore, based on, for example, the electroencephalogram and the pulse of the subject U1, the emotion acquisition unit 22 first calculates the arousal feeling indicating the degree of awakening of the subject U1 and the comfort feeling indicating the degree of the comfort of the subject U1. I do. The emotion acquisition unit 22 can estimate the emotion of the subject U1 from the sense of arousal and the feeling of comfort calculated in this way. At this time, the emotion of the target person U1 is estimated based on the correspondence between the degree of arousal and the degree of comfort of the person and the emotion of the person. The correspondence between the degree of arousal and the degree of comfort of the person and the emotion of the person corresponds to, for example, a Russell ring model and is stored in a memory.

状況取得部21は、感情情報I1を取得したときの対象者U1の周辺状況に関する状況情報I2を取得する。本実施形態では、状況取得部21は、カメラ211、マイクロフォン212及び視線センサ213を含んでいる。状況取得部21は、これらのカメラ211、マイクロフォン212及び視線センサ213で取得した対象者U1の周辺の情報に基づいて、対象者U1の周辺状況に関する状況情報I2を推定することで、状況情報I2を取得する。   The situation acquisition unit 21 acquires situation information I2 relating to the surrounding situation of the subject U1 at the time of acquiring the emotion information I1. In the present embodiment, the situation acquisition unit 21 includes a camera 211, a microphone 212, and a line-of-sight sensor 213. The situation acquiring unit 21 estimates the situation information I2 related to the surrounding situation of the subject U1 based on the surrounding information of the subject U1 acquired by the camera 211, the microphone 212, and the line-of-sight sensor 213, thereby obtaining the situation information I2. To get.

カメラ211は、対象者U1から見える対象者U1の周囲の映像を撮像し、画像信号に変換する。マイクロフォン212は、対象者U1に聞こえている対象者U1の周囲の音を取得し、音声信号に変換する。視線センサ213は、対象者U1の視線の方向を検知する。視線センサ213は、一例として、対象者U1の眼電位に基づいて、対象者U1の視線の方向を推定する。本開示でいう「眼電位」とは、眼球の角膜側と網膜側との間に生じている数十mVの電位差であって、眼球運動等に起因して変化する。そのため、例えば、視線センサ213は、対象者U1の体表に装着した電極を用いて眼電位を測定することにより、対象者U1の視線の方向を推定する。   The camera 211 captures an image around the target person U1 viewed from the target person U1, and converts the image into an image signal. The microphone 212 acquires sounds around the subject U1 that are heard by the subject U1, and converts the sounds into audio signals. The line-of-sight sensor 213 detects the direction of the line of sight of the subject U1. The line-of-sight sensor 213 estimates the direction of the line of sight of the subject U1, for example, based on the electrooculogram of the subject U1. The “ocular potential” in the present disclosure is a potential difference of several tens of mV generated between the cornea side and the retina side of the eyeball, and changes due to eye movement or the like. Therefore, for example, the line-of-sight sensor 213 estimates the direction of the line of sight of the subject U1 by measuring the electro-oculogram using an electrode attached to the body surface of the subject U1.

状況取得部21は、カメラ211、マイクロフォン212及び視線センサ213等の検知結果に基づいて、リアルタイムで、対象者U1の周辺状況の推定を行う。特に、本実施形態では、状況取得部21は、少なくとも感情取得部22で取得される対象者U1の感情に変化があったときに、対象者U1の周辺状況の推定を行う。   The situation acquisition unit 21 estimates the surrounding situation of the subject U1 in real time based on the detection results of the camera 211, the microphone 212, the line-of-sight sensor 213, and the like. In particular, in the present embodiment, when at least the emotion of the subject U1 acquired by the emotion acquiring unit 22 changes, the situation acquiring unit 21 estimates the surrounding situation of the subject U1.

本実施形態では、このような構成の状況取得部21は、人体(対象者U1)の一部P1(ここでは耳)に装着されるウェアラブル端末2に搭載されている。言い換えれば、ウェアラブル端末2は、少なくとも状況取得部21としての機能を有している。そのため、状況取得部21は、対象者U1目線で、対象者U1が実際に見聞きしている情報に近い情報を、状況情報I2として取得しやすくなる。   In the present embodiment, the situation obtaining unit 21 having such a configuration is mounted on the wearable terminal 2 that is mounted on a part P1 (here, an ear) of a human body (subject U1). In other words, the wearable terminal 2 has at least a function as the situation acquisition unit 21. Therefore, the situation acquisition unit 21 can easily acquire, as the situation information I2, information close to the information that the subject U1 actually sees and hears from the perspective of the subject U1.

対応付部24は、感情情報I1と状況情報I2とを対応付ける。すなわち、対応付部24は、感情取得部22で取得された感情情報I1と、状況取得部21で取得された状況情報I2と、の紐付けを行う。ここで、対応付部24は、ある感情情報I1を感情取得部22が取得したときに、状況取得部21で取得された状況情報I2を、この感情情報I1と対応付ける。つまり、対応付部24では、略同一のタイミングで取得された感情情報I1と状況情報I2とが対応付けられる(紐付けられる)。   The association unit 24 associates the emotion information I1 with the situation information I2. That is, the association unit 24 associates the emotion information I1 acquired by the emotion acquisition unit 22 with the situation information I2 acquired by the situation acquisition unit 21. Here, the association unit 24 associates the situation information I2 acquired by the situation acquisition unit 21 with the emotion information I1 when the emotion acquisition unit 22 acquires certain emotion information I1. That is, in the associating unit 24, the emotion information I1 and the status information I2 acquired at substantially the same timing are associated (associated).

出力部23は、対象者U1に対して種々の情報を出力する。本実施形態では、出力部23は、骨伝導スピーカ231及びバイブレータ232を含んでいる。骨伝導スピーカ231は、骨伝導により、対象者U1に向けて音を出力する。バイブレータ232は、それ自体が振動することで、対象者U1に対して通知等を行う。出力部23は、骨伝導スピーカ231及びバイブレータ232に限らず、例えば、表示灯又はスピーカ等を有していてもよい。   The output unit 23 outputs various information to the subject U1. In the present embodiment, the output unit 23 includes a bone conduction speaker 231 and a vibrator 232. The bone conduction speaker 231 outputs a sound toward the subject U1 by bone conduction. The vibrator 232 itself notifies the target person U1 by vibrating. The output unit 23 is not limited to the bone conduction speaker 231 and the vibrator 232, and may include, for example, an indicator light or a speaker.

処理部25は、各種の情報処理を実行する。本実施形態では、例えば、対応付部24にて対応付けられる感情情報I1及び状況情報I2の前置処理等が、処理部25にて実行される。   The processing unit 25 executes various types of information processing. In the present embodiment, for example, the preprocessing of the emotion information I1 and the situation information I2 associated by the association unit 24 is performed by the processing unit 25.

下位通信部26は、直接的、又はネットワーク4若しくは中継器等を介して間接的に、上位システム3と通信する。下位通信部26と上位システム3との間の通信方式としては、無線通信又は有線通信の適宜の通信方式が採用される。ここでは、下位通信部26は、ネットワーク4に接続されており、ネットワーク4を介して、上位システム3と通信する。本実施形態では一例として、下位通信部26は、Wi-Fi(登録商標)、Bluetooth(登録商標)、ZigBee(登録商標)又は免許を必要としない小電力無線(特定小電力無線)等の規格に準拠した、電波を通信媒体として用いる無線通信を採用する。さらに、下位通信部26は、屋外においてネットワーク4に接続されることも想定されるため、例えば、通信事業者が提供する携帯電話網(キャリア網)又は公衆無線LAN(Local Area Network)を介してネットワークに接続されてもよい。携帯電話網には、例えば、3G(第3世代)回線、LTE(Long Term Evolution)回線等がある。   The lower communication unit 26 communicates with the upper system 3 directly or indirectly via the network 4 or a repeater. As a communication method between the lower communication unit 26 and the higher system 3, an appropriate communication method of wireless communication or wired communication is adopted. Here, the lower communication unit 26 is connected to the network 4 and communicates with the host system 3 via the network 4. In the present embodiment, as an example, the lower communication unit 26 conforms to a standard such as Wi-Fi (registered trademark), Bluetooth (registered trademark), ZigBee (registered trademark), or a low-power radio (specific low-power radio) that does not require a license. Wireless communication using radio waves as a communication medium is adopted. Furthermore, since it is assumed that the lower communication unit 26 is connected to the network 4 outdoors, for example, the lower communication unit 26 is connected via a mobile phone network (carrier network) or a public wireless LAN (Local Area Network) provided by a communication carrier. It may be connected to a network. The mobile phone network includes, for example, a 3G (third generation) line, an LTE (Long Term Evolution) line, and the like.

上位システム3は、図2に示すように、変換部31と、記録部32と、生成部33と、提供部34と、上位通信部35と、データベース36と、を有している。すなわち、本実施形態に係る感情管理システム1は、感情取得部22、状況取得部21及び対応付部24に加えて、変換部31、記録部32、生成部33及び提供部34を更に備えている。   As illustrated in FIG. 2, the host system 3 includes a conversion unit 31, a recording unit 32, a generation unit 33, a providing unit 34, a host communication unit 35, and a database 36. That is, the emotion management system 1 according to the present embodiment further includes a conversion unit 31, a recording unit 32, a generation unit 33, and a provision unit 34 in addition to the emotion acquisition unit 22, the status acquisition unit 21, and the association unit 24. I have.

上位システム3は、メモリ及びプロセッサを含むコンピュータシステムを主構成とする。すなわち、コンピュータシステムのメモリに記録されたプログラムを、プロセッサが実行することにより、上位システム3の各部(変換部31、記録部32、生成部33及び提供部34等)の機能が実現される。プログラムはメモリに予め記録されていてもよいし、インターネット等の電気通信回線を通して提供されてもよく、メモリカード等の非一時的記録媒体に記録されて提供されてもよい。   The host system 3 mainly has a computer system including a memory and a processor. That is, the functions of each unit (the conversion unit 31, the recording unit 32, the generation unit 33, the providing unit 34, and the like) of the host system 3 are realized by the processor executing the program stored in the memory of the computer system. The program may be recorded in a memory in advance, may be provided through an electric communication line such as the Internet, or may be recorded in a non-transitory recording medium such as a memory card and provided.

変換部31は、対応付部24で対応付けられた感情情報I1及び状況情報I2に基づいて、対象者U1から発せられて相手に届く言葉を変換する。ここでは、変換部31は、対象者U1が相手と会話している状況を前提として機能する。状況情報I2は相手情報を含んでいる。本開示でいう「相手情報」は、対象者U1が相手と会話している際における、相手に関する情報であって、一例として、相手の名前、容姿、国籍、感情、母国語、使用言語及び反応(表情及び感情を含む)等である。特に、本実施形態では、相手情報は、少なくとも対象者U1が相手と会話している際における、相手の反応と、会話の流れと、の少なくとも一方を含んでいる。   The conversion unit 31 converts words that are emitted from the target person U1 and reach the partner based on the emotion information I1 and the situation information I2 associated by the association unit 24. Here, the conversion unit 31 functions on the premise that the target person U1 is talking with the other party. The status information I2 includes partner information. “Other party information” in the present disclosure is information about the other party when the target person U1 is talking with the other party, and as an example, the name, appearance, nationality, emotion, native language, language used, and reaction of the other party. (Including facial expressions and emotions). In particular, in the present embodiment, the partner information includes at least one of a reaction of the partner and a flow of the conversation when the target person U1 is talking with the partner.

本開示でいう「会話」は、2人以上の人が向かい合って話し合うことだけでなく、チャット(Chat)のように、インターネット等のコンピュータネットワークを介してメッセージのやり取りを行って、2人以上の人が意思疎通を図ることも含む。つまり、本開示でいう「会話」には、音声による会話だけでなく、文字等を用いた言葉により、2人以上の人が意思伝達を行う行為全般を含む。また、本開示でいう「言葉」は、ある意味を表すために、口で言ったり文字で書いたりする、言語による表現全般を意味する。また、本開示でいう「会話の流れ」は、会話文の文脈、つまり会話文の文中での語の意味の続き具合を意味する。   The “conversation” referred to in the present disclosure is not only that two or more people talk face to face, but also that two or more people exchange messages via a computer network such as the Internet, such as chat. This also includes communication between people. In other words, the “conversation” in the present disclosure includes not only a conversation by voice but also an entire action in which two or more people communicate with each other using words using characters or the like. In addition, the “word” in the present disclosure means a general expression in a language, such as a word or a word, to express a certain meaning. In addition, the “flow of conversation” in the present disclosure means the context of the conversation sentence, that is, the continuation of the meaning of the word in the sentence of the conversation sentence.

すなわち、変換部31によれば、対象者U1が相手との会話の中で、何らかの言葉を発した場合に、この言葉が相手に届く前に変換部31にて変換され、変換後の言葉が相手に届くことになる。ここにおいて、変換部31は、感情情報I1及び状況情報I2に基づいて言葉の変換を行うので、相手に届く言葉を、対象者U1の感情及び対象者U1の周辺状況を反映した適切な言葉に近づけるような変換が可能である。例えば、対象者U1が、相手の母国語に合わせて、不慣れな外国語で会話するような場面において、対象者U1の意に反した不適切な言葉を、対象者U1が発してしまうことがある。このような場合に、変換部31では、対象者U1が発した不適切な言葉を、感情情報I1及び状況情報I2に基づいて自動的に適切な言葉に変換することが可能である。変換部31の動作について詳しくは、「(3.2.1)コミュニケーション支援」の欄で説明する。   That is, according to the conversion unit 31, when the target person U1 utters some words in a conversation with the other party, the words are converted by the conversion unit 31 before reaching the other party, and the converted words are converted. It will reach the other party. Here, since the conversion unit 31 converts the words based on the emotion information I1 and the situation information I2, the words reaching the partner are converted into appropriate words reflecting the emotions of the target person U1 and the surrounding conditions of the target person U1. It is possible to perform a conversion that approximates. For example, in a situation where the target person U1 speaks in an unfamiliar foreign language in accordance with the partner's native language, the target person U1 may emit inappropriate words contrary to the intention of the target person U1. is there. In such a case, the conversion unit 31 can automatically convert an inappropriate word uttered by the subject U1 into an appropriate word based on the emotion information I1 and the situation information I2. The operation of the conversion unit 31 will be described in detail in the section “(3.2.1) Communication support”.

記録部32は、対応付部24で対応付けられた感情情報I1及び状況情報I2をログ情報として記録する。つまり、ログ情報は、対応付部24で対応付けられた感情情報I1及び状況情報I2を、両者間の対応関係を含めて記録される情報である。言い換えれば、記録部32は、対応付部24で対応付けられた感情情報I1及び状況情報I2を、両者間の対応関係を維持したままログ情報として記録する。さらに、本実施形態では、記録部32は、感情情報I1及び状況情報I2に時間情報を付加し、時系列に従ってログ情報として記録する。すなわち、ログ情報は、現在の感情情報I1及び状況情報I2だけでなく、少なくとも一定期間にわたり、過去の感情情報I1及び状況情報I2の履歴も含んでいる。記録部32は、例えば、対応付部24にて感情情報I1及び状況情報I2が対応付けられる度に、ログ情報を記録、つまりログ情報を更新する。   The recording unit 32 records the emotion information I1 and the status information I2 associated by the association unit 24 as log information. That is, the log information is information in which the emotion information I1 and the situation information I2 associated by the association unit 24 are recorded, including the correspondence between them. In other words, the recording unit 32 records the emotion information I1 and the situation information I2 associated by the association unit 24 as log information while maintaining the correspondence between them. Further, in the present embodiment, the recording unit 32 adds time information to the emotion information I1 and the situation information I2, and records the information as log information in a time series. That is, the log information includes not only the current emotion information I1 and the situation information I2 but also the history of the past emotion information I1 and the situation information I2 for at least a certain period. The recording unit 32 records the log information, that is, updates the log information each time the emotion information I1 and the situation information I2 are associated with each other by the association unit 24, for example.

生成部33は、ログ情報に基づいて、対象者U1の嗜好を反映した属性情報を生成する。本開示でいう「嗜好」は、趣味及び好みを意味し、一例として、飲食物についての好み、及びファッションについての好みを含んでいる。つまり、属性情報は、少なくとも対象者U1の趣味及び好みが反映された情報である。生成部33は、例えば、ログ情報が更新される度に、属性情報を生成、つまり属性情報を更新する。   The generation unit 33 generates attribute information reflecting the preference of the target person U1 based on the log information. “Preferences” in the present disclosure means hobbies and preferences, and includes, for example, preferences for food and drink and preferences for fashion. That is, the attribute information is information that reflects at least the hobbies and preferences of the target person U1. The generation unit 33 generates attribute information, for example, each time the log information is updated, that is, updates the attribute information.

提供部34は、ログ情報に基づいて、対象者U1の嗜好を反映した物品Ob1,Ob2(図6参照)を対象者U1に提供する。本開示でいう「物品」は、現実に存在する種々の物品を意味し、一例として、飲食物及び衣服等の、対象者U1の日常生活において必要な物品を含む。提供部34の動作について詳しくは、「(3.2.2)リコメンド」の欄で説明する。   Based on the log information, the providing unit 34 provides the articles U1 and Ob2 (see FIG. 6) reflecting the preference of the user U1 to the user U1. The “article” in the present disclosure means various articles that actually exist, and includes, for example, articles necessary for daily life of the subject U1, such as food and drink and clothes. The operation of the providing unit 34 will be described in detail in the section “(3.2.2) Recommendation”.

上位通信部35は、直接的、又はネットワーク4若しくは中継器等を介して間接的に、ウェアラブル端末2(下位通信部26)と通信する。上位通信部35とウェアラブル端末2との間の通信方式としては、無線通信又は有線通信の適宜の通信方式が採用される。ここでは、上位通信部35は、ネットワーク4に接続されており、ネットワーク4を介して、ウェアラブル端末2と通信する。本実施形態では一例として、上位通信部35とネットワーク4との間の通信方式は、有線通信である。   The upper communication unit 35 communicates with the wearable terminal 2 (lower communication unit 26) directly or indirectly via the network 4 or a relay. As a communication method between the upper communication unit 35 and the wearable terminal 2, an appropriate communication method of wireless communication or wired communication is adopted. Here, the upper communication unit 35 is connected to the network 4 and communicates with the wearable terminal 2 via the network 4. In the present embodiment, as an example, the communication method between the upper communication unit 35 and the network 4 is a wired communication.

データベース36は、感情情報I1及び状況情報I2を含むログ情報を記憶している。さらに、データベース36には、生成部33で生成された属性情報も記憶されている。データベース36において、ログ情報(感情情報I1及び状況情報I2)及び属性情報は、対象者U1ごとに整理されている。また、ログ情報については、データベース36において、時系列によって整理されている。   The database 36 stores log information including emotion information I1 and situation information I2. Further, the database 36 also stores the attribute information generated by the generation unit 33. In the database 36, log information (emotion information I1 and situation information I2) and attribute information are arranged for each subject U1. The log information is arranged in the database 36 in chronological order.

(2.2)ウェアラブル端末
次に、ウェアラブル端末2のより詳細な構成について、図3A及び図3Bを参照して説明する。ただし、図3A及び図3Bは、ウェアラブル端末2の構造を概念的に示す概略図であって、説明に必要な構成要素のみを適宜図示している。図3Bは、図3Aの領域Z1内の概略構成を表す概略図である。
(2.2) Wearable Terminal Next, a more detailed configuration of the wearable terminal 2 will be described with reference to FIGS. 3A and 3B. However, FIGS. 3A and 3B are schematic diagrams conceptually showing the structure of the wearable terminal 2, and only appropriately show components necessary for the description. FIG. 3B is a schematic diagram illustrating a schematic configuration in a region Z1 of FIG. 3A.

ウェアラブル端末2は、上述したように、人体の一部P1である対象者U1の「耳」に装着される、耳掛け型の端末である。ウェアラブル端末2は、図3Bに示すように、筐体27を有している。筐体27は、状況取得部21(カメラ211、マイクロフォン212及び視線センサ213)、感情取得部22(脳波センサ221及び脈拍センサ222)及び出力部23(骨伝導スピーカ231及びバイブレータ232)を収容している。さらに、筐体27には、対応付部24、処理部25及び下位通信部26等も収容されている。   As described above, the wearable terminal 2 is an ear-hook type terminal that is attached to the “ear” of the subject U1 that is a part P1 of the human body. The wearable terminal 2 has a housing 27, as shown in FIG. 3B. The housing 27 houses the situation acquisition unit 21 (camera 211, microphone 212, and line-of-sight sensor 213), emotion acquisition unit 22 (brain wave sensor 221 and pulse sensor 222), and output unit 23 (bone conduction speaker 231 and vibrator 232). ing. Further, the housing 27 also accommodates the association unit 24, the processing unit 25, the lower communication unit 26, and the like.

筐体27は、正面視楕円状に形成されている。筐体27は、対象者U1の耳の後ろ(耳たぶ裏)に着脱可能に装着される。ここで、本実施形態では、不特定多数の対象者U1が、普段から、ウェアラブル端末2を装着して生活していることを前提としている。そのため、筐体27は、対象者U1が激しく動いても外れないように比較的強固に装着され、かつ対象者U1に負担が掛かりにくいように比較的計量化されていることが好ましい。さらに、ウェアラブル端末2は、防水機能を有していることが好ましい。   The housing 27 is formed in an elliptical shape when viewed from the front. The housing 27 is detachably attached to the back of the ear of the subject U1 (the back of the earlobe). Here, in the present embodiment, it is assumed that an unspecified number of subjects U1 usually wear and wear the wearable terminal 2. For this reason, it is preferable that the housing 27 is mounted relatively firmly so that the subject U1 does not come off even if the subject U1 moves violently, and is relatively weighed so that the burden on the subject U1 is less likely to be imposed. Further, the wearable terminal 2 preferably has a waterproof function.

ウェアラブル端末2は、対象者U1の耳(一部P1)に引っ掛けられた状態で装着される。この状態において、少なくともカメラ211が前方、つまり対象者U1の顔と同じ向きに向いていることが好ましい。これにより、カメラ211では、対象者U1の視線の先、つまり対象者U1から見える対象者U1の周囲の映像を撮像することが可能である。   The wearable terminal 2 is worn while being hooked on the ear (partially P1) of the subject U1. In this state, it is preferable that at least the camera 211 faces the front, that is, the same direction as the face of the subject U1. Thus, the camera 211 can capture an image of the area ahead of the line of sight of the subject U1, that is, an image around the subject U1 as seen from the subject U1.

本実施形態では、対象者U1は、右耳及び左耳のうちの一方(図3A及び図3Bの例では左耳)にのみ、ウェアラブル端末2を装着している。ただし、ウェアラブル端末2は、右耳用と左耳用とで、共通の構成を採用してもよい。また、対象者U1は、2台のウェアラブル端末2を両耳(右耳及び左耳)に装着してもよい。この場合、2台のウェアラブル端末2が互いに通信することで互いに協働(連携)し、1台のウェアラブル端末2と同様の機能を実現する。   In the present embodiment, the subject U1 wears the wearable terminal 2 only on one of the right ear and the left ear (the left ear in the example of FIGS. 3A and 3B). However, the wearable terminal 2 may adopt a common configuration for the right ear and the left ear. Further, the subject U1 may wear the two wearable terminals 2 on both ears (right ear and left ear). In this case, the two wearable terminals 2 communicate with each other to cooperate (cooperate) with each other to realize the same function as one wearable terminal 2.

ここで、ウェアラブル端末2は、電池駆動であることが好ましい。そのため、本実施形態では、ウェアラブル端末2は、蓄電池を有し、蓄電池に蓄積された電気エネルギを用いて動作することとする。   Here, the wearable terminal 2 is preferably driven by a battery. Therefore, in the present embodiment, the wearable terminal 2 has a storage battery, and operates using the electric energy stored in the storage battery.

(3)動作
以下、本実施形態に係る感情管理システム1の動作について、図1、図4〜図6を参照して説明する。本実施形態に係る感情管理システム1は、種々の用途に用いることができるが、以下では、まず感情管理システム1の「基本動作」について説明し、その後に、感情管理システム1の用途の一例となる「応用動作」について説明する。
(3) Operation Hereinafter, the operation of the emotion management system 1 according to the present embodiment will be described with reference to FIG. 1 and FIGS. The emotion management system 1 according to the present embodiment can be used for various purposes. Hereinafter, the “basic operation” of the emotion management system 1 will be described first, and then, an example of the use of the emotion management system 1 will be described. The "applied operation" will be described.

(3.1)基本動作
まず、本実施形態に係る感情管理システム1の基本的な動作、つまり基本動作に相当する感情管理方法について、図1及び図4を参照して説明する。すなわち、感情管理方法は、少なくとも図4のフローチャートに示す処理S1〜S5の一連の処理を、ウェアラブル端末2及び上位システム3の1以上のプロセッサで実行することにより、実現される。図1は、対象者U1である女児が、店舗のショーケース前を通りかかった際に、ショーケース内に飾られているパンダのぬいぐるみが対象者U1の目に留まり、対象者U1がパンダのぬいぐるみを欲しいと感じた場面を想定した、概念図である。
(3.1) Basic Operation First, a basic operation of the emotion management system 1 according to the present embodiment, that is, an emotion management method corresponding to the basic operation will be described with reference to FIGS. That is, the emotion management method is realized by executing at least a series of processes S1 to S5 shown in the flowchart of FIG. 4 by the wearable terminal 2 and one or more processors of the host system 3. FIG. 1 shows that when the girl who is the subject U1 passes by the front of the showcase in the store, the stuffed panda displayed in the showcase is noticed by the subject U1, and the subject U1 is a stuffed panda. FIG. 2 is a conceptual diagram assuming a scene in which a user feels that he wants the image.

感情管理方法に係る一連の処理が開始すると、ウェアラブル端末2のプロセッサは、まず感情取得部22(脳波センサ221及び脈拍センサ222を含む)にて、対象者U1の感情の変化の有無を判断する(S1)。対象者U1の感情に変化が無い場合(S1:No)、処理S1を繰り返し実行する。つまり、対象者U1の感情に変化が現れるまでは、ウェアラブル端末2のプロセッサは、次の処理(S2)には移行せず、待機状態を維持する。   When a series of processes related to the emotion management method starts, the processor of the wearable terminal 2 first determines whether or not the emotion of the subject U1 has changed in the emotion acquisition unit 22 (including the brain wave sensor 221 and the pulse sensor 222). (S1). If there is no change in the emotion of the subject U1 (S1: No), the process S1 is repeatedly executed. That is, until the emotion of the target person U1 changes, the processor of the wearable terminal 2 does not shift to the next process (S2) and maintains the standby state.

ウェアラブル端末2のプロセッサは、対象者U1の感情に変化が有ると判断すると(S1:Yes)、感情取得部22にて、対象者U1の感情に関する感情情報I1を推定する。これにより、ウェアラブル端末2のプロセッサは、感情取得部22にて、感情情報I1を取得する感情取得処理を実行する(S2)。図1の例においては、対象者U1が、ショーケース内のパンダのぬいぐるみを欲しい感じることで、対象者U1の感情に変化が生じる。このとき、感情取得部22では、対象者U1の「愛好」の感情を表す感情情報I1を取得する。   When the processor of the wearable terminal 2 determines that there is a change in the emotion of the target person U1 (S1: Yes), the emotion acquisition unit 22 estimates the emotion information I1 regarding the emotion of the target person U1. Thereby, the processor of the wearable terminal 2 causes the emotion acquisition unit 22 to execute an emotion acquisition process of acquiring the emotion information I1 (S2). In the example of FIG. 1, the feeling of the subject U1 changes when the subject U1 desires a stuffed panda in the showcase. At this time, the emotion acquiring unit 22 acquires the emotion information I1 representing the emotion of “love” of the subject U1.

次に、ウェアラブル端末2のプロセッサは、状況取得部21にて、感情情報I1を取得したときの対象者U1の周辺状況に関する状況情報I2を推定する。これにより、ウェアラブル端末2のプロセッサは、状況取得部21にて、状況情報I2を取得する状況取得処理を実行する(S3)。図1の例においては、対象者U1が、ショーケース内のパンダのぬいぐるみを見つめているため、対象者U1の視線の先にはパンダのぬいぐるみが存在する。このとき、状況取得部21では、対象者U1が注目している対象が、パンダのぬいぐるみであることを表す状況情報I2を取得する。   Next, the processor of the wearable terminal 2 estimates the situation information I2 regarding the surrounding situation of the target person U1 at the time of acquiring the emotion information I1 by the situation acquisition unit 21. Thereby, the processor of the wearable terminal 2 causes the status obtaining unit 21 to execute a status obtaining process of obtaining the status information I2 (S3). In the example of FIG. 1, since the target person U1 is looking at the stuffed panda in the showcase, there is a stuffed panda at the end of the line of sight of the target person U1. At this time, the status acquisition unit 21 obtains status information I2 indicating that the target being watched by the target person U1 is a stuffed panda.

次に、ウェアラブル端末2のプロセッサは、対応付部24にて、感情情報I1と状況情報I2とを対応付ける対応付処理を実行する(S4)。図1の例においては、対象者U1の「愛好」の感情を表す感情情報I1と、対象者U1が注目している対象がパンダのぬいぐるみであることを表す状況情報I2と、が対応付けられる。ウェアラブル端末2のプロセッサは、このようにして対応付けられた感情情報I1及び状況情報I2を、下位通信部26にて上位システム3に送信する。   Next, the processor of the wearable terminal 2 causes the association unit 24 to execute association processing for associating the emotion information I1 with the situation information I2 (S4). In the example of FIG. 1, emotion information I1 indicating the emotion of “love” of the target person U1 is associated with situation information I2 indicating that the target of the target person U1 is a stuffed panda. . The processor of the wearable terminal 2 transmits the emotion information I <b> 1 and the status information I <b> 2 associated in this way to the upper system 3 via the lower communication unit 26.

上位システム3のプロセッサは、ウェアラブル端末2から感情情報I1及び状況情報I2を受信すると、受信した感情情報I1及び状況情報I2をログ情報として、データベース36に記録する(S5)。これにより、図1の例においては、上位システム3のデータベース36には、対象者U1に関して、「愛好」の感情を表す感情情報I1と、注目対象がパンダのぬいぐるみであることを表す状況情報I2と、がログ情報として記録される。   Upon receiving the emotion information I1 and the situation information I2 from the wearable terminal 2, the processor of the upper system 3 records the received emotion information I1 and the situation information I2 as log information in the database 36 (S5). Thereby, in the example of FIG. 1, the database 36 of the host system 3 stores, in the database 36 of the host system U1, the emotion information I1 indicating the emotion of "love" and the situation information I2 indicating that the target of interest is a stuffed panda. Are recorded as log information.

図4のフローチャートは、感情管理方法の一例に過ぎず、処理を適宜省略又は追加してもよいし、処理の順番が適宜変更されていてもよい。   The flowchart in FIG. 4 is merely an example of the emotion management method, and the processing may be omitted or added as appropriate, or the order of the processing may be changed as appropriate.

以上説明したように、感情管理システム1によれば、ある瞬間の対象者U1の感情に関する感情情報I1に、そのときの対象者U1の周辺状況に関する状況情報I2が対応付けられた状態で管理される。これにより、感情管理システム1は、例えば、対象者U1が何を見て喜んでいるのか、又は対象者U1が何を聞いて驚いているのか等、対象者U1の感情を、そのときの対象者U1の周辺状況と対応付けて管理することができる。そのため、感情管理システム1によれば、対象者U1の感情のみではなく、対象者U1がそのような感情を抱く背景となる状況をも、感情とセットで管理することができる。したがって、本実施形態に係る感情管理システム1では、例えば、単に対象者U1の感情を、驚き、喜び、退屈、悲しみ、恐れ、嫌悪及び愛好等に分類するだけでなく、そのときの状況も含めて、より詳細な感情の特定が可能になる。   As described above, according to the emotion management system 1, the emotion information I1 relating to the emotion of the target person U1 at a certain moment is managed in a state where the situation information I2 relating to the surrounding situation of the target person U1 at that moment is associated with the emotion information I1. You. This allows the emotion management system 1 to display the emotions of the subject U1 such as, for example, what the subject U1 sees and is pleased with, or what the subject U1 is surprised by hearing. It can be managed in association with the surrounding situation of the person U1. Therefore, according to the emotion management system 1, not only the emotion of the target person U1 but also the situation that the background of the target person U1 has such an emotion can be managed together with the emotion. Therefore, in the emotion management system 1 according to the present embodiment, for example, the emotions of the target person U1 are not only classified into surprise, joy, boredom, sadness, fear, disgust, love, etc., but also include the situation at that time. Therefore, it is possible to specify emotions in more detail.

例えば、図1の例においては、上位システム3には、対象者U1に関して、「愛好」の感情を表す感情情報I1と、注目対象がパンダのぬいぐるみであることを表す状況情報I2と、がログ情報として記録されている。そのため、例えば、対象者U1の家族は、対象者U1への贈り物(プレゼント)を贈る際等に、対象者U1のログ情報を閲覧することで、対象者U1がパンダのぬいぐるみを欲しがっていることを知ることができる。このように、感情管理システム1によれば、対象者U1が意思表示をしなくても、対象者U1の嗜好を考慮した、サービスの提供が可能となる。   For example, in the example of FIG. 1, the host system 3 includes, for the subject U1, emotion information I1 representing an emotion of “love” and status information I2 representing that the target of interest is a stuffed panda. It is recorded as information. Therefore, for example, when the family of the target person U1 presents a gift (present) to the target person U1, by viewing the log information of the target person U1, the target person U1 wants a stuffed panda. You can know that. As described above, according to the emotion management system 1, it is possible to provide the service in consideration of the taste of the target person U1 without the target person U1 indicating the intention.

さらに、このような感情管理システム1では、対象者U1の感情を、そのときの対象者U1の周辺状況と対応付けて管理することで、例えば、対象者U1の感情の推定精度の向上を図ることが可能である。すなわち、感情管理システム1によれば、感情情報I1のみから対象者U1の感情が推定される場合に比べると、対象者U1がそのような感情を抱く背景となる状況をも加味されることで、対象者U1の感情の推定精度を向上できる。   Further, in such an emotion management system 1, by managing the emotion of the target person U1 in association with the surrounding situation of the target person U1, the accuracy of estimating the emotion of the target person U1 is improved, for example. It is possible. That is, according to the emotion management system 1, compared to a case in which the emotion of the target person U1 is estimated from only the emotion information I1, the situation in which the target person U1 has such an emotion is also taken into consideration. Thus, the estimation accuracy of the emotion of the subject U1 can be improved.

特に、ログ情報に基づいて、対象者U1の嗜好を反映した属性情報が生成されている場合には、感情管理システム1は、感情の推定時に属性情報を参照することで、感情の推定精度の向上を図ってもよい。例えば、属性情報からみて、対象者U1が怒るはずのない状況において、感情情報が「驚き」及び「怒り」を表している場合には、感情管理システム1は、対象者U1の感情は「驚き」であると判定する。その結果、感情管理システム1による対象者U1の感情の推定精度の向上を図ることができる。   In particular, when attribute information reflecting the preference of the target person U1 is generated based on the log information, the emotion management system 1 refers to the attribute information at the time of estimating the emotion, thereby improving the accuracy of the emotion estimation. It may be improved. For example, if the emotion information indicates “surprise” and “anger” in a situation where the target person U1 should not be angry in view of the attribute information, the emotion management system 1 sets the emotion of the target person U1 to “surprise”. Is determined. As a result, it is possible to improve the estimation accuracy of the emotion of the target person U1 by the emotion management system 1.

また、本実施形態に係る感情管理システム1によれば、ログ情報が記録されるため、対象者U1が、どのような状況において、どのような感情を抱くか、といった傾向の判断にも用いることが可能である。これにより、感情管理システム1によれば、対象者U1に対する様々なサービスにおいて、対象者U1が、どのような状況で喜び、どのような状況で傷つく(悲しい思いをする)又は嫌悪感を示すのか、といった点を考慮した、サービスを実現可能となる。一例として、対象者U1向けに対話型サービスを提供する場合には、対象者U1が、どのような言葉に喜び、どのような言葉で傷つく(悲しい思いをする)又は嫌悪感を示すのか、といった点を考慮した、対話型サービスを実現可能となる。言い換えれば、本実施形態に係る感情管理システム1によれば、対象者U1向けのサービスにおいて、空気を読む(行間を読み取る)ことが可能になる。   Further, according to the emotion management system 1 according to the present embodiment, since log information is recorded, the log information is also used for determining the tendency of the subject U1 in what kind of situation and what kind of emotion they have. Is possible. Thereby, according to the emotion management system 1, in various services for the target person U1, under what circumstances the target person U1 is delighted, under what conditions he is hurt (sad) or shows disgust In consideration of such points, a service can be realized. As an example, when providing an interactive service for the target person U1, what kind of language the target person U1 is pleased with, what kind of words hurt (sad) or show disgust. It is possible to realize an interactive service in consideration of the points. In other words, according to the emotion management system 1 according to the present embodiment, in the service for the target person U1, it is possible to read the air (read the space between lines).

(3.2)応用動作
次に、本実施形態に係る感情管理システム1の用途の一例となる応用的な動作、つまり応用動作について説明する。
(3.2) Applied Operation Next, an applied operation that is an example of a use of the emotion management system 1 according to the present embodiment, that is, an applied operation will be described.

(3.2.1)コミュニケーション支援
まず、本実施形態に係る感情管理システム1の用途の一例として、人と人とのコミュニケーションを支援する「コミュニケーション支援」について、図5を参照して説明する。図5は、母国語が異なる2人の対象者U1が、向かい合って会話している場面を想定した、概念図である。以下、2人の対象者U1を区別する場合には、図5の左側の対象者U1を「第1対象者U11」、右側の対象者U1を「第2対象者U12」ともいう。図5の例では、第1対象者U11の母国語が日本語であって、第2対象者U12の母国語が英語であるが、第1対象者U11も英語での一応の会話が可能であると仮定する。
(3.2.1) Communication Support First, as an example of the use of the emotion management system 1 according to the present embodiment, “communication support” that supports communication between people will be described with reference to FIG. FIG. 5 is a conceptual diagram assuming a situation where two subjects U1 having different native languages are face-to-face conversations. Hereinafter, when distinguishing the two subjects U1, the subject U1 on the left side of FIG. 5 is also referred to as “first subject U11”, and the subject U1 on the right side is also referred to as “second subject U12”. In the example of FIG. 5, the native language of the first subject U11 is Japanese and the native language of the second subject U12 is English, but the first subject U11 can also have a tentative conversation in English. Suppose there is.

このような状況において、第1対象者U11と第2対象者U12とが英語で会話していると、第1対象者U11にとっては、第1対象者U11の感情をうまく会話に反映することが困難な場合がある。つまり、英語を母国語としない第1対象者U11からすると、英語の細かな表現に含まれるニュアンスが分からず、また第2対象者U12との間には、出身国による文化の違い、又は育った環境の違い等もある。そのため、第1対象者U11の発する言葉が、第1対象者U11の感情をうまく反映できておらず、第2対象者U12にとって、不適切な言葉となることがある。例えば、第1対象者U11の発した言葉が、第2対象者U12にうまく伝わらず、第2対象者U12に失礼な発言ととられたり、第2対象者U12に誤解を与えたりする可能性がある。   In such a situation, if the first target person U11 and the second target person U12 are having a conversation in English, the first target person U11 may well reflect the emotions of the first target person U11 in the conversation. It can be difficult. In other words, the first subject U11 who does not speak English as a native language does not know the nuances contained in the detailed expressions of English, and the second subject U12 has a cultural difference due to the country of origin or has grown up with the second subject U12. There are differences in the environment. Therefore, the words uttered by the first target person U11 may not reflect the emotions of the first target person U11 well, and may be inappropriate words for the second target person U12. For example, the word uttered by the first target person U11 may not be transmitted well to the second target person U12, and may be taken as a rude statement to the second target person U12, or may give a misunderstanding to the second target person U12. There is.

本実施形態に係る感情管理システム1を用いれば、上位システム3は、変換部31(図2参照)にて、対応付部24で対応付けられた感情情報I1及び状況情報I2に基づいて、対象者U1から発せられて相手に届く言葉を変換することが可能である。ここでは、第1対象者U11が話し手であって、第2対象者U12が聞き手である場合について説明する。この場合、第1対象者U11が発した言葉W1(図5中の「ABC」)は、まずは第1対象者U11のウェアラブル端末2のマイクロフォン212に入力され、第1対象者U11のウェアラブル端末2から上位システム3に送信される。このとき、第1対象者U11のウェアラブル端末2は、対応付部24で対応付けられた感情情報I1及び状況情報I2を、上位システム3に送信する。   With the use of the emotion management system 1 according to the present embodiment, the upper system 3 uses the conversion unit 31 (see FIG. 2) based on the emotion information I1 and the status information I2 associated by the association unit 24. It is possible to convert the words emitted from the person U1 and reaching the partner. Here, a case where the first target person U11 is a speaker and the second target person U12 is a listener will be described. In this case, the word W1 (“ABC” in FIG. 5) uttered by the first target person U11 is first input to the microphone 212 of the wearable terminal 2 of the first target person U11, and the wearable terminal 2 of the first target person U11 is input. Is transmitted to the host system 3. At this time, the wearable terminal 2 of the first subject U11 transmits the emotion information I1 and the status information I2 associated by the association unit 24 to the host system 3.

これにより、上位システム3には、第1対象者U11が発した言葉W1のデータと、そのときの第1対象者U11の感情に関する感情情報I1、及び第1対象者U11の周辺状況に関する状況情報I2とがアップロードされる。そして、上位システム3は、変換部31にて、第1対象者U11から発せられた言葉W1を、感情情報I1及び状況情報I2に基づいて、別の言葉W2(図5中の「ABCD」)に変換する。このとき、変換部31は、第1対象者U11の感情に関する感情情報I1だけでなく、第1対象者U11の会話の相手(第2対象者U12)に関する相手情報を含む状況情報I2に基づいて、言葉W1,W2の変換を行う。しかも、相手情報は、少なくとも第1対象者U11が相手(第2対象者U12)と会話している際における、相手(第2対象者U12)の反応と、会話の流れと、の少なくとも一方を含んでいる。そのため、変換後の言葉W2は、第1対象者U11の感情を反映しているだけでなく、聞き手である第2対象者U12の反応及び会話の流れ等をくみ取った、適切な言葉W2になる。ここで、第2対象者U12の反応は、例えば、第1対象者U11のウェアラブル端末2のカメラ211で撮像された第2対象者U12の顔の表情、又は表情から推定される第2対象者U12の感情にて表される。   As a result, the host system 3 includes the data of the word W1 uttered by the first target person U11, the emotion information I1 relating to the emotion of the first target person U11 at that time, and the situation information relating to the surrounding situation of the first target person U11. I2 is uploaded. Then, the host system 3 converts the word W1 uttered from the first target person U11 into another word W2 (“ABCD” in FIG. 5) based on the emotion information I1 and the situation information I2 in the conversion unit 31. Convert to At this time, the conversion unit 31 performs the processing based on not only the emotion information I1 regarding the emotion of the first target person U11 but also the situation information I2 including the partner information regarding the conversation partner (the second target person U12) of the first target person U11. , Words W1 and W2 are converted. In addition, the partner information indicates at least one of the reaction of the partner (second target person U12) and the flow of the conversation when the first target person U11 is talking with the partner (second target person U12). Contains. Therefore, the converted word W2 is an appropriate word W2 that reflects not only the emotion of the first target person U11 but also the response and conversation flow of the second target person U12 who is the listener. . Here, the reaction of the second target person U12 is, for example, the expression of the face of the second target person U12 captured by the camera 211 of the wearable terminal 2 of the first target person U11, or the second target person estimated from the facial expression. Expressed by U12's emotions.

そして、上位システム3は、変換後の言葉W2を第2対象者U12のウェアラブル端末2に送信し、ウェアラブル端末2の骨伝導スピーカ231にて、言葉W2を音声として出力する。感情管理システム1は、これら一連の処理を、第1対象者U11が言葉W1を発してから殆ど時間遅れなく実行することで、第2対象者U12には、第1対象者U11が実際に発した言葉W1と共に、変換部31で変化された言葉W2が届くことになる。その結果、第2対象者U12においては、第1対象者U11が発した言葉W1(図5中の「ABC」)について、例えば、表現の変更、補完及び補足等の変換がされた言葉W2を、第1対象者U11からの言葉として受け取ることができる。よって、第1対象者U11と第2対象者U12との会話に際しては、感情管理システム1が、まるで気の利く通訳者のように機能し、第1対象者U11の発した言葉を、第2対象者U12にうまく伝えることができる。   Then, the host system 3 transmits the converted word W2 to the wearable terminal 2 of the second subject U12, and outputs the word W2 as a voice through the bone conduction speaker 231 of the wearable terminal 2. The emotion management system 1 executes these series of processes with almost no time delay after the first target person U11 emits the word W1, so that the first target person U11 actually issues the second target person U12. The word W2 changed by the conversion unit 31 arrives together with the changed word W1. As a result, in the second target person U12, for the word W1 (“ABC” in FIG. 5) uttered by the first target person U11, for example, the word W2 obtained by converting the expression such as change of expression, complementation, and supplementation is used. , From the first subject U11. Therefore, at the time of the conversation between the first target person U11 and the second target person U12, the emotion management system 1 functions like a nifty interpreter, and the words uttered by the first target person U11 are transmitted to the second target person U11. This can be conveyed to the target person U12 well.

上述したように、本実施形態に係る感情管理システム1によれば、例えば、対象者U1が相手と会話する際に、対象者U1と相手との間のコミュニケーションの円滑化を図ることが可能である。要するに、感情管理システム1により、対象者U1の感情が特定可能であるので、対象者U1から発せられて相手に届く言葉を、対象者U1の感情に応じて変換することが可能である。これにより、例えば、対象者U1と相手とで母国語が異なる場合等、話し手である対象者U1が発する言葉が、必ずしも対象者U1の感情をうまく反映するとは限らない状況であっても、対象者U1と相手とのコミュニケーションの円滑化が可能である。そのため、対象者U1は、例えば、感情をこめて、相手と、相手の母国語でコミュニケーションをとることが可能になる。   As described above, according to the emotion management system 1 according to the present embodiment, for example, when the target person U1 talks with the other party, it is possible to facilitate the communication between the target person U1 and the other party. is there. In short, since the emotion of the target person U1 can be specified by the emotion management system 1, it is possible to convert the words emitted from the target person U1 and reaching the partner according to the emotion of the target person U1. Accordingly, even in a situation where the language spoken by the subject U1 does not necessarily reflect the emotion of the subject U1, for example, when the native language differs between the subject U1 and the partner, Communication between the person U1 and the other party can be facilitated. Therefore, the target person U1 can, for example, communicate with the opponent in the mother tongue of the opponent with emotion.

また、図5の例では、第1対象者U11だけでなく、第2対象者U12もウェアラブル端末2を装着しているので、第2対象者U12が話し手であって、第1対象者U11が聞き手である場合についても、上記と同様に動作する。つまり、第2対象者U12が発した言葉は、まずは第2対象者U12のウェアラブル端末2のマイクロフォン212に入力され、第2対象者U12のウェアラブル端末2から上位システム3に送信される。そして、第1対象者U11には、第2対象者U12が実際に発した言葉と共に、変換部31で変化された言葉が届くことになる。   In addition, in the example of FIG. 5, not only the first target person U11 but also the second target person U12 is wearing the wearable terminal 2, so the second target person U12 is a speaker, and the first target person U11 is The same operation as described above is performed for the listener. That is, the words uttered by the second target person U12 are first input to the microphone 212 of the wearable terminal 2 of the second target person U12, and transmitted from the wearable terminal 2 of the second target person U12 to the host system 3. Then, the words changed by the conversion unit 31 arrive at the first target person U11 together with the words actually uttered by the second target person U12.

ここでは、変換部31は「翻訳」を行わない場合について説明したが、変換部31は「翻訳」の機能を含んでいてもよい。すなわち、対象者U1の発する言葉と、相手の聞き取り可能な言葉とで言語の種別が同一である場合には、「翻訳」の機能は不要であるが、対象者U1の発する言葉と、相手の聞き取り可能な言葉とで言語の種別が異なる場合、変換部31での翻訳が必要になる。例えば、対象者U1の発する言葉の言語の種別が「日本語」であって、相手の聞き取り可能な言葉の言語の種別が「英語」である場合、変換部31は、日本語から英語への翻訳を実行する。   Here, the case where the conversion unit 31 does not perform “translation” has been described, but the conversion unit 31 may include a function of “translation”. That is, when the language of the word spoken by the subject U1 and the language that the other person can hear are the same, the function of “translation” is unnecessary, but the word spoken by the subject U1 and the language of the other When the language type is different from the audible language, the translation by the conversion unit 31 is required. For example, when the language type of the word uttered by the subject U1 is “Japanese” and the language type of the audible word of the other party is “English”, the conversion unit 31 converts the language from Japanese to English. Perform translation.

(3.2.2)リコメンド
次に、本実施形態に係る感情管理システム1の用途の一例として、対象者U1の嗜好を反映した「リコメンド(recommend)処理」について、図6を参照して説明する。図6は、対象者U1の嗜好を反映した物品Ob1,Ob2を対象者U1に提供する場面を想定した、概念図である。
(3.2.2) Recommendation Next, as an example of the use of the emotion management system 1 according to the present embodiment, a “recommend processing” reflecting the preference of the target person U1 will be described with reference to FIG. I do. FIG. 6 is a conceptual diagram assuming a scene in which articles Ob1 and Ob2 reflecting the taste of the target person U1 are provided to the target person U1.

すなわち、本実施形態に係る感情管理システム1によれば、対象者U1が何を見て喜んでいるのか、又は対象者U1が何を聞いて驚いているのか等が、逐一管理されているので、これらの情報から、対象者U1の嗜好を推定可能となる。これにより、例えば、対象者U1に対して、リコメンド情報を提供したり、又は対象者U1の嗜好を反映した物品Ob1,Ob2を対象者U1に実際に提供したりすることが可能となる。   That is, according to the emotion management system 1 according to the present embodiment, what the target person U1 sees and is pleased with, what the target person U1 hears and is surprised, and the like are managed one by one. From such information, it is possible to estimate the taste of the target person U1. Accordingly, for example, it is possible to provide the target person U1 with recommendation information or to actually provide the target person U1 with articles Ob1 and Ob2 reflecting the taste of the target person U1.

本実施形態では、一例として、提供部34が、図6に示すように、ログ情報に基づいて、対象者U1の嗜好を反映した物品Ob1,Ob2を対象者U1に提供する。図6の例では、提供部34は、対象者U1の自宅の冷蔵庫5内に、対象者U1の嗜好を反映した物品Ob1,Ob2を準備することにより、物品Ob1,Ob2を対象者U1に提供する。特に、ログ情報によれば、対象者U1の嗜好だけでなく、対象者U1の生活(食生活も含む)パターン、及び生活リズム等も把握できるため、対象者U1の嗜好が推定できるだけでなく、対象者U1が物品Ob1,Ob2を欲しているタイミングも推定できる。そのため、提供部34は、対象者U1が物品Ob1,Ob2を欲しがるタイミングに合わせて、物品Ob1,Ob2を冷蔵庫5内に準備することで、適切なタイミングで、物品Ob1,Ob2を対象者U1に提供できる。   In the present embodiment, as an example, as illustrated in FIG. 6, the providing unit 34 provides articles Ob1 and Ob2 reflecting the preference of the target person U1 to the target person U1 based on the log information. In the example of FIG. 6, the providing unit 34 provides the objects Ob1 and Ob2 to the target person U1 by preparing the objects Ob1 and Ob2 reflecting the taste of the target person U1 in the refrigerator 5 at home of the target person U1. I do. In particular, according to the log information, not only the taste of the subject U1 but also the life (including eating habits) pattern and life rhythm of the subject U1 can be grasped. The timing at which the subject U1 wants the articles Ob1 and Ob2 can also be estimated. For this reason, the providing unit 34 prepares the articles Ob1 and Ob2 in the refrigerator 5 in accordance with the timing at which the subject U1 wants the articles Ob1 and Ob2, so that the articles Ob1 and Ob2 can be read at appropriate timing. U1.

図6の例においては、対象者U1が日頃から目を酷使する仕事をしており、かつ対象者U1が海外出張に近々行くことが、ログ情報から推定可能であると仮定する。この状況においては、提供部34は、対象者U1の嗜好を反映しつつ、目の保養に効く飲食物である物品Ob1と、対象者U1の住む地域の郷土料理である物品Ob2と、を対象者U1に提供する。このような物品Ob1,Ob2を冷蔵庫5に準備する手段は、特に限定しないが、一例として、自動宅配サービスを利用可能である。   In the example of FIG. 6, it is assumed that it is possible to estimate from the log information that the target person U1 regularly performs a job of overworking the eyes and that the target person U1 is going to go on an overseas business trip soon. In this situation, the providing unit 34 targets the object Ob1 that is a food and drink that is effective in fostering the eyes while reflecting the taste of the target person U1, and the object Ob2 that is a local dish in the area where the target person U1 lives. To the user U1. Means for preparing such articles Ob1 and Ob2 in the refrigerator 5 is not particularly limited, but as an example, an automatic home delivery service can be used.

すなわち、冷蔵庫5に宅外からもアクセス可能な構造を採用することで、提供部34からの指示により、自動宅配サービスにより、冷蔵庫5に物品Ob1,Ob2が自動的に配達される。この場合において、対象者U1が、冷蔵庫5から物品Ob1,Ob2を取り出し、かつ物品Ob1,Ob2を開封した時点で、課金されるようにすることが好ましい。また、対象者U1が、開封することなく所定期間が経過した場合には、物品Ob1,Ob2は自動的に回収されることが好ましい。   That is, by adopting a structure in which the refrigerator 5 can be accessed from outside the house, the articles Ob1 and Ob2 are automatically delivered to the refrigerator 5 by the automatic home delivery service according to an instruction from the providing unit 34. In this case, it is preferable that the subject U1 take out the articles Ob1 and Ob2 from the refrigerator 5 and charge the bill when the articles Ob1 and Ob2 are opened. When a predetermined period has elapsed without opening the subject U1, the articles Ob1 and Ob2 are preferably automatically collected.

自動宅配サービスに際して、冷蔵庫5への物品Ob1,Ob2の収容作業は、例えば、宅内側から、搬送ロボット(ドローン等を含む)にて実現されてもよい。この場合、対象者U1の自宅付近まで配達された物品Ob1,Ob2を、搬送ロボットが取りに行って、冷蔵庫5内まで搬送する。さらには、自宅の壁又は天井等に設置されたシュータ又はエレベータ等により、物品Ob1,Ob2が宅外から冷蔵庫5内に搬送されてもよい。物品Ob1,Ob2の回収についても、同様に、搬送ロボット等で実現されてもよい。   In the automatic home delivery service, the work of housing the articles Ob1 and Ob2 in the refrigerator 5 may be realized by, for example, a transport robot (including a drone or the like) from the inside of the house. In this case, the transport robot goes to pick up the articles Ob1 and Ob2 delivered near the home of the subject U1, and transports them into the refrigerator 5. Further, the articles Ob1 and Ob2 may be transported from outside the house into the refrigerator 5 by a shooter or an elevator installed on a wall or ceiling of the house. The collection of the articles Ob1 and Ob2 may also be realized by a transfer robot or the like.

また、別の例として、冷蔵庫5に限らず、例えば、クローゼット又は専用の宅配ボックス等へ、物品が自動的に配達されてもよい。すなわち、提供部34が、対象者U1の嗜好を反映した物品として何を提供するかによって、配達先が変わってもよい。一例として、提供部34が、対象者U1の嗜好を反映した物品として、衣服を提供する場合には、物品(衣服)はクローゼットに配達されることが好ましい。具体的には、クローゼットの一部を自動宅配サービス用のスペースとして利用することで、このスペースに、随時、対象者U1の嗜好を反映した衣服が準備される。そのため、対象者U1は、例えば、自動宅配サービス用のスペースに準備された衣服を着るだけで、その日の気分にあった衣服を着ることが可能となる。   Further, as another example, an article may be automatically delivered to, for example, a closet or a dedicated delivery box, not limited to the refrigerator 5. That is, the delivery destination may change depending on what the providing unit 34 provides as an article reflecting the taste of the target person U1. As an example, when the providing unit 34 provides clothing as an article reflecting the taste of the target person U1, it is preferable that the article (clothing) be delivered to a closet. Specifically, by using a part of the closet as a space for an automatic home delivery service, clothes reflecting the taste of the target person U1 are prepared in this space as needed. Therefore, the target person U1 can wear clothes that suit the mood of the day only by, for example, wearing clothes prepared in a space for the automatic home delivery service.

(4)変形例
実施形態1は、本開示の様々な実施形態の一つに過ぎない。実施形態1は、本開示の目的を達成できれば、設計等に応じて種々の変更が可能である。また、実施形態1に係る感情管理システム1と同様の機能は、感情管理方法、コンピュータプログラム、又はコンピュータプログラムを記録した非一時的記録媒体等で具現化されてもよい。一態様に係る感情管理方法は、感情取得処理(図4の「S2」)と、状況取得処理(図4の「S3」)と、対応付処理(図4の「S4」)と、を有する。感情取得処理は、対象者U1の感情に関する感情情報I1を取得する処理である。状況取得処理は、感情情報I1を取得したときの対象者U1の周辺状況に関する状況情報I2を取得する処理である。対応付処理は、感情情報I1と状況情報I2とを対応付ける処理である。一態様に係る(コンピュータ)プログラムは、1以上のプロセッサに、上記の感情管理方法を実行させるためのプログラムである。
(4) Modification Example Embodiment 1 is only one of various embodiments of the present disclosure. Various changes can be made to the first embodiment according to the design and the like as long as the object of the present disclosure can be achieved. Further, the same functions as those of the emotion management system 1 according to the first embodiment may be embodied by an emotion management method, a computer program, a non-transitory recording medium on which the computer program is recorded, or the like. The emotion management method according to one aspect includes an emotion acquisition process (“S2” in FIG. 4), a situation acquisition process (“S3” in FIG. 4), and an association process (“S4” in FIG. 4). . The emotion acquisition process is a process of acquiring emotion information I1 relating to the emotion of the target person U1. The situation acquisition process is a process of acquiring situation information I2 relating to the surrounding situation of the target person U1 when acquiring the emotion information I1. The association process is a process of associating the emotion information I1 with the situation information I2. A (computer) program according to one embodiment is a program for causing one or more processors to execute the above emotion management method.

以下、実施形態1の変形例を列挙する。以下に説明する変形例は、適宜組み合わせて適用可能である。   Hereinafter, modified examples of the first embodiment will be listed. The modifications described below can be applied in appropriate combinations.

図7A及び図7Bは、実施形態1の変形例に係るウェアラブル端末2Aの構造を概念的に示す概略図である。図7Bは、図7Aの領域Z1内の概略構成を表す概略図である。図7A及び図7Bに示すウェアラブル端末2Aは、骨伝導スピーカ231(図3B)に代えて、インナーイヤー型のヘッドフォン(イヤホン)233を有している。インナーイヤー型のヘッドフォン233は、筐体27から突出して、対象者U1の外耳に挿入される。このような構成によれば、対象者U1の外耳に挿入されているインナーイヤー型のヘッドフォン233により、ウェアラブル端末2Aが対象者U1の一部P1(耳)から脱落しにくい。   7A and 7B are schematic diagrams conceptually showing a structure of a wearable terminal 2A according to a modification of the first embodiment. FIG. 7B is a schematic diagram illustrating a schematic configuration in a region Z1 of FIG. 7A. Wearable terminal 2A shown in FIGS. 7A and 7B has an inner-ear type headphone (earphone) 233 instead of bone conduction speaker 231 (FIG. 3B). The inner-ear headphones 233 protrude from the housing 27 and are inserted into the outer ear of the subject U1. According to such a configuration, the wearable terminal 2A is unlikely to fall off from a part P1 (ear) of the target person U1 by the inner-ear headphones 233 inserted into the outer ear of the target person U1.

本開示における感情管理システム1は、例えば、ウェアラブル端末2及び上位システム3等に、コンピュータシステムを含んでいる。コンピュータシステムは、ハードウェアとしてのプロセッサ及びメモリを主構成とする。コンピュータシステムのメモリに記録されたプログラムをプロセッサが実行することによって、本開示における感情管理システム1としての機能が実現される。プログラムは、コンピュータシステムのメモリに予め記録されてもよく、電気通信回線を通じて提供されてもよく、コンピュータシステムで読み取り可能なメモリカード、光学ディスク、ハードディスクドライブ等の非一時的記録媒体に記録されて提供されてもよい。コンピュータシステムのプロセッサは、半導体集積回路(IC)又は大規模集積回路(LSI)を含む1ないし複数の電子回路で構成される。ここでいうIC又はLSI等の集積回路は、集積の度合いによって呼び方が異なっており、システムLSI、VLSI(Very Large Scale Integration)、又はULSI(Ultra Large Scale Integration)と呼ばれる集積回路を含む。さらに、LSIの製造後にプログラムされる、FPGA(Field-Programmable Gate Array)、又はLSI内部の接合関係の再構成若しくはLSI内部の回路区画の再構成が可能な論理デバイスについても、プロセッサとして採用することができる。複数の電子回路は、1つのチップに集約されていてもよいし、複数のチップに分散して設けられていてもよい。複数のチップは、1つの装置に集約されていてもよいし、複数の装置に分散して設けられていてもよい。   The emotion management system 1 according to the present disclosure includes, for example, a computer system in the wearable terminal 2, the upper system 3, and the like. The computer system mainly has a processor and a memory as hardware. The function as the emotion management system 1 in the present disclosure is realized by the processor executing the program recorded in the memory of the computer system. The program may be pre-recorded in the memory of the computer system, may be provided through an electric communication line, or may be recorded in a non-transitory recording medium such as a memory card, an optical disk, or a hard disk drive readable by the computer system. May be provided. A processor of a computer system is composed of one or more electronic circuits including a semiconductor integrated circuit (IC) or a large-scale integrated circuit (LSI). An integrated circuit such as an IC or an LSI referred to here differs depending on the degree of integration, and includes an integrated circuit called a system LSI, a VLSI (Very Large Scale Integration), or a ULSI (Ultra Large Scale Integration). Furthermore, an FPGA (Field-Programmable Gate Array), which is programmed after the manufacture of the LSI, or a logic device capable of reconfiguring the connection relation inside the LSI or reconfiguring the circuit section inside the LSI, is also adopted as a processor. Can be. The plurality of electronic circuits may be integrated on one chip, or may be provided separately on a plurality of chips. The plurality of chips may be integrated in one device, or may be provided separately in a plurality of devices.

また、ウェアラブル端末2又は上位システム3における複数の機能が、1つの筐体内に集約されていることは感情管理システム1に必須の構成ではなく、ウェアラブル端末2又は上位システム3の構成要素は、複数の筐体に分散して設けられていてもよい。さらに、感情管理システム1の少なくとも一部の機能、例えば、ウェアラブル端末2又は上位システム3の一部の機能がクラウド(クラウドコンピューティング)等によって実現されてもよい。   In addition, it is not an essential configuration of the emotion management system 1 that a plurality of functions in the wearable terminal 2 or the upper system 3 are integrated in one housing, and the constituent elements of the wearable terminal 2 or the upper system 3 are plural. May be provided separately. Furthermore, at least a part of the function of the emotion management system 1, for example, a part of the function of the wearable terminal 2 or the host system 3 may be realized by a cloud (cloud computing) or the like.

反対に、実施形態1において、複数の装置に分散されている感情管理システム1の少なくとも一部の機能が、1つの筐体内に集約されていてもよい。例えば、ウェアラブル端末2と上位システム3とに分散されている感情管理システム1の一部の機能が、1つの筐体内に集約されていてもよい。   Conversely, in the first embodiment, at least a part of the functions of the emotion management system 1 distributed to a plurality of devices may be integrated in one housing. For example, some functions of the emotion management system 1 distributed to the wearable terminal 2 and the host system 3 may be integrated in one housing.

すなわち、そもそもウェアラブル端末2と上位システム3とが別体であることは、感情管理システム1に必須の構成ではなく、ウェアラブル端末2と上位システム3とは一体であってもよい。本開示でいう「一体」は、物理的に分離できない状態を意味し、例えば、1つの筐体に、ウェアラブル端末2及び上位システム3の構成要素が収容されることで、ウェアラブル端末2と上位システム3とが一体化される。   That is, the fact that the wearable terminal 2 and the host system 3 are separate from each other is not an essential component of the emotion management system 1, and the wearable terminal 2 and the host system 3 may be integrated. The term “integral” in the present disclosure means a state in which the wearable terminal 2 and the host system 3 are housed in a single housing, and the wearable terminal 2 and the host system 3 are housed in one housing. 3 are integrated.

また、ウェアラブル端末2は、実施形態1のような耳掛け型の端末に限らず、例えば、腕時計型(スマートウォッチ)、眼鏡型(スマートグラス)、指輪型、靴型、懐中型及びペンダント型等であってもよい。さらには、状況取得部21がウェアラブル端末2に搭載されていることは、感情管理システム1に必須の構成ではなく、状況取得部21は、例えば、ウェアラブル端末2以外の可搬型の端末、又は防犯カメラ等の据置型の端末に搭載されていてもよい。   In addition, the wearable terminal 2 is not limited to the ear-hung type terminal as in the first embodiment, and may be, for example, a wristwatch type (smart watch), a spectacle type (smart glass), a ring type, a shoe type, a pocket type, a pendant type, and the like. It may be. Further, the fact that the situation acquisition unit 21 is mounted on the wearable terminal 2 is not an essential component of the emotion management system 1, and the situation acquisition unit 21 may be, for example, a portable terminal other than the wearable terminal 2 or a security device. It may be mounted on a stationary terminal such as a camera.

また、感情取得部22は、脳波センサ221及び脈拍センサ222に限らず、例えば、加速度センサ、角速度センサ、カメラ、視線センサ、ソナーセンサ、マイクロフォン、レーダ又はLiDAR(Light Detection and Ranging)等を含んでいてもよい。状況取得部21についても、カメラ211、マイクロフォン212及び視線センサ213に限らず、例えば、加速度センサ、角速度センサ、ソナーセンサ、レーダ又はLiDAR等を含んでいてもよい。   The emotion acquisition unit 22 is not limited to the brain wave sensor 221 and the pulse sensor 222, and includes, for example, an acceleration sensor, an angular velocity sensor, a camera, a line-of-sight sensor, a sonar sensor, a microphone, a radar, or LiDAR (Light Detection and Ranging). Is also good. The situation acquisition unit 21 is not limited to the camera 211, the microphone 212, and the line-of-sight sensor 213, and may include, for example, an acceleration sensor, an angular velocity sensor, a sonar sensor, a radar, or a LiDAR.

また、端末群20を構成する複数台のウェアラブル端末2は、共通の構成を採用していなくてもよく、例えば、少なくとも一部のウェアラブル端末2が他のウェアラブル端末2と異なる構成を採用していてもよい。具体的には、ウェアラブル端末2によって、筐体27のサイズ及び意匠等が異なっていてもよい。   Further, the plurality of wearable terminals 2 constituting the terminal group 20 may not adopt a common configuration. For example, at least a part of the wearable terminals 2 adopts a configuration different from other wearable terminals 2. You may. Specifically, the size and design of the housing 27 may be different depending on the wearable terminal 2.

また、感情管理システム1の一部の機能、例えば、感情取得部22での感情情報I1の推定、又は状況取得部21での状況情報I2の推定等の機能について、機械学習等の技術が利用されてもよい。   In addition, techniques such as machine learning are used for some functions of the emotion management system 1, for example, functions such as estimation of the emotion information I1 in the emotion acquisition unit 22 or estimation of the situation information I2 in the situation acquisition unit 21. May be done.

また、感情管理システム1がウェアラブル端末2を複数台備えていることは、感情管理システム1に必須の構成ではなく、感情管理システム1は少なくとも1台のウェアラブル端末2を備えていればよい。   The fact that the emotion management system 1 includes a plurality of wearable terminals 2 is not an essential component of the emotion management system 1, and the emotion management system 1 only needs to include at least one wearable terminal 2.

また、実施形態1では、複数台のウェアラブル端末2の各々は上位システム3のみと通信可能であるが、この構成に限らず、例えば、複数台のウェアラブル端末2同士が直接的に通信可能であってもよい。この場合、例えば、2人の対象者U1が面と向かって会話している図5のような状況において、第1対象者U11に装着されたウェアラブル端末2と、第2対象者U12に装着されたウェアラブル端末2と、が直接的に通信することができる。ここで、変換部31の機能がウェアラブル端末2にあれば、上位システム3を介さなくとも、感情管理システム1は、「(3.2.1)コミュニケーション支援」で説明したような機能を実現可能である。   Further, in the first embodiment, each of the plurality of wearable terminals 2 can communicate with only the host system 3, but the present invention is not limited to this configuration. For example, the plurality of wearable terminals 2 can directly communicate with each other. You may. In this case, for example, in a situation as shown in FIG. 5 in which two subjects U1 are talking face to face, the wearable terminal 2 attached to the first subject U11 and the wearable terminal 2 attached to the second subject U12 Can directly communicate with the wearable terminal 2. Here, if the function of the conversion unit 31 is in the wearable terminal 2, the emotion management system 1 can realize the function described in “(3.2.1) Communication support” without the intervention of the host system 3. It is.

また、実施形態1では、感情管理システム1が屋外を含めて様々な場所で用いられる場合を例として説明したが、この例に限らず、感情管理システム1は特定の場所だけで用いられてもよい。例えば、住宅、事務所、店舗、工場、倉庫、建設現場、物流センタ、学校、病院、駅、空港又は駐車場等の、特定の施設にのみ感情管理システム1が導入されてもよい。   In the first embodiment, the case where the emotion management system 1 is used in various places including the outdoors has been described as an example. However, the present invention is not limited to this example, and the emotion management system 1 may be used only in a specific place. Good. For example, the emotion management system 1 may be installed only in a specific facility such as a house, office, store, factory, warehouse, construction site, distribution center, school, hospital, station, airport, or parking lot.

また、ウェアラブル端末2(下位通信部26)の通信方式は、電波を通信媒体として用いる無線通信に限らず、例えば、光を通信媒体として用いる光通信若しくは有線通信等、又はこれらの組み合わせであってもよい。同様に、上位システム3(上位通信部35)の通信方式は、有線通信に限らず、例えば、電波を通信媒体として用いる無線通信若しくは光を通信媒体として用いる光通信等、又はこれらの組み合わせであってもよい。   The communication method of the wearable terminal 2 (the lower-level communication unit 26) is not limited to wireless communication using radio waves as a communication medium, and may be, for example, optical communication or wire communication using light as a communication medium, or a combination thereof. Is also good. Similarly, the communication method of the host system 3 (host communication unit 35) is not limited to wired communication, but may be, for example, wireless communication using radio waves as a communication medium, optical communication using light as a communication medium, or a combination thereof. You may.

(実施形態2)
本実施形態に係る感情管理システム1Aは、図8に示すように、2人以上の対象者U1同士の出会いを演出する演出部37を更に備える点で、実施形態1に係る感情管理システム1と相違する。以下、実施形態1と同様の構成については、共通の符号を付して適宜説明を省略する。
(Embodiment 2)
The emotion management system 1A according to the first embodiment differs from the emotion management system 1 according to the first embodiment in that, as shown in FIG. Different. Hereinafter, the same components as those of the first embodiment are denoted by the same reference numerals, and the description thereof will be appropriately omitted.

本実施形態では一例として、演出部37は、上位システム3Aに設けられている。すなわち、上位システム3Aは、実施形態1に係る感情管理システム1の上位システム3(図2参照)の構成に加えて、演出部37を更に備えている。   In the present embodiment, as an example, the rendering unit 37 is provided in the host system 3A. That is, the upper system 3A further includes a rendering unit 37 in addition to the configuration of the upper system 3 (see FIG. 2) of the emotion management system 1 according to the first embodiment.

本実施形態では、対象者U1は複数人であることが前提となる。さらに、これら複数人の対象者U1のうち2人以上の対象者U1を一群の対象者U1とする。演出部37は、一群の対象者U1の各々のログ情報に基づいて、一群の対象者U1が出会う確率を上げるための演出を行う。本開示でいう「一群の対象者」は、複数人の対象者U1のうち2人以上の対象者U1であって、演出部37にて出会いを演出する対象となる対象者U1である。   In the present embodiment, it is assumed that there are a plurality of subjects U1. Furthermore, two or more target persons U1 among these plural target persons U1 are set as a group of target persons U1. The rendering unit 37 performs a rendering to increase the probability that the group of target persons U1 will meet based on the log information of each of the group of target persons U1. The “group of target persons” in the present disclosure is two or more target persons U1 among a plurality of target persons U1, and is the target persons U1 to which the directing unit 37 directs an encounter.

本実施形態に係る感情管理システム1Aによれば、2人以上の対象者U1同士の出会いを演出することが可能である。すなわち、感情管理システム1Aによれば、対象者U1が何を見て喜んでいるのか、又は対象者U1が何を聞いて驚いているのか等が、逐一管理されているので、これらの情報から、例えば、互いに共感しそうな2人以上の対象者U1を推定可能となる。これにより、例えば、これら2人以上の対象者U1が出会う確率を上げるように何らかの演出を行うことで、2人以上の対象者U1同士の出会いを演出することが可能となる。そこで、本実施形態に係る感情管理システム1Aは、演出部37により、一群の対象者U1が出会う確率を上げるための演出を行う。   According to the emotion management system 1A according to the present embodiment, it is possible to produce an encounter between two or more target persons U1. In other words, according to the emotion management system 1A, what the target person U1 sees and is pleased with, or what the target person U1 hears and is surprised, etc. are managed one by one. For example, it is possible to estimate two or more subjects U1 likely to sympathize with each other. Thereby, for example, it is possible to produce an encounter between two or more target persons U1 by performing some effect so as to increase the probability that the two or more target persons U1 meet. Thus, in the emotion management system 1A according to the present embodiment, the effecting unit 37 performs an effect for increasing the probability that the group of subjects U1 will meet.

一例として、演出部37は、複数人の対象者U1のうち、図9に示すように、比較的に共通項が多い2人以上の対象者U1を一群の対象者U1として、一群の対象者U1が出会う確率を上げるための演出を行う。図9は、比較的に共通項が多い2人の対象者U1が出会う場面を想定した、概念図である。以下、2人の対象者U1を区別する場合には、図9の左側の対象者U1を「第1対象者U11」、右側の対象者U1を「第2対象者U12」ともいう。   As an example, as shown in FIG. 9, the rendering unit 37 sets two or more subjects U1 having a relatively large number of common items as a group of subjects U1 as shown in FIG. 9. An effect is performed to increase the probability that U1 will meet. FIG. 9 is a conceptual diagram assuming a situation where two subjects U1 having relatively many common items meet. Hereinafter, when distinguishing the two subjects U1, the subject U1 on the left side of FIG. 9 is also referred to as “first subject U11”, and the subject U1 on the right side is also referred to as “second subject U12”.

すなわち、図9の例では、第1対象者U11のログ情報から、第1対象者U11について、読書が趣味であること、朝食がパン派であること、及びある観光地へ旅行に行ったこと、が特定可能である。一方、第2対象者U12のログ情報からは、第2対象者U12について、読書が趣味であること、朝食がパン派であること、及び第1対象者U11と同じ観光地へ旅行に行ったこと、が特定可能である。このような状況において、第1対象者U11と第2対象者U12との間には共通項が多いため、演出部37は、第1対象者U11及び第2対象者U12を一群の対象者U1として、第1対象者U11と第2対象者U12とが出会う確率を上げるための演出を行う。これにより、感情管理システム1Aは、第1対象者U11及び第2対象者U12に、例えば、互いに有意義な出会いの機会を与えることができる。   That is, in the example of FIG. 9, from the log information of the first target person U11, the reading of the first target person U11 is that the reading is a hobby, the breakfast is bakers, and that the first target person U11 travels to a certain tourist spot. , Can be specified. On the other hand, from the log information of the second target person U12, the second target person U12 traveled to the same sightseeing spot as the first target person U11 that reading was a hobby, breakfast was bread, and the first target person U11. That is identifiable. In such a situation, since there is much in common between the first target person U11 and the second target person U12, the staging unit 37 sets the first target person U11 and the second target person U12 as a group of the target persons U1. An effect is performed to increase the probability that the first target person U11 and the second target person U12 meet. Thereby, the emotion management system 1A can give the first target person U11 and the second target person U12, for example, mutually meaningful encounter opportunities.

ただし、演出部37は、一群の対象者U1が出会う確率を上げるための演出を行えばよく、本実施形態では、一群の対象者U1が偶然に出会う確率を上げるだけの演出を行う。つまり、基本的には、演出部37は、一群の対象者U1が出会うためのきっかけを与えるに過ぎず、あくまで、一群の対象者U1の各々の自主的な行動により一群の対象者U1同士が出会うようにする。言い換えれば、演出部37は、例えば、一群の対象者U1同士の連絡先を交換する等の手段により直接的な出会いを演出するのではなく、一群の対象者U1同士の出会いを間接的に演出する。   However, the effect unit 37 may perform an effect to increase the probability that the group of subjects U1 will meet, and in the present embodiment, perform the effect only to increase the probability that the group of subjects U1 meet by chance. In other words, basically, the directing unit 37 merely provides an opportunity for the group of target persons U1 to meet each other, and the group of target persons U1 is mutually connected by the voluntary action of each of the group of target persons U1. Try to meet. In other words, the directing unit 37 does not produce a direct encounter by, for example, exchanging contact information between the group of target persons U1, but indirectly produces an encounter between the group of target persons U1. I do.

具体的には、演出部37は、図10に示すように、所定空間Sp1に一群の対象者U1が同時に存在する場合に、一群の対象者U1の共通項に係るイベントを所定空間Sp1で実行することにより、一群の対象者U1が出会う確率を上げる。図10の例では、例えば、カフェのような公共のスペースを所定空間Sp1とし、この所定空間Sp1内に偶然に居合わせた複数人の対象者U1のうち、共通項が多い2人以上の対象者U1が出会う確率を上げる場合を想定している。図10の例では、所定空間Sp1内に偶然に居合わせた複数人の対象者U1の中に、「釣り好き」という共通項を持った一群の対象者U11〜U14が含まれている。   Specifically, as shown in FIG. 10, when a group of subjects U1 is simultaneously present in the predetermined space Sp1, as shown in FIG. 10, the effect unit 37 executes an event related to a common term of the group of subjects U1 in the predetermined space Sp1. By doing so, the probability that the group of subjects U1 meet will be increased. In the example of FIG. 10, for example, a public space such as a cafe is defined as a predetermined space Sp1, and two or more subjects U1 having a large number of common items among a plurality of subjects U1 who happened to be present in the predetermined space Sp1 It is assumed that the probability of meeting U1 is increased. In the example of FIG. 10, a group of subjects U11 to U14 having a common term “fishing lover” are included in a plurality of subjects U1 who happened to be present in the predetermined space Sp1.

この状況において、演出部37は、所定空間Sp1に設置されているディスプレイD1,D2のうちの一方(ここではディスプレイD1)に、「魚釣り」に関連する映像コンテンツを表示する。このように、演出部37は、一群の対象者U1の共通項に係るイベント(「魚釣り」に関連する映像コンテンツの表示)を所定空間Sp1で実行することで、ディスプレイD1の近くに、一群の対象者U11〜U14が集まるきっかけを作り出す。これにより、一群の対象者U11〜U14は、例えば、同じ映像コンテンツを見ながら会話をすることで、お互いに「釣り好き」であることに気付き、有意義な出会いが生まれることになる。   In this situation, the rendering unit 37 displays video content related to “fishing” on one of the displays D1 and D2 (here, the display D1) installed in the predetermined space Sp1. As described above, the rendering unit 37 executes the event (display of the video content related to “fishing”) related to the common term of the group of subjects U1 in the predetermined space Sp1, and thereby the group of the group of subjects U1 near the display D1. Create an opportunity for the subjects U11 to U14 to gather. As a result, the group of subjects U11 to U14, for example, have a conversation while watching the same video content, and thereby realize that they are "fishing lovers", and a meaningful encounter is created.

ここで、演出部37は、さらに一群の対象者U11〜U14の各々が持っているグラスG1を、同一色に発光させる等の演出を行ってもよい。これにより、一群の対象者U11〜U14においては、お互いに共通項があるということに気付きやすくなり、より出会いの確率が高くなる。   Here, the rendering unit 37 may further perform an effect such as causing the glasses G1 held by each of the group of subjects U11 to U14 to emit light in the same color. This makes it easier for the group of subjects U11 to U14 to notice that they have a common term, and the probability of meeting is higher.

また、一群の対象者U11〜U14が実際に出会った後においては、感情管理システム1Aは、一群の対象者U11〜U14間において、例えば、最近行った釣り場、又は最近の釣果といった、ログ情報の一部を共有してもよい。このように、ログ情報の一部を、名刺の代わりに共有することで、出会ってすぐにでも、共通の話題が見つかりやすくなる。   In addition, after the group of target persons U11 to U14 actually meet, the emotion management system 1A transmits log information such as, for example, recent fishing spots or recent fishing results between the group of target persons U11 to U14. Some may be shared. In this way, by sharing a part of the log information instead of the business card, it becomes easy to find a common topic even immediately after meeting.

特に、感情管理システム1Aでは、対象者U1が履歴書に記載するような趣味嗜好だけでなく、例えば、対象者U1が意識せずに目で追いかけているような興味の対象についても、対象者U1の嗜好の対象として推定可能である。そのため、感情管理システム1Aによれば、対象者U1の潜在的な嗜好も考慮した、有意義な出会いを演出することが可能である。これにより、カクテルパーティ効果のように、多くの人が集う空間においても、同じ対象に興味を持つ一群の対象者U1を見出すことが可能である。   In particular, in the emotion management system 1A, the target person U1 is not only interested in hobbies and preferences described in a resume, but also, for example, an object of interest that the target person U1 is chasing without his or her eyes. It can be estimated as a target of the preference of U1. Therefore, according to the emotion management system 1A, it is possible to produce a meaningful encounter in consideration of the potential preference of the target person U1. This makes it possible to find a group of subjects U1 who are interested in the same subject even in a space where many people gather, such as the cocktail party effect.

ところで、演出部37にて出会いを演出する対象となる一群の対象者U1を決定するに際しては、例えば、目的としている出会いが優先的に演出されるように、ログ情報の項目ごとに優先度(重み付け)を加味してもよい。例えば、男女の出会いを目的とする場においては、同性同士ではなく、異性同士の出会いが優先的に演出されるように、演出部37は、一群の対象者U1を決定する。一例として、複数人の対象者U1が「釣り好き」という共通項を持つものの、これら複数人の対象者U1が同性同士である場合には、演出部37は、異性の対象者U1の共通項である「読書好き」に焦点を当てて、一群の対象者U1を決定する。   By the way, when deciding a group of subjects U1 to be directed to the encounter by the directing unit 37, for example, the priority (for each item of the log information) is set so that the target encounter is preferentially directed. Weighting) may be added. For example, in a place where men and women meet, the directing unit 37 determines a group of target persons U1 so that not the same sex but the opposite sex is preferentially directed. As an example, if a plurality of subjects U1 have a common term of “fishing lover”, but the plurality of subjects U1 are of the same gender, the directing unit 37 sets a common term of the opposite sex subject U1. The group of subjects U1 is determined by focusing on “I like reading”.

さらに、演出部37は、一群の対象者U1の共通項に係るイベントとして、例えば、照明を落とす等のサプライズ要素を盛り込んだイベントを所定空間Sp1で実行することで、いわゆる「吊り橋効果」も相まって、より効果的な出会いを演出することができる。   Furthermore, the directing unit 37 executes an event including a surprise element such as turning off the lighting in the predetermined space Sp1 as an event related to the common item of the group of subjects U1, and thus the so-called “suspension bridge effect” is also combined. , Can produce more effective encounters.

また、別の例として、演出部37は、以下のような手段で演出を行ってもよい。すなわち、演出部37は、一群の対象者U1の各々について知人をノードとする知人ネットワークが存在する場合に、一群の対象者U1の知人ネットワーク同士をつなげることにより、一群の対象者U1が出会う確率を上げてもよい。この場合でも、演出部37は、直接的な出会いを演出するのではなく、一群の対象者U1同士の出会いを間接的に演出することができる。   Further, as another example, the rendering unit 37 may perform the rendering by the following means. That is, when there is an acquaintance network having an acquaintance as a node for each of the group of target persons U1, the directing unit 37 connects the acquaintance networks of the group of target persons U1 with each other, thereby forming a probability that the group of target persons U1 will meet. May be raised. Even in this case, the directing unit 37 can indirectly direct the encounter between the group of target persons U1 instead of directing the encounter.

具体的には、演出部37は、ある対象者U1の知人ネットワークのノードである「知人」と、別の対象者U1の知人ネットワークのノードである「知人」と、を出会わせることにより、間接的に、ある対象者U1と別の対象者U1との出会いを演出する。この場合、演出部37は、知人同士の出会いについては、例えば、連絡先を交換する等の手段により直接的な出会いを演出してもよい。   More specifically, the directing unit 37 indirectly associates an "acquaintance", which is a node of an acquaintance network of a certain target person U1, with an "acquaintance", which is a node of an acquaintance network of another target person U1. Specifically, an encounter between a certain subject U1 and another subject U1 is produced. In this case, the directing unit 37 may direct the encounter with acquaintances by, for example, exchanging contact information.

実施形態2で説明した構成(変形例を含む)は、実施形態1で説明した構成(変形例を含む)と適宜組み合わせて採用可能である。   The configuration (including the modification) described in the second embodiment can be appropriately combined with the configuration (including the modification) described in the first embodiment.

(まとめ)
以上説明したように、第1の態様に係る感情管理システム(1,1A)は、感情取得部(22)と、状況取得部(21)と、対応付部(24)と、を備える。感情取得部(22)は、対象者(U1)の感情に関する感情情報(I1)を取得する。状況取得部(21)は、感情情報(I1)を取得したときの対象者(U1)の周辺状況に関する状況情報(I2)を取得する。対応付部(24)は、感情情報(I1)と状況情報(I2)とを対応付ける。
(Summary)
As described above, the emotion management system (1, 1A) according to the first aspect includes the emotion acquisition unit (22), the situation acquisition unit (21), and the association unit (24). The emotion acquisition unit (22) acquires emotion information (I1) on the emotion of the subject (U1). The situation acquisition unit (21) acquires situation information (I2) relating to the surrounding situation of the subject (U1) at the time of acquiring the emotion information (I1). The association unit (24) associates the emotion information (I1) with the situation information (I2).

この態様によれば、ある瞬間の対象者(U1)の感情に関する感情情報(I1)に、そのときの対象者(U1)の周辺状況に関する状況情報(I2)が対応付けられた状態で管理される。したがって、感情管理システム(1,1A)によれば、例えば、単に対象者(U1)の感情を、驚き、喜び、退屈、悲しみ、恐れ、嫌悪及び愛好等に分類するだけでなく、そのときの状況も含めて、より詳細な感情の特定が可能になる。   According to this aspect, the emotion information (I1) about the emotion of the target person (U1) at a certain moment is managed in a state where the situation information (I2) about the surrounding situation of the target person (U1) at that time is associated with the emotion information (I1). You. Therefore, according to the emotion management system (1, 1A), for example, the emotions of the subject (U1) are not only classified into surprise, joy, boredom, sadness, fear, disgust, and liking, but also at that time. More detailed emotion identification, including the situation, is possible.

第2の態様に係る感情管理システム(1,1A)では、第1の態様において、状況取得部(21)は、人体の一部(P1)に装着されるウェアラブル端末(2,2A)に搭載されている。   In the emotion management system (1, 1A) according to the second aspect, in the first aspect, the situation acquisition unit (21) is mounted on a wearable terminal (2, 2A) attached to a part (P1) of a human body. Have been.

この態様によれば、対象者(U1)の一部(P1)に装着されたウェアラブル端末(2,2A)にて、対象者(U1)の周辺状況に関する状況情報(I2)を取得可能である。   According to this aspect, the wearable terminal (2, 2A) attached to a part (P1) of the target person (U1) can acquire the situation information (I2) relating to the surrounding state of the target person (U1). .

第3の態様に係る感情管理システム(1,1A)は、第1又は2の態様において、変換部(31)を更に備える。状況情報(I2)は、対象者(U1)が相手と会話している際における相手に関する相手情報を含む。変換部(31)は、対応付部(24)で対応付けられた感情情報(I1)及び状況情報(I2)に基づいて、対象者(U1)から発せられて相手に届く言葉(W1,W2)を変換する。   The emotion management system (1, 1A) according to the third aspect is the first or second aspect, further including a conversion unit (31). The situation information (I2) includes partner information on the partner when the target person (U1) is talking with the partner. The conversion unit (31), based on the emotion information (I1) and the situation information (I2) associated by the association unit (24), outputs the words (W1, W2) emitted from the subject (U1) and reaching the partner. ).

この態様によれば、対象者(U1)から発せられて相手に届く言葉(W1,W2)が、感情情報(I1)及び状況情報(I2)に基づいて変換されるので、対象者(U1)と相手とのコミュニケーションの円滑化につながる。   According to this aspect, the words (W1, W2) emitted from the target person (U1) and reaching the partner are converted based on the emotion information (I1) and the situation information (I2), so that the target person (U1) And facilitate communication with the other party.

第4の態様に係る感情管理システム(1,1A)では、第3の態様において、相手情報は、対象者(U1)が相手と会話している際における、相手の反応と、会話の流れと、の少なくとも一方を含む。   In the emotion management system (1, 1A) according to the fourth aspect, in the third aspect, the partner information includes a response of the partner and a flow of the conversation when the target person (U1) is talking with the partner. , At least one of

この態様によれば、対象者(U1)から発せられて相手に届く言葉(W1,W2)が、相手の反応と、会話の流れと、の少なくとも一方に基づいて変換されるので、対象者(U1)と相手とのコミュニケーションの円滑化につながる。   According to this aspect, the words (W1, W2) emitted from the target person (U1) and reaching the partner are converted based on at least one of the reaction of the partner and the flow of the conversation. It leads to smooth communication between U1) and the other party.

第5の態様に係る感情管理システム(1,1A)は、第1〜4のいずれかの態様において、対応付部(24)で対応付けられた感情情報(I1)及び状況情報(I2)をログ情報として記録する記録部(32)を更に備える。   An emotion management system (1, 1A) according to a fifth aspect is the emotion management system (1, 1A) according to any one of the first to fourth aspects, wherein the emotion information (I1) and the status information (I2) associated by the association unit (24) are stored. It further includes a recording unit (32) for recording as log information.

この態様によれば、ログ情報を利用して、例えば、対象者(U1)が、どのような状況において、どのような感情を抱くか、といった傾向の判断にも用いることが可能である。   According to this aspect, it is possible to use the log information to determine, for example, the tendency of the subject (U1) in what kind of situation and what kind of emotion he or she has.

第6の態様に係る感情管理システム(1,1A)は、第5の態様において、ログ情報に基づいて、対象者(U1)の嗜好を反映した属性情報を生成する生成部(33)を更に備える。   The emotion management system (1, 1A) according to a sixth aspect further includes, in the fifth aspect, a generation unit (33) that generates attribute information reflecting the preference of the target person (U1) based on the log information. Prepare.

この態様によれば、対象者(U1)の嗜好を反映した属性情報が自動的に生成可能である。   According to this aspect, the attribute information reflecting the taste of the target person (U1) can be automatically generated.

第7の態様に係る感情管理システム(1,1A)は、第5又は6の態様において、ログ情報に基づいて、対象者(U1)の嗜好を反映した物品(Ob1,Ob2)を対象者(U1)に提供する提供部(34)を更に備える。   The emotion management system (1, 1A) according to the seventh aspect is the fifth or sixth aspect, wherein the object (Ob1, Ob2) reflecting the preference of the target person (U1) is determined based on the log information. The apparatus further includes a providing unit (34) for providing to U1).

この態様によれば、対象者(U1)の嗜好を反映した物品(Ob1,Ob2)を対象者(U1)に自動的に提供可能となる。   According to this aspect, articles (Ob1, Ob2) reflecting the taste of the target person (U1) can be automatically provided to the target person (U1).

第8の態様に係る感情管理システム(1,1A)は、第5〜7のいずれかの態様において、演出部(37)を更に備える。対象者(U1)は複数人である。演出部(37)は、複数人の対象者(U1)のうち2人以上の対象者(U1)を一群の対象者(U1)とし、一群の対象者(U1)の各々のログ情報に基づいて、一群の対象者(U1)が出会う確率を上げるための演出を行う。   An emotion management system (1, 1A) according to an eighth aspect is configured such that, in any one of the fifth to seventh aspects, a directing unit (37) is further provided. The target person (U1) is a plurality of persons. The production unit (37) sets two or more subjects (U1) of the plurality of subjects (U1) as a group of subjects (U1), and based on each log information of the group of subjects (U1). Then, an effect is performed to increase the probability that the group of subjects (U1) will meet.

この態様によれば、対象者(U1)同士の有意義な出会いの機会を演出することが可能である。   According to this aspect, it is possible to produce a meaningful encounter opportunity between the subjects (U1).

第9の態様に係る感情管理システム(1,1A)では、第8の態様において、演出部(37)は、所定空間(Sp1)に一群の対象者(U1)が同時に存在する場合に、一群の対象者(U1)の共通項に係るイベントを所定空間(Sp1)で実行する。これにより、演出部(37)は、一群の対象者(U1)が出会う確率を上げる。   In the emotion management system (1, 1A) according to the ninth aspect, in the eighth aspect, when the group of subjects (U1) simultaneously exists in the predetermined space (Sp1), the staging unit (37) The event related to the common term of the target person (U1) is executed in the predetermined space (Sp1). Thus, the rendering unit (37) increases the probability that the group of subjects (U1) will meet.

この態様によれば、所定空間(Sp1)に存在する対象者(U1)同士の有意義な出会いの機会を演出することが可能である。   According to this aspect, it is possible to produce a meaningful encounter opportunity between the subjects (U1) existing in the predetermined space (Sp1).

第10の態様に係る感情管理システム(1,1A)では、第8又は9の態様において、演出部(37)は、一群の対象者(U1)の各々について知人をノードとする知人ネットワークが存在する場合に、一群の対象者(U1)の知人ネットワーク同士をつなげる。これにより、演出部(37)は、一群の対象者(U1)が出会う確率を上げる。   In the emotion management system (1, 1A) according to the tenth aspect, in the eighth or ninth aspect, the directing unit (37) has an acquaintance network having an acquaintance as a node for each of the group of subjects (U1). In this case, the acquaintance networks of the group of target persons (U1) are connected to each other. Thus, the rendering unit (37) increases the probability that the group of subjects (U1) will meet.

この態様によれば、対象者(U1)同士の有意義な出会いを間接的に演出することが可能である。   According to this aspect, it is possible to indirectly produce a meaningful encounter between the subjects (U1).

第11の態様に係る感情管理方法は、感情取得処理と、状況取得処理と、対応付処理と、を有する。感情取得処理は、対象者(U1)の感情に関する感情情報(I1)を取得する処理である。状況取得処理は、感情情報(I1)を取得したときの対象者(U1)の周辺状況に関する状況情報(I2)を取得する処理である。対応付処理は、感情情報(I1)と状況情報(I2)とを対応付ける処理である。   An emotion management method according to an eleventh aspect includes an emotion acquisition process, a situation acquisition process, and an association process. The emotion acquisition process is a process of acquiring emotion information (I1) regarding the emotion of the target person (U1). The situation acquisition processing is processing for acquiring situation information (I2) relating to the surrounding situation of the target person (U1) at the time of acquiring the emotion information (I1). The association process is a process of associating the emotion information (I1) with the situation information (I2).

この態様によれば、ある瞬間の対象者(U1)の感情に関する感情情報(I1)に、そのときの対象者(U1)の周辺状況に関する状況情報(I2)が対応付けられた状態で管理される。したがって、感情管理方法によれば、例えば、単に対象者(U1)の感情を、驚き、喜び、退屈、悲しみ、恐れ、嫌悪及び愛好等に分類するだけでなく、そのときの状況も含めて、より詳細な感情の特定が可能になる。   According to this aspect, the emotion information (I1) about the emotion of the target person (U1) at a certain moment is managed in a state where the situation information (I2) about the surrounding situation of the target person (U1) at that time is associated with the emotion information (I1). You. Therefore, according to the emotion management method, for example, in addition to simply classifying the emotions of the subject (U1) into surprise, joy, boredom, sadness, fear, disgust, and liking, including the situation at that time, It is possible to specify emotions in more detail.

第12の態様に係るプログラムは、1以上のプロセッサに、第11の態様に係る感情管理方法を実行させるためのプログラムである。   A program according to a twelfth aspect is a program for causing one or more processors to execute the emotion management method according to the eleventh aspect.

この態様によれば、ある瞬間の対象者(U1)の感情に関する感情情報(I1)に、そのときの対象者(U1)の周辺状況に関する状況情報(I2)が対応付けられた状態で管理される。したがって、上記プログラムによれば、例えば、単に対象者(U1)の感情を、驚き、喜び、退屈、悲しみ、恐れ、嫌悪及び愛好等に分類するだけでなく、そのときの状況も含めて、より詳細な感情の特定が可能になる。   According to this aspect, the emotion information (I1) about the emotion of the target person (U1) at a certain moment is managed in a state where the situation information (I2) about the surrounding situation of the target person (U1) at that time is associated with the emotion information (I1). You. Therefore, according to the above-described program, for example, the emotions of the subject (U1) are not only classified into surprise, joy, boredom, sadness, fear, disgust, love, and the like, but also include the situation at that time. Detailed emotion identification becomes possible.

上記態様に限らず、実施形態1及び実施形態2に係る感情管理システム(1,1A)の種々の構成(変形例を含む)は、感情管理方法又はプログラムにて具現化可能である。   Not limited to the above aspect, various configurations (including modified examples) of the emotion management system (1, 1A) according to the first and second embodiments can be embodied by an emotion management method or a program.

第2〜10の態様に係る構成については、感情管理システム(1,1A)に必須の構成ではなく、適宜省略可能である。   The configurations according to the second to tenth aspects are not essential configurations for the emotion management system (1, 1A), and can be omitted as appropriate.

1,1A 感情管理システム
2,2A ウェアラブル端末
21 状況取得部
22 感情取得部
24 対応付部
31 変換部
32 記録部
33 生成部
34 提供部
37 演出部
I1 感情情報
I2 状況情報
Ob1,Ob2 物品
P1 一部
Sp1 所定空間
U1 対象者
W1,W2 言葉
1, 1A Emotion management system 2, 2A Wearable terminal 21 Situation acquisition unit 22 Emotion acquisition unit 24 Correlation unit 31 Conversion unit 32 Recording unit 33 Generation unit 34 Provision unit 37 Direction unit I1 Emotion information I2 Situation information Ob1, Ob2 Article P1 One Part Sp1 Predetermined space U1 Target person W1, W2 Words

Claims (12)

対象者の感情に関する感情情報を取得する感情取得部と、
前記感情情報を取得したときの前記対象者の周辺状況に関する状況情報を取得する状況取得部と、
前記感情情報と前記状況情報とを対応付ける対応付部と、を備える、
感情管理システム。
An emotion acquisition unit that acquires emotion information about the emotion of the target person;
A situation acquisition unit that acquires situation information about the surrounding situation of the target person when acquiring the emotion information,
An association unit that associates the emotion information with the situation information,
Emotion management system.
前記状況取得部は、人体の一部に装着されるウェアラブル端末に搭載されている、
請求項1に記載の感情管理システム。
The situation obtaining unit is mounted on a wearable terminal that is mounted on a part of a human body.
The emotion management system according to claim 1.
変換部を更に備え、
前記状況情報は、前記対象者が相手と会話している際における前記相手に関する相手情報を含み、
前記変換部は、前記対応付部で対応付けられた前記感情情報及び前記状況情報に基づいて、前記対象者から発せられて前記相手に届く言葉を変換する、
請求項1又は2に記載の感情管理システム。
Further comprising a conversion unit,
The situation information includes partner information about the partner when the target person is talking with the partner,
The conversion unit, based on the emotion information and the situation information associated with the association unit, to convert the words emitted from the target person and reach the other party,
The emotion management system according to claim 1.
前記相手情報は、前記対象者が前記相手と会話している際における、前記相手の反応と、前記会話の流れと、の少なくとも一方を含む、
請求項3に記載の感情管理システム。
The partner information includes at least one of the reaction of the partner and the flow of the conversation when the target person is talking with the partner.
The emotion management system according to claim 3.
前記対応付部で対応付けられた前記感情情報及び前記状況情報をログ情報として記録する記録部を更に備える、
請求項1〜4のいずれか1項に記載の感情管理システム。
The apparatus further includes a recording unit that records the emotion information and the status information associated with the association unit as log information.
The emotion management system according to claim 1.
前記ログ情報に基づいて、前記対象者の嗜好を反映した属性情報を生成する生成部を更に備える、
請求項5に記載の感情管理システム。
The apparatus further includes a generation unit configured to generate attribute information reflecting tastes of the target person based on the log information,
The emotion management system according to claim 5.
前記ログ情報に基づいて、前記対象者の嗜好を反映した物品を前記対象者に提供する提供部を更に備える、
請求項5又は6に記載の感情管理システム。
Based on the log information, further includes a providing unit that provides the target person with an article reflecting the taste of the target person,
The emotion management system according to claim 5.
前記対象者は複数人であって、
前記複数人の対象者のうち2人以上の対象者を一群の対象者とし、前記一群の対象者の各々の前記ログ情報に基づいて、前記一群の対象者が出会う確率を上げるための演出を行う演出部を更に備える、
請求項5〜7のいずれか1項に記載の感情管理システム。
The subject is a plurality of people,
Two or more subjects among the plurality of subjects are set as a group of subjects, and based on the log information of each of the group of subjects, an effect for increasing a probability of the group of subjects meeting is provided. Further comprising a directing unit for performing,
The emotion management system according to claim 5.
前記演出部は、所定空間に前記一群の対象者が同時に存在する場合に、前記一群の対象者の共通項に係るイベントを前記所定空間で実行することにより、前記一群の対象者が出会う確率を上げる、
請求項8に記載の感情管理システム。
The directing unit, when the group of subjects is simultaneously present in a predetermined space, by executing an event related to a common term of the group of subjects in the predetermined space, the probability that the group of subjects meet. increase,
An emotion management system according to claim 8.
前記演出部は、前記一群の対象者の各々について知人をノードとする知人ネットワークが存在する場合に、前記一群の対象者の前記知人ネットワーク同士をつなげることにより、前記一群の対象者が出会う確率を上げる、
請求項8又は9に記載の感情管理システム。
The directing unit, when there is an acquaintance network with an acquaintance as a node for each of the group of subjects, by connecting the acquaintance networks of the group of subjects, the probability that the group of subjects meet. increase,
The emotion management system according to claim 8.
対象者の感情に関する感情情報を取得する感情取得処理と、
前記感情情報を取得したときの前記対象者の周辺状況に関する状況情報を取得する状況取得処理と、
前記感情情報と前記状況情報とを対応付ける対応付処理と、を有する、
感情管理方法。
An emotion acquisition process for acquiring emotion information about the emotion of the subject;
A situation acquisition process of acquiring situation information about the surrounding situation of the subject when acquiring the emotion information,
Having an association process for associating the emotion information with the situation information,
Emotion management method.
1以上のプロセッサに、請求項11に記載の感情管理方法を実行させるためのプログラム。   A program for causing one or more processors to execute the emotion management method according to claim 11.
JP2018182932A 2018-09-27 2018-09-27 Emotion management system, emotion management method and program Pending JP2020052847A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018182932A JP2020052847A (en) 2018-09-27 2018-09-27 Emotion management system, emotion management method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018182932A JP2020052847A (en) 2018-09-27 2018-09-27 Emotion management system, emotion management method and program

Publications (1)

Publication Number Publication Date
JP2020052847A true JP2020052847A (en) 2020-04-02

Family

ID=69997314

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018182932A Pending JP2020052847A (en) 2018-09-27 2018-09-27 Emotion management system, emotion management method and program

Country Status (1)

Country Link
JP (1) JP2020052847A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112181152A (en) * 2020-11-13 2021-01-05 幻蝎科技(武汉)有限公司 Advertisement push management method, equipment and application based on MR glasses
JP7185802B1 (en) * 2022-08-19 2022-12-07 太郎 山下 Evaluation device, evaluation method and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112181152A (en) * 2020-11-13 2021-01-05 幻蝎科技(武汉)有限公司 Advertisement push management method, equipment and application based on MR glasses
CN112181152B (en) * 2020-11-13 2023-05-26 幻蝎科技(武汉)有限公司 Advertisement pushing management method, device and application based on MR (magnetic resonance) glasses
JP7185802B1 (en) * 2022-08-19 2022-12-07 太郎 山下 Evaluation device, evaluation method and program

Similar Documents

Publication Publication Date Title
US11327556B2 (en) Information processing system, client terminal, information processing method, and recording medium
CN109475294B (en) Mobile and wearable video capture and feedback platform for treating mental disorders
US10595072B2 (en) Systems and methods for recognizing faces using non-facial information
CN107405120B (en) Information processing apparatus, control method, and program
JP6111932B2 (en) Action support device, action support method, program, and storage medium
US20130245396A1 (en) Mental state analysis using wearable-camera devices
KR20160144305A (en) Method and apparatus for providing content
US20210161482A1 (en) Information processing device, information processing method, and computer program
CN112181152A (en) Advertisement push management method, equipment and application based on MR glasses
EP2972678A1 (en) Wearable computing apparatus and method
US20220301002A1 (en) Information processing system, communication device, control method, and storage medium
JPWO2019207896A1 (en) Information processing system, information processing method, and recording medium
CN111465949A (en) Information processing apparatus, information processing method, and program
JP7359437B2 (en) Information processing device, program, and method
JP2020052847A (en) Emotion management system, emotion management method and program
JP2018005512A (en) Program, electronic device, information processing device and system
EP3965369A1 (en) Information processing apparatus, program, and information processing method
Shoji et al. Proposal of spoken interactive home doctor system for elderly people
WO2020003293A2 (en) Apparatus, system, and method for machine perception
CN109145010A (en) Information query method, device, storage medium and wearable device
US20210082392A1 (en) Information processing device, information processing method, and program