JP6933076B2 - Control devices, control methods, programs and control systems - Google Patents

Control devices, control methods, programs and control systems Download PDF

Info

Publication number
JP6933076B2
JP6933076B2 JP2017187348A JP2017187348A JP6933076B2 JP 6933076 B2 JP6933076 B2 JP 6933076B2 JP 2017187348 A JP2017187348 A JP 2017187348A JP 2017187348 A JP2017187348 A JP 2017187348A JP 6933076 B2 JP6933076 B2 JP 6933076B2
Authority
JP
Japan
Prior art keywords
user
emotion
calling side
side user
predetermined amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017187348A
Other languages
Japanese (ja)
Other versions
JP2019062490A (en
Inventor
伸一 深澤
伸一 深澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2017187348A priority Critical patent/JP6933076B2/en
Publication of JP2019062490A publication Critical patent/JP2019062490A/en
Application granted granted Critical
Publication of JP6933076B2 publication Critical patent/JP6933076B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Telephonic Communication Services (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、制御装置、制御方法、プログラム及び制御システムに関する。 The present invention relates to control devices, control methods, programs and control systems.

本願発明者が実施した評価実験の結果から、人は会話の開始時において、話しかけたい相手の感情状態がポジティブ(快)であるほど話しかけ行為をしやすく感じることがわかっている。また、本願発明者がコミュニケーション支援システムに関して実施した調査においても「上司に重要なことを相談するような時には機嫌が良い時を見計らって話しかける」等の経験コメントが得られている。このように、相手の感情状態がポジティブである時に話しかけて会話を開始できることが、円滑なコミュニケーションの実現に重要である。そしてこれは、分散環境下における電話等を用いた遠隔コミュニケーションの場合においても同様にいえることである。 From the results of the evaluation experiment conducted by the inventor of the present application, it is known that at the beginning of a conversation, the more positive the emotional state of the person with whom the person wants to talk is, the easier it is to talk. In addition, in the survey conducted by the inventor of the present application regarding the communication support system, experience comments such as "when consulting with a boss about important matters, talk in a good mood" have been obtained. In this way, being able to speak and start a conversation when the other person's emotional state is positive is important for realizing smooth communication. The same can be said for remote communication using a telephone or the like in a distributed environment.

特許文献1には、通信端末を介して通信開始前の他のユーザーの感情状態を含むまたは示す情報(以下、感情情報)を取得することができる情報通信システムが提案されている。 Patent Document 1 proposes an information communication system capable of acquiring information including or indicating an emotional state of another user before the start of communication (hereinafter, emotional information) via a communication terminal.

特開2003−110703号公報Japanese Unexamined Patent Publication No. 2003-110703

しかし、特許文献1の情報通信システムでは、ユーザーは他のユーザーの感情を取得情報から「知る」ことはできるが、該他のユーザーに話しかける(電話をかける)前にその感情を「変容」させることはできない。たとえば、特許文献1の情報通信システムを使用して他のユーザーがネガティブな感情であることを知ることができても、それを変容させることはできないため、相手がネガティブな感情であることを知った上で我慢して話しかけるか、いつになるかわからないまま相手が自然にポジティブな感情に変わるのを待ち続けなければならない、という問題があった。 However, in the information communication system of Patent Document 1, a user can "know" the emotions of another user from the acquired information, but "transform" the emotions before talking to (calling) the other user. It is not possible. For example, even if it is possible to know that another user has a negative emotion by using the information communication system of Patent Document 1, it cannot be transformed, so that the other user knows that the other user has a negative emotion. There was the problem of having to put up with it and talk to it, or wait for the other person to naturally turn into positive emotions without knowing when.

また、非特許文献1では、感情をポジティブもしくはネガティブに誘導された実験参加者同士に会話を行わせ、会話満足度や対人印象を評価した結果、互いの感情が類似している条件(差異小)の方が、非類似の条件(差異大)よりも、互いの対人印象や会話満足度の評価値の差が小さかった。会話の場としての評価では、話者同士の感情状態やその評価間の差異は小さい方が望ましい(一方が高評価で他方が低評価というのは全体から見ると損得が生じており望ましくない)ため、話者同士の感情状態は類似している方が良いといえる。上述の話しかけやすさの問題と併せて考えると、話しかける側と話しかけられる側の感情状態の差異が小さく、かつ両者ができるだけポジティブな感情であること(すなわち両者が同程度にポジティブな感情であること)が、会話開始には最も望ましい状況と言える。(非特許文献1:藤原健、大坊郁夫、感情が会話満足度や対人印象に与える影響―話者間の感情構成への着目、心理学研究、84(5)、pp.522−528、2013)。 Further, in Non-Patent Document 1, as a result of having the experimental participants whose emotions are positively or negatively induced to have a conversation and evaluating the conversation satisfaction and the interpersonal impression, the condition that the emotions are similar to each other (small difference). ) Was smaller in the evaluation values of interpersonal impression and conversation satisfaction than the dissimilar conditions (large difference). In the evaluation as a place of conversation, it is desirable that the emotional state of the speakers and the difference between the evaluations are small (one is highly evaluated and the other is low, which is not desirable as a whole.) Therefore, it is better that the emotional states of the speakers are similar. Considering the above-mentioned problem of ease of speaking, the difference in emotional state between the talking side and the talking side is small, and both are as positive emotions as possible (that is, both are equally positive emotions). ), But it can be said that it is the most desirable situation for starting a conversation. (Non-Patent Document 1: Ken Fujiwara, Ikuo Daibo, Effect of Emotion on Conversational Satisfaction and Interpersonal Impression-Focusing on Emotional Composition between Speakers, Psychological Research, 84 (5), pp.522-528, 2013).

そこで本発明は、より円滑なコミュニケーションを実現するための技術を提供することを目的とする。一例として、本願発明は、発呼側のユーザーと着呼側のユーザーの感情情報をそれぞれ取得し、両者の感情の状態に差異があった場合に、少なくとも一方の話者に感情誘導刺激を提示することによって、感情誘導刺激が提示される話者の感情の状態を変化させてから、両者間の通信を開始させることを目的とする。さらに一例として、本願発明は、ポジティブ度が低い方の話者に感情誘導刺激を提示してポジティブ度を上げることによって、両者のポジティブ度を高い方に揃える方式で差異を小さくしてから両者間の通話を開始させる、新しい呼制御機能を備えた遠隔コミュニケーションシステムを提供することを目的とする。 Therefore, an object of the present invention is to provide a technique for realizing smoother communication. As an example, the present invention acquires emotional information of a calling user and a calling user, and presents an emotion-inducing stimulus to at least one speaker when there is a difference in emotional states between the two. By doing so, the purpose is to change the emotional state of the speaker to which the emotion-inducing stimulus is presented, and then to start communication between the two. Further, as an example, the present invention presents an emotion-inducing stimulus to a speaker with a lower positive degree to increase the positive degree, thereby reducing the difference between the two by aligning the positive degree between the two to the higher one. The purpose is to provide a remote communication system with a new call control function that initiates a call.

上記問題を解決するために、本発明のある観点によれば、発呼側のユーザーの感情推定情報と着呼側のユーザーの感情推定情報との差分を算出し、前記差分が所定の量を超えるか否かを判断する判断部と、前記差分が前記所定の量を超えると判断された場合に、前記発呼側のユーザー及び前記着呼側のユーザーのうち少なくともいずれか一方に対して、所定の刺激が提示されるように制御する提示制御部と、を備える、制御装置が提供される。 In order to solve the above problem, according to a certain viewpoint of the present invention, a difference between the emotion estimation information of the calling side user and the emotion estimation information of the calling side user is calculated, and the difference is set to a predetermined amount. For at least one of the calling side user and the calling side user when it is determined that the difference exceeds the predetermined amount, the judgment unit for determining whether or not to exceed the value. A control device is provided that includes a presentation control unit that controls the presentation of a predetermined stimulus.

前記発呼側のユーザーの感情推定情報は、前記発呼側のユーザーのポジティブ度を含み、前記着呼側のユーザーの感情推定情報は、前記着呼側のユーザーのポジティブ度を含んでもよい。 The emotion estimation information of the calling side user may include the positive degree of the calling side user, and the emotion estimation information of the calling side user may include the positive degree of the calling side user.

前記提示制御部は、前記発呼側のユーザー及び前記着呼側のユーザーのうち少なくとも前記ポジティブ度がより低いユーザーに対して前記所定の刺激が提示されるように制御してもよい。 The presentation control unit may control so that the predetermined stimulus is presented to at least the user having a lower positive degree among the calling side user and the calling side user.

前記制御装置は、前記差分が前記所定の量を超えると判断された場合に、少なくとも前記差分が視認可能に前記発呼側のユーザーに提示されるように制御する契機制御部を備えてもよい。 The control device may include an opportunity control unit that controls at least the difference to be visually presented to the calling user when it is determined that the difference exceeds the predetermined amount. ..

前記制御装置は、所定の条件が満たされた場合、前記発呼側のユーザーと前記着呼側のユーザーとの間の通信を開始させる契機制御部を備えてもよい。 The control device may include an opportunity control unit that starts communication between the calling side user and the calling side user when a predetermined condition is satisfied.

前記判断部は、前記差分が前記所定の量を超えると判断した場合に、少なくとも前記所定の刺激が提示されたユーザーの感情推定情報に基づいて前記差分を再度算出し、前記差分が前記所定の量以下になったか否かを判断してもよい。 When the determination unit determines that the difference exceeds the predetermined amount, the determination unit recalculates the difference based on at least the emotion estimation information of the user presented with the predetermined stimulus, and the difference is the predetermined amount. It may be determined whether or not the amount is less than the amount.

前記契機制御部は、前記差分が前記所定の量以下になったと判断された場合、前記発呼側のユーザーと前記着呼側のユーザーとの間の通信を開始させてもよい。 When it is determined that the difference is equal to or less than the predetermined amount, the trigger control unit may start communication between the calling side user and the calling side user.

前記契機制御部は、所定の通信開始指示が入力された場合、前記発呼側のユーザーと前記着呼側のユーザーとの間の通信を開始させてもよい。 When a predetermined communication start instruction is input, the trigger control unit may start communication between the calling side user and the calling side user.

前記判断部は、前記差分が前記所定の量を超える時間が所定の時間を経過した場合、前記所定の量が増加するように前記所定の量を変化させてもよい。 The determination unit may change the predetermined amount so that the predetermined amount increases when the predetermined time elapses for the time when the difference exceeds the predetermined amount.

前記制御装置は、前記差分が前記所定の量を超えると判断された場合に、前記差分が前記所定の量以下になるまでの予測時間が、前記発呼側のユーザー及び前記着呼側のユーザーのうち少なくともいずれか一方に対して提示されるように制御する予測部を備えてもよい。 When the control device determines that the difference exceeds the predetermined amount, the estimated time until the difference becomes equal to or less than the predetermined amount is determined by the calling side user and the calling side user. A prediction unit may be provided for controlling so as to be presented to at least one of them.

前記所定の刺激は、既知の感情誘導刺激のデータと前記感情誘導刺激を受けたユーザーの感情変容の正解情報のデータとに基づいて学習処理によって生成された推定モデルに基づいて、感情が変化しやすいと推定された刺激であってもよい。 The predetermined stimulus changes the emotion based on an estimation model generated by a learning process based on the data of the known emotion-induced stimulus and the data of the correct answer information of the emotional transformation of the user who received the emotion-induced stimulus. It may be a stimulus presumed to be easy.

前記所定の刺激は、画像表示および音出力の少なくともいずれか一方によって提示されてもよい。 The predetermined stimulus may be presented by at least one of image display and sound output.

また、本発明の他の観点によれば、コンピュータが、発呼側のユーザーの感情推定情報と着呼側のユーザーの感情推定情報との差分を算出し、前記差分が所定の量を超えるか否かを判断することと、前記コンピュータが、前記差分が前記所定の量を超えると判断された場合に、前記発呼側のユーザー及び前記着呼側のユーザーのうち少なくともいずれか一方に対して、所定の刺激が提示されるように提示部を制御することと、を含む、制御方法が提供される。

Further, according to another aspect of the present invention, the computer calculates the difference between the emotion estimation information of the calling side user and the emotion estimation information of the calling side user, and whether the difference exceeds a predetermined amount. Determining whether or not, and when the computer determines that the difference exceeds the predetermined amount, for at least one of the calling side user and the calling side user. A control method is provided, including controlling the presentation unit so that a predetermined stimulus is presented.

また、本発明の他の観点によれば、コンピュータを、発呼側のユーザーの感情推定情報と着呼側のユーザーの感情推定情報との差分を算出し、前記差分が所定の量を超えるか否かを判断する判断部と、前記差分が前記所定の量を超えると判断された場合に、前記発呼側のユーザー及び前記着呼側のユーザーのうち少なくともいずれか一方に対して、所定の刺激が提示されるように制御する提示制御部と、を備える制御装置として機能させるためのプログラムが提供される。 Further, according to another aspect of the present invention, the computer calculates the difference between the emotion estimation information of the calling side user and the emotion estimation information of the calling side user, and whether the difference exceeds a predetermined amount. A determination unit for determining whether or not, and when it is determined that the difference exceeds the predetermined amount, a predetermined value is given to at least one of the calling side user and the calling side user. A program for functioning as a control device including a presentation control unit that controls the presentation of a stimulus is provided.

また、本発明の他の観点によれば、発呼側のユーザーの感情推定情報と着呼側のユーザーの感情推定情報との差分を算出し、前記差分が所定の量を超えるか否かを判断する判断部と、前記差分が前記所定の量を超えると判断された場合に、前記発呼側のユーザー及び前記着呼側のユーザーのうち少なくともいずれか一方に対して、所定の刺激が提示されるように制御する提示制御部と、を備える、制御装置と、前記所定の刺激を提示する提示装置と、を有する、制御システムが提供される。 Further, according to another viewpoint of the present invention, the difference between the emotion estimation information of the calling side user and the emotion estimation information of the calling side user is calculated, and whether or not the difference exceeds a predetermined amount is determined. When it is determined that the difference exceeds the predetermined amount, the predetermined stimulus is presented to at least one of the calling side user and the calling side user. Provided is a control system comprising a control device comprising a presentation control unit for controlling the stimulus to be performed, and a presentation device for presenting the predetermined stimulus.

以上説明したように本発明によれば、より円滑なコミュニケーションを実現するための技術を提供することが可能になる。 As described above, according to the present invention, it is possible to provide a technique for realizing smoother communication.

本実施形態に係るコミュニケーションシステムの概略的な構成の一例を示す説明図である。It is explanatory drawing which shows an example of the schematic structure of the communication system which concerns on this embodiment. 同実施形態に係る感情制御サーバ、センサ端末、コミュニケーション端末のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware composition of the emotion control server, the sensor terminal, and a communication terminal which concerns on this embodiment. 同実施形態に係るセンサ端末の機能構成の一例を示すブロック図である。It is a block diagram which shows an example of the functional structure of the sensor terminal which concerns on this embodiment. 同実施形態に係るコミュニケーション端末の機能構成の一例を示すブロック図である。It is a block diagram which shows an example of the functional structure of the communication terminal which concerns on this embodiment. 第1の実施形態に係る感情制御サーバの機能構成の一例を示すブロック図である。It is a block diagram which shows an example of the functional structure of the emotion control server which concerns on 1st Embodiment. 感情バランス調整処理中であることを示す表示画面の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the display screen which shows that the emotional balance adjustment processing is in progress. 感情誘導刺激を含む表示画面の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of a display screen including an emotion-inducing stimulus. 呼び出し処理中の表示画面の一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the display screen during a call process. 感情推定部によって記憶部に記憶されるデータテーブルの一例を説明するための説明図である。It is explanatory drawing for demonstrating an example of the data table stored in the storage part by an emotion estimation part. 本実施形態に係るコミュニケーションシステムの動作シーケンスの一例を示す説明図である。It is explanatory drawing which shows an example of the operation sequence of the communication system which concerns on this embodiment. 本実施形態に係るコミュニケーションシステムの動作シーケンスの一例を示す説明図である。It is explanatory drawing which shows an example of the operation sequence of the communication system which concerns on this embodiment. 第2の実施形態に係る感情制御サーバの機能構成の一例を示すブロック図である。It is a block diagram which shows an example of the functional structure of the emotion control server which concerns on 2nd Embodiment. 感情バランス調整処理中であることを示す表示画面の他の一例を説明するための説明図である。It is explanatory drawing for demonstrating another example of the display screen which shows that the emotion balance adjustment processing is in progress.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the present specification and the drawings, components having substantially the same functional configuration are designated by the same reference numerals, so that duplicate description will be omitted.

また、本明細書及び図面において、実質的に同一または類似の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する。ただし、実質的に同一または類似の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。 Further, in the present specification and the drawings, a plurality of components having substantially the same or similar functional configurations are distinguished by adding different alphabets after the same reference numerals. However, if it is not necessary to distinguish each of the plurality of components having substantially the same or similar functional configurations, only the same reference numerals are given.

まず、図1を参照して、本発明の実施形態に係るコミュニケーションシステム(制御システム)の概略的な構成を説明する。図1は、本実施形態に係るコミュニケーションシステムの概略的な構成の一例を示す説明図である。図1を参照すると、当コミュニケーションシステムは、感情制御サーバ100(制御装置)、複数のユーザー900、複数のセンサ端末200、複数のコミュニケーション端末300(提示装置)、LAN50を含む。 First, a schematic configuration of a communication system (control system) according to an embodiment of the present invention will be described with reference to FIG. FIG. 1 is an explanatory diagram showing an example of a schematic configuration of a communication system according to the present embodiment. Referring to FIG. 1, the communication system includes an emotion control server 100 (control device), a plurality of users 900, a plurality of sensor terminals 200, a plurality of communication terminals 300 (presentation device), and a LAN 50.

当コミュニケーションシステムは遠隔地間の情報通信機能を有するため、複数のユーザー900は互いに空間的に離れて存在してもよく、図1では、拠点bAにユーザー900A、センサ端末200A、コミュニケーション端末300A、拠点bBに、ユーザー900B、センサ端末200B、コミュニケーション端末300Bが存在するケースを一例として図示している。ユーザー900Aと900Bは、互いに遠隔協働(テレワーク)を行っており、拠点bAと拠点bBはリモートオフィスの関係であってもよい。 Since this communication system has an information communication function between remote locations, a plurality of users 900 may exist spatially apart from each other. In FIG. 1, the user 900A, the sensor terminal 200A, and the communication terminal 300A are located at the base bA. An example is shown in which a user 900B, a sensor terminal 200B, and a communication terminal 300B exist at the base bB. The users 900A and 900B are remotely collaborating (teleworking) with each other, and the base bA and the base bB may be in a remote office relationship.

なお、センサ端末200Aとコミュニケーション端末300Aはユーザー900Aの個別使用端末であってもよい。その場合、ユーザー900Aとセンサ端末200Aとコミュニケーション端末300Aとは、それぞれと対応づけられた通信用の識別情報(以下「通信用ID」;たとえば電話番号やIP(Internet Protocol)アドレス)のデータ同士を相互に紐づける設定処理を予め行われ、該設定のデータは感情制御サーバ100に記憶されていてもよい(ユーザー900Bの場合も同様)。 The sensor terminal 200A and the communication terminal 300A may be individually used terminals of the user 900A. In that case, the user 900A, the sensor terminal 200A, and the communication terminal 300A exchange data for communication identification information (hereinafter, "communication ID"; for example, a telephone number or IP (Internet Protocol) address) associated with each other. The setting process for associating with each other is performed in advance, and the data of the setting may be stored in the emotion control server 100 (the same applies to the user 900B).

図2は、本実施形態に係る感情制御サーバ100、センサ端末200、コミュニケーション端末300(以下、感情制御サーバ100、センサ端末200及びコミュニケーション端末300それぞれを区別せずに「本実施形態に係る装置」と言う場合がある。)のハードウェア構成の一例を示すブロック図である。なお、上記の各装置のすべてに下記のハードウェア構成のすべてが備えられている必要はなく(たとえば感情制御サーバ100に直接的にセンサが備えられている必要はない)、後述する各装置の機能構成を実現できるハードウェアモジュールが適宜限定して備えられてもよい。 FIG. 2 shows the “device according to the present embodiment” without distinguishing between the emotion control server 100, the sensor terminal 200, and the communication terminal 300 (hereinafter, the emotion control server 100, the sensor terminal 200, and the communication terminal 300) according to the present embodiment. It is a block diagram which shows an example of the hardware configuration of). It should be noted that it is not necessary for all of the above devices to be equipped with all of the following hardware configurations (for example, the emotion control server 100 does not need to be directly equipped with a sensor), and for each device described later. A hardware module capable of realizing a functional configuration may be provided with an appropriate limitation.

図2を参照すると、本実施形態に係る装置は、バス801、CPU(Central Processing Unit)803、ROM(Read Only
Memory)805、RAM(Random Access Memory)807、記憶装置809、通信インタフェース811、センサ813、入力装置815、表示装置817、スピーカ819を備える。
Referring to FIG. 2, the apparatus according to the present embodiment includes a bus 801 and a CPU (Central Processing Unit) 803, and a ROM (Read Only).
It includes a Memory) 805, a RAM (Random Access Memory) 807, a storage device 809, a communication interface 811 and a sensor 813, an input device 815, a display device 817, and a speaker 819.

CPU803は、本実施形態に係る装置における様々な処理を実行する。また、ROM805は、本実施形態に係る装置における処理をCPU803に実行させるためのプログラム及びデータを記憶する。また、RAM807は、CPU803の処理の実行時に、プログラム及びデータを一時的に記憶する。 The CPU 803 executes various processes in the apparatus according to the present embodiment. Further, the ROM 805 stores a program and data for causing the CPU 803 to execute the processing in the apparatus according to the present embodiment. Further, the RAM 807 temporarily stores the program and the data when the processing of the CPU 803 is executed.

バス801は、CPU803、ROM805及びRAM807を相互に接続する。バス801には、さらに、記憶装置809、通信インタフェース811、センサ813、入力装置815、表示装置817及びスピーカ819が接続される。バス801は、例えば、複数の種類のバスを含む。一例として、バス801は、CPU803、ROM805及びRAM807を接続する高速バスと、該高速バスよりも低速の1つ以上の別のバスを含む。
記憶装置809は、本実施形態に係る装置内で一時的または恒久的に保存すべきデータを記憶する。記憶装置809は、例えば、ハードディスク(Hard Disk)等の磁気記憶装置であってもよく、または、EEPROM(Electrically
Erasable and Programmable Read Only Memory)、フラッシュメモリ(flash
memory)、MRAM(Magnetoresistive Random Access Memory)、FeRAM(Ferroelectric Random Access Memory)及びPRAM(Phase
change Random Access Memory)等の不揮発性メモリ(nonvolatile
memory)であってもよい。
The bus 801 connects the CPU 803, the ROM 805, and the RAM 807 to each other. A storage device 809, a communication interface 811, a sensor 813, an input device 815, a display device 817, and a speaker 819 are further connected to the bus 801. Bus 801 includes, for example, a plurality of types of buses. As an example, bus 801 includes a high-speed bus connecting the CPU 803, ROM 805 and RAM 807, and one or more other buses slower than the high-speed bus.
The storage device 809 stores data to be temporarily or permanently stored in the device according to the present embodiment. The storage device 809 may be, for example, a magnetic storage device such as a hard disk, or an EEPROM (Electrically).
Erasable and Programmable Read Only Memory, flash memory
memory), MRAM (Magnetoresistive Random Access Memory), FeRAM (Ferroelectric Random Access Memory) and PRAM (Phase)
Nonvolatile memory (nonvolatile) such as change Random Access Memory)
memory) may be used.

通信インタフェース811は、本実施形態に係る装置が備える通信手段であり、ネットワークを介して(あるいは直接的に)外部装置と通信する。通信インタフェース811は、無線通信用のインタフェースであってもよく、この場合に、例えば、通信アンテナ、RF回路及びその他の通信処理用の回路を含んでもよい。また、通信インタフェース811は、有線通信用のインタフェースであってもよく、この場合に、例えば、LAN端子、伝送回路及びその他の通信処理用の回路を含んでもよい。 The communication interface 811 is a communication means included in the device according to the present embodiment, and communicates with an external device via a network (or directly). The communication interface 811 may be an interface for wireless communication, and in this case, for example, a communication antenna, an RF circuit, and other circuits for communication processing may be included. Further, the communication interface 811 may be an interface for wired communication, and in this case, for example, a LAN terminal, a transmission circuit, and other circuits for communication processing may be included.

センサ813は、たとえばカメラ、マイクロフォン、生体センサ、その他のセンサまたはそれらの複合である。カメラは、被写体を撮像するもので、例えば光学系、撮像素子及び画像処理回路を含む。マイクロフォンは、周囲の音を収音するもので、該音を電気信号へ変換し該電気信号をデジタルデータに変換する。入力装置815は、タッチパネル、マウス、視線検出装置等である。 The sensor 813 is, for example, a camera, a microphone, a biosensor, another sensor, or a combination thereof. The camera captures a subject and includes, for example, an optical system, an image sensor, and an image processing circuit. A microphone picks up ambient sound, converts the sound into an electric signal, and converts the electric signal into digital data. The input device 815 is a touch panel, a mouse, a line-of-sight detection device, and the like.

表示装置817は、本実施形態に係る装置からの出力画像(すなわち表示画面)を表示するもので、例えば液晶、有機EL(Organic Light-Emitting Diode)、CRT(Cathode
Ray Tube)等を用いて実現され得る。スピーカ819は、音声を出力するもので、デジタルデータを電気信号に変換し該電気信号を音声に変換する。
The display device 817 displays an output image (that is, a display screen) from the device according to the present embodiment, and is, for example, a liquid crystal display, an organic EL (Organic Light-Emitting Diode), or a CRT (Cathode).
It can be realized by using Ray Tube) or the like. The speaker 819 outputs sound, converts digital data into an electric signal, and converts the electric signal into sound.

次に、図3を参照して、本実施形態に係る「センサ端末200」の機能構成の一例を説明する。センサ端末200は、ユーザー900の行動や生理反応を外的に計測して取得したデータを後述する感情制御サーバ100へ送信する。 Next, an example of the functional configuration of the “sensor terminal 200” according to the present embodiment will be described with reference to FIG. The sensor terminal 200 externally measures the behavior and physiological reaction of the user 900 and transmits the acquired data to the emotion control server 100 described later.

図3は、本実施形態に係るセンサ端末200の機能構成の一例を示すブロック図である。図3を参照すると、センサ端末200は、通信部210、計測部220及び制御部230を備える。なお、図3には図示していないが、センサ端末200は、計測データを保存するための記憶部や、内部動作状況をユーザーに示すための表示部等をさらに備えていてもよい。 FIG. 3 is a block diagram showing an example of the functional configuration of the sensor terminal 200 according to the present embodiment. Referring to FIG. 3, the sensor terminal 200 includes a communication unit 210, a measurement unit 220, and a control unit 230. Although not shown in FIG. 3, the sensor terminal 200 may further include a storage unit for storing measurement data, a display unit for showing the internal operation status to the user, and the like.

通信部210は、他の装置と通信する。たとえば、通信部210は、LAN50に直接的に接続され、感情制御サーバ100と通信する。また、通信部210は、他のセンサ端末200と通信してもよい。なお、通信部210は、通信インタフェース811により実装され得る。 The communication unit 210 communicates with another device. For example, the communication unit 210 is directly connected to the LAN 50 and communicates with the emotion control server 100. Further, the communication unit 210 may communicate with another sensor terminal 200. The communication unit 210 may be implemented by the communication interface 811.

計測部220は、外界を計測してコミュニケーションに関するマルチメディアデータを生成したり、ユーザー900の行動や生理反応を外的に計測してデータを取得したりする。前記行動や生体反応のデータは、たとえば、カメラにより計測される顔表情や身体姿勢の状態内容を含む画像データ、マイクロフォンにより計測される音声データ、加速度センサにより計測される身体動作の加速度データ、キーボード・マウス・タッチパネル等の入力装置により計測される機器操作データ、各種生体センサにより計測される自律神経系活動(心拍活動、皮膚電気活動、血圧、発汗、呼吸、皮膚・深部体温等)のデータ、中枢神経系活動(脳波、脳血流等)のデータ、視線計測装置により計測される視線運動・瞳孔径・瞬目数等のデータ、唾液または血中の免疫成分のデータ等を含む。 The measurement unit 220 measures the outside world to generate multimedia data related to communication, and externally measures the behavior and physiological reaction of the user 900 to acquire the data. The behavior and biological reaction data include, for example, image data including facial expressions and body posture state contents measured by a camera, voice data measured by a microphone, acceleration data of body movements measured by an acceleration sensor, and a keyboard.・ Device operation data measured by input devices such as mouse and touch panel, data of autonomic nervous system activity (heartbeat activity, skin electrical activity, blood pressure, sweating, breathing, skin / core body temperature, etc.) measured by various biological sensors, Includes data on central nervous system activity (brain waves, cerebral blood flow, etc.), data on gaze movement, pupil diameter, number of blinks, etc. measured by a gaze measuring device, data on immune components in saliva or blood, and the like.

なお、計測部220は、センサ813により実装され得る。センサ端末200のセンサ813は、ユーザーへの非接触式でも接触式でもよい。センサ端末200のセンサが接触式の場合、たとえばセンサ端末200は腕時計等の形状をしたウェアラブル端末であっても構わない。あるいは、センサ端末200は、HMD(Head Mounted Display)であっても構わない。HMDのタイプは、ゴーグル型であっても構わないし、グラス型であっても構わない。また、センサ端末200は、カメラ、マイクロフォン、加速度センサ、通信部等を備えたスマートフォンやタブレット端末であっても構わない。 The measuring unit 220 may be mounted by the sensor 813. The sensor 813 of the sensor terminal 200 may be a non-contact type or a contact type to the user. When the sensor of the sensor terminal 200 is a contact type, for example, the sensor terminal 200 may be a wearable terminal in the shape of a wristwatch or the like. Alternatively, the sensor terminal 200 may be an HMD (Head Mounted Display). The type of HMD may be a goggle type or a glass type. Further, the sensor terminal 200 may be a smartphone or tablet terminal provided with a camera, a microphone, an acceleration sensor, a communication unit, or the like.

なお、センサ端末200は、図1の200A、Bのように1名のユーザー900に対応して1台存在してもよいし、協働空間における環境埋め込み型のセンサを想定して1台のセンサ端末200が複数のユーザー900のセンサデータを取得しても構わない。その場合、センサ端末200は複数のユーザー900それぞれについてセンサデータと計測対象人物の識別データとの1対1対応の紐づけ処理を行って、センサデータと計測対象人物の識別データとの各組み合わせを記憶または送信する。前記計測対象人物の識別データは、どのようにして得られてもよく、一例として、カメラによる撮像画像から顔認識によって特定される人物の識別データであってもよい。 As shown in 200A and B in FIG. 1, one sensor terminal 200 may exist corresponding to one user 900, or one sensor terminal 200 is assumed to be an environment-embedded sensor in a collaborative space. The sensor terminal 200 may acquire sensor data of a plurality of users 900. In that case, the sensor terminal 200 performs a one-to-one correspondence process of the sensor data and the identification data of the measurement target person for each of the plurality of users 900, and obtains each combination of the sensor data and the identification data of the measurement target person. Remember or send. The identification data of the person to be measured may be obtained in any way, and as an example, it may be identification data of a person identified by face recognition from an image captured by a camera.

制御部230は、センサ端末200の様々な機能を提供する。センサ端末200は、計測だけでなく、前処理、特徴抽出処理、推定を含むデータ分析処理までを実施してもよく、その場合の各種演算処理を制御部230が行ってもよい。なお、制御部230は、CPU803、ROM805及びRAM807により実装され得る。 The control unit 230 provides various functions of the sensor terminal 200. The sensor terminal 200 may perform not only measurement but also data analysis processing including preprocessing, feature extraction processing, and estimation, and the control unit 230 may perform various arithmetic processing in that case. The control unit 230 may be mounted by the CPU 803, the ROM 805, and the RAM 807.

次に、図4を参照して、本実施形態に係る「コミュニケーション端末300」の機能構成の一例を説明する。コミュニケーション端末300は、ユーザー900からの入力に応じて他のユーザー900のコミュニケーション端末300へ通信要求処理を行ったり、該他のユーザー900の感情を推定した情報を取得して該ユーザー900へ情報提示したりすることができる。 Next, an example of the functional configuration of the "communication terminal 300" according to the present embodiment will be described with reference to FIG. The communication terminal 300 processes a communication request to the communication terminal 300 of another user 900 in response to an input from the user 900, acquires information that estimates the emotion of the other user 900, and presents the information to the user 900. Can be done.

一例として、コミュニケーション端末300は汎用的なスマートフォンやタブレット端末であってもよい。また、図1ではコミュニケーション端末300は1名のユーザー900に対応して1台存在するように図示されているが、複数のユーザー900に共用される共有型端末であってもよい。さらに別の一例として、コミュニケーション端末300は、映像通信機能付の現金自動預け払い機VTM(Video Teller Machine)、駅自動券売機、ビジュアルコールセンターシステム等の表示部付の筐体装置などから送信される計測データに基づく顧客の感情を推定した情報をサポート担当者に提示する端末であってもよい。 As an example, the communication terminal 300 may be a general-purpose smartphone or tablet terminal. Further, although the communication terminal 300 is shown in FIG. 1 so as to correspond to one user 900, it may be a shared terminal shared by a plurality of users 900. As yet another example, the communication terminal 300 is transmitted from an automated teller machine (VTM) (VTM) with a video communication function, an automatic teller machine at a station, a housing device with a display unit such as a visual call center system, or the like. It may be a terminal that presents information that estimates the customer's emotions based on the measurement data to the support staff.

図4は、本実施形態に係るコミュニケーション端末300の機能構成の一例を示すブロック図である。図4を参照すると、コミュニケーション端末300は、通信部310、記憶部320、制御部330、入力部340及び提示部350を備える。 FIG. 4 is a block diagram showing an example of the functional configuration of the communication terminal 300 according to the present embodiment. Referring to FIG. 4, the communication terminal 300 includes a communication unit 310, a storage unit 320, a control unit 330, an input unit 340, and a presentation unit 350.

通信部310は、他の装置と通信する。たとえば、通信部310は、LAN50に直接的に接続され、感情制御サーバ100と通信する。なお、通信部310は、通信インタフェース811により実装され得る。 The communication unit 310 communicates with another device. For example, the communication unit 310 is directly connected to the LAN 50 and communicates with the emotion control server 100. The communication unit 310 may be implemented by the communication interface 811.

記憶部320は、コミュニケーション端末300の動作のためのプログラム及びデータを記憶する。なお、記憶部320は、記憶装置809により実装され得る。 The storage unit 320 stores programs and data for the operation of the communication terminal 300. The storage unit 320 may be mounted by the storage device 809.

制御部330は、コミュニケーション端末300の様々な機能を提供する。なお、制御部330は、CPU803、ROM805及びRAM807により実装され得る。 The control unit 330 provides various functions of the communication terminal 300. The control unit 330 may be mounted by the CPU 803, the ROM 805, and the RAM 807.

入力部340は、ユーザー900からの入力を受け付ける。そして、入力部340は、入力結果を制御部330へ提供する。前記ユーザー900からの入力とは、たとえば、他のユーザー900を通信要求相手として指定するもので、該他のユーザー900の識別情報を選択すること等によって実現される。なお、入力部340は、入力装置815により実装され得る。 The input unit 340 accepts input from the user 900. Then, the input unit 340 provides the input result to the control unit 330. The input from the user 900 is, for example, to specify another user 900 as a communication request partner, and is realized by selecting the identification information of the other user 900 or the like. The input unit 340 can be mounted by the input device 815.

提示部350は、制御部330による制御に従って、ユーザーによって知覚され得る情報の提示を行う。本発明の第1の実施形態においては、提示部350がユーザーによって視覚的に知覚される表示画面を表示する場合を主に想定する。かかる場合、提示部350は、表示装置823により実現され得る。しかし、提示部350がユーザーの聴覚によって知覚される情報を提示する場合、提示部350は、スピーカにより実現されてもよい。あるいは、提示部350がユーザーの触覚や嗅覚によって知覚される情報を提示する場合、提示部350は、触覚または嗅覚提示装置により実現されてもよい。 The presentation unit 350 presents information that can be perceived by the user under the control of the control unit 330. In the first embodiment of the present invention, it is mainly assumed that the presentation unit 350 displays a display screen visually perceived by the user. In such a case, the presentation unit 350 can be realized by the display device 823. However, when the presenting unit 350 presents information perceived by the user's hearing, the presenting unit 350 may be realized by the speaker. Alternatively, when the presenting unit 350 presents information perceived by the user's sense of touch or smell, the presenting unit 350 may be realized by a tactile or sense of smell presenting device.

次に、図5を参照して、第1の実施形態に係る「感情制御サーバ100」の機能構成の一例を説明する。図5は、第1の実施形態に係る感情制御サーバ100の機能構成の一例を示すブロック図である。図5を参照すると、感情制御サーバ100は、通信部110、記憶部120及び制御部130を備える。 Next, with reference to FIG. 5, an example of the functional configuration of the “emotion control server 100” according to the first embodiment will be described. FIG. 5 is a block diagram showing an example of the functional configuration of the emotion control server 100 according to the first embodiment. Referring to FIG. 5, the emotion control server 100 includes a communication unit 110, a storage unit 120, and a control unit 130.

通信部110は、他の装置と通信する。たとえば、通信部110は、LAN50に直接的に接続され、センサ端末200やコミュニケーション端末300と通信する。なお、通信部110は、通信インタフェース811により実装され得る。 The communication unit 110 communicates with another device. For example, the communication unit 110 is directly connected to the LAN 50 and communicates with the sensor terminal 200 and the communication terminal 300. The communication unit 110 may be implemented by the communication interface 811.

記憶部120は、感情制御サーバ100の動作のためのプログラム及びデータを記憶する。記憶部120は、感情誘導刺激DB121及び感情認識辞書DB122を含む。感情誘導刺激DB121は、後述する感情誘導刺激のデータを記憶する。さらに、前記感情誘導刺激のデータは、後述する感情変容効果の情報と対応づけられて(タグ付けされて)記憶されてもよい。 The storage unit 120 stores programs and data for the operation of the emotion control server 100. The storage unit 120 includes an emotion-inducing stimulus DB 121 and an emotion recognition dictionary DB 122. The emotion-induced stimulus DB 121 stores the data of the emotion-induced stimulus described later. Further, the emotion-induced stimulus data may be stored (tagged) in association with information on the emotional transformation effect described later.

なお、感情誘導刺激のデータと感情変容効果の情報とは、どのようにして対応づけられてもよい。例えば、実験などによって感情誘導刺激の提示を受けたユーザーの感情がどのように変容しやすいか(例えば、ポジティブ度が上がりやすい、ポジティブ度が下がりやすいなど)に関する知見があらかじめ得られていれば、その感情誘導刺激のデータに対して感情がどのように変容しやすいかを示す情報(すなわち、感情変容効果の情報)が手動によって対応づけられてもよい。あるいは、既知の感情誘導刺激のデータとその感情誘導刺激を受けたユーザーの感情変容の正解情報のデータとに基づいて学習処理によって感情変容推定モデルが生成されている場合、感情変容推定モデルと新たな感情誘導刺激のデータとに基づいて、当該新たな感情誘導刺激のデータに対応づけられる感情変容効果の情報が推定されてもよい。 In addition, the data of the emotion-inducing stimulus and the information of the emotion-changing effect may be associated with each other in any way. For example, if the knowledge about how the emotions of the user who is presented with the emotion-inducing stimulus are likely to change (for example, the degree of positiveness tends to increase, the degree of positiveness tends to decrease, etc.) is obtained in advance. Information indicating how emotions are likely to be transformed (that is, information on emotional transformation effects) may be manually associated with the data of the emotion-inducing stimulus. Alternatively, if the emotional transformation estimation model is generated by the learning process based on the data of the known emotion-induced stimulus and the data of the correct answer information of the emotional transformation of the user who received the emotion-induced stimulus, the emotional transformation estimation model and the new one. Information on the emotional transformation effect associated with the new emotion-induced stimulus data may be estimated based on the emotion-induced stimulus data.

感情認識辞書DB122は、ユーザー900の前記行動や生体反応のデータを記憶し、該行動や生体反応のデータは前記センサ端末200により取得されたセンサデータを含んでもよい。さらに、感情認識辞書DB122は、ユーザーの感情を推定処理するための感情推定モデル(感情認識辞書)のデータを記憶してもよい。前記感情推定モデルは、予め取得されたセンサデータと、該センサデータ取得時のユーザーの感情の正解情報のデータとを紐づけて学習処理し生成される。前記感情正解情報は、学習処理フェーズにおいてユーザーから質問紙法等により計測されても構わない。また、感情推定モデルはユーザー900の各個人毎、所定期間毎、ユーザー900の行動種別毎等でデータを分類および分割しそれぞれ学習処理させることで生成され、条件に応じた複数の感情推定モデルが存在しても構わない。なお、センサデータからユーザーの個人感情を推定する方法は公知(たとえば特開2012−59107号公報)であるため、本稿ではこれ以上の説明は省略する。なお、記憶部120は、記憶装置809により実装され得る。 The emotion recognition dictionary DB 122 stores the data of the behavior and the biological reaction of the user 900, and the data of the behavior and the biological reaction may include the sensor data acquired by the sensor terminal 200. Further, the emotion recognition dictionary DB 122 may store data of an emotion estimation model (emotion recognition dictionary) for estimating and processing the user's emotions. The emotion estimation model is generated by learning processing by associating the sensor data acquired in advance with the data of the correct answer information of the user's emotion at the time of acquiring the sensor data. The emotion correct answer information may be measured by the user in the learning processing phase by a questionnaire method or the like. In addition, the emotion estimation model is generated by classifying and dividing the data for each individual of the user 900, for each predetermined period, for each behavior type of the user 900, etc., and learning processing each, and a plurality of emotion estimation models according to the conditions are generated. It doesn't matter if it exists. Since a method for estimating a user's personal emotion from sensor data is known (for example, Japanese Patent Application Laid-Open No. 2012-59107), further description thereof will be omitted in this paper. The storage unit 120 may be mounted by the storage device 809.

制御部130は、感情制御サーバ100の様々な機能を提供する。制御部130は、感情推定部131、感情バランス調整制御部133(判断部)、感情誘導刺激提示制御部135(提示制御部)及び通話契機制御部137(契機制御部)を含む。なお、制御部130は、CPU803、ROM805及びRAM807により実装され得る。 The control unit 130 provides various functions of the emotion control server 100. The control unit 130 includes an emotion estimation unit 131, an emotion balance adjustment control unit 133 (judgment unit), an emotion guidance stimulus presentation control unit 135 (presentation control unit), and a call trigger control unit 137 (trigger control unit). The control unit 130 may be mounted by the CPU 803, the ROM 805, and the RAM 807.

感情推定部131は、ユーザー900からセンサ端末200及び通信部110を介して取得した行動や生体反応の計測データ(センサデータ)に基づいて、ユーザー900毎の個人感情の推定モデルデータおよびそれにより推定(分類)された感情推定データを生成する。また、感情推定部131は、該生成した推定モデルデータと感情推定データを記憶部120に記憶させる機能を有する。 The emotion estimation unit 131 estimates personal emotions for each user 900 based on measurement data (sensor data) of behaviors and biological reactions acquired from the user 900 via the sensor terminal 200 and the communication unit 110, and estimates based on the model data. Generate (classified) emotion estimation data. Further, the emotion estimation unit 131 has a function of storing the generated estimation model data and emotion estimation data in the storage unit 120.

ここで、個人感情とその推定方法について説明を補足する。個人感情は、一例として「人が心的過程の中で行うさまざまな情報処理のうちで、人、物、出来事、環境についてする評価的な反応」(Ortony et al.,1988;大平,2010)と定義される。感情の具体的な種類としては、心理学者Paul Ekmanによる表情に対応する基本感情ベースの離散型モデル上での幸福、驚き、恐れ、怒り、嫌悪、悲しみや、心理学者James A. Russellによる快度及び覚醒度の感情次元ベースの連続型モデルにおける喜怒哀楽の象限などが知られている。他の連続型モデルとしては、Watsonによるポジティブまたはネガティブ感情、Wundtによる3軸モデル(快度、興奮度、緊張度)、Plutchikによる4軸のモデルなどもある。その他、応用的・複合的な感情としては、困惑度、関心度、メンタルストレス、集中度、疲労感、多忙度、創造性、リラックス/緊張度、モチベーション、共感度、信頼度などが挙げられる。さらに、業務活動において集団の雰囲気として体感されるイキイキ感なども高次な感情の一種といえる。本発明の実施形態における感情の定義の有効範囲は、前述の基本感情よりも広く、ユーザーのあらゆる内部「状態」やユーザーの周囲環境や文脈等の影響も加味した「状況」も含むものである。一例として、ポジティブ感情やその度合いは、快度そのものや、快度と覚醒度を合わせたもの、基本感情における幸福の強度の大きさ、もしくは恐れ、怒り、嫌悪、悲しみ等の強度の小ささ等を指標としてあらわされてもよい。 Here, the explanation of personal feelings and their estimation methods is supplemented. Personal emotions are, for example, "evaluative reactions to people, things, events, and the environment among various information processes that people perform in their mental processes" (Ortony et al., 1988; Ohira, 2010). Is defined as. Specific types of emotions include happiness, surprise, fear, anger, disgust, sadness, and psychologist James A. on a basic emotion-based discrete model that corresponds to facial expressions by psychologist Paul Ekman. The quadrants of emotions and sorrows in the emotional dimension-based continuous model of pleasure and alertness by Russel are known. Other continuous models include Watson's positive or negative emotions, Wundt's three-axis model (pleasure, excitement, tension), and Plutchik's four-axis model. Other applied / complex emotions include confusion, interest, mental stress, concentration, fatigue, busyness, creativity, relaxation / tension, motivation, empathy, and reliability. Furthermore, the liveliness that is experienced as a group atmosphere in business activities can be said to be a type of higher-level emotion. The effective range of the definition of emotion in the embodiment of the present invention is wider than the above-mentioned basic emotion, and includes all internal "states" of the user and "situations" in consideration of the influence of the user's surrounding environment and context. As an example, the positive emotion and its degree are the degree of rapidity itself, the combination of the degree of pleasure and the degree of arousal, the magnitude of the intensity of happiness in the basic emotion, or the magnitude of the intensity of fear, anger, disgust, sadness, etc. May be expressed as an index.

ある人物がどのような感情とその程度にあるかは、たとえば質問紙法を用いることで、該人物の文字、文章、記号による言語的報告によって求めることができる。該質問紙としては“Affect Grid”などがよく知られている。しかしながら、質問紙を用いた計測方法では回答作業が必要になるため、業務など何か別の作業を行っている日常生活においては計測それ自体が本来の目的作業に支障を及ぼしてしまう可能性がある。 The emotions and degree of a person can be determined by, for example, using the questionnaire method, by linguistic reporting of the person's letters, sentences, and symbols. As the questionnaire, "Affect Grid" and the like are well known. However, since the measurement method using the questionnaire requires answering work, the measurement itself may interfere with the original purpose work in daily life where some other work such as work is performed. be.

そこで、本コミュニケーションシステムにおいて、感情推定部131は、前述のセンサ端末200により計測される行動や生体反応のデータに基づいて(質問紙法等で求めた)感情を機械的に推定処理する。該推定処理を行うためには、予め学習処理によって生成された感情推定モデルのデータが必要となる。感情推定モデルは、たとえば、ある時点・状況における前記行動や生体反応のセンサデータと前記質問紙の回答データとを対応づけた訓練データの群から生成される。たとえば、オフィスに埋め込まれた無数のカメラやマイクロフォン、ウェアラブル活動量計から計測されたユーザーの顔表情、音声、心拍活動、皮膚電気活動等の行動・生体データと、該ユーザーの主観的感情を質問紙回答した正解データとが対応づけられて訓練データとされる。前記行動や生体反応のセンサデータは、センサからの計測値が変換された学習処理用の特徴量データであってもよい。 Therefore, in this communication system, the emotion estimation unit 131 mechanically estimates the emotion (obtained by the questionnaire method or the like) based on the behavior and biological reaction data measured by the sensor terminal 200 described above. In order to perform the estimation process, the data of the emotion estimation model generated in advance by the learning process is required. The emotion estimation model is generated from, for example, a group of training data in which sensor data of the behavior or biological reaction at a certain time point / situation is associated with answer data of the questionnaire. For example, questions about the user's facial expression, voice, heartbeat activity, skin electrical activity, and other behavioral / biological data measured from countless cameras, microphones, and wearable activity meters embedded in the office, and the user's subjective emotions. The correct answer data that was answered on paper is associated with the training data. The sensor data of the behavior or the biological reaction may be feature data for learning processing in which the measured value from the sensor is converted.

特徴量データは、顔の代表的特徴点の位置や各2点間を結ぶ直線の距離や成す角度であってもよい。あるいは、特徴量データは、音声の基本周波数、パワー、平均発話速度、一次ケプストラム係数の最高値と標準偏差であってもよい。あるいは、特徴量データは、心拍数や拍動間隔の平均値や標準偏差、心拍変動性であってもよい。あるいは、特徴量データは、皮膚コンダクタンス水準の平均値や標準偏差や増減低下率などであってもよい。これらの特徴量データはどのように使用されてもよく、ある時点における絶対値として使用されてもよいし、2時点間の相対的な変化率として使用されてもよい。 The feature amount data may be the position of a representative feature point of the face, the distance of a straight line connecting each of the two points, or the angle formed. Alternatively, the feature data may be the fundamental frequency, power, average speech speed, maximum value and standard deviation of the first-order cepstrum coefficient of the voice. Alternatively, the feature amount data may be the average value of the heart rate or the beat interval, the standard deviation, or the heart rate variability. Alternatively, the feature amount data may be an average value of the skin conductance level, a standard deviation, an increase / decrease rate, or the like. These feature data may be used in any way, as an absolute value at a certain time point, or as a relative rate of change between two time points.

前記訓練データを用いた感情推定モデルの生成には、学習の手法として、たとえば既知のSVM(Support Vector Machine)や深層学習(Deep Learning)法が用いられてもよいし、単純に回帰分析法が利用されてもよい。また、学習モデルはユーザー個人毎に生成されてもよいし、複数のユーザーの訓練データを用いて人間に共通的なモデルが生成されてもよい。感情推定部131は、得られた感情推定モデルのデータを用いることで、ある人物の行動・生体データから個人感情を推定できるようになる。 For the generation of the emotion estimation model using the training data, for example, a known SVM (Support Vector Machine) or deep learning method may be used as a learning method, or a regression analysis method is simply used. It may be used. Further, the learning model may be generated for each individual user, or a model common to humans may be generated using training data of a plurality of users. The emotion estimation unit 131 can estimate individual emotions from the behavior / biological data of a certain person by using the obtained emotion estimation model data.

感情制御サーバ100(たとえば、感情推定部131)は、上述の個人感情推定処理のための訓練データや感情の推定モデル自体を生成する機能を有していてもよい。あるいは、訓練データのための前述の特徴量データの生成は、感情制御サーバ100ではなくセンサ端末200の方で行い、センサ端末200が、該特徴量データを感情制御サーバ100へ送信するようにしてもよい。 The emotion control server 100 (for example, the emotion estimation unit 131) may have a function of generating training data for the above-mentioned individual emotion estimation process or an emotion estimation model itself. Alternatively, the above-mentioned feature amount data for the training data is generated not by the emotion control server 100 but by the sensor terminal 200, and the sensor terminal 200 transmits the feature amount data to the emotion control server 100. May be good.

図9は、感情推定部131によって記憶部120に記憶されるデータテーブルの一例を説明するための説明図である。図9のデータテーブルには、ユーザー900のID(通信用IDでもよい)、各ユーザー900の現在時刻で推定された個人感情が記憶されている。さらには、前記個人感情の過去の履歴のデータが記憶されていてもよいし、個人毎の感情推定モデルのデータが記憶されていてもよい。これらのデータは、後述する感情バランス調整制御部133によって取得・利用される。 FIG. 9 is an explanatory diagram for explaining an example of a data table stored in the storage unit 120 by the emotion estimation unit 131. In the data table of FIG. 9, the ID of the user 900 (may be a communication ID) and the personal emotion estimated at the current time of each user 900 are stored. Further, the data of the past history of the individual emotion may be stored, or the data of the emotion estimation model for each individual may be stored. These data are acquired and used by the emotional balance adjustment control unit 133, which will be described later.

感情バランス調整制御部133は、本システムを用いてユーザー900が通話開始する際に、発呼側ユーザー(話しかける側のユーザー)と着呼側ユーザー(話かけられる側のユーザー)それぞれの推定された感情推定情報を比較し(感情推定情報の差分を算出し)、両者間に所定の量を超える差異があった場合に、発呼側ユーザー及び着呼側ユーザーのうち少なくともいずれか一方に対して、所定の刺激(感情誘導刺激)が提示されるように制御するための処理命令を感情誘導刺激提示制御部135に出す。そして、感情バランス調整制御部133は、感情誘導刺激を受けたユーザーの感情推定情報が他方のユーザーの感情推定情報に近づいてから、両者間の通話(通信)を開始させる要求命令を通話契機制御部137に出す。なお、前記感情誘導に係る処理は後述する感情誘導刺激提示制御部135が、前記通話開始に係る処理は後述する通話契機制御部137が前記要求命令を受けて行う(後述)。 When the user 900 starts a call using this system, the emotional balance adjustment control unit 133 estimates each of the calling side user (speaking side user) and the calling side user (speaking side user). Emotion estimation information is compared (the difference between emotion estimation information is calculated), and if there is a difference exceeding a predetermined amount between the two, at least one of the calling user and the calling user , A processing command for controlling so that a predetermined stimulus (emotion-induced stimulus) is presented is issued to the emotion-induced stimulus presentation control unit 135. Then, the emotion balance adjustment control unit 133 controls the call trigger to start a call (communication) between the two after the emotion estimation information of the user who has received the emotion induction stimulus approaches the emotion estimation information of the other user. Put out to part 137. The process related to the emotion guidance is performed by the emotion guidance stimulus presentation control unit 135 described later, and the process related to the start of the call is performed by the call trigger control unit 137 described later in response to the request command (described later).

本実施形態では、感情推定情報として、ユーザーの感情を示す感情値の絶対値を用いる場合を主に想定する。しかし、感情推定情報として、ユーザーの感情を示す感情値の絶対値の代わりに、ユーザーの感情を示す感情値が個人ごとに正規化された(または標準化された)相対値(例えば、最大値を基準とした割合)が用いられてもよい。 In the present embodiment, it is mainly assumed that the absolute value of the emotion value indicating the user's emotion is used as the emotion estimation information. However, as the emotion estimation information, instead of the absolute value of the emotion value indicating the user's emotion, the emotion value indicating the user's emotion is a relative value (for example, the maximum value) normalized (or standardized) for each individual. The reference ratio) may be used.

また、本実施形態では、感情推定情報の差分が所定の量以下になった場合に、両者間の通話を開始させる場合を主に想定する。しかし、感情推定情報の差分が所定の量以下になった場合に加えて、両者(または通信を行う3人以上のユーザー全員)の感情値(絶対値または相対値)が所定の値よりも大きい場合に、通信が開始されてもよい。そうすれば、より円滑なコミュニケーションの実現が可能となる。例えば、感情推定情報の差分が所定の量以下になった場合に加えて、両者(または通信を行う3人以上のユーザー全員)それぞれの相対値が所定の値(例えば、80%など)よりも大きい場合に、通信が開始されてもよい。 Further, in the present embodiment, it is mainly assumed that a call between the two is started when the difference between the emotion estimation information becomes a predetermined amount or less. However, in addition to the case where the difference in the emotion estimation information is less than a predetermined amount, the emotion value (absolute value or relative value) of both (or all three or more users who communicate) is larger than the predetermined value. In some cases, communication may be initiated. Then, smoother communication can be realized. For example, in addition to the case where the difference in emotion estimation information is less than or equal to a predetermined amount, the relative value of each of the two (or all three or more users who communicate) is larger than the predetermined value (for example, 80%). If it is large, communication may be started.

ここで、感情誘導刺激は、感情推定情報の差分が小さくなるような刺激であればよい。例えば、感情バランス調整制御部133は、発呼側のユーザー及び着呼側のユーザーのうち少なくともポジティブ度がより低いユーザーに対して感情誘導刺激(例えば、ポジティブ度が上がりやすい刺激)が提示されるように制御するための処理命令を感情誘導刺激提示制御部135に出せばよい。これによって、ポジティブ度がより低いユーザーのポジティブ度が上がる方向に感情誘導され、両者のポジティブ度が近づくことが期待される。 Here, the emotion-inducing stimulus may be a stimulus that reduces the difference in emotion estimation information. For example, the emotion balance adjustment control unit 133 presents an emotion-inducing stimulus (for example, a stimulus that tends to increase the positive degree) to at least a user having a lower positive degree among the calling side user and the calling side user. A processing command for controlling the emotions may be issued to the emotion-induced stimulus presentation control unit 135. This is expected to induce emotions in the direction of increasing the positiveness of users with lower positiveness, and to bring the positiveness of both closer.

あるいは、感情バランス調整制御部133は、ポジティブ度がより低いユーザーに対して感情誘導刺激(例えば、ポジティブ度が上がりやすい刺激)が提示されるように制御するための処理命令の代わりに、または、当該処理命令とともに、ポジティブ度がより高いユーザーに対して感情誘導刺激(例えば、ポジティブ度が下がりやすい刺激)が提示されるように制御するための処理命令を感情誘導刺激提示制御部135に出してもよい。これによって、ポジティブ度がより高いユーザーのポジティブ度が下がる方向に感情誘導され、両者のポジティブ度が近づくことが期待される。 Alternatively, the emotion balance adjustment control unit 133 is used instead of a processing instruction for controlling the emotion-inducing stimulus (for example, a stimulus that tends to increase the positive degree) to be presented to a user having a lower positive degree, or. Along with the processing instruction, a processing instruction for controlling the emotion-induced stimulus (for example, a stimulus whose positive degree is likely to decrease) is presented to a user having a higher positive degree is issued to the emotion-induced stimulus presentation control unit 135. May be good. This is expected to induce emotions in the direction of lowering the positiveness of users with higher positiveness, and to bring the positiveness of both closer.

以下では、発呼側のユーザーの感情推定情報が、発呼側のユーザーのポジティブ度を含み、着呼側のユーザーの感情推定情報が、着呼側のユーザーのポジティブ度を含む場合を主に想定する。しかし、発呼側のユーザーの感情推定情報は、ポジティブ度に限定されず、ポジティブ度以外の感情を示す情報であってもよい。同様に、着呼側のユーザーの感情推定情報は、ポジティブ度に限定されず、ポジティブ度以外の感情を示す情報であってもよい。 In the following, mainly when the emotion estimation information of the calling user includes the positive degree of the calling user and the emotion estimation information of the calling user includes the positive degree of the calling user. Suppose. However, the emotion estimation information of the calling user is not limited to the positive degree, and may be information indicating emotions other than the positive degree. Similarly, the emotion estimation information of the calling user is not limited to the positive degree, and may be information indicating emotions other than the positive degree.

より詳細には、感情バランス調整制御部133は、たとえばコミュニケーション端末300Aを用いたユーザー900Aによるユーザー900Bへの発呼要求信号を通信部110を介して受信し、記憶部120からユーザー900Aおよび900Bの個人感情情報(感情推定情報)のデータを取得して両者を比較処理し、両者間のポジティブ度の差異が所定の量以上であると判定された場合に、ポジティブ度が低い方のユーザー900のコミュニケーション端末300へポジティブ度を上げる方向へ感情を変容させる刺激のデータを送信するよう感情誘導刺激提示制御部135へ処理要求を出す。 More specifically, the emotional balance adjustment control unit 133 receives, for example, a call request signal from the user 900A to the user 900B using the communication terminal 300A via the communication unit 110, and the storage unit 120 receives the call request signal from the storage unit 120 to the users 900A and 900B. When the data of personal emotion information (emotion estimation information) is acquired and the two are compared and it is determined that the difference in the positive degree between the two is equal to or more than a predetermined amount, the user 900 having the lower positive degree A processing request is sent to the emotion-guided stimulus presentation control unit 135 to transmit stimulus data that changes emotions in the direction of increasing the degree of positivity to the communication terminal 300.

その後、感情バランス調整制御部133は、ユーザー900Aおよび900Bの個人感情情報(感情推定情報)のデータを随時取得して両者のポジティブ度のモニタリングを続け、両者間のポジティブ度の差異が所定の量以下に小さくなった場合に、ユーザー900Aの通信用IDとユーザー900Bの通信用IDのデータに基づいて両者のコミュニケーション端末300Aと300B間の通信(通話またはメディアストリーミング)を開始させるよう通話契機制御部137へ処理要求を出す。 After that, the emotion balance adjustment control unit 133 acquires the data of the personal emotion information (emotion estimation information) of the users 900A and 900B at any time and continues to monitor the positiveness of both, and the difference in the positiveness between the two is a predetermined amount. When it becomes smaller below, the call trigger control unit so as to start the communication (call or media streaming) between the communication terminals 300A and 300B of both based on the data of the communication ID of the user 900A and the communication ID of the user 900B. A processing request is sent to 137.

ここで、前記所定の量は、本システムの管理者等によって予め設定されていても構わない(例えば、差異が高い方のポジティブ度の1割を所定の量の閾値とする等)。あるいは、後述する感情誘導刺激による感情変容の結果、両者間の差異がなくなった(ゼロになった)場合を機械的に検出し、その時ポジティブ度の差異が所定の量以下になったと感情バランス調整制御部133が判定処理しても構わない。 Here, the predetermined amount may be preset by the administrator of the system or the like (for example, 10% of the positive degree having the higher difference is set as the threshold value of the predetermined amount). Alternatively, as a result of emotional transformation by an emotion-inducing stimulus, which will be described later, a case where the difference between the two disappears (becomes zero) is mechanically detected, and at that time, the emotional balance is adjusted when the difference in positiveness becomes less than a predetermined amount. The control unit 133 may perform the determination process.

本実施形態においては、感情誘導刺激提示の開始タイミングを制御するために両者間のポジティブ度の差分と比較される所定の量と、両者間の通信の開始タイミングを制御するために両者間のポジティブ度の差分と比較される所定の量とは、同じである場合を想定している。しかし、感情誘導刺激提示の開始タイミングを制御するために両者間のポジティブ度の差分と比較される所定の量と、両者間の通信の開始タイミングを制御するために両者間のポジティブ度の差分と比較される所定の量とは、厳密に同じでなくてもよく、異なっていてもよい。 In the present embodiment, a predetermined amount to be compared with the difference in positiveness between the two to control the start timing of emotion-induced stimulus presentation, and a positive between the two to control the start timing of communication between the two. It is assumed that the predetermined amount to be compared with the difference in degrees is the same. However, a predetermined amount to be compared with the difference in positiveness between the two to control the start timing of emotion-induced stimulus presentation, and the difference in positiveness between the two to control the start timing of communication between the two. It may not be exactly the same as the predetermined amount to be compared, or it may be different.

また、本実施形態においては、前記所定の量は、一定の値である場合を主に想定する。しかし、前記所定の量は、時間の経過に伴って変化してもよい。例えば、ユーザー900Aおよび900Bの少なくともいずれか一方に対して、刺激が提示されたとしても、両者のポジティブ度の差分がなかなか小さくならない場合も想定される。そこで、感情バランス調整制御部133は、両者のポジティブ度の差分が前記所定の量を超える時間が所定の時間を経過した場合、前記所定の量が増加するように所定の量を変化させてもよい。これによって、ユーザー900Aとユーザー900Bとの間の通信が開始されやすくなる。 Further, in the present embodiment, it is mainly assumed that the predetermined amount is a constant value. However, the predetermined amount may change over time. For example, even if a stimulus is presented to at least one of the users 900A and 900B, it is assumed that the difference in positiveness between the two does not become small. Therefore, the emotional balance adjustment control unit 133 may change a predetermined amount so that the predetermined amount increases when a predetermined time elapses when the difference between the positive degrees of the two exceeds the predetermined amount. good. This facilitates the initiation of communication between the user 900A and the user 900B.

一例として、感情バランス調整制御部133は、第1の時間(例えば、1分など)が経過しても両者のポジティブ度の差分が前記所定の量以下にならない場合、前記所定の量を増加させてもよく、第1の時間よりも長い第2の時間(例えば、3分など)が経過しても両者のポジティブ度の差分が前記所定の量以下にならない場合、前記所定の量をさらに増加させてもよい。第1の時間および第2の時間は、それぞれ本システムの管理者またはユーザー自身によって設定可能であってよい。 As an example, the emotional balance adjustment control unit 133 increases the predetermined amount when the difference between the positive degrees of the two does not become less than or equal to the predetermined amount even after the lapse of the first time (for example, 1 minute). If the difference between the positivenesses of the two does not become less than or equal to the predetermined amount even after the second time (for example, 3 minutes) longer than the first time elapses, the predetermined amount is further increased. You may let me. The first time and the second time may be set by the administrator or the user of the system, respectively.

感情誘導刺激提示制御部135は、ユーザー900のコミュニケーション端末300へポジティブ度を上げる方向に感情を変容させる感情誘導刺激のデータを送信する処理を行う。より詳細には、感情誘導刺激提示制御部135は、感情バランス調整制御部133から要求命令を受け、感情バランス調整制御部133が指定したユーザー900(比較の結果ポジティブ度が低かった方のユーザー)の通信用IDを取得し、該通信用IDへ感情誘導刺激DB121から取得した適切な感情誘導刺激のデータを送信する。 The emotion-induced stimulus presentation control unit 135 performs a process of transmitting data of an emotion-induced stimulus that changes the emotion in the direction of increasing the positiveness to the communication terminal 300 of the user 900. More specifically, the emotion-inducing stimulus presentation control unit 135 receives a request command from the emotion balance adjustment control unit 133, and the user 900 designated by the emotion balance adjustment control unit 133 (the user with the lower positive degree as a result of comparison). The communication ID of the above is acquired, and the data of the appropriate emotion-inducing stimulus acquired from the emotion-inducing stimulus DB 121 is transmitted to the communication ID.

たとえば、感情誘導刺激は、視聴した者の感情を変容させる作用を有する写真(静止画像)、映像(動画像)、音楽等であってよい。ここで、表示される画像は、単に風景を写した写真などであってもよいし、その風景の特徴を説明したメッセージ付きの写真などであってもよい。また、画像が表示される場合、画像表示にユーザー900を気づかせるために画像表示とともに所定の効果音が出力されてもよい。前記感情を変容させる作用を有することは、たとえば、刺激に対して事前に主観評価や生理指標評価等を実施し、その作用(ポジティブ度を上げる効果等)を確認しておくことが望ましい。自身で感情誘導刺激を作成せずに、既存に公開されている感情誘導刺激のデータセットを利用してもよい。既存の感情誘導刺激としては、感情誘導標準画像データセットであるIAPS(International Affective Picture System)やGAPED(Geneva Affective PicturE Database)等が知られており、それらに含まれる画像には予め多数の被験者によりポジティブ度や覚醒度の提示変容効果が評価・確認され情報のタグ付けがなされている。 For example, the emotion-inducing stimulus may be a photograph (still image), a video (moving image), music, or the like having an effect of changing the emotion of the viewer. Here, the displayed image may be simply a photograph of a landscape or the like, or may be a photograph with a message explaining the characteristics of the landscape. Further, when the image is displayed, a predetermined sound effect may be output together with the image display in order to make the user 900 notice the image display. To have the effect of changing emotions, for example, it is desirable to carry out subjective evaluation, physiological index evaluation, etc. in advance for the stimulus and confirm the effect (effect of increasing the degree of positiveness, etc.). Instead of creating emotion-induced stimuli by yourself, you may use an existing publicly available data set of emotion-induced stimuli. As existing emotion-inducing stimuli, IAPS (International Affective Picture System) and GAPED (Geneva Affective PicturE Database), which are emotion-inducing standard image data sets, are known, and the images included in them are preliminarily used by a large number of subjects. The presentation transformation effect of positiveness and arousal is evaluated and confirmed, and information is tagged.

なお、感情誘導方法は上述の方法に限らず、たとえば非特許文献2に紹介されているようにベルテン法や表情を意図的につくらせる方法など多く存在しており、感情誘導刺激提示制御部135はそれらの方法をユーザーに再現させるような処理を行っても構わない。(非特許文献2:Westermann, R. et al., Relative effectiveness and validity of mood
induction procedures: A meta-analysis. European Journal of Social Psychology,
26, pp.557-580, 1996.)。
The emotion-inducing method is not limited to the above-mentioned method, and there are many methods such as the Beltane method and the method of intentionally creating facial expressions as introduced in Non-Patent Document 2, for example, and the emotion-inducing stimulus presentation control unit 135. May perform processing that allows the user to reproduce those methods. (Non-Patent Document 2: Westermann, R. et al., Relative effectiveness and validity of mood
induction procedures: A meta-analysis. European Journal of Social Psychology,
26, pp.557-580, 1996.).

上記したように、感情誘導刺激は、提示を受けたユーザーの感情が変化しやすい(例えば、ポジティブ度が上がりやすい、ポジティブ度が下がりやすいなど)ことが実験によって知られた刺激であってもよい。あるいは、感情誘導刺激は、既知の感情誘導刺激のデータと感情誘導刺激を受けたユーザーの感情変容の正解情報のデータとに基づいて学習処理によって生成された推定モデルに基づいて、感情が変化しやすい(例えば、ポジティブ度が上がりやすい、ポジティブ度が下がりやすいなど)と推定された刺激であってもよい。 As described above, the emotion-induced stimulus may be a stimulus that is known by experiments that the emotion of the user who receives the presentation is liable to change (for example, the positivity is liable to increase, the positivity is liable to decrease, etc.). .. Alternatively, the emotion-induced stimulus changes the emotion based on an estimation model generated by the learning process based on the data of the known emotion-induced stimulus and the data of the correct answer information of the emotional transformation of the user who received the emotion-induced stimulus. It may be a stimulus that is presumed to be easy (for example, the positive degree tends to increase, the positive degree tends to decrease, etc.).

また、本実施形態においては、ユーザーに提示される感情誘導刺激が一定である場合を主に想定する。しかし、ユーザーに提示される感情誘導刺激は、時間の経過とともに変化してもよい。例えば、所定の時間が経過しても両者のポジティブ度の差分値が所定の量以下とならない場合には、ユーザーに提示される感情誘導刺激は、より強い変容作用を有する感情誘導刺激に変更されてもよい。感情誘導刺激はどのように変更されてもよい。感情誘導刺激として出力される音量が大きくなってもよい、感情誘導刺激として表示される画像の種類が変更されてもよい。 Further, in the present embodiment, it is mainly assumed that the emotion-inducing stimulus presented to the user is constant. However, the emotion-induced stimuli presented to the user may change over time. For example, if the difference between the two positive degrees does not fall below a predetermined amount even after a predetermined time has passed, the emotion-inducing stimulus presented to the user is changed to an emotion-inducing stimulus having a stronger transforming effect. You may. Emotion-induced stimuli may be modified in any way. The volume output as the emotion-inducing stimulus may be increased, and the type of the image displayed as the emotion-inducing stimulus may be changed.

通話契機制御部137は、発呼側のユーザー900Aと着呼側のユーザー900B間のポジティブ度の差異が所定の量以下であると判定された場合に、ユーザー900Aのコミュニケーション端末300Aとユーザー900Bのコミュニケーション端末300B間の通信を成立させる処理を行う。より詳細には、通話契機制御部137は、感情バランス調整制御部133から要求命令を受け、感情バランス調整制御部133が指定した発呼側と着呼側のユーザー900の通信用IDをそれぞれ取得し、感情バランス調整制御部133から該ユーザー900間のポジティブ度の差異が所定の量以下になったという判定信号を受信すると、該通信用ID同士の通信を成立させ、該通信用IDに紐づいたコミュニケーション端末300同士での通話(音声のみでなくテレビ電話でも構わない)を行えるようにする。 When the call trigger control unit 137 determines that the difference in positiveness between the calling side user 900A and the calling side user 900B is less than or equal to a predetermined amount, the call trigger control unit 137 of the communication terminal 300A and the user 900B of the user 900A. Performs processing for establishing communication between communication terminals 300B. More specifically, the call trigger control unit 137 receives a request command from the emotion balance adjustment control unit 133, and acquires the communication IDs of the calling side and the calling side user 900 designated by the emotion balance adjustment control unit 133, respectively. Then, when the emotional balance adjustment control unit 133 receives a determination signal that the difference in positiveness between the users 900 is equal to or less than a predetermined amount, communication between the communication IDs is established and the communication ID is linked to the communication ID. It is possible to make a call between the communication terminals 300 (not only voice but also a videophone).

さらに、通話契機制御部137は、前述のコミュニケーション端末300Aを用いたユーザー900Aによるユーザー900Bへの発呼要求信号を受けて、感情バランス調整制御部133が感情誘導刺激提示制御部135に命令してユーザー900Aとユーザー900Bの個人感情のポジティブ度の差異を所定の量以下にするまでの間、その感情バランス調整処理の状況を示す情報を、コミュニケーション端末300を介してユーザー900(この場合は特に900A)に提示する処理を行ってもよい(後述の図6)。なお、感情バランス調整処理の状況を示す情報は、ユーザー900Aの代わりに、または、ユーザー900Aに追加して、ユーザー900Bに提示されてもよい。 Further, the call trigger control unit 137 receives a call request signal from the user 900A using the communication terminal 300A to the user 900B, and the emotion balance adjustment control unit 133 commands the emotion guidance stimulus presentation control unit 135. Until the difference in the positiveness of the individual emotions of the user 900A and the user 900B is reduced to a predetermined amount or less, the information indicating the status of the emotional balance adjustment processing is transmitted to the user 900 (in this case, especially 900A) via the communication terminal 300. ) May be performed (FIG. 6 described later). Information indicating the status of the emotional balance adjustment process may be presented to the user 900B instead of the user 900A or in addition to the user 900A.

図6は、発呼側のユーザー900のコミュニケーション端末300の提示部350によって提示された前述の感情バランス調整処理中であることを示す表示画面の一例を説明するための説明図である。 FIG. 6 is an explanatory diagram for explaining an example of a display screen showing that the above-mentioned emotional balance adjustment process presented by the presentation unit 350 of the communication terminal 300 of the calling user 900 is in progress.

前記表示画面には、着呼側のユーザー900のID610(図の例ではIDは“900B”)、発呼側のユーザー900と着呼側のユーザー900の感情のポジティブ度の差異が所定の量よりも大きいため感情バランス調整処理を行っている最中であるというメッセージ620、さらに、発呼側のユーザー900と着呼側のユーザー900の現在の感情のポジティブ度(リアルタイムに値が更新されてもよい)を示すグラフ630、今すぐ通話するボタン640等が表示されている。 On the display screen, the ID 610 of the calling user 900 (ID is “900B” in the example of the figure), and the difference in emotional positiveness between the calling user 900 and the calling user 900 are predetermined amounts. Message 620 that the emotional balance adjustment process is being performed because it is larger than, and the current emotional positiveness of the calling user 900 and the calling user 900 (values are updated in real time). A graph 630 showing (may be good), a button 640 for making a call now, and the like are displayed.

発呼側のユーザー900と着呼側のユーザー900の現在の感情のポジティブ度を示すグラフ630が提示されることによって、発呼側のユーザー900は、両者のポジティブ度の差分を視認可能となる。このように、通話契機制御部137は、両者のポジティブ度の差分が所定の量を超えると判断された場合に、少なくとも両者のポジティブ度の差分が視認可能に発呼側のユーザー900に提示されるように制御するとよい。なお、両者のポジティブ度の差分は、グラフ630以外の様態(例えば、両者のポジティブ度、両者のポジティブ度の差分値など)によって提示されてもよい。 By presenting the graph 630 showing the current emotional positivity of the calling user 900 and the calling user 900, the calling user 900 can visually recognize the difference between the positivity of the two. .. In this way, when it is determined that the difference between the positive degrees of the two exceeds a predetermined amount, the call trigger control unit 137 presents at least the difference between the positive degrees of the two to the calling user 900 so as to be visible. It is good to control so as to. The difference between the positive degrees of both may be presented by a mode other than the graph 630 (for example, the positive degree of both, the difference value of the positive degree of both, etc.).

上記では、通話契機制御部137が、両者のポジティブ度の差が所定の量以下になったと判断された場合、発呼側のユーザー900と着呼側のユーザー900との間の通信を開始させる例を主に説明した。しかし、通話契機制御部137が、発呼側のユーザー900と着呼側のユーザー900との間の通信を開始させるタイミングは、かかる例に限定されない。例えば、通話契機制御部137は、所定の条件が満たされた場合、発呼側のユーザー900と着呼側のユーザー900との間の通信を開始させてもよい。例えば、通話契機制御部137は、所定の通信開始指示が入力された場合、発呼側のユーザー900と着呼側のユーザー900との間の通信を開始させてもよい。通信開始指示は、今すぐ通話するボタン640を選択する操作であってもよい。 In the above, when the call trigger control unit 137 determines that the difference in positiveness between the two is less than or equal to a predetermined amount, the call trigger control unit 137 starts communication between the calling user 900 and the calling user 900. The example was mainly explained. However, the timing at which the call trigger control unit 137 starts communication between the calling side user 900 and the calling side user 900 is not limited to such an example. For example, the call trigger control unit 137 may start communication between the calling side user 900 and the calling side user 900 when a predetermined condition is satisfied. For example, the call trigger control unit 137 may start communication between the calling side user 900 and the calling side user 900 when a predetermined communication start instruction is input. The communication start instruction may be an operation of selecting the button 640 to make a call immediately.

今すぐ通話するボタン640は、ユーザー900のポジティブ度の状態に限らずすぐに通話したいという緊急性が高い状況で使用される入力用インタフェースであり、ユーザー900のタッチ等によって入力を受け付けると、制御部330、通信部310および通信部110を介して信号が送られ、受信した通話契機制御部137は即座に発呼側のユーザー900と着呼側のユーザー900のコミュニケーション端末300間の通信を成立させる。 The call button 640 is an input interface used not only in the positive state of the user 900 but also in a highly urgent situation where the user wants to make a call immediately, and controls when the input is received by the touch of the user 900 or the like. A signal is sent via the unit 330, the communication unit 310, and the communication unit 110, and the received call trigger control unit 137 immediately establishes communication between the calling side user 900 and the calling side user 900 communication terminal 300. Let me.

図6の表示画面は、感情バランス調整処理が終了した時点(ポジティブ度の差異が所定の量以下になった時点、または、コミュニケーション端末300間の通信が成立した時点)まで表示されており、その後は後述の図8の画面や、一般的な通話状態画面に遷移してもよいし、通話状態画面中でも通話中のコミュニケーション支援情報としてたとえば感情のポジティブ度を示すグラフ630を表示させ続けてもよい。 The display screen of FIG. 6 is displayed until the emotional balance adjustment process is completed (when the difference in positiveness becomes less than or equal to a predetermined amount, or when communication between the communication terminals 300 is established), and then. May transition to the screen of FIG. 8 described later or a general call status screen, or may continue to display, for example, a graph 630 showing the positiveness of emotions as communication support information during a call even during the call status screen. ..

図7は、着呼側のユーザー900のコミュニケーション端末300の提示部350によって提示された前述の感情誘導刺激を含む表示画面の一例を説明するための説明図である。 FIG. 7 is an explanatory diagram for explaining an example of a display screen including the above-mentioned emotion-inducing stimulus presented by the presentation unit 350 of the communication terminal 300 of the calling user 900.

前記表示画面には、前述の感情誘導刺激710(図の例では美しい風景の写真)、感情誘導処理を終了するボタン720等が表示されている。感情誘導処理を終了するボタン720が、ユーザー900のタッチ等によって選択されると、制御部330は、提示部350の表示画面の表示を終了し、また、制御部330、通信部310および通信部110を介して信号が送られ、受信した通話契機制御部137は、感情バランス調整制御部133へ感情誘導処理が終了されたという情報を送信する。 On the display screen, the above-mentioned emotion-inducing stimulus 710 (a photograph of a beautiful landscape in the example of the figure), a button 720 for ending the emotion-inducing process, and the like are displayed. When the button 720 for ending the emotion guidance process is selected by the touch of the user 900 or the like, the control unit 330 ends the display of the display screen of the presentation unit 350, and the control unit 330, the communication unit 310, and the communication unit. A signal is sent via 110, and the received call trigger control unit 137 transmits information to the emotion balance adjustment control unit 133 that the emotion guidance process has been completed.

感情バランス調整制御部133は、前記情報を受領すると、前述の感情バランス調整処理を終了し、発呼側のユーザー900のコミュニケーション端末300へ前記情報を含むデータのメッセージを送信する。発呼側のユーザー900は、コミュニケーション端末300から前記メッセージを参照することができ、次の行動(感情バランス調整処理をスキップして直接的に電話をかける等)を決定できる。 Upon receiving the information, the emotional balance adjustment control unit 133 ends the emotional balance adjustment process and transmits a message of data including the information to the communication terminal 300 of the calling user 900. The calling user 900 can refer to the message from the communication terminal 300, and can determine the next action (such as skipping the emotional balance adjustment process and making a direct call).

なお、前述の説明では、通話契機制御部137は、感情バランス調整処理が終了した時点で通信を成立させ、すぐに通話が開始される例を述べたが、本実施形態は、該動作に限定されない。たとえば、通話開始前に着信・応答の手続きを挿入しても構わない。すなわち、前記感情バランス調整処理が終了した時点で、着呼側のユーザー900のコミュニケーション端末300へINVITEメッセージが送信され、該コミュニケーション端末300は該INVITEメッセージを受信するとユーザー900の呼び出し処理(着信音を鳴らす等)を行い、着呼側のユーザー900が受話してから通話を開始させても構わない。 In the above description, the call trigger control unit 137 describes an example in which the communication is established when the emotional balance adjustment process is completed and the call is started immediately, but the present embodiment is limited to this operation. Not done. For example, you may insert an incoming / answering procedure before starting a call. That is, when the emotional balance adjustment process is completed, an INVITE message is transmitted to the communication terminal 300 of the calling user 900, and when the communication terminal 300 receives the INVITE message, the call process (ring tone) of the user 900 is performed. The call may be started after the incoming user 900 receives a call (ringing, etc.).

図8は、発呼側および着呼側のユーザー900のコミュニケーション端末300の提示部350によって提示された前記呼び出し処理中の表示画面の一例を説明するための説明図である。前記表示画面には、ユーザー900呼び出し処理中の一般的な電話待ち受け情報の他に、発呼側のユーザー900と着呼側のユーザー900の現在の感情のポジティブ度を示すグラフ830が表示されていてもよい。 FIG. 8 is an explanatory diagram for explaining an example of the display screen during the call processing presented by the presentation unit 350 of the communication terminal 300 of the calling side and the calling side user 900. On the display screen, in addition to the general call standby information during the call processing of the user 900, a graph 830 showing the current emotional positivity of the calling user 900 and the calling user 900 is displayed. You may.

図8を参照すると、一般的な電話待ち受け情報の例として、提示部350Aによって表示される表示画面には、発呼を中止するための中止するボタン840が含まれている。また、提示部350Bによって表示される表示画面には、着呼に応答するための応答するボタン850が含まれている。グラフ830は前述の図6のグラフ630と同等の情報であるが、図8の画面が表示される時点は、感情バランス調整処理が終了した時点であるので、発呼側のユーザー900と着呼側のユーザー900間のポジティブ度の差異は非常に小さくなっている。さらに現在の両者のポジティブ度の大きさ等が示されている。 Referring to FIG. 8, as an example of general telephone standby information, the display screen displayed by the presentation unit 350A includes a stop button 840 for stopping the call. Further, the display screen displayed by the presentation unit 350B includes a response button 850 for answering an incoming call. Graph 830 has the same information as Graph 630 of FIG. 6 described above, but since the time when the screen of FIG. 8 is displayed is the time when the emotional balance adjustment process is completed, the call is made to the user 900 on the calling side. The difference in positiveness between the 900 users on the side is very small. Furthermore, the magnitude of the current positiveness of both is shown.

発呼側のユーザー900と着呼側のユーザー900は、お互いの感情状態が類似した状況であること、お互いのポジティブ度の大きさの程度を認知できた状態(お互いの状況把握ができた状態、言い換えるとアウェアネスが共有された状態)で通話を開始することができるため、本システムによる感情バランス調整処理機能がない従来の電話装置と比較して、より円滑に会話のコミュニケーションを始めることができる。 The calling side user 900 and the calling side user 900 are in a state where their emotional states are similar to each other and can recognize the degree of positiveness of each other (a state in which they can grasp each other's situation). In other words, it is possible to start a call with shared awareness), so conversation communication can be started more smoothly compared to conventional telephone devices that do not have the emotional balance adjustment processing function of this system. ..

各種の変形例も想定される。上記では、発呼側のユーザー1名と着呼側のユーザー1名の利用状況における感情バランス調整処理機能の例を述べた。しかし、同機能は3名以上のユーザー利用による多人数通話の状況において実現されてもよい。その場合、3以上のポジティブ度間の差異(例えば、3人以上のポジティブ度のうち、最大のポジティブ度と最小のポジティブ度との差異)が所定の量以下になるまで感情バランス調整処理が行われてもよい。ただし、最大のポジティブ度および最小のポジティブ度は、時間経過に伴って変化する可能性もあり得る。 Various variants are also envisioned. In the above, an example of the emotion balance adjustment processing function in the usage situation of one user on the calling side and one user on the calling side has been described. However, this function may be realized in the situation of a multi-person call by the use of three or more users. In that case, the emotional balance adjustment process is performed until the difference between the positive degrees of 3 or more (for example, the difference between the maximum positive degree and the minimum positive degree among the positive degrees of 3 or more people) becomes a predetermined amount or less. You may be disappointed. However, the maximum and minimum positives can change over time.

また、上記では、感情推定情報の所定の量を変容対象としているが、前述のように感情には基本感情ベースの離散型モデルの理論も存在し、そのような場合は量ではなく、発呼側と着呼側のユーザーの感情推定情報の「質」を(ポジティブ度がより強い感情に)揃えるように感情バランス調整制御部133は動作してもよい。たとえば、発呼側のユーザーの推定感情が基本感情の「幸福」であり、着呼側のユーザーの推定感情が基本感情の「悲しみ」であった場合に、着呼側のユーザーの推定感情が「幸福」や「喜び」等に離散的に変容するように感情誘導刺激の提示制御を行わせてもよい。 Further, in the above, a predetermined amount of emotion estimation information is targeted for transformation, but as described above, there is also a theory of a discrete model based on basic emotions in emotions, and in such a case, it is not a quantity but a call. The emotion balance adjustment control unit 133 may operate so as to align the "quality" of the emotion estimation information of the user on the side and the calling side (to the emotion with a stronger positive degree). For example, if the estimated emotion of the calling user is the basic emotion "happiness" and the estimated emotion of the calling user is the basic emotion "sadness", the estimated emotion of the calling user is The presentation control of emotion-inducing stimuli may be performed so as to be discretely transformed into "happiness" or "joy".

また、前記多人数通話は同時に通話開始される必要はなく、すでに本システムを用いて通話が行われている状況で、新たなユーザーが該通話に後から参入する形で多人数通話になる場合にも、感情バランス調整処理が行われてもよい。その場合、後から参入するユーザーを発呼側のユーザーとみなし、感情制御サーバ100は、すでに通話中のユーザー群の感情推定情報のデータを取得したり、該すでに通話中のユーザー群へ感情誘導刺激を提示したりしても構わない。 In addition, the multi-person call does not need to be started at the same time, and when a new user enters the call later in a situation where the call is already made using this system, the multi-person call becomes a multi-person call. Also, emotional balance adjustment processing may be performed. In that case, the user who enters later is regarded as the calling user, and the emotion control server 100 acquires the data of the emotion estimation information of the user group already in the call, or induces the emotion to the user group already in the call. You may present a stimulus.

続いて、図10および図11を参照して、本実施形態に係る情報処理動作の例を説明する。図10および図11は、本実施形態に係るコミュニケーションシステムの動作シーケンスの一例を示す説明図である。 Subsequently, an example of the information processing operation according to the present embodiment will be described with reference to FIGS. 10 and 11. 10 and 11 are explanatory views showing an example of an operation sequence of the communication system according to the present embodiment.

後述する動作シーケンスは、図1で示した、拠点bAのユーザー900Aがコミュニケーション端末300Aを使用して拠点bBにいるユーザー900Bへ発呼を行い、ユーザー900Aと900B間のポジティブ度の差異が所定の量以上(例として900Bの方が低い状況)であったため、本システムによるユーザー900Aと900Bに対する感情バランス調整処理が行われ、ユーザー900Aと900B間のポジティブ度の差異が所定の量以下になったのちに通話が成立するまでの処理の流れの一例である。 In the operation sequence described later, the user 900A of the base bA makes a call to the user 900B at the base bB using the communication terminal 300A, and the difference in positiveness between the users 900A and 900B is predetermined. Since it was more than the amount (for example, 900B is lower), the emotional balance adjustment process for users 900A and 900B was performed by this system, and the difference in positiveness between users 900A and 900B became less than the predetermined amount. This is an example of the flow of processing until a call is established later.

図11に示したように、ステップS1101で、ユーザー900Aはコミュニケーション端末300Aを使用して、ユーザー900B(のコミュニケーション端末300B)へ発呼する操作入力を行う。ステップS1103で、コミュニケーション端末300Aは、ユーザー900Aおよび900Bの識別情報を含んだ通信要求メッセージを生成し、感情制御サーバ100へ、通信要求メッセージを送信する。 As shown in FIG. 11, in step S1101, the user 900A uses the communication terminal 300A to input an operation to be called to the user 900B (communication terminal 300B). In step S1103, the communication terminal 300A generates a communication request message including the identification information of the users 900A and 900B, and transmits the communication request message to the emotion control server 100.

ステップS1105で、感情制御サーバ100は、コミュニケーション端末300Aから前記通信要求メッセージを受信し、記憶部120に予め記憶された設定データからユーザー900Aおよび900Bの識別情報と紐づいたセンサ端末200Aおよび200Bの通信用IDを特定する、情報通信制御処理を行う。ステップS1107で、感情制御サーバ100は、センサ端末200Aへ、ステップS1109で、感情制御サーバ100は、センサ端末200Bへ、データ要求メッセージを送信する。 In step S1105, the emotion control server 100 receives the communication request message from the communication terminal 300A, and the sensor terminals 200A and 200B associated with the identification information of the users 900A and 900B from the setting data stored in advance in the storage unit 120. Performs information communication control processing that specifies the communication ID. In step S1107, the emotion control server 100 transmits a data request message to the sensor terminal 200A, and in step S1109, the emotion control server 100 transmits a data request message to the sensor terminal 200B.

ステップS1111で、センサ端末200Aは、ステップS1113で、センサ端末200Bは、感情制御サーバ100からデータ要求メッセージを受信し、計測部220から外界、たとえばユーザー900Aまたは900Bの行動や生体反応等の計測処理を開始して、それらの計測データを取得する。ステップS1115で、センサ端末200Aは、ステップS1117で、センサ端末200Bは、感情制御サーバ100へ、前記計測データ(ユーザー900Aまたは900Bの行動や生体反応のデータ)を送信する。 In step S1111, the sensor terminal 200A receives a data request message from the emotion control server 100 in step S1113, and the measurement unit 220 measures the behavior and biological reaction of the outside world, for example, the user 900A or 900B. To get those measurement data. In step S1115, the sensor terminal 200A transmits the measurement data (data of the behavior or biological reaction of the user 900A or 900B) to the emotion control server 100 in step S1117.

ステップS1119で、感情制御サーバ100は、受信した前記計測データに基づいて、
ユーザー900Aまたは900Bの個人感情のポジティブ度を推定する。さらに、感情制御サーバ100は、ユーザー900Aまたは900Bの個人感情のポジティブ度を比較して、両者間のポジティブ度の差異が所定の量以上であるか否かを判定処理する。もし前記ポジティブ度の差異が所定の量以上であった場合は、次にステップS1121が実行される。
In step S1119, the emotion control server 100 is based on the received measurement data.
Estimate the positiveness of personal emotions of users 900A or 900B. Further, the emotion control server 100 compares the positiveness of the individual emotions of the user 900A or 900B, and determines whether or not the difference in the positiveness between the two is equal to or greater than a predetermined amount. If the difference in positiveness is equal to or greater than a predetermined amount, step S1121 is then executed.

本動作シーケンスの例では、ユーザー900Bの感情のポジティブ度がユーザー900Aより所定の量以上小さかったケースを想定して説明する。また、もし前記ポジティブ度の差異が所定の量以下であった場合は、以降のステップS1121〜1143はスキップされ、次にステップS1145が実行される。ステップS1121で、感情制御サーバ100は、前記ポジティブ度の差異を小さくするように感情バランス調整処理を実行することを決定し、感情誘導刺激の取得などの処理実行の準備を行う。 In the example of this operation sequence, the case where the emotional positiveness of the user 900B is smaller than the user 900A by a predetermined amount or more will be described. If the difference in positiveness is less than or equal to a predetermined amount, the subsequent steps S1121 to 1143 are skipped, and then step S1145 is executed. In step S1121, the emotion control server 100 decides to execute the emotion balance adjustment process so as to reduce the difference in the positive degree, and prepares for the process execution such as acquisition of the emotion-inducing stimulus.

ステップS1123で、感情制御サーバ100は、コミュニケーション端末300Bへ、(ユーザー900Bの感情のポジティブ度を上げる)感情誘導刺激のデータを送信する。ステップS1125で、コミュニケーション端末300Bは、感情制御サーバ100から前記感情誘導刺激のデータを受信し、提示部350Bに感情誘導刺激を含む表示画面を提示する(たとえば前述の図7)。ステップS1127で、感情制御サーバ100は、コミュニケーション端末300Aへ、感情バランス調整処理中であることを含む処理状況通知のデータを送信する。 In step S1123, the emotion control server 100 transmits the data of the emotion-inducing stimulus (which raises the positiveness of the emotion of the user 900B) to the communication terminal 300B. In step S1125, the communication terminal 300B receives the data of the emotion-inducing stimulus from the emotion control server 100, and presents the display screen including the emotion-inducing stimulus to the presentation unit 350B (for example, FIG. 7 described above). In step S1127, the emotion control server 100 transmits the processing status notification data including the fact that the emotion balance adjustment processing is in progress to the communication terminal 300A.

ステップS1129で、コミュニケーション端末300Aは、感情制御サーバ100から前記感情バランス調整処理中であることを含む処理状況通知のデータを受信し、提示部350Aに感情バランス調整処理中であることを示す表示画面を提示する(たとえば前述の図6)。 In step S1129, the communication terminal 300A receives the processing status notification data including the emotional balance adjustment processing being performed from the emotion control server 100, and the presentation unit 350A indicates to the display unit 350A that the emotional balance adjustment processing is in progress. (For example, FIG. 6 described above).

ステップS1131〜S1141は、ステップS1121〜S1129の処理の結果として感情変容されたユーザー900Bのポジティブ度と時間経過の結果として感情変容された可能性があるユーザー900Aのポジティブ度とを再び推定するために実行される。ステップS1131〜S1141は、前述のステップS1107〜S1117と同等の処理であるため、ここでは説明を省略する。 Steps S1131 to S1141 are for re-estimating the positiveness of the user 900B who has been emotionally transformed as a result of the processing of steps S1121 to S1129 and the positiveness of the user 900A who may have been emotionally transformed as a result of the passage of time. Will be executed. Since steps S1131 to S1141 are the same processes as steps S1107 to S1117 described above, description thereof will be omitted here.

ステップS1143で、感情制御サーバ100は、ステップS1119と同等の処理を行う。もし前記ポジティブ度の差異が所定の量以上であった場合は、次はステップS1121が再び実行される。また、もし前記ポジティブ度の差異が所定の量以下であった場合は、次にステップS1145が実行される。ステップS1145で、感情制御サーバ100は、コミュニケーション端末300Aへ、ステップS1147で、感情制御サーバ100は、コミュニケーション端末300Bへ、通話開始処理を要求するメッセージを送信する。 In step S1143, the emotion control server 100 performs the same process as in step S1119. If the difference in positiveness is equal to or greater than a predetermined amount, step S1121 is executed again. If the difference in positiveness is less than or equal to a predetermined amount, step S1145 is then executed. In step S1145, the emotion control server 100 transmits a message requesting the call start processing to the communication terminal 300A, and in step S1147, the emotion control server 100 transmits the message requesting the communication terminal 300B to the communication terminal 300B.

ステップS1149で、コミュニケーション端末300Aとコミュニケーション端末300Bは、感情制御サーバ100を介した通話に係る通信処理を開始し、コミュニケーション端末300Aとコミュニケーション端末300B間で通話を開始することができる。 In step S1149, the communication terminal 300A and the communication terminal 300B can start the communication process related to the call via the emotion control server 100, and can start the call between the communication terminal 300A and the communication terminal 300B.

以上のように、本実施形態によれば、遠隔コミュニケーションシステムにおいて発呼側のユーザーと着呼側のユーザーの感情をポジティブ度が高い方の状態に揃える感情バランス調整機能が実現されることによって、発呼側と着呼側双方のユーザーにとって良好な感情状態で会話を始めることができ、従来の電話システム等と比較してより円滑な遠隔コミュニケーションを行うことができるようになる。 As described above, according to the present embodiment, the emotional balance adjustment function that aligns the emotions of the calling user and the calling user in the state of higher positiveness is realized in the remote communication system. It is possible to start a conversation with a good emotional state for both the calling side and the calling side user, and it becomes possible to perform smoother remote communication as compared with a conventional telephone system or the like.

次に、遠隔コミュニケーションシステムの第2の実施形態について説明する。図12を参照して、第2の実施形態に係る「感情制御サーバ1000」の機能構成の一例を説明する。図12は、第2の実施形態に係る感情制御サーバ1000の機能構成の一例を示すブロック図である。図12を参照すると、感情制御サーバ1000は、通信部110、記憶部120及び制御部130を備える。ここで、制御部130は、第1の実施形態と異なり、感情誘導作用予測部139(予測部)を有する。 Next, a second embodiment of the remote communication system will be described. An example of the functional configuration of the “emotion control server 1000” according to the second embodiment will be described with reference to FIG. FIG. 12 is a block diagram showing an example of the functional configuration of the emotion control server 1000 according to the second embodiment. Referring to FIG. 12, the emotion control server 1000 includes a communication unit 110, a storage unit 120, and a control unit 130. Here, unlike the first embodiment, the control unit 130 has an emotion-inducing action prediction unit 139 (prediction unit).

感情誘導作用予測部139は、発呼側ユーザーおよび着呼側ユーザーそれぞれの推定されたポジティブ度の差分が所定の量を超えると判断された場合に、差分が所定の量以下になるまでの予測時間が、発呼側のユーザー及び前記着呼側のユーザーのうち少なくともいずれか一方に対して提示されるように制御する。以下では、発呼側のユーザーに対して予測時間が提示される場合を主に説明する。 The emotion-inducing action prediction unit 139 predicts that the difference between the estimated positiveness of the calling user and the calling user will be less than or equal to the predetermined amount when it is determined that the difference exceeds the predetermined amount. The time is controlled to be presented to at least one of the calling user and the called user. In the following, the case where the estimated time is presented to the calling user will be mainly described.

図13は、発呼側のユーザー900のコミュニケーション端末300の提示部350によって提示された前述の感情バランス調整処理中であることを示す表示画面の他の一例を説明するための説明図である。第2の実施形態では、図13に示した予測時間情報650のように、感情バランス調整処理中であることを示す表示画面において、該感情バランス調整処理が終了するまでの予測時間がさらに表示される。 FIG. 13 is an explanatory diagram for explaining another example of the display screen showing that the above-mentioned emotional balance adjustment process is being performed, which is presented by the presentation unit 350 of the communication terminal 300 of the calling user 900. In the second embodiment, as in the predicted time information 650 shown in FIG. 13, the predicted time until the emotional balance adjustment process is completed is further displayed on the display screen indicating that the emotional balance adjustment process is in progress. NS.

感情誘導作用予測部139は、ユーザー900毎の感情誘導作用への反応特性を学習し、あるユーザー900がある性質の感情誘導刺激を提示された場合に、該ユーザー900がたとえば何秒後に目標とする感情誘導状態になるのかを予測する。感情誘導作用予測部139は、ユーザー900が前述の感情誘導刺激提示制御部135によって感情誘導刺激を提示された時点から、該ユーザー900の個人感情情報(感情推定情報)のデータを随時取得して、該ユーザー900の感情誘導刺激に対する個人感情の経時変容特性の情報を含むデータを記憶部120に記憶させる。 The emotion-inducing action prediction unit 139 learns the reaction characteristics to the emotion-inducing action of each user 900, and when a certain user 900 is presented with an emotion-inducing stimulus of a certain property, the user 900 sets a target after, for example, how many seconds. Predict whether it will be in an emotion-induced state. The emotion-inducing action prediction unit 139 acquires data of personal emotion information (emotion estimation information) of the user 900 at any time from the time when the user 900 is presented with the emotion-inducing stimulus by the above-mentioned emotion-inducing stimulus presentation control unit 135. The storage unit 120 stores data including information on the time-dependent transformation characteristics of individual emotions with respect to the emotion-induced stimulus of the user 900.

そのように紐づけられたデータが記憶部120に蓄積され、感情誘導作用予測部139により学習処理されて、ユーザー900毎に、どのような感情誘導刺激(たとえば、ポジティブ度を上げるもしくは下げる刺激か、刺激の強度はどれくらいか)を提示するとどのように個人感情が経時変容するか、を推定できる感情誘導反応予測モデルが生成され、該感情誘導反応予測モデルのデータは記憶部120に記憶される。 The data associated in this way is accumulated in the storage unit 120, and is learned and processed by the emotion-inducing action prediction unit 139, and what kind of emotion-inducing stimulus (for example, a stimulus that raises or lowers the positiveness) is used for each user 900. An emotion-induced reaction prediction model that can estimate how individual emotions change over time is generated by presenting (how much is the intensity of the stimulus), and the data of the emotion-induced reaction prediction model is stored in the storage unit 120. ..

感情誘導作用予測部139は、あるユーザー900が別のユーザー900へ本システムを用いて電話をかける際に、感情バランス調整制御部133が要求し感情誘導刺激提示制御部135によって該別のユーザー900へ提示される感情誘導刺激とその感情変容効果の情報を取得し、該情報のデータを該別のユーザー900の感情誘導反応予測モデルの入力データとして、出力データとなる個人感情の経時変容の予測データ(たとえば、「6秒後」に発呼側のユーザー900と該別のユーザー900間のポジティブ度の差異が所定の量以下に小さくなる等)を生成する。 When a user 900 calls another user 900 using this system, the emotion-inducing action prediction unit 139 is requested by the emotion balance adjustment control unit 133, and the emotion-inducing stimulus presentation control unit 135 requests the other user 900. Information on the emotion-inducing stimulus presented to the user and its emotion-changing effect is acquired, and the data of the information is used as input data of the emotion-inducing reaction prediction model of the other user 900 to predict the time-dependent change of personal emotion as output data. Data is generated (for example, the difference in positiveness between the calling user 900 and the other user 900 becomes smaller than a predetermined amount "after 6 seconds").

さらに、感情誘導作用予測部139は、前記個人感情の経時変容の予測データを、通信部110を介して、発呼側のユーザー900のコミュニケーション端末300へ送信する。コミュニケーション端末300は、前記個人感情の経時変容の予測データを受信し、たとえば感情バランス調整処理が終了するまでの予測時間(例えば、図13に示した予測時間情報650)を提示部350へ表示する。 Further, the emotion-inducing action prediction unit 139 transmits the prediction data of the time-dependent change of the individual emotion to the communication terminal 300 of the calling user 900 via the communication unit 110. The communication terminal 300 receives the prediction data of the time-dependent change of the individual emotion, and displays, for example, the prediction time until the emotion balance adjustment process is completed (for example, the prediction time information 650 shown in FIG. 13) on the presentation unit 350. ..

なお、前記感情誘導反応予測モデルは、個人毎ではなく、複数の人物集団における予測モデルであってもよい。 The emotion-induced reaction prediction model may be a prediction model for a plurality of person groups, not for each individual.

続いて、図11を参照しながら、第2の実施形態に係る情報処理動作を説明する。図11のステップS1121において、感情バランス調整制御部133によって感情誘導刺激の内容が決定された際に、感情誘導作用予測部139によって前記個人感情の経時変容の予測データが生成されてもよい。また、図11のステップS1127において、感情制御サーバ100は、コミュニケーション端末300Aへ、前記個人感情の経時変容の予測データを前述の処理状況通知のデータと併せて送信してもよい。 Subsequently, the information processing operation according to the second embodiment will be described with reference to FIG. In step S1121 of FIG. 11, when the content of the emotion-inducing stimulus is determined by the emotion balance adjustment control unit 133, the emotion-inducing action prediction unit 139 may generate prediction data of the time-dependent change of the individual emotion. Further, in step S1127 of FIG. 11, the emotion control server 100 may transmit the prediction data of the time-dependent change of the personal emotion to the communication terminal 300A together with the above-mentioned processing status notification data.

さらに、図11のステップS1129において、コミュニケーション端末300Aは、感情制御サーバ100から個人感情の経時変容の予測データを受信し、提示部350Aに感情バランス調整処理が終了するまでの予測時間を含む表示画面を提示してもよい。 Further, in step S1129 of FIG. 11, the communication terminal 300A receives the prediction data of the time-dependent change of the personal emotion from the emotion control server 100, and the presentation unit 350A includes a display screen including the prediction time until the emotion balance adjustment process is completed. May be presented.

以上のように、第2の実施形態によれば、遠隔コミュニケーションシステムにおいて感情バランス調整機能が動作する際に、発呼側のユーザーに該感情バランス調整機能が終了し会話が開始できるまでの予測時間の情報を提供することができ、発呼側のユーザーが会話開始までの待ち時間を把握できることで、いつ会話を始められるかわからない不安な心理状況になることなく、該感情バランス調整機能をユーザーが利用できる。 As described above, according to the second embodiment, when the emotional balance adjustment function operates in the remote communication system, the estimated time until the calling user finishes the emotional balance adjustment function and can start a conversation. By being able to provide the information of the calling side and grasping the waiting time until the conversation starts, the user can use the emotional balance adjustment function without becoming an uneasy psychological situation where he / she does not know when to start the conversation. Available.

以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。 Although the preferred embodiments of the present invention have been described in detail with reference to the accompanying drawings, the present invention is not limited to such examples. It is clear that a person having ordinary knowledge in the field of technology to which the present invention belongs can come up with various modifications or modifications within the scope of the technical idea described in the claims. , These are also naturally understood to belong to the technical scope of the present invention.

たとえば、上記においては、コミュニケーション端末300の制御部330が、提示部350によって提示される各種情報のレイアウト(たとえば、図6に示した感情バランス調整処理中であることを示す表示画面、図7に示した感情誘導刺激を含む表示画面、図8に示した呼び出し処理中の表示画面、図13に示した感情バランス調整処理中であることを示す表示画面など)を決める場合を主に想定した。しかし、提示部350によって提示される各種情報のレイアウトは、他の装置(たとえば、感情制御サーバ100など)によって決められてもよい。 For example, in the above, the display screen showing that the control unit 330 of the communication terminal 300 is in the process of laying out various information presented by the presentation unit 350 (for example, the emotional balance adjustment process shown in FIG. 6, FIG. 7). It is mainly assumed that the display screen including the emotion-inducing stimulus shown, the display screen during the call processing shown in FIG. 8, the display screen indicating that the emotion balance adjustment processing shown in FIG. 13 is being performed, and the like) are determined. However, the layout of various information presented by the presentation unit 350 may be determined by another device (for example, the emotion control server 100).

また、上記においては、感情制御サーバ100が発呼側および着呼側のユーザー900のコミュニケーション端末300とは、独立して設けられる場合を主に想定した。しかし、感情制御サーバ100が有する機能の一部または全部は、発呼側または着呼側のユーザー900のコミュニケーション端末300に組み込まれていてもよい。かかる場合には、感情制御サーバ100と発呼側または着呼側のユーザー900のコミュニケーション端末300との間の通信によって実現される機能は、発呼側および着呼側のユーザー900のコミュニケーション端末300間のP2P通信によって実現される。 Further, in the above, it is mainly assumed that the emotion control server 100 is provided independently of the communication terminal 300 of the user 900 on the calling side and the calling side. However, some or all of the functions of the emotion control server 100 may be incorporated in the communication terminal 300 of the calling or calling user 900. In such a case, the function realized by the communication between the emotion control server 100 and the communication terminal 300 of the calling side or the calling side user 900 is the communication terminal 300 of the calling side and the calling side user 900. It is realized by P2P communication between.

100 感情制御サーバ
110 通信部
120 記憶部
121 感情誘導刺激DB
122 感情認識辞書DB
130 制御部
131 感情推定部
133 感情バランス調整制御部
135 感情誘導刺激提示制御部
137 通話契機制御部
139 感情誘導作用予測部
1000 感情制御サーバ
200 センサ端末
210 通信部
220 計測部
230 制御部
300 コミュニケーション端末
310 通信部
320 記憶部
330 制御部
340 入力部
350 提示部
100 Emotion control server 110 Communication unit 120 Memory unit 121 Emotion-guided stimulus DB
122 Emotion recognition dictionary DB
130 Control unit 131 Emotion estimation unit 133 Emotion balance adjustment control unit 135 Emotion guidance stimulus presentation control unit 137 Call trigger control unit 139 Emotion induction action prediction unit 1000 Emotion control server 200 Sensor terminal 210 Communication unit 220 Measurement unit 230 Control unit 300 Communication terminal 310 Communication unit 320 Storage unit 330 Control unit 340 Input unit 350 Presentation unit

Claims (14)

発呼側のユーザーの感情推定情報と着呼側のユーザーの感情推定情報との差分を算出し、前記差分が所定の量を超えるか否かを判断する判断部と、
前記差分が前記所定の量を超えると判断された場合に、前記発呼側のユーザー及び前記着呼側のユーザーのうち少なくともいずれか一方に対して、所定の刺激が提示されるように制御する提示制御部と、
を備える、制御装置。
A determination unit that calculates the difference between the emotion estimation information of the calling side user and the emotion estimation information of the calling side user, and determines whether or not the difference exceeds a predetermined amount.
When it is determined that the difference exceeds the predetermined amount, control is performed so that a predetermined stimulus is presented to at least one of the calling side user and the calling side user. Presentation control unit and
A control device.
前記発呼側のユーザーの感情推定情報は、前記発呼側のユーザーのポジティブ度を含み、
前記着呼側のユーザーの感情推定情報は、前記着呼側のユーザーのポジティブ度を含む、
請求項1に記載の制御装置。
The emotion estimation information of the calling side user includes the positive degree of the calling side user.
The emotion estimation information of the calling party user includes the positive degree of the calling party user.
The control device according to claim 1.
前記提示制御部は、前記発呼側のユーザー及び前記着呼側のユーザーのうち少なくとも前記ポジティブ度がより低いユーザーに対して前記所定の刺激が提示されるように制御する、
請求項2に記載の制御装置。
The presentation control unit controls so that the predetermined stimulus is presented to at least the user having a lower positive degree among the calling side user and the calling side user.
The control device according to claim 2.
前記制御装置は、前記差分が前記所定の量を超えると判断された場合に、少なくとも前記差分が視認可能に前記発呼側のユーザーに提示されるように制御する契機制御部を備える、
請求項1に記載の制御装置。
The control device includes an opportunity control unit that controls at least the difference to be visually presented to the calling user when it is determined that the difference exceeds the predetermined amount.
The control device according to claim 1.
前記制御装置は、所定の条件が満たされた場合、前記発呼側のユーザーと前記着呼側のユーザーとの間の通信を開始させる契機制御部を備える、
請求項1に記載の制御装置。
The control device includes an opportunity control unit that starts communication between the calling side user and the calling side user when a predetermined condition is satisfied.
The control device according to claim 1.
前記判断部は、前記差分が前記所定の量を超えると判断した場合に、少なくとも前記所定の刺激が提示されたユーザーの感情推定情報に基づいて前記差分を再度算出し、前記差分が前記所定の量以下になったか否かを判断し、
前記契機制御部は、前記差分が前記所定の量以下になったと判断された場合、前記発呼側のユーザーと前記着呼側のユーザーとの間の通信を開始させる、
請求項5に記載の制御装置。
When the determination unit determines that the difference exceeds the predetermined amount, the determination unit recalculates the difference based on at least the emotion estimation information of the user presented with the predetermined stimulus, and the difference is the predetermined amount. Judge whether it is less than the amount,
When it is determined that the difference is equal to or less than the predetermined amount, the trigger control unit starts communication between the calling side user and the calling side user.
The control device according to claim 5.
前記契機制御部は、所定の通信開始指示が入力された場合、前記発呼側のユーザーと前記着呼側のユーザーとの間の通信を開始させる、
請求項5に記載の制御装置。
When a predetermined communication start instruction is input, the trigger control unit starts communication between the calling side user and the calling side user.
The control device according to claim 5.
前記判断部は、前記差分が前記所定の量を超える時間が所定の時間を経過した場合、前記所定の量が増加するように前記所定の量を変化させる、
請求項1に記載の制御装置。
The determination unit changes the predetermined amount so that the predetermined amount increases when the predetermined time elapses for the time when the difference exceeds the predetermined amount.
The control device according to claim 1.
前記制御装置は、前記差分が前記所定の量を超えると判断された場合に、前記差分が前記所定の量以下になるまでの予測時間が、前記発呼側のユーザー及び前記着呼側のユーザーのうち少なくともいずれか一方に対して提示されるように制御する予測部を備える、
請求項1に記載の制御装置。
When the control device determines that the difference exceeds the predetermined amount, the estimated time until the difference becomes equal to or less than the predetermined amount is determined by the calling side user and the calling side user. A predictor that controls to be presented to at least one of the
The control device according to claim 1.
前記所定の刺激は、既知の感情誘導刺激のデータと前記感情誘導刺激を受けたユーザーの感情変容の正解情報のデータとに基づいて学習処理によって生成された推定モデルに基づいて、感情が変化しやすいと推定された刺激である、
請求項1に記載の制御装置。
The predetermined stimulus changes the emotion based on an estimation model generated by a learning process based on the data of the known emotion-induced stimulus and the data of the correct answer information of the emotional transformation of the user who received the emotion-induced stimulus. It is a stimulus that is presumed to be easy,
The control device according to claim 1.
前記所定の刺激は、画像表示および音出力の少なくともいずれか一方によって提示される、
請求項1に記載の制御装置。
The predetermined stimulus is presented by at least one of image display and sound output.
The control device according to claim 1.
コンピュータが、発呼側のユーザーの感情推定情報と着呼側のユーザーの感情推定情報との差分を算出し、前記差分が所定の量を超えるか否かを判断することと、
前記コンピュータが、前記差分が前記所定の量を超えると判断された場合に、前記発呼側のユーザー及び前記着呼側のユーザーのうち少なくともいずれか一方に対して、所定の刺激が提示されるように提示部を制御することと、
を含む、制御方法。
The computer calculates the difference between the emotion estimation information of the calling user and the emotion estimation information of the calling user, and determines whether or not the difference exceeds a predetermined amount.
When the computer determines that the difference exceeds the predetermined amount, a predetermined stimulus is presented to at least one of the calling side user and the calling side user. To control the presentation part and
Control methods, including.
コンピュータを、
発呼側のユーザーの感情推定情報と着呼側のユーザーの感情推定情報との差分を算出し、前記差分が所定の量を超えるか否かを判断する判断部と、
前記差分が前記所定の量を超えると判断された場合に、前記発呼側のユーザー及び前記着呼側のユーザーのうち少なくともいずれか一方に対して、所定の刺激が提示されるように制御する提示制御部と、
を備える制御装置として機能させるためのプログラム。
Computer,
A determination unit that calculates the difference between the emotion estimation information of the calling side user and the emotion estimation information of the calling side user, and determines whether or not the difference exceeds a predetermined amount.
When it is determined that the difference exceeds the predetermined amount, control is performed so that a predetermined stimulus is presented to at least one of the calling side user and the calling side user. Presentation control unit and
A program for functioning as a control device.
発呼側のユーザーの感情推定情報と着呼側のユーザーの感情推定情報との差分を算出し、前記差分が所定の量を超えるか否かを判断する判断部と、
前記差分が前記所定の量を超えると判断された場合に、前記発呼側のユーザー及び前記着呼側のユーザーのうち少なくともいずれか一方に対して、所定の刺激が提示されるように制御する提示制御部と、
を備える、制御装置と、
前記所定の刺激を提示する提示装置と、
を有する、制御システム。
A determination unit that calculates the difference between the emotion estimation information of the calling side user and the emotion estimation information of the calling side user, and determines whether or not the difference exceeds a predetermined amount.
When it is determined that the difference exceeds the predetermined amount, control is performed so that a predetermined stimulus is presented to at least one of the calling side user and the calling side user. Presentation control unit and
With a control device and
A presentation device that presents the predetermined stimulus and
Has a control system.
JP2017187348A 2017-09-28 2017-09-28 Control devices, control methods, programs and control systems Active JP6933076B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017187348A JP6933076B2 (en) 2017-09-28 2017-09-28 Control devices, control methods, programs and control systems

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017187348A JP6933076B2 (en) 2017-09-28 2017-09-28 Control devices, control methods, programs and control systems

Publications (2)

Publication Number Publication Date
JP2019062490A JP2019062490A (en) 2019-04-18
JP6933076B2 true JP6933076B2 (en) 2021-09-08

Family

ID=66178644

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017187348A Active JP6933076B2 (en) 2017-09-28 2017-09-28 Control devices, control methods, programs and control systems

Country Status (1)

Country Link
JP (1) JP6933076B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020246600A1 (en) * 2019-06-07 2020-12-10 国立大学法人電気通信大学 Learning device, space control device, learning program, and space control program
WO2021250731A1 (en) * 2020-06-08 2021-12-16 日本電信電話株式会社 Message selection device, message presentation device, message selection method, and message selection program
JP7400968B2 (en) * 2020-06-08 2023-12-19 日本電信電話株式会社 Message generation device, message presentation device, message generation method, and message generation program
WO2022138153A1 (en) * 2020-12-22 2022-06-30 ソニーグループ株式会社 Information processing device and method, and program
WO2022180861A1 (en) * 2021-02-26 2022-09-01 株式会社I’mbesideyou Video session evaluation terminal, video session evaluation system, and video session evaluation program
WO2023013475A1 (en) * 2021-08-03 2023-02-09 株式会社Nttドコモ Behavioral change promotion device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009151766A (en) * 2007-11-30 2009-07-09 Nec Corp Life adviser support system, adviser side terminal system, authentication server, server, support method and program
KR101404409B1 (en) * 2012-07-31 2014-06-09 에스케이플래닛 주식회사 Method for communication service checking for psychology of caller's opponent party, apparatus thereof and service apparatus thereof
JP6601069B2 (en) * 2015-09-01 2019-11-06 カシオ計算機株式会社 Dialog control apparatus, dialog control method, and program

Also Published As

Publication number Publication date
JP2019062490A (en) 2019-04-18

Similar Documents

Publication Publication Date Title
JP6933076B2 (en) Control devices, control methods, programs and control systems
CN108886532B (en) Apparatus and method for operating personal agent
Benssassi et al. Wearable assistive technologies for autism: opportunities and challenges
US20220392625A1 (en) Method and system for an interface to provide activity recommendations
JP6930277B2 (en) Presentation device, presentation method, communication control device, communication control method and communication control system
US8963987B2 (en) Non-linguistic signal detection and feedback
JP6798484B2 (en) Information processing systems, control methods, and programs
JP2019522300A (en) Mobile and wearable video capture and feedback platform for the treatment of mental disorders
JP6965525B2 (en) Emotion estimation server device, emotion estimation method, presentation device and emotion estimation system
JP2017123149A (en) Method and system of group interaction by user state detection
GB2478034A (en) Systems for inducing change in a human physiological characteristic representative of an emotional state
US9361316B2 (en) Information processing apparatus and phrase output method for determining phrases based on an image
JP7438653B2 (en) Emotional information management server device, emotional information management method, program and information communication system
US9802125B1 (en) On demand guided virtual companion
US11935140B2 (en) Initiating communication between first and second users
US20170340256A1 (en) Requesting assistance based on user state
EP4058967A1 (en) System and method for collecting behavioural data to assist interpersonal interaction
WO2022064621A1 (en) Video meeting evaluation system and video meeting evaluation server
JP2020052748A (en) Server device, information processing method, program, terminal device, and information communication system
Babu et al. Marve: a prototype virtual human interface framework for studying human-virtual human interaction
Mansouri Benssassi et al. Wearable assistive technologies for autism: opportunities and challenges
WO2022064620A1 (en) Video meeting evaluation system and video meeting evaluation server
WO2022064617A1 (en) Video meeting evaluation system and video meeting evaluation server
WO2022064619A1 (en) Video meeting evaluation system and video meeting evaluation server
WO2022064618A1 (en) Video meeting evaluation system and video meeting evaluation server

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190327

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210330

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210720

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210802

R150 Certificate of patent or registration of utility model

Ref document number: 6933076

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150