JP2015220534A - Auxiliary apparatus, auxiliary system and auxiliary method for communication, and program - Google Patents

Auxiliary apparatus, auxiliary system and auxiliary method for communication, and program Download PDF

Info

Publication number
JP2015220534A
JP2015220534A JP2014101551A JP2014101551A JP2015220534A JP 2015220534 A JP2015220534 A JP 2015220534A JP 2014101551 A JP2014101551 A JP 2014101551A JP 2014101551 A JP2014101551 A JP 2014101551A JP 2015220534 A JP2015220534 A JP 2015220534A
Authority
JP
Japan
Prior art keywords
participant
base
site
amount
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014101551A
Other languages
Japanese (ja)
Other versions
JP6543891B2 (en
Inventor
真弓 松原
Mayumi Matsubara
真弓 松原
正豪 原島
Masatake Harashima
正豪 原島
余平 哲也
Tetsuya Yohira
哲也 余平
雄也 遠藤
Yuya Endo
雄也 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014101551A priority Critical patent/JP6543891B2/en
Publication of JP2015220534A publication Critical patent/JP2015220534A/en
Application granted granted Critical
Publication of JP6543891B2 publication Critical patent/JP6543891B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a technique which can adjust the degree of presenting the existence of the self to an opposite party.SOLUTION: There is provided a communication auxiliary apparatus for assisting communication between a video conference terminal 10A disposed in a first base 11A and a video conference terminal 10B disposed in a second base 11B through a communication network N. The first base includes: a wireless communication unit 53 for receiving a second base state information which represents an estimated state of the second base; a sense quantity range calculation unit 55a for calculating the range of a sense amount which a first participant 13 located in the first base is perceptible; an intention amount calculation unit 55b for calculating the intention amount of a second participant located in the second base, on the basis of the second base state information and the range of the sense amount of the first participant; and a stimulus output unit 57 for outputting a stimulus according to the intention amount so that can be perceived by the first participant.

Description

本発明は、通信ネットワークを介して、遠隔地間でのコミュニケーションを補助するのに好適なコミュニケーション補助装置、コミュニケーション補助システム、コミュニケーション補助方法及びプログラムに関する。   The present invention relates to a communication assistance device, a communication assistance system, a communication assistance method, and a program suitable for assisting communication between remote locations via a communication network.

近年、通信ネットワーク技術が向上し、遠隔地とのコミュニケーションが手軽に行えるようになっている。例えば、遠隔地間で行われるテレビ会議では、音声と映像を送受信することにより、拠点を移動せずに会議を実施することができるため、空間的制約も少なく需要も高まっており、既に多くの場面で活用されている。
また、携帯電話のメールやチャットなど、文字を送受信することで、遠隔地間で手軽にコミュニケーションを行うことが可能となっている。
しかし、音声や映像ならびに文字を用いた遠隔コミュニケーションにおいては、参加者が実際に1つの空間を共有していない。
例えば、テレビ会議では、一つの拠点内でテレビ会議が白熱すると、異なる拠点にいる参加者の存在を忘れてしまう場合があり、一つの拠点内で会議が盛り上がってしまうといった問題が発生し易い。
例えば、テレビ会議では、一つの拠点で異なる拠点の様子を映像としてモニタに表示するが、映像には限りがあるので、充分に目視確認が可能な映像情報(非言語情報)の伝達ができていないため、このような問題が起こり易い。
In recent years, communication network technology has improved and communication with remote locations can be easily performed. For example, in teleconferences held between remote locations, by transmitting and receiving audio and video, the conference can be carried out without moving the base, so there is little space restriction and demand is increasing. It is used in the scene.
In addition, it is possible to easily communicate between remote locations by sending and receiving characters such as e-mail and chat on mobile phones.
However, in remote communication using voice, video, and characters, participants do not actually share one space.
For example, in a video conference, when a video conference is heated in one base, there is a case where the presence of a participant in a different base may be forgotten, and a problem that the conference is excited in one base is likely to occur.
For example, in a video conference, the situation of different sites at one site is displayed as a video on the monitor, but since the video is limited, video information (non-linguistic information) that can be sufficiently visually confirmed can be transmitted. Such a problem is likely to occur.

特許文献1には、映像に非言語情報を付加して会議を行う一例として、参加者が発言者に対して同調の度合いを表す情報に基づいて、次に発言しようとしている参加者の候補が選択されて各参加者に提示させる。
また、非特許文献1では、移動機能とカメラによる映像撮影機能を有するロボットによって、遠隔地にいる参加者がロボットを操縦し、自分(参加者)がどこを見ているのかを異なる拠点の参加者に提示させている。さらに見られているという意識を異なる拠点の参加者に持たせることで存在感を表現させている。
In Patent Document 1, as an example of performing a conference by adding non-linguistic information to a video, a participant candidate who is going to speak next is based on information indicating a degree of synchronization with the speaker. Selected and presented to each participant.
Further, in Non-Patent Document 1, a robot having a moving function and a camera video shooting function allows a remote participant to control the robot and determine where he (participant) is looking at. To present. Furthermore, the presence is expressed by giving the participants of different bases the awareness of being seen.

特許文献1は、参加者が発言しようと試みた場合に対してのみ有効である。一方、参加者が発言するまでではないが、自分の存在を異なる拠点の参加者に気にして欲しい場合には無効である。つまり、自分が異なる拠点の参加者に提示したい自分の存在を表す度合いを調整できないという問題があった。
さらに、テレビ会議で資料のみをモニタに表示させた場合、参加者がモニタに表示されていないので、異なる拠点の参加者に自分の存在を気にして欲しくても気にしてもらえないといった問題があった。
また、非特許文献1は、さりげなく存在感を提示することは難しい。テレビ会議の最中にロボットが動き回った場合、参加者の感覚に与える刺激が強く、必要以上にロボットの存在感が提示される。したがって、異なる拠点の参加者に自分が提示したい存在の度合いを調整できないといった問題があった。
以上のように、従来の遠隔コミュニケーションでは、相手に自分の存在を提示する度合いを表す量を調整できず、遠隔地の参加者の存在感が低下するという問題があった。逆に、ロボットを用いた場合、遠隔地の参加者が存在感を強く提示されるという問題があった。
本発明は、上記に鑑みてなされたもので、その目的としては、相手に自分の存在を提示する度合いの調整を行うことが可能な技術を提供することにある。
Patent Document 1 is effective only when a participant attempts to speak. On the other hand, it is not effective when the participant wants to be aware of his / her presence by a participant at a different base, not until the participant speaks. In other words, there is a problem that the degree of expressing one's presence that he wants to present to participants at different bases cannot be adjusted.
In addition, when only materials are displayed on a monitor in a video conference, the participants are not displayed on the monitor, so there is a problem that participants in different locations may not care if they want to be aware of their existence. there were.
Further, it is difficult for Non-Patent Document 1 to present a presence casually. When the robot moves around during the video conference, the stimulus given to the participant's sense is strong, and the presence of the robot is presented more than necessary. Therefore, there is a problem that it is impossible to adjust the degree of existence that one wants to present to participants at different bases.
As described above, in the conventional remote communication, there is a problem that the amount representing the degree of presenting the presence of the user to the other party cannot be adjusted, and the presence of the participants in the remote place is lowered. On the other hand, when using a robot, there was a problem that participants at remote locations were strongly presented.
The present invention has been made in view of the above, and an object thereof is to provide a technique capable of adjusting the degree of presenting his / her presence to the other party.

請求項1記載の発明は、上記課題を解決するため、第1拠点に配置された第1会議端末および第2拠点に配置された第2会議端末の間でネットワークを経由したコミュニケーションを補助するコミュニケーション補助装置であって、前記第1拠点には、推定された前記第2拠点の状況を表す第2拠点状況情報を受信する受信手段と、前記第1拠点にいる第1参加者が知覚可能な感覚量の範囲を算出する感覚量範囲算出手段と、前記第2拠点状況情報と前記第1参加者の感覚量の範囲に基づいて、前記第2拠点にいる第2参加者の意思量を算出する意思量算出手段と、前記意思量に応じた刺激を前記第1参加者が知覚できるように出力する刺激出力手段と、を備えることを特徴とする。   In order to solve the above problem, the invention according to claim 1 is a communication for assisting communication via a network between the first conference terminal arranged at the first base and the second conference terminal arranged at the second base. An auxiliary device, wherein the first site is perceivable by a receiving means for receiving second site status information representing the estimated status of the second site and a first participant at the first site Based on the sensory amount range calculating means for calculating the sensory amount range, the second site status information and the sensory amount range of the first participant, the intention amount of the second participant at the second site is calculated. Intention amount calculating means, and stimulus output means for outputting the stimulus corresponding to the intention amount so that the first participant can perceive.

本発明によれば、第2拠点状況情報と第1参加者の感覚量の範囲に基づいて、第2拠点にいる第2参加者意思量を算出し、当該意思量に応じた刺激を第1参加者が知覚できるように出力することで、相手に自分の存在を提示する度合いの調整を行うことができる。   According to the present invention, the second participant intention amount at the second base is calculated based on the second site status information and the range of the first participant's sense amount, and the first stimulus corresponding to the intention amount is calculated. By outputting so that a participant can perceive, it is possible to adjust the degree of presenting his / her presence to the other party.

本発明の第1実施形態に係るコミュニケーション補助システムがテレビ会議システムに使用されている構成について説明するための模式図である。It is a schematic diagram for demonstrating the structure by which the communication assistance system which concerns on 1st Embodiment of this invention is used for the video conference system. 本発明の第1実施形態に係るコミュニケーション補助システムを示すブロック図である。It is a block diagram which shows the communication assistance system which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係るコミュニケーション補助システムの動作を表すフローチャートである。It is a flowchart showing operation | movement of the communication assistance system which concerns on 1st Embodiment of this invention. 本発明の第2実施形態に係るコミュニケーション補助システムの動作を表すフローチャートであり、特に、図3に示すステップS200の具体的な例を示すフローチャートである。It is a flowchart showing operation | movement of the communication assistance system which concerns on 2nd Embodiment of this invention, and is especially a flowchart which shows the specific example of step S200 shown in FIG. 本発明の第3実施形態に係るコミュニケーション補助システムの動作を表すフローチャートであり、特に、図4に示す第1拠点状況算出処理(ステップS210)の具体的な例を表すフローチャートである。It is a flowchart showing operation | movement of the communication assistance system which concerns on 3rd Embodiment of this invention, and is a flowchart showing the specific example of the 1st location situation calculation process (step S210) shown in FIG. 4 especially. 本発明の第4実施形態に係るコミュニケーション補助システムの動作を表すフローチャートであり、特に、図4に示す第2拠点状況算出処理(ステップS250)の具体的な例を説明するためのフローチャートである。It is a flowchart showing operation | movement of the communication assistance system which concerns on 4th Embodiment of this invention, and is especially a flowchart for demonstrating the specific example of the 2nd site | part condition calculation process (step S250) shown in FIG. 本発明の第5実施形態に係るコミュニケーション補助システムの動作を表すフローチャートであり、特に、図5とは異なる図4に示す第1拠点状況算出処理(ステップS210)の具体的な例を説明したフローチャートである。It is a flowchart showing operation | movement of the communication assistance system which concerns on 5th Embodiment of this invention, and the flowchart explaining the specific example of the 1st site | part condition calculation process (step S210) shown in FIG. 4 different from FIG. 5 especially. It is. 本発明の第6実施形態に係るコミュニケーション補助システムの動作を表すフローチャートであり、特に、図3に示す刺激量算出処理(ステップS300)の具体的な例を説明するためのフローチャートである。It is a flowchart showing operation | movement of the communication assistance system which concerns on 6th Embodiment of this invention, and is especially a flowchart for demonstrating the specific example of the stimulus amount calculation process (step S300) shown in FIG. 本発明の第7実施形態に係るコミュニケーション補助システムに用いる、図1に示す第2参加者を表すアバターロボットの具体的な例を説明した図である。It is a figure explaining the specific example of the avatar robot showing the 2nd participant shown in FIG. 1 used for the communication assistance system which concerns on 7th Embodiment of this invention. 第1拠点11Aの第1参加者13と第3参加者14の感覚Eの分布のさりげない範囲を具体的に説明するためのグラフで示した図である。It is the figure shown with the graph for demonstrating concretely the casual range of distribution of the sense E of the 1st participant 13 of the 1st base 11A, and the 3rd participant. (a)は第1拠点11Aの第1参加者13と第3参加者14の感覚Eの分布から第1拠点11Aの感覚Eのさりげない範囲を具体的に説明するためのグラフ図であり、(b)は第1拠点11Aに沢山の参加がいた場合参加者毎の感覚Eの分布のさりげないと感じる範囲から、第2参加者が与えたいと思っている感覚Eを算出する方法を説明するためのグラフで示した図である。(A) is a graph for specifically explaining the casual range of the sensation E of the first base 11A from the distribution of the sensation E of the first participant 13 and the third participant 14 of the first base 11A. (B) explains how to calculate the sensation E that the second participant wants to give from the range where the distribution of the sensation E per participant is felt casual when there is a lot of participation at the first base 11A. It is the figure shown with the graph for doing. (a)は、第1拠点11Aに存在する複数参加者のさりげないと感じる感覚の最大値E_maxの確率密度の具体例を説明するためのグラフで示した図であり、(b)は第1拠点11Aに存在する複数参加者のさりげないと感じる感覚の最小値E_minの確率密度の具体例を説明した図であり、(c)は第1拠点11Aのテレビ会議の拠点状況情報に応じて、第1拠点11Aのさりげないと感じる感覚量の範囲E_maxとE_minを更新する具体的な例を説明するためのグラフで示した図である。(A) is the figure shown with the graph for demonstrating the specific example of the probability density of the maximum value E_max of the sensation which the multiple participant who exists in the 1st base 11A feels casually, (b) is 1st. It is the figure explaining the specific example of the probability density of the minimum value E_min of the sensation that a plurality of participants existing in the base 11A feel casually, (c) according to the base situation information of the video conference of the first base 11A, It is the figure shown with the graph for demonstrating the specific example which updates the range E_max and E_min of the amount of sensations which the 1st base 11A feels casually. 第2拠点11Bの第2参加者15が自分の存在に気付いて欲しいと思っている度合いを反映し、第1拠点参加者に提示する感覚量Eを算出する具体的な例を説明するためのグラフで示した図である。Reflecting the degree that the second participant 15 at the second base 11B wants to be aware of his / her presence, a specific example for calculating the sensory amount E to be presented to the first base participant It is the figure shown by the graph.

本発明は、遠隔地間でのコミュニケーションによる会議や会話の進行を止めることなく、さりげなく自分の存在感を相手側に提示することで、遠隔地という空間が異なることによる存在感の差を低減できるようにし、これにより通信ネットワークを介して行われるコミュニケーションの一体感を提供することを可能にする。
一般に、人間の感覚量は刺激強度と関係性を有している。例えばフェヒナーの法則では、感覚量は刺激強度の対数に比例する。
ここで、定数K、刺激量Rとすると、感覚量(心理量)Eは、E=K・log(R)と表すことができる。
従って、遠隔地の参加者に与える刺激量を調整すれば、自分の存在感の量を調整できることが期待できるため、遠隔地の参加者にさりげない存在感の提示が可能になる。すなわち、相手に自分の存在を提示する度合いの調整を行うことができる。
The present invention reduces the difference in presence due to the difference in remote space by presenting its presence casually to the other party without stopping the progress of conferences and conversations by communication between remote locations This makes it possible to provide a sense of unity of communication performed over a communication network.
In general, the amount of human sense has a relationship with the stimulus intensity. For example, according to Fechner's law, the sensory amount is proportional to the logarithm of the stimulus intensity.
Here, if the constant K and the stimulus amount R are given, the sensory amount (psychological amount) E can be expressed as E = K · log (R).
Therefore, if the amount of stimulation given to the remote participant is adjusted, it can be expected that the amount of presence can be adjusted, so that a casual presence can be presented to the remote participant. That is, it is possible to adjust the degree of presenting one's presence to the other party.

本発明の実施形態について図面を参照して説明する。
<第1実施形態>
図1は本発明の第1実施形態に係るコミュニケーション補助システムがテレビ会議システムに使用されている構成の一例について説明するための模式図である。
ここで、図1を参照して、コミュニケーション補助システムの機能構成について説明する。
図1に示すコミュニケーション補助システムは、第1拠点11A、第2拠点11Bに夫々設置されたテレビ会議端末(会議端末)10A、テレビ会議端末(会議端末)10Bと、これらテレビ会議端末10A、テレビ会議端末10Bが接続される通信ネットワークNで構成される。
テレビ会議端末10A、テレビ会議端末10Bは、夫々撮像装置4、マイク5、スピーカ6、ディスプレイ7、処理装置8を備えている。
Embodiments of the present invention will be described with reference to the drawings.
<First Embodiment>
FIG. 1 is a schematic diagram for explaining an example of a configuration in which the communication assistance system according to the first embodiment of the present invention is used in a video conference system.
Here, with reference to FIG. 1, the functional configuration of the communication assist system will be described.
1 includes a video conference terminal (conference terminal) 10A and a video conference terminal (conference terminal) 10B installed at the first base 11A and the second base 11B, the video conference terminal 10A, and the video conference, respectively. The communication network N is connected to the terminal 10B.
The video conference terminal 10A and the video conference terminal 10B each include an imaging device 4, a microphone 5, a speaker 6, a display 7, and a processing device 8.

例えば、第1拠点11Aに設置されたテレビ会議端末10Aの撮像装置4で撮影された画像(静止画像又は動画像)は、撮像装置4と処理装置8との連携動作により画像データに補正処理を施し、当該テレビ会議端末10A内のディスプレイ7に画像を表示する。同時に、この補正処理を施した画像データは、通信ネットワークNに接続された第2拠点11Bに設置されている相手側のテレビ会議端末10Bにも伝送されて、そのディスプレイ7に画像が表示される。
例えば、第2拠点11Bに設置されているテレビ会議端末10Bにおいて、操作者が操作部(図示しない)の拡大/縮小ボタンを押下すると、当該テレビ会議端末10B内に設けられた同じく撮像装置4と処理装置8と連携動作によりデジタルズーム処理が施される。この結果、デジタルズーム画像が当該テレビ会議端末10Bのディスプレイ7に表示される。同時に、通信ネットワークNに接続された第1拠点11Aに設置されているテレビ会議端末10Aにも画像データが伝送されて、そのディスプレイ7に画像表示される。
For example, an image (still image or moving image) captured by the imaging device 4 of the video conference terminal 10 </ b> A installed at the first base 11 </ b> A is subjected to a correction process on the image data by a cooperative operation between the imaging device 4 and the processing device 8. The image is displayed on the display 7 in the video conference terminal 10A. At the same time, the image data subjected to this correction processing is also transmitted to the video conference terminal 10B on the other side installed at the second base 11B connected to the communication network N, and an image is displayed on the display 7. .
For example, in the video conference terminal 10B installed at the second base 11B, when the operator presses an enlarge / reduce button of an operation unit (not shown), the same imaging device 4 provided in the video conference terminal 10B. Digital zoom processing is performed in cooperation with the processing device 8. As a result, the digital zoom image is displayed on the display 7 of the video conference terminal 10B. At the same time, the image data is also transmitted to the video conference terminal 10A installed at the first base 11A connected to the communication network N and displayed on the display 7 thereof.

図1において、第1拠点11Aには第1参加者13、第3参加者14が存在し、第2拠点11Bには、第2参加者15が存在している。さらに、第1拠点11Aには第2拠点11Bに存在する第2参加者15を表すアバターロボット17が移動自在に配置される。
本発明は、3人以上で2つの異なる拠点間においてコミュニケーションを行う場合に効力を発揮するものである。以下、遠隔地に配置されているテレビ会議端末10A、10Bを用いてテレビ会議を行う場合を一例にして説明する。
図1は、異なる拠点間においてコミュニケーションを行う場合の具体的な例である。
第1拠点11Aでの会話が白熱した状況、つまり、第1参加者13と第3参加者14がテレビ会議の会話が盛り上がり、第2参加者15の存在を忘れて会話を継続している状況を想定する。
第2参加者15は、第1参加者13と第3参加者14に向けて発言し、第1参加者13と第3参加者14との会話中に割り込むことで、第1参加者13と第3参加者14に第2参加者15の存在を知らしめることも可能である。
しかし、第2参加者15は、テレビ会議の進行を停止することは望んでおらず、発言はしたくないと思っていると仮定する。しかし、自分の存在には気付いて欲しいとは思っている。このような場合に、第1拠点11Aに存在する、第2参加者15を表すアバターロボット17がさりげなく第2参加者15の存在を提示することで、テレビ会議の進行を妨げることなく、第2参加者15の存在を、第1参加者13と第3参加者14に伝えることができる。本発明は、上記のような状況において使用する発明である。
In FIG. 1, a first participant 13 and a third participant 14 exist at the first base 11A, and a second participant 15 exists at the second base 11B. Further, an avatar robot 17 representing the second participant 15 existing at the second base 11B is movably disposed at the first base 11A.
The present invention is effective when three or more people communicate between two different sites. Hereinafter, a case where a video conference is performed using the video conference terminals 10 </ b> A and 10 </ b> B arranged at remote locations will be described as an example.
FIG. 1 is a specific example when communication is performed between different bases.
The situation where the conversation at the first base 11A was incandescent, that is, the situation where the first participant 13 and the third participant 14 were excited about the video conference conversation and forgot the existence of the second participant 15 and continued the conversation. Is assumed.
The second participant 15 speaks to the first participant 13 and the third participant 14, and interrupts during the conversation between the first participant 13 and the third participant 14, It is also possible to inform the third participant 14 of the presence of the second participant 15.
However, it is assumed that the second participant 15 does not want to stop the video conference, and does not want to speak. However, I want you to be aware of my existence. In such a case, the avatar robot 17 representing the second participant 15 present at the first base 11A casually presents the presence of the second participant 15, so that the progress of the video conference is not hindered. The presence of the two participants 15 can be communicated to the first participant 13 and the third participant 14. The present invention is used in the above situation.

図1において、本発明の第1実施形態に係るコミュニケーション補助システムは、第1拠点状況計測推定ユニット20、中継ユニット30、第2拠点状況計測推定ユニット40、刺激量算出出力ユニット50等のコミュニケーション補助装置を備えている。
図2は本発明の第1実施形態に係るコミュニケーション補助システムを示すブロック図である。
図2において、コミュニケーション補助システムは、第1拠点状況計測推定ユニット20、第2拠点状況計測推定ユニット40、刺激量算出出力ユニット50を備えている。
第1拠点状況計測推定ユニット20は、第1拠点状況計測部21、第1拠点状況取込部23、第1拠点状況推定部25、無線通信部27を備える。第1拠点状況計測部21は、第1拠点11Aの状況を計測する。第1拠点状況取込部23は、第1拠点状況計測部21で計測した第1拠点11Aの状況を取り込む。第1拠点状況推定部25は、第1拠点状況取込部23で取り込まれた第1拠点11Aの状況から第1拠点11Aの状況の情報を示す第1拠点状況情報を推定する。無線通信部27は、第1拠点状況推定部25で推定された第1拠点状況情報を無線通信部51に送信する。このように、第1拠点状況計測推定ユニット20は、第1拠点11Aの状況を表す第1拠点状況情報を推定し、無線通信部27から刺激量算出出力ユニット50に設けられた無線通信部51に第1拠点状況情報を送信する。
In FIG. 1, the communication assistance system according to the first embodiment of the present invention is a communication assistance system such as a first site situation measurement estimation unit 20, a relay unit 30, a second site situation measurement estimation unit 40, and a stimulus amount calculation output unit 50. Equipment.
FIG. 2 is a block diagram showing the communication assist system according to the first embodiment of the present invention.
In FIG. 2, the communication assistance system includes a first site situation measurement estimation unit 20, a second site situation measurement estimation unit 40, and a stimulus amount calculation output unit 50.
The first site status measurement estimation unit 20 includes a first site status measurement unit 21, a first site status capture unit 23, a first site status estimation unit 25, and a wireless communication unit 27. The first site status measurement unit 21 measures the status of the first site 11A. The first site status capture unit 23 captures the status of the first site 11 </ b> A measured by the first site status measurement unit 21. The first site status estimating unit 25 estimates first site status information indicating the status information of the first site 11A from the status of the first site 11A captured by the first site status capturing unit 23. The wireless communication unit 27 transmits the first site status information estimated by the first site status estimation unit 25 to the radio communication unit 51. In this way, the first site status measurement estimation unit 20 estimates the first site status information representing the status of the first site 11A, and the radio communication unit 51 provided in the stimulus amount calculation output unit 50 from the radio communication unit 27. To send the first site status information.

中継ユニット30は、通信ネットワークNを介して送受信される通信情報を第2拠点状況計測推定ユニット40と刺激量算出出力ユニット50との間で無線中継する。
第2拠点状況計測推定ユニット40は、第2拠点状況計測部41、第2拠点状況取込部43、第2拠点状況推定部45、第2拠点通信制御部47を備える。第2拠点状況計測部41は、第2拠点11Bの状況を計測する。第2拠点状況取込部43は、第2拠点状況計測部41で計測した第2拠点11Bの状況を取り込む。第2拠点状況推定部45は、第2拠点状況取込部43で取り込まれた第2拠点11Bの状況から第2拠点11Bの状況の情報を示す第2拠点状況情報を推定する。第2拠点通信制御部47は、中継ユニット30に第2拠点状況情報を送信する。このように、第2拠点状況計測推定ユニット40は、第2拠点11Bの状況を表す第2拠点状況情報を推定し、第2拠点通信制御部47から中継ユニット30に第2拠点状況情報を送信する。
中継ユニット30は、第2拠点通信制御部47から通信ネットワークNを経由して送信された第2拠点状況情報を受信し、当該第2拠点状況情報を刺激量算出出力ユニット50に送信する。
刺激量算出出力ユニット50は、無線通信部51、無線通信部53、刺激量算出部55、刺激出力部57を備えている。
The relay unit 30 wirelessly relays communication information transmitted / received via the communication network N between the second site situation measurement estimation unit 40 and the stimulus amount calculation output unit 50.
The second site status measurement estimation unit 40 includes a second site status measurement unit 41, a second site status capture unit 43, a second site status estimation unit 45, and a second site communication control unit 47. The second site status measurement unit 41 measures the status of the second site 11B. The second site status capturing unit 43 captures the status of the second site 11B measured by the second site status measuring unit 41. The second site status estimating unit 45 estimates second site status information indicating the status information of the second site 11B from the status of the second site 11B captured by the second site status capturing unit 43. The second site communication control unit 47 transmits the second site status information to the relay unit 30. As described above, the second site status measurement estimation unit 40 estimates the second site status information representing the status of the second site 11B, and transmits the second site status information from the second site communication control unit 47 to the relay unit 30. To do.
The relay unit 30 receives the second site status information transmitted from the second site communication control unit 47 via the communication network N, and transmits the second site status information to the stimulus amount calculation output unit 50.
The stimulus amount calculation output unit 50 includes a wireless communication unit 51, a wireless communication unit 53, a stimulus amount calculation unit 55, and a stimulus output unit 57.

無線通信部51は、第1拠点状況計測推定ユニット20から第1拠点状況情報を受信し、刺激量算出部55に出力する。
無線通信部53は、第2拠点状況計測推定ユニット40から第2拠点状況情報を受信し、刺激量算出部55に出力する。
刺激量算出部55は、第1拠点11Aにいる第1参加者が知覚可能な感覚量の範囲を算出する感覚量範囲算出部55a、第2拠点状況情報、第1参加者の感覚量の範囲に基づいて、第2拠点11Bにいる第2参加者の言動に現れる会議への参加意思の程度を表す意思量を算出する意思量算出部55b、当該意思量に応じた刺激量を算出する刺激量算出部55cを備えている。
刺激量算出部55は、第2拠点11Bの第2参加者15が第1拠点11Aにいる参加者に向けて提示したい感覚量から刺激量を算出しているが、本発明はこれに限定されるものではない。すなわち、第2拠点状況情報、第1参加者の感覚量の範囲に基づいて、第2拠点11Bにいる第2参加者の言動に現れる会議への参加意思の程度を表す意思量を意思量算出部55bにより算出し、刺激出力部57により意思量に応じた刺激を第1参加者が知覚できるように出力してもよい。
刺激出力部57は、刺激量に応じた刺激を第1参加者が知覚できるように出力する。
なお、各ユニットに設けられた各無線通信部は、第1拠点11Aにおいてユニット間で無線通信を利用したデータ通信を行うためのものである。第1拠点状況計測推定ユニット20に設けられた無線通信部27は、刺激量算出出力ユニット50に設けられた無線通信部51に対向している。一方、中継ユニット30は、刺激量算出出力ユニット50に設けられた無線通信部53に対向している。
The wireless communication unit 51 receives the first site status information from the first site status measurement estimation unit 20 and outputs the first site status information to the stimulus amount calculation unit 55.
The wireless communication unit 53 receives the second site status information from the second site status measurement estimation unit 40 and outputs the second site status information to the stimulus amount calculation unit 55.
The stimulus amount calculation unit 55 calculates a sensory amount range that can be perceived by the first participant at the first base 11A, second base state information, and the first participant's sensory amount range. The intention amount calculating unit 55b that calculates the amount of intention representing the degree of intention to participate in the conference that appears in the behavior of the second participant in the second base 11B, the stimulus that calculates the amount of stimulation according to the amount of intention An amount calculation unit 55c is provided.
The stimulus amount calculation unit 55 calculates the stimulus amount from the sense amount that the second participant 15 of the second base 11B wants to present to the participant at the first base 11A, but the present invention is not limited to this. It is not something. That is, based on the second site status information and the range of the amount of sensation of the first participant, the amount of intention representing the degree of intention to participate in the conference that appears in the behavior of the second participant at the second site 11B is calculated. It may be calculated by the unit 55b and output by the stimulus output unit 57 so that the first participant can perceive the stimulus according to the intention amount.
The stimulus output unit 57 outputs a stimulus corresponding to the stimulus amount so that the first participant can perceive it.
Each wireless communication unit provided in each unit is for performing data communication using wireless communication between units at the first base 11A. The wireless communication unit 27 provided in the first site situation measurement estimation unit 20 faces the wireless communication unit 51 provided in the stimulus amount calculation output unit 50. On the other hand, the relay unit 30 faces the wireless communication unit 53 provided in the stimulus amount calculation output unit 50.

詳しくは、第1拠点状況計測推定ユニット20は、図1に示す第1拠点11Aに存在する第1参加者13と第3参加者14の状況を計測し推定する。また、第1拠点状況計測推定ユニット20は、図1に示す第1拠点11Aに存在する第1参加者13と第3参加者14とアバターロボット17(第2参加者15を表す)の状況を計測し推定する。
第1拠点状況計測推定ユニット20は、内部にROM、RAM及びCPUを有し、ROMからオペレーティングシステムOSを読み出してRAM上に展開してOSを起動し、OS管理下において、ROMからプログラムを読み出し、状況データ収集処理を実行する。
第2拠点状況計測推定ユニット40は、図1に示す第2拠点11Bに存在する第3参加者14の状況を計測し推定する。
第2拠点状況計測推定ユニット40は、内部にROM、RAM及びCPUを有し、ROMからオペレーティングシステムOSを読み出してRAM上に展開してOSを起動し、OS管理下において、ROMからプログラムを読み出し、状況データ収集処理を実行する。
刺激量算出出力ユニット50は、第1拠点状況計測推定ユニット20で推定された第1拠点11Aの状況と、第2拠点状況計測推定ユニット40で推定された第2拠点11Bの状況と、から図1に示す第2参加者15を表すアバターロボット17が、第2参加者15の存在をさりげなく提示するための刺激量を算出し出力する。
刺激量算出出力ユニット50は、内部にROM、RAM及びCPUを有し、ROMからオペレーティングシステムOSを読み出してRAM上に展開してOSを起動し、OS管理下において、ROMからプログラムを読み出し、刺激量算出処理を実行する。
Specifically, the first site situation measurement estimation unit 20 measures and estimates the statuses of the first participant 13 and the third participant 14 existing at the first site 11A shown in FIG. In addition, the first site status measurement estimation unit 20 indicates the status of the first participant 13, the third participant 14, and the avatar robot 17 (representing the second participant 15) existing in the first site 11A shown in FIG. Measure and estimate.
The first site situation measurement estimation unit 20 has a ROM, a RAM, and a CPU inside, reads the operating system OS from the ROM, expands it on the RAM, starts the OS, and reads the program from the ROM under OS management. The status data collection process is executed.
The second site status measurement estimation unit 40 measures and estimates the status of the third participant 14 existing at the second site 11B shown in FIG.
The second site status measurement estimation unit 40 has a ROM, a RAM, and a CPU inside, reads the operating system OS from the ROM, expands it on the RAM, starts the OS, and reads the program from the ROM under OS management. The status data collection process is executed.
The stimulus amount calculation output unit 50 is based on the situation of the first base 11A estimated by the first base situation measurement estimation unit 20 and the situation of the second base 11B estimated by the second base situation measurement estimation unit 40. The avatar robot 17 representing the second participant 15 shown in FIG. 1 calculates and outputs a stimulus amount for casually presenting the presence of the second participant 15.
The stimulus amount calculation output unit 50 has a ROM, a RAM, and a CPU inside, reads the operating system OS from the ROM, expands the RAM on the RAM, starts the OS, reads the program from the ROM under the OS management, and stimulates The amount calculation process is executed.

第1拠点状況計測部21と第2拠点状況計測部41は、例えばマイクとカメラを用いて音声信号と映像信号を計測する。又は、マイクと加速度センサを用いて音声信号と加速度の信号を計測する。第1拠点状況計測部21と第2拠点状況計測部41は、同じ種類の信号を用いてもよいし、異なる種類の信号を用いてもよい。具体的には、第1拠点状況計測部21と第2拠点状況計測部41は、共にマイクとカメラを用いて音声信号と映像信号を計測してもよい。また、第1拠点状況計測部21と第2拠点状況計測部41は、共にマイクと加速度センサを用いて音声信号と加速度の信号を計測してもよい。また、第1拠点状況計測部21はマイクとカメラを用いて音声信号と映像信号を計測してもよく、第2拠点状況計測部41はマイクと加速度センサを用いて音声信号と加速度の信号を計測してもよい。また、第1拠点状況計測部21はマイクと加速度センサを用いて音声信号と加速度の信号を計測してもよく、第2拠点状況計測部41はマイクとカメラを用いて音声信号と映像信号を計測してもよい。   The first site status measuring unit 21 and the second site status measuring unit 41 measure an audio signal and a video signal using, for example, a microphone and a camera. Alternatively, a voice signal and an acceleration signal are measured using a microphone and an acceleration sensor. The first site status measuring unit 21 and the second site status measuring unit 41 may use the same type of signal or different types of signals. Specifically, both the first site situation measuring unit 21 and the second site situation measuring unit 41 may measure an audio signal and a video signal using a microphone and a camera. Further, both the first site situation measuring unit 21 and the second site situation measuring unit 41 may measure a voice signal and an acceleration signal using a microphone and an acceleration sensor. Further, the first site situation measuring unit 21 may measure an audio signal and a video signal using a microphone and a camera, and the second site situation measuring unit 41 uses the microphone and an acceleration sensor to obtain an audio signal and an acceleration signal. You may measure. Further, the first site situation measuring unit 21 may measure an audio signal and an acceleration signal using a microphone and an acceleration sensor, and the second site situation measuring unit 41 uses the microphone and the camera to obtain an audio signal and a video signal. You may measure.

第1拠点状況取込部23は、第1拠点状況計測部21から得られたデータを取り込む。第2拠点状況取込部43は、第2拠点状況計測部41から得られたデータを取り込む。
第1拠点状況取込部23と第2拠点状況取込部43の夫々は、例えば、音声信号を参加者の発言内容や発音の有無を検出するためにノイズを除去する。また、参加者の発言内容や発音の有無を検出するために適切なサンプリング周期で信号を処理する。また、映像信号からノイズを除去し、図1に示す第1参加者13と第2参加者15と第3参加者14とアバターロボット17の姿勢や動きの信号のデータを取り込みやすくする前処理を行う。また、加速度の信号からノイズを除去し、第1参加者13、第2参加者15と第3参加者14とアバターロボット17の姿勢や動きの信号を抽出しやすくする前処理を行う。
The first site status capturing unit 23 captures data obtained from the first site status measuring unit 21. The second site status capturing unit 43 captures data obtained from the second site status measuring unit 41.
Each of the first site status capturing unit 23 and the second site status capturing unit 43 removes noise in order to detect, for example, the speech content of the participant and the presence or absence of pronunciation of the audio signal. In addition, the signal is processed at an appropriate sampling period in order to detect the content of the participant's speech and the presence or absence of pronunciation. Also, pre-processing is performed to remove noise from the video signal and to easily capture data of posture and movement signals of the first participant 13, the second participant 15, the third participant 14, and the avatar robot 17 shown in FIG. Do. In addition, noise is removed from the acceleration signal, and preprocessing is performed to make it easier to extract the posture and movement signals of the first participant 13, the second participant 15, the third participant 14, and the avatar robot 17.

第1拠点状況推定部25は、第1拠点状況取込部23から得られた信号に基づいて第1拠点11Aの状況を推定する。第2拠点状況推定部45は、第2拠点状況取込部43から得られた信号に基づいて第2拠点11Bの状況を推定する。
例えば、音声信号から図1に示す第1参加者13と第2参加者15と第3参加者14の発言の内容や、発言している時間や、発言していない時間や、発言の音量から、第1拠点11Aのテレビ会議の白熱の度合いや、第1拠点11Aのテレビ会議の参加の状況や、第2拠点11Bのテレビ会議の参加状況や、第2参加者15の状況を推定する。
具体的には、第1拠点状況推定部25は、例えば、映像信号から、図1に示す第1参加者13と第2参加者15と第3参加者14のテレビ会議中の体の動きや、予め定められた特徴的な動作、具体的には、うなずく、みつめる、頬杖をつくなどの動作や、発言者を特定し、その発言者の視線の先を特定し、発言相手を特定することなどからテレビ会議の状況を推定する。
例えば、映像信号から、図1に示す第1参加者13と第3参加者14と、第2参加者15を表すアバターロボット17(ロボット部)との相対距離から第1拠点11Aの状況を推定する。例えば、加速度の信号から、第1参加者13と第2参加者15と第3参加者14のテレビ会議中の体の動きや、予め定められた特徴的な動作、具体的には、うなずく、みつめる、頬杖をつくなどの動作からテレビ会議の状況を推定する。動作や音声の有無や回数のみならず、その動作の大きさについても考慮し、状況の推定に反映させる。
具体的には、第1拠点状況推定部25では、第1拠点11Aの第1参加者13と第3参加者14が、第2参加者15を表すアバターロボット17や、遠隔テレビ会議を行う時、多くの場合利用される第2参加者15の姿を投影させた映像など、に視線を向けることなく、第1拠点11Aの第1参加者13と第3参加者14のみで会話を続けたりし、第2参加者15に向けた発言を行わないという状況を、音声信号や映像信号や、加速度の信号を用いて音と体の動きや視線から推定する。
The first site status estimating unit 25 estimates the status of the first site 11A based on the signal obtained from the first site status capturing unit 23. The second site status estimating unit 45 estimates the status of the second site 11B based on the signal obtained from the second site status capturing unit 43.
For example, from the voice signal, the content of the speech of the first participant 13, the second participant 15 and the third participant 14 shown in FIG. 1, the time of speech, the time of speech, and the volume of speech The degree of incandescence of the video conference at the first site 11A, the status of participation in the video conference at the first site 11A, the status of participation in the video conference at the second site 11B, and the status of the second participant 15 are estimated.
Specifically, the first site situation estimation unit 25, for example, from the video signal, the body movement during the video conference of the first participant 13, the second participant 15, and the third participant 14 shown in FIG. Predetermined characteristic actions, specifically nodding, staring, cheek sticking, etc., identifying the speaker, identifying the point of the speaker's line of sight, and identifying the other party The situation of the video conference is estimated from the above.
For example, the situation of the first base 11A is estimated from the relative distance between the first participant 13 and the third participant 14 shown in FIG. 1 and the avatar robot 17 (robot unit) representing the second participant 15 from the video signal. To do. For example, from the acceleration signal, the body movement of the first participant 13, the second participant 15 and the third participant 14 during the video conference, a predetermined characteristic action, specifically, nodding, Estimate the status of video conferencing from actions such as staring and cheek sticks. Considering not only the presence / absence and number of times of motion and voice, but also the size of motion, it is reflected in the estimation of the situation.
Specifically, in the first site situation estimation unit 25, when the first participant 13 and the third participant 14 of the first site 11A perform an avatar robot 17 representing the second participant 15 or a remote video conference. The conversation can be continued only with the first participant 13 and the third participant 14 at the first base 11A without directing the line of sight to the projected image of the second participant 15 used in many cases. Then, the situation in which the speech toward the second participant 15 is not performed is estimated from the sound, the movement of the body, and the line of sight using the audio signal, the video signal, and the acceleration signal.

例えば、第1拠点状況推定部25では、第1拠点11Aの第1参加者13と第3参加者14のみで会話を続けている時間の長さや、会話の音量、動作の大きさ、から、第2拠点11Bの第2参加者15の存在を忘れてテレビ会議に白熱している度合いを推定する。また、第1拠点状況推定部25では、第1拠点11Aの第1参加者13と第3参加者14と、第2参加者15を表すアバターロボット17との距離から、後述する刺激量算出出力ユニット50から出力する刺激量を調整する。例えば、第1拠点11Aの第1参加者13と第3参加者14と、第2参加者15を表すアバターロボット17との距離が離れている場合には、第2参加者15を表すアバターロボットが出力する刺激量を、第1拠点11Aの第1参加者13と第3参加者14が感じにくい状況と推定する。上記感じにくいと推定された場合には、第2参加者15を表すアバターロボット17が大きな刺激を出力する。
例えば、第1拠点状況推定部25では、第1拠点11Aの第1参加者13と第3参加者14と、第2参加者15を表すアバターロボット17との距離が近い場合には、第1拠点11Aの第1参加者13と第3参加者14が感じやすい状況と推定する。その結果、第2参加者15を表すアバターロボット17は小さな刺激を出力することとなる。上記感じやすいと推定された場合には、これは、同じ刺激を出力した場合に、第1拠点11Aの第1参加者13と第3参加者14と、第2参加者15を表すアバターロボット17との距離に応じて、第1拠点11Aの第1参加者13と第3参加者14が感じる感覚の量が異なることに対応するためである。
For example, in the first site situation estimation unit 25, from the length of time during which the conversation continues only with the first participant 13 and the third participant 14 of the first site 11A, the volume of the conversation, and the size of the operation, Forgetting the presence of the second participant 15 at the second base 11B, the degree of incandescence in the video conference is estimated. Further, the first site status estimation unit 25 calculates a stimulus amount calculation output described later from the distances between the first participant 13 and the third participant 14 at the first site 11A and the avatar robot 17 representing the second participant 15. The amount of stimulation output from the unit 50 is adjusted. For example, when the distance between the first participant 13 and the third participant 14 at the first base 11 </ b> A and the avatar robot 17 representing the second participant 15 is long, the avatar robot representing the second participant 15. Is estimated to be a situation in which the first participant 13 and the third participant 14 at the first base 11A are difficult to feel. When it is estimated that it is difficult to feel, the avatar robot 17 representing the second participant 15 outputs a large stimulus.
For example, in the 1st base situation estimation part 25, when the distance of the 1st participant 13 of the 1st base 11A, the 3rd participant 14, and the avatar robot 17 showing the 2nd participant 15 is near, it is 1st. It is estimated that the first participant 13 and the third participant 14 at the base 11A can easily feel. As a result, the avatar robot 17 representing the second participant 15 outputs a small stimulus. When it is estimated that it is easy to feel, this means that when the same stimulus is output, the avatar robot 17 representing the first participant 13, the third participant 14, and the second participant 15 at the first base 11 </ b> A. This is because the amount of sensation felt by the first participant 13 and the third participant 14 at the first base 11 </ b> A varies depending on the distance to the first base 11 </ b> A.

第2拠点状況推定部45では、第2拠点11Bの第2参加者15が、予め定められた時間以上発言しておらず、頬杖をついたり、うなずいたり、ため息をついたりなどの特徴的な動作(挙動、言動)を行い、第1拠点11Aの第1参加者13と第3参加者14に自分の存在に気づいて欲しいと思っている状況を、音声信号や映像信号や加速度の信号を用いて音と体の動きや視線から推定する。動作や音声の有無や回数のみならず、その動作の大きさについても考慮し、拠点状況情報の推定に反映させる。第2拠点11Bの第2参加者15が発言していない時間の長さや、動作の大きさ、から、第2拠点11Bの第2参加者15が自分の存在に気づいて欲しいと思っている度合いを推定する。   In the second site status estimation unit 45, the second participant 15 of the second site 11B has not spoken for a predetermined time, and has a characteristic such as wearing a cheek stick, nodding or sighing. An action (behavior, behavior) is performed, and a situation in which the first participant 13 and the third participant 14 of the first base 11A want to be aware of their existence is expressed by an audio signal, a video signal, or an acceleration signal. Used to estimate from sound and body movements and line of sight. Considering not only the presence / absence and frequency of actions and voices but also the magnitude of the actions, it is reflected in the estimation of the base situation information. The degree to which the second participant 15 at the second base 11B wants to be aware of his / her presence from the length of time that the second participant 15 at the second base 11B is not speaking and the size of the movement. Is estimated.

刺激量算出部55は、第1拠点状況取込部23で推定された拠点状況情報と第2拠点状況取込部43で推定されたと拠点状況情報から刺激量を算出する。具体的には、第2拠点11Bの第2参加者15が第1拠点11Aの第1参加者13と第3参加者14に自分の存在に気づいて欲しいと思っている拠点状況情報であると推定された時、かつ、第1拠点11Aの第1参加者13と第3参加者14が議論に白熱し第2拠点11Bの第2参加者15の存在を忘れている拠点状況情報であると推定された時、第1拠点11Aの第1参加者13と第3参加者14に、第2拠点11Bの第2参加者15の存在をさりげなく提示するために、刺激量を算出する。
例えば、刺激量算出部55は、第1拠点状況取込部23で推定された拠点状況情報と第2拠点状況取込部43で推定されたと拠点状況情報に基づいて刺激量を算出する。刺激量算出部55は、出力する刺激量を、第1拠点11Aの第1参加者13と第3参加者14が議論に白熱し第2拠点11Bの第2参加者15の存在を忘れている度合いと、第2拠点11Bの第2参加者15が第1拠点11Aの第1参加者13と第3参加者14に自分の存在に気づいて欲しいと思っている度合いによって調節する。例えば、第2拠点11Bの第2参加者15が自分の存在に気づいて欲しいと思っている度合いが大きい場合には、予め定められた刺激の範囲の中から大きい刺激量を算出する。第2拠点11Bの第2参加者15が自分の存在に気づいて欲しいと思っている度合いが小さい場合には、予め定められた刺激の範囲の中から小さい刺激量を算出する。第1拠点11Aの第1参加者13と第3参加者14が議論に白熱し第2拠点11Bの第2参加者15の存在を忘れている度合いが大きい場合には、予め定められた刺激の範囲の中から大きい刺激量を算出する。第1拠点11Aの第1参加者13と第3参加者14が議論に白熱し第2拠点11Bの第2参加者15の存在を忘れている度合いが小さい場合には、予め定められた刺激の範囲の中から小さい刺激量を算出する。
例えば、第1拠点11Aの第1参加者13と第3参加者14と、第2参加者15を表すアバターロボット17との距離が離れている場合には第2参加者15を表すアバターロボット17が大きな刺激量を算出し、距離が近い場合には第2参加者15を表すアバターロボット17が小さな刺激量を算出する。
The stimulus amount calculating unit 55 calculates the stimulus amount from the base state information estimated by the first base state capturing unit 23 and the base state information estimated by the second base state capturing unit 43. Specifically, the second participant 15 at the second base 11B is the base situation information that the first participant 13 and the third participant 14 at the first base 11A want to be aware of their existence. When it is estimated, it is the base situation information that the first participant 13 and the third participant 14 of the first base 11A are heated in the discussion and have forgotten the presence of the second participant 15 of the second base 11B. When estimated, in order to casually present the presence of the second participant 15 at the second base 11B to the first participant 13 and the third participant 14 at the first base 11A, the stimulation amount is calculated.
For example, the stimulus amount calculation unit 55 calculates the stimulus amount based on the base state information estimated by the first base state capture unit 23 and the base state information estimated by the second base state capture unit 43. The stimulus amount calculation unit 55 inclines the output stimulus amount by the first participant 13 and the third participant 14 at the first base 11A and forgets the presence of the second participant 15 at the second base 11B. The degree and the degree that the second participant 15 of the second base 11B wants the first participant 13 and the third participant 14 of the first base 11A to be aware of their presence are adjusted. For example, when the second participant 15 at the second base 11B wants to be aware of his / her presence, the stimulation amount is calculated from a predetermined stimulation range. When the second participant 15 at the second base 11B wants to be aware of his / her presence is small, a small stimulus amount is calculated from a predetermined stimulus range. When the first participant 13 and the third participant 14 at the first base 11A are incandescent in the discussion and forget about the presence of the second participant 15 at the second base 11B, Calculate a large amount of stimulation from the range. If the first participant 13 and the third participant 14 at the first base 11A are incandescent in the discussion and the degree of forgetting the presence of the second participant 15 at the second base 11B is small, Calculate a small amount of stimulus from the range.
For example, when the distance between the first participant 13 and the third participant 14 at the first base 11 </ b> A and the avatar robot 17 representing the second participant 15 is long, the avatar robot 17 representing the second participant 15. Calculates a large stimulus amount, and when the distance is short, the avatar robot 17 representing the second participant 15 calculates a small stimulus amount.

刺激量算出部55は、上記算出された刺激量から、刺激出力部57に応じた信号への変換を行う部である。後に説明するが、例えば刺激出力部57がモータなどの振動を利用する場合、上記算出された刺激量に応じて振幅と周波数を算出する。例えば刺激出力部57が発光ダイオードLEDなどの光を発する場合、上記算出された刺激量に応じて出力する光量や電流、電圧の値を算出する。刺激出力部57がLEDなどの色を出力する場合、算出された刺激量に応じて出力する色の濃淡、例えば濃い赤や薄い赤、や、色の変化、例えば青や赤、を出力する。刺激出力部57は、第1参加者が目視することにより感知可能な光波信号を発生する。
刺激出力部57がスピーカなどの音を出力する場合、上記算出された刺激量に応じて出力する音量を算出する。刺激出力部57がスピーカなどの音を出力する場合、上記算出された刺激量に応じて出力する言語又は音声の内容やその音量を算出する。具体的には、「あーあ」「んー」等の言語又は音声を選んだり、その音声の音量を算出したりする。刺激出力部57は、第1参加者が聴取することにより感知可能な音波信号を発生する。
刺激出力部57は、第1拠点状況取込部23で推定された拠点状況情報と第2拠点状況取込部43で推定された拠点状況情報に基づいて刺激量算出部55で算出された刺激量を出力する。例えば、図1に示す第2参加者15を表すアバターロボット17に、モータやLEDやスピーカなどのデバイスが具備されており、上記デバイスが、第1拠点状況取込部23で推定された拠点状況情報と第2拠点状況取込部43で推定されたと拠点状況情報に基づいて刺激量算出部55で算出された刺激量を出力する。
The stimulus amount calculation unit 55 is a unit that converts the calculated stimulus amount into a signal corresponding to the stimulus output unit 57. As will be described later, for example, when the stimulus output unit 57 uses vibration of a motor or the like, the amplitude and the frequency are calculated according to the calculated stimulus amount. For example, when the stimulus output unit 57 emits light such as a light emitting diode LED, the light amount, current, and voltage values to be output are calculated according to the calculated stimulus amount. When the stimulus output unit 57 outputs a color such as an LED, it outputs a shade of color to be output according to the calculated stimulus amount, such as dark red or light red, or a color change such as blue or red. The stimulus output unit 57 generates a light wave signal that can be sensed by visual observation by the first participant.
When the stimulus output unit 57 outputs sound from a speaker or the like, the sound output volume is calculated according to the calculated stimulus amount. When the stimulus output unit 57 outputs a sound from a speaker or the like, the language or voice content to be output or the volume thereof is calculated according to the calculated stimulus amount. Specifically, a language or voice such as “Ah” or “Nh” is selected, and the volume of the voice is calculated. The stimulus output unit 57 generates a sound wave signal that can be sensed by listening to the first participant.
The stimulus output unit 57 calculates the stimulus calculated by the stimulus amount calculation unit 55 based on the site status information estimated by the first site status capturing unit 23 and the site status information estimated by the second site status capturing unit 43. Output quantity. For example, the avatar robot 17 representing the second participant 15 shown in FIG. 1 is equipped with devices such as motors, LEDs, and speakers, and the above-mentioned devices are estimated by the first site status capturing unit 23. The stimulus amount calculated by the stimulus amount calculation unit 55 based on the information and the site state information estimated by the second site state capturing unit 43 is output.

図3は本発明の第1実施形態に係るコミュニケーション補助システムの動作を表すフローチャートである。
まずステップS100では状況入力処理を行う。図2に示す第1拠点状況計測部21と、第1拠点状況取込部23と、第2拠点状況計測部41と、第2拠点状況取込部43とを用いて、図1に示す第1拠点11Aと第2拠点11Bの状況を計測して取り込む。ここで、状況入力処理に用いる入力は、図2に示す第1拠点状況計測部21と第2拠点状況計測部41と、から得られる計測データである。
ステップS100では、上記得られた計測データを、ステップS200で用いるデータへ変換する。
具体的には、例えば、ステップS100は、第2拠点11Bの第2参加者15が第1拠点11Aの第1参加者13と第3参加者14に自分の存在に気づいて欲しいと思っている状況かどうか、ならびに第1拠点11Aの第1参加者13と第3参加者14が議論に白熱し第2拠点11Bの第2参加者15の存在を忘れている状況であるかどうかを計測し取り込むステップである。例えばマイクとカメラを用いて音声信号と映像信号を入力する。又は、マイクと加速度センサを用いて音声信号と加速度の信号を入力する。ここで、音声信号を参加者の発言内容や発音の有無を検出するためにノイズを除去したり、参加者の発言内容や発音の有無を検出するために適切なサンプリング周期で信号を処理したり、映像信号からノイズを除去し、図1に示す第1参加者13と第2参加者15と第3参加者14とアバターロボット17の姿勢や動きの信号を抽出したりする。
ステップS100の出力は、上記状況入力処理を行うステップS100で処理されたデータである。
FIG. 3 is a flowchart showing the operation of the communication assist system according to the first embodiment of the present invention.
First, in step S100, status input processing is performed. The first site status measurement unit 21, the first site status acquisition unit 23, the second site status measurement unit 41, and the second site status acquisition unit 43 shown in FIG. Measure and capture the status of the first base 11A and the second base 11B. Here, the input used for the situation input process is measurement data obtained from the first site situation measurement unit 21 and the second site situation measurement unit 41 shown in FIG.
In step S100, the obtained measurement data is converted into data used in step S200.
Specifically, for example, in step S100, the second participant 15 at the second base 11B wants the first participant 13 and the third participant 14 at the first base 11A to be aware of their presence. It is measured whether it is a situation and whether the first participant 13 and the third participant 14 at the first base 11A are in a heated discussion and have forgotten the presence of the second participant 15 at the second base 11B. This is the step to capture. For example, an audio signal and a video signal are input using a microphone and a camera. Alternatively, an audio signal and an acceleration signal are input using a microphone and an acceleration sensor. Here, noise is removed from the audio signal in order to detect the content of the participant's speech and the presence of pronunciation, or the signal is processed at an appropriate sampling period to detect the content of the participant's speech and the presence of pronunciation. Then, noise is removed from the video signal, and signals of posture and movement of the first participant 13, the second participant 15, the third participant 14, and the avatar robot 17 shown in FIG. 1 are extracted.
The output of step S100 is the data processed in step S100 for performing the situation input process.

状況算出処理を行うステップS200では、図2に示す第1拠点状況推定部25と、第2拠点状況推定部45を用いて、図1に示す第1拠点11Aと第2拠点11Bの拠点状況情報を推定し算出する。
ステップS200の入力は、ステップS100の出力である。
ステップS200の処理は、図2に示す第1拠点状況推定部25と、第2拠点状況推定部45を用いて、図1に示す第1拠点11Aと第2拠点11Bの拠点状況情報を推定し算出する。
ステップS200の出力は、上記推定された図1に示す第1拠点11Aと第2拠点11Bの拠点状況情報である。
具体的には、例えば、ステップS200では、第2拠点11Bの第2参加者15が第1拠点11Aの第1参加者13と第3参加者14に自分の存在に気づいて欲しいと思っている度合いを算出する、ならびに第1拠点11Aの第1参加者13と第3参加者14が議論に白熱し、第2拠点11Bの第2参加者15の存在を忘れている度合いを算出する。
ステップS200の入力は、例えばマイクやカメラや加速度センサを用いて得られた音声信号や映像信号や加速度の信号からノイズを除去し、参加者の発言内容や発音の有無を検出するために適切なサンプリング周期で信号を処理された信号である。
In step S200 for performing the situation calculation process, the site status information of the first site 11A and the second site 11B shown in FIG. 1 is used by using the first site status estimation unit 25 and the second site status estimation unit 45 shown in FIG. Is estimated and calculated.
The input of step S200 is the output of step S100.
The process of step S200 estimates the site status information of the first site 11A and the second site 11B shown in FIG. 1 using the first site status estimation unit 25 and the second site status estimation unit 45 shown in FIG. calculate.
The output of step S200 is the estimated site status information of the first site 11A and the second site 11B shown in FIG.
Specifically, for example, in step S200, the second participant 15 at the second base 11B wants the first participant 13 and the third participant 14 at the first base 11A to be aware of their presence. The degree is calculated, and the degree to which the first participant 13 and the third participant 14 at the first base 11A are incite of discussion and forgetting the presence of the second participant 15 at the second base 11B is calculated.
The input in step S200 is appropriate for removing noise from audio signals, video signals, and acceleration signals obtained using, for example, a microphone, a camera, and an acceleration sensor, and detecting the participant's speech content and the presence or absence of pronunciation. It is a signal obtained by processing a signal at a sampling period.

ステップS200では、例えば音声信号から図1に示す第1参加者13と第2参加者15と第3参加者14の発言の内容や、発言している時間、発言していない時間や、発言の音量から、図1に示す第1拠点11Aのテレビ会議の白熱の度合いや、図1に示す第1拠点11Aのテレビ会議の参加の拠点状況情報を推定する。例えば、映像信号から、図1に示す第1参加者13と第2参加者15と第3参加者14のテレビ会議中の体の動きや、予め定められた特徴的な動作、具体的にはうなずく、みつめる、頬杖をつくなどの動作や、視線の先を特定し誰に向かって会話しているのか等の情報からテレビ会議の拠点状況情報を推定する。例えば、動作や音声の有無や回数のみならず、その動作の大きさについても考慮し、拠点状況情報を推定する。
ステップS200の出力は、上記推定された図1に示す第1拠点11Aのテレビ会議の拠点状況情報や、図1に示す第1拠点11Aのテレビ会議の拠点状況情報である。例えば、図1に示す第1拠点11Aのテレビ会議の白熱度合いや、第2拠点11Bにいる第2参加者15が自分の存在に気づいて欲しいと思っている度合いである。例えば、図1に示す第1拠点11Aの第1参加者13と第3参加者14が第2拠点11Bの第2参加者15の存在を忘れていると推定された拠点状況情報かどうかや、第2拠点11Bの参加者が自分の存在に気づいて欲しいと思っていると推定された状態かどうかである。例えば図1に示す第2参加者15を表すアバターロボット17と第1拠点11Aの第1参加者13と第3参加者14の距離により、第2参加者15に気づきやすい拠点状況情報かどうかを表す値である。
In step S200, for example, the speech contents of the first participant 13, the second participant 15 and the third participant 14 shown in FIG. 1 from the audio signal, the time of speech, the time of speech, From the volume, the degree of incandescence of the video conference at the first site 11A shown in FIG. 1 and the site status information of participation in the video conference at the first site 11A shown in FIG. 1 are estimated. For example, from the video signal, the body movement during the video conference of the first participant 13, the second participant 15, and the third participant 14 shown in FIG. Estimate the video conference site status information from information such as nodding, staring, and cheek sticking, and identifying the point of gaze and who is talking to. For example, the base situation information is estimated in consideration of not only the presence / absence and number of times of the motion and voice, but also the size of the motion.
The output of step S200 is the estimated location status information of the video conference of the first location 11A shown in FIG. 1 and the location status information of the video conference of the first location 11A shown in FIG. For example, the degree of incandescence of the video conference at the first base 11A shown in FIG. 1 or the degree that the second participant 15 at the second base 11B wants to be aware of their presence. For example, whether the first participant 13 and the third participant 14 of the first base 11A shown in FIG. 1 are the base situation information estimated to have forgotten the presence of the second participant 15 of the second base 11B, Whether or not it is estimated that the participant at the second base 11B wants to be aware of his / her presence. For example, based on the distance between the avatar robot 17 representing the second participant 15 shown in FIG. 1 and the first participant 13 and the third participant 14 in the first site 11A, it is determined whether the site status information is easily noticed by the second participant 15. The value to represent.

刺激量算出処理を行うステップS300は、図2に示す第1拠点状況推定部25で推定された拠点状況情報と第2拠点状況推定部45で推定されたと拠点状況情報に基づいて、刺激量算出部57を用いて、刺激量を算出する。
ステップS300の入力は、上記ステップS200の出力である。ステップS300は、図2に示す第1拠点状況推定部25で推定された拠点状況情報と第2拠点状況推定部45で推定されたと拠点状況情報に基づいて、刺激量算出部57を用いて、刺激量を算出する。ステップS300の出力は、上記処理にて算出された刺激量を表す値である。
具体的には、例えば、ステップS300では、図1に示す第1拠点11Aのテレビ会議の拠点状況情報と図1に示す第2拠点11Bのテレビ会議の拠点状況情報に応じて刺激量を算出する。
ステップS300の入力は、例えば、図1に示す第1拠点11Aの第1参加者13と第3参加者14が第2拠点11Bの第2参加者15の存在を忘れていると推定された拠点状況情報かどうかや、第2拠点11Bの参加者が自分の存在に気づいて欲しいと思っていると推定された状態かどうかである。例えば図1に示す第2参加者15を表すアバターロボット17と第1拠点11Aの第1参加者13と第3参加者14の距離により、第2参加者15に気づきやすい拠点状況情報かどうかを表す値である。例えば、図1に示す第1拠点11Aのテレビ会議の拠点状況情報や、図1の第1拠点11Aのテレビ会議の拠点状況情報である。例えば、図1に示す第1拠点11Aのテレビ会議の白熱度合いや、第2拠点11Bにいる第2参加者15が自分の存在に気づいて欲しいと思っている度合いである。
ステップS300では、第2拠点状況情報、第1参加者13の感覚量の範囲に基づいて、第2拠点11Bにいる第2参加者15の言動に現れる会議への参加意思の程度を表す意思量を算出する。
ステップS300では、例えば、図1に示す第1拠点11Aのテレビ会議の白熱度合いや、第2拠点11Bにいる第2参加者15が自分の存在に気づいて欲しいと思っている度合いに応じて図1に示す第1拠点11Aにいる第1参加者13と第3参加者14に提示する刺激量を算出する。
ステップS300の出力は、例えば、図1に示す第1拠点11Aのテレビ会議の白熱度合いや、第2拠点11Bにいる第2参加者15が自分の存在に気づいて欲しいと思っている度合いに応じて図1に示す第1拠点11Aにいる第1参加者13と第3参加者14に提示する刺激量である。
In step S300 for performing the stimulus amount calculation process, the stimulus amount is calculated based on the site status information estimated by the first site status estimation unit 25 and the site status information estimated by the second site status estimation unit 45 shown in FIG. The stimulation amount is calculated using the unit 57.
The input of step S300 is the output of step S200. Step S300 uses the stimulus amount calculation unit 57 based on the site status information estimated by the first site status estimation unit 25 and the site status information estimated by the second site status estimation unit 45 shown in FIG. Calculate the amount of stimulation. The output of step S300 is a value representing the stimulus amount calculated in the above process.
Specifically, for example, in step S300, the amount of stimulation is calculated according to the video conference site status information of the first site 11A shown in FIG. 1 and the video conference site status information of the second site 11B shown in FIG. .
The input of step S300 is, for example, the base estimated that the first participant 13 and the third participant 14 of the first base 11A shown in FIG. 1 have forgotten the presence of the second participant 15 of the second base 11B. Whether it is situation information or whether it is estimated that the participant of the second base 11B wants to be aware of his / her existence. For example, based on the distance between the avatar robot 17 representing the second participant 15 shown in FIG. 1 and the first participant 13 and the third participant 14 in the first site 11A, it is determined whether the site status information is easily noticed by the second participant 15. The value to represent. For example, it is the site status information of the video conference of the first site 11A shown in FIG. 1 and the site status information of the video conference of the first site 11A of FIG. For example, the degree of incandescence of the video conference at the first base 11A shown in FIG. 1 or the degree that the second participant 15 at the second base 11B wants to be aware of their presence.
In step S300, based on the second site status information and the range of the amount of sensation of the first participant 13, a will amount representing the degree of intention to participate in the conference that appears in the behavior of the second participant 15 at the second site 11B. Is calculated.
In step S300, for example, the diagram shows the degree of incandescence of the video conference at the first base 11A shown in FIG. 1 or the degree that the second participant 15 at the second base 11B wants to be aware of their presence. The stimulation amount to be presented to the first participant 13 and the third participant 14 in the first base 11A shown in FIG.
The output of step S300 depends on, for example, the incandescence of the video conference at the first base 11A shown in FIG. 1 or the degree that the second participant 15 at the second base 11B wants to be aware of his / her presence. The amount of stimulation presented to the first participant 13 and the third participant 14 at the first base 11A shown in FIG.

刺激出力処理を行うステップS400では、図2に示す刺激量算出部55で算出された刺激量を用いて刺激を出力する。
ステップS400の入力は、ステップS300の出力である。ステップS400は、ステップS300にて出力された値を算出された刺激出力部57の入力値に変換する。
ステップS400の出力は、図2に示す刺激出力部57で算出された刺激量を用いて実際に刺激を出力するものである。
具体的には、例えば、ステップS400では、上記ステップS300の出力である刺激を実際に刺激の出力として使用する機器の信号へと変換し、実際に刺激を出力する。
ステップS400の入力は、例えば、図1に示す第1拠点11Aのテレビ会議の白熱度合いや、第2拠点11Bにいる第2参加者15が自分の存在に気づいて欲しいと思っている度合いに応じて図1に示す第1拠点11Aにいる第1参加者13と第3参加者14に提示する刺激量である。
In step S400 for performing the stimulus output process, a stimulus is output using the stimulus amount calculated by the stimulus amount calculation unit 55 shown in FIG.
The input of step S400 is the output of step S300. In step S400, the value output in step S300 is converted into the calculated input value of the stimulus output unit 57.
The output of step S400 is to actually output a stimulus using the stimulus amount calculated by the stimulus output unit 57 shown in FIG.
Specifically, for example, in step S400, the stimulus that is the output of step S300 is converted into a signal of a device that is actually used as the stimulus output, and the stimulus is actually output.
The input in step S400 depends on, for example, the incandescence of the video conference at the first base 11A shown in FIG. 1 or the degree that the second participant 15 at the second base 11B wants to be aware of his / her presence. The amount of stimulation presented to the first participant 13 and the third participant 14 at the first base 11A shown in FIG.

ステップS400では、例えば、図2に示す刺激出力部57で算出された刺激量を振動モータに出力する場合、上記入力された刺激量を振幅と周波数に変換する。振幅は固定で周波数に上記入力された刺激量を変換してもよいし、周波数は固定で振幅に上記入力された刺激量を変換してもよい。
ステップS400の出力は、例えば、図2に示す刺激出力部57で算出された刺激量を振動モータに出力する場合、上記処理にて変換された振幅と周波数にて振動モータを振動させることである。
なお、本実施形態によれば、第2拠点11Bの第2参加者15が第1拠点11Aにいる参加者に向けて提示したい感覚量から刺激量を算出しているが、本発明はこれに限定されるものではない。すなわち、第2拠点状況情報、第1参加者の感覚量の範囲に基づいて、第2拠点11Bにいる第2参加者の言動に現れる会議への参加意思の程度を表す意思量を意思量算出部55bにより算出し、刺激出力部57により意思量に応じた刺激を第1参加者が知覚できるように出力してもよい。これにより、第2拠点状況情報、第1参加者の感覚量の範囲に基づいて、遠隔地の参加者の言動に現れる会議への参加意思の程度を表す意思量を提示する度合いの調整を行うことができる。
また、第1拠点状況情報、第2拠点状況情報、第1参加者の感覚量の範囲に基づいて、遠隔地の参加者の言動に現れる会議への参加意思の程度を表す意思量を提示する度合いの調整を行うことができる。
In step S400, for example, when the stimulus amount calculated by the stimulus output unit 57 shown in FIG. 2 is output to the vibration motor, the input stimulus amount is converted into an amplitude and a frequency. The amplitude may be fixed and the input stimulus amount may be converted into a frequency, or the frequency may be fixed and the input stimulus amount may be converted into an amplitude.
The output of step S400 is, for example, to vibrate the vibration motor with the amplitude and frequency converted in the above process when the stimulus amount calculated by the stimulus output unit 57 shown in FIG. 2 is output to the vibration motor. .
In addition, according to this embodiment, although the 2nd participant 15 of the 2nd base 11B calculates the stimulus amount from the sensory amount which he would like to show toward the participant in the 1st base 11A, this invention does this. It is not limited. That is, based on the second site status information and the range of the amount of sensation of the first participant, the amount of intention representing the degree of intention to participate in the conference that appears in the behavior of the second participant at the second site 11B is calculated. It may be calculated by the unit 55b and output by the stimulus output unit 57 so that the first participant can perceive the stimulus according to the intention amount. This adjusts the degree of presenting the amount of intention representing the degree of willingness to participate in the conference that appears in the speech of the remote participant based on the second site status information and the range of the sensory amount of the first participant. be able to.
In addition, based on the first site status information, the second site status information, and the range of the sense amount of the first participant, an intention amount representing the degree of intention to participate in the conference that appears in the speech and behavior of the remote participant is presented. The degree can be adjusted.

<第2実施形態>
図4は本発明の第2実施形態に係るコミュニケーション補助システムの動作を表すフローチャートであり、特に、図3に示すステップS200の具体的な例を示すフローチャートである。
ステップS210は第1拠点状況算出処理を行うためのサブルーチンであり、ステップS250は第2拠点状況算出処理を行うためのサブルーチンである。図3に示すステップS200は、第1拠点状況算出処理S210と、第2拠点状況算出処理S250からなるステップである。
ステップS210の入力は、図2に示す第1拠点状況取込部23により取り込まれた情報である。一方、ステップS210では、図2に示す第1拠点状況推定部25を用いて第1拠点11Aの拠点状況情報を算出する。ステップS210の出力は、上記処理で算出された第1拠点11Aの拠点状況情報である。
具体的には、例えば、ステップS210の入力は、図1に示す第1拠点11Aの第1参加者13と第3参加者14の状況を計測した情報である。例えば、ノイズの除去や適切なサンプリング周期へ信号変換されたような、前処理を加えた音声信号や映像信号や加速度の信号のデータである。例えば、図1に示す第1参加者13と第2参加者15と第3参加者14のテレビ会議中の体の動きや、予め定められた特徴的な動作、具体的にはうなずく、みつめる、頬杖をつくなどの動作や、視線の先を特定し誰に向かって会話しているのか等のデータである。
Second Embodiment
FIG. 4 is a flowchart showing the operation of the communication assistance system according to the second embodiment of the present invention, and in particular, is a flowchart showing a specific example of step S200 shown in FIG.
Step S210 is a subroutine for performing the first site status calculation process, and step S250 is a subroutine for performing the second site status calculation process. Step S200 shown in FIG. 3 is a step including a first site status calculation process S210 and a second site status calculation process S250.
The input in step S210 is information captured by the first site status capturing unit 23 illustrated in FIG. On the other hand, in step S210, the site status information of the first site 11A is calculated using the first site status estimation unit 25 shown in FIG. The output of step S210 is the site status information of the first site 11A calculated by the above processing.
Specifically, for example, the input in step S210 is information obtained by measuring the situation of the first participant 13 and the third participant 14 in the first base 11A shown in FIG. For example, it is data of an audio signal, a video signal, and an acceleration signal subjected to preprocessing such as noise removal and signal conversion into an appropriate sampling period. For example, the first participant 13, the second participant 15, and the third participant 14 shown in FIG. This is data such as the action of putting a cheek cane and the person who is talking to the person with the point of gaze specified.

ステップS210では、例えば、第1拠点11Aの第1参加者13と第3参加者14が、第2参加者15を表すアバターロボット17や、多くの場合遠隔テレビ会議に存在する第2参加者15の姿を投影する映像に視線を向けることなく、第1拠点11Aの第1参加者13と第3参加者14のみで会話を続けたりし、第2参加者15に向けた発言を行わないという拠点状況情報を、音声信号や映像信号や、加速度の信号を用いて音と体の動きや視線から推定し算出する。例えば、第1拠点11Aの第1参加者13と第3参加者14と、第2参加者15を表すアバターロボット17との距離を算出する。
ステップS210の出力は、第1拠点11Aの第1参加者13と第3参加者14が第2拠点11Bの第2参加者15の存在を忘れてテレビ会議に白熱している度合いを表す値である。
ステップS250の入力は、図2に示す第2拠点状況取込部43により取り込まれたデータである。
ステップS250では、図2に示す第2拠点状況推定部45を用いて図1に示す第2拠点11Bの拠点状況情報を推定し算出する。
In step S210, for example, the first participant 13 and the third participant 14 of the first base 11A are the avatar robot 17 representing the second participant 15, or the second participant 15 often present in a remote video conference. Continuing the conversation with only the first participant 13 and the third participant 14 at the first base 11A without giving a gaze to the image that projects the figure, and not making a statement toward the second participant 15 The site status information is estimated and calculated from sound, body movement, and line of sight using audio signals, video signals, and acceleration signals. For example, the distance between the first participant 13 and the third participant 14 at the first base 11A and the avatar robot 17 representing the second participant 15 is calculated.
The output of step S210 is a value representing the degree to which the first participant 13 and the third participant 14 at the first base 11A forget the presence of the second participant 15 at the second base 11B and are incandescent in the video conference. is there.
The input in step S250 is data captured by the second site status capturing unit 43 shown in FIG.
In step S250, the base state information of the second base 11B shown in FIG. 1 is estimated and calculated using the second base state estimation unit 45 shown in FIG.

ステップS250の出力は、上記処理で算出された図1に示す第2拠点11Bの拠点状況情報を表すデータある。
具体的には、例えば、ステップS250の入力は、図1に示す第2拠点11Bの第2参加者15の拠点状況情報を計測した情報である。例えば、ノイズの除去や適切なサンプリング周期へ信号変換されたような、前処理を加えた音声信号や映像信号や加速度の信号のデータである。例えば、図1に示す第2拠点11Bの第2参加者15の音声信号であったり、例えば、頬杖をついたり、うなずいたり、ため息をついたりなどの特徴的な動作の信号である。
ステップS250では、図1に示す第2拠点11Bにいる第2参加者15の拠点状況情報を算出する。例えば第2拠点11Bの第2参加者15のテレビ会議の参加が、発言を予め定められた時間以上発言しておらず、例えば、頬杖をついたり、うなずいたり、ため息をついたりなどの特徴的な動作を行い、第1拠点11Aの第1参加者13と第3参加者14に存在に気づいて欲しいと思っている拠点状況情報を、音声信号や映像信号や加速度の信号を用いて音と体の動きや視線から推定し算出する処理である。
ステップS250の出力は、例えば第2拠点11Bの第2参加者15が発言するまでではないが、第1拠点11Aの第1参加者13と第3参加者14に自分の存在を気にして欲しい又は気づいて欲しいと思っている拠点状況情報の度合いを表す値である。
このように、第2拠点状況情報、第1参加者の感覚量の範囲に基づいて、遠隔地の参加者の言動に現れる会議への参加意思の程度を表す意思量を提示する度合いの調整を行うことができる。
The output of step S250 is data representing the base state information of the second base 11B shown in FIG.
Specifically, for example, the input in step S250 is information obtained by measuring the base state information of the second participant 15 in the second base 11B shown in FIG. For example, it is data of an audio signal, a video signal, and an acceleration signal subjected to preprocessing such as noise removal and signal conversion into an appropriate sampling period. For example, it is an audio signal of the second participant 15 at the second base 11B shown in FIG. 1, or a characteristic operation signal such as wearing a cheek stick, nodding or sighing.
In step S250, the base situation information of the second participant 15 in the second base 11B shown in FIG. 1 is calculated. For example, the participation of the second participant 15 of the second base 11B in the video conference does not speak for more than a predetermined time, such as wearing a cheek stick, nodding or sighing. The base situation information that the first participant 13 and the third participant 14 of the first base 11A want to be aware of the presence of the sound is transmitted using sound signals, video signals, and acceleration signals. This is a process of estimating and calculating from body movement and line of sight.
The output of step S250 is not until the second participant 15 of the second base 11B speaks, for example, but the first participant 13 and the third participant 14 of the first base 11A want to care about their existence. Or, it is a value that represents the degree of base situation information that you want to notice.
Thus, based on the second site status information and the range of the first participant's sense amount, the degree of presenting the amount of intention representing the degree of intention to participate in the conference that appears in the speech of the remote participant is adjusted. It can be carried out.

<第3実施形態>
図5は本発明の第3実施形態に係るコミュニケーション補助システムの動作を表すフローチャートであり、特に、図4に示す第1拠点状況算出処理(S210)の具体的な例を表すフローチャートである。
まず、図5に示すフローチャートについて概略的に説明する。
ステップS211では、第2参加者15が予め定められた時間以上発言していないか判定する。第2参加者15が予め定められた時間以上発言していない場合は、ステップS212に進み、変数の初期化を行う。ステップS213では、参加者の挙動に特徴的動作があるか判定する。特徴的動作がある場合はステップS214に進み、発言者の特定と視線検出の処理を行う。
ステップS215では、発言者の視線の先は第2参加者15に相当する場所以外であるか判定する。発言者の視線の先は第2参加者15に相当する場所以外である場合はステップS216に進み、検出された第1拠点11Aの特徴的動作の回数を更新する。次いで、ステップS217では、検出された第1拠点11Aの特徴的動作の総量を更新する。次いで、ステップS218では、ループ変数を更新する。次いで、ステップS219では、次のステップで考慮する時刻が0より小さいか判定する。
次のステップで考慮する時刻が0より小さい場合は、ステップS220に進み、検出された第1拠点11Aの特徴的動作の回数が予め定められた特徴的動作の回数の閾値より大きいか判定する。
第1拠点11Aの特徴的動作の回数が予め定められた特徴的動作の回数の閾値より大きい場合は、ステップS221に進み、第1拠点11Aの拠点状況情報を表すフラグを算出する。次いで、ステップS222では、算出されたデータを出力する。
<Third Embodiment>
FIG. 5 is a flowchart showing the operation of the communication assistance system according to the third embodiment of the present invention, and in particular, is a flowchart showing a specific example of the first site situation calculation process (S210) shown in FIG.
First, the flowchart shown in FIG. 5 will be schematically described.
In step S211, it is determined whether the second participant 15 has spoken for a predetermined time. If the second participant 15 has not spoken for a predetermined time or longer, the process proceeds to step S212, and variables are initialized. In step S213, it is determined whether there is a characteristic action in the behavior of the participant. If there is a characteristic action, the process proceeds to step S214, where the speaker is identified and the line of sight is detected.
In step S <b> 215, it is determined whether the point of the speaker's line of sight is other than the place corresponding to the second participant 15. If the point of sight of the speaker is other than the place corresponding to the second participant 15, the process proceeds to step S216, and the number of detected characteristic actions of the first base 11A is updated. Next, in step S217, the detected total amount of characteristic operations of the first base 11A is updated. Next, in step S218, the loop variable is updated. Next, in step S219, it is determined whether the time taken into consideration in the next step is smaller than zero.
When the time to be considered in the next step is smaller than 0, the process proceeds to step S220, and it is determined whether the number of detected characteristic actions of the first base 11A is larger than a predetermined threshold value of the number of characteristic actions.
When the number of characteristic actions of the first site 11A is larger than a predetermined threshold value of the number of characteristic actions, the process proceeds to step S221, and a flag representing the site status information of the first site 11A is calculated. Next, in step S222, the calculated data is output.

ここで、図5に示すフローチャートに用いる変数の定義について説明する。
Time_curentは、現在の時刻を表す。Time_intervalは、予め定められた時間の間隔を表す値で、現在の時刻からこの時間の間隔毎に特長的動作の検出を行うために使用する。Time_nonVoiceは、予め定められた時間の長さを表す値で、第2参加者15がこの値以上に無音区間であるかを判定するステップで使用する。Flag_11Aは、第1拠点11Aの拠点状況情報を表すフラグであり、0か1の値をとる。
1の時に、第1拠点11Aの拠点状況情報は第2拠点11Bの拠点状況情報を忘れて議論に白熱している状態を表す。それ以外のときは0の値をとる。jは、ループの変数を表す。MotionValue_averageは、予め定められた特徴的動作の大きさの平均値を表す。MotionCTS_Thresholdは、予め定められた特徴的動作の回数の閾値を表す。MotionValue_detectionは、検出された特徴的動作の量を表す。MotionValue_11Aは、検出された第1拠点11Aの特徴的動作の総量を表す。MotionCTS_11Aは、検出された第1拠点11Aの特徴的動作の回数を表す。
Here, the definition of variables used in the flowchart shown in FIG. 5 will be described.
Time_current represents the current time. Time_interval is a value that represents a predetermined time interval, and is used to detect a characteristic action at each time interval from the current time. Time_nonVoice is a value that represents a predetermined length of time, and is used in the step of determining whether the second participant 15 is in a silent section greater than this value. Flag_11A is a flag representing the base state information of the first base 11A, and takes a value of 0 or 1.
At 1, the site status information of the first site 11A represents a state in which the site status information of the second site 11B is forgotten and the discussion is heated. Otherwise, it takes a value of 0. j represents a variable of the loop. MotionValue_average represents an average value of predetermined characteristic motion magnitudes. MotionCTS_Threshold represents a predetermined threshold value of the number of characteristic operations. MotionValue_detection represents the amount of characteristic motion detected. MotionValue_11A represents the total amount of characteristic operations of the detected first base 11A. MotionCTS_11A represents the number of detected characteristic operations of the first base 11A.

図5に示すフローチャートにおいて、第2参加者15が予め定められた時間以上発言していないか判定するステップS211の入力は、第2拠点11Bの拠点状況情報を計測したデータである。例えば、第2拠点11Bの第2参加者15のマイクにより計測された音声信号である。
第2参加者15が予め定められた時間以上発言していないか判定するステップS211の処理は、第2参加者15が予め定められた時間Time_nonVoice以上に発言していないか判定する処理である。現在の時刻Time_curentからTime_curent−Time_nonVoiceまで第2参加者15が予め定められた音量以上の音声を発していない場合、第2参加者15が予め定められた時間以上発言していない、と判定される。第2参加者15が予め定められた時間以上発言していないか判定するステップS211の出力は、「はい」又は「いいえ」である。「はい」である場合はS212へ、「いいえ」である場合は終了のステップへ進む。加えて、現在の時刻Time_curentを出力する。
次いで、変数の初期化を行うステップS212の入力は、S211の出力である。変数の初期化を行うステップS212の処理は、変数の初期化を行う処理である。具体的には、第1拠点11Aの拠点状況情報を表すフラグFlag_11Aと、検出された第1拠点11Aの特徴的動作の総量MotionValue_11Aと、検出された第1拠点11Aの特徴的動作の回数MotionCTS_11Aと、ループの変数jと、の値を0にすることである。変数の初期化を行うステップS212の出力は、Flag_11AとMotionValue_11AとMotionCTS_11Aとjと、S211で出力されたTime_curentの値である。
In the flowchart shown in FIG. 5, the input in step S211 for determining whether or not the second participant 15 has spoken for a predetermined time or more is data obtained by measuring the site status information of the second site 11B. For example, it is an audio signal measured by the microphone of the second participant 15 at the second base 11B.
The process of step S211 for determining whether or not the second participant 15 has spoken for a predetermined time or more is a process for determining whether or not the second participant 15 has spoken for a predetermined time Time_nonVoice or more. When the second participant 15 does not utter a sound higher than a predetermined volume from the current time Time_current to Time_current-Time_nonVoice, it is determined that the second participant 15 does not speak for a predetermined time or more. . The output of step S211 for determining whether or not the second participant 15 has spoken for a predetermined time is “Yes” or “No”. If “yes”, the process proceeds to S212, and if “no”, the process proceeds to an end step. In addition, the current time Time_current is output.
Next, the input of step S212 for initializing variables is the output of S211. The process of step S212 for initializing variables is a process for initializing variables. Specifically, a flag Flag_11A representing the base state information of the first base 11A, a detected total amount of characteristic motion of the first base 11A, MotionValue_11A, and a detected number of characteristic actions of the first base 11A, MotionCTS_11A, The value of the variable j of the loop is set to 0. The output of step S212 for initializing variables is Flag_11A, MotionValue_11A, MotionCTS_11A and j, and the value of Time_current output in S211.

次いで、特徴的動作があるか判定するステップS213の入力は、S212の出力と、予め定められた正規化された特徴的動作の信号である。特徴的動作があるか判定するステップS213の処理は、時刻{Time_curent − j×予め定められた時間の間隔Time_interval}から、時刻{Time_curent − (j+1)×Time_interval}まで、の間に予め定められた特徴的動作があるか判定する処理である。
具体的には、加速度センサの信号を用いる場合、予め定められた正規化された特徴的動作、例えば、うなずくという動作の、加速度センサのx、y、zの信号を用意し、パターン認識の処理により、上記時刻の区間に、うなずくという動作の信号とマッチしている信号があるかを判定する。上記の予め定められた特徴的動作は、1つの動作に限ることなく、複数の動作を用意しておいてもよい。検出したい動作の数だけ用意する必要がある。
Next, the input of step S213 for determining whether or not there is a characteristic action is the output of S212 and a signal of a predetermined normalized characteristic action. The process of step S213 for determining whether or not there is a characteristic action is predetermined between time {Time_current−j × predetermined time interval Time_interval} and time {Time_current− (j + 1) × Time_interval}. This is a process for determining whether or not there is a characteristic action.
Specifically, when using the signal of the acceleration sensor, a predetermined normalized characteristic operation, for example, an operation of nodding is prepared, and signals of x, y, and z of the acceleration sensor are prepared, and pattern recognition processing is performed. Thus, it is determined whether or not there is a signal that matches the nodding operation signal in the time interval. The predetermined characteristic operation is not limited to one operation, and a plurality of operations may be prepared. It is necessary to prepare as many actions as you want to detect.

このフローチャートでは、検出したい特徴的動作が1つである場合を例に説明したものである。特徴的動作があるか判定するステップS213の出力は、「はい」、又は「いいえ」、である。上記処理にて特徴的動作が抽出された場合は「はい」、されなかった場合は「いいえ」、を出力する。「はい」である場合はステップS214へ、「いいえ」である場合はS218のステップに進む。
加えて、上記処理にて得られた特徴的動作のデータである特徴的動作情報の種類、回数、その大きさを出力する。具体的には、特徴的動作の大きさは、検出された特徴的動作の量MotionValue_detectionの変数に保持する。例えば、大きくうなずいた場合、予め定められた正規化された加速度センサの信号より大きな信号となる。加速度センサの信号、具体的には波形の振幅などのデータにより、ステップS213の処理にて大きさを算出し、出力する。
加えて、j、Flag_11A、MotionValue_11A、MotionCTS_11A、Time_curentの値も出力する。これらの変数の値は、その度、出力してもよいし、データベースで管理してもよい。今後、出力や入力に関するデータについては必要に応じて省略する。
In this flowchart, the case where there is one characteristic operation to be detected is described as an example. The output of step S213 for determining whether or not there is a characteristic action is “Yes” or “No”. If a characteristic action is extracted by the above process, “Yes” is output, and if it is not, “No” is output. If “yes”, the process proceeds to step S214. If “no”, the process proceeds to step S218.
In addition, the type, number of times, and the size of characteristic action information that is characteristic action data obtained by the above processing are output. Specifically, the magnitude of the characteristic action is held in a variable of the detected characteristic action amount MotionValue_detection. For example, when nodding loudly, the signal is larger than a signal of a predetermined normalized acceleration sensor. The magnitude is calculated in the process of step S213 based on the acceleration sensor signal, specifically the data such as the amplitude of the waveform, and output.
In addition, the values of j, Flag_11A, MotionValue_11A, MotionCTS_11A, and Time_current are also output. The values of these variables may be output each time or may be managed in a database. In the future, output and input data will be omitted as necessary.

次いで、発言者の特定と視線検出の処理を行うステップS214の入力は、ステップS213の出力である。発言者の特定と視線検出の処理を行うステップS214の処理は、第1拠点11Aで発言している発言者の特定と、発言している発言者の発言相手を視線検出により特定する処理である。
具体的には、例えば、音声信号により、第1拠点11Aにいる第1参加者13と第3参加者14のうち、どちら、又は両方が会話しているのか、又はだれも会話していないのかを判定する。1人以上の発話が確認された場合、映像信号により、視線を検出し、発言相手を特定する処理を行う。発言者の特定と視線検出の処理を行うステップS214の出力は、発言者とその視線の先を表すデータである。
発言者の視線の先は第2参加者15に相当する場所以外であるか判定するステップS215の入力は、ステップS214の出力である。
Next, the input in step S214 for performing the speaker identification and line-of-sight detection processing is the output in step S213. The process of step S214 for performing the process of specifying the speaker and detecting the line of sight is a process of specifying the speaker who is speaking at the first base 11A and specifying the speaking partner of the speaker who is speaking by detecting the line of sight. .
Specifically, for example, by voice signal, which one or both of the first participant 13 and the third participant 14 at the first base 11A are talking, or no one is talking. Determine. When one or more utterances are confirmed, a line of sight is detected from the video signal, and a process of specifying the speaking partner is performed. The output of step S214, which performs speaker identification and line-of-sight detection processing, is data representing the speaker and the point of the line of sight.
The input of step S215 for determining whether the point of the speaker's line of sight is outside the place corresponding to the second participant 15 is the output of step S214.

発言者の視線の先は、第2参加者15に相当する場所以外であるか判定するステップS215の処理は、ステップS214の出力である、発言者の視線の先が第2参加者15を表すものでないかを判定する処理である。発言者の視線の先は第2参加者15に相当する場所以外であるか判定するステップS215の出力は、「はい」又は「いいえ」である。「はい」である場合はS220へ、「いいえ」である場合は終了のステップに進む。
例えば、図1に示す第1拠点11Aには第2参加者15を表すアバターロボット17が存在しているとする。具体的には、発言者の視線の先がアバターロボット17である場合は、発言者の視線の先は第2参加者15を表すものであるため、判定は「いいえ」、となる。例えば、多くの遠隔テレビ会議で用いられているように、スクリーンに遠隔地参加者の様子を映す場合、発言者の視線の先がスクリーンであった場合、判定は「いいえ」となる。逆に、発言者が、自分と同じ拠点にいる参加者に向けて発言している場合、具体的には、第1拠点11Aの第1参加者13が第3参加者14に向けて発言している場合は、判定は、「はい」、になる。
The process of step S215 for determining whether the point of the speaker's line of sight is other than the place corresponding to the second participant 15 is the output of step S214. The point of the speaker's line of sight represents the second participant 15. This is a process for determining whether or not a thing is present. The output of step S215 for determining whether the point of sight of the speaker is outside the place corresponding to the second participant 15 is “Yes” or “No”. If “yes”, the process proceeds to S220, and if “no”, the process proceeds to an end step.
For example, it is assumed that an avatar robot 17 representing the second participant 15 exists in the first base 11A shown in FIG. Specifically, when the speaker's line of sight is the avatar robot 17, the determination is “No” because the speaker's line of sight represents the second participant 15. For example, as used in many remote video conferences, when a remote participant is shown on the screen, if the speaker's line of sight is the screen, the determination is “No”. Conversely, when the speaker is speaking to a participant who is at the same base as himself, specifically, the first participant 13 at the first base 11A speaks to the third participant 14. If yes, the determination is “yes”.

次いで、検出された第1拠点11Aの特徴的動作情報の回数を更新するステップS216の入力は、ステップS215の出力、「はい」、である。加えて、ステップS213で検出した特徴的動作情報のデータである。検出された第1拠点11Aの特徴的動作情報の回数を更新するステップS216の処理は、検出された第1拠点11Aの特徴的動作情報の回数MotionCTS_11Aの値を更新する処理である。
具体的には、例えば、ステップS213にて検出された特徴的動作情報が1つである場合、MotionCTS_11Aの値に1を加える。仮に、ステップS213にて検出された特徴的動作情報が1つ以上である場合には、その数に応じて値を加えてもよい。検出された第1拠点11Aの特徴的動作情報の回数を更新するステップS216の出力は、更新されたMotionCTS_11Aの値である。
次いで、検出された第1拠点11Aの特徴的動作情報の総量を更新するステップS217の入力は、ステップS213で検出した特徴的動作情報のデータである。具体的には、例えば、検出された特徴的動作情報の量Motion_detectionである。検出された第1拠点11Aの特徴的動作情報の総量を更新するステップS217の処理は、ステップS217の入力データから特徴的動作情報の総量MotionValue_11Aを更新する処理を行う。
Next, the input of step S216 for updating the number of detected characteristic operation information of the first base 11A is the output of step S215, “Yes”. In addition, the characteristic operation information data detected in step S213. The process of step S216 for updating the number of detected characteristic motion information of the first base 11A is a process of updating the value of the detected number of characteristic motion information of the first base 11A MotionCTS_11A.
Specifically, for example, when there is only one characteristic motion information detected in step S213, 1 is added to the value of MotionCTS_11A. If there is one or more characteristic motion information detected in step S213, a value may be added according to the number. The output of step S216 for updating the number of detected characteristic operation information of the first base 11A is the updated value of MotionCTS_11A.
Next, the input in step S217 for updating the total amount of characteristic operation information of the first base 11A detected is the data of characteristic operation information detected in step S213. Specifically, for example, the amount of detected characteristic motion information Motion_detection. The process of step S217 for updating the detected total amount of characteristic operation information of the first base 11A performs a process of updating the total amount of characteristic operation information MotionValue_11A from the input data in step S217.

例えば、ステップS213にて検出された特徴的動作情報が1つである場合、具体的には、その検出された特徴的動作情報の大きさの平均値がMotionValue_averageである場合、検出された第1拠点11Aの特徴的動作情報の総量MotionValue_11Aの値は、現在のMotionValue_11Aの値に、MotionValue_detection÷MotionValue_averageの値を加えたものである。
ステップS213にて検出された特徴的動作情報が大きい場合、MotionValue_11Aの値は大きな値が加えられることになる。これは、議論が白熱すれば体の動きも大きくなることを反映した値である。検出された第1拠点11Aの特徴的動作情報の総量を更新するステップS217の出力は、上記処理にて算出され、更新された、第1拠点11Aの特徴的動作情報の総量MotionValue_11Aである。
For example, when the number of characteristic motion information detected in step S213 is one, specifically, when the average value of the size of the detected characteristic motion information is MotionValue_average, the first detected The total value MotionValue_11A of the characteristic operation information of the base 11A is obtained by adding the value of MotionValue_detection / MotionValue_average to the current value of MotionValue_11A.
When the characteristic motion information detected in step S213 is large, a large value is added to the value of MotionValue_11A. This is a value that reflects the fact that the body movement increases as the discussion gets heated. The output of step S217 for updating the detected total amount of characteristic operation information of the first base 11A is the total amount MotionValue_11A of the characteristic operation information of the first base 11A calculated and updated by the above-described processing.

次いで、ループ変数を更新するステップS218の入力は、現在のjの値である。ループ変数を更新するステップS218の処理は、jに1を加える処理である。ループ変数を更新するステップS218の出力は、更新されたjの値である。これは、ステップS213にて特徴的動作情報を検出する時刻の区間を更新するために行う処理である。
次のステップで考慮する時刻が0より小さいか判定するステップS219の入力は、ステップS218の出力であるjと、Time_curentとTime_intervalである。次のステップで考慮する時刻が0より小さいか判定するステップS219の処理は、次のステップで行うステップS213にて特徴的動作情報を検出する時刻の区間が、0より小さいかを判定するステップである。具体的には、Time_curent −(j+1)×Time_intervalの値が0より小さいかを判定する。0より小さい場合は、「はい」、0以上である場合は「いいえ」、となる。
次のステップで考慮する時刻が0より小さいか判定するステップS219の出力は、「はい」、又は「いいえ」である。「はい」である場合はステップS220へ、「いいえ」である場合はステップS213のステップへ進む。
次いで、検出された第1拠点11Aの特徴的動作情報の回数が予め定められた特徴的動作情報の回数の閾値より大きいか判定するステップS220の入力は、ステップS219の「はい」、とMotionCTS_100と予め定められた特徴的動作情報の回数の閾値MotionCTS_Thresholdの値である。
Next, the input of step S218 for updating the loop variable is the current value of j. The process of step S218 for updating the loop variable is a process of adding 1 to j. The output of step S218 for updating the loop variable is the updated value of j. This is a process performed to update the time interval for detecting characteristic motion information in step S213.
The input of step S219 for determining whether the time taken into consideration in the next step is smaller than 0 is j, Time_current and Time_interval which are the outputs of step S218. The process of step S219 for determining whether the time to be considered in the next step is smaller than 0 is a step for determining whether the time interval for detecting characteristic motion information in step S213 performed in the next step is smaller than 0. is there. Specifically, it is determined whether the value of Time_current− (j + 1) × Time_interval is smaller than zero. If it is less than 0, “Yes” is set, and if it is 0 or more, “No” is set.
The output of step S219 for determining whether the time to be considered in the next step is less than 0 is “Yes” or “No”. If “yes”, the process proceeds to step S220, and if “no”, the process proceeds to step S213.
Next, the input in step S220 for determining whether or not the number of detected characteristic operation information of the first base 11A is greater than a predetermined threshold value of the number of characteristic operation information is “Yes” in step S219, and MotionCTS_100. This is the value of the threshold value MotionCTS_Threshold of the number of times of predetermined characteristic motion information.

検出された第1拠点11Aの特徴的動作情報の回数が予め定められた特徴的動作情報の回数の閾値より大きいか判定するステップS220の処理は、ステップS216にて更新されたMotionCTS_100の値がMotionCTS_Thresholdより大きいかを判定する処理を行う。
MotionCTS_100の値がMotionCTS_Thresholdより大きい場合には「はい」、小さい場合には「いいえ」と判定する。例えば、第1拠点11Aにいる第1参加者13が、かつステップS214、ステップS215で第2参加者15を表すもの以外に視線を向けた状態で、特徴的動作情報の回数が多く検出された場合、具体的には、第2拠点11Bの第2参加者15を忘れて議論が白熱している可能性がある状態である。その回数が予め定められた回数以上である場合には、議論が白熱している状態であると判定する処理を行っている。検出された第1拠点11Aの特徴的動作情報の回数が予め定められた特徴的動作情報の回数の閾値より大きいか判定するステップS220の出力は、上記処理にて判定された「はい」、又は「いいえ」である。
In the process of step S220 for determining whether or not the number of detected characteristic motion information of the first base 11A is larger than a predetermined threshold value of the number of characteristic motion information, the value of MotionCTS_100 updated in step S216 is MotionCTS_Threshold. A process for determining whether the value is larger is performed.
When the value of MotionCTS_100 is larger than MotionCTS_Threshold, it is determined as “Yes”, and when it is smaller, it is determined as “No”. For example, a large number of characteristic motion information was detected in a state where the first participant 13 at the first base 11A turned his gaze to something other than the one representing the second participant 15 in steps S214 and S215. In this case, specifically, the second participant 15 at the second base 11B is forgotten and there is a possibility that the discussion is incandescent. When the number of times is equal to or greater than a predetermined number, processing is performed to determine that the discussion is in a heated state. The output of step S220 for determining whether the number of detected characteristic operation information of the first base 11A is greater than a predetermined threshold value of the number of characteristic operation information is “Yes” determined in the above process, or “No”.

第1拠点11Aの拠点状況情報を表すフラグを算出するステップS221の入力は、ステップS220の出力、「はい」、である。第1拠点11Aの拠点状況情報を表すフラグを算出するステップS221の処理は、第1拠点11Aの拠点状況情報を表すフラグFlag_11Aの値を算出する処理である。Flag_11Aは、0か1の値をとる。Flag_11Aは、1の時、第1拠点11Aの拠点状況情報は第2拠点11Bの状況を忘れて議論に白熱している状態を表す。それ以外のときは0の値をとる。具体的には、例えば、ステップS220にて、第2拠点11Bの第2参加者15を忘れて議論が白熱している状態であると判定された場合には1の値を設定する。それ以外の時には0の値を設定する処理を行う。第1拠点11Aの拠点状況情報を表すフラグを算出するステップS221の出力は、Flag_11Aの値である。
算出されたデータを出力するステップS222の入力は、Flag_11Aと、MotionCTS_11Aと、MotionValue_11Aの値である。算出されたデータを出力するステップS222の処理は、入力データを出力することである。これまでのステップにて算出、更新されたデータの値を出力する処理を行う。算出されたデータを出力するステップS222の出力は、Flag_11Aと、MotionCTS_11Aと、MotionValue_11Aの値である。
The input of step S221 for calculating the flag representing the site status information of the first site 11A is the output of step S220, “Yes”. The process of step S221 for calculating the flag indicating the site status information of the first site 11A is a process of calculating the value of the flag Flag_11A indicating the site status information of the first site 11A. Flag_11A takes a value of 0 or 1. When Flag_11A is 1, the base state information of the first base 11A represents a state in which the situation of the second base 11B is forgotten and heated to discussion. Otherwise, it takes a value of 0. Specifically, for example, when it is determined in step S220 that the second participant 15 at the second base 11B is forgotten and the discussion is heated, a value of 1 is set. In other cases, a process of setting a value of 0 is performed. The output of step S221 for calculating the flag representing the site status information of the first site 11A is the value of Flag_11A.
The input of step S222 for outputting the calculated data is the values of Flag_11A, MotionCTS_11A, and MotionValue_11A. The process of step S222 for outputting the calculated data is to output the input data. A process for outputting the data value calculated and updated in the previous steps is performed. The output of step S222 for outputting the calculated data is the values of Flag_11A, MotionCTS_11A, and MotionValue_11A.

例えば、第1拠点11Aの状況が第2拠点11Bの状況を忘れて議論に白熱している状態である場合、具体的には、Flag_11Aは1の値をとる。白熱している度合いが大きい場合には、MotionCTS_11Aと、MotionValue_11Aの値が大きくなり、白熱している度合いが小さい場合には、MotionCTS_11Aと、MotionValue_11Aの値は小さくなる。
このように、第1特徴的動作情報、発言者情報、及び対話相手情報を第1拠点状況情報として用いることで、遠隔地の参加者の言動に現れる会議への参加意思の程度を表す意思量を提示する度合いの調整を行うことができる。
また、所定時間内における第2拠点11Bの音声信号が所定音量以下である場合に、第2拠点11Bの映像信号に基づいて第2特徴的動作情報を抽出するので、遠隔地の参加者の言動に現れる会議への参加意思の程度を表す意思量を算出することができる。
For example, when the status of the first site 11A is in a state where the status of the second site 11B is forgotten and the discussion is heated, specifically, Flag_11A takes a value of 1. When the degree of incandescence is large, the values of MotionCTS_11A and MotionValue_11A are large, and when the degree of incandescence is small, the values of MotionCTS_11A and MotionValue_11A are small.
In this way, the first characteristic action information, the speaker information, and the conversation partner information are used as the first site situation information, and the will amount representing the degree of intention to participate in the conference that appears in the behavior of the remote participant The degree of presenting can be adjusted.
In addition, when the audio signal of the second base 11B within a predetermined time is below a predetermined volume, the second characteristic motion information is extracted based on the video signal of the second base 11B. It is possible to calculate the amount of intention that represents the degree of intention to participate in the conference that appears.

<第4実施形態>
図6は、本発明の第4実施形態に係るコミュニケーション補助システムの動作を表すフローチャートであり、特に、図4に示す第2拠点状況算出処理(ステップS250)の具体的な例を説明するためのフローチャートである。
まず、図6に示すフローチャートについて概略的に説明する。
ステップS251では、第2参加者が予め定められた時間以上発言していないか判定する。ステップS252では、変数の初期化を行う。ステップS253では、特徴的動作情報があるか判定する。ステップS254では、検出された第2拠点11Bの特徴的動作情報の回数を更新する。ステップS255では、検出された第2拠点11Bの特徴的動作情報の総量を更新する。ステップS256では、ループ変数を更新する。ステップS257では、次のステップで考慮する時刻が0より小さいか判定する。ステップS258では、検出された第2拠点11Bの特徴的動作情報の回数が予め定められた特徴的動作情報の回数の閾値より大きいか判定する。ステップS259では、第2拠点11Bの拠点状況情報を表すフラグを算出する。ステップS260では、算出されたデータを出力する。
<Fourth embodiment>
FIG. 6 is a flowchart showing the operation of the communication assistance system according to the fourth embodiment of the present invention, and in particular, for explaining a specific example of the second site situation calculation process (step S250) shown in FIG. It is a flowchart.
First, the flowchart shown in FIG. 6 will be schematically described.
In step S251, it is determined whether the second participant has spoken for a predetermined time. In step S252, variables are initialized. In step S253, it is determined whether there is characteristic operation information. In step S254, the number of detected characteristic operation information of the second base 11B is updated. In step S255, the total amount of characteristic operation information of the detected second base 11B is updated. In step S256, the loop variable is updated. In step S257, it is determined whether the time taken into consideration in the next step is less than zero. In step S258, it is determined whether the number of detected characteristic motion information of the second base 11B is greater than a predetermined threshold value of the number of characteristic motion information. In step S259, a flag representing the base state information of the second base 11B is calculated. In step S260, the calculated data is output.

ここで、図6に示すフローチャートに用いる変数の定義について説明する。
なお、変数の定義のうち、図5を参照して説明した変数については省略する。
Flag_11Bは、第2拠点11Bの拠点状況情報を表すフラグ。0か1の値をとる。1の時に、第2拠点11Bの拠点状況情報は第1拠点11Aにいる参加者に発言するまでではないが自分の存在に気づいて欲しいと思っている拠点状況情報を表す。それ以外のときは0の値をとる。iは、ループの変数を表す。MotionValue_11Bは、検出された第2拠点11Bの特徴的動作情報の総量を表す。MotionCTS_11Bは、検出された第2拠点11Bの特徴的動作情報の回数を表す。
第2参加者15が予め定められた時間以上発言していないか判定するステップS251は、図5に示すステップS211と同じである。
変数の初期化を行うステップS252は、図4に示すステップS212と同様の内容である。ステップS252では、検出された第2拠点11Bの特徴的動作情報の総量MotionValue_11B、検出された第2拠点11Bの特徴的動作情報の回数MotionCTS_11Bと、ループの変数iと、第2拠点11Bの拠点状況情報を表すフラグFlag_11Bを用いており、MotionValue_11BはステップS212のMotionValue_11Aに、MotionCTS_11BはステップS212のMotionCTS_11Aに、iはステップS212のjに、Flag_11BはステップS212のFlag_11Aに相当する。
Here, the definition of variables used in the flowchart shown in FIG. 6 will be described.
Of the variable definitions, the variables described with reference to FIG. 5 are omitted.
Flag_11B is a flag representing the base state information of the second base 11B. It takes a value of 0 or 1. At 1, the site status information of the second site 11B represents the site status information that the user wants to be aware of, but not to speak to the participants at the first site 11A. Otherwise, it takes a value of 0. i represents a variable of the loop. MotionValue_11B represents the total amount of characteristic operation information of the detected second base 11B. MotionCTS_11B represents the number of detected characteristic operation information of the second base 11B.
Step S251 for determining whether or not the second participant 15 has spoken for a predetermined time or more is the same as step S211 shown in FIG.
Step S252 for initializing variables has the same contents as step S212 shown in FIG. In step S252, the total amount of detected characteristic motion information of the second base 11B, MotionValue_11B, the number of detected characteristic motion information of the second base 11B, MotionCTS_11B, the loop variable i, and the base state of the second base 11B The flag Flag_11B representing the information is used. The MotionValue_11B corresponds to the MotionValue_11A in step S212, the MotionCTS_11B corresponds to the MotionCTS_11A in step S212, i corresponds to j in the step S212, and Flag_11B corresponds to Flag_11A in the step S212.

特徴的動作情報があるか判定するステップS253は、図4に示すステップS213と同様の内容である。ただし、図4に示すステップS213では、第1拠点11Aの第1参加者13と第3参加者14の、テレビ会議に白熱している様子を表す特徴的動作情報を抽出していたが、ステップS253で対象とする特徴的動作情報は、第2拠点11Bの第2参加者15が、自分の存在にきづいて欲しいと思った時にみせる特徴的動作情報である。例えば、ため息をつく動作など、テレビ会議においていかれていると思った時にみせる特徴的動作情報である。
次いで、検出された第2拠点11Bの特徴的動作情報の回数を更新するステップS254は、図5のステップS216と同様の内容である。ただし、用いる変数は、図6の変数の定義にて説明した第2拠点11Bに関する変数である。
検出された第2拠点11Bの特徴的動作情報の総量を更新するステップS255は、図5に示すステップS217と同様の内容である。ただし、用いる変数は、図6の変数の定義にて説明した第2拠点11Bに関する変数である。
ループ変数を更新するステップS256は、図5に示すステップS218と同様の内容である。ただし用いる変数はiである。
次のステップで考慮する時刻が0より小さいか判定するステップS257は、図5に示すステップS219と同様の内容である。
Step S253 for determining whether or not there is characteristic operation information is the same as step S213 shown in FIG. However, in step S213 shown in FIG. 4, characteristic operation information representing the state in which the first participant 13 and the third participant 14 of the first base 11A are incandescent in the video conference is extracted. The characteristic operation information targeted in S253 is characteristic operation information that is displayed when the second participant 15 at the second base 11B wants to know his / her presence. For example, it is characteristic operation information that is shown when the user thinks he / she is in a video conference, such as a sighing operation.
Next, Step S254 for updating the number of detected characteristic operation information of the second base 11B is the same as Step S216 in FIG. However, the variable to be used is a variable related to the second base 11B described in the definition of the variable in FIG.
Step S255 for updating the detected total amount of characteristic operation information of the second base 11B is the same as step S217 shown in FIG. However, the variable to be used is a variable related to the second base 11B described in the definition of the variable in FIG.
Step S256 for updating the loop variable has the same contents as step S218 shown in FIG. However, the variable used is i.
Step S257 for determining whether the time to be considered in the next step is less than 0 is the same as step S219 shown in FIG.

次いで、検出された第2拠点11Bの特徴的動作情報の回数が予め定められた特徴的動作情報の回数の閾値より大きいか判定するステップS258は、図5に示すステップS220と同様の内容である。ただし、用いる変数は、図6の変数の定義にて説明した第2拠点11Bに関する変数である。
次いで、第2拠点11Bの拠点状況情報を表すフラグを算出するステップS259は、図5のステップS221と同様の内容である。ただし、用いる変数は、図6の変数の定義にて説明した第2拠点11Bに関する変数である。Flag_11Bは、第2拠点11Bの拠点状況情報を表すフラグである。1の時、第2拠点11Bの拠点状況情報は第1拠点11Aにいる参加者に発言するまでではないが自分の存在に気づいて欲しいと思っている拠点状況情報を表す。それ以外のときは0の値をとる。
次いで、算出されたデータを出力するステップS260は、図5に示すステップS222と同様の内容である。ただし、用いる変数は、図6の変数の定義にて説明した第2拠点11Bに関する変数である。具体的には、例えば、第2拠点11Bの第2参加者15が、第1拠点11Aの第1参加者13と第3参加者14に、発言するほどではないが、自分の存在を提示したいと思っている度合いが大きい場合には、MotionCTS_11Aと、MotionValue_11Aの値が大きくなり、発言するほどではないが、自分の存在を提示したいと思っている度合いが小さい場合には、MotionCTS_11Aと、MotionValue_11Aの値は小さくなる。
このように、所定時間内における第2拠点11Bの音声信号が所定音量以下である場合に、第2拠点11Bの映像信号に基づいて第2特徴的動作情報を抽出するので、遠隔地の参加者の言動に現れる会議への参加意思の程度を表す意思量を算出することができる。
Next, step S258 for determining whether or not the number of detected characteristic motion information of the second base 11B is greater than a predetermined threshold value of the number of characteristic motion information is the same as step S220 shown in FIG. . However, the variable to be used is a variable related to the second base 11B described in the definition of the variable in FIG.
Next, Step S259 for calculating a flag representing the base state information of the second base 11B has the same contents as Step S221 in FIG. However, the variable to be used is a variable related to the second base 11B described in the definition of the variable in FIG. Flag_11B is a flag representing the base state information of the second base 11B. At 1, the site status information of the second site 11B represents the site status information that the user wants to be aware of, but not to speak to the participants at the first site 11A. Otherwise, it takes a value of 0.
Next, Step S260 for outputting the calculated data has the same contents as Step S222 shown in FIG. However, the variable to be used is a variable related to the second base 11B described in the definition of the variable in FIG. Specifically, for example, the second participant 15 at the second base 11B does not speak to the first participant 13 and the third participant 14 at the first base 11A, but wants to present his / her presence. When the degree of thinking is large, the values of MotionCTS_11A and MotionValue_11A are large and not enough to speak, but when the degree of wanting to present their presence is small, the values of MotionCTS_11A and MotionValue_11A The value becomes smaller.
As described above, when the audio signal of the second base 11B within a predetermined time is below a predetermined volume, the second characteristic operation information is extracted based on the video signal of the second base 11B. It is possible to calculate the amount of intention representing the degree of intention to participate in the conference that appears in

<第5実施形態>
図7は本発明の第5実施形態に係るコミュニケーション補助システムの動作を表すフローチャートであり、特に、図5とは異なる図4に示す第1拠点状況算出処理(ステップS210)の具体的な例を説明したフローチャートである。
ステップS223では、第1拠点11Aにいる参加者とアバターロボット17との距離Distance_17を算出する処理を行う。ステップS224では、Flag_11A、MotionCTS_11A、MotionValue_11A、Distance_17を出力する。
ここで、図7に示すフローチャートに用いる変数の定義について説明する。
なお、図5、図6で定義済みの変数については省略する。
Distance_17は、第1拠点11Aにいる参加者とアバターロボット17との距離を表す。
図7に示すフローチャートは図5に示すフローチャートとほぼ同じである。異なる点は、図5に示すフローチャートには存在しなかった、第1拠点11Aにいる参加者とアバターロボット17との距離Distance_17を算出する処理を行うステップS223があることである。また、図5に示すステップS222に代わって、図5に示すステップS222で出力していたデータに第1拠点11Aの参加者とアバターロボット17との距離Distance_17を加えて出力しているステップS224があることである。
<Fifth Embodiment>
FIG. 7 is a flowchart showing the operation of the communication assistance system according to the fifth embodiment of the present invention. In particular, a specific example of the first site situation calculation process (step S210) shown in FIG. 4 different from FIG. It is the flowchart demonstrated.
In step S223, a process of calculating a distance Distance_17 between the participant at the first base 11A and the avatar robot 17 is performed. In step S224, Flag_11A, MotionCTS_11A, MotionValue_11A, and Distance_17 are output.
Here, the definition of variables used in the flowchart shown in FIG. 7 will be described.
Note that variables already defined in FIGS. 5 and 6 are omitted.
Distance_17 represents the distance between the participant at the first site 11A and the avatar robot 17.
The flowchart shown in FIG. 7 is almost the same as the flowchart shown in FIG. The difference is that there is step S223 for performing a process of calculating the distance Distance_17 between the participant at the first base 11A and the avatar robot 17, which did not exist in the flowchart shown in FIG. Further, instead of step S222 shown in FIG. 5, step S224 in which the distance Distance_17 between the participant at the first base 11A and the avatar robot 17 is added to the data outputted in step S222 shown in FIG. That is.

第1拠点11Aの状況を計測し、算出するステップにおいて、例えばステップS213、第1参加者13と第3参加者14の状況に加えて、第2参加者15を表すアバターロボット17の状況も計測し、後のステップにてこの拠点状況情報についても算出することで、図5に示す場合より、詳しく第1拠点11Aの拠点状況情報を算出することができる。
具体的には、ステップS213では、映像データから、第1拠点11Aの第1参加者13と第2参加者15を表すアバターロボット17との距離と、第1拠点11Aの第3参加者14と第2参加者15を表すアバターロボット17との距離と、を計測し、上記計測された距離の平均を算出し、変数Distance_17に代入する処理を行う。
例えば、距離の平均のみならず、第2参加者15を表すアバターロボット17と、第1拠点11Aにいる参加者のうちいずれか近いほうの距離を変数Distance_17に代入してもよいし、いずれか遠いほうの距離を変数Distance_17に代入してもよいし、距離を予め定められた関数を用いて算出した値を代入してもよい。
In the step of measuring and calculating the situation of the first base 11A, for example, in addition to the situation of step S213, the first participant 13 and the third participant 14, the situation of the avatar robot 17 representing the second participant 15 is also measured. However, by calculating the site status information in a later step, the site status information of the first site 11A can be calculated in more detail than in the case shown in FIG.
Specifically, in step S213, the distance between the first participant 13 at the first base 11A and the avatar robot 17 representing the second participant 15 and the third participant 14 at the first base 11A are determined from the video data. The distance to the avatar robot 17 representing the second participant 15 is measured, the average of the measured distances is calculated, and the process of substituting for the variable Distance_17 is performed.
For example, not only the average of distances but also the closest distance between the avatar robot 17 representing the second participant 15 and the participants at the first base 11A may be substituted into the variable Distance_17. The far distance may be substituted into the variable Distance_17, or a value calculated using a predetermined function for the distance may be substituted.

第1拠点11Aにいる参加者とアバターロボット17との距離Distance_17は、刺激を出力するアバターロボット17が、同程度の刺激を出力したとしても、Distance_17の値が大きければ、つまり、第1拠点11Aにいる参加者とアバターロボット17との距離が遠ければ、第1拠点11Aの参加者が感じる感覚量が小さくなる。
逆に、Distance_17の値が小さければ、つまり、第1拠点11Aの参加者とアバターロボット17との距離が近ければ、第1拠点11Aにいる参加者が感じる感覚量は大きくなる、ということに対応するために用いる値である。第1拠点11Aの参加者とアバターロボット17との距離Distance_17に応じて、第1拠点11Aの参加者に提示する刺激量を調整することを可能とするために必要なステップである。上記の例は、距離に関してだが、距離以外の値を用いてもよい。例えば、第1拠点11Aの参加者と第2参加者の1002を表すアバターロボット17が共に動いている場合、相対速度をもって上記ステップを行ってもよい。
このように、第1参加者とロボット部17の間の距離を第1拠点状況情報として用いることで、遠隔地の参加者の言動に現れる会議への参加意思の程度を表す意思量を提示する度合いの調整を行うことができる。
The distance Distance_17 between the participant in the first site 11A and the avatar robot 17 is equal to the distance 1 from the first site 11A, even if the avatar robot 17 that outputs the stimulus outputs the same degree of stimulus. If the distance between the participant who is in the room and the avatar robot 17 is long, the amount of sensation felt by the participant at the first base 11A becomes small.
Conversely, if the value of Distance_17 is small, that is, if the distance between the participant at the first base 11A and the avatar robot 17 is short, the amount of sensation felt by the participant at the first base 11A increases. It is a value used to This is a step necessary to enable adjustment of the amount of stimulation to be presented to the participant at the first base 11A according to the distance Distance_17 between the participant at the first base 11A and the avatar robot 17. The above example relates to distance, but values other than distance may be used. For example, when the avatar robot 17 representing the participant of the first base 11A and the second participant 1002 is moving together, the above steps may be performed with a relative speed.
In this way, by using the distance between the first participant and the robot unit 17 as the first site status information, an intention amount representing the degree of willingness to participate in the conference that appears in the behavior of the remote participant is presented. The degree can be adjusted.

<第6実施形態>
図8は、本発明の第6実施形態に係るコミュニケーション補助システムの動作を表すフローチャートであり、特に、図3に示す刺激量算出処理を行うステップS300の具体的な例を説明するためのフローチャートである。
まず、図8に示すフローチャートについて概略的に説明する。
ステップS301では、フラグを判定する。ステップS302では、データの取り込みを行う。ステップS303では、第1拠点11Aの拠点状況情報から感覚量の範囲を算出する処理を行う。ステップS304では、第2拠点11Bの拠点状況情報から感覚量Eを算出する処理を行う。ステップS305では、刺激量Rの算出を行う。
ステップS306では、刺激出力部57のための信号変換処理を行う。ステップS307では、刺激出力部57への出力処理を行う。
<Sixth Embodiment>
FIG. 8 is a flowchart showing the operation of the communication assistance system according to the sixth embodiment of the present invention, and in particular, a flowchart for explaining a specific example of step S300 for performing the stimulus amount calculation process shown in FIG. is there.
First, the flowchart shown in FIG. 8 will be schematically described.
In step S301, a flag is determined. In step S302, data is captured. In step S303, a process of calculating the range of the sensory amount from the site status information of the first site 11A is performed. In step S304, a process for calculating the sensory amount E from the site status information of the second site 11B is performed. In step S305, the stimulus amount R is calculated.
In step S306, signal conversion processing for the stimulus output unit 57 is performed. In step S307, output processing to the stimulus output unit 57 is performed.

ここで、図8に示すフローチャートに用いる変数の定義について説明する。
なお、図5、図6、図7を参照して、定義済みの変数については省略する。
Eは、第1参加者13の感覚量を表す。E_maxは、感覚量の閾値の最大値を表す。E_minは、感覚量の閾値の最小値を表す。E_max_basisは、予め定められた基準となる感覚量の閾値の最大値を表す。E_min_basisは、予め定められた基準となる感覚量の閾値の最小値を表す。MotionValue_11A_basisは、予め定められた基準となる第1拠点11Aの拠点状況情報を表す値を表す。MotionCTS_11A_basisは、予め定められた基準となる第1拠点11Aの拠点状況情報を表す値を表す。Motion_max_basisは、予め定められた基準となる第2拠点11Bの拠点状況情報の最大値を表す。Motion_min_basisは、予め定められた基準となる第2拠点11Bの拠点状況情報の最小値を表す。W_ctsは、重み付けの値を表す。W_valueは、重み付けの値を表す。Rは、刺激量を表す。Kは、予め定められた定数を表す。R_basisは、予めさだめられた刺激量の基準値を表す。
Aは、振幅の値を表す。A_basisは、予め定められた振幅の基準値を表す。
Here, the definition of variables used in the flowchart shown in FIG. 8 will be described.
In addition, with reference to FIG.5, FIG.6, FIG.7, it omits about the predefined variable.
E represents the sensory amount of the first participant 13. E_max represents the maximum value of the sensory threshold. E_min represents the minimum value of the sensory threshold. E_max_basis represents the maximum threshold value of the sensory amount that is a predetermined reference. E_min_basis represents the minimum threshold value of the sensory amount that is a predetermined reference. MotionValue_11A_basis represents a value representing the base state information of the first base 11A that is a predetermined reference. MotionCTS_11A_basis represents a value representing the base state information of the first base 11A that is a predetermined reference. Motion_max_basis represents the maximum value of the base state information of the second base 11B, which is a predetermined reference. Motion_min_basis represents the minimum value of the base state information of the second base 11B, which is a predetermined reference. W_cts represents a weighting value. W_value represents a weighting value. R represents the amount of stimulation. K represents a predetermined constant. R_basis represents the reference value of the stimulation amount that has been determined in advance.
A represents an amplitude value. A_basis represents a reference value of a predetermined amplitude.

フラグを判定するステップS301の入力は、図5に示すステップS222の出力である第1拠点11Aの拠点状況情報を表すフラグFlag_11Aと、図6に示すステップS260の出力である第2拠点11Bの拠点状況情報を表すフラグFlag_11Bである。フラグを判定するステップS301の処理は、Flag_11AとFlag_11Bの乗算が1であるかを判定するステップである。上記、乗算が1である場合は、第1拠点11Aの第1参加者13と第3参加者14がテレビ会議に白熱している状況、かつ、第2拠点11Bの第2参加者15が自分の存在にきづいて欲しいと思っている状況である。フラグを判定するステップS301の出力は、「はい」、又は「いいえ」である。上記処理にて上記乗算の積が1である場合は「はい」、それ以外である場合は「いいえ」を出力する。「はい」である場合はステップS302へ、「いいえ」である場合は終了のステップへ進む。
データの取り込みを行うステップS302の入力は、図5に示すステップS222の出力と、図6に示すステップS260の出力である。仮に、Distance_17の計測も行っている場合には、図6に示すステップS260の代わりに図7に示すステップS224の出力を用いる。データの取り込みを行うステップS302の処理は、データを取り込む処理である。具体的には、MotionCTS_11A、MotionCTS_11B、MotionValue_11A、MotionValue_11B、場合によってはDistance_17も加えた上記変数である。データの取り込みを行うステップS302の出力は、上記変数の出力である。例えば、第1拠点11Aの拠点状況情報を表すデータ、具体的には、第1拠点11Aの第1参加者13と第3参加者14がテレビ会議に白熱している度合いを表すデータと、第2拠点11Bの第2参加者15が自分の存在にきづいて欲しいと思っている度合いを表すデータを取り込むステップである。
The input of the step S301 for determining the flag is the flag Flag_11A indicating the base state information of the first base 11A that is the output of the step S222 shown in FIG. 5, and the base of the second base 11B that is the output of the step S260 shown in FIG. It is a flag Flag_11B that represents status information. The process of step S301 for determining the flag is a step of determining whether the multiplication of Flag_11A and Flag_11B is 1. When the multiplication is 1, when the first participant 13 and the third participant 14 at the first base 11A are incandescent in the video conference, and the second participant 15 at the second base 11B is himself It is a situation that I want you to become aware of. The output of step S301 for determining the flag is “Yes” or “No”. In the above processing, “Yes” is output when the product of the multiplication is 1, and “No” is output otherwise. If “yes”, the process proceeds to step S302, and if “no”, the process proceeds to an end step.
The input of step S302 for capturing data is the output of step S222 shown in FIG. 5 and the output of step S260 shown in FIG. If the distance_17 is also measured, the output of step S224 shown in FIG. 7 is used instead of step S260 shown in FIG. The process of step S302 for fetching data is a process for fetching data. More specifically, these variables include MotionCTS_11A, MotionCTS_11B, MotionValue_11A, MotionValue_11B, and, in some cases, Distance_17. The output of step S302 for fetching data is the output of the variable. For example, data representing the site status information of the first site 11A, specifically, data representing the degree to which the first participant 13 and the third participant 14 of the first site 11A are incandescent in the video conference, This is a step of taking in data representing the degree to which the second participant 15 at the two bases 11B wants to know his / her presence.

次いで、第1拠点11Aの拠点状況情報から感覚量の範囲を算出する処理を行うステップS303の入力は、第1拠点11Aの拠点状況情報を表すデータ、例えば第1拠点11Aの第1参加者13と第3参加者14がテレビ会議に白熱している度合いを表すデータMotionValue_11Aと、MotionCTS_11Aと、感覚量の閾値の最大値E_maxと感覚量の閾値の最小値E_minの値である。
加えて、予め基準となる第1拠点11Aにいる参加者がテレビ会議に白熱している度合いを表すデータMotionValue_11A_basisと、MotionCTS_11A_basisと、予め、基準となる感覚量の閾値の値、E_max_basis、E_min_basisと、重み付けの値として、W_ctsとW_valueも入力のデータとして用意する。
第1拠点11Aの状況から感覚量の範囲を算出する処理を行うステップS303の処理は、第1拠点11Aの第1参加者13と第3参加者14がテレビ会議に白熱している度合いを表すデータに応じて、感覚量の閾値の最大値E_maxと感覚量の閾値の最小値E_minの値を算出し、更新する処理を行うステップである。例えば、以下の式(1)(2)を用いて、感覚量の閾値の最大値E_maxと感覚量の閾値の最小値E_minの値を算出し、更新する。
Next, the input of step S303 for performing the process of calculating the range of the sensory amount from the site status information of the first site 11A is data representing the site status information of the first site 11A, for example, the first participant 13 of the first site 11A. And the values MotionValue_11A, MotionCTS_11A, and the maximum value E_max of the sensory amount threshold and the minimum value E_min of the threshold of the sensory amount.
In addition, the data MotionValue_11A_basis, the MotionCTS_11A_basis representing the degree to which the participants at the first base 11A serving as the reference are incandescent in the video conference, the threshold value of the reference sensory amount, E_max_basis, E_min_basis, in advance, W_cts and W_value are also prepared as input data as weighting values.
The process of step S303 that performs the process of calculating the range of the sensory amount from the situation of the first base 11A represents the degree to which the first participant 13 and the third participant 14 of the first base 11A are incandescent in the video conference. This is a step of performing processing for calculating and updating the maximum value E_max of the threshold value of the sensory amount and the minimum value E_min of the threshold value of the sensory amount according to the data. For example, the following values (1) and (2) are used to calculate and update the maximum value E_max of the sensory amount threshold value and the minimum value E_min of the sensory amount threshold value.

E_max={W_cts×(MotionCTS_11A÷MotionCTS_11A_basis)+W_value(MotionValue_11A÷MotionValue_11A_basis)}×E_max_basis (1)
E_min={W_cts×(MotionCTS_11A÷MotionCTS_11A_basis)+W_value(MotionValue_11A÷MotionValue_11A_basis)}×E_min_basis (2)
E_max = {W_cts × (MotionCTS_11A ÷ MotionCTS_11A_basis) + W_value (MotionValue_11A ÷ MotionValue_11A_basis)} × E_max_basis (1)
E_min = {W_cts * (MotionCTS_11A / MotionCTS_11A_basis) + W_value (MotionValue_11A / MotionValue_11A_basis)} * E_min_basis (2)

W_ctsとW_valueは足して1になる値をとり、0から1までの値をとるとする。そうすると、感覚量の閾値に反映させる、MotionCTS_11Aと、MotionValue_11Aの割合を調整することができる。基準となる感覚量の閾値の値、E_max_basisとE_min_basisは、Emax_basis>E_min_basisを満たす。また、E_max_basis、E_min_basisは、極端に大きすぎず、かつ小さすぎる値であってはならない。
具体的には、例えば、ヒトが予め決められた条件下で、さりげないと感じる感覚量の値であって、例えば、小さい振幅で振動しているものがヒトの視野に入る位置にあった状態の時、例えば10人中8人が振動していることを感知できる振幅の振動が与える感覚量をE_max_basis、10人中2人が振動していることを感知できる振幅の振動が与える感覚量をE_min_basisとする。
E_max_basis、E_min_basisは、ヒトが感知できない感覚量であってはならないし、だれしもが、確実に沢山の量を感知できる感覚量であってもならない。誰もが気づく大きな振幅で振動しては、さりげない状態ではないということである。
E_max_basis、E_min_basisの値を基準にして算出するE_maxとE_minの値も同様である。上記式は、MotionCTS_11Aと、MotionValue_11Aの値を重み付けし、加算した値を感覚量の閾値に反映させた例だが、加算のみならず、乗算でもよい。
このほかの関係式を用いて感覚量の閾値を算出してもよい。第1拠点11Aの拠点状況情報から感覚量の範囲を算出する処理を行うステップS303の出力は、上記処理にて算出され、更新された感覚量の閾値の最大値E_maxと感覚量の閾値の最小値E_minの値である。具体的には、第1拠点11Aの拠点状況情報を表すデータ、例えば第1拠点11Aの第1参加者13と第3参加者14がテレビ会議に白熱している度合いが高ければ、E_maxとE_minの値は共に増加の傾向にある。具体的には、第1拠点11Aの拠点状況情報を表すデータ、例えば第1拠点11Aの第1参加者13と第3参加者14がテレビ会議に白熱している度合いが低ければ、E_maxとE_minの値は小さく設定される。
It is assumed that W_cts and W_value take a value that becomes 1 and take a value from 0 to 1. If it does so, the ratio of MotionCTS_11A and MotionValue_11A reflected on the threshold value of sensory amount can be adjusted. The threshold values of the reference sensory amount, E_max_basis and E_min_basis, satisfy Emax_basis> E_min_basis. Also, E_max_basis and E_min_basis must not be too large and too small.
Specifically, for example, a value of a sensory amount that a human feels casually under a predetermined condition, for example, a state in which something that vibrates with a small amplitude is in a position that enters the human visual field For example, E_max_basis represents the amount of sensation given by vibration of amplitude that can sense that 8 out of 10 people vibrate, and the amount of sensation given by vibration of amplitude that can sense that 2 out of 10 people vibrate. E_min_basis.
E_max_basis and E_min_basis must not be a sensory amount that cannot be sensed by humans, and cannot be a sensory amount by which anyone can reliably sense a large amount. When it vibrates with a large amplitude that everyone notices, it is not in a casual state.
The same applies to the values of E_max and E_min calculated based on the values of E_max_basis and E_min_basis. The above formula is an example in which the values of MotionCTS_11A and MotionValue_11A are weighted and the added value is reflected in the threshold value of the sensory amount.
The threshold value of the sensory amount may be calculated using another relational expression. The output of step S303 for performing the process of calculating the range of the sensory amount from the site status information of the first site 11A is calculated by the above process, and the updated maximum value E_max of the sensory amount threshold and the minimum of the sensory amount threshold are calculated. This is the value E_min. Specifically, if data indicating the site status information of the first base 11A, for example, the first participant 13 and the third participant 14 of the first base 11A are incandescent in the video conference, E_max and E_min Both values tend to increase. Specifically, if the degree of the data indicating the base state information of the first base 11A, for example, the first participant 13 and the third participant 14 of the first base 11A is incandescent in the video conference is low, E_max and E_min The value of is set small.

次いで、第2拠点11Bの拠点状況情報から感覚量Eを算出する処理を行うステップS304の入力は、具体的には、例えば、ステップS302の出力であるE_maxとE_minの値と、予め定められた基準となる第2拠点11Bの拠点状況情報の最大値Motion_max_basisと予め定められた基準となる第2拠点11Bの拠点状況情報の最小値Motion_min_basisと、第2拠点11Bの拠点状況情報を表すMotionCTS_11BとMotionValue_11Bと、重み付けの値W_ctsとW_valueである。第2拠点11Bの拠点状況情報から感覚量Eを算出する処理を行うステップS304の処理は、上記入力データから、第1拠点11Aにいる参加者に提示する感覚量Eを算出するステップである。例えば、感覚量Eを下記の式にて求める処理である。   Next, the input of step S304 for performing the process of calculating the sensation amount E from the site status information of the second site 11B is specifically, for example, the values of E_max and E_min that are the outputs of step S302, and predetermined values. The maximum value Motion_max_basis of the base status information of the second base 11B serving as a reference, the minimum value Motion_min_basis of the base status information of the second base 11B serving as a predetermined reference, and MotionCTS_11B and MotionValue_11B representing the base status information of the second base 11B And weight values W_cts and W_value. The process of step S304, which performs the process of calculating the sensory amount E from the site status information of the second site 11B, is a step of calculating the sensory amount E to be presented to the participant at the first site 11A from the input data. For example, it is a process for obtaining the sensory amount E by the following equation.

E={(W_value×MotionValue_11B+W_cts×MotionCTS_11B)÷(Motion_max_basis+Motion_min_basis)}×(E_max+E_min) (3)
上記式(3)に示す(W_value×MotionValue_11B+W_cts×MotionCTS_11B)の部分では、第2拠点11Bの拠点状況情報、つまり第2参加者15が自分の存在に気づいて欲しいと思っている度合いについて、回数と量を重み付け数Wで重み付けし、第2拠点11Bの拠点状況情報を数値化する。
E = {(W_value × MotionValue — 11B + W_cts × MotionCTS — 11B) ÷ (Motion_max_basis + Motion_min_basis)} × (E_max + E_min) (3)
In the part of (W_value × MotionValue_11B + W_cts × MotionCTS_11B) shown in the above equation (3), the number of times and the number of times the degree of desire that the second participant 15 wants to be aware of the presence of the second base 11B The amount is weighted by the weighting number W, and the base state information of the second base 11B is digitized.

上記式(3)に示す÷(Motion_max_basis+Motion_min_basis)}の部分では、予め定められた基準となる第2拠点11Bの拠点状況情報の最大値Motion_max_basisと予め定められた基準となる第2拠点11Bの拠点状況情報の最小値Motion_min_basisとの値と比較して、上記第2拠点11Bの拠点状況情報を数値化した値がどの程度かを算出する。
上記式(3)に示す×(E_max+E_min)の部分では、ステップS303にて更新された感覚量の範囲の中で、上記第2拠点11Bの拠点状況情報を数値化した値がどの程度かを算出した値がどの程度かを算出している。
ただし、Motion_max_basis>Motion_min_basisを満たす必要がある。簡単にいうと、予め定められたMotion_basisの範囲からみて、第2拠点11Bの拠点状況情報がどの程度かを算出し、その程度を感覚量の範囲へ変換する処理を行うステップである。上記の式はあくまで例であり、このほかの関係式を用いてもよい。第2拠点11Bの拠点状況情報から感覚量Eを算出する処理を行うステップS304の出力は、感覚量Eの値である。
In the part of ÷ (Motion_max_basis + Motion_min_basis)} shown in the above equation (3), the maximum value Motion_max_basis of the base state information of the second base 11B serving as the predetermined reference and the base state of the second base 11B serving as the predetermined reference Compared with the value of the information minimum value Motion_min_basis, the degree of the value obtained by quantifying the base state information of the second base 11B is calculated.
In the part of x (E_max + E_min) shown in the above equation (3), it is calculated how much the numerical value of the base state information of the second base 11B is within the range of the sensory amount updated in step S303. The degree of the calculated value is calculated.
However, it is necessary to satisfy Motion_max_basis> Motion_min_basis. In short, it is a step of performing a process of calculating how much the base state information of the second base 11B is calculated from the range of the predetermined Motion_basis and converting the degree into the range of the sensory amount. The above formula is merely an example, and other relational expressions may be used. The output of step S304 for performing the process of calculating the sensory amount E from the base state information of the second base 11B is the value of the sensory amount E.

刺激量Rの算出を行うステップS305の入力は、例えば、ステップS304で算出された感覚量Eの値と、予め定められた定数Kの値である。刺激量Rの算出を行うステップS305の処理は、例えば、人間の感覚量と与えられる刺激量との関係を定義したフェフィナーの法則を用いると、刺激量R=10^(感覚量E/予め定められた定数K)により、感覚量Rを算出する処理である。
上記式(3)は、第2拠点11Bの第2参加者15が第1拠点11Aにいる参加者に向けて提示したい感覚量Eから刺激量Rを算出する式である。第2拠点11Bの参加者が自分の存在を提示したいと思っている度合いが大きければ感覚量Eの値がステップS304にて大きく算出されるため、ステップS305で算出される刺激量Rも大きくなる。また、第1拠点11Aで第2参加者15を忘れてテレビ会議が白熱している場合は、ステップS303で算出される感覚量の範囲E_maxとE_minの値が大きく算出されるため、ステップS304で算出される感覚量Eも大きくなり、ステップS305で算出される刺激量Rも大きくなる。刺激量Rが小さくなる場合はその逆である。上記は、フェフィナーの法則をもちいて感覚量Eから刺激量Rを算出したれいだが、そのほかの変換の式を用いてもよい。刺激量Rの算出を行うステップS305の出力は、刺激量Rの値である。
なお、本実施形態によれば、第2拠点11Bの第2参加者15が第1拠点11Aにいる参加者に向けて提示したい感覚量Eから刺激量Rを算出しているが、本発明はこれに限定されるものではない。すなわち、第2拠点状況情報、第1参加者の感覚量の範囲に基づいて、第2拠点11Bにいる第2参加者の言動に現れる会議への参加意思の程度を表す意思量を意思量算出部55bにより算出し、刺激出力部57により意思量に応じた刺激を第1参加者が知覚できるように出力してもよい。これにより、第2拠点状況情報、第1参加者の感覚量の範囲に基づいて、遠隔地の参加者の言動に現れる会議への参加意思の程度を表す意思量を提示する度合いの調整を行うことができる。
The input in step S305 for calculating the stimulus amount R is, for example, the value of the sensory amount E calculated in step S304 and the value of a predetermined constant K. The process of step S305 for calculating the stimulus amount R is, for example, using the Feffiner's law that defines the relationship between the human sense amount and the given stimulus amount, and the stimulus amount R = 10 ^ (sensory amount E / predetermined The sensory amount R is calculated based on the constant K).
The above equation (3) is an equation for calculating the stimulation amount R from the sensory amount E that the second participant 15 of the second base 11B wants to present to the participant at the first base 11A. If the degree of desire that the participant at the second base 11B wants to present his / her presence is large, the value of the sensory amount E is greatly calculated in step S304, and therefore the stimulus amount R calculated in step S305 is also large. . In addition, when the second conference 15 is forgotten at the first base 11A and the video conference is incandescent, the sensory amount ranges E_max and E_min calculated in step S303 are calculated to be large, so in step S304. The sensory amount E calculated is also increased, and the stimulus amount R calculated in step S305 is also increased. The reverse is true when the stimulus amount R is small. In the above description, the stimulus amount R is calculated from the sensory amount E using Feffiner's law, but other conversion formulas may be used. The output of step S305 for calculating the stimulus amount R is the value of the stimulus amount R.
According to the present embodiment, the stimulation amount R is calculated from the sensory amount E that the second participant 15 at the second base 11B wants to present to the participant at the first base 11A. It is not limited to this. That is, based on the second site status information and the range of the amount of sensation of the first participant, the amount of intention representing the degree of intention to participate in the conference that appears in the behavior of the second participant at the second site 11B is calculated. It may be calculated by the unit 55b and output by the stimulus output unit 57 so that the first participant can perceive the stimulus according to the intention amount. This adjusts the degree of presenting the amount of intention representing the degree of willingness to participate in the conference that appears in the speech of the remote participant based on the second site status information and the range of the sensory amount of the first participant. be able to.

次いで、刺激出力部57のための信号変換処理を行うステップS306の入力は、ステップS305の出力である刺激量Rの値である。刺激出力部57のための信号変換処理を行うステップS306の処理は、例えば刺激出力部57が振動モータである場合、刺激量Rを振幅と周波数へ変換する処理である。例えば刺激量Rを振幅へ変換する処理である。例えば、刺激量Rを周波数へ変換する処理である。例えば基準となる振幅A_basisがあり、基準となる刺激量R_basisがあった場合、出力する振幅Aは、以下の式(4)で算出される。
A=A_basis×(R÷R_basis) (4)
上記の例は振幅の例だが、周波数にして当てはめてもよい。また、刺激部がLEDだった場合、LEDに流す電流の量を上記の式と同様に算出し、明るさを調整してもよい。
上記の式(4)はあくまで例であり、他の関係式を用いてもよい。刺激量Rから刺激部への入力値として適切な値へと変換する処理を行えばよい。刺激出力部57のための信号変換処理を行うステップS306の出力は、上記処理にて算出された刺激出力部57へ入力できる信号のデータである。例えば、振幅の値である。例えば周波数の値である。例えば電流の値である。例えば電圧の値である。出力の値は1つであってもよいし、複数であってもよい。例えば、振幅と周波数の値であってもよい。
Next, the input of step S306 that performs signal conversion processing for the stimulus output unit 57 is the value of the stimulus amount R that is the output of step S305. The process of step S306 for performing the signal conversion process for the stimulus output unit 57 is a process of converting the stimulus amount R into an amplitude and a frequency when the stimulus output unit 57 is a vibration motor, for example. For example, it is a process of converting the stimulus amount R into an amplitude. For example, it is a process of converting the stimulus amount R into a frequency. For example, when there is a reference amplitude A_basis and there is a reference stimulus amount R_basis, the output amplitude A is calculated by the following equation (4).
A = A_basis × (R ÷ R_basis) (4)
The above example is an example of amplitude, but may be applied as a frequency. When the stimulating unit is an LED, the brightness may be adjusted by calculating the amount of current flowing through the LED in the same manner as in the above formula.
The above formula (4) is merely an example, and other relational expressions may be used. A process of converting the stimulus amount R into an appropriate value as an input value to the stimulus unit may be performed. The output of step S306 for performing signal conversion processing for the stimulus output unit 57 is data of a signal that can be input to the stimulus output unit 57 calculated in the above processing. For example, the amplitude value. For example, a frequency value. For example, the current value. For example, a voltage value. There may be one output value or a plurality of output values. For example, amplitude and frequency values may be used.

次いで、刺激出力部57への出力処理を行うステップS307の入力は、ステップS306の出力であり、刺激出力部57のための信号変換処理を行ったデータである。例えば、刺激出力部57が振動モータである場合、振幅の値である。刺激出力部57への出力処理を行うステップS307の処理は、上記入力データを刺激出力部57へ入力し、刺激出力を実際に行う処理である。例えば、振動モータに、振幅の値の指令を入力する処理である。刺激出力部57への出力処理を行うステップS307の出力は、刺激出力部57が出力をしていることである。例えば、上記処理にて振動モータに入力された振幅にて振動モータが振動している状態である。上記は、振動モータについて、振幅の値を変化させる様子について具体的に説明したが、LEDなどを用いて光量や色を変化させるために電流値や抵抗値や電圧を変化させてもよい。また、スピーカを用いて音量を変化させるような出力の処理をおこなってもよい。
このように、第1参加者が感知可能な光波信号、音波信号、振動、臭気のうち、少なくとも1つを発生することで、遠隔地の参加者の言動に現れる会議への参加意思の程度を表す意思量を提示することができる。
Next, the input of step S307 for performing output processing to the stimulus output unit 57 is the output of step S306, which is data that has undergone signal conversion processing for the stimulus output unit 57. For example, when the stimulus output unit 57 is a vibration motor, the value is an amplitude value. The process of step S307 for performing the output process to the stimulus output unit 57 is a process for inputting the input data to the stimulus output unit 57 and actually performing the stimulus output. For example, this is a process of inputting an amplitude value command to the vibration motor. The output of step S307 for performing output processing to the stimulus output unit 57 is that the stimulus output unit 57 is outputting. For example, the vibration motor is oscillating with the amplitude input to the vibration motor in the above processing. In the above description, the state of changing the amplitude value of the vibration motor has been specifically described. However, the current value, resistance value, and voltage may be changed in order to change the light amount and color using an LED or the like. Further, output processing may be performed such that the volume is changed using a speaker.
In this way, by generating at least one of the light wave signal, sound wave signal, vibration, and odor that can be sensed by the first participant, the degree of intention to participate in the conference that appears in the speech and behavior of the remote participant is increased. The amount of intention to represent can be presented.

<第7実施形態>
図9は、本発明の第7実施形態に係るコミュニケーション補助システムに用いる、図1に示す第2参加者15を表すアバターロボット17の具体的な例を説明した図である。
17は第2参加者15を表すアバターロボット、17aはアバターロボットの耳に位置する刺激部、17bはアバターロボットの目に位置する刺激部、17cはアバターロボットの口に位置する刺激部、17dはアバターロボットの手に位置する刺激部、17eはアバターロボットの足に位置する刺激部、17fはアバターロボットの内部に位置する刺激部である。
例えば、第2参加者15を表すアバターロボット17は、視覚を刺激する場合、刺激部17a〜17fのいずれか又は一部又はすべてが動いたり、色が変わったり、状態が時間に応じて変化するような刺激部を具備するアバターロボットである。
例えば、第2参加者15を表すアバターロボット17は、聴覚を刺激するとは、刺激部17a〜17fのいずれか又は一部又はすべてから出力される音が時間に応じて変化するような刺激部を具備するアバターロボットである。
例えば、第2参加者15を表すアバターロボット17は、触覚を刺激するとは、刺激部17a〜17fのいずれか又は一部又はすべてが動いたりし、状態が時間に応じて変化し、ロボットに触れると状態の違いを認識することができるような刺激部を具備するアバターロボットである。刺激出力部57は、第1参加者が接触することにより感知可能な振動を発生する。
<Seventh embodiment>
FIG. 9 is a diagram illustrating a specific example of the avatar robot 17 representing the second participant 15 shown in FIG. 1 used in the communication assist system according to the seventh embodiment of the present invention.
17 is an avatar robot representing the second participant 15, 17 a is a stimulating unit located in the avatar robot's ear, 17 b is a stimulating unit located in the eyes of the avatar robot, 17 c is a stimulating unit located in the mouth of the avatar robot, and 17 d is A stimulation unit located in the hand of the avatar robot, 17e is a stimulation unit located on the foot of the avatar robot, and 17f is a stimulation unit located inside the avatar robot.
For example, when the avatar robot 17 representing the second participant 15 stimulates vision, any or a part or all of the stimulation units 17a to 17f move, the color changes, or the state changes according to time. It is an avatar robot provided with such a stimulating unit.
For example, when the avatar robot 17 representing the second participant 15 stimulates hearing, a stimulating unit in which sound output from any one or a part or all of the stimulating units 17a to 17f changes according to time. It is an avatar robot provided.
For example, when the avatar robot 17 representing the second participant 15 stimulates the sense of touch, any or a part or all of the stimulation units 17a to 17f move, the state changes according to time, and the robot is touched. It is an avatar robot having a stimulation unit that can recognize the difference in state. The stimulus output unit 57 generates a vibration that can be sensed when the first participant contacts.

例えば、第2参加者15を表すアバターロボット17は、臭覚を刺激するとは、刺激部17a〜17fのいずれか又は一部又はすべてから時間変化に応じて匂いを発し、臭覚を用いて状態の違いを認識することができるような刺激部を具備するアバターロボットである。刺激出力部57は、第1参加者が嗅取することにより感知可能な臭気を発生する。
例えば、第2参加者15を表すアバターロボット17は、アバターロボットの耳に位置する刺激部17aが、振動モータであるアバターロボットである。
例えば、第2参加者15を表すアバターロボット17は、アバターロボットの目に位置する刺激部17bが、LEDであるアバターロボットである。
例えば、第2参加者15を表すアバターロボット17は、アバターロボットの口に位置する刺激部17cがスピーカであるアバターロボットである。
例えば、第2参加者15を表すアバターロボット17は、アバターロボットの手に位置する刺激部17dが振動モータであるアバターロボットである。
上記の説明はある特定の刺激部に限って説明したものだが、上記の刺激部は、図9に示す刺激部17a〜17fの少なくとも1つでもよい。
このように、第1参加者とロボット部17の間の距離を第1拠点状況情報として用いることで、遠隔地の参加者の言動に現れる会議への参加意思の程度を表す意思量を提示する度合いの調整を行うことができる。
For example, when the avatar robot 17 representing the second participant 15 stimulates an olfaction, the odor is emitted from any or a part or all of the stimulation units 17a to 17f in accordance with a time change, and the difference in state using the olfaction It is an avatar robot provided with a stimulation unit that can recognize the The stimulus output unit 57 generates an odor that can be sensed when the first participant smells it.
For example, the avatar robot 17 representing the second participant 15 is an avatar robot in which the stimulation unit 17a located at the ear of the avatar robot is a vibration motor.
For example, the avatar robot 17 representing the second participant 15 is an avatar robot in which the stimulation unit 17b located in the eyes of the avatar robot is an LED.
For example, the avatar robot 17 representing the second participant 15 is an avatar robot in which the stimulation unit 17c located in the mouth of the avatar robot is a speaker.
For example, the avatar robot 17 representing the second participant 15 is an avatar robot in which the stimulation unit 17d located in the hand of the avatar robot is a vibration motor.
Although the above description is limited to a specific stimulation unit, the stimulation unit may be at least one of the stimulation units 17a to 17f illustrated in FIG.
In this way, by using the distance between the first participant and the robot unit 17 as the first site status information, an intention amount representing the degree of willingness to participate in the conference that appears in the behavior of the remote participant is presented. The degree can be adjusted.

<第8実施形態>
図10〜図13は、本発明の第8実施形態に係るコミュニケーション補助システムに用いる、第1拠点11Aのテレビ会議の白熱度合いを反映した、第1拠点11Aの感覚Eの分布について説明するためのグラフ図である。
図10は、第1拠点11Aの第1参加者13と第3参加者14の感覚Eの分布のさりげない範囲を具体的に説明するためのグラフ図である。
例えば、計測された第1拠点11Aの会議の白熱度合いから、会議参加者毎に感覚Eの分布をもち、さりげないと感じる感覚の範囲E_minからE_maxをもっているとする。
<Eighth Embodiment>
10 to 13 are diagrams for explaining the distribution of the sensation E of the first base 11A reflecting the incandescence of the video conference of the first base 11A used in the communication assist system according to the eighth embodiment of the present invention. FIG.
FIG. 10 is a graph for specifically explaining a casual range of the distribution of the sense E of the first participant 13 and the third participant 14 at the first base 11A.
For example, from the measured incandescence of the conference at the first base 11A, it is assumed that the conference E has a distribution of sensation E for each conference participant, and has a range of sensations E_min to E_max.

図11(a)は、第1拠点11Aの第1参加者13と第3参加者14の感覚Eの分布から第1拠点11Aの感覚Eのさりげない範囲を具体的に説明するためのグラフ図である。
例えば、第1拠点11Aにいる第1参加者13と第3参加者14の2人ともがさりげないと感じる範囲を、第1拠点11Aの感覚Eのさりげない範囲とする。上記は参加者のANDをとった値となっているが、そのほかの方法で複数参加者の感覚Eの分布から第1拠点11Aの感覚Eのさりげない範囲を算出してもよい。下記の式(5)(6)で算出することもできる。
FIG. 11A is a graph for specifically explaining a casual range of the sensation E of the first base 11A from the distribution of the sensation E of the first participant 13 and the third participant 14 of the first base 11A. It is.
For example, a range in which both the first participant 13 and the third participant 14 at the first base 11A feel casual is set as a casual range of the sense E of the first base 11A. Although the above is a value obtained by taking the AND of the participants, the casual range of the sensation E of the first base 11A may be calculated from the distribution of the sensation E of the plurality of participants by other methods. It can also be calculated by the following formulas (5) and (6).

E_max=min[E_max_13、E_max_14] (5)
E_min=max[E_min_13、E_max_14] (6)
E_max = min [E_max_13, E_max_14] (5)
E_min = max [E_min_13, E_max_14] (6)

図11(b)は、第1拠点11Aに沢山の参加がいた場合、参加者毎の感覚Eの分布のさりげないと感じる範囲から、第2参加者が与えたいと思っている感覚Eを算出する方法を説明するためのグラフ図である。
たとえば、第1拠点11Aに沢山参加者がいて、図11(b)のように感覚Eの分布のさりげないと感じる範囲が参加者毎に存在する場合を考える。例えば、第2参加者が自分の存在に気付いて欲しいと思っている度合いがとても高い場合には、すべて参加者がさりげないと思っている感覚Eの値を算出したりする方法が具体例の一つである。
例えば、第2参加者が自分の存在に気付いて欲しいと思っている度合いがとても低い場合には、数人がさりげないと思っており、残りのヒトはE_minより小さい値であるような感覚Eの値を算出したりする方法が具体例の一つである。
FIG. 11 (b) calculates the sensation E that the second participant wants to give from the range where the distribution of the sensation E per participant is casual when there are many participants at the first base 11A. It is a graph for demonstrating the method to do.
For example, let us consider a case where there are many participants at the first base 11A, and there is a range where each participant feels that the distribution of the sensation E is casual as shown in FIG. For example, when the second participant wants to be aware of his / her presence is very high, a specific example is a method of calculating the value of sensation E that the participant thinks is casual. One.
For example, if the second participant wants to be aware of his / her presence is very low, he / she thinks that some people are casual, and the remaining humans have a sense E that is less than E_min. One method is to calculate the value of.

図12(a)は、第1拠点11Aに存在する複数参加者のさりげないと感じる感覚の最大値E_maxの確率密度の具体例を説明するためのグラフ図である。
例えば、第1拠点11Aの感覚Eの範囲の更新は、図12(a)に示すような確率密度分布を用いて更新する方法がある。例えば、第1拠点11Aが盛り上がっている場合には、確率密度が高くなるようなE_maxの値を、第1拠点11Aのさりげないと感じる感覚の最大値E_maxとして採用したりする方法がある。逆に、第1拠点11Aが盛り上がっていない場合には、確率密度が低くなるようなE_maxの値を、第1拠点11Aのさりげないと感じる感覚の最大値E_maxとして採用したりする方法がある。
図12(b)は、第1拠点11Aに存在する複数参加者のさりげないと感じる感覚の最小値E_minの確率密度の具体例を説明した図である。
第1拠点11Aの感覚Eの範囲の更新において、さりげないと感じる感覚の最小値について説明した図である。具体的な方法は(a)と同様である。
FIG. 12A is a graph for explaining a specific example of the probability density of the maximum sensation E_max of a plurality of participants who feels casually in the first base 11A.
For example, the range of the sensation E of the first base 11A can be updated using a probability density distribution as shown in FIG. For example, when the first site 11A is exciting, there is a method of adopting the E_max value that increases the probability density as the maximum value E_max of the sense that the first site 11A feels casual. Conversely, when the first site 11A is not excited, there is a method of adopting the E_max value that reduces the probability density as the maximum value E_max that the first site 11A feels casual.
FIG. 12B is a diagram illustrating a specific example of the probability density of the minimum value E_min of the sensation felt by a plurality of participants present at the first base 11A.
It is the figure explaining the minimum value of the sensation felt casually in the update of the range of the sensation E of the 1st base 11A. The specific method is the same as (a).

図12(c)は、予め定められた第1拠点11Aのさりげないと感じる感覚Eの範囲がE_max_basisとE_min_basisとして定められており、第1拠点11Aのテレビ会議の拠点状況情報に応じて、第1拠点11Aのさりげないと感じる感覚量の範囲E_maxとE_minを更新する具体的な例を説明するためのグラフ図である。
予め定められた第1拠点11Aのさりげないと感じる感覚Eの範囲がE_max_basisとE_min_basisとして定められており、例えば第1拠点11Aのテレビ会議が白熱している場合には、第1拠点11Aのさりげないと感じる感覚量の範囲E_maxとE_minは大きい値へと変換、又は算出される。下記式を用いて算出される。
In FIG. 12 (c), a predetermined range E of the first base 11A that is felt casually is defined as E_max_basis and E_min_basis, and according to the base state information of the video conference of the first base 11A, It is a graph for demonstrating the specific example which updates the range E_max and E_min of the amount of sensations which one base 11A feels casually.
The predetermined range E of the first base 11A that is felt casually is defined as E_max_basis and E_min_basis. For example, when the video conference at the first base 11A is incandescent, the first base 11A is casual. The sensory amount ranges E_max and E_min that are felt to be absent are converted or calculated into large values. It is calculated using the following formula.

E_max=f(MotionValue_11A、MotionCount_11A、E_max_basis) (7)
E_min=f(MotionValue_11A、MotionCount_11A、E_min_basis) (8)
ただしfは予めさだめられた関数である。
E_max = f (MotionValue_11A, MotionCount_11A, E_max_basis) (7)
E_min = f (MotionValue_11A, MotionCount_11A, E_min_basis) (8)
Here, f is a function that has been preliminarily set.

図13は、第2拠点11Bの第2参加者15が自分の存在に気付いて欲しいと思っている度合いを反映し、第1拠点参加者に提示する感覚量Eを算出する具体的な例を説明するためのグラフ図である。
例えば、第2参加者15が自分の存在に気付いて欲しいと思っている度合いは、図13に示す範囲の中で、上記度合いによってその範囲の中で値を調整することで算出する。例えば、自分の存在に強く気付いて欲しいと思っている場合には、E_maxに近い値をとる。自分の存在に気付いて欲しいと思っている度合いが小さい場合にはE_minに近い値をとる。
FIG. 13 is a specific example of calculating the sensory amount E to be presented to the first site participant, reflecting the degree to which the second participant 15 at the second site 11B wants to be aware of his / her presence. It is a graph for demonstrating.
For example, the degree that the second participant 15 wants to be aware of his / her presence is calculated by adjusting the value in the range according to the above degree in the range shown in FIG. For example, if you want to be strongly aware of your presence, take a value close to E_max. When the degree of wanting to be aware of one's presence is small, the value is close to E_min.

上記これまでの実施例すべてについて、以下に記載の内容であってもよい。
例えば、第2拠点11Bにいる参加者15の自分の存在に気づいて欲しい度合いはこれまでの実施例では、第2参加者の動作をもって算出していたが、例えば、動作に現れない思いを脳波などの信号をもって計測し算出してもよい。
また、刺激Rの算出処理は、第2参加者15を表すアバターロボット17と、第1拠点11Aの第1参加者13と第3参加者14との距離、又は第2参加者15を表すアバターロボット17と、第1拠点11Aの第1参加者13との距離、又は、第2参加者15を表すアバターロボット17と、第1拠点11Aの第3参加者14との距離に比例する強さで算出する処理であってもよい。
また、第1拠点11Aの拠点状況情報を計測し、上記算出処理、判定処理を行う際の話者は、複数いてもよい。
このように、第2拠点状況情報、第1参加者の感覚量の分布に基づいて、遠隔地の参加者の言動に現れる会議への参加意思の程度を表す意思量を提示する度合いの調整を行うことができる。
The contents described below may be applied to all the above embodiments.
For example, the degree to which the participant 15 at the second base 11B wants to be aware of his / her own presence has been calculated based on the action of the second participant in the embodiments so far. It may be measured and calculated with a signal such as
In addition, the calculation process of the stimulus R is the distance between the avatar robot 17 representing the second participant 15 and the first participant 13 and the third participant 14 at the first base 11A, or the avatar representing the second participant 15. Strength proportional to the distance between the robot 17 and the first participant 13 at the first base 11A, or the distance between the avatar robot 17 representing the second participant 15 and the third participant 14 at the first base 11A. It may be a process to calculate by.
Further, there may be a plurality of speakers when the site status information of the first site 11A is measured and the calculation process and the determination process are performed.
Thus, based on the second site status information and the distribution of the amount of sensation of the first participant, the degree of presenting the amount of intention representing the degree of intention to participate in the conference that appears in the speech of the remote participant is adjusted. It can be carried out.

<本発明の実施態様例と効果>
<第1態様>
本態様のコミュニケーション補助装置は、第1拠点11Aに配置されたテレビ会議端末10Aおよび第2拠点11Bに配置されたテレビ会議端末10Bとの間で通信ネットワークNを経由したコミュニケーションを補助するコミュニケーション補助装置であって、第1拠点11Aには、推定された第2拠点11Bの状況を表す第2拠点状況情報を受信する無線通信部53と、第1拠点11Aにいる第1参加者13が知覚可能な感覚量の範囲を算出する感覚量範囲算出部55aと、第2拠点状況情報と第1参加者の感覚量の範囲に基づいて、第2拠点11Bにいる第2参加者の意思量を算出する意思量算出部55bと、意思量に応じた刺激を第1参加者が知覚できるように出力する刺激出力部57と、を備えることを特徴とする。
本態様によれば、第2拠点状況情報と第1参加者の感覚量の範囲に基づいて、遠隔地の参加者の言動に現れる会議への参加意思の程度を表す意思量を提示する度合いの調整を行うことができる。すなわち、相手に自分の存在を提示する度合いの調整を行うことができる。
<Examples of Embodiments and Effects of the Present Invention>
<First aspect>
The communication assistance device of this aspect is a communication assistance device that assists communication via the communication network N between the video conference terminal 10A disposed at the first base 11A and the video conference terminal 10B disposed at the second base 11B. In the first base 11A, the wireless communication unit 53 that receives the second base state information representing the estimated state of the second base 11B and the first participant 13 in the first base 11A can perceive. The amount of intention of the second participant at the second base 11B is calculated based on the sensory amount range calculation unit 55a that calculates the range of the sensory amount, the second site status information, and the range of the sensory amount of the first participant. And a stimulus output unit 57 that outputs a stimulus according to the intention amount so that the first participant can perceive the stimulus.
According to this aspect, based on the second site situation information and the range of the first participant's sense amount, the degree of intention indicating the degree of intention to participate in the conference that appears in the speech and behavior of the remote participant Adjustments can be made. That is, it is possible to adjust the degree of presenting one's presence to the other party.

<第2態様>
本態様のコミュニケーション補助装置は、第1拠点11Aの状況を表す第1拠点状況情報を推定する第1拠点状況推定部25を備え、意思量算出部55bは、第1拠点状況情報、第2拠点状況情報および第1参加者の感覚量の範囲に基づいて、第2参加者の意思量を算出することを特徴とする。
本態様によれば、第1拠点状況情報、第2拠点状況情報、第1参加者の感覚量の範囲に基づいて、遠隔地の参加者の言動に現れる会議への参加意思の程度を表す意思量を提示する度合いの調整を行うことができる。すなわち、相手に自分の存在を提示する度合いの調整を行うことができる。
<Second aspect>
The communication assistance device of this aspect includes a first site status estimation unit 25 that estimates first site status information representing the status of the first site 11A, and the intention amount calculation unit 55b includes the first site status information and the second site. The amount of intention of the second participant is calculated based on the situation information and the range of the sense amount of the first participant.
According to this aspect, the intention indicating the degree of willingness to participate in the conference that appears in the behavior of the remote participant based on the first site status information, the second site status information, and the range of the sense amount of the first participant The degree of presenting the amount can be adjusted. That is, it is possible to adjust the degree of presenting one's presence to the other party.

<第3態様>
本態様のコミュニケーション補助装置は、感覚量範囲算出部55aは、第1参加者が知覚可能な感覚量の分布を算出し、参加意思量算出部55bは、第2拠点状況情報、第1参加者の感覚量の分布に基づいて、意思量を算出することを特徴とする。
本態様によれば、第2拠点状況情報、第1参加者の感覚量の分布に基づいて、遠隔地の参加者の言動に現れる会議への参加意思の程度を表す意思量を提示する度合いの調整を行うことができる。すなわち、相手に自分の存在を提示する度合いの調整を行うことができる。
<Third aspect>
In the communication assisting device of this aspect, the sensory amount range calculating unit 55a calculates the distribution of sensory amounts that can be perceived by the first participant, and the participation intention calculating unit 55b includes the second site situation information and the first participant. The intention amount is calculated based on the distribution of the sense amount.
According to this aspect, based on the second site situation information and the distribution of the sense amount of the first participant, the degree of presenting the amount of intention representing the degree of intention to participate in the conference that appears in the speech of the remote participant Adjustments can be made. That is, it is possible to adjust the degree of presenting one's presence to the other party.

<第4態様>
本態様のコミュニケーション補助装置は、第1拠点状況推定部25は、第1拠点11Aの音声信号、及び映像信号を計測する第1音声映像計測手段と、第1拠点11Aの映像信号に基づいて第1特徴的動作情報を抽出する第1特徴的動作抽出手段と、第1拠点11Aの音声信号と映像信号に基づいて発言者情報と当該発言者の対話相手情報を特定する特定手段と、対話相手情報が第2参加者を表すか否かを判定する判定手段と、を備え、第1拠点状況推定部25は、第1特徴的動作情報、発言者情報、及び対話相手情報を第1拠点状況情報として出力することを特徴とする。
本態様によれば、第1特徴的動作情報、発言者情報、及び対話相手情報を第1拠点状況情報として用いることで、遠隔地の参加者の言動に現れる会議への参加意思の程度を表す意思量を提示する度合いの調整を行うことができる。すなわち、相手に自分の存在を提示する度合いの調整を行うことができる。
<4th aspect>
In the communication assisting device of this aspect, the first site situation estimation unit 25 is based on the first audio / video measurement unit that measures the audio signal and the video signal of the first site 11A and the video signal of the first site 11A. A first characteristic action extracting means for extracting one characteristic action information; a specifying means for specifying the speaker information and the conversation partner information of the speaker based on the audio signal and the video signal of the first base 11A; Determination means for determining whether or not the information represents a second participant, and the first site situation estimation unit 25 receives the first characteristic motion information, the speaker information, and the conversation partner information as the first site situation. It is output as information.
According to this aspect, by using the first characteristic operation information, the speaker information, and the conversation partner information as the first site situation information, the degree of intention to participate in the conference that appears in the behavior of the remote participant is expressed. The degree of presenting the will can be adjusted. That is, it is possible to adjust the degree of presenting one's presence to the other party.

<第5態様>
本態様のコミュニケーション補助装置は、刺激出力部57は、刺激を出力するように構成されたロボット部17を備え、第1拠点状況推定部25は、第1参加者とロボット部17の間の距離を計測する測距手段を備え、距離を第1拠点状況情報として推定することを特徴とする。
本態様によれば、第1参加者とロボット部17の間の距離を第1拠点状況情報として用いることで、遠隔地の参加者の言動に現れる会議への参加意思の程度を表す意思量を提示する度合いの調整を行うことができる。すなわち、相手に自分の存在を提示する度合いの調整を行うことができる。
<5th aspect>
In the communication assisting device of this aspect, the stimulus output unit 57 includes the robot unit 17 configured to output a stimulus, and the first site situation estimation unit 25 is a distance between the first participant and the robot unit 17. A distance measuring means for measuring the distance, and the distance is estimated as the first site status information.
According to this aspect, by using the distance between the first participant and the robot unit 17 as the first site situation information, the will amount representing the degree of intention to participate in the conference that appears in the speech and behavior of the remote participant. The degree of presentation can be adjusted. That is, it is possible to adjust the degree of presenting one's presence to the other party.

<第6態様>
本態様のコミュニケーション補助装置は、刺激出力部57は、第1参加者が目視することにより感知可能な光波信号を発生する光波発生手段、第1参加者が聴取することにより感知可能な音波信号を発生する音波発生手段、第1参加者が接触することにより感知可能な振動を発生する振動発生手段、第1参加者が嗅取することにより感知可能な臭気を発生する臭気発生手段のうち、少なくとも1つであることを特徴とする。
本態様によれば、第1参加者が感知可能な光波信号、音波信号、振動、臭気のうち、少なくとも1つを発生することで、遠隔地の参加者の言動に現れる会議への参加意思の程度を表す意思量を提示することができる。すなわち、相手に自分の存在を提示する度合いの調整を行うことができる。
<Sixth aspect>
In the communication assisting device of this aspect, the stimulus output unit 57 generates a light wave signal that can be sensed by visual observation by the first participant, and a sound wave signal that can be sensed by listening to the first participant. At least of a sound wave generating means for generating, a vibration generating means for generating a perceivable vibration when the first participant contacts, and an odor generating means for generating a perceptible odor when the first participant sniffs It is characterized by being one.
According to this aspect, by generating at least one of a light wave signal, a sound wave signal, vibration, and odor that can be sensed by the first participant, the intention of participating in the conference that appears in the speech and behavior of the remote participant An intention amount representing the degree can be presented. That is, it is possible to adjust the degree of presenting one's presence to the other party.

<第7態様>
本態様のコミュニケーション補助装置は、第2拠点状況推定部45は、第2拠点11Bの状況として音声信号、及び映像信号を計測する第2音声映像計測手段と、所定時間内における第2拠点11Bの音声信号が所定音量以下である場合に、第2拠点11Bの映像信号に基づいて第2特徴的動作情報を抽出する第2特徴的動作抽出手段と、第2特徴的動作情報を第2拠点状況情報として第1拠点11A側に送信する送信手段と、を備えることを特徴とする。
本態様によれば、所定時間内における第2拠点11Bの音声信号が所定音量以下である場合に、第2拠点11Bの映像信号に基づいて第2特徴的動作情報を抽出するので、遠隔地の参加者の言動に現れる会議への参加意思の程度を表す意思量を算出することができる。
<Seventh aspect>
In the communication assistance device of this aspect, the second site situation estimation unit 45 includes a second audio / video measurement unit that measures an audio signal and a video signal as the status of the second site 11B, and the second site 11B within a predetermined time. When the audio signal is less than or equal to a predetermined volume, the second characteristic action extracting means for extracting the second characteristic action information based on the video signal of the second place 11B, and the second characteristic action information as the second condition Transmission means for transmitting information to the first base 11A side.
According to this aspect, the second characteristic operation information is extracted based on the video signal of the second base 11B when the audio signal of the second base 11B within a predetermined time is below the predetermined volume. It is possible to calculate the amount of intention representing the degree of intention to participate in the conference that appears in the behavior of the participant.

<第8態様>
本態様のコミュニケーション補助システムは、第1乃至6態様の何れか1つに記載のコミュニケーション補助装置を刺激量算出出力ユニット50とし、第7態様に記載のコミュニケーション補助装置を第2拠点状況推定ユニット40として備えることを特徴とする。
本態様によれば、刺激量算出出力ユニット50と、第2拠点状況推定ユニット40とを用いてコミュニケーション補助システムを構成することができる。
<Eighth aspect>
In the communication assistance system according to this aspect, the communication assistance apparatus according to any one of the first to sixth aspects is used as the stimulus amount calculation output unit 50, and the communication assistance apparatus according to the seventh aspect is the second site situation estimation unit 40. It is characterized by providing as.
According to this aspect, a communication assistance system can be configured using the stimulus amount calculation output unit 50 and the second site situation estimation unit 40.

<第9態様>
本態様のコミュニケーション補助方法は、第1拠点11Aに配置された第1会議端末10Aおよび第2拠点11Bに配置された第2会議端末10Bの間で通信ネットワークNを経由したコミュニケーションを補助するコミュニケーション補助方法であって、第1拠点11Aには、推定された第2拠点11Bの状況を表す第2拠点状況情報を受信する受信ステップS200と、第1拠点11Aにいる第1参加者13が知覚可能な感覚量の範囲を算出する感覚量範囲算出ステップS300と、第2拠点状況情報と第1参加者13の感覚量の範囲に基づいて、第2拠点11Bにいる第2参加者15の意思量を算出する意思量算出ステップS300と、意思量に応じた刺激を第1参加者13が知覚できるように出力する刺激出力ステップS400と、を備えることを特徴とする。
本態様によれば、第2拠点状況情報、第1参加者の感覚量の範囲に基づいて、遠隔地の参加者の言動に現れる会議への参加意思の程度を表す意思量を提示する度合いの調整を行うことができる。すなわち、相手に自分の存在を提示する度合いの調整を行うことができる。
<Ninth aspect>
The communication assistance method of this aspect is a communication assistance that assists communication via the communication network N between the first conference terminal 10A arranged at the first base 11A and the second conference terminal 10B arranged at the second base 11B. In this method, the first base 11A can perceive the receiving step S200 for receiving the second base state information indicating the estimated state of the second base 11B and the first participant 13 in the first base 11A. The amount of intention of the second participant 15 at the second base 11B based on the sensory amount range calculating step S300 for calculating the range of the sensory amount, the second site status information and the range of the sensory amount of the first participant 13 An intention amount calculating step S300 for calculating the stimulus, a stimulus output step S400 for outputting the stimulus according to the intention amount so that the first participant 13 can perceive, Characterized in that it comprises.
According to this aspect, based on the second site status information and the range of the first participant's sense amount, the degree of presenting the intention amount indicating the degree of intention to participate in the conference that appears in the speech and behavior of the remote participant Adjustments can be made. That is, it is possible to adjust the degree of presenting one's presence to the other party.

<第10態様>
本態様のプログラムは、第9態様の各ステップをプロセッサに実行させることを特徴とする。
本態様によれば、各ステップをCPUに実行させることができるので、遠隔地の参加者の言動に現れる会議への参加意思の程度を表す意思量を提示する度合いの調整を行うことができる。
<10th aspect>
The program according to this aspect is characterized by causing a processor to execute each step according to the ninth aspect.
According to this aspect, since each step can be executed by the CPU, it is possible to adjust the degree of presenting the amount of intention representing the degree of intention to participate in the conference that appears in the speech and behavior of the remote participants.

4…撮像装置、5…マイク、6…スピーカ、7…ディスプレイ、8…処理装置、10…テレビ会議端末、11A…第1拠点、11B…第2拠点、13…第1参加者、14…第3参加者、15…第2参加者、17…アバターロボット、20…第1拠点状況計測推定ユニット、21…第1拠点状況計測部、23…第1拠点状況取込部、25…第1拠点状況推定部、27…無線通信部、30…中継ユニット、40…第2拠点状況計測推定ユニット、41…第2拠点状況計測部、43…第2拠点状況取込部、45…第2拠点状況推定部、50…刺激量算出出力ユニット、55…刺激量算出部、55a…感覚量範囲算出部、55b…意思量算出部、55c…刺激量算出部、57…刺激出力部、N…通信ネットワーク   DESCRIPTION OF SYMBOLS 4 ... Imaging device, 5 ... Microphone, 6 ... Speaker, 7 ... Display, 8 ... Processing device, 10 ... Video conference terminal, 11A ... First base, 11B ... Second base, 13 ... First participant, 14 ... First 3 participants, 15 ... second participants, 17 ... avatar robot, 20 ... first site situation measurement estimation unit, 21 ... first site situation measurement unit, 23 ... first site situation capture unit, 25 ... first site Situation estimation unit, 27 ... wireless communication unit, 30 ... relay unit, 40 ... second site status measurement estimation unit, 41 ... second site status measurement unit, 43 ... second site status capture unit, 45 ... second site status Estimator 50 ... Stimulus amount calculation output unit 55 ... Stimulus amount calculation unit 55a ... Sense amount range calculation unit 55b ... Intention amount calculation unit 55c ... Stimulus amount calculation unit 57 ... Stimulus output unit N ... Communication network

特許第5211001号Patent No. 521101

http://WWW.oki.com/jp/otr/2008/n213/pdf/213_r06.pdfhttp: // WWW. oki. com / jp / otr / 2008 / n213 / pdf / 213_r06. pdf

Claims (10)

第1拠点に配置された第1会議端末および第2拠点に配置された第2会議端末の間でネットワークを経由したコミュニケーションを補助するコミュニケーション補助装置であって、
前記第1拠点には、
推定された前記第2拠点の状況を表す第2拠点状況情報を受信する受信手段と、
前記第1拠点にいる第1参加者が知覚可能な感覚量の範囲を算出する感覚量範囲算出手段と、
前記第2拠点状況情報と前記第1参加者の感覚量の範囲に基づいて、前記第2拠点にいる第2参加者の意思量を算出する意思量算出手段と、
前記意思量に応じた刺激を前記第1参加者が知覚できるように出力する刺激出力手段と、を備えることを特徴とするコミュニケーション補助装置。
A communication assistance device for assisting communication via a network between a first conference terminal arranged at a first site and a second conference terminal arranged at a second site,
In the first base,
Receiving means for receiving second site status information representing the estimated status of the second site;
A sensory amount range calculating means for calculating a range of a sensory amount perceivable by the first participant at the first base;
An intention amount calculating means for calculating an intention amount of the second participant at the second base based on the second base situation information and the range of the sensory amount of the first participant;
And a stimulus output means for outputting a stimulus according to the amount of intention so that the first participant can perceive the communication assist device.
前記第1拠点の状況を表す第1拠点状況情報を推定する第1推定手段を備え、
前記意思量算出手段は、
前記第1拠点状況情報、前記第2拠点状況情報および前記第1参加者の感覚量の範囲に基づいて、前記第2参加者の意思量を算出することを特徴とする請求項1記載のコミュニケーション補助装置。
First estimation means for estimating first site status information representing the status of the first site,
The intention amount calculating means includes:
2. The communication according to claim 1, wherein the amount of intention of the second participant is calculated based on the first location status information, the second location status information, and the range of the sensory amount of the first participant. Auxiliary device.
前記感覚量範囲算出手段は、前記第1参加者が知覚可能な感覚量の分布を算出し、
前記意思量算出手段は、前記第2拠点状況情報、前記第1参加者の感覚量の分布に基づいて、前記意思量を算出することを特徴とする請求項1記載のコミュニケーション補助装置。
The sensory amount range calculating means calculates a distribution of sensory amounts perceivable by the first participant,
The communication assistance device according to claim 1, wherein the intention amount calculating unit calculates the intention amount based on the second site situation information and a distribution of a sense amount of the first participant.
前記第1推定手段は、
前記第1拠点の音声信号、及び映像信号を計測する第1音声映像計測手段と、
前記第1拠点の映像信号に基づいて第1特徴的動作情報を抽出する第1特徴的動作抽出手段と、
前記第1拠点の音声信号と映像信号に基づいて発言者情報と当該発言者の対話相手情報を特定する特定手段と、
前記対話相手情報が前記第2参加者を表すか否かを判定する判定手段と、を備え、
前記第1推定手段は、
前記第1特徴的動作情報、前記発言者情報、及び前記対話相手情報を前記第1拠点状況情報として出力することを特徴とする請求項1記載のコミュニケーション補助装置。
The first estimating means includes
First audio and video measurement means for measuring the audio signal and video signal of the first base;
First characteristic action extracting means for extracting first characteristic action information based on the video signal of the first base;
Identifying means for identifying speaker information and conversation partner information of the speaker based on the audio signal and video signal of the first site;
Determination means for determining whether or not the conversation partner information represents the second participant,
The first estimating means includes
The communication assisting apparatus according to claim 1, wherein the first characteristic operation information, the speaker information, and the conversation partner information are output as the first site status information.
前記刺激出力手段は、
前記刺激を出力するように構成されたロボット部を備え、
前記第1推定手段は、
前記第1参加者と前記ロボット部の間の距離を計測する測距手段を備え、
前記距離を前記第1拠点状況情報として推定することを特徴とする請求項1記載のコミュニケーション補助装置。
The stimulus output means includes
A robot unit configured to output the stimulus,
The first estimating means includes
Ranging means for measuring the distance between the first participant and the robot unit,
The communication assisting apparatus according to claim 1, wherein the distance is estimated as the first site status information.
前記刺激出力手段は、
前記第1参加者が目視することにより感知可能な光波信号を発生する光波発生手段、
前記第1参加者が聴取することにより感知可能な音波信号を発生する音波発生手段、
前記第1参加者が接触することにより感知可能な振動を発生する振動発生手段、
前記第1参加者が嗅取することにより感知可能な臭気を発生する臭気発生手段のうち、少なくとも1つであることを特徴とする請求項1又は5項に記載のコミュニケーション補助装置。
The stimulus output means includes
A light wave generating means for generating a light wave signal that can be sensed by visual observation of the first participant;
Sound wave generating means for generating a sound wave signal that can be sensed by listening to the first participant
Vibration generating means for generating a perceptible vibration when the first participant contacts;
The communication assisting device according to claim 1, wherein the communication assisting device is at least one of odor generating means for generating a odor that can be sensed by smelling the first participant.
前記第2推定手段は、
前記第2拠点の状況として音声信号、及び映像信号を計測する第2音声映像計測手段と、
所定時間内における前記第2拠点の音声信号が所定音量以下である場合に、前記第2拠点の映像信号に基づいて第2特徴的動作情報を抽出する第2特徴的動作抽出手段と、
前記第2特徴的動作情報を前記第2拠点状況情報として前記第1拠点側に送信する送信手段と、を備えることを特徴とする請求項1記載のコミュニケーション補助装置。
The second estimating means includes
A second audio / video measuring means for measuring an audio signal and a video signal as the status of the second base;
Second characteristic motion extraction means for extracting second characteristic motion information based on the video signal of the second site when the audio signal of the second site within a predetermined time is below a predetermined volume;
The communication auxiliary device according to claim 1, further comprising: a transmission unit configured to transmit the second characteristic operation information to the first site as the second site status information.
請求項1乃至6の何れか1つに記載のコミュニケーション補助装置を第1ユニットとし、
請求項7記載のコミュニケーション補助装置を第2ユニットとして備えることを特徴とするコミュニケーション補助システム。
The communication auxiliary device according to any one of claims 1 to 6 is a first unit,
A communication support system comprising the communication support device according to claim 7 as a second unit.
第1拠点に配置された第1会議端末および第2拠点に配置された第2会議端末の間でネットワークを経由したコミュニケーションを補助するコミュニケーション補助方法であって、
前記第1拠点には、
推定された前記第2拠点の状況を表す第2拠点状況情報を受信する受信ステップと、
前記第1拠点にいる第1参加者が知覚可能な感覚量の範囲を算出する感覚量範囲算出ステップと、
前記第2拠点状況情報と前記第1参加者の感覚量の範囲に基づいて、前記第2拠点にいる第2参加者の意思量を算出する意思量算出ステップと、
前記意思量に応じた刺激を前記第1参加者が知覚できるように出力する刺激出力ステップと、を備えることを特徴とするコミュニケーション補助方法。
A communication assistance method for assisting communication via a network between a first conference terminal arranged at a first site and a second conference terminal arranged at a second site,
In the first base,
A receiving step of receiving second site status information representing the estimated status of the second site;
A sensory amount range calculating step of calculating a range of a sensory amount perceivable by the first participant at the first base;
An intention amount calculating step for calculating an intention amount of the second participant at the second base based on the second base situation information and the range of the sensory amount of the first participant;
And a stimulus output step of outputting a stimulus according to the amount of intention so that the first participant can perceive.
請求項9記載の各ステップをプロセッサに実行させることを特徴とするプログラム。   A program for causing a processor to execute each step according to claim 9.
JP2014101551A 2014-05-15 2014-05-15 Communication aid device, communication aid system, communication aid method and program Active JP6543891B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014101551A JP6543891B2 (en) 2014-05-15 2014-05-15 Communication aid device, communication aid system, communication aid method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014101551A JP6543891B2 (en) 2014-05-15 2014-05-15 Communication aid device, communication aid system, communication aid method and program

Publications (2)

Publication Number Publication Date
JP2015220534A true JP2015220534A (en) 2015-12-07
JP6543891B2 JP6543891B2 (en) 2019-07-17

Family

ID=54779616

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014101551A Active JP6543891B2 (en) 2014-05-15 2014-05-15 Communication aid device, communication aid system, communication aid method and program

Country Status (1)

Country Link
JP (1) JP6543891B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016140935A (en) * 2015-01-30 2016-08-08 Kddi株式会社 Robot control apparatus, robot control system, and robot control program
WO2021229692A1 (en) * 2020-05-12 2021-11-18 富士通株式会社 Avatar control program, avatar control method and information processing device
WO2024075707A1 (en) * 2022-10-07 2024-04-11 京セラ株式会社 System, electronic device, method for controlling system, and program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050110867A1 (en) * 2003-11-26 2005-05-26 Karsten Schulz Video conferencing system with physical cues

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050110867A1 (en) * 2003-11-26 2005-05-26 Karsten Schulz Video conferencing system with physical cues

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016140935A (en) * 2015-01-30 2016-08-08 Kddi株式会社 Robot control apparatus, robot control system, and robot control program
WO2021229692A1 (en) * 2020-05-12 2021-11-18 富士通株式会社 Avatar control program, avatar control method and information processing device
JP7371770B2 (en) 2020-05-12 2023-10-31 富士通株式会社 Avatar control program, avatar control method, and information processing device
WO2024075707A1 (en) * 2022-10-07 2024-04-11 京セラ株式会社 System, electronic device, method for controlling system, and program

Also Published As

Publication number Publication date
JP6543891B2 (en) 2019-07-17

Similar Documents

Publication Publication Date Title
KR102658445B1 (en) Voice affect modification
US11341148B2 (en) Information processing system and information processing method to specify persons with good affinity toward each other
US11948241B2 (en) Robot and method for operating same
US20180213339A1 (en) Adapting hearing aids to different environments
US20220210583A1 (en) Detecting user&#39;s eye movement using sensors in hearing instruments
JP2012059107A (en) Emotion estimation device, emotion estimation method and program
JP2019062490A (en) Control apparatus, control method, program and control system
JP5211001B2 (en) Conference communication system, conference communication method and program
JP6543891B2 (en) Communication aid device, communication aid system, communication aid method and program
JP7359437B2 (en) Information processing device, program, and method
JP2016189121A (en) Information processing device, information processing method, and program
JP2018186326A (en) Robot apparatus and program
JP2014149571A (en) Content search device
JP6550951B2 (en) Terminal, video conference system, and program
US10873816B2 (en) Providing feedback of an own voice loudness of a user of a hearing device
JP2021033676A (en) Information processing apparatus and program
US20190173683A1 (en) Information processing apparatus and information processing system
WO2018088210A1 (en) Information processing device and method, and program
EP4273669A1 (en) Monitoring of facial characteristics
WO2020213292A1 (en) Information processing device, information processing method, and program
CN113438303B (en) Remote auxiliary work system and method, electronic equipment and storage medium
JP6079535B2 (en) Communication terminal, communication terminal output control method, communication terminal output control program
KR102425941B1 (en) Helper system using helper robot
US11438450B2 (en) Information transmission apparatus and information transmission method
WO2023165844A1 (en) Circuitry and method for visual speech processing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190603

R151 Written notification of patent or utility model registration

Ref document number: 6543891

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151