JP6543891B2 - Communication aid device, communication aid system, communication aid method and program - Google Patents

Communication aid device, communication aid system, communication aid method and program Download PDF

Info

Publication number
JP6543891B2
JP6543891B2 JP2014101551A JP2014101551A JP6543891B2 JP 6543891 B2 JP6543891 B2 JP 6543891B2 JP 2014101551 A JP2014101551 A JP 2014101551A JP 2014101551 A JP2014101551 A JP 2014101551A JP 6543891 B2 JP6543891 B2 JP 6543891B2
Authority
JP
Japan
Prior art keywords
base
participant
amount
information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014101551A
Other languages
Japanese (ja)
Other versions
JP2015220534A (en
Inventor
真弓 松原
真弓 松原
正豪 原島
正豪 原島
余平 哲也
哲也 余平
雄也 遠藤
雄也 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014101551A priority Critical patent/JP6543891B2/en
Publication of JP2015220534A publication Critical patent/JP2015220534A/en
Application granted granted Critical
Publication of JP6543891B2 publication Critical patent/JP6543891B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、通信ネットワークを介して、遠隔地間でのコミュニケーションを補助するのに好適なコミュニケーション補助装置、コミュニケーション補助システム、コミュニケーション補助方法及びプログラムに関する。   The present invention relates to a communication assistance device, a communication assistance system, a communication assistance method, and a program suitable for assisting communication between remote places via a communication network.

近年、通信ネットワーク技術が向上し、遠隔地とのコミュニケーションが手軽に行えるようになっている。例えば、遠隔地間で行われるテレビ会議では、音声と映像を送受信することにより、拠点を移動せずに会議を実施することができるため、空間的制約も少なく需要も高まっており、既に多くの場面で活用されている。
また、携帯電話のメールやチャットなど、文字を送受信することで、遠隔地間で手軽にコミュニケーションを行うことが可能となっている。
しかし、音声や映像ならびに文字を用いた遠隔コミュニケーションにおいては、参加者が実際に1つの空間を共有していない。
例えば、テレビ会議では、一つの拠点内でテレビ会議が白熱すると、異なる拠点にいる参加者の存在を忘れてしまう場合があり、一つの拠点内で会議が盛り上がってしまうといった問題が発生し易い。
例えば、テレビ会議では、一つの拠点で異なる拠点の様子を映像としてモニタに表示するが、映像には限りがあるので、充分に目視確認が可能な映像情報(非言語情報)の伝達ができていないため、このような問題が起こり易い。
In recent years, communication network technology has been improved, and communication with remote places can be easily performed. For example, in a video conference held between remote locations, by transmitting and receiving audio and video, it is possible to conduct a conference without moving the base, so there is less space restriction and demand is increasing. It is used in the scene.
In addition, by sending and receiving characters such as e-mails and chats of mobile phones, it is possible to easily communicate between remote locations.
However, in remote communication using voice, video, and text, participants do not actually share one space.
For example, in a video conference, if the video conference heats up in one base, the presence of participants in different bases may be forgotten, and a problem that the conference is heated up in one base tends to occur.
For example, in a video conference, the situation of different sites is displayed on the monitor as a video at one site, but since the video is limited, it is possible to transmit video information (non-verbal information) that allows sufficient visual confirmation. Because there is no such problem is likely to occur.

特許文献1には、映像に非言語情報を付加して会議を行う一例として、参加者が発言者に対して同調の度合いを表す情報に基づいて、次に発言しようとしている参加者の候補が選択されて各参加者に提示させる。
また、非特許文献1では、移動機能とカメラによる映像撮影機能を有するロボットによって、遠隔地にいる参加者がロボットを操縦し、自分(参加者)がどこを見ているのかを異なる拠点の参加者に提示させている。さらに見られているという意識を異なる拠点の参加者に持たせることで存在感を表現させている。
In Patent Document 1, as an example of adding a non-linguistic information to a video and holding a conference, candidates of a participant who is going to speak next based on information indicating the degree of enthusiasm for the speaker are It is selected and presented to each participant.
Also, in Non-Patent Document 1, a participant having a remote location maneuvers the robot by a robot having a moving function and an image capturing function by a camera, and participation of different bases from where one's (participant) sees To be presented to Furthermore, the presence is expressed by giving the participant of the different bases the awareness that they are being seen.

特許文献1は、参加者が発言しようと試みた場合に対してのみ有効である。一方、参加者が発言するまでではないが、自分の存在を異なる拠点の参加者に気にして欲しい場合には無効である。つまり、自分が異なる拠点の参加者に提示したい自分の存在を表す度合いを調整できないという問題があった。
さらに、テレビ会議で資料のみをモニタに表示させた場合、参加者がモニタに表示されていないので、異なる拠点の参加者に自分の存在を気にして欲しくても気にしてもらえないといった問題があった。
また、非特許文献1は、さりげなく存在感を提示することは難しい。テレビ会議の最中にロボットが動き回った場合、参加者の感覚に与える刺激が強く、必要以上にロボットの存在感が提示される。したがって、異なる拠点の参加者に自分が提示したい存在の度合いを調整できないといった問題があった。
以上のように、従来の遠隔コミュニケーションでは、相手に自分の存在を提示する度合いを表す量を調整できず、遠隔地の参加者の存在感が低下するという問題があった。逆に、ロボットを用いた場合、遠隔地の参加者が存在感を強く提示されるという問題があった。
本発明は、上記に鑑みてなされたもので、その目的としては、相手に自分の存在を提示する度合いの調整を行うことが可能な技術を提供することにある。
Patent Document 1 is effective only when a participant attempts to speak. On the other hand, it is not effective when participants want their participants to be aware of their existence, though not until the participants speak. In other words, there was a problem that it was not possible to adjust the degree of representing the presence of oneself that he / she wants to present to the participants of different bases.
Furthermore, when only the materials are displayed on the monitor in a video conference, the participants are not displayed on the monitor, and there is a problem that participants in different bases do not mind if they want them to worry about their existence. there were.
Moreover, it is difficult for Non-Patent Document 1 to present a sense of presence casually. If the robot moves around during the video conference, the participant's sense is strongly stimulated and the robot's presence is presented more than necessary. Therefore, there has been a problem that it is not possible to adjust the degree of presence that oneself wants to present to participants of different bases.
As described above, in the conventional remote communication, there is a problem that the amount representing the degree of presenting one's presence to the other party can not be adjusted, and the presence of the remote participant is reduced. Conversely, when using a robot, there is a problem that remote participants are strongly presented with a sense of presence.
The present invention has been made in view of the above, and its object is to provide a technique capable of adjusting the degree of presenting one's own presence to the other party.

請求項1記載の発明は、上記課題を解決するため、第1拠点に配置された第1会議端末および第2拠点に配置された第2会議端末の間でネットワークを経由したコミュニケーションを補助するコミュニケーション補助装置であって、前記第1拠点には、推定された前記第2拠点の状況を表す第2拠点状況情報を受信する受信手段と、前記第1拠点にいる第1参加者が知覚可能な感覚量の範囲を算出する感覚量範囲算出手段と、前記第2拠点状況情報が閾値以上である場合に、前記第2拠点にいる前記第2参加者の意思量を算出する意思量算出手段と、前記第2拠点にいる前記第2参加者の意思量に応じて、前記第1参加者の感覚量の範囲に応じた刺激を前記第1参加者が知覚できるように出力する刺激出力手段と、を備えることを特徴とする。
According to the first aspect of the present invention, there is provided a communication for assisting communication via a network between a first conference terminal disposed at a first site and a second conference terminal disposed at a second site, in order to solve the above-mentioned problems. It is an auxiliary device, The receiving means which receives the 2nd base situation information showing the situation of the 2nd base presumed to the 1st base, The 1st participant who is in the 1st base can perceive. and sensory quantity range calculation means for calculating the range of sensory quantity, when the second center status information is equal to or greater than the threshold, the intention amount calculating means for calculating the intention of the second participants in the second center Stimulus output means for outputting a stimulus according to the range of the first participant's sense amount according to the intention amount of the second participant at the second site so that the first participant can perceive a stimulus And characterized by

本発明によれば、第2拠点状況情報と第1参加者の感覚量の範囲に基づいて、第2拠点にいる第2参加者意思量を算出し、当該意思量に応じた刺激を第1参加者が知覚できるように出力することで、相手に自分の存在を提示する度合いの調整を行うことができる。   According to the present invention, the second participant's intention amount at the second site is calculated based on the second base situation information and the range of the first participant's sense amount, and the stimulation corresponding to the intention amount is By making the output perceivable to the participant, it is possible to adjust the degree of presenting the presence to the other party.

本発明の第1実施形態に係るコミュニケーション補助システムがテレビ会議システムに使用されている構成について説明するための模式図である。It is a schematic diagram for demonstrating the structure by which the communication assistance system which concerns on 1st Embodiment of this invention is used for the video conference system. 本発明の第1実施形態に係るコミュニケーション補助システムを示すブロック図である。It is a block diagram showing a communication assistance system concerning a 1st embodiment of the present invention. 本発明の第1実施形態に係るコミュニケーション補助システムの動作を表すフローチャートである。It is a flowchart showing operation | movement of the communication assistance system which concerns on 1st Embodiment of this invention. 本発明の第2実施形態に係るコミュニケーション補助システムの動作を表すフローチャートであり、特に、図3に示すステップS200の具体的な例を示すフローチャートである。It is a flowchart showing operation | movement of the communication assistance system which concerns on 2nd Embodiment of this invention, and is a flowchart which shows the specific example of step S200 shown especially in FIG. 本発明の第3実施形態に係るコミュニケーション補助システムの動作を表すフローチャートであり、特に、図4に示す第1拠点状況算出処理(ステップS210)の具体的な例を表すフローチャートである。It is a flowchart showing the operation | movement of the communication assistance system which concerns on 3rd Embodiment of this invention, and is a flowchart showing the specific example of the 1st base condition calculation process (step S210) especially shown in FIG. 本発明の第4実施形態に係るコミュニケーション補助システムの動作を表すフローチャートであり、特に、図4に示す第2拠点状況算出処理(ステップS250)の具体的な例を説明するためのフローチャートである。It is a flowchart showing operation | movement of the communication assistance system which concerns on 4th Embodiment of this invention, and is a flowchart for demonstrating the specific example of the 2nd base situation calculation process (step S250) shown especially in FIG. 本発明の第5実施形態に係るコミュニケーション補助システムの動作を表すフローチャートであり、特に、図5とは異なる図4に示す第1拠点状況算出処理(ステップS210)の具体的な例を説明したフローチャートである。It is a flowchart showing operation | movement of the communication assistance system which concerns on 5th Embodiment of this invention, The flowchart which demonstrated the specific example of the 1st base situation calculation process (step S210) shown in FIG. 4 different from FIG. 5 especially. It is. 本発明の第6実施形態に係るコミュニケーション補助システムの動作を表すフローチャートであり、特に、図3に示す刺激量算出処理(ステップS300)の具体的な例を説明するためのフローチャートである。It is a flowchart showing operation | movement of the communication assistance system which concerns on 6th Embodiment of this invention, and is a flowchart for demonstrating the specific example of the stimulation amount calculation process (step S300) especially shown in FIG. 本発明の第7実施形態に係るコミュニケーション補助システムに用いる、図1に示す第2参加者を表すアバターロボットの具体的な例を説明した図である。It is a figure explaining the concrete example of the avatar robot showing the 2nd participant shown in Drawing 1 used for the communication auxiliary system concerning a 7th embodiment of the present invention. 第1拠点11Aの第1参加者13と第3参加者14の感覚Eの分布のさりげない範囲を具体的に説明するためのグラフで示した図である。It is the figure shown with the graph for demonstrating concretely the range of the distribution of the sense E of the 1st participant 13 of the 1st base 11A, and the 3rd participant 14 specifically. (a)は第1拠点11Aの第1参加者13と第3参加者14の感覚Eの分布から第1拠点11Aの感覚Eのさりげない範囲を具体的に説明するためのグラフ図であり、(b)は第1拠点11Aに沢山の参加がいた場合参加者毎の感覚Eの分布のさりげないと感じる範囲から、第2参加者が与えたいと思っている感覚Eを算出する方法を説明するためのグラフで示した図である。(A) is a graph specifically illustrating the non-contrast range of the sense E of the first location 11A from the distribution of the senses E of the first participant 13 and the third participant 14 of the first location 11A, (B) explains how to calculate the sense E that the second participant wants to give from the range where the distribution of the sense E for each participant feels unconvenient when there is a lot of participation in the first base 11A It is the figure shown with the graph for doing. (a)は、第1拠点11Aに存在する複数参加者のさりげないと感じる感覚の最大値E_maxの確率密度の具体例を説明するためのグラフで示した図であり、(b)は第1拠点11Aに存在する複数参加者のさりげないと感じる感覚の最小値E_minの確率密度の具体例を説明した図であり、(c)は第1拠点11Aのテレビ会議の拠点状況情報に応じて、第1拠点11Aのさりげないと感じる感覚量の範囲E_maxとE_minを更新する具体的な例を説明するためのグラフで示した図である。(A) is a figure showing a graph for explaining a specific example of probability density of maximum value E_max of feeling that multiple participants present in the first base 11A feel casually, and (b) is a first It is a figure explaining the specific example of the probability density of the minimum value E_min of the feeling which two or more participants who exist in base 11A feel casually, (c) is according to the base status information of the video conference of the 1st base 11A, It is the figure shown in the graph for explaining the concrete example which updates the range E_max of the amount of sensations which feels casually of the 1st base 11A, and E_min. 第2拠点11Bの第2参加者15が自分の存在に気付いて欲しいと思っている度合いを反映し、第1拠点参加者に提示する感覚量Eを算出する具体的な例を説明するためのグラフで示した図である。To reflect a degree to which the second participant 15 of the second base 11B wants to be aware of his / her presence, and for explaining a specific example of calculating the sensation amount E presented to the first base participant It is the figure shown by the graph.

本発明は、遠隔地間でのコミュニケーションによる会議や会話の進行を止めることなく、さりげなく自分の存在感を相手側に提示することで、遠隔地という空間が異なることによる存在感の差を低減できるようにし、これにより通信ネットワークを介して行われるコミュニケーションの一体感を提供することを可能にする。
一般に、人間の感覚量は刺激強度と関係性を有している。例えばフェヒナーの法則では、感覚量は刺激強度の対数に比例する。
ここで、定数K、刺激量Rとすると、感覚量(心理量)Eは、E=K・log(R)と表すことができる。
従って、遠隔地の参加者に与える刺激量を調整すれば、自分の存在感の量を調整できることが期待できるため、遠隔地の参加者にさりげない存在感の提示が可能になる。すなわち、相手に自分の存在を提示する度合いの調整を行うことができる。
The present invention reduces the difference in presence due to the difference in the space of remote locations by presenting the presence of oneself to the other party casually without stopping the progress of the conference or conversation by communication between the remote locations. It makes it possible to provide a sense of communication that takes place via the communication network.
In general, the amount of human sense is related to the stimulus intensity. For example, in Fechner's law, the sensory amount is proportional to the logarithm of the stimulation intensity.
Here, assuming that the constant K and the stimulation amount R, the sensory amount (psychological amount) E can be expressed as E = K · log (R).
Therefore, by adjusting the amount of stimulation given to remote participants, it is possible to expect to be able to adjust the amount of their own presence, which makes it possible to present casual presence to remote participants. That is, it is possible to adjust the degree of presenting one's presence to the other party.

本発明の実施形態について図面を参照して説明する。
<第1実施形態>
図1は本発明の第1実施形態に係るコミュニケーション補助システムがテレビ会議システムに使用されている構成の一例について説明するための模式図である。
ここで、図1を参照して、コミュニケーション補助システムの機能構成について説明する。
図1に示すコミュニケーション補助システムは、第1拠点11A、第2拠点11Bに夫々設置されたテレビ会議端末(会議端末)10A、テレビ会議端末(会議端末)10Bと、これらテレビ会議端末10A、テレビ会議端末10Bが接続される通信ネットワークNで構成される。
テレビ会議端末10A、テレビ会議端末10Bは、夫々撮像装置4、マイク5、スピーカ6、ディスプレイ7、処理装置8を備えている。
Embodiments of the present invention will be described with reference to the drawings.
First Embodiment
FIG. 1 is a schematic diagram for explaining an example of a configuration in which a communication assistance system according to a first embodiment of the present invention is used in a video conference system.
Here, the functional configuration of the communication assistance system will be described with reference to FIG.
The communication assistance system shown in FIG. 1 includes a video conference terminal (conference terminal) 10A and a video conference terminal (conference terminal) 10B installed in the first site 11A and the second site 11B, and the video conference terminal 10A and the video conference. It comprises the communication network N to which the terminal 10B is connected.
The teleconference terminal 10A and the teleconference terminal 10B each include an imaging device 4, a microphone 5, a speaker 6, a display 7, and a processing device 8.

例えば、第1拠点11Aに設置されたテレビ会議端末10Aの撮像装置4で撮影された画像(静止画像又は動画像)は、撮像装置4と処理装置8との連携動作により画像データに補正処理を施し、当該テレビ会議端末10A内のディスプレイ7に画像を表示する。同時に、この補正処理を施した画像データは、通信ネットワークNに接続された第2拠点11Bに設置されている相手側のテレビ会議端末10Bにも伝送されて、そのディスプレイ7に画像が表示される。
例えば、第2拠点11Bに設置されているテレビ会議端末10Bにおいて、操作者が操作部(図示しない)の拡大/縮小ボタンを押下すると、当該テレビ会議端末10B内に設けられた同じく撮像装置4と処理装置8と連携動作によりデジタルズーム処理が施される。この結果、デジタルズーム画像が当該テレビ会議端末10Bのディスプレイ7に表示される。同時に、通信ネットワークNに接続された第1拠点11Aに設置されているテレビ会議端末10Aにも画像データが伝送されて、そのディスプレイ7に画像表示される。
For example, an image (still image or moving image) captured by the imaging device 4 of the teleconference terminal 10A installed at the first base 11A is corrected to image data by cooperation of the imaging device 4 and the processing device 8 The image is displayed on the display 7 in the video conference terminal 10A. At the same time, the image data subjected to the correction processing is also transmitted to the teleconference terminal 10B on the opposite side installed at the second base 11B connected to the communication network N, and the image is displayed on the display 7 thereof. .
For example, in the video conference terminal 10B installed at the second base 11B, when the operator presses the enlargement / reduction button of the operation unit (not shown), the imaging device 4 and the same imaging device 4 provided in the video conference terminal 10B Digital zoom processing is performed by cooperation with the processing device 8. As a result, the digital zoom image is displayed on the display 7 of the video conference terminal 10B. At the same time, the image data is also transmitted to the video conference terminal 10A installed at the first base 11A connected to the communication network N, and the image is displayed on the display 7.

図1において、第1拠点11Aには第1参加者13、第3参加者14が存在し、第2拠点11Bには、第2参加者15が存在している。さらに、第1拠点11Aには第2拠点11Bに存在する第2参加者15を表すアバターロボット17が移動自在に配置される。
本発明は、3人以上で2つの異なる拠点間においてコミュニケーションを行う場合に効力を発揮するものである。以下、遠隔地に配置されているテレビ会議端末10A、10Bを用いてテレビ会議を行う場合を一例にして説明する。
図1は、異なる拠点間においてコミュニケーションを行う場合の具体的な例である。
第1拠点11Aでの会話が白熱した状況、つまり、第1参加者13と第3参加者14がテレビ会議の会話が盛り上がり、第2参加者15の存在を忘れて会話を継続している状況を想定する。
第2参加者15は、第1参加者13と第3参加者14に向けて発言し、第1参加者13と第3参加者14との会話中に割り込むことで、第1参加者13と第3参加者14に第2参加者15の存在を知らしめることも可能である。
しかし、第2参加者15は、テレビ会議の進行を停止することは望んでおらず、発言はしたくないと思っていると仮定する。しかし、自分の存在には気付いて欲しいとは思っている。このような場合に、第1拠点11Aに存在する、第2参加者15を表すアバターロボット17がさりげなく第2参加者15の存在を提示することで、テレビ会議の進行を妨げることなく、第2参加者15の存在を、第1参加者13と第3参加者14に伝えることができる。本発明は、上記のような状況において使用する発明である。
In FIG. 1, a first participant 13 and a third participant 14 exist in the first base 11A, and a second participant 15 exists in the second base 11B. Furthermore, an avatar robot 17 representing the second participant 15 present at the second base 11B is movably disposed at the first base 11A.
The present invention is effective when three or more persons communicate between two different sites. Hereinafter, a case where a video conference is performed using the video conference terminals 10A and 10B located at remote locations will be described as an example.
FIG. 1 is a specific example of communication between different bases.
The situation where the conversation at the first base 11A is heated, that is, the situation where the first participant 13 and the third participant 14 enjoy the conversation of the video conference and forgets the existence of the second participant 15 and continues the conversation Assume.
The second participant 15 speaks to the first participant 13 and the third participant 14, and interrupts the conversation between the first participant 13 and the third participant 14 to make the first participant 13 It is also possible to inform the third participant 14 of the presence of the second participant 15.
However, it is assumed that the second participant 15 does not want to stop the progress of the video conference and does not want to speak. However, I think that I want you to be aware of your existence. In such a case, the avatar robot 17 representing the second participant 15 present at the first base 11A casually presents the presence of the second participant 15 without interrupting the progress of the video conference. The presence of the two participants 15 can be communicated to the first participant 13 and the third participant 14. The present invention is an invention used in the above situation.

図1において、本発明の第1実施形態に係るコミュニケーション補助システムは、第1拠点状況計測推定ユニット20、中継ユニット30、第2拠点状況計測推定ユニット40、刺激量算出出力ユニット50等のコミュニケーション補助装置を備えている。
図2は本発明の第1実施形態に係るコミュニケーション補助システムを示すブロック図である。
図2において、コミュニケーション補助システムは、第1拠点状況計測推定ユニット20、第2拠点状況計測推定ユニット40、刺激量算出出力ユニット50を備えている。
第1拠点状況計測推定ユニット20は、第1拠点状況計測部21、第1拠点状況取込部23、第1拠点状況推定部25、無線通信部27を備える。第1拠点状況計測部21は、第1拠点11Aの状況を計測する。第1拠点状況取込部23は、第1拠点状況計測部21で計測した第1拠点11Aの状況を取り込む。第1拠点状況推定部25は、第1拠点状況取込部23で取り込まれた第1拠点11Aの状況から第1拠点11Aの状況の情報を示す第1拠点状況情報を推定する。無線通信部27は、第1拠点状況推定部25で推定された第1拠点状況情報を無線通信部51に送信する。このように、第1拠点状況計測推定ユニット20は、第1拠点11Aの状況を表す第1拠点状況情報を推定し、無線通信部27から刺激量算出出力ユニット50に設けられた無線通信部51に第1拠点状況情報を送信する。
In FIG. 1, the communication assistance system according to the first embodiment of the present invention includes communication aids such as a first base situation measurement and estimation unit 20, a relay unit 30, a second base situation measurement and estimation unit 40, and a stimulation amount calculation output unit 50. It has a device.
FIG. 2 is a block diagram showing a communication assistance system according to the first embodiment of the present invention.
In FIG. 2, the communication assistance system includes a first base situation measurement estimation unit 20, a second base situation measurement estimation unit 40, and a stimulation amount calculation output unit 50.
The first base status measurement estimation unit 20 includes a first base status measurement unit 21, a first base status capture unit 23, a first base status estimation unit 25, and a wireless communication unit 27. The first base status measurement unit 21 measures the status of the first base 11A. The first base status capturing unit 23 loads the status of the first base 11A measured by the first base status measuring unit 21. The first base status estimation unit 25 estimates first base status information indicating information on the status of the first base 11A from the status of the first base 11A acquired by the first base status capture unit 23. The wireless communication unit 27 transmits the first base situation information estimated by the first base situation estimating unit 25 to the wireless communication unit 51. As described above, the first base situation measurement estimation unit 20 estimates the first base situation information indicating the situation of the first base 11A, and the wireless communication unit 51 provided in the stimulation amount calculation output unit 50 from the wireless communication unit 27. The first site status information is sent to

中継ユニット30は、通信ネットワークNを介して送受信される通信情報を第2拠点状況計測推定ユニット40と刺激量算出出力ユニット50との間で無線中継する。
第2拠点状況計測推定ユニット40は、第2拠点状況計測部41、第2拠点状況取込部43、第2拠点状況推定部45、第2拠点通信制御部47を備える。第2拠点状況計測部41は、第2拠点11Bの状況を計測する。第2拠点状況取込部43は、第2拠点状況計測部41で計測した第2拠点11Bの状況を取り込む。第2拠点状況推定部45は、第2拠点状況取込部43で取り込まれた第2拠点11Bの状況から第2拠点11Bの状況の情報を示す第2拠点状況情報を推定する。第2拠点通信制御部47は、中継ユニット30に第2拠点状況情報を送信する。このように、第2拠点状況計測推定ユニット40は、第2拠点11Bの状況を表す第2拠点状況情報を推定し、第2拠点通信制御部47から中継ユニット30に第2拠点状況情報を送信する。
中継ユニット30は、第2拠点通信制御部47から通信ネットワークNを経由して送信された第2拠点状況情報を受信し、当該第2拠点状況情報を刺激量算出出力ユニット50に送信する。
刺激量算出出力ユニット50は、無線通信部51、無線通信部53、刺激量算出部55、刺激出力部57を備えている。
The relay unit 30 wirelessly relays the communication information transmitted and received through the communication network N between the second base situation measurement estimation unit 40 and the stimulation amount calculation output unit 50.
The second base status measurement and estimation unit 40 includes a second base status measurement unit 41, a second base status capture unit 43, a second base status estimation unit 45, and a second base communication control unit 47. The second base status measurement unit 41 measures the status of the second base 11B. The second base status capturing unit 43 loads the status of the second base 11B measured by the second base status measuring unit 41. The second base status estimation unit 45 estimates second base status information indicating information on the status of the second base 11B from the status of the second base 11B acquired by the second base status capture unit 43. The second base communication control unit 47 transmits the second base status information to the relay unit 30. Thus, the second base status measurement and estimation unit 40 estimates second base status information representing the status of the second base 11B, and the second base communication control unit 47 transmits the second base status information to the relay unit 30. Do.
The relay unit 30 receives the second base status information transmitted from the second base communication control unit 47 via the communication network N, and transmits the second base status information to the stimulation amount calculation output unit 50.
The stimulation amount calculation output unit 50 includes a wireless communication unit 51, a wireless communication unit 53, a stimulation amount calculation unit 55, and a stimulation output unit 57.

無線通信部51は、第1拠点状況計測推定ユニット20から第1拠点状況情報を受信し、刺激量算出部55に出力する。
無線通信部53は、第2拠点状況計測推定ユニット40から第2拠点状況情報を受信し、刺激量算出部55に出力する。
刺激量算出部55は、第1拠点11Aにいる第1参加者が知覚可能な感覚量の範囲を算出する感覚量範囲算出部55a、第2拠点状況情報、第1参加者の感覚量の範囲に基づいて、第2拠点11Bにいる第2参加者の言動に現れる会議への参加意思の程度を表す意思量を算出する意思量算出部55b、当該意思量に応じた刺激量を算出する刺激量算出部55cを備えている。
刺激量算出部55は、第2拠点11Bの第2参加者15が第1拠点11Aにいる参加者に向けて提示したい感覚量から刺激量を算出しているが、本発明はこれに限定されるものではない。すなわち、第2拠点状況情報、第1参加者の感覚量の範囲に基づいて、第2拠点11Bにいる第2参加者の言動に現れる会議への参加意思の程度を表す意思量を意思量算出部55bにより算出し、刺激出力部57により意思量に応じた刺激を第1参加者が知覚できるように出力してもよい。
刺激出力部57は、刺激量に応じた刺激を第1参加者が知覚できるように出力する。
なお、各ユニットに設けられた各無線通信部は、第1拠点11Aにおいてユニット間で無線通信を利用したデータ通信を行うためのものである。第1拠点状況計測推定ユニット20に設けられた無線通信部27は、刺激量算出出力ユニット50に設けられた無線通信部51に対向している。一方、中継ユニット30は、刺激量算出出力ユニット50に設けられた無線通信部53に対向している。
The wireless communication unit 51 receives the first base status information from the first base status measurement and estimation unit 20, and outputs the first base status information to the stimulation amount calculator 55.
The wireless communication unit 53 receives the second base status information from the second base status measurement and estimation unit 40 and outputs the second base status information to the stimulation amount calculator 55.
The stimulation amount calculation unit 55 calculates the range of the sensation amount that can be perceived by the first participant at the first base 11A. The sensation amount range calculation unit 55a, the second base situation information, the range of the sensation amount of the first participant , An intention amount calculation unit 55b that calculates an intention amount representing the degree of willingness to participate in the conference that appears in the behavior of the second participant at the second base 11B, and stimulation that calculates a stimulation amount according to the intention amount An amount calculator 55c is provided.
Although the stimulation amount calculation unit 55 calculates the stimulation amount from the sensory amount that the second participant 15 of the second base 11B wants to present to the participant who is at the first base 11A, the present invention is limited to this It is not a thing. That is, based on the second base situation information and the range of the amount of sense of the first participant, the intention amount representing the degree of willingness to participate in the meeting appearing in the second participant's behavior at the second base 11B is calculated. The calculation may be performed by the unit 55b, and the stimulation output unit 57 may output the stimulation according to the intention amount so that the first participant can perceive it.
The stimulus output unit 57 outputs a stimulus according to the amount of stimulus so that the first participant can perceive it.
Each wireless communication unit provided in each unit is for performing data communication using wireless communication between the units at the first base 11A. The wireless communication unit 27 provided in the first base situation measurement and estimation unit 20 faces the wireless communication unit 51 provided in the stimulation amount calculation output unit 50. On the other hand, the relay unit 30 is opposed to the wireless communication unit 53 provided in the stimulation amount calculation output unit 50.

詳しくは、第1拠点状況計測推定ユニット20は、図1に示す第1拠点11Aに存在する第1参加者13と第3参加者14の状況を計測し推定する。また、第1拠点状況計測推定ユニット20は、図1に示す第1拠点11Aに存在する第1参加者13と第3参加者14とアバターロボット17(第2参加者15を表す)の状況を計測し推定する。
第1拠点状況計測推定ユニット20は、内部にROM、RAM及びCPUを有し、ROMからオペレーティングシステムOSを読み出してRAM上に展開してOSを起動し、OS管理下において、ROMからプログラムを読み出し、状況データ収集処理を実行する。
第2拠点状況計測推定ユニット40は、図1に示す第2拠点11Bに存在する第3参加者14の状況を計測し推定する。
第2拠点状況計測推定ユニット40は、内部にROM、RAM及びCPUを有し、ROMからオペレーティングシステムOSを読み出してRAM上に展開してOSを起動し、OS管理下において、ROMからプログラムを読み出し、状況データ収集処理を実行する。
刺激量算出出力ユニット50は、第1拠点状況計測推定ユニット20で推定された第1拠点11Aの状況と、第2拠点状況計測推定ユニット40で推定された第2拠点11Bの状況と、から図1に示す第2参加者15を表すアバターロボット17が、第2参加者15の存在をさりげなく提示するための刺激量を算出し出力する。
刺激量算出出力ユニット50は、内部にROM、RAM及びCPUを有し、ROMからオペレーティングシステムOSを読み出してRAM上に展開してOSを起動し、OS管理下において、ROMからプログラムを読み出し、刺激量算出処理を実行する。
Specifically, the first base situation measurement estimation unit 20 measures and estimates the situations of the first participant 13 and the third participant 14 present in the first base 11A shown in FIG. In addition, the first base situation measurement estimation unit 20 displays the situation of the first participant 13, the third participant 14 and the avatar robot 17 (representing the second participant 15) existing in the first base 11A shown in FIG. Measure and estimate.
The first site status measurement estimation unit 20 internally has a ROM, a RAM and a CPU, reads the operating system OS from the ROM, expands it on the RAM, starts the OS, and reads the program from the ROM under OS management. Execute situation data collection processing.
The second base status measurement estimation unit 40 measures and estimates the status of the third participant 14 present in the second base 11B shown in FIG.
The second base situation measurement estimation unit 40 internally has a ROM, a RAM and a CPU, reads the operating system OS from the ROM, expands it on the RAM, starts the OS, and reads the program from the ROM under OS management. Execute situation data collection processing.
The stimulation amount calculation output unit 50 is shown by the state of the first base 11A estimated by the first base state measurement estimation unit 20 and the state of the second base 11B estimated by the second base state measurement estimation unit 40. An avatar robot 17 representing the second participant 15 shown in FIG. 1 calculates and outputs a stimulation amount for presenting the presence of the second participant 15 casually.
The stimulation amount calculation output unit 50 internally has a ROM, a RAM, and a CPU, reads the operating system OS from the ROM, expands it on the RAM, starts the OS, reads the program from the ROM under OS management, and stimulates Execute quantity calculation processing.

第1拠点状況計測部21と第2拠点状況計測部41は、例えばマイクとカメラを用いて音声信号と映像信号を計測する。又は、マイクと加速度センサを用いて音声信号と加速度の信号を計測する。第1拠点状況計測部21と第2拠点状況計測部41は、同じ種類の信号を用いてもよいし、異なる種類の信号を用いてもよい。具体的には、第1拠点状況計測部21と第2拠点状況計測部41は、共にマイクとカメラを用いて音声信号と映像信号を計測してもよい。また、第1拠点状況計測部21と第2拠点状況計測部41は、共にマイクと加速度センサを用いて音声信号と加速度の信号を計測してもよい。また、第1拠点状況計測部21はマイクとカメラを用いて音声信号と映像信号を計測してもよく、第2拠点状況計測部41はマイクと加速度センサを用いて音声信号と加速度の信号を計測してもよい。また、第1拠点状況計測部21はマイクと加速度センサを用いて音声信号と加速度の信号を計測してもよく、第2拠点状況計測部41はマイクとカメラを用いて音声信号と映像信号を計測してもよい。   The first base situation measurement unit 21 and the second base situation measurement unit 41 measure an audio signal and a video signal using, for example, a microphone and a camera. Alternatively, an audio signal and an acceleration signal are measured using a microphone and an acceleration sensor. The first base situation measurement unit 21 and the second base situation measurement unit 41 may use the same type of signal or may use different types of signals. Specifically, both the first base situation measurement unit 21 and the second base situation measurement unit 41 may use a microphone and a camera to measure an audio signal and a video signal. In addition, both the first base situation measurement unit 21 and the second base situation measurement unit 41 may use a microphone and an acceleration sensor to measure an audio signal and an acceleration signal. Also, the first base situation measurement unit 21 may measure the audio signal and the video signal using the microphone and the camera, and the second base situation measurement unit 41 uses the microphone and the acceleration sensor to transmit the audio signal and the acceleration signal. It may be measured. Also, the first base situation measurement unit 21 may measure the audio signal and the acceleration signal using the microphone and the acceleration sensor, and the second base situation measurement unit 41 uses the microphone and the camera to transmit the audio signal and the video signal. It may be measured.

第1拠点状況取込部23は、第1拠点状況計測部21から得られたデータを取り込む。第2拠点状況取込部43は、第2拠点状況計測部41から得られたデータを取り込む。
第1拠点状況取込部23と第2拠点状況取込部43の夫々は、例えば、音声信号を参加者の発言内容や発音の有無を検出するためにノイズを除去する。また、参加者の発言内容や発音の有無を検出するために適切なサンプリング周期で信号を処理する。また、映像信号からノイズを除去し、図1に示す第1参加者13と第2参加者15と第3参加者14とアバターロボット17の姿勢や動きの信号のデータを取り込みやすくする前処理を行う。また、加速度の信号からノイズを除去し、第1参加者13、第2参加者15と第3参加者14とアバターロボット17の姿勢や動きの信号を抽出しやすくする前処理を行う。
The first base status capturing unit 23 loads data obtained from the first base status measuring unit 21. The second base status capturing unit 43 loads data obtained from the second base status measuring unit 41.
Each of the first base status loading unit 23 and the second base status loading unit 43 removes noise, for example, in order to detect the speech content of the participant and the presence or absence of pronunciation of the voice signal. In addition, the signal is processed at an appropriate sampling cycle to detect the content of the participant's speech and the presence or absence of the pronunciation. In addition, preprocessing is performed to remove noise from the video signal and to easily capture data of the posture and motion signals of the first participant 13, the second participant 15, the third participant 14, and the avatar robot 17 illustrated in FIG. Do. In addition, pre-processing is performed to remove noise from the signal of acceleration and to easily extract the signals of the posture and motion of the first participant 13, the second participant 15, the third participant 14 and the avatar robot 17.

第1拠点状況推定部25は、第1拠点状況取込部23から得られた信号に基づいて第1拠点11Aの状況を推定する。第2拠点状況推定部45は、第2拠点状況取込部43から得られた信号に基づいて第2拠点11Bの状況を推定する。
例えば、音声信号から図1に示す第1参加者13と第2参加者15と第3参加者14の発言の内容や、発言している時間や、発言していない時間や、発言の音量から、第1拠点11Aのテレビ会議の白熱の度合いや、第1拠点11Aのテレビ会議の参加の状況や、第2拠点11Bのテレビ会議の参加状況や、第2参加者15の状況を推定する。
具体的には、第1拠点状況推定部25は、例えば、映像信号から、図1に示す第1参加者13と第2参加者15と第3参加者14のテレビ会議中の体の動きや、予め定められた特徴的な動作、具体的には、うなずく、みつめる、頬杖をつくなどの動作や、発言者を特定し、その発言者の視線の先を特定し、発言相手を特定することなどからテレビ会議の状況を推定する。
例えば、映像信号から、図1に示す第1参加者13と第3参加者14と、第2参加者15を表すアバターロボット17(ロボット部)との相対距離から第1拠点11Aの状況を推定する。例えば、加速度の信号から、第1参加者13と第2参加者15と第3参加者14のテレビ会議中の体の動きや、予め定められた特徴的な動作、具体的には、うなずく、みつめる、頬杖をつくなどの動作からテレビ会議の状況を推定する。動作や音声の有無や回数のみならず、その動作の大きさについても考慮し、状況の推定に反映させる。
具体的には、第1拠点状況推定部25では、第1拠点11Aの第1参加者13と第3参加者14が、第2参加者15を表すアバターロボット17や、遠隔テレビ会議を行う時、多くの場合利用される第2参加者15の姿を投影させた映像など、に視線を向けることなく、第1拠点11Aの第1参加者13と第3参加者14のみで会話を続けたりし、第2参加者15に向けた発言を行わないという状況を、音声信号や映像信号や、加速度の信号を用いて音と体の動きや視線から推定する。
The first base status estimation unit 25 estimates the status of the first base 11A based on the signal obtained from the first base status capture unit 23. The second base status estimation unit 45 estimates the status of the second base 11B based on the signal obtained from the second base status capture unit 43.
For example, from the audio signal, the contents of the utterances of the first participant 13, the second participant 15 and the third participant 14 shown in FIG. 1, the time of speaking, the time of not speaking, the volume of the speech The second embodiment 11 estimates the degree of incandescence of the first base 11A, the state of participation of the first base 11A, the participation of the second base 11B, and the state of the second participant 15.
Specifically, for example, the first base situation estimation unit 25 determines, from the video signal, the movement of the body during the video conference of the first participant 13, the second participant 15, and the third participant 14 shown in FIG. Identifying a characteristic action that has been set in advance, specifically, an operation such as nodding, finding, or putting on a cheek stick, a speaker, specifying the speaker's line of sight, and specifying a speaker Estimate the situation of the video conference from the
For example, the situation of the first base 11A is estimated from the relative distance between the first participant 13 and the third participant 14 shown in FIG. 1 and the avatar robot 17 (robot unit) representing the second participant 15 from the video signal. Do. For example, from the signal of acceleration, body movements during video conferencing of the first participant 13, the second participant 15, and the third participant 14, or a predetermined characteristic action, specifically, nodding, The situation of the video conference is estimated from the operation such as finding and putting on the cane. Not only the presence or the number of motions or voices, but also the magnitude of the motions are considered and reflected in the estimation of the situation.
Specifically, in the first base situation estimation unit 25, when the first participant 13 and the third participant 14 of the first base 11A perform an avatar robot 17 representing the second participant 15 or a remote video conference, Continue conversation only with the first participant 13 and the third participant 14 of the first base 11A, without looking at the projected image of the second participant 15, which is often used, etc. Then, a situation in which the second participant 15 does not speak is estimated from the sound and the movement of the body and the line of sight using an audio signal, a video signal, and an acceleration signal.

例えば、第1拠点状況推定部25では、第1拠点11Aの第1参加者13と第3参加者14のみで会話を続けている時間の長さや、会話の音量、動作の大きさ、から、第2拠点11Bの第2参加者15の存在を忘れてテレビ会議に白熱している度合いを推定する。また、第1拠点状況推定部25では、第1拠点11Aの第1参加者13と第3参加者14と、第2参加者15を表すアバターロボット17との距離から、後述する刺激量算出出力ユニット50から出力する刺激量を調整する。例えば、第1拠点11Aの第1参加者13と第3参加者14と、第2参加者15を表すアバターロボット17との距離が離れている場合には、第2参加者15を表すアバターロボットが出力する刺激量を、第1拠点11Aの第1参加者13と第3参加者14が感じにくい状況と推定する。上記感じにくいと推定された場合には、第2参加者15を表すアバターロボット17が大きな刺激を出力する。
例えば、第1拠点状況推定部25では、第1拠点11Aの第1参加者13と第3参加者14と、第2参加者15を表すアバターロボット17との距離が近い場合には、第1拠点11Aの第1参加者13と第3参加者14が感じやすい状況と推定する。その結果、第2参加者15を表すアバターロボット17は小さな刺激を出力することとなる。上記感じやすいと推定された場合には、これは、同じ刺激を出力した場合に、第1拠点11Aの第1参加者13と第3参加者14と、第2参加者15を表すアバターロボット17との距離に応じて、第1拠点11Aの第1参加者13と第3参加者14が感じる感覚の量が異なることに対応するためである。
For example, in the first base situation estimation unit 25, from the length of time during which the conversation is continued by only the first participant 13 and the third participant 14 of the first base 11A, the volume of the conversation, and the size of the operation, Forget the existence of the second participant 15 of the second base 11B and estimate the degree to which the television conference is heated. The first base situation estimation unit 25 also calculates and outputs the amount of stimulation, which will be described later, based on the distance between the first participant 13 and the third participant 14 of the first base 11A and the avatar robot 17 representing the second participant 15. The amount of stimulation output from the unit 50 is adjusted. For example, when the distance between the first participant 13 and the third participant 14 of the first base 11A and the avatar robot 17 representing the second participant 15 is long, the avatar robot representing the second participant 15 is It is estimated that the amount of stimulation output by the first base 11A is difficult for the first participant 13 and the third participant 14 of the first base 11A to feel. When it is estimated that it is hard to feel the above, the avatar robot 17 representing the second participant 15 outputs a large stimulus.
For example, in the first base situation estimation unit 25, when the distance between the first participant 13 and the third participant 14 of the first base 11A and the avatar robot 17 representing the second participant 15 is short, It is estimated that the first participant 13 and the third participant 14 of the base 11A can easily feel. As a result, the avatar robot 17 representing the second participant 15 outputs a small stimulus. When it is estimated that the above feeling is easy, this is an avatar robot 17 representing the first participant 13 and the third participant 14 of the first base 11A and the second participant 15 when the same stimulus is output. This corresponds to the difference in the amount of sensation felt by the first participant 13 and the third participant 14 of the first base 11A according to the distance between

第2拠点状況推定部45では、第2拠点11Bの第2参加者15が、予め定められた時間以上発言しておらず、頬杖をついたり、うなずいたり、ため息をついたりなどの特徴的な動作(挙動、言動)を行い、第1拠点11Aの第1参加者13と第3参加者14に自分の存在に気づいて欲しいと思っている状況を、音声信号や映像信号や加速度の信号を用いて音と体の動きや視線から推定する。動作や音声の有無や回数のみならず、その動作の大きさについても考慮し、拠点状況情報の推定に反映させる。第2拠点11Bの第2参加者15が発言していない時間の長さや、動作の大きさ、から、第2拠点11Bの第2参加者15が自分の存在に気づいて欲しいと思っている度合いを推定する。   In the second base situation estimation unit 45, the second participant 15 of the second base 11B is not speaking for longer than a predetermined time, and is characterized by having a cheek stick, nodding, sighing, etc. Perform an action (behavior, speech and movement) and ask the first participant 13 and the third participant 14 of the first base 11A to notice their presence, audio and video signals and acceleration signals We estimate from sound and body movement and line of sight using. Not only the presence or the number of motions or voices, but also the magnitude of the motions are taken into consideration and reflected in the estimation of the base situation information. From the length of time during which the second participant 15 of the second base 11B is not speaking and the size of the operation, the degree to which the second participant 15 of the second base 11B wants to be aware of his / her existence Estimate

刺激量算出部55は、第1拠点状況取込部23で推定された拠点状況情報と第2拠点状況取込部43で推定されたと拠点状況情報から刺激量を算出する。具体的には、第2拠点11Bの第2参加者15が第1拠点11Aの第1参加者13と第3参加者14に自分の存在に気づいて欲しいと思っている拠点状況情報であると推定された時、かつ、第1拠点11Aの第1参加者13と第3参加者14が議論に白熱し第2拠点11Bの第2参加者15の存在を忘れている拠点状況情報であると推定された時、第1拠点11Aの第1参加者13と第3参加者14に、第2拠点11Bの第2参加者15の存在をさりげなく提示するために、刺激量を算出する。
例えば、刺激量算出部55は、第1拠点状況取込部23で推定された拠点状況情報と第2拠点状況取込部43で推定されたと拠点状況情報に基づいて刺激量を算出する。刺激量算出部55は、出力する刺激量を、第1拠点11Aの第1参加者13と第3参加者14が議論に白熱し第2拠点11Bの第2参加者15の存在を忘れている度合いと、第2拠点11Bの第2参加者15が第1拠点11Aの第1参加者13と第3参加者14に自分の存在に気づいて欲しいと思っている度合いによって調節する。例えば、第2拠点11Bの第2参加者15が自分の存在に気づいて欲しいと思っている度合いが大きい場合には、予め定められた刺激の範囲の中から大きい刺激量を算出する。第2拠点11Bの第2参加者15が自分の存在に気づいて欲しいと思っている度合いが小さい場合には、予め定められた刺激の範囲の中から小さい刺激量を算出する。第1拠点11Aの第1参加者13と第3参加者14が議論に白熱し第2拠点11Bの第2参加者15の存在を忘れている度合いが大きい場合には、予め定められた刺激の範囲の中から大きい刺激量を算出する。第1拠点11Aの第1参加者13と第3参加者14が議論に白熱し第2拠点11Bの第2参加者15の存在を忘れている度合いが小さい場合には、予め定められた刺激の範囲の中から小さい刺激量を算出する。
例えば、第1拠点11Aの第1参加者13と第3参加者14と、第2参加者15を表すアバターロボット17との距離が離れている場合には第2参加者15を表すアバターロボット17が大きな刺激量を算出し、距離が近い場合には第2参加者15を表すアバターロボット17が小さな刺激量を算出する。
The stimulation amount calculation unit 55 calculates the stimulation amount from the base situation information estimated by the first base situation fetching unit 23 and the base situation information estimated by the second base situation fetching unit 43. Specifically, it is assumed that the second participant 15 of the second base 11B wants the base situation information that he / she wants the first participant 13 and the third participant 14 of the first base 11A to be aware of their own existence. When it is estimated, it is the base situation information that the first participant 13 and the third participant 14 of the first base 11A are heated to discussion and forgets the existence of the second participant 15 of the second base 11B. When estimated, the stimulation amount is calculated in order to present the presence of the second participant 15 of the second base 11B to the first participant 13 and the third participant 14 of the first base 11A casually.
For example, the stimulation amount calculation unit 55 calculates the stimulation amount based on the base situation information estimated by the first base situation fetching unit 23 and the base situation information estimated by the second base situation fetching unit 43. The stimulation amount calculation unit 55 causes the first participant 13 and the third participant 14 of the first base 11A to inquire about the amount of stimulation to be output, and forgets the existence of the second participant 15 of the second base 11B. The degree is adjusted according to the degree to which the second participant 15 of the second base 11B wants the first participant 13 and the third participant 14 of the first base 11A to be aware of their own existence. For example, when the second participant 15 of the second base 11B feels that he / she wants to be aware of his / her existence is large, a large stimulation amount is calculated from the predetermined stimulation range. If the second participant 15 of the second base 11B does not want to be aware of his / her own presence, the small stimulation amount is calculated from the predetermined stimulation range. When the first participant 13 and the third participant 14 of the first base 11A are in a heated discussion and the degree of forgetting the presence of the second participant 15 of the second base 11B is large, Calculate a large stimulation amount from the range. When the first participant 13 and the third participant 14 of the first base 11A are in a heated discussion and the degree of forgetting the presence of the second participant 15 of the second base 11B is small, Calculate a small amount of stimulation from within the range.
For example, when the distance between the first participant 13 and the third participant 14 of the first base 11A and the avatar robot 17 representing the second participant 15 is long, the avatar robot 17 representing the second participant 15 is Calculates a large stimulation amount, and when the distance is short, the avatar robot 17 representing the second participant 15 calculates a small stimulation amount.

刺激量算出部55は、上記算出された刺激量から、刺激出力部57に応じた信号への変換を行う部である。後に説明するが、例えば刺激出力部57がモータなどの振動を利用する場合、上記算出された刺激量に応じて振幅と周波数を算出する。例えば刺激出力部57が発光ダイオードLEDなどの光を発する場合、上記算出された刺激量に応じて出力する光量や電流、電圧の値を算出する。刺激出力部57がLEDなどの色を出力する場合、算出された刺激量に応じて出力する色の濃淡、例えば濃い赤や薄い赤、や、色の変化、例えば青や赤、を出力する。刺激出力部57は、第1参加者が目視することにより感知可能な光波信号を発生する。
刺激出力部57がスピーカなどの音を出力する場合、上記算出された刺激量に応じて出力する音量を算出する。刺激出力部57がスピーカなどの音を出力する場合、上記算出された刺激量に応じて出力する言語又は音声の内容やその音量を算出する。具体的には、「あーあ」「んー」等の言語又は音声を選んだり、その音声の音量を算出したりする。刺激出力部57は、第1参加者が聴取することにより感知可能な音波信号を発生する。
刺激出力部57は、第1拠点状況取込部23で推定された拠点状況情報と第2拠点状況取込部43で推定された拠点状況情報に基づいて刺激量算出部55で算出された刺激量を出力する。例えば、図1に示す第2参加者15を表すアバターロボット17に、モータやLEDやスピーカなどのデバイスが具備されており、上記デバイスが、第1拠点状況取込部23で推定された拠点状況情報と第2拠点状況取込部43で推定されたと拠点状況情報に基づいて刺激量算出部55で算出された刺激量を出力する。
The stimulation amount calculation unit 55 is a unit that converts the calculated stimulation amount into a signal according to the stimulation output unit 57. As described later, for example, when the stimulation output unit 57 uses vibration of a motor or the like, the amplitude and the frequency are calculated according to the calculated stimulation amount. For example, when the stimulation output unit 57 emits light such as a light emitting diode LED, the value of the light amount, current, or voltage to be output is calculated according to the calculated stimulation amount. When the stimulus output unit 57 outputs a color such as an LED, it outputs shades of color to be output according to the calculated stimulation amount, such as dark red or light red, or changes in color such as blue or red. The stimulus output unit 57 generates a lightwave signal that can be sensed by the first participant visually.
When the stimulation output unit 57 outputs a sound such as a speaker, the volume of sound to be output is calculated according to the calculated stimulation amount. When the stimulus output unit 57 outputs a sound from a speaker or the like, the content of the language or sound to be output according to the calculated stimulation amount or the volume thereof is calculated. Specifically, a language or voice such as "A-A" or "B-" is selected, and the volume of the voice is calculated. The stimulation output unit 57 generates a sound wave signal that can be sensed by the first participant listening.
The stimulation output unit 57 calculates the stimulation calculated by the stimulation amount calculation unit 55 based on the base situation information estimated by the first base situation capture unit 23 and the base situation information estimated by the second base situation capture unit 43. Output the quantity. For example, the avatar robot 17 representing the second participant 15 shown in FIG. 1 is equipped with devices such as a motor, an LED, and a speaker, and the above-described device is the base status estimated by the first base status capture unit 23 The stimulation amount calculated by the stimulation amount calculation unit 55 based on the information and the base condition information estimated by the second base condition taking-in unit 43 is output.

図3は本発明の第1実施形態に係るコミュニケーション補助システムの動作を表すフローチャートである。
まずステップS100では状況入力処理を行う。図2に示す第1拠点状況計測部21と、第1拠点状況取込部23と、第2拠点状況計測部41と、第2拠点状況取込部43とを用いて、図1に示す第1拠点11Aと第2拠点11Bの状況を計測して取り込む。ここで、状況入力処理に用いる入力は、図2に示す第1拠点状況計測部21と第2拠点状況計測部41と、から得られる計測データである。
ステップS100では、上記得られた計測データを、ステップS200で用いるデータへ変換する。
具体的には、例えば、ステップS100は、第2拠点11Bの第2参加者15が第1拠点11Aの第1参加者13と第3参加者14に自分の存在に気づいて欲しいと思っている状況かどうか、ならびに第1拠点11Aの第1参加者13と第3参加者14が議論に白熱し第2拠点11Bの第2参加者15の存在を忘れている状況であるかどうかを計測し取り込むステップである。例えばマイクとカメラを用いて音声信号と映像信号を入力する。又は、マイクと加速度センサを用いて音声信号と加速度の信号を入力する。ここで、音声信号を参加者の発言内容や発音の有無を検出するためにノイズを除去したり、参加者の発言内容や発音の有無を検出するために適切なサンプリング周期で信号を処理したり、映像信号からノイズを除去し、図1に示す第1参加者13と第2参加者15と第3参加者14とアバターロボット17の姿勢や動きの信号を抽出したりする。
ステップS100の出力は、上記状況入力処理を行うステップS100で処理されたデータである。
FIG. 3 is a flowchart showing the operation of the communication assistance system according to the first embodiment of the present invention.
First, in step S100, a situation input process is performed. Using the first base status measurement unit 21 shown in FIG. 2, the first base status capture unit 23, the second base status measurement unit 41, and the second base status capture unit 43, the second base status measurement unit shown in FIG. Measure and capture the situation of 1 base 11A and 2nd base 11B. Here, the input used for the situation input processing is measurement data obtained from the first base situation measurement unit 21 and the second base situation measurement unit 41 shown in FIG.
In step S100, the obtained measurement data is converted into data used in step S200.
Specifically, for example, in step S100, the second participant 15 of the second base 11B wants the first participant 13 and the third participant 14 of the first base 11A to be aware of their own existence. It is measured whether it is a situation or not, and whether the first participant 13 and the third participant 14 of the first base 11A are in a heated discussion and forgot the presence of the second participant 15 of the second base 11B. It is a step to take in. For example, an audio signal and a video signal are input using a microphone and a camera. Alternatively, an audio signal and an acceleration signal are input using a microphone and an acceleration sensor. Here, noise is removed to detect the speech content of the participant and the presence or absence of pronunciation of the audio signal, or the signal is processed at an appropriate sampling period to detect the speech content of the participant and the presence or absence of pronunciation The noise is removed from the video signal, and the signals of the postures and movements of the first participant 13, the second participant 15, the third participant 14 and the avatar robot 17 shown in FIG. 1 are extracted.
The output of step S100 is the data processed in step S100 for performing the situation input process.

状況算出処理を行うステップS200では、図2に示す第1拠点状況推定部25と、第2拠点状況推定部45を用いて、図1に示す第1拠点11Aと第2拠点11Bの拠点状況情報を推定し算出する。
ステップS200の入力は、ステップS100の出力である。
ステップS200の処理は、図2に示す第1拠点状況推定部25と、第2拠点状況推定部45を用いて、図1に示す第1拠点11Aと第2拠点11Bの拠点状況情報を推定し算出する。
ステップS200の出力は、上記推定された図1に示す第1拠点11Aと第2拠点11Bの拠点状況情報である。
具体的には、例えば、ステップS200では、第2拠点11Bの第2参加者15が第1拠点11Aの第1参加者13と第3参加者14に自分の存在に気づいて欲しいと思っている度合いを算出する、ならびに第1拠点11Aの第1参加者13と第3参加者14が議論に白熱し、第2拠点11Bの第2参加者15の存在を忘れている度合いを算出する。
ステップS200の入力は、例えばマイクやカメラや加速度センサを用いて得られた音声信号や映像信号や加速度の信号からノイズを除去し、参加者の発言内容や発音の有無を検出するために適切なサンプリング周期で信号を処理された信号である。
In step S200 for performing the situation calculation process, the base situation information of the first base 11A and the second base 11B shown in FIG. 1 using the first base situation estimation unit 25 and the second base situation estimation unit 45 shown in FIG. Estimate and calculate
The input of step S200 is the output of step S100.
In the process of step S200, the base status information of the first base 11A and the second base 11B shown in FIG. 1 is estimated using the first base status estimating unit 25 shown in FIG. 2 and the second base status estimating unit 45. calculate.
The output of step S200 is base status information of the first base 11A and the second base 11B shown in FIG. 1 estimated above.
Specifically, for example, in step S200, the second participant 15 of the second base 11B wants the first participant 13 and the third participant 14 of the first base 11A to be aware of their own existence. The degree is calculated, and the degree in which the first participant 13 and the third participant 14 of the first base 11A are heated to discussion and forgot the presence of the second participant 15 of the second base 11B is calculated.
The input in step S200 is suitable for removing noise from, for example, an audio signal, a video signal, or an acceleration signal obtained using a microphone, a camera, or an acceleration sensor, and detecting the content of the participant's speech and the presence or absence of pronunciation. It is a signal obtained by processing the signal in a sampling cycle.

ステップS200では、例えば音声信号から図1に示す第1参加者13と第2参加者15と第3参加者14の発言の内容や、発言している時間、発言していない時間や、発言の音量から、図1に示す第1拠点11Aのテレビ会議の白熱の度合いや、図1に示す第1拠点11Aのテレビ会議の参加の拠点状況情報を推定する。例えば、映像信号から、図1に示す第1参加者13と第2参加者15と第3参加者14のテレビ会議中の体の動きや、予め定められた特徴的な動作、具体的にはうなずく、みつめる、頬杖をつくなどの動作や、視線の先を特定し誰に向かって会話しているのか等の情報からテレビ会議の拠点状況情報を推定する。例えば、動作や音声の有無や回数のみならず、その動作の大きさについても考慮し、拠点状況情報を推定する。
ステップS200の出力は、上記推定された図1に示す第1拠点11Aのテレビ会議の拠点状況情報や、図1に示す第1拠点11Aのテレビ会議の拠点状況情報である。例えば、図1に示す第1拠点11Aのテレビ会議の白熱度合いや、第2拠点11Bにいる第2参加者15が自分の存在に気づいて欲しいと思っている度合いである。例えば、図1に示す第1拠点11Aの第1参加者13と第3参加者14が第2拠点11Bの第2参加者15の存在を忘れていると推定された拠点状況情報かどうかや、第2拠点11Bの参加者が自分の存在に気づいて欲しいと思っていると推定された状態かどうかである。例えば図1に示す第2参加者15を表すアバターロボット17と第1拠点11Aの第1参加者13と第3参加者14の距離により、第2参加者15に気づきやすい拠点状況情報かどうかを表す値である。
In step S200, for example, the contents of the utterances of the first participant 13, the second participant 15 and the third participant 14 shown in FIG. 1 from the audio signal, the speaking time, the non speaking time, the speaking From the volume, the degree of incandescence of the video conference at the first base 11A shown in FIG. 1 and the base status information of participation in the video conference at the first base 11A shown in FIG. 1 are estimated. For example, from the video signal, body movements during a video conference of the first participant 13, the second participant 15, and the third participant 14 shown in FIG. 1 or a predetermined characteristic operation, specifically, Based on the information such as nodding, finding, and moving a cheek stick, and the information such as who the user is talking to while identifying the end of the line of sight, the base situation information of the video conference is estimated. For example, the base situation information is estimated in consideration of not only the presence or the number of the motion or the voice, but also the magnitude of the motion.
The output of step S200 is the above-estimated base status information of the video conference of the first base 11A shown in FIG. 1 and the base status information of the video conference of the first base 11A shown in FIG. For example, the degree of incandescence of the video conference at the first base 11A shown in FIG. 1 and the degree to which the second participant 15 at the second base 11B wants to be aware of his / her existence. For example, whether the first participant 13 and the third participant 14 of the first base 11A shown in FIG. 1 are base situation information estimated to have forgotten the presence of the second participant 15 of the second base 11B, This is whether or not it is estimated that the participants of the second base 11B want to be aware of their own existence. For example, based on the distance between the avatar robot 17 representing the second participant 15 shown in FIG. 1 and the first participant 13 and the third participant 14 of the first base 11A, it is base status information that easily notices the second participant 15 It is a value to represent.

刺激量算出処理を行うステップS300は、図2に示す第1拠点状況推定部25で推定された拠点状況情報と第2拠点状況推定部45で推定されたと拠点状況情報に基づいて、刺激量算出部57を用いて、刺激量を算出する。
ステップS300の入力は、上記ステップS200の出力である。ステップS300は、図2に示す第1拠点状況推定部25で推定された拠点状況情報と第2拠点状況推定部45で推定されたと拠点状況情報に基づいて、刺激量算出部57を用いて、刺激量を算出する。ステップS300の出力は、上記処理にて算出された刺激量を表す値である。
具体的には、例えば、ステップS300では、図1に示す第1拠点11Aのテレビ会議の拠点状況情報と図1に示す第2拠点11Bのテレビ会議の拠点状況情報に応じて刺激量を算出する。
ステップS300の入力は、例えば、図1に示す第1拠点11Aの第1参加者13と第3参加者14が第2拠点11Bの第2参加者15の存在を忘れていると推定された拠点状況情報かどうかや、第2拠点11Bの参加者が自分の存在に気づいて欲しいと思っていると推定された状態かどうかである。例えば図1に示す第2参加者15を表すアバターロボット17と第1拠点11Aの第1参加者13と第3参加者14の距離により、第2参加者15に気づきやすい拠点状況情報かどうかを表す値である。例えば、図1に示す第1拠点11Aのテレビ会議の拠点状況情報や、図1の第1拠点11Aのテレビ会議の拠点状況情報である。例えば、図1に示す第1拠点11Aのテレビ会議の白熱度合いや、第2拠点11Bにいる第2参加者15が自分の存在に気づいて欲しいと思っている度合いである。
ステップS300では、第2拠点状況情報、第1参加者13の感覚量の範囲に基づいて、第2拠点11Bにいる第2参加者15の言動に現れる会議への参加意思の程度を表す意思量を算出する。
ステップS300では、例えば、図1に示す第1拠点11Aのテレビ会議の白熱度合いや、第2拠点11Bにいる第2参加者15が自分の存在に気づいて欲しいと思っている度合いに応じて図1に示す第1拠点11Aにいる第1参加者13と第3参加者14に提示する刺激量を算出する。
ステップS300の出力は、例えば、図1に示す第1拠点11Aのテレビ会議の白熱度合いや、第2拠点11Bにいる第2参加者15が自分の存在に気づいて欲しいと思っている度合いに応じて図1に示す第1拠点11Aにいる第1参加者13と第3参加者14に提示する刺激量である。
Step S300 for performing the stimulation amount calculation process calculates the stimulation amount based on the base situation information estimated by the first base situation estimation unit 25 and the second base situation estimation unit 45 shown in FIG. Using the part 57, the amount of stimulation is calculated.
The input of step S300 is the output of the above step S200. Step S300 uses the stimulation amount calculation unit 57 based on the base condition information estimated by the first base condition estimation unit 25 shown in FIG. 2 and the base condition information estimated by the second base condition estimation unit 45. Calculate the amount of stimulation. The output of step S300 is a value representing the amount of stimulation calculated in the above process.
Specifically, for example, in step S300, the stimulation amount is calculated according to the base status information of the video conference of the first base 11A shown in FIG. 1 and the base status information of the video conference of the second base 11B shown in FIG. .
The input in step S300 is, for example, a base estimated that the first participant 13 and the third participant 14 of the first base 11A shown in FIG. 1 forget the presence of the second participant 15 of the second base 11B. Whether it is situation information or a state in which it is estimated that the participants of the second base 11B want to be aware of their own existence. For example, based on the distance between the avatar robot 17 representing the second participant 15 shown in FIG. 1 and the first participant 13 and the third participant 14 of the first base 11A, it is base status information that easily notices the second participant 15 It is a value to represent. For example, they are the base status information of the video conference of the first base 11A shown in FIG. 1 and the base status information of the video conference of the first base 11A of FIG. For example, the degree of incandescence of the video conference at the first base 11A shown in FIG. 1 and the degree to which the second participant 15 at the second base 11B wants to be aware of his / her existence.
In step S300, based on the second base situation information and the range of the sense amount of the first participant 13, an intention amount representing the degree of willingness to participate in the conference appearing in the behavior of the second participant 15 at the second base 11B. Calculate
In step S300, for example, according to the degree of incandescence of the video conference at the first base 11A shown in FIG. 1 and the degree to which the second participant 15 at the second base 11B wants to be aware of his / her presence. The amount of stimulation presented to the first participant 13 and the third participant 14 at the first base 11A shown in 1 is calculated.
The output of step S300 is, for example, according to the degree of incandescence of the video conference at the first base 11A shown in FIG. 1 and the degree to which the second participant 15 at the second base 11B wants to be aware of his / her existence. This is the amount of stimulation presented to the first participant 13 and the third participant 14 at the first site 11A shown in FIG.

刺激出力処理を行うステップS400では、図2に示す刺激量算出部55で算出された刺激量を用いて刺激を出力する。
ステップS400の入力は、ステップS300の出力である。ステップS400は、ステップS300にて出力された値を算出された刺激出力部57の入力値に変換する。
ステップS400の出力は、図2に示す刺激出力部57で算出された刺激量を用いて実際に刺激を出力するものである。
具体的には、例えば、ステップS400では、上記ステップS300の出力である刺激を実際に刺激の出力として使用する機器の信号へと変換し、実際に刺激を出力する。
ステップS400の入力は、例えば、図1に示す第1拠点11Aのテレビ会議の白熱度合いや、第2拠点11Bにいる第2参加者15が自分の存在に気づいて欲しいと思っている度合いに応じて図1に示す第1拠点11Aにいる第1参加者13と第3参加者14に提示する刺激量である。
In step S400 which performs a stimulus output process, a stimulus is output using the stimulus amount calculated by the stimulus amount calculation part 55 shown in FIG.
The input of step S400 is the output of step S300. Step S400 converts the value output in step S300 into the calculated input value of the stimulation output unit 57.
The output of step S400 is to actually output a stimulus using the stimulus amount calculated by the stimulus output unit 57 shown in FIG.
Specifically, for example, in step S400, the stimulus which is the output of step S300 is converted into a signal of a device which is actually used as an output of the stimulus, and the stimulus is actually output.
The input in step S400 is, for example, according to the degree of incandescence of the video conference at the first base 11A shown in FIG. 1 and the degree to which the second participant 15 at the second base 11B wants to be aware of his / her existence. This is the amount of stimulation presented to the first participant 13 and the third participant 14 at the first site 11A shown in FIG.

ステップS400では、例えば、図2に示す刺激出力部57で算出された刺激量を振動モータに出力する場合、上記入力された刺激量を振幅と周波数に変換する。振幅は固定で周波数に上記入力された刺激量を変換してもよいし、周波数は固定で振幅に上記入力された刺激量を変換してもよい。
ステップS400の出力は、例えば、図2に示す刺激出力部57で算出された刺激量を振動モータに出力する場合、上記処理にて変換された振幅と周波数にて振動モータを振動させることである。
なお、本実施形態によれば、第2拠点11Bの第2参加者15が第1拠点11Aにいる参加者に向けて提示したい感覚量から刺激量を算出しているが、本発明はこれに限定されるものではない。すなわち、第2拠点状況情報、第1参加者の感覚量の範囲に基づいて、第2拠点11Bにいる第2参加者の言動に現れる会議への参加意思の程度を表す意思量を意思量算出部55bにより算出し、刺激出力部57により意思量に応じた刺激を第1参加者が知覚できるように出力してもよい。これにより、第2拠点状況情報、第1参加者の感覚量の範囲に基づいて、遠隔地の参加者の言動に現れる会議への参加意思の程度を表す意思量を提示する度合いの調整を行うことができる。
また、第1拠点状況情報、第2拠点状況情報、第1参加者の感覚量の範囲に基づいて、遠隔地の参加者の言動に現れる会議への参加意思の程度を表す意思量を提示する度合いの調整を行うことができる。
In step S400, for example, when the stimulation amount calculated by the stimulation output unit 57 shown in FIG. 2 is output to the vibration motor, the input stimulation amount is converted into an amplitude and a frequency. The amplitude may be fixed and convert the input stimulation amount into frequency, or the frequency may be fixed and may convert the input stimulation amount into amplitude.
The output of step S400 is to vibrate the vibration motor with the amplitude and frequency converted in the above process, for example, when the stimulation amount calculated by the stimulation output unit 57 shown in FIG. 2 is output to the vibration motor .
According to the present embodiment, although the second participant 15 of the second base 11B calculates the stimulation amount from the amount of sensation desired to be presented to the participants at the first base 11A, the present invention It is not limited. That is, based on the second base situation information and the range of the amount of sense of the first participant, the intention amount representing the degree of willingness to participate in the meeting appearing in the second participant's behavior at the second base 11B is calculated. The calculation may be performed by the unit 55b, and the stimulation output unit 57 may output the stimulation according to the intention amount so that the first participant can perceive it. Thereby, based on the second base situation information and the range of the amount of sense of the first participant, the degree of presenting the amount of intention indicating the degree of participation intention to the meeting appearing in the behavior of the remote participant is adjusted be able to.
In addition, based on the first location status information, the second location status information, and the range of the first participant's sense amount, an intention amount indicating the degree of participation intention to the conference appearing in the behavior of the remote location participant is presented. It is possible to adjust the degree.

<第2実施形態>
図4は本発明の第2実施形態に係るコミュニケーション補助システムの動作を表すフローチャートであり、特に、図3に示すステップS200の具体的な例を示すフローチャートである。
ステップS210は第1拠点状況算出処理を行うためのサブルーチンであり、ステップS250は第2拠点状況算出処理を行うためのサブルーチンである。図3に示すステップS200は、第1拠点状況算出処理S210と、第2拠点状況算出処理S250からなるステップである。
ステップS210の入力は、図2に示す第1拠点状況取込部23により取り込まれた情報である。一方、ステップS210では、図2に示す第1拠点状況推定部25を用いて第1拠点11Aの拠点状況情報を算出する。ステップS210の出力は、上記処理で算出された第1拠点11Aの拠点状況情報である。
具体的には、例えば、ステップS210の入力は、図1に示す第1拠点11Aの第1参加者13と第3参加者14の状況を計測した情報である。例えば、ノイズの除去や適切なサンプリング周期へ信号変換されたような、前処理を加えた音声信号や映像信号や加速度の信号のデータである。例えば、図1に示す第1参加者13と第2参加者15と第3参加者14のテレビ会議中の体の動きや、予め定められた特徴的な動作、具体的にはうなずく、みつめる、頬杖をつくなどの動作や、視線の先を特定し誰に向かって会話しているのか等のデータである。
Second Embodiment
FIG. 4 is a flowchart showing the operation of the communication support system according to the second embodiment of the present invention, and in particular, a flowchart showing a specific example of step S200 shown in FIG.
Step S210 is a subroutine for performing the first base situation calculation process, and step S250 is a subroutine for performing the second base situation calculation process. Step S200 shown in FIG. 3 is a step including a first base situation calculation process S210 and a second base situation calculation process S250.
The input in step S210 is the information taken in by the first base situation taking-in unit 23 shown in FIG. On the other hand, in step S210, the base situation information of the first base 11A is calculated using the first base situation estimation unit 25 shown in FIG. The output of step S210 is the base status information of the first base 11A calculated in the above process.
Specifically, for example, the input in step S210 is information obtained by measuring the conditions of the first participant 13 and the third participant 14 of the first base 11A shown in FIG. For example, it is data of a pre-processed audio signal, video signal, or acceleration signal, such as noise removal and signal conversion to an appropriate sampling period. For example, the movement of the body during the video conference of the first participant 13, the second participant 15 and the third participant 14 shown in FIG. 1 or a predetermined characteristic action, specifically nodding, finding, It is data such as the action of putting on a cane or the like and who to whom the eyes of a gaze are specified and who is talking with them.

ステップS210では、例えば、第1拠点11Aの第1参加者13と第3参加者14が、第2参加者15を表すアバターロボット17や、多くの場合遠隔テレビ会議に存在する第2参加者15の姿を投影する映像に視線を向けることなく、第1拠点11Aの第1参加者13と第3参加者14のみで会話を続けたりし、第2参加者15に向けた発言を行わないという拠点状況情報を、音声信号や映像信号や、加速度の信号を用いて音と体の動きや視線から推定し算出する。例えば、第1拠点11Aの第1参加者13と第3参加者14と、第2参加者15を表すアバターロボット17との距離を算出する。
ステップS210の出力は、第1拠点11Aの第1参加者13と第3参加者14が第2拠点11Bの第2参加者15の存在を忘れてテレビ会議に白熱している度合いを表す値である。
ステップS250の入力は、図2に示す第2拠点状況取込部43により取り込まれたデータである。
ステップS250では、図2に示す第2拠点状況推定部45を用いて図1に示す第2拠点11Bの拠点状況情報を推定し算出する。
In step S210, for example, the first participant 13 and the third participant 14 of the first base 11A, the avatar robot 17 representing the second participant 15, and the second participant 15 often present in a remote video conference The conversation continues only with the first participant 13 and the third participant 14 of the first base 11A, and does not speak to the second participant 15, without looking at the image projecting the figure of The base situation information is estimated and calculated from the sound and the movement of the body and the line of sight using audio signals, video signals and acceleration signals. For example, the distance between the first participant 13 and the third participant 14 of the first base 11A and the avatar robot 17 representing the second participant 15 is calculated.
The output of step S210 is a value representing the degree to which the first participant 13 and the third participant 14 of the first base 11A forget the presence of the second participant 15 of the second base 11B and are heated in the video conference. is there.
The input in step S250 is data taken in by the second base situation taking-in unit 43 shown in FIG.
In step S250, the base situation information of the second base 11B shown in FIG. 1 is estimated and calculated using the second base situation estimation unit 45 shown in FIG.

ステップS250の出力は、上記処理で算出された図1に示す第2拠点11Bの拠点状況情報を表すデータある。
具体的には、例えば、ステップS250の入力は、図1に示す第2拠点11Bの第2参加者15の拠点状況情報を計測した情報である。例えば、ノイズの除去や適切なサンプリング周期へ信号変換されたような、前処理を加えた音声信号や映像信号や加速度の信号のデータである。例えば、図1に示す第2拠点11Bの第2参加者15の音声信号であったり、例えば、頬杖をついたり、うなずいたり、ため息をついたりなどの特徴的な動作の信号である。
ステップS250では、図1に示す第2拠点11Bにいる第2参加者15の拠点状況情報を算出する。例えば第2拠点11Bの第2参加者15のテレビ会議の参加が、発言を予め定められた時間以上発言しておらず、例えば、頬杖をついたり、うなずいたり、ため息をついたりなどの特徴的な動作を行い、第1拠点11Aの第1参加者13と第3参加者14に存在に気づいて欲しいと思っている拠点状況情報を、音声信号や映像信号や加速度の信号を用いて音と体の動きや視線から推定し算出する処理である。
ステップS250の出力は、例えば第2拠点11Bの第2参加者15が発言するまでではないが、第1拠点11Aの第1参加者13と第3参加者14に自分の存在を気にして欲しい又は気づいて欲しいと思っている拠点状況情報の度合いを表す値である。
このように、第2拠点状況情報、第1参加者の感覚量の範囲に基づいて、遠隔地の参加者の言動に現れる会議への参加意思の程度を表す意思量を提示する度合いの調整を行うことができる。
The output of step S250 is data representing the base situation information of the second base 11B shown in FIG. 1 calculated in the above process.
Specifically, for example, the input in step S250 is information obtained by measuring the base situation information of the second participant 15 of the second base 11B shown in FIG. For example, it is data of a pre-processed audio signal, video signal, or acceleration signal, such as noise removal and signal conversion to an appropriate sampling period. For example, it is an audio signal of the second participant 15 of the second base 11B shown in FIG. 1 or a signal of a characteristic operation such as putting on a cheek stick, nodding, and sighing.
In step S250, base status information of the second participant 15 at the second base 11B shown in FIG. 1 is calculated. For example, the participation of the second participant 15 of the second base 11B in the video conference does not speak the speech for a predetermined time or more. For example, it is characteristic that the cheek cane is worn, nods, sighs, etc. The base situation information that you want the first participant 13 and the third participant 14 of the first base 11A to notice the presence, and the sound and the video signal and the signal of the acceleration and sound It is a process to estimate and calculate from the movement of the body and the line of sight.
The output of step S250 is not until, for example, the second participant 15 of the second base 11B speaks, but wants the first participant 13 and the third participant 14 of the first base 11A to be aware of their own existence Alternatively, it is a value representing the degree of base situation information that you want to be noticed.
Thus, based on the second base situation information and the range of the amount of sense of the first participant, the adjustment of the degree of presenting the amount of intention indicating the degree of willingness to participate in the conference appearing in the behavior of the remote participant It can be carried out.

<第3実施形態>
図5は本発明の第3実施形態に係るコミュニケーション補助システムの動作を表すフローチャートであり、特に、図4に示す第1拠点状況算出処理(S210)の具体的な例を表すフローチャートである。
まず、図5に示すフローチャートについて概略的に説明する。
ステップS211では、第2参加者15が予め定められた時間以上発言していないか判定する。第2参加者15が予め定められた時間以上発言していない場合は、ステップS212に進み、変数の初期化を行う。ステップS213では、参加者の挙動に特徴的動作があるか判定する。特徴的動作がある場合はステップS214に進み、発言者の特定と視線検出の処理を行う。
ステップS215では、発言者の視線の先は第2参加者15に相当する場所以外であるか判定する。発言者の視線の先は第2参加者15に相当する場所以外である場合はステップS216に進み、検出された第1拠点11Aの特徴的動作の回数を更新する。次いで、ステップS217では、検出された第1拠点11Aの特徴的動作の総量を更新する。次いで、ステップS218では、ループ変数を更新する。次いで、ステップS219では、次のステップで考慮する時刻が0より小さいか判定する。
次のステップで考慮する時刻が0より小さい場合は、ステップS220に進み、検出された第1拠点11Aの特徴的動作の回数が予め定められた特徴的動作の回数の閾値より大きいか判定する。
第1拠点11Aの特徴的動作の回数が予め定められた特徴的動作の回数の閾値より大きい場合は、ステップS221に進み、第1拠点11Aの拠点状況情報を表すフラグを算出する。次いで、ステップS222では、算出されたデータを出力する。
Third Embodiment
FIG. 5 is a flowchart showing the operation of the communication assistance system according to the third embodiment of the present invention, and in particular, a flowchart showing a specific example of the first base situation calculation process (S210) shown in FIG.
First, the flowchart shown in FIG. 5 will be schematically described.
In step S211, it is determined whether the second participant 15 has been speaking for a predetermined time or more. If the second participant 15 has not made a statement for a predetermined time or more, the process proceeds to step S212 to initialize variables. In step S213, it is determined whether there is a characteristic action in the behavior of the participant. If there is a characteristic operation, the process proceeds to step S214, and processing for speaker identification and gaze detection is performed.
In step S215, it is determined whether the line of sight of the speaker is other than the place corresponding to the second participant 15. If the line of sight of the speaker is other than the place corresponding to the second participant 15, the process proceeds to step S216, and the number of characteristic operations of the detected first base 11A is updated. Next, in step S217, the total amount of characteristic operations of the detected first base 11A is updated. Next, in step S218, the loop variable is updated. Next, in step S219, it is determined whether the time considered in the next step is less than zero.
If the time to be considered in the next step is less than 0, the process proceeds to step S220, and it is determined whether the number of characteristic operations of the detected first base 11A is larger than a predetermined threshold of characteristic operations.
If the number of characteristic operations of the first base 11A is larger than the threshold of the number of characteristic operations determined in advance, the process proceeds to step S221, and a flag representing base status information of the first base 11A is calculated. Next, in step S222, the calculated data is output.

ここで、図5に示すフローチャートに用いる変数の定義について説明する。
Time_curentは、現在の時刻を表す。Time_intervalは、予め定められた時間の間隔を表す値で、現在の時刻からこの時間の間隔毎に特長的動作の検出を行うために使用する。Time_nonVoiceは、予め定められた時間の長さを表す値で、第2参加者15がこの値以上に無音区間であるかを判定するステップで使用する。Flag_11Aは、第1拠点11Aの拠点状況情報を表すフラグであり、0か1の値をとる。
1の時に、第1拠点11Aの拠点状況情報は第2拠点11Bの拠点状況情報を忘れて議論に白熱している状態を表す。それ以外のときは0の値をとる。jは、ループの変数を表す。MotionValue_averageは、予め定められた特徴的動作の大きさの平均値を表す。MotionCTS_Thresholdは、予め定められた特徴的動作の回数の閾値を表す。MotionValue_detectionは、検出された特徴的動作の量を表す。MotionValue_11Aは、検出された第1拠点11Aの特徴的動作の総量を表す。MotionCTS_11Aは、検出された第1拠点11Aの特徴的動作の回数を表す。
Here, the definition of the variable used for the flowchart shown in FIG. 5 is demonstrated.
Time_curent represents the current time. Time_interval is a value representing a predetermined time interval, and is used to detect a characteristic operation every current time interval from the current time. Time_nonVoice is a value representing a predetermined length of time, and is used in the step of determining whether the second participant 15 is a silent section more than this value. Flag_11A is a flag representing base status information of the first base 11A, and takes a value of 0 or 1.
At the time of 1, the base status information of the first base 11A represents a state in which the base status information of the second base 11B is forgotten and heated in the discussion. Otherwise it takes a value of 0. j represents a variable of a loop. MotionValue_average represents an average value of predetermined characteristic motion magnitudes. MotionCTS_Threshold represents a threshold of the number of predetermined characteristic operations. MotionValue_detection represents the amount of characteristic motion detected. MotionValue_11A represents the total amount of characteristic motions of the detected first base 11A. MotionCTS_11A represents the number of characteristic operations of the detected first base 11A.

図5に示すフローチャートにおいて、第2参加者15が予め定められた時間以上発言していないか判定するステップS211の入力は、第2拠点11Bの拠点状況情報を計測したデータである。例えば、第2拠点11Bの第2参加者15のマイクにより計測された音声信号である。
第2参加者15が予め定められた時間以上発言していないか判定するステップS211の処理は、第2参加者15が予め定められた時間Time_nonVoice以上に発言していないか判定する処理である。現在の時刻Time_curentからTime_curent−Time_nonVoiceまで第2参加者15が予め定められた音量以上の音声を発していない場合、第2参加者15が予め定められた時間以上発言していない、と判定される。第2参加者15が予め定められた時間以上発言していないか判定するステップS211の出力は、「はい」又は「いいえ」である。「はい」である場合はS212へ、「いいえ」である場合は終了のステップへ進む。加えて、現在の時刻Time_curentを出力する。
次いで、変数の初期化を行うステップS212の入力は、S211の出力である。変数の初期化を行うステップS212の処理は、変数の初期化を行う処理である。具体的には、第1拠点11Aの拠点状況情報を表すフラグFlag_11Aと、検出された第1拠点11Aの特徴的動作の総量MotionValue_11Aと、検出された第1拠点11Aの特徴的動作の回数MotionCTS_11Aと、ループの変数jと、の値を0にすることである。変数の初期化を行うステップS212の出力は、Flag_11AとMotionValue_11AとMotionCTS_11Aとjと、S211で出力されたTime_curentの値である。
In the flowchart shown in FIG. 5, the input of step S211 of determining whether the second participant 15 has not made a statement for a predetermined time or more is data obtained by measuring the base situation information of the second base 11B. For example, it is an audio signal measured by the microphone of the second participant 15 of the second base 11B.
The process of step S211 of determining whether the second participant 15 has made a speech for a predetermined time or more is a process of determining whether the second participant 15 has made a speech for a predetermined time, Time_nonVoice or more. It is determined that the second participant 15 has not spoken for more than a predetermined time if the second participant 15 does not emit a voice at or above the predetermined volume from the current time Time_curent to Time_curent-Time_nonVoice. . The output of step S211 which determines whether the 2nd participant 15 has not spoken more than predetermined time is "yes" or "no." If "yes", the process proceeds to step S212, and if "no", the process proceeds to an end step. In addition, the current time Time_curent is output.
Then, the input of step S212 which performs initialization of a variable is an output of S211. The process of step S212 for initializing a variable is a process for initializing a variable. Specifically, a flag Flag_11A representing base status information of the first base 11A, a total amount MotionValue_11A of the characteristic operations of the detected first base 11A, and a number of times MotionCTS_11A of the characteristic operations of the detected first base 11A , And the variable j of the loop, to be 0. The outputs of step S212 for initializing variables are Flag_11A, MotionValue_11A, MotionCTS_11A, j, and the value of Time_curent output in S211.

次いで、特徴的動作があるか判定するステップS213の入力は、S212の出力と、予め定められた正規化された特徴的動作の信号である。特徴的動作があるか判定するステップS213の処理は、時刻{Time_curent − j×予め定められた時間の間隔Time_interval}から、時刻{Time_curent − (j+1)×Time_interval}まで、の間に予め定められた特徴的動作があるか判定する処理である。
具体的には、加速度センサの信号を用いる場合、予め定められた正規化された特徴的動作、例えば、うなずくという動作の、加速度センサのx、y、zの信号を用意し、パターン認識の処理により、上記時刻の区間に、うなずくという動作の信号とマッチしている信号があるかを判定する。上記の予め定められた特徴的動作は、1つの動作に限ることなく、複数の動作を用意しておいてもよい。検出したい動作の数だけ用意する必要がある。
Next, the input of step S213 for determining whether there is a characteristic operation is the output of S212 and a signal of a predetermined normalized characteristic operation. The process of step S213 for determining whether there is a characteristic operation is predetermined between time {Time_curent − j × predetermined time interval Time_interval} and time {Time_curent − (j + 1) × Time_interval}. It is a process of determining whether there is a characteristic operation.
Specifically, in the case of using the signal of the acceleration sensor, the signal of x, y, z of the acceleration sensor of a predetermined normalized characteristic operation, for example, the operation of nodding is prepared, and the pattern recognition process is performed. Thus, it is determined whether or not there is a signal matching the signal of the operation of nodding in the time zone. The predetermined characteristic operation described above is not limited to one operation, and a plurality of operations may be prepared. It is necessary to prepare as many operations as you want to detect.

このフローチャートでは、検出したい特徴的動作が1つである場合を例に説明したものである。特徴的動作があるか判定するステップS213の出力は、「はい」、又は「いいえ」、である。上記処理にて特徴的動作が抽出された場合は「はい」、されなかった場合は「いいえ」、を出力する。「はい」である場合はステップS214へ、「いいえ」である場合はS218のステップに進む。
加えて、上記処理にて得られた特徴的動作のデータである特徴的動作情報の種類、回数、その大きさを出力する。具体的には、特徴的動作の大きさは、検出された特徴的動作の量MotionValue_detectionの変数に保持する。例えば、大きくうなずいた場合、予め定められた正規化された加速度センサの信号より大きな信号となる。加速度センサの信号、具体的には波形の振幅などのデータにより、ステップS213の処理にて大きさを算出し、出力する。
加えて、j、Flag_11A、MotionValue_11A、MotionCTS_11A、Time_curentの値も出力する。これらの変数の値は、その度、出力してもよいし、データベースで管理してもよい。今後、出力や入力に関するデータについては必要に応じて省略する。
In this flowchart, the case where there is one characteristic operation to be detected is described as an example. The output of step S213 for determining whether there is a characteristic operation is “Yes” or “No”. If the characteristic motion is extracted in the above processing, “Yes” is output, and if not, “No” is output. If "yes", the process proceeds to step S214. If "no", the process proceeds to step S218.
In addition, the type, the number, and the size of the characteristic motion information that is data of the characteristic motion obtained by the above processing are output. Specifically, the magnitude of the characteristic motion is held in the variable MotionValue_detection of the amount of characteristic motion detected. For example, when the signal is greatly nodded, the signal is larger than the signal of the predetermined normalized acceleration sensor. Based on the signal of the acceleration sensor, specifically, the data such as the amplitude of the waveform, the size is calculated and output in the process of step S213.
In addition, the values of j, Flag_11A, MotionValue_11A, MotionCTS_11A, and Time_curent are also output. The values of these variables may be output each time or may be managed by a database. In the future, data on output and input will be omitted as necessary.

次いで、発言者の特定と視線検出の処理を行うステップS214の入力は、ステップS213の出力である。発言者の特定と視線検出の処理を行うステップS214の処理は、第1拠点11Aで発言している発言者の特定と、発言している発言者の発言相手を視線検出により特定する処理である。
具体的には、例えば、音声信号により、第1拠点11Aにいる第1参加者13と第3参加者14のうち、どちら、又は両方が会話しているのか、又はだれも会話していないのかを判定する。1人以上の発話が確認された場合、映像信号により、視線を検出し、発言相手を特定する処理を行う。発言者の特定と視線検出の処理を行うステップS214の出力は、発言者とその視線の先を表すデータである。
発言者の視線の先は第2参加者15に相当する場所以外であるか判定するステップS215の入力は、ステップS214の出力である。
Then, the input of step S214 which performs processing of speaker specification and gaze detection is an output of step S213. The process of step S214 which performs the process of specifying the speaker and the line of sight detection is a process of specifying the speaker who is speaking at the first base 11A and identifying the other party of the speaker who is speaking by the line of sight detection. .
Specifically, for example, which one or both of the first participant 13 and the third participant 14 at the first base 11A are talking with an audio signal, or no one is talking Determine When one or more utterances are confirmed, a line of sight is detected from the video signal, and processing for identifying the other party is performed. The output of step S214 which performs processing of speaker specification and gaze detection is data representing the speaker and the end of the gaze.
The input of step S215 for determining whether the line of sight of the speaker is other than the place corresponding to the second participant 15 is the output of step S214.

発言者の視線の先は、第2参加者15に相当する場所以外であるか判定するステップS215の処理は、ステップS214の出力である、発言者の視線の先が第2参加者15を表すものでないかを判定する処理である。発言者の視線の先は第2参加者15に相当する場所以外であるか判定するステップS215の出力は、「はい」又は「いいえ」である。「はい」である場合はS220へ、「いいえ」である場合は終了のステップに進む。
例えば、図1に示す第1拠点11Aには第2参加者15を表すアバターロボット17が存在しているとする。具体的には、発言者の視線の先がアバターロボット17である場合は、発言者の視線の先は第2参加者15を表すものであるため、判定は「いいえ」、となる。例えば、多くの遠隔テレビ会議で用いられているように、スクリーンに遠隔地参加者の様子を映す場合、発言者の視線の先がスクリーンであった場合、判定は「いいえ」となる。逆に、発言者が、自分と同じ拠点にいる参加者に向けて発言している場合、具体的には、第1拠点11Aの第1参加者13が第3参加者14に向けて発言している場合は、判定は、「はい」、になる。
The process of step S215 for determining whether the point of the speaker's line of sight is other than a place corresponding to the second participant 15 is the output of step S214, and the line of sight of the speaker represents the second participant 15 It is a process to determine if it is not a thing. The output of step S215 of determining whether the line of sight of the speaker is outside the place corresponding to the second participant 15 is "Yes" or "No". If "yes", the process proceeds to step S220, and if "no", the process proceeds to an end step.
For example, it is assumed that an avatar robot 17 representing the second participant 15 exists in the first base 11A shown in FIG. Specifically, when the end of the line of sight of the speaker is the avatar robot 17, since the end of the line of sight of the speaker indicates the second participant 15, the determination is "No". For example, as shown in many remote video conferences, when a remote participant is displayed on the screen, the determination is "No" if the line of sight of the speaker is the screen. Conversely, when the speaker speaks to a participant who is at the same base as himself, specifically, the first participant 13 of the first base 11A speaks to the third participant 14 If yes, the determination is "Yes".

次いで、検出された第1拠点11Aの特徴的動作情報の回数を更新するステップS216の入力は、ステップS215の出力、「はい」、である。加えて、ステップS213で検出した特徴的動作情報のデータである。検出された第1拠点11Aの特徴的動作情報の回数を更新するステップS216の処理は、検出された第1拠点11Aの特徴的動作情報の回数MotionCTS_11Aの値を更新する処理である。
具体的には、例えば、ステップS213にて検出された特徴的動作情報が1つである場合、MotionCTS_11Aの値に1を加える。仮に、ステップS213にて検出された特徴的動作情報が1つ以上である場合には、その数に応じて値を加えてもよい。検出された第1拠点11Aの特徴的動作情報の回数を更新するステップS216の出力は、更新されたMotionCTS_11Aの値である。
次いで、検出された第1拠点11Aの特徴的動作情報の総量を更新するステップS217の入力は、ステップS213で検出した特徴的動作情報のデータである。具体的には、例えば、検出された特徴的動作情報の量Motion_detectionである。検出された第1拠点11Aの特徴的動作情報の総量を更新するステップS217の処理は、ステップS217の入力データから特徴的動作情報の総量MotionValue_11Aを更新する処理を行う。
Then, the input of step S216 which updates the number of times of the characteristic operation information of the detected first base 11A is the output of step S215, "Yes". In addition, it is data of characteristic operation information detected in step S213. The process of step S216 of updating the number of times of the characteristic operation information of the detected first base 11A is a process of updating the value MotionCTS_11A of the number of times of the characteristic operation information of the detected first base 11A.
Specifically, for example, when there is one piece of characteristic motion information detected in step S213, 1 is added to the value of MotionCTS_11A. If there is one or more pieces of characteristic motion information detected in step S213, values may be added according to the number. The output of step S216 for updating the number of times of the characteristic operation information of the detected first base 11A is the updated value of MotionCTS_11A.
Next, the input in step S217 of updating the total amount of the characteristic operation information of the detected first base 11A is data of the characteristic operation information detected in step S213. Specifically, for example, the amount Motion_detection of the detected characteristic motion information. The process of step S217 for updating the total amount of the characteristic operation information of the detected first base 11A performs a process for updating the total motion value MotionValue_11A of the characteristic operation information from the input data of step S217.

例えば、ステップS213にて検出された特徴的動作情報が1つである場合、具体的には、その検出された特徴的動作情報の大きさの平均値がMotionValue_averageである場合、検出された第1拠点11Aの特徴的動作情報の総量MotionValue_11Aの値は、現在のMotionValue_11Aの値に、MotionValue_detection÷MotionValue_averageの値を加えたものである。
ステップS213にて検出された特徴的動作情報が大きい場合、MotionValue_11Aの値は大きな値が加えられることになる。これは、議論が白熱すれば体の動きも大きくなることを反映した値である。検出された第1拠点11Aの特徴的動作情報の総量を更新するステップS217の出力は、上記処理にて算出され、更新された、第1拠点11Aの特徴的動作情報の総量MotionValue_11Aである。
For example, if there is one characteristic motion information detected in step S213, specifically, if the average value of the magnitudes of the detected characteristic motion information is MotionValue_average, the detected first The value of the total motion value_ 11 A of the characteristic motion information of the base 11 A is obtained by adding the value of MotionValue_detection / MotionValue_average to the current value of MotionValue_ 11 A.
When the characteristic motion information detected in step S213 is large, a large value is added to the value of MotionValue_11A. This is a value that reflects that the movement of the body also increases if the argument heats up. The output of step S217 for updating the total amount of characteristic operation information of the detected first base 11A is the total amount MotionValue_11A of the characteristic operation information of the first base 11A calculated and updated in the above process.

次いで、ループ変数を更新するステップS218の入力は、現在のjの値である。ループ変数を更新するステップS218の処理は、jに1を加える処理である。ループ変数を更新するステップS218の出力は、更新されたjの値である。これは、ステップS213にて特徴的動作情報を検出する時刻の区間を更新するために行う処理である。
次のステップで考慮する時刻が0より小さいか判定するステップS219の入力は、ステップS218の出力であるjと、Time_curentとTime_intervalである。次のステップで考慮する時刻が0より小さいか判定するステップS219の処理は、次のステップで行うステップS213にて特徴的動作情報を検出する時刻の区間が、0より小さいかを判定するステップである。具体的には、Time_curent −(j+1)×Time_intervalの値が0より小さいかを判定する。0より小さい場合は、「はい」、0以上である場合は「いいえ」、となる。
次のステップで考慮する時刻が0より小さいか判定するステップS219の出力は、「はい」、又は「いいえ」である。「はい」である場合はステップS220へ、「いいえ」である場合はステップS213のステップへ進む。
次いで、検出された第1拠点11Aの特徴的動作情報の回数が予め定められた特徴的動作情報の回数の閾値より大きいか判定するステップS220の入力は、ステップS219の「はい」、とMotionCTS_100と予め定められた特徴的動作情報の回数の閾値MotionCTS_Thresholdの値である。
Then, the input of step S218 of updating the loop variable is the current value of j. The process of step S218 of updating the loop variable is a process of adding 1 to j. The output of step S218 of updating the loop variable is the updated value of j. This is a process performed to update a section of time at which the characteristic motion information is detected in step S213.
The input of step S219 which determines whether the time considered in the next step is less than 0 is j which is the output of step S218, Time_curent, and Time_interval. The process of step S219 of determining whether the time considered in the next step is less than 0 is a step of determining whether the section of time of detecting characteristic motion information is less than 0 in step S213 performed in the next step. is there. Specifically, it is determined whether the value of Time_curent− (j + 1) × Time_interval is smaller than zero. If it is smaller than 0, it becomes "Yes", and if it is 0 or more, it becomes "No".
The output of step S219 that determines whether the time considered in the next step is less than 0 is “Yes” or “No”. If the determination is "yes", the process proceeds to step S220. If the determination is "no", the process proceeds to step S213.
Subsequently, the input of step S220 which determines whether the number of times of the characteristic operation information of the detected first base 11A is larger than the threshold of the number of predetermined characteristic operation information is “Yes” in step S219 and MotionCTS_100 The threshold value MotionCTS_Threshold is a value of the number of times of predetermined characteristic motion information.

検出された第1拠点11Aの特徴的動作情報の回数が予め定められた特徴的動作情報の回数の閾値より大きいか判定するステップS220の処理は、ステップS216にて更新されたMotionCTS_100の値がMotionCTS_Thresholdより大きいかを判定する処理を行う。
MotionCTS_100の値がMotionCTS_Thresholdより大きい場合には「はい」、小さい場合には「いいえ」と判定する。例えば、第1拠点11Aにいる第1参加者13が、かつステップS214、ステップS215で第2参加者15を表すもの以外に視線を向けた状態で、特徴的動作情報の回数が多く検出された場合、具体的には、第2拠点11Bの第2参加者15を忘れて議論が白熱している可能性がある状態である。その回数が予め定められた回数以上である場合には、議論が白熱している状態であると判定する処理を行っている。検出された第1拠点11Aの特徴的動作情報の回数が予め定められた特徴的動作情報の回数の閾値より大きいか判定するステップS220の出力は、上記処理にて判定された「はい」、又は「いいえ」である。
In the process of step S220 of determining whether the number of times of the characteristic operation information of the detected first base 11A is larger than the threshold of the number of times of predetermined characteristic operation information, the MotionCTS_100 value updated in step S216 is MotionCTS_Threshold. Perform processing to determine whether it is larger.
If the value of MotionCTS_100 is larger than MotionCTS_Threshold, “Yes” is determined, and if smaller, “No” is determined. For example, with the first participant 13 at the first base 11A turning to the line of sight other than the one representing the second participant 15 in steps S214 and S215, the number of times of the characteristic operation information is detected a lot In the case, specifically, the second participant 15 of the second base 11B is forgotten and there is a possibility that the discussion may be heated. When the number of times is equal to or more than a predetermined number of times, processing is performed to determine that the discussion is in a hot state. The output of step S220 of determining whether the number of times of the characteristic operation information of the detected first base 11A is larger than the threshold of the number of predetermined characteristic operation information is “Yes” determined by the above process, or "No".

第1拠点11Aの拠点状況情報を表すフラグを算出するステップS221の入力は、ステップS220の出力、「はい」、である。第1拠点11Aの拠点状況情報を表すフラグを算出するステップS221の処理は、第1拠点11Aの拠点状況情報を表すフラグFlag_11Aの値を算出する処理である。Flag_11Aは、0か1の値をとる。Flag_11Aは、1の時、第1拠点11Aの拠点状況情報は第2拠点11Bの状況を忘れて議論に白熱している状態を表す。それ以外のときは0の値をとる。具体的には、例えば、ステップS220にて、第2拠点11Bの第2参加者15を忘れて議論が白熱している状態であると判定された場合には1の値を設定する。それ以外の時には0の値を設定する処理を行う。第1拠点11Aの拠点状況情報を表すフラグを算出するステップS221の出力は、Flag_11Aの値である。
算出されたデータを出力するステップS222の入力は、Flag_11Aと、MotionCTS_11Aと、MotionValue_11Aの値である。算出されたデータを出力するステップS222の処理は、入力データを出力することである。これまでのステップにて算出、更新されたデータの値を出力する処理を行う。算出されたデータを出力するステップS222の出力は、Flag_11Aと、MotionCTS_11Aと、MotionValue_11Aの値である。
The input in step S221 for calculating the flag representing the base situation information of the first base 11A is the output of step S220, "Yes". The process of step S221 for calculating a flag representing the base situation information of the first base 11A is a process for calculating the value of the flag Flag_11A indicating the base situation information of the first base 11A. Flag_11A takes a value of 0 or 1. When the flag_11A is 1, the base status information of the first base 11A represents a state in which the status of the second base 11B is forgotten and the discussion is heated. Otherwise it takes a value of 0. Specifically, for example, when it is determined in step S220 that the second participant 15 of the second base 11B has been forgotten and it is determined that the discussion is in a heated state, a value of 1 is set. Otherwise, the process of setting a value of 0 is performed. The output of step S221 for calculating the flag representing the base situation information of the first base 11A is the value of Flag_11A.
The inputs of step S222 for outputting the calculated data are the values of Flag_11A, MotionCTS_11A, and MotionValue_11A. The process of step S222 for outputting the calculated data is to output the input data. A process is performed to output the value of data calculated and updated in the previous steps. The outputs of step S222 for outputting the calculated data are the values of Flag_11A, MotionCTS_11A, and MotionValue_11A.

例えば、第1拠点11Aの状況が第2拠点11Bの状況を忘れて議論に白熱している状態である場合、具体的には、Flag_11Aは1の値をとる。白熱している度合いが大きい場合には、MotionCTS_11Aと、MotionValue_11Aの値が大きくなり、白熱している度合いが小さい場合には、MotionCTS_11Aと、MotionValue_11Aの値は小さくなる。
このように、第1特徴的動作情報、発言者情報、及び対話相手情報を第1拠点状況情報として用いることで、遠隔地の参加者の言動に現れる会議への参加意思の程度を表す意思量を提示する度合いの調整を行うことができる。
また、所定時間内における第2拠点11Bの音声信号が所定音量以下である場合に、第2拠点11Bの映像信号に基づいて第2特徴的動作情報を抽出するので、遠隔地の参加者の言動に現れる会議への参加意思の程度を表す意思量を算出することができる。
For example, when the situation of the first base 11A is in a state of forgetting the situation of the second base 11B and being in a heated state for discussion, specifically, Flag_11A takes a value of 1. If the degree of incandescence is large, the values of MotionCTS_11A and MotionValue_11A increase, and if the degree of incandescence is small, the values of MotionCTS_11A and MotionValue_11A decrease.
As described above, by using the first characteristic motion information, the speaker information, and the conversation partner information as the first base situation information, the intention amount indicating the degree of the willingness to participate in the conference appearing in the behavior of the remote participant Can be adjusted to the degree of presentation.
In addition, when the audio signal of the second base 11B within the predetermined time is lower than the predetermined volume, the second characteristic operation information is extracted based on the video signal of the second base 11B, so the speech and activity of the remote participant Can be calculated to represent the degree of willingness to participate in the conference.

<第4実施形態>
図6は、本発明の第4実施形態に係るコミュニケーション補助システムの動作を表すフローチャートであり、特に、図4に示す第2拠点状況算出処理(ステップS250)の具体的な例を説明するためのフローチャートである。
まず、図6に示すフローチャートについて概略的に説明する。
ステップS251では、第2参加者が予め定められた時間以上発言していないか判定する。ステップS252では、変数の初期化を行う。ステップS253では、特徴的動作情報があるか判定する。ステップS254では、検出された第2拠点11Bの特徴的動作情報の回数を更新する。ステップS255では、検出された第2拠点11Bの特徴的動作情報の総量を更新する。ステップS256では、ループ変数を更新する。ステップS257では、次のステップで考慮する時刻が0より小さいか判定する。ステップS258では、検出された第2拠点11Bの特徴的動作情報の回数が予め定められた特徴的動作情報の回数の閾値より大きいか判定する。ステップS259では、第2拠点11Bの拠点状況情報を表すフラグを算出する。ステップS260では、算出されたデータを出力する。
Fourth Embodiment
FIG. 6 is a flowchart showing the operation of the communication support system according to the fourth embodiment of the present invention, and in particular, for explaining a specific example of the second base situation calculation process (step S250) shown in FIG. It is a flowchart.
First, the flowchart shown in FIG. 6 will be schematically described.
In step S251, it is determined whether the second participant has been speaking for a predetermined time or more. In step S252, variables are initialized. In step S253, it is determined whether there is characteristic motion information. In step S254, the number of times of the characteristic operation information of the detected second base 11B is updated. In step S255, the total amount of the characteristic operation information of the detected second base 11B is updated. In step S256, the loop variable is updated. In step S257, it is determined whether the time considered in the next step is less than zero. In step S258, it is determined whether the number of times of the detected characteristic operation information of the second base 11B is larger than a predetermined threshold of the number of the characteristic operation information. In step S259, a flag representing the base situation information of the second base 11B is calculated. In step S260, the calculated data is output.

ここで、図6に示すフローチャートに用いる変数の定義について説明する。
なお、変数の定義のうち、図5を参照して説明した変数については省略する。
Flag_11Bは、第2拠点11Bの拠点状況情報を表すフラグ。0か1の値をとる。1の時に、第2拠点11Bの拠点状況情報は第1拠点11Aにいる参加者に発言するまでではないが自分の存在に気づいて欲しいと思っている拠点状況情報を表す。それ以外のときは0の値をとる。iは、ループの変数を表す。MotionValue_11Bは、検出された第2拠点11Bの特徴的動作情報の総量を表す。MotionCTS_11Bは、検出された第2拠点11Bの特徴的動作情報の回数を表す。
第2参加者15が予め定められた時間以上発言していないか判定するステップS251は、図5に示すステップS211と同じである。
変数の初期化を行うステップS252は、図4に示すステップS212と同様の内容である。ステップS252では、検出された第2拠点11Bの特徴的動作情報の総量MotionValue_11B、検出された第2拠点11Bの特徴的動作情報の回数MotionCTS_11Bと、ループの変数iと、第2拠点11Bの拠点状況情報を表すフラグFlag_11Bを用いており、MotionValue_11BはステップS212のMotionValue_11Aに、MotionCTS_11BはステップS212のMotionCTS_11Aに、iはステップS212のjに、Flag_11BはステップS212のFlag_11Aに相当する。
Here, the definition of the variable used for the flowchart shown in FIG. 6 is demonstrated.
Among the definitions of variables, the variables described with reference to FIG. 5 will be omitted.
Flag_11B is a flag indicating the base situation information of the second base 11B. Takes a value of 0 or 1. At the time of 1, the base situation information of the second base 11B represents the base situation information which is not until the participant in the first base 11A speaks, but wants to be aware of his / her existence. Otherwise it takes a value of 0. i represents a variable of loop. MotionValue_ 11 B represents the total amount of characteristic motion information of the detected second base 11 B. MotionCTS_11B represents the number of times of the characteristic operation information of the detected second base 11B.
Step S251 of determining whether the second participant 15 has not made a statement for a predetermined time or more is the same as step S211 shown in FIG.
Step S252 for initializing variables has the same contents as step S212 shown in FIG. In step S252, the total amount MotionValue_11B of the characteristic operation information of the second base 11B detected, the number MotionCTS_11B of the characteristic operation information of the second base 11B detected, the variable i of the loop, and the base status of the second base 11B The flag Flag_11B representing information is used, MotionValue_11B corresponds to MotionValue_11A in step S212, MotionCTS_11B corresponds to MotionCTS_11A in step S212, i corresponds to j in step S212, and Flag_11B corresponds to Flag_11A in step S212.

特徴的動作情報があるか判定するステップS253は、図4に示すステップS213と同様の内容である。ただし、図4に示すステップS213では、第1拠点11Aの第1参加者13と第3参加者14の、テレビ会議に白熱している様子を表す特徴的動作情報を抽出していたが、ステップS253で対象とする特徴的動作情報は、第2拠点11Bの第2参加者15が、自分の存在にきづいて欲しいと思った時にみせる特徴的動作情報である。例えば、ため息をつく動作など、テレビ会議においていかれていると思った時にみせる特徴的動作情報である。
次いで、検出された第2拠点11Bの特徴的動作情報の回数を更新するステップS254は、図5のステップS216と同様の内容である。ただし、用いる変数は、図6の変数の定義にて説明した第2拠点11Bに関する変数である。
検出された第2拠点11Bの特徴的動作情報の総量を更新するステップS255は、図5に示すステップS217と同様の内容である。ただし、用いる変数は、図6の変数の定義にて説明した第2拠点11Bに関する変数である。
ループ変数を更新するステップS256は、図5に示すステップS218と同様の内容である。ただし用いる変数はiである。
次のステップで考慮する時刻が0より小さいか判定するステップS257は、図5に示すステップS219と同様の内容である。
Step S253 of determining whether there is characteristic motion information has the same contents as step S213 shown in FIG. However, in step S213 shown in FIG. 4, the characteristic motion information representing the appearance of the first and second participants 13 and 14 of the first base 11A in a video conference is extracted. The characteristic motion information targeted in S253 is characteristic motion information that is shown when the second participant 15 of the second base 11B wants to know his / her existence. For example, it is characteristic motion information such as a motion that causes a sigh to appear when it is thought that the user is in a video conference.
Next, Step S254 of updating the number of times of the characteristic operation information of the detected second base 11B has the same contents as Step S216 in FIG. However, the variable to be used is a variable related to the second base 11B described in the definition of the variable in FIG.
Step S255 for updating the total amount of the characteristic operation information of the detected second base 11B has the same contents as step S217 shown in FIG. However, the variable to be used is a variable related to the second base 11B described in the definition of the variable in FIG.
Step S256 of updating the loop variable has the same contents as step S218 shown in FIG. However, the variable used is i.
Step S257 of determining whether the time considered in the next step is smaller than 0 has the same contents as step S219 shown in FIG.

次いで、検出された第2拠点11Bの特徴的動作情報の回数が予め定められた特徴的動作情報の回数の閾値より大きいか判定するステップS258は、図5に示すステップS220と同様の内容である。ただし、用いる変数は、図6の変数の定義にて説明した第2拠点11Bに関する変数である。
次いで、第2拠点11Bの拠点状況情報を表すフラグを算出するステップS259は、図5のステップS221と同様の内容である。ただし、用いる変数は、図6の変数の定義にて説明した第2拠点11Bに関する変数である。Flag_11Bは、第2拠点11Bの拠点状況情報を表すフラグである。1の時、第2拠点11Bの拠点状況情報は第1拠点11Aにいる参加者に発言するまでではないが自分の存在に気づいて欲しいと思っている拠点状況情報を表す。それ以外のときは0の値をとる。
次いで、算出されたデータを出力するステップS260は、図5に示すステップS222と同様の内容である。ただし、用いる変数は、図6の変数の定義にて説明した第2拠点11Bに関する変数である。具体的には、例えば、第2拠点11Bの第2参加者15が、第1拠点11Aの第1参加者13と第3参加者14に、発言するほどではないが、自分の存在を提示したいと思っている度合いが大きい場合には、MotionCTS_11Aと、MotionValue_11Aの値が大きくなり、発言するほどではないが、自分の存在を提示したいと思っている度合いが小さい場合には、MotionCTS_11Aと、MotionValue_11Aの値は小さくなる。
このように、所定時間内における第2拠点11Bの音声信号が所定音量以下である場合に、第2拠点11Bの映像信号に基づいて第2特徴的動作情報を抽出するので、遠隔地の参加者の言動に現れる会議への参加意思の程度を表す意思量を算出することができる。
Next, step S258 of determining whether the number of times of the characteristic operation information of the second base 11B detected is larger than the threshold of the number of predetermined characteristic operation information is the same content as step S220 shown in FIG. . However, the variable to be used is a variable related to the second base 11B described in the definition of the variable in FIG.
Next, Step S259 of calculating a flag representing the base situation information of the second base 11B has the same contents as Step S221 of FIG. However, the variable to be used is a variable related to the second base 11B described in the definition of the variable in FIG. Flag_11B is a flag representing base status information of the second base 11B. At the time of 1, the base situation information of the second base 11B represents the base situation information which is not until the participant in the first base 11A speaks, but wants to be aware of their own existence. Otherwise it takes a value of 0.
Next, step S260 for outputting the calculated data has the same contents as step S222 shown in FIG. However, the variable to be used is a variable related to the second base 11B described in the definition of the variable in FIG. Specifically, for example, the second participant 15 of the second base 11B wants to present his / her presence to the first participant 13 and the third participant 14 of the first base 11A, though not so much as to speak If the degree of thinking is large, the values of MotionCTS_11A and MotionValue_11A become large and are not enough to say, but if the degree of wanting to present one's own existence is small, MotionCTS_11A and MotionValue_11A The value is smaller.
As described above, when the audio signal of the second base 11B within the predetermined time is lower than or equal to the predetermined volume, the second characteristic operation information is extracted based on the video signal of the second base 11B. It is possible to calculate the amount of intention that represents the degree of intention to participate in the conference that appears in the

<第5実施形態>
図7は本発明の第5実施形態に係るコミュニケーション補助システムの動作を表すフローチャートであり、特に、図5とは異なる図4に示す第1拠点状況算出処理(ステップS210)の具体的な例を説明したフローチャートである。
ステップS223では、第1拠点11Aにいる参加者とアバターロボット17との距離Distance_17を算出する処理を行う。ステップS224では、Flag_11A、MotionCTS_11A、MotionValue_11A、Distance_17を出力する。
ここで、図7に示すフローチャートに用いる変数の定義について説明する。
なお、図5、図6で定義済みの変数については省略する。
Distance_17は、第1拠点11Aにいる参加者とアバターロボット17との距離を表す。
図7に示すフローチャートは図5に示すフローチャートとほぼ同じである。異なる点は、図5に示すフローチャートには存在しなかった、第1拠点11Aにいる参加者とアバターロボット17との距離Distance_17を算出する処理を行うステップS223があることである。また、図5に示すステップS222に代わって、図5に示すステップS222で出力していたデータに第1拠点11Aの参加者とアバターロボット17との距離Distance_17を加えて出力しているステップS224があることである。
Fifth Embodiment
FIG. 7 is a flowchart showing the operation of the communication support system according to the fifth embodiment of the present invention, and in particular, a specific example of the first base situation calculation process (step S210) shown in FIG. 4 different from FIG. It is a flowchart explained.
In step S223, processing is performed to calculate the distance Distance_17 between the participant at the first base 11A and the avatar robot 17. In step S224, Flag_11A, MotionCTS_11A, MotionValue_11A, and Distance_17 are output.
Here, definitions of variables used in the flowchart shown in FIG. 7 will be described.
The variables defined in FIGS. 5 and 6 will be omitted.
Distance_17 represents the distance between the participant at the first base 11A and the avatar robot 17.
The flowchart shown in FIG. 7 is substantially the same as the flowchart shown in FIG. A different point is that there is a step S223 which does not exist in the flowchart shown in FIG. 5 and performs processing of calculating the distance Distance_17 between the participant at the first base 11A and the avatar robot 17. In addition, instead of step S222 shown in FIG. 5, step S224 in which the distance Distance_17 between the participant of the first base 11A and the avatar robot 17 is added to the data output in step S222 shown in FIG. It is a certain thing.

第1拠点11Aの状況を計測し、算出するステップにおいて、例えばステップS213、第1参加者13と第3参加者14の状況に加えて、第2参加者15を表すアバターロボット17の状況も計測し、後のステップにてこの拠点状況情報についても算出することで、図5に示す場合より、詳しく第1拠点11Aの拠点状況情報を算出することができる。
具体的には、ステップS213では、映像データから、第1拠点11Aの第1参加者13と第2参加者15を表すアバターロボット17との距離と、第1拠点11Aの第3参加者14と第2参加者15を表すアバターロボット17との距離と、を計測し、上記計測された距離の平均を算出し、変数Distance_17に代入する処理を行う。
例えば、距離の平均のみならず、第2参加者15を表すアバターロボット17と、第1拠点11Aにいる参加者のうちいずれか近いほうの距離を変数Distance_17に代入してもよいし、いずれか遠いほうの距離を変数Distance_17に代入してもよいし、距離を予め定められた関数を用いて算出した値を代入してもよい。
In the step of measuring and calculating the situation of the first base 11A, for example, in addition to the situations of the first participant 13 and the third participant 14 in step S213, the situation of the avatar robot 17 representing the second participant 15 is also measured By calculating the base status information in a later step, base status information of the first base 11A can be calculated in more detail than in the case shown in FIG.
Specifically, in step S213, the distance between the first participant 13 of the first base 11A and the avatar robot 17 representing the second participant 15 and the third participant 14 of the first base 11A from the video data. A distance to the avatar robot 17 representing the second participant 15 is measured, an average of the measured distances is calculated, and a process of substituting the variable Distance_17 is performed.
For example, not only the average of the distances but also the avatar robot 17 representing the second participant 15 or the one at the first base 11A, whichever is closer, may be substituted for the variable Distance_17, or The distant distance may be substituted into the variable Distance_17, or a value calculated using a predetermined function may be substituted for the distance.

第1拠点11Aにいる参加者とアバターロボット17との距離Distance_17は、刺激を出力するアバターロボット17が、同程度の刺激を出力したとしても、Distance_17の値が大きければ、つまり、第1拠点11Aにいる参加者とアバターロボット17との距離が遠ければ、第1拠点11Aの参加者が感じる感覚量が小さくなる。
逆に、Distance_17の値が小さければ、つまり、第1拠点11Aの参加者とアバターロボット17との距離が近ければ、第1拠点11Aにいる参加者が感じる感覚量は大きくなる、ということに対応するために用いる値である。第1拠点11Aの参加者とアバターロボット17との距離Distance_17に応じて、第1拠点11Aの参加者に提示する刺激量を調整することを可能とするために必要なステップである。上記の例は、距離に関してだが、距離以外の値を用いてもよい。例えば、第1拠点11Aの参加者と第2参加者の1002を表すアバターロボット17が共に動いている場合、相対速度をもって上記ステップを行ってもよい。
このように、第1参加者とロボット部17の間の距離を第1拠点状況情報として用いることで、遠隔地の参加者の言動に現れる会議への参加意思の程度を表す意思量を提示する度合いの調整を行うことができる。
The distance Distance_17 between the participant at the first base 11A and the avatar robot 17 is the first base 11A if the value of Distance_17 is large, even if the avatar robot 17 that outputs the stimulus outputs the same degree of stimulus. If the distance between the participant and the avatar robot 17 is long, the amount of sensation felt by the participant of the first base 11A decreases.
Conversely, if the value of Distance_17 is small, that is, if the distance between the participant of the first base 11A and the avatar robot 17 is short, the amount of feeling felt by the participant at the first base 11A is increased. Is the value used to This step is necessary to enable adjustment of the amount of stimulation presented to the participants of the first base 11A in accordance with the distance Distance_17 between the participant of the first base 11A and the avatar robot 17. The above example relates to distance, but values other than distance may be used. For example, when the participant in the first base 11A and the avatar robot 17 representing the second participant 1002 move together, the above steps may be performed with a relative velocity.
In this way, by using the distance between the first participant and the robot unit 17 as the first base situation information, an intention amount representing the degree of willingness to participate in the conference appearing in the behavior of the remote participant is presented. It is possible to adjust the degree.

<第6実施形態>
図8は、本発明の第6実施形態に係るコミュニケーション補助システムの動作を表すフローチャートであり、特に、図3に示す刺激量算出処理を行うステップS300の具体的な例を説明するためのフローチャートである。
まず、図8に示すフローチャートについて概略的に説明する。
ステップS301では、フラグを判定する。ステップS302では、データの取り込みを行う。ステップS303では、第1拠点11Aの拠点状況情報から感覚量の範囲を算出する処理を行う。ステップS304では、第2拠点11Bの拠点状況情報から感覚量Eを算出する処理を行う。ステップS305では、刺激量Rの算出を行う。
ステップS306では、刺激出力部57のための信号変換処理を行う。ステップS307では、刺激出力部57への出力処理を行う。
Sixth Embodiment
FIG. 8 is a flowchart showing the operation of the communication assistance system according to the sixth embodiment of the present invention, and in particular, a flowchart for explaining a specific example of step S300 for performing the stimulation amount calculation process shown in FIG. is there.
First, the flowchart shown in FIG. 8 will be schematically described.
In step S301, a flag is determined. In step S302, data is fetched. In step S303, processing is performed to calculate the range of the sensation amount from the base situation information of the first base 11A. In step S304, processing is performed to calculate the amount of feeling E from the base situation information of the second base 11B. In step S305, the stimulation amount R is calculated.
In step S306, signal conversion processing for the stimulation output unit 57 is performed. In step S307, output processing to the stimulus output unit 57 is performed.

ここで、図8に示すフローチャートに用いる変数の定義について説明する。
なお、図5、図6、図7を参照して、定義済みの変数については省略する。
Eは、第1参加者13の感覚量を表す。E_maxは、感覚量の閾値の最大値を表す。E_minは、感覚量の閾値の最小値を表す。E_max_basisは、予め定められた基準となる感覚量の閾値の最大値を表す。E_min_basisは、予め定められた基準となる感覚量の閾値の最小値を表す。MotionValue_11A_basisは、予め定められた基準となる第1拠点11Aの拠点状況情報を表す値を表す。MotionCTS_11A_basisは、予め定められた基準となる第1拠点11Aの拠点状況情報を表す値を表す。Motion_max_basisは、予め定められた基準となる第2拠点11Bの拠点状況情報の最大値を表す。Motion_min_basisは、予め定められた基準となる第2拠点11Bの拠点状況情報の最小値を表す。W_ctsは、重み付けの値を表す。W_valueは、重み付けの値を表す。Rは、刺激量を表す。Kは、予め定められた定数を表す。R_basisは、予めさだめられた刺激量の基準値を表す。
Aは、振幅の値を表す。A_basisは、予め定められた振幅の基準値を表す。
Here, definitions of variables used in the flowchart shown in FIG. 8 will be described.
Note that, with reference to FIG. 5, FIG. 6, and FIG. 7, the predefined variables are omitted.
E represents the amount of sensation of the first participant 13. E_max represents the maximum value of the threshold value of the sensation amount. E_min represents the minimum value of the threshold value of the sensation amount. E_max_basis represents the maximum value of the threshold of the sense amount serving as a predetermined reference. E_min_basis represents the minimum value of the threshold value of the reference sensation which is a predetermined reference. MotionValue_11A_basis represents a value representing base situation information of the first base 11A serving as a predetermined reference. MotionCTS_11A_basis represents a value representing base status information of the first base 11A as a predetermined reference. Motion_max_basis represents the maximum value of the base situation information of the second base 11B serving as a predetermined reference. Motion_min_basis represents the minimum value of the base situation information of the second base 11B serving as a predetermined reference. W_cts represents the value of weighting. W_value represents the value of weighting. R represents the amount of stimulation. K represents a predetermined constant. R_basis represents a reference value of a previously stored stimulation amount.
A represents the value of the amplitude. A_basis represents a reference value of a predetermined amplitude.

フラグを判定するステップS301の入力は、図5に示すステップS222の出力である第1拠点11Aの拠点状況情報を表すフラグFlag_11Aと、図6に示すステップS260の出力である第2拠点11Bの拠点状況情報を表すフラグFlag_11Bである。フラグを判定するステップS301の処理は、Flag_11AとFlag_11Bの乗算が1であるかを判定するステップである。上記、乗算が1である場合は、第1拠点11Aの第1参加者13と第3参加者14がテレビ会議に白熱している状況、かつ、第2拠点11Bの第2参加者15が自分の存在にきづいて欲しいと思っている状況である。フラグを判定するステップS301の出力は、「はい」、又は「いいえ」である。上記処理にて上記乗算の積が1である場合は「はい」、それ以外である場合は「いいえ」を出力する。「はい」である場合はステップS302へ、「いいえ」である場合は終了のステップへ進む。
データの取り込みを行うステップS302の入力は、図5に示すステップS222の出力と、図6に示すステップS260の出力である。仮に、Distance_17の計測も行っている場合には、図6に示すステップS260の代わりに図7に示すステップS224の出力を用いる。データの取り込みを行うステップS302の処理は、データを取り込む処理である。具体的には、MotionCTS_11A、MotionCTS_11B、MotionValue_11A、MotionValue_11B、場合によってはDistance_17も加えた上記変数である。データの取り込みを行うステップS302の出力は、上記変数の出力である。例えば、第1拠点11Aの拠点状況情報を表すデータ、具体的には、第1拠点11Aの第1参加者13と第3参加者14がテレビ会議に白熱している度合いを表すデータと、第2拠点11Bの第2参加者15が自分の存在にきづいて欲しいと思っている度合いを表すデータを取り込むステップである。
The input of step S301 for determining the flag is flag Flag_11A representing the base situation information of the first base 11A which is the output of step S222 shown in FIG. 5 and the base of the second base 11B which is the output of step S260 shown in FIG. It is a flag Flag_11B representing status information. The process of step S301 of determining a flag is a step of determining whether the multiplication of Flag_11A and Flag_11B is one. When the multiplication is 1 as described above, the first participant 13 and the third participant 14 of the first base 11A are in a video conference, and the second participant 15 of the second base 11B is himself It is a situation that I want you to know the existence of The output of step S301 for determining the flag is "yes" or "no". If the product of the multiplication is 1 in the above process, “Yes” is output, otherwise “No” is output. If "yes", the process proceeds to step S302, and if "no", the process proceeds to an end step.
The input of step S302 for capturing data is the output of step S222 shown in FIG. 5 and the output of step S260 shown in FIG. If the measurement of Distance_17 is also performed, the output of step S224 shown in FIG. 7 is used instead of step S260 shown in FIG. The process of step S302 for capturing data is a process for capturing data. Specifically, MotionCTS_11A, MotionCTS_11B, MotionValue_11A, MotionValue_11B, and in some cases Distance_17 are also the above-mentioned variables. The output of step S302 for capturing data is the output of the variable. For example, data representing the base situation information of the first base 11A, specifically, data representing the degree to which the first participant 13 and the third participant 14 of the first base 11A are in a video conference, This is a step of taking in data representing the degree to which the second participant 15 of the two bases 11B wants to follow his / her existence.

次いで、第1拠点11Aの拠点状況情報から感覚量の範囲を算出する処理を行うステップS303の入力は、第1拠点11Aの拠点状況情報を表すデータ、例えば第1拠点11Aの第1参加者13と第3参加者14がテレビ会議に白熱している度合いを表すデータMotionValue_11Aと、MotionCTS_11Aと、感覚量の閾値の最大値E_maxと感覚量の閾値の最小値E_minの値である。
加えて、予め基準となる第1拠点11Aにいる参加者がテレビ会議に白熱している度合いを表すデータMotionValue_11A_basisと、MotionCTS_11A_basisと、予め、基準となる感覚量の閾値の値、E_max_basis、E_min_basisと、重み付けの値として、W_ctsとW_valueも入力のデータとして用意する。
第1拠点11Aの状況から感覚量の範囲を算出する処理を行うステップS303の処理は、第1拠点11Aの第1参加者13と第3参加者14がテレビ会議に白熱している度合いを表すデータに応じて、感覚量の閾値の最大値E_maxと感覚量の閾値の最小値E_minの値を算出し、更新する処理を行うステップである。例えば、以下の式(1)(2)を用いて、感覚量の閾値の最大値E_maxと感覚量の閾値の最小値E_minの値を算出し、更新する。
Then, the input of step S303 which performs processing of calculating the range of sensation amount from the base situation information of the first base 11A is data representing the base situation information of the first base 11A, for example, the first participant 13 of the first base 11A. , MotionValue_11A representing the degree to which the third participant 14 is glowing in the video conference, MotionCTS_11A, the maximum value E_max of the threshold value of the sensation amount, and the minimum value E_min of the threshold value of the sensation amount.
In addition, data MotionValue_11A_basis representing the degree to which the participant at the first base 11A serving as a reference in advance is in a video conference, MotionCTS_11A_basis, and the threshold value of the sensation amount serving as a reference in advance, E_max_basis, E_min_basis, W_cts and W_value are also prepared as input data as weighting values.
The process of step S303 which performs the process of calculating the range of the sensational amount from the situation of the first base 11A represents the degree to which the first participant 13 and the third participant 14 of the first base 11A are heated in the video conference. In this step, the maximum value E_max of the threshold of the sensation amount and the minimum value E_min of the threshold of the sensation amount are calculated and updated according to the data. For example, using the following formulas (1) and (2), the maximum value E_max of the threshold value of the sensation amount and the minimum value E_min of the threshold value of the sensation amount are calculated and updated.

E_max={W_cts×(MotionCTS_11A÷MotionCTS_11A_basis)+W_value(MotionValue_11A÷MotionValue_11A_basis)}×E_max_basis (1)
E_min={W_cts×(MotionCTS_11A÷MotionCTS_11A_basis)+W_value(MotionValue_11A÷MotionValue_11A_basis)}×E_min_basis (2)
E_max = {W_cts × (MotionCTS_11A ÷ MotionCTS_11A_basis) + W_value (MotionValue_11A ÷ MotionValue_11A_basis)} × E_max_basis (1)
E_min = {W_cts × (MotionCTS_11A ÷ MotionCTS_11A_basis) + W_value (MotionValue_11A ÷ MotionValue_11A_basis)} × E_min_basis (2)

W_ctsとW_valueは足して1になる値をとり、0から1までの値をとるとする。そうすると、感覚量の閾値に反映させる、MotionCTS_11Aと、MotionValue_11Aの割合を調整することができる。基準となる感覚量の閾値の値、E_max_basisとE_min_basisは、Emax_basis>E_min_basisを満たす。また、E_max_basis、E_min_basisは、極端に大きすぎず、かつ小さすぎる値であってはならない。
具体的には、例えば、ヒトが予め決められた条件下で、さりげないと感じる感覚量の値であって、例えば、小さい振幅で振動しているものがヒトの視野に入る位置にあった状態の時、例えば10人中8人が振動していることを感知できる振幅の振動が与える感覚量をE_max_basis、10人中2人が振動していることを感知できる振幅の振動が与える感覚量をE_min_basisとする。
E_max_basis、E_min_basisは、ヒトが感知できない感覚量であってはならないし、だれしもが、確実に沢山の量を感知できる感覚量であってもならない。誰もが気づく大きな振幅で振動しては、さりげない状態ではないということである。
E_max_basis、E_min_basisの値を基準にして算出するE_maxとE_minの値も同様である。上記式は、MotionCTS_11Aと、MotionValue_11Aの値を重み付けし、加算した値を感覚量の閾値に反映させた例だが、加算のみならず、乗算でもよい。
このほかの関係式を用いて感覚量の閾値を算出してもよい。第1拠点11Aの拠点状況情報から感覚量の範囲を算出する処理を行うステップS303の出力は、上記処理にて算出され、更新された感覚量の閾値の最大値E_maxと感覚量の閾値の最小値E_minの値である。具体的には、第1拠点11Aの拠点状況情報を表すデータ、例えば第1拠点11Aの第1参加者13と第3参加者14がテレビ会議に白熱している度合いが高ければ、E_maxとE_minの値は共に増加の傾向にある。具体的には、第1拠点11Aの拠点状況情報を表すデータ、例えば第1拠点11Aの第1参加者13と第3参加者14がテレビ会議に白熱している度合いが低ければ、E_maxとE_minの値は小さく設定される。
It is assumed that W_cts and W_value take a value to be 1 plus 0 to 1. Then, it is possible to adjust the ratio of MotionCTS_11A and MotionValue_11A to be reflected in the threshold of the sensation amount. The threshold values of the reference sensation, E_max_basis and E_min_basis satisfy Emax_basis> E_min_basis. Also, E_max_basis and E_min_basis should not be too large and too small.
Specifically, for example, it is a value of an amount of sensation that a human feels inconspicuous under predetermined conditions, for example, a state in which one vibrating with a small amplitude is at a position where it enters the human visual field. For example, E_max_basis gives the amount of sensation given by an amplitude vibration that can sense that 8 out of 10 people are vibrating, and the amount of sensation that gives an amplitude vibration that can sense that 2 out of 10 people vibrate. E_min_basis.
E_max_basis, E_min_basis must not be a sensory quantity that humans can not sense, and it should not be a sensory quantity that anyone can surely sense a large amount. Vibrating with a large amplitude that everyone notices is that it is not a casual condition.
The values of E_max and E_min calculated based on the values of E_max_basis and E_min_basis are the same. Although the above equation is an example in which the values of MotionCTS_11A and MotionValue_11A are weighted and the added value is reflected on the threshold of the sensation amount, not only addition but multiplication may be used.
The threshold value of the sense amount may be calculated using other relational expressions. The output of step S303 which performs processing of calculating the range of sensational amount from the base situation information of the first base 11A is calculated by the above processing, and the maximum threshold value E_max of the sensational amount and the minimum threshold of the sensational amount are updated. It is a value of value E_min. Specifically, data representing the base situation information of the first base 11A, for example, if the first participant 13 and the third participant 14 of the first base 11A are heated to a video conference, E_max and E_min Both values tend to increase. Specifically, data representing the base situation information of the first base 11A, for example, if the first participant 13 and the third participant 14 of the first base 11A have a low degree of excitement in a video conference, E_max and E_min The value of is set small.

次いで、第2拠点11Bの拠点状況情報から感覚量Eを算出する処理を行うステップS304の入力は、具体的には、例えば、ステップS302の出力であるE_maxとE_minの値と、予め定められた基準となる第2拠点11Bの拠点状況情報の最大値Motion_max_basisと予め定められた基準となる第2拠点11Bの拠点状況情報の最小値Motion_min_basisと、第2拠点11Bの拠点状況情報を表すMotionCTS_11BとMotionValue_11Bと、重み付けの値W_ctsとW_valueである。第2拠点11Bの拠点状況情報から感覚量Eを算出する処理を行うステップS304の処理は、上記入力データから、第1拠点11Aにいる参加者に提示する感覚量Eを算出するステップである。例えば、感覚量Eを下記の式にて求める処理である。   Next, specifically, the input of step S304 for performing processing of calculating the feeling amount E from the base situation information of the second base 11B is, for example, predetermined values of E_max and E_min which are outputs of step S302. The maximum value Motion_max_basis of the base status information of the second base 11B as a reference, the minimum value Motion_min_basis of the base status information of the second base 11B as a predetermined reference, MotionCTS_11B and MotionValue_11B representing the base status information of the second base 11B And weighting values W_cts and W_value. The process of step S304 for performing the process of calculating the amount of feeling E from the base situation information of the second base 11B is a step of calculating the amount of feeling E to be presented to the participants at the first base 11A from the input data. For example, this is processing for obtaining the sense amount E by the following equation.

E={(W_value×MotionValue_11B+W_cts×MotionCTS_11B)÷(Motion_max_basis+Motion_min_basis)}×(E_max+E_min) (3)
上記式(3)に示す(W_value×MotionValue_11B+W_cts×MotionCTS_11B)の部分では、第2拠点11Bの拠点状況情報、つまり第2参加者15が自分の存在に気づいて欲しいと思っている度合いについて、回数と量を重み付け数Wで重み付けし、第2拠点11Bの拠点状況情報を数値化する。
E = {(W_value × MotionValue_11B + W_cts × MotionCTS_11B) ÷ (Motion_max_basis + Motion_min_basis)} × (E_max + E_min) (3)
In the part of (W_value × MotionValue_11B + W_cts × MotionCTS_11B) shown in the above equation (3), the base situation information of the second base 11B, that is, the degree to which the second participant 15 wants to notice his / her existence The amount is weighted by the weighting number W to digitize the base situation information of the second base 11B.

上記式(3)に示す÷(Motion_max_basis+Motion_min_basis)}の部分では、予め定められた基準となる第2拠点11Bの拠点状況情報の最大値Motion_max_basisと予め定められた基準となる第2拠点11Bの拠点状況情報の最小値Motion_min_basisとの値と比較して、上記第2拠点11Bの拠点状況情報を数値化した値がどの程度かを算出する。
上記式(3)に示す×(E_max+E_min)の部分では、ステップS303にて更新された感覚量の範囲の中で、上記第2拠点11Bの拠点状況情報を数値化した値がどの程度かを算出した値がどの程度かを算出している。
ただし、Motion_max_basis>Motion_min_basisを満たす必要がある。簡単にいうと、予め定められたMotion_basisの範囲からみて、第2拠点11Bの拠点状況情報がどの程度かを算出し、その程度を感覚量の範囲へ変換する処理を行うステップである。上記の式はあくまで例であり、このほかの関係式を用いてもよい。第2拠点11Bの拠点状況情報から感覚量Eを算出する処理を行うステップS304の出力は、感覚量Eの値である。
In the part of ÷ (Motion_max_basis + Motion_min_basis)} shown in the above equation (3), the maximum value Motion_max_basis of the base situation information of the second base 11B serving as a predetermined reference and the base status of the second base 11B serving as a predetermined reference. In comparison with the value of the minimum value Motion_min_basis of information, it is calculated what value is obtained by digitizing the base situation information of the second base 11B.
In the part of x (E_max + E_min) shown in the above equation (3), within the range of the sensation amount updated in step S303, it is calculated what value is the numerical value of the base situation information of the second base 11B. It is calculated how much the calculated value is.
However, it is necessary to satisfy Motion_max_basis> Motion_min_basis. Simply stated, this is a step of calculating the degree of the base situation information of the second base 11B from the predetermined range of Motion_basis, and converting the degree into the range of the sensation amount. The above equation is just an example, and other relational equations may be used. The output of step S304 for performing processing for calculating the sense amount E from the base situation information of the second base 11B is the value of the sense amount E.

刺激量Rの算出を行うステップS305の入力は、例えば、ステップS304で算出された感覚量Eの値と、予め定められた定数Kの値である。刺激量Rの算出を行うステップS305の処理は、例えば、人間の感覚量と与えられる刺激量との関係を定義したフェフィナーの法則を用いると、刺激量R=10^(感覚量E/予め定められた定数K)により、感覚量Rを算出する処理である。
上記式(3)は、第2拠点11Bの第2参加者15が第1拠点11Aにいる参加者に向けて提示したい感覚量Eから刺激量Rを算出する式である。第2拠点11Bの参加者が自分の存在を提示したいと思っている度合いが大きければ感覚量Eの値がステップS304にて大きく算出されるため、ステップS305で算出される刺激量Rも大きくなる。また、第1拠点11Aで第2参加者15を忘れてテレビ会議が白熱している場合は、ステップS303で算出される感覚量の範囲E_maxとE_minの値が大きく算出されるため、ステップS304で算出される感覚量Eも大きくなり、ステップS305で算出される刺激量Rも大きくなる。刺激量Rが小さくなる場合はその逆である。上記は、フェフィナーの法則をもちいて感覚量Eから刺激量Rを算出したれいだが、そのほかの変換の式を用いてもよい。刺激量Rの算出を行うステップS305の出力は、刺激量Rの値である。
なお、本実施形態によれば、第2拠点11Bの第2参加者15が第1拠点11Aにいる参加者に向けて提示したい感覚量Eから刺激量Rを算出しているが、本発明はこれに限定されるものではない。すなわち、第2拠点状況情報、第1参加者の感覚量の範囲に基づいて、第2拠点11Bにいる第2参加者の言動に現れる会議への参加意思の程度を表す意思量を意思量算出部55bにより算出し、刺激出力部57により意思量に応じた刺激を第1参加者が知覚できるように出力してもよい。これにより、第2拠点状況情報、第1参加者の感覚量の範囲に基づいて、遠隔地の参加者の言動に現れる会議への参加意思の程度を表す意思量を提示する度合いの調整を行うことができる。
The input in step S305 for calculating the stimulation amount R is, for example, the value of the sensation amount E calculated in step S304 and the value of a predetermined constant K. The processing of step S305 for calculating the stimulation amount R is, for example, using the Fefiner's law that defines the relationship between the human sense amount and the given stimulation amount, the stimulation amount R = 10 ^ (sensory amount E / predetermined It is the processing which calculates the amount R of sensations by the constant K).
The above equation (3) is an equation for calculating the stimulation amount R from the sensation amount E that the second participant 15 of the second base 11B wants to present toward the participant who is at the first base 11A. If the degree at which the participant at the second base 11B wants to present his / her presence is large, the value of the sense amount E is largely calculated in step S304, so the stimulation amount R calculated in step S305 is also large. . In addition, when the video conference is heated up because the second participant 15 is forgotten at the first base 11A, the values of the sense amount ranges E_max and E_min calculated in step S303 are calculated large, so in step S304 The calculated sensation amount E also increases, and the stimulation amount R calculated in step S305 also increases. The opposite is true when the stimulation amount R decreases. In the above, the stimulation amount R is calculated from the sensory amount E using the Fefiner's law, but other conversion equations may be used. The output of step S305 for calculating the stimulation amount R is the value of the stimulation amount R.
Note that according to the present embodiment, the stimulation amount R is calculated from the sensation amount E that the second participant 15 of the second base 11B wants to present toward the participant who is at the first base 11A. It is not limited to this. That is, based on the second base situation information and the range of the amount of sense of the first participant, the intention amount representing the degree of willingness to participate in the meeting appearing in the second participant's behavior at the second base 11B is calculated. The calculation may be performed by the unit 55b, and the stimulation output unit 57 may output the stimulation according to the intention amount so that the first participant can perceive it. Thereby, based on the second base situation information and the range of the amount of sense of the first participant, the degree of presenting the amount of intention indicating the degree of participation intention to the meeting appearing in the behavior of the remote participant is adjusted be able to.

次いで、刺激出力部57のための信号変換処理を行うステップS306の入力は、ステップS305の出力である刺激量Rの値である。刺激出力部57のための信号変換処理を行うステップS306の処理は、例えば刺激出力部57が振動モータである場合、刺激量Rを振幅と周波数へ変換する処理である。例えば刺激量Rを振幅へ変換する処理である。例えば、刺激量Rを周波数へ変換する処理である。例えば基準となる振幅A_basisがあり、基準となる刺激量R_basisがあった場合、出力する振幅Aは、以下の式(4)で算出される。
A=A_basis×(R÷R_basis) (4)
上記の例は振幅の例だが、周波数にして当てはめてもよい。また、刺激部がLEDだった場合、LEDに流す電流の量を上記の式と同様に算出し、明るさを調整してもよい。
上記の式(4)はあくまで例であり、他の関係式を用いてもよい。刺激量Rから刺激部への入力値として適切な値へと変換する処理を行えばよい。刺激出力部57のための信号変換処理を行うステップS306の出力は、上記処理にて算出された刺激出力部57へ入力できる信号のデータである。例えば、振幅の値である。例えば周波数の値である。例えば電流の値である。例えば電圧の値である。出力の値は1つであってもよいし、複数であってもよい。例えば、振幅と周波数の値であってもよい。
Next, the input of step S306 for performing signal conversion processing for the stimulation output unit 57 is the value of the stimulation amount R which is the output of step S305. The process of step S306 for performing signal conversion processing for the stimulation output unit 57 is processing for converting the stimulation amount R into an amplitude and a frequency, for example, when the stimulation output unit 57 is a vibration motor. For example, processing of converting the stimulation amount R into an amplitude. For example, it is processing to convert the stimulation amount R into a frequency. For example, if there is a reference amplitude A_basis and there is a reference stimulation amount R_basis, the output amplitude A is calculated by the following equation (4).
A = A_basis × (R ÷ R_basis) (4)
Although the above example is an example of amplitude, it may be applied to frequency. In addition, when the stimulation unit is an LED, the brightness may be adjusted by calculating the amount of current supplied to the LED in the same manner as the above equation.
The above equation (4) is merely an example, and other relational expressions may be used. A process may be performed to convert the stimulation amount R into an appropriate value as an input value to the stimulation unit. The output of step S306 for performing signal conversion processing for the stimulation output unit 57 is data of a signal that can be input to the stimulation output unit 57 calculated in the above processing. For example, it is the value of amplitude. For example, it is a value of frequency. For example, it is the value of the current. For example, it is the value of voltage. The value of the output may be one or more. For example, it may be amplitude and frequency values.

次いで、刺激出力部57への出力処理を行うステップS307の入力は、ステップS306の出力であり、刺激出力部57のための信号変換処理を行ったデータである。例えば、刺激出力部57が振動モータである場合、振幅の値である。刺激出力部57への出力処理を行うステップS307の処理は、上記入力データを刺激出力部57へ入力し、刺激出力を実際に行う処理である。例えば、振動モータに、振幅の値の指令を入力する処理である。刺激出力部57への出力処理を行うステップS307の出力は、刺激出力部57が出力をしていることである。例えば、上記処理にて振動モータに入力された振幅にて振動モータが振動している状態である。上記は、振動モータについて、振幅の値を変化させる様子について具体的に説明したが、LEDなどを用いて光量や色を変化させるために電流値や抵抗値や電圧を変化させてもよい。また、スピーカを用いて音量を変化させるような出力の処理をおこなってもよい。
このように、第1参加者が感知可能な光波信号、音波信号、振動、臭気のうち、少なくとも1つを発生することで、遠隔地の参加者の言動に現れる会議への参加意思の程度を表す意思量を提示することができる。
Next, the input of step S307 for performing output processing to the stimulation output unit 57 is the output of step S306, and is data subjected to signal conversion processing for the stimulation output unit 57. For example, when the stimulation output unit 57 is a vibration motor, it is the value of the amplitude. The process of step S307 for performing output processing to the stimulation output unit 57 is processing for inputting the above input data to the stimulation output unit 57 and actually performing stimulation output. For example, it is a process of inputting a command of the value of the amplitude to the vibration motor. The output of step S307 for performing output processing to the stimulation output unit 57 is that the stimulation output unit 57 is outputting. For example, the vibration motor is vibrating at the amplitude input to the vibration motor in the above process. Although the above specifically describes how to change the value of the amplitude for the vibration motor, the current value, the resistance value, and the voltage may be changed in order to change the light quantity and the color using an LED or the like. Further, output processing may be performed using a speaker to change the volume.
Thus, by generating at least one of the light wave signal, the sound wave signal, the vibration, and the odor that can be sensed by the first participant, the degree of the willingness to participate in the conference that appears in the speech of the remote participant It is possible to present the amount of intention to express.

<第7実施形態>
図9は、本発明の第7実施形態に係るコミュニケーション補助システムに用いる、図1に示す第2参加者15を表すアバターロボット17の具体的な例を説明した図である。
17は第2参加者15を表すアバターロボット、17aはアバターロボットの耳に位置する刺激部、17bはアバターロボットの目に位置する刺激部、17cはアバターロボットの口に位置する刺激部、17dはアバターロボットの手に位置する刺激部、17eはアバターロボットの足に位置する刺激部、17fはアバターロボットの内部に位置する刺激部である。
例えば、第2参加者15を表すアバターロボット17は、視覚を刺激する場合、刺激部17a〜17fのいずれか又は一部又はすべてが動いたり、色が変わったり、状態が時間に応じて変化するような刺激部を具備するアバターロボットである。
例えば、第2参加者15を表すアバターロボット17は、聴覚を刺激するとは、刺激部17a〜17fのいずれか又は一部又はすべてから出力される音が時間に応じて変化するような刺激部を具備するアバターロボットである。
例えば、第2参加者15を表すアバターロボット17は、触覚を刺激するとは、刺激部17a〜17fのいずれか又は一部又はすべてが動いたりし、状態が時間に応じて変化し、ロボットに触れると状態の違いを認識することができるような刺激部を具備するアバターロボットである。刺激出力部57は、第1参加者が接触することにより感知可能な振動を発生する。
Seventh Embodiment
FIG. 9 is a view for explaining a specific example of the avatar robot 17 representing the second participant 15 shown in FIG. 1 which is used in the communication assistance system according to the seventh embodiment of the present invention.
17 is an avatar robot representing the second participant 15, 17a is a stimulation unit located on the avatar robot's ear, 17b is a stimulation unit located on the avatar robot's eye, 17c is a stimulation unit located on the avatar robot's mouth, 17d is The stimulation unit located on the hand of the avatar robot, the stimulation unit 17e located on the foot of the avatar robot, and the stimulation unit 17f located inside the avatar robot.
For example, when the avatar robot 17 representing the second participant 15 stimulates vision, any or some or all of the stimulation units 17a to 17f move or change color, or the state changes according to time. It is an avatar robot equipped with such a stimulation part.
For example, the avatar robot 17 representing the second participant 15 is to stimulate the sense that the sound output from any or some or all of the stimulation units 17a to 17f changes according to time. It is an avatar robot equipped.
For example, to stimulate the sense of touch, the avatar robot 17 representing the second participant 15 moves any or part or all of the stimulation units 17a to 17f, and the state changes according to time, and touches the robot. It is an avatar robot equipped with a stimulation unit that can recognize the difference between the and the state. The stimulation output unit 57 generates a sensible vibration by the contact of the first participant.

例えば、第2参加者15を表すアバターロボット17は、臭覚を刺激するとは、刺激部17a〜17fのいずれか又は一部又はすべてから時間変化に応じて匂いを発し、臭覚を用いて状態の違いを認識することができるような刺激部を具備するアバターロボットである。刺激出力部57は、第1参加者が嗅取することにより感知可能な臭気を発生する。
例えば、第2参加者15を表すアバターロボット17は、アバターロボットの耳に位置する刺激部17aが、振動モータであるアバターロボットである。
例えば、第2参加者15を表すアバターロボット17は、アバターロボットの目に位置する刺激部17bが、LEDであるアバターロボットである。
例えば、第2参加者15を表すアバターロボット17は、アバターロボットの口に位置する刺激部17cがスピーカであるアバターロボットである。
例えば、第2参加者15を表すアバターロボット17は、アバターロボットの手に位置する刺激部17dが振動モータであるアバターロボットである。
上記の説明はある特定の刺激部に限って説明したものだが、上記の刺激部は、図9に示す刺激部17a〜17fの少なくとも1つでもよい。
このように、第1参加者とロボット部17の間の距離を第1拠点状況情報として用いることで、遠隔地の参加者の言動に現れる会議への参加意思の程度を表す意思量を提示する度合いの調整を行うことができる。
For example, to stimulate the sense of smell, the avatar robot 17 representing the second participant 15 emits an odor according to time change from any or a part or all of the stimulation units 17a to 17f, and the difference in the state using the sense of smell It is an avatar robot equipped with a stimulation unit that can recognize. The stimulus output unit 57 generates an odor that can be sensed by the first participant sniffing.
For example, the avatar robot 17 representing the second participant 15 is an avatar robot in which the stimulation unit 17a located in the ear of the avatar robot is a vibration motor.
For example, the avatar robot 17 representing the second participant 15 is an avatar robot in which the stimulation unit 17 b located in the eye of the avatar robot is an LED.
For example, the avatar robot 17 representing the second participant 15 is an avatar robot in which the stimulation unit 17 c located at the mouth of the avatar robot is a speaker.
For example, the avatar robot 17 representing the second participant 15 is an avatar robot whose stimulation unit 17 d located on the avatar robot's hand is a vibration motor.
Although the above description is limited to a specific stimulation unit, the above-mentioned stimulation unit may be at least one of the stimulation units 17a to 17f shown in FIG.
In this way, by using the distance between the first participant and the robot unit 17 as the first base situation information, an intention amount representing the degree of willingness to participate in the conference appearing in the behavior of the remote participant is presented. It is possible to adjust the degree.

<第8実施形態>
図10〜図13は、本発明の第8実施形態に係るコミュニケーション補助システムに用いる、第1拠点11Aのテレビ会議の白熱度合いを反映した、第1拠点11Aの感覚Eの分布について説明するためのグラフ図である。
図10は、第1拠点11Aの第1参加者13と第3参加者14の感覚Eの分布のさりげない範囲を具体的に説明するためのグラフ図である。
例えば、計測された第1拠点11Aの会議の白熱度合いから、会議参加者毎に感覚Eの分布をもち、さりげないと感じる感覚の範囲E_minからE_maxをもっているとする。
Eighth Embodiment
10 to 13 illustrate the distribution of the sense E of the first base 11A, which reflects the degree of incandescence of the video conference of the first base 11A, which is used in the communication assistance system according to the eighth embodiment of the present invention. FIG.
FIG. 10 is a graph specifically illustrating the inconvenient range of the distribution of the senses E of the first participant 13 and the third participant 14 of the first base 11A.
For example, it is assumed that, based on the measured degree of incandescence of the first base 11A, each conference participant has a sense E distribution and has a sense range of nonsense casual E_min to E_max.

図11(a)は、第1拠点11Aの第1参加者13と第3参加者14の感覚Eの分布から第1拠点11Aの感覚Eのさりげない範囲を具体的に説明するためのグラフ図である。
例えば、第1拠点11Aにいる第1参加者13と第3参加者14の2人ともがさりげないと感じる範囲を、第1拠点11Aの感覚Eのさりげない範囲とする。上記は参加者のANDをとった値となっているが、そのほかの方法で複数参加者の感覚Eの分布から第1拠点11Aの感覚Eのさりげない範囲を算出してもよい。下記の式(5)(6)で算出することもできる。
FIG. 11 (a) is a graph specifically illustrating the non-contrast range of the sense E of the first location 11A from the distribution of the senses E of the first participant 13 and the third participant 14 of the first location 11A. It is.
For example, a range in which both the first participant 13 and the third participant 14 who are in the first base 11A feel that they are not casual is set as a non-convenient range of the sense E of the first base 11A. Although the above is a value obtained by taking the AND of the participants, it is possible to calculate the non-contrast range of the sensation E of the first base 11A from the distribution of the sensations E of a plurality of participants by other methods. It can also be calculated by the following formulas (5) and (6).

E_max=min[E_max_13、E_max_14] (5)
E_min=max[E_min_13、E_max_14] (6)
E_max = min [E_max_13, E_max_14] (5)
E_min = max [E_min_13, E_max_14] (6)

図11(b)は、第1拠点11Aに沢山の参加がいた場合、参加者毎の感覚Eの分布のさりげないと感じる範囲から、第2参加者が与えたいと思っている感覚Eを算出する方法を説明するためのグラフ図である。
たとえば、第1拠点11Aに沢山参加者がいて、図11(b)のように感覚Eの分布のさりげないと感じる範囲が参加者毎に存在する場合を考える。例えば、第2参加者が自分の存在に気付いて欲しいと思っている度合いがとても高い場合には、すべて参加者がさりげないと思っている感覚Eの値を算出したりする方法が具体例の一つである。
例えば、第2参加者が自分の存在に気付いて欲しいと思っている度合いがとても低い場合には、数人がさりげないと思っており、残りのヒトはE_minより小さい値であるような感覚Eの値を算出したりする方法が具体例の一つである。
FIG. 11 (b) calculates the sense E that the second participant wants to give from the range where the distribution of senses E for each participant feels unconventional when the first base 11A has a lot of participation. It is a graph for demonstrating the method to do.
For example, consider a case where there are many participants at the first base 11A, and there is a range that feels unconventional in the distribution of the sense E as shown in FIG. 11 (b) for each participant. For example, when the second participant feels that he / she wants you to notice his / her existence very high, the method of calculating the value of feeling E that all the participants think is not casual is a concrete example. It is one.
For example, if the second participant feels that he / she wants you to notice his / her existence very low, then some people think that they are not casual, and the remaining people have a value smaller than E_min. The method of calculating the value of is one of the specific examples.

図12(a)は、第1拠点11Aに存在する複数参加者のさりげないと感じる感覚の最大値E_maxの確率密度の具体例を説明するためのグラフ図である。
例えば、第1拠点11Aの感覚Eの範囲の更新は、図12(a)に示すような確率密度分布を用いて更新する方法がある。例えば、第1拠点11Aが盛り上がっている場合には、確率密度が高くなるようなE_maxの値を、第1拠点11Aのさりげないと感じる感覚の最大値E_maxとして採用したりする方法がある。逆に、第1拠点11Aが盛り上がっていない場合には、確率密度が低くなるようなE_maxの値を、第1拠点11Aのさりげないと感じる感覚の最大値E_maxとして採用したりする方法がある。
図12(b)は、第1拠点11Aに存在する複数参加者のさりげないと感じる感覚の最小値E_minの確率密度の具体例を説明した図である。
第1拠点11Aの感覚Eの範囲の更新において、さりげないと感じる感覚の最小値について説明した図である。具体的な方法は(a)と同様である。
FIG. 12A is a graph for explaining a specific example of the probability density of the maximum value E_max of the feeling that the plurality of participants present at the first base 11A feels casual.
For example, there is a method of updating the range of the sense E of the first base 11A using a probability density distribution as shown in FIG. 12 (a). For example, when the first base 11A is swelled, there is a method of adopting a value of E_max such that the probability density is high as the maximum value E_max of the feeling that the first base 11A does not feel casual. Conversely, when the first base 11A does not swell, there is a method of adopting a value of E_max such that the probability density decreases as the maximum value E_max of the feeling that the first base 11A feels unconventional.
FIG. 12B is a view for explaining a specific example of the probability density of the minimum value E_min of the sense that the plurality of participants present at the first base 11A feels casual.
In the update of the range of the sense E of the first base 11A, it is a diagram illustrating the minimum value of the sense of feeling felt casually. The specific method is the same as (a).

図12(c)は、予め定められた第1拠点11Aのさりげないと感じる感覚Eの範囲がE_max_basisとE_min_basisとして定められており、第1拠点11Aのテレビ会議の拠点状況情報に応じて、第1拠点11Aのさりげないと感じる感覚量の範囲E_maxとE_minを更新する具体的な例を説明するためのグラフ図である。
予め定められた第1拠点11Aのさりげないと感じる感覚Eの範囲がE_max_basisとE_min_basisとして定められており、例えば第1拠点11Aのテレビ会議が白熱している場合には、第1拠点11Aのさりげないと感じる感覚量の範囲E_maxとE_minは大きい値へと変換、又は算出される。下記式を用いて算出される。
In FIG. 12C, the range of the sense E which feels non-convenient in the first base 11A, which has been determined in advance, is defined as E_max_basis and E_min_basis, and according to the base situation information of the video conference of the first base 11A, It is a graph for demonstrating the specific example which updates the range E_max of the senses which it feels that 1 base 11A is not casual, and E_min.
If the range of the sense E that feels inconvenient in the first base 11A, which has been determined in advance, is defined as E_max_basis and E_min_basis, and the video conference of the first base 11A is glowing, for example, the casualty of the first base 11A. The range of feeling quantities E_max and E_min felt to be absent is converted or calculated to a large value. Calculated using the following equation.

E_max=f(MotionValue_11A、MotionCount_11A、E_max_basis) (7)
E_min=f(MotionValue_11A、MotionCount_11A、E_min_basis) (8)
ただしfは予めさだめられた関数である。
E_max = f (MotionValue_11A, MotionCount_11A, E_max_basis) (7)
E_min = f (MotionValue_11A, MotionCount_11A, E_min_basis) (8)
Where f is a previously stored function.

図13は、第2拠点11Bの第2参加者15が自分の存在に気付いて欲しいと思っている度合いを反映し、第1拠点参加者に提示する感覚量Eを算出する具体的な例を説明するためのグラフ図である。
例えば、第2参加者15が自分の存在に気付いて欲しいと思っている度合いは、図13に示す範囲の中で、上記度合いによってその範囲の中で値を調整することで算出する。例えば、自分の存在に強く気付いて欲しいと思っている場合には、E_maxに近い値をとる。自分の存在に気付いて欲しいと思っている度合いが小さい場合にはE_minに近い値をとる。
FIG. 13 shows a specific example of calculating the sensation amount E to be presented to the first base participant, reflecting the degree to which the second participant 15 of the second base 11B wants to be aware of his / her existence. It is a graph figure for demonstrating.
For example, the degree to which the second participant 15 wants to notice the presence of the second participant 15 is calculated by adjusting the value in the range according to the degree in the range shown in FIG. For example, if you want to be strongly aware of your existence, take a value close to E_max. If you do not want to be aware of your presence, take a value close to E_min.

上記これまでの実施例すべてについて、以下に記載の内容であってもよい。
例えば、第2拠点11Bにいる参加者15の自分の存在に気づいて欲しい度合いはこれまでの実施例では、第2参加者の動作をもって算出していたが、例えば、動作に現れない思いを脳波などの信号をもって計測し算出してもよい。
また、刺激Rの算出処理は、第2参加者15を表すアバターロボット17と、第1拠点11Aの第1参加者13と第3参加者14との距離、又は第2参加者15を表すアバターロボット17と、第1拠点11Aの第1参加者13との距離、又は、第2参加者15を表すアバターロボット17と、第1拠点11Aの第3参加者14との距離に比例する強さで算出する処理であってもよい。
また、第1拠点11Aの拠点状況情報を計測し、上記算出処理、判定処理を行う際の話者は、複数いてもよい。
このように、第2拠点状況情報、第1参加者の感覚量の分布に基づいて、遠隔地の参加者の言動に現れる会議への参加意思の程度を表す意思量を提示する度合いの調整を行うことができる。
The contents described below may be applied to all the above-described embodiments.
For example, although the degree to which the participant 15 in the second base 11B wants to be aware of the presence is calculated by the action of the second participant in the embodiments so far, for example, the brain wave does not appear in the action It may measure and calculate with signals, such as.
In addition, calculation processing of stimulus R, avatar robot 17 which shows 2nd participant 15, distance of 1st participant 13 of 1st base 11A and 3rd participant 14 or avatar which shows 2nd participant 15 The distance between the robot 17 and the first participant 13 of the first base 11A, or the strength proportional to the distance between the avatar robot 17 representing the second participant 15 and the third participant 14 of the first base 11A It may be a process calculated by
In addition, there may be a plurality of speakers when measuring the base situation information of the first base 11A and performing the calculation process and the determination process.
Thus, based on the second base situation information and the distribution of the amount of sense of the first participant, adjustment of the degree of presenting the amount of intention representing the degree of willingness to participate in the conference appearing in the behavior of the remote participant It can be carried out.

<本発明の実施態様例と効果>
<第1態様>
本態様のコミュニケーション補助装置は、第1拠点11Aに配置されたテレビ会議端末10Aおよび第2拠点11Bに配置されたテレビ会議端末10Bとの間で通信ネットワークNを経由したコミュニケーションを補助するコミュニケーション補助装置であって、第1拠点11Aには、推定された第2拠点11Bの状況を表す第2拠点状況情報を受信する無線通信部53と、第1拠点11Aにいる第1参加者13が知覚可能な感覚量の範囲を算出する感覚量範囲算出部55aと、第2拠点状況情報と第1参加者の感覚量の範囲に基づいて、第2拠点11Bにいる第2参加者の意思量を算出する意思量算出部55bと、意思量に応じた刺激を第1参加者が知覚できるように出力する刺激出力部57と、を備えることを特徴とする。
本態様によれば、第2拠点状況情報と第1参加者の感覚量の範囲に基づいて、遠隔地の参加者の言動に現れる会議への参加意思の程度を表す意思量を提示する度合いの調整を行うことができる。すなわち、相手に自分の存在を提示する度合いの調整を行うことができる。
<Example of embodiment of the present invention and effect>
<First aspect>
The communication assisting apparatus of this aspect is a communication assisting apparatus for assisting communication via the communication network N between the video conference terminal 10A disposed at the first site 11A and the video conference terminal 10B disposed at the second site 11B. And the first participant 11 in the first location 11A can perceive in the first location 11A the wireless communication unit 53 that receives the second location status information representing the estimated condition of the second location 11B. The intention amount of the second participant in the second base 11B is calculated based on the sensation amount range calculation unit 55a that calculates the range of the special sensation amount, and the range of the second base situation information and the first participant's sensory amount And a stimulus output unit 57 for outputting a stimulus corresponding to the intention amount so that the first participant can perceive it.
According to this aspect, based on the second base situation information and the range of the amount of sense of the first participant, the degree of presenting the amount of intention representing the degree of willingness to participate in the conference appearing in the behavior of the remote participant Adjustments can be made. That is, it is possible to adjust the degree of presenting one's presence to the other party.

<第2態様>
本態様のコミュニケーション補助装置は、第1拠点11Aの状況を表す第1拠点状況情報を推定する第1拠点状況推定部25を備え、意思量算出部55bは、第1拠点状況情報、第2拠点状況情報および第1参加者の感覚量の範囲に基づいて、第2参加者の意思量を算出することを特徴とする。
本態様によれば、第1拠点状況情報、第2拠点状況情報、第1参加者の感覚量の範囲に基づいて、遠隔地の参加者の言動に現れる会議への参加意思の程度を表す意思量を提示する度合いの調整を行うことができる。すなわち、相手に自分の存在を提示する度合いの調整を行うことができる。
Second Embodiment
The communication assistance device of this aspect includes a first base situation estimation unit 25 that estimates first base situation information indicating the situation of the first base 11A, and the intention amount calculation unit 55b performs the first base situation information, the second base The intention amount of the second participant is calculated based on the situation information and the range of the sense amount of the first participant.
According to this aspect, based on the first base situation information, the second base situation information, and the range of the first participant's sense amount, the intention indicating the degree of the participation intention to the conference appearing in the speech of the remote place participant Adjustments can be made to the degree of presenting the quantity. That is, it is possible to adjust the degree of presenting one's presence to the other party.

<第3態様>
本態様のコミュニケーション補助装置は、感覚量範囲算出部55aは、第1参加者が知覚可能な感覚量の分布を算出し、参加意思量算出部55bは、第2拠点状況情報、第1参加者の感覚量の分布に基づいて、意思量を算出することを特徴とする。
本態様によれば、第2拠点状況情報、第1参加者の感覚量の分布に基づいて、遠隔地の参加者の言動に現れる会議への参加意思の程度を表す意思量を提示する度合いの調整を行うことができる。すなわち、相手に自分の存在を提示する度合いの調整を行うことができる。
Third Embodiment
In the communication assistance device of this aspect, the sensation amount range calculation unit 55a calculates the distribution of the sensation amount perceivable by the first participant, and the participation intention amount calculation unit 55b determines the second base situation information, the first participant Calculating the intention amount based on the distribution of the sense amount of
According to this aspect, based on the second base situation information and the distribution of the amount of sense of the first participant, the degree of presenting the amount of intention representing the degree of willingness to participate in the conference appearing in the behavior of the remote participant Adjustments can be made. That is, it is possible to adjust the degree of presenting one's presence to the other party.

<第4態様>
本態様のコミュニケーション補助装置は、第1拠点状況推定部25は、第1拠点11Aの音声信号、及び映像信号を計測する第1音声映像計測手段と、第1拠点11Aの映像信号に基づいて第1特徴的動作情報を抽出する第1特徴的動作抽出手段と、第1拠点11Aの音声信号と映像信号に基づいて発言者情報と当該発言者の対話相手情報を特定する特定手段と、対話相手情報が第2参加者を表すか否かを判定する判定手段と、を備え、第1拠点状況推定部25は、第1特徴的動作情報、発言者情報、及び対話相手情報を第1拠点状況情報として出力することを特徴とする。
本態様によれば、第1特徴的動作情報、発言者情報、及び対話相手情報を第1拠点状況情報として用いることで、遠隔地の参加者の言動に現れる会議への参加意思の程度を表す意思量を提示する度合いの調整を行うことができる。すなわち、相手に自分の存在を提示する度合いの調整を行うことができる。
<Fourth aspect>
In the communication assisting apparatus of the present embodiment, the first base situation estimation unit 25 performs the first audio and video measurement means for measuring the audio signal of the first base 11A and the video signal, and the first audio and video measuring means and the video signal for the first base 11A. 1) First characteristic motion extracting means for extracting characteristic motion information, specifying means for specifying speaker information and the talker's conversation partner information based on the audio signal and video signal of the first base 11A, and the dialog partner The first base situation estimating unit 25 determines the first characteristic situation information, the speaker information, and the conversation partner information as the first base situation. It is characterized by outputting as information.
According to this aspect, by using the first characteristic motion information, the speaker information, and the conversation partner information as the first base situation information, the degree of the participation intention to the conference appearing in the behavior of the remote participant is represented. It is possible to adjust the degree of presenting the amount of intention. That is, it is possible to adjust the degree of presenting one's presence to the other party.

<第5態様>
本態様のコミュニケーション補助装置は、刺激出力部57は、刺激を出力するように構成されたロボット部17を備え、第1拠点状況推定部25は、第1参加者とロボット部17の間の距離を計測する測距手段を備え、距離を第1拠点状況情報として推定することを特徴とする。
本態様によれば、第1参加者とロボット部17の間の距離を第1拠点状況情報として用いることで、遠隔地の参加者の言動に現れる会議への参加意思の程度を表す意思量を提示する度合いの調整を行うことができる。すなわち、相手に自分の存在を提示する度合いの調整を行うことができる。
<Fifth aspect>
In the communication assistance device of this aspect, the stimulus output unit 57 includes the robot unit 17 configured to output a stimulus, and the first base state estimation unit 25 determines the distance between the first participant and the robot unit 17 The distance measuring unit measures distance, and estimates the distance as first base situation information.
According to this aspect, by using the distance between the first participant and the robot unit 17 as the first base situation information, an intention amount representing the degree of willingness to participate in the conference appearing in the behavior of the remote participant can be obtained. It is possible to adjust the degree of presentation. That is, it is possible to adjust the degree of presenting one's presence to the other party.

<第6態様>
本態様のコミュニケーション補助装置は、刺激出力部57は、第1参加者が目視することにより感知可能な光波信号を発生する光波発生手段、第1参加者が聴取することにより感知可能な音波信号を発生する音波発生手段、第1参加者が接触することにより感知可能な振動を発生する振動発生手段、第1参加者が嗅取することにより感知可能な臭気を発生する臭気発生手段のうち、少なくとも1つであることを特徴とする。
本態様によれば、第1参加者が感知可能な光波信号、音波信号、振動、臭気のうち、少なくとも1つを発生することで、遠隔地の参加者の言動に現れる会議への参加意思の程度を表す意思量を提示することができる。すなわち、相手に自分の存在を提示する度合いの調整を行うことができる。
<Sixth aspect>
In the communication assisting apparatus of the present embodiment, the stimulation output unit 57 generates a light wave generating means that generates a light wave signal that can be sensed by the first participant visually, a sound wave signal that can be sensed by the first participant listening At least at least among a sound wave generation means to be generated, a vibration generation means to generate a sensible vibration by contact with the first participant, and an odor generation means to generate a sensible odor by sniffing by the first participant It is characterized by being one.
According to this aspect, by generating at least one of the light wave signal, the sound wave signal, the vibration, and the odor that can be sensed by the first participant, the intention to participate in the conference that appears in the behavior of the remote participant It is possible to present an intention amount that represents the degree. That is, it is possible to adjust the degree of presenting one's presence to the other party.

<第7態様>
本態様のコミュニケーション補助装置は、第2拠点状況推定部45は、第2拠点11Bの状況として音声信号、及び映像信号を計測する第2音声映像計測手段と、所定時間内における第2拠点11Bの音声信号が所定音量以下である場合に、第2拠点11Bの映像信号に基づいて第2特徴的動作情報を抽出する第2特徴的動作抽出手段と、第2特徴的動作情報を第2拠点状況情報として第1拠点11A側に送信する送信手段と、を備えることを特徴とする。
本態様によれば、所定時間内における第2拠点11Bの音声信号が所定音量以下である場合に、第2拠点11Bの映像信号に基づいて第2特徴的動作情報を抽出するので、遠隔地の参加者の言動に現れる会議への参加意思の程度を表す意思量を算出することができる。
<Seventh aspect>
In the communication assisting apparatus of this aspect, the second base situation estimation unit 45 measures the second audio and video measuring means for measuring an audio signal and a video signal as the situation of the second base 11B, and the second base 11B of the second base 11B within a predetermined time. Second characteristic operation extracting means for extracting second characteristic operation information based on the video signal of the second base 11B when the audio signal is lower than a predetermined volume, and second characteristic operation information as the second base situation And transmitting means for transmitting information to the first base 11A side.
According to this aspect, when the audio signal of the second base 11B within the predetermined time is equal to or lower than the predetermined volume, the second characteristic operation information is extracted based on the video signal of the second base 11B. The amount of intention can be calculated that represents the degree of intention to participate in the conference that appears in the participants' behavior.

<第8態様>
本態様のコミュニケーション補助システムは、第1乃至6態様の何れか1つに記載のコミュニケーション補助装置を刺激量算出出力ユニット50とし、第7態様に記載のコミュニケーション補助装置を第2拠点状況推定ユニット40として備えることを特徴とする。
本態様によれば、刺激量算出出力ユニット50と、第2拠点状況推定ユニット40とを用いてコミュニケーション補助システムを構成することができる。
Eighth Embodiment
The communication assistance system of this aspect uses the communication assistance device according to any one of the first to sixth aspects as a stimulation amount calculation output unit 50, and the communication assistance device according to the seventh aspect is a second base situation estimation unit 40. It is characterized by having as.
According to this aspect, the communication assistance system can be configured using the stimulation amount calculation output unit 50 and the second base situation estimation unit 40.

<第9態様>
本態様のコミュニケーション補助方法は、第1拠点11Aに配置された第1会議端末10Aおよび第2拠点11Bに配置された第2会議端末10Bの間で通信ネットワークNを経由したコミュニケーションを補助するコミュニケーション補助方法であって、第1拠点11Aには、推定された第2拠点11Bの状況を表す第2拠点状況情報を受信する受信ステップS200と、第1拠点11Aにいる第1参加者13が知覚可能な感覚量の範囲を算出する感覚量範囲算出ステップS300と、第2拠点状況情報と第1参加者13の感覚量の範囲に基づいて、第2拠点11Bにいる第2参加者15の意思量を算出する意思量算出ステップS300と、意思量に応じた刺激を第1参加者13が知覚できるように出力する刺激出力ステップS400と、を備えることを特徴とする。
本態様によれば、第2拠点状況情報、第1参加者の感覚量の範囲に基づいて、遠隔地の参加者の言動に現れる会議への参加意思の程度を表す意思量を提示する度合いの調整を行うことができる。すなわち、相手に自分の存在を提示する度合いの調整を行うことができる。
<Ninth aspect>
The communication assistance method of this aspect is a communication assistance method for assisting communication via the communication network N between the first conference terminal 10A disposed at the first site 11A and the second conference terminal 10B disposed at the second site 11B. It is a method, The first participant 11 in the first base 11A can perceive in the first base 11A a receiving step S200 of receiving the second base status information representing the estimated second base 11B status and the first participant 13 in the first base 11A Amount of intention of the second participant 15 in the second base 11B based on the sensation amount range calculation step S300 for calculating the range of the amount of sensation and the range of the second base situation information and the amount of sensation of the first participant 13 An intention amount calculation step S300 for calculating the second and third stimulus output steps S400 and S400 for outputting the stimulus corresponding to the intention amount so that the first participant 13 can perceive it; Characterized in that it comprises.
According to this aspect, based on the second base situation information and the range of the amount of sense of the first participant, the degree of presenting the amount of intention representing the degree of willingness to participate in the conference appearing in the speech of the remote participant Adjustments can be made. That is, it is possible to adjust the degree of presenting one's presence to the other party.

<第10態様>
本態様のプログラムは、第9態様の各ステップをプロセッサに実行させることを特徴とする。
本態様によれば、各ステップをCPUに実行させることができるので、遠隔地の参加者の言動に現れる会議への参加意思の程度を表す意思量を提示する度合いの調整を行うことができる。
<10th aspect>
The program of this aspect is characterized by causing the processor to execute each step of the ninth aspect.
According to this aspect, since each step can be executed by the CPU, it is possible to adjust the degree of presenting the intention amount representing the degree of the willingness to participate in the conference appearing in the behavior of the remote place participant.

4…撮像装置、5…マイク、6…スピーカ、7…ディスプレイ、8…処理装置、10…テレビ会議端末、11A…第1拠点、11B…第2拠点、13…第1参加者、14…第3参加者、15…第2参加者、17…アバターロボット、20…第1拠点状況計測推定ユニット、21…第1拠点状況計測部、23…第1拠点状況取込部、25…第1拠点状況推定部、27…無線通信部、30…中継ユニット、40…第2拠点状況計測推定ユニット、41…第2拠点状況計測部、43…第2拠点状況取込部、45…第2拠点状況推定部、50…刺激量算出出力ユニット、55…刺激量算出部、55a…感覚量範囲算出部、55b…意思量算出部、55c…刺激量算出部、57…刺激出力部、N…通信ネットワーク   DESCRIPTION OF SYMBOLS 4 ... Imaging device, 5 ... Microphone, 6 ... Speaker, 7 ... Display, 8 ... Processing apparatus, 10 ... Video conference terminal, 11A ... 1st base, 11B ... 2nd base, 13 ... 1st participant, 14 ... 1st 3 participants, 15: second participant, 17: avatar robot, 20: first base situation measurement estimation unit, 21: first base situation measurement section, 23: first base situation capture section, 25: first base Condition estimation unit 27 Wireless communication unit 30 Relay unit 40 Second location status measurement estimation unit 41 Second location status measurement unit 43 Second location status capture unit 45 Second location status Estimation unit 50: Stimulus amount calculation output unit 55: Stimulus amount calculation unit 55a: Sensation amount range calculation unit 55b: Intention amount calculation unit 55c: Stimulation amount calculation unit 57: Stimulation output unit N: Communication network

特許第5211001号Patent No. 5211001

http://WWW.oki.com/jp/otr/2008/n213/pdf/213_r06.pdfhttp: // WWW. oki. com / jp / otr / 2008 / n 213 / pdf / 213_r06. pdf

Claims (9)

第1拠点に配置された第1会議端末および第2拠点に配置された第2会議端末の間でネットワークを経由したコミュニケーションを補助するコミュニケーション補助装置であって、
前記第1拠点には、
推定された前記第2拠点の状況を表す第2拠点状況情報を受信する受信手段と、
前記第1拠点にいる第1参加者が知覚可能な感覚量の範囲を算出する感覚量範囲算出手段と、
前記第2拠点状況情報が閾値以上である場合に、前記第2拠点にいる前記第2参加者の意思量を算出する意思量算出手段と、
前記第2拠点にいる前記第2参加者の意思量に応じて、前記第1参加者の感覚量の範囲に応じた刺激を前記第1参加者が知覚できるように出力する刺激出力手段と、を備えることを特徴とするコミュニケーション補助装置。
A communication assistance apparatus for assisting communication via a network between a first conference terminal arranged at a first location and a second conference terminal arranged at a second location, comprising:
At the first site,
A receiving unit that receives second base status information indicating the estimated second base status;
Sense amount range calculation means for calculating a range of sense amounts perceivable by a first participant at the first base;
When the second center status information is equal to or greater than the threshold, the intention amount calculating means for calculating the intention of the second participants in the second center,
Stimulus output means for outputting a stimulus according to the range of the amount of sense of the first participant according to the amount of intention of the second participant at the second base so that the first participant can perceive a stimulus; A communication assisting apparatus comprising:
前記第1拠点の状況を表す第1拠点状況情報を推定する第1推定手段を備えることを特徴とする請求項1記載のコミュニケーション補助装置。   The communication assisting apparatus according to claim 1, further comprising a first estimation unit configured to estimate first location status information indicating the status of the first location. 前記第1推定手段は、
前記第1拠点の音声信号、及び映像信号を計測する第1音声映像計測手段と、
前記第1拠点の映像信号に基づいて第1特徴的動作情報を抽出する第1特徴的動作抽出手段と、
前記第1拠点の音声信号と映像信号に基づいて発言者情報と当該発言者の対話相手情報を特定する特定手段と、
前記対話相手情報が前記第2参加者を表すか否かを判定する判定手段と、を備え、
前記第1推定手段は、
前記第1特徴的動作情報、前記発言者情報、及び前記対話相手情報を前記第1拠点状況情報として出力することを特徴とする請求項2記載のコミュニケーション補助装置。
The first estimation means is
First audio / video measurement means for measuring the audio signal and video signal of the first site;
First characteristic operation extraction means for extracting first characteristic operation information based on the video signal of the first base;
Specifying means for specifying the speaker information and the talk partner information of the speaker based on the audio signal and the video signal of the first base;
Determining means for determining whether the conversation partner information represents the second participant,
The first estimation means is
The communication assistance device according to claim 2, wherein the first characteristic operation information, the speaker information, and the conversation partner information are output as the first base situation information.
前記刺激出力手段は、
前記刺激を出力するように構成されたロボット部を備え、
前記第1推定手段は、
前記第1参加者と前記ロボット部の間の距離を計測する測距手段を備え、
前記距離を前記第1拠点状況情報として推定することを特徴とする請求項2記載のコミュニケーション補助装置。
The stimulus output means is
A robot unit configured to output the stimulus;
The first estimation means is
Distance measuring means for measuring a distance between the first participant and the robot unit;
The communication assistance device according to claim 2, wherein the distance is estimated as the first base situation information.
前記刺激出力手段は、
前記第1参加者が目視することにより感知可能な光波信号を発生する光波発生手段、
前記第1参加者が聴取することにより感知可能な音波信号を発生する音波発生手段、
前記第1参加者が接触することにより感知可能な振動を発生する振動発生手段、
前記第1参加者が嗅取することにより感知可能な臭気を発生する臭気発生手段のうち、少なくとも1つであることを特徴とする請求項2又は項に記載のコミュニケーション補助装置。
The stimulus output means is
Light wave generating means for generating a light wave signal that can be sensed by the first participant viewing;
Sound wave generation means for generating a sound wave signal that can be sensed by the first participant listening;
Vibration generating means for generating a sensible vibration by contact with the first participant;
The communication assistance device according to claim 2 or 4 , wherein at least one of the odor generating means generates odor that can be sensed by the first participant sniffing.
前記第2拠点には、
前記第2拠点の状況を表す第2拠点状況情報を推定する第2推定手段を備え、
前記第2推定手段は、
前記第2拠点の状況として音声信号、及び映像信号を計測する第2音声映像計測手段と、
所定時間内における前記第2拠点の音声信号が所定音量以下である場合に、前記第2拠点の映像信号に基づいて第2特徴的動作情報を抽出する第2特徴的動作抽出手段と、
前記第2特徴的動作情報を前記第2拠点状況情報として前記第1拠点側に送信する送信手段と、を備えることを特徴とする請求項1記載のコミュニケーション補助装置。
At the second site,
A second estimation unit configured to estimate second location status information representing the status of the second location;
The second estimation means is
A second audio / video measurement unit configured to measure an audio signal and a video signal as the status of the second base;
Second characteristic operation extraction means for extracting second characteristic operation information based on the video signal of the second base when the audio signal of the second base within a predetermined time is equal to or lower than a predetermined volume;
The communication assistance device according to claim 1, further comprising: a transmission unit that transmits the second characteristic operation information to the first base as the second base status information.
請求項2乃至の何れか1つに記載のコミュニケーション補助装置を第1ユニットとし、
請求項記載のコミュニケーション補助装置を第2ユニットとして備えることを特徴とするコミュニケーション補助システム。
A communication assistance apparatus according to any one of claims 2 to 5 as a first unit,
A communication assistance system comprising the communication assistance device according to claim 6 as a second unit.
第1拠点に配置された第1会議端末および第2拠点に配置された第2会議端末の間でネットワークを経由したコミュニケーションを補助するコミュニケーション補助方法であって、
前記第1拠点には、
推定された前記第2拠点の状況を表す第2拠点状況情報を受信する受信ステップと、
前記第1拠点にいる第1参加者が知覚可能な感覚量の範囲を算出する感覚量範囲算出ステップと、
前記第2拠点状況情報が閾値以上である場合に、前記第2拠点にいる前記第2参加者の意思量を算出する意思量算出ステップと、
前記第2拠点にいる前記第2参加者の意思量に応じて、前記第1参加者の感覚量の範囲に応じた刺激を前記第1参加者が知覚できるように出力する刺激出力ステップと、を備えることを特徴とするコミュニケーション補助方法。
A communication assistance method for assisting communication via a network between a first conference terminal arranged at a first base and a second conference terminal arranged at a second base, comprising:
At the first site,
A receiving step of receiving second base status information representing the estimated second base status;
A sensory amount range calculating step of calculating a range of sensory amounts perceivable by a first participant at the first base;
When the second center status information is equal to or greater than the threshold, the intention amount calculating step of calculating the intention of the second participants in the second center,
A stimulus output step of outputting a stimulus according to the range of the amount of sense of the first participant according to the amount of intention of the second participant at the second base so that the first participant can perceive a stimulus; A communication assistance method characterized by comprising:
請求項記載の各ステップをプロセッサに実行させることを特徴とするプログラム。 A program causing a processor to execute each step according to claim 8 .
JP2014101551A 2014-05-15 2014-05-15 Communication aid device, communication aid system, communication aid method and program Active JP6543891B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014101551A JP6543891B2 (en) 2014-05-15 2014-05-15 Communication aid device, communication aid system, communication aid method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014101551A JP6543891B2 (en) 2014-05-15 2014-05-15 Communication aid device, communication aid system, communication aid method and program

Publications (2)

Publication Number Publication Date
JP2015220534A JP2015220534A (en) 2015-12-07
JP6543891B2 true JP6543891B2 (en) 2019-07-17

Family

ID=54779616

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014101551A Active JP6543891B2 (en) 2014-05-15 2014-05-15 Communication aid device, communication aid system, communication aid method and program

Country Status (1)

Country Link
JP (1) JP6543891B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6529065B2 (en) * 2015-01-30 2019-06-12 Kddi株式会社 ROBOT CONTROL DEVICE, ROBOT CONTROL SYSTEM, AND ROBOT CONTROL PROGRAM
JP7371770B2 (en) 2020-05-12 2023-10-31 富士通株式会社 Avatar control program, avatar control method, and information processing device
WO2024075707A1 (en) * 2022-10-07 2024-04-11 京セラ株式会社 System, electronic device, method for controlling system, and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7092001B2 (en) * 2003-11-26 2006-08-15 Sap Aktiengesellschaft Video conferencing system with physical cues

Also Published As

Publication number Publication date
JP2015220534A (en) 2015-12-07

Similar Documents

Publication Publication Date Title
JP6992870B2 (en) Information processing systems, control methods, and programs
KR102658445B1 (en) Voice affect modification
KR20200091839A (en) Communication device, communication robot and computer readable storage medium
US20200293526A1 (en) Information processing system, information processing method, and storage medium
US9848166B2 (en) Communication unit
WO2018174088A1 (en) Communication analysis device, measurement/feedback device used therefor, and interaction device
JP2016126500A (en) Wearable terminal device and program
JP6543891B2 (en) Communication aid device, communication aid system, communication aid method and program
KR20180068975A (en) Information processing system, and information processing method
JP2016018313A (en) Program, information processing apparatus, communication system, and communication method
US9361316B2 (en) Information processing apparatus and phrase output method for determining phrases based on an image
KR101504699B1 (en) Phonetic conversation method and device using wired and wiress communication
WO2018158852A1 (en) Telephone call system and communication system
WO2016157993A1 (en) Information processing device, information processing method, and program
JP2018186326A (en) Robot apparatus and program
JP7123856B2 (en) Presentation evaluation system, method, trained model and program, information processing device and terminal device
CN109903218B (en) Image processing method and terminal
JP6550951B2 (en) Terminal, video conference system, and program
JP2006136742A (en) Communication apparatus
US20190173683A1 (en) Information processing apparatus and information processing system
CN113438303B (en) Remote auxiliary work system and method, electronic equipment and storage medium
JP6529065B2 (en) ROBOT CONTROL DEVICE, ROBOT CONTROL SYSTEM, AND ROBOT CONTROL PROGRAM
JP7123028B2 (en) Information processing system, information processing method, and program
EP4273669A1 (en) Monitoring of facial characteristics
WO2020213292A1 (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180522

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181113

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190603

R151 Written notification of patent or utility model registration

Ref document number: 6543891

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151