JP7286303B2 - Conference support system and conference robot - Google Patents
Conference support system and conference robot Download PDFInfo
- Publication number
- JP7286303B2 JP7286303B2 JP2018221283A JP2018221283A JP7286303B2 JP 7286303 B2 JP7286303 B2 JP 7286303B2 JP 2018221283 A JP2018221283 A JP 2018221283A JP 2018221283 A JP2018221283 A JP 2018221283A JP 7286303 B2 JP7286303 B2 JP 7286303B2
- Authority
- JP
- Japan
- Prior art keywords
- conference
- participants
- participation
- robot
- speak
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Telephonic Communication Services (AREA)
Description
この発明は、会議コミュニケーションを支援する技術に関する。 The present invention relates to technology for supporting conference communication.
特許文献1は、ユーザの見ている向きとユーザの移動方向とに基づいて、案内をするか否かを判断する案内ロボット制御システムを開示している。 Patent Literature 1 discloses a guidance robot control system that determines whether or not to provide guidance based on the user's viewing direction and the user's moving direction.
特許文献1に開示の技術は、ユーザが案内を欲している場合に行う行動を利用して、案内をするか否かを判断している。 The technique disclosed in Patent Literature 1 determines whether or not to provide guidance by using the behavior that the user performs when he or she desires guidance.
しかしながら、複数人が参加する会議では、そのような行動を期待できない。会議においては、会議の進行中におけるコミュニケーションを遮ることの適否を判断して、言葉を発するタイミングを決定する必要がある。 However, such behavior cannot be expected in a conference in which multiple people participate. In a conference, it is necessary to determine the appropriateness of interrupting communication while the conference is in progress, and to determine the timing of speaking.
そこで、本発明は、会議において、言葉を発するのに適したタイミングを見出せるようにすることを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to find a suitable timing for speaking in a meeting.
上記課題を解決するため,第1の態様に係る会議支援システムは、複数の参加者による会議に用いられる会議支援システムであって、前記複数の参加者の会議参加状態を取得する参加状態取得部と、前記参加状態取得部で得られた前記複数の参加者の会議参加状態に基づいて、前記複数の参加者によるコミュニケーションの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定する制御部と、を備える。 In order to solve the above problems, a conference support system according to a first aspect is a conference support system used in a conference by a plurality of participants, and includes a participation state acquisition unit that acquires the conference participation states of the plurality of participants. and, based on the conference participation states of the plurality of participants obtained by the participation state acquisition unit, the likelihood of interrupting communication by the plurality of participants is obtained, and based on the obtained likelihood of interruption, at the timing of speaking and a control unit that determines whether or not there is.
第2の態様は、第1の態様に係る会議支援システムであって、前記制御部は、発言予定内容を記録する発言予定記録部を含み、発言タイミングであると判定されたときに、前記発言予定記録部に記録された発言予定内容を、スピーカを通じて発言するものである。 A second aspect is the conference support system according to the first aspect, wherein the control unit includes a speech schedule recording unit that records speech schedule content, and when it is determined that it is time to speak, the speech The contents of the speech schedule recorded in the schedule recording unit are spoken through the speaker.
第3の態様は、第2の態様に係る会議支援システムであって、前記制御部は、前記複数の参加者のうちの少なくとも一人の参加者の発言予定内容を前記発言予定記録部に記録する。 A third aspect is the conference support system according to the second aspect, wherein the control unit records the speech schedule content of at least one of the plurality of participants in the speech schedule recording unit. .
第4の態様は、第3の態様に係る会議支援システムであって、前記複数の参加者が、現実空間において互いの会議参加状態を観察可能な状態で会議を行う複数の第1参加者と、通信回線を介して会議に参加する第2参加者とを含み、前記制御部は、前記第2参加者の発言予定内容を前記発言予定記録部に記録するものである。 A fourth aspect is the conference support system according to the third aspect, wherein the plurality of participants hold a conference in a real space with a plurality of first participants who can observe each other's conference participation states. , and a second participant who participates in the conference via a communication line, and the control unit records the speech schedule content of the second participant in the speech schedule recording unit.
第5の態様は、第1から第4のいずれか1つの態様に係る会議支援システムであって、前記参加状態取得部は、前記複数の参加者のそれぞれの会議参加状態を取得する複数の個別参加状態取得部を含み、前記制御部は、前記複数の個別参加状態取得部で得られた前記複数の参加者の会議参加状態に基づいて、前記複数の参加者それぞれの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定するものである。 A fifth aspect is the conference support system according to any one of the first to fourth aspects, wherein the participation state acquisition unit includes a plurality of individual a participation state acquisition unit, wherein the control unit obtains the ease of interruption of each of the plurality of participants based on the conference participation states of the plurality of participants obtained by the plurality of individual participation state acquisition units; Whether or not it is time to speak is determined based on the obtained degree of obstruction.
第6の態様は、第1から第5のいずれか1つの態様に係る会議支援システムであって、前記複数の参加者のうちの少なくとも一人の参加者による発言の意思指令を取得する発言指令受付部と、前記会議が行われる現実空間において、会議への参加動作が可能な擬似会議参加装置と、をさらに備え、前記制御部は、発言の意思指令取得後、発言タイミングで無いと判定されると、前記擬似会議参加装置に、遮りやすさを上げる第1動作を実行させるものである。 A sixth aspect is the conference support system according to any one of the first to fifth aspects, wherein a speech command reception for acquiring a speech intention command by at least one of the plurality of participants and a pseudo-conference participation device capable of participating in the conference in the real space where the conference is held, wherein the control unit determines that it is not time to speak after obtaining the intention command to speak. Then, the pseudo-conference participation device is caused to perform a first operation for increasing the likelihood of interruption.
第7の態様は、第6の態様に係る会議支援システムであって、前記制御部は、前記第1動作実行後、さらに発言タイミングで無いと判定されると、前記擬似会議参加装置に、遮りやすさを上げる第2動作を実行させるものである。 A seventh aspect is the conference support system according to the sixth aspect, wherein, after the execution of the first operation, the control unit instructs the pseudo-conference participation device to interrupt when it is determined that it is not time to speak. This is to execute a second operation that increases ease.
第8の態様は、第7の態様に係る会議支援システムであって、前記第2動作は、前記第1動作よりも遮りやすさを上げるのに効果的な動作とされている。 An eighth aspect is the conference support system according to the seventh aspect, wherein the second action is more effective than the first action in increasing the likelihood of interruption.
上記課題を解決するため、第9の態様に係る会議用ロボットは、複数の参加者による会議に参加する会議用ロボットであって、前記複数の参加者の会議参加状態が入力される参加状態入力部と、前記参加状態入力部より入力された前記複数の参加者の会議参加状態に基づいて、前記複数の参加者によるコミュニケーションの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定し、発言タイミングであると判定されたときに、スピーカを通じた発言処理を実行する制御部と、を備える。 In order to solve the above-described problems, a conference robot according to a ninth aspect is a conference robot that participates in a conference of a plurality of participants, and is a conference robot for inputting a conference participation state of the plurality of participants. and based on the conference participation states of the plurality of participants input from the participation state input unit, the likelihood of interrupting communication by the plurality of participants is obtained, and the timing of utterances is determined based on the obtained likelihood of interruption. and a control unit that determines whether or not it is time to speak, and executes processing for speaking through the speaker when it is determined that it is time to speak.
第10の態様は、第9の態様に係る会議用ロボットであって、前記参加状態入力部には、前記複数の参加者のそれぞれの会議参加状態が入力され、前記制御部は、前記複数の参加者それぞれの会議参加状態に基づいて、前記複数の参加者それぞれの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定するものである。 A tenth aspect is the conference robot according to the ninth aspect, wherein the conference participation state of each of the plurality of participants is input to the participation state input unit, and the control unit controls the Based on the state of participation in the conference of each participant, the likelihood of interruption for each of the plurality of participants is obtained, and whether or not it is time to speak is determined based on the obtained likelihood of interruption.
第11の態様は、第9又は第10の態様に係る会議用ロボットであって、ロボットとしての動作を実行するロボット動作部をさらに備え、前記制御部は、発生すべき発言予定内容が生じた後、発言タイミングで無いと判定されると、前記ロボット動作部に、遮りやすさを上げる第1動作を実行させるものである。 An eleventh aspect is the conference robot according to the ninth or tenth aspect, further comprising a robot action unit that performs an action as a robot, wherein the control unit controls the content of a scheduled speech to be generated. Later, when it is determined that it is not time to speak, the robot action section is caused to perform a first action to increase the likelihood of interruption.
第12の態様は、第11の態様に係る会議用ロボットであって、前記制御部は、前記第1動作実行後、さらに、発言タイミングで無いと判定されると、前記ロボット動作部に、遮りやすさを上げる第2動作を実行させるものである。 A twelfth aspect is the conference robot according to the eleventh aspect, wherein the control unit instructs the robot operation unit to interrupt when it is determined that it is not time to speak after executing the first operation. This is to execute a second operation that increases ease.
第13の態様は、第12の態様に係る会議用ロボットであって、前記第2動作は、前記第1動作よりも遮りやすさを上げるのに効果的な動作とされている。 A thirteenth aspect is the conference robot according to the twelfth aspect, wherein the second motion is more effective than the first motion in increasing the likelihood of interruption.
第1の態様によると、参加状態取得部で得られた複数の参加者の会議参加状態に基づいて、複数の参加者によるコミュニケーションの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定するため、会議において、発言するのに適したタイミングを見出せる。 According to the first aspect, based on the conference participation states of the plurality of participants obtained by the participation state acquisition unit, the likelihood of interrupting communication by the plurality of participants is obtained, and a statement is made based on the obtained likelihood of interruption. In order to determine whether or not it is time, it is possible to find the appropriate timing for speaking in a meeting.
第2の態様によると、予め発言予定内容を記録しておけば、適切なタイミングで発言することができる。 According to the second aspect, if the content of scheduled speech is recorded in advance, it is possible to speak at an appropriate timing.
第3の態様によると、会議の参加者は、予め発言予定内容を記録しておけば、適切なタイミングで発言することができる。 According to the third aspect, the participants of the conference can speak at appropriate timing by recording the content of scheduled speeches in advance.
第4の態様によると、通信回線を介して会議に参加する第2参加者は、複数の第1参加者の会議参加状態を観察し難い。そこで、第2参加者の発言予定内容を発言予定記録部に記録しておくことで、第2参加者は、予め発言予定内容を記録しておけば、適切なタイミングで発言することができる。 According to the fourth aspect, it is difficult for the second participant who participates in the conference via the communication line to observe the conference participation states of the plurality of first participants. Therefore, by recording the planned utterance contents of the second participant in the utterance schedule recording section, the second participant can speak at an appropriate timing if the planned utterance contents are recorded in advance.
第5の態様によると、複数の参加者それぞれの会議参加状態に基づいて、より適切に発言タイミングであるか否かを判定できる。 According to the fifth aspect, it is possible to more appropriately determine whether or not it is time to speak based on the conference participation status of each of the plurality of participants.
第6の態様によると、発言タイミングで無いと判定されたときに、前記擬似会議参加装置に、遮りやすさを上げる第1動作を実行させるため、会議において、発言し易くなる。 According to the sixth aspect, when it is determined that it is not time to speak, the pseudo-conference participation device is caused to perform the first operation to increase the likelihood of interruption, so that it is easier to speak in the conference.
第7の態様によると、さらに、発言タイミングで無いと判定されると、前記擬似会議参加装置に、遮りやすさを上げる第2動作を実行させるため、会議において、発言し易くなる。 According to the seventh aspect, furthermore, when it is determined that it is not time to speak, the pseudo-conference participation device is caused to perform the second operation to increase the likelihood of interruption, thereby making it easier to speak in the conference.
第8の態様によると、さらに、第1動作実行後、さらに、発言タイミングで無いと判定されると、遮りやすさを上げるのにより効果的な第2動作を実行させるため、会議において、発言し易くなる。 According to the eighth aspect, furthermore, after the execution of the first action, if it is determined that it is not time to speak, the second action that is more effective in increasing the likelihood of being interrupted is executed in the conference. becomes easier.
第9の態様によると、参加状態入力部より入力された前記複数の参加者の会議参加状態に基づいて、複数の参加者によるコミュニケーションの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定するため、ロボットは、会議において、適したタイミングで発言することができる。 According to the ninth aspect, based on the conference participation states of the plurality of participants input from the participation state input unit, the ease of interrupting communication by the plurality of participants is obtained, and based on the obtained ease of interruption In order to determine whether or not it is time to speak, the robot can speak at a suitable timing in the conference.
第10の態様によると、複数の参加者それぞれの会議参加状態に基づいて、より適切に発言タイミングであるか否かを判定できる。 According to the tenth aspect, it is possible to more appropriately determine whether or not it is time to speak based on the conference participation status of each of the plurality of participants.
第11の態様によると、発言タイミングで無いと判定されると、前記ロボット動作部に、遮りやすさを上げる第1動作を実行させるため、会議において、発言し易くなる。 According to the eleventh aspect, when it is determined that it is not time to speak, the robot action unit is caused to perform the first action that increases the likelihood of interruption, so that it becomes easier to speak in the conference.
第12の態様によると、第1動作実行後、さらに、発言タイミングで無いと判定されると、前記ロボット動作部に、遮りやすさを上げる第2動作を実行させるため、会議において、発言し易くなる。 According to the twelfth aspect, after the execution of the first action, if it is further determined that it is not time to speak, the robot action unit is caused to perform the second action that increases the likelihood of interruption, so that the user can speak more easily in the conference. Become.
第13の態様によると、第1動作実行後、さらに、発言タイミングで無いと判定されると、遮りやすさを上げるのにより効果的な第2動作を実行させるため、会議において、音声を発し易くなる。 According to the thirteenth aspect, after the execution of the first action, if it is further determined that it is not time to speak, the second action that is more effective in increasing the likelihood of interruption is executed. Become.
{第1実施形態}
以下、第1実施形態に係る会議支援システムについて説明する。図1は会議支援システム30が適用された会議の様子を示す説明図である。
{First Embodiment}
A conference support system according to the first embodiment will be described below. FIG. 1 is an explanatory diagram showing a state of a conference to which the
会議支援システム30は、複数人の参加者10A、10Bによる会議に用いられる。複数の参加者10A、10Bは、会議に参加して何らかの発言を行ったり、他者の発言を聞いたりする主体である。参加者10A、10Bは、同一の会議場所に存在していてもよいし、複数の場所に分散して存在していてもよい。
A
図1では、会議室20に複数人(5人)の第1参加者10Aが存在しており、会議室20から離れた場所に第2参加者10Bが存在している例が示されている。つまり、現実空間において互いの会議参加状態を観察可能な状態で複数の第1参加者10Aが会議を行う。会議室20には、擬似開始参加装置として代理参加ロボット60が存在している。第2参加者10Bは、通信回線70及び代理参加ロボット60を通じて会議室20内における複数人の第1参加者10Aの会議に参加することができる。
FIG. 1 shows an example in which a plurality of (five)
会議室20には、会議机22が置かれ、その周りに椅子24が複数設けられている。複数人の第1参加者10A及び代理参加ロボット60は、各椅子24に着席している。
A
代理参加ロボット60は、第2参加者10Bの代理として、会議への参加行為を実行できるロボットである。例えば、図2に示すように、代理参加ロボット60は、内蔵されたスピーカ等を通じて、会議室20において発言する行為(図2では、“Excuse me.”(すみません)と発言)を実行できる。また、代理参加ロボット60は、発言行為以外にも、会議中に行うことのある動作(図2では挙手する行為が例示)を実行できる。このため、第2参加者10Bが代理参加ロボット60を通じて円滑に会議に参加することができる。代理参加ロボット60には、後述する制御部40が組込まれている。
The
図1に戻って、各第1参加者10Aに対応してカメラ58及びマイク59が設けられている。カメラ58及びマイク59は、第1参加者10Aの会議参加状態を動画データとして取得するために用いられる。例えば、マイク59は、第1参加者の10Aの発言を音声データとして取得するために用いられる。カメラ58は、第1参加者10Aの動作を取得するために用いられる。例えば、カメラ58によって、図3に示すように、第1参加者10Aの視線の動き(矢符P1参照)、第1参加者10Aの顔の傾き(矢符P2参照、頷き、首振り動作等)等を撮像することができる。カメラ58及びマイク59は、制御部40に接続されている。
Returning to FIG. 1, a
第2参加者10Bは、机22B前に設けられた椅子24Bに着席している。第2参加者10B前には、マイク86、スピーカ87及び表示装置88が設けられている。マイク86には、第1参加者10Aの音声が入力される。会議室20における会議の様子は、表示装置88に表示され、また、会議における発言は、スピーカ87を通じて再生される。これらのマイク86、スピーカ87及び表示装置88は、端末装置80に接続されている。
The
上記代理参加ロボット60及び端末装置80は、通信回線70を介して相互通信可能に接続される。通信回線70は、有線式であっても無線式であってもよい。また、通信回線70は、公衆通信網であっても専用回線であってもよい。
The
代理参加ロボット60は、参加状態取得部としての各カメラ58及び各マイク59で得られた複数の第1参加者10Aの会議参加状態に基づいて、複数の参加者10Aによるコミュニケーション(会議)への遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定する制御部40(後述)を備えている。そして、発言タイミングであると判定されたときに、第2参加者10Bは、代理参加ロボット60を介して、会議室20における会議に参加することができる。
The
図4は会議支援システム30の電気的構成を示すブロック図である。
FIG. 4 is a block diagram showing the electrical configuration of the
会議支援システム30は、会議室20に設けられた制御部40、代理参加ロボット60及び複数組のカメラ58及びマイク59と、会議室20から離れた位置に設けられた端末装置80、マイク86、スピーカ87及び表示装置88とを備える。制御部40と端末装置80とは、通信回線70を通じて相互通信可能に接続されている。
The
複数組のカメラ58及びマイク59は、複数の参加者(ここでは第1参加者10A)の会議参加状態を取得する参加状態取得部の一例である。ここでは、カメラ58及びマイク59の組は、各第1参加者10Aに対応して設けられている。このため、各組のカメラ58及びマイク59は、複数の第1参加者10Aのそれぞれの会議参加状態を取得する個別参加状態取得部の一例である。カメラ58は、対応する第1参加者10Aのうち顔面を含む部分、ここでは、上半身を撮像する。これにより、カメラ58は、第1参加者10Aの視線の動き、顔の傾きを撮像することができる。マイク59は、主として対応する第1参加者10Aの発言による音を電気信号に変換する。マイク59は、周りの参加者等の音を電気信号に変換してもよい。もっとも、マイク59では、周りの参加者等の音は小さくなり、その影響は少ない。
A plurality of sets of
参加状態取得部は、各第1参加者に対応して設けられることは必須ではない。複数の参加者の全体に対して1つの参加状態取得部が設けられていてもよい。この場合、カメラは、複数の参加者全体を撮像可能に設けられるとよい。また、マイクは、複数の参加者全体の会話による音を電気信号に変換可能に設けられるとよい。また、複数の参加者が複数のグループに分けられ、各グループに対して1つの参加状態取得部が設けられていてもよい。第2参加者に対しても参加状態取得部が設けられていてもよい。 It is not essential that the participation state acquisition unit is provided for each first participant. One participation state acquisition unit may be provided for all of the plurality of participants. In this case, the camera may be provided so as to be able to capture an image of all of the participants. Also, it is preferable that the microphones be provided so as to be able to convert the sounds of conversations of all the participants into electrical signals. Also, a plurality of participants may be divided into a plurality of groups, and one participation state acquisition unit may be provided for each group. A participation state acquisition unit may be provided for the second participant as well.
代理参加ロボット60は、上記したように、第2参加者10Bの代理として、会議への参加行為を実行できるロボットである。ここでは、代理参加ロボット60は、ロボットとしての動作を行うロボット動作部67を含む。ここでは、ロボット動作部67は、スピーカ68及び腕駆動部69を含む。制御部40による制御下、代理参加ロボット60は、スピーカ68を通じて音声を発することができる。また、腕駆動部69は、少なくとも1つの腕を上下に駆動するモータ等を含んでいる。腕駆動部69は、制御部40による制御下、代理参加ロボット60の腕を上げ(挙手)たり、下げたりする動作を実行することができる。代理参加ロボット60は、人型ロボットであってもよいし、その他の多関節ロボット等であってもよい。代理参加ロボット60が人型ロボットであれば、第2参加者10Bが代理参加ロボット60を通じて会議に参加する行為が、第1参加者10Aに対して違和感を与え難い。このため、円滑な会議の進行を期待できる。
As described above, the
代理参加ロボット60は、会議が行われる現実空間において、会議への参加動作が可能な擬似会議参加装置の一例である。会議への参加動作としては、会議において発言予定内容があることを示す動作、発言する動作、賛否を示す動作等が想定される。これらの動作は、スピーカを通じた発言、ロボットによる行動の他、表示装置による表示動作によっても実現可能である。このため、会議への参加動作が可能な擬似会議参加装置としては、何らかの行動が可能なロボットの他、音声を発するスピーカ、発言予定内容の有無、発言内容、賛否等を表示可能な表示装置等が用いられてもよい。
The
制御部40は、複数組のカメラ58及びマイク59で得られた複数の第1参加者10Aの会議参加状態に基づいて、複数の第1参加者10Aによるコミュニケーションの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定する。ここでは、制御部40は、少なくとも1つのプロセッサとしてのCPU(Central Processing Unit)41、RAM(Random Access Memory)42、記憶部43、入出力部44,通信回路45及びロボット制御入出力部46等がバスライン48を介して相互接続されたコンピュータによって構成されている。
Based on the conference participation states of the plurality of
記憶部43は、フラッシュメモリ、あるいは、ハードディスク装置等の不揮発性の記憶装置によって構成されている。記憶部43には、複数組のカメラ58及びマイク59で得られた複数の第1参加者10Aの会議参加状態に基づいて、複数の第1参加者10Aによるコミュニケーションの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定するプログラム43aが格納されている。ここでは、プログラム43aは、後述する学習済モデル49を含んでおり、当該学習済モデル49に基づいて、複数組のカメラ58及びマイク59で得られた複数の第1参加者10Aの会議参加状態に基づいて、複数の第1参加者10Aによるコミュニケーションの遮りやすさを求める処理プログラムを含む。また、プログラム43aは、第2参加者10Bの発言を音声データ43cとして記憶部43に格納する処理、及び、発言タイミングであると判定されたときに、ロボット動作部67を駆動制御する処理を実行するためのプログラムをも含む。つまり、制御部40は、複数の参加者10A、10Bのうちの少なくとも一人の第2参加者10Bの発言予定内容を記録する発言予定記録部として記憶部43を含む。プログラム43aによる処理例については後述する。
The
RAM42は、CPU41が所定の処理を行う際の作業領域として供される。入出力部44は、複数組のカメラ58及びマイク59に接続されており、当該カメラ58及びマイク59からの信号が入出力部44を介して本制御部40に入力される。制御部40と複数組のカメラ58及びマイク59とは、有線通信可能に接続されていてもよいし、無線通信可能に接続されていてもよい。通信回路45は、通信回線70を通じて端末装置80に相互通信可能に接続される。ロボット制御入出力部46は、ロボット動作部67にロボット動作部67の動作制御可能に接続されている。このため、本制御部40は、ロボット動作部67を動作制御することができる。
The
この制御部40では、プログラム43aに記述された手順、端末装置80を通じて入力される第2参加者10Bの発言に関する動作、複数組のカメラ58及びマイク59からの入力等に従って、CPU41が、演算処理を行うことにより、ロボット動作部67の制御を行う機能を実行する。
In this
本例では、制御部40は、代理参加ロボット60に組込まれている。制御部40は、代理参加ロボット60外に設けられていてもよい。
In this example, the
なお、上記プログラム43aは、予め記憶部43に格納されているものであるが、CD-ROMあるいはDVD-ROM、外部のフラッシュメモリ等の記録媒体に記録された形態で、あるいは、ネットワークを介した外部サーバからのダウンロードなどにより、既存のコンピュータに提供されることもあり得る。
The
なお、上記制御部40において実現される各機能の一部又は全部は、1つのプロセッサによって処理されてもよいし、複数のプロセッサによって適宜分散して処理されてもよい。上記制御部40において実現される各機能の一部又は全部は、第2参加者10B側の端末装置等、会議室外のコンピュータによって実現されてもよい。
Some or all of the functions realized by the
端末装置80は、上記制御部40と同様に、少なくとも1つのプロセッサとしてのCPU、RAM42、記憶部、入出力部,通信回路等を備えるコンピュータによって構成されている。端末装置80は、第2参加者10B側に設けられている。端末装置80は、通信回線70を通じて制御部40に相互通信可能に接続されている。
As with the
マイク86は、第2参加者10Bの発言による音を電気信号として変換可能な位置に設けられている。スピーカ87は、第2参加者10Bに対して音を提供可能な位置に設けられ、表示装置88は第2参加者10Bに対して表示内容を提供可能な位置に設けられている。マイク86、スピーカ87及び表示装置88は、端末装置80に接続されている。
The
そして、第2参加者10Bによる発言がマイク86を通じて取得し、この発言に基づく音声データが端末装置80から通信回線70を通じて制御部40に送信される。また、例えば、上記複数組のカメラ58及びマイク59を通じて得られた各第1参加者10Aの発言及び動画データが、制御部40から通信回線70を介して端末装置80に送信され、各発言がスピーカ87を通じて再生され、また、各第1参加者10Aの動画データが表示装置88に表示される。第2参加者10Bが所定の発言を行いたい場合に、発言すると、その発言予定内容はマイク86にて取得される。この発言予定内容は、そのまま会議室において再生されるのではなく、第2参加者10Bによる発言の意思指令として取得され、後述する発言タイミングで、代理参加ロボット60を通じて発言される。この点において、マイク86は、第2参加者10Bによる発言の意思指令を取得する発言指令受付部として機能する。発言指令受付部は、その他のスイッチ、例えば、キーボード等であってもよいし、発言専用のスイッチであってもよい。
Then, the speech by the
図5は学習済モデル49の一例を示す図である。学習済モデル49は、機械学習により生成されたモデルであり、上記コンピュータの一種である制御部40において用いられる。学習済モデル49は、特徴量抽出部49aと、識別層49bとを含む。
FIG. 5 is a diagram showing an example of the trained
特徴量抽出部49aは、入力データである音声データ及び動画データから特徴量を抽出する。例えば、音声データは、上記マイク59を通じて取得され、動画データは、上記カメラ58を通じて取得される。音声データ43cからは、例えば、特徴量として音量が抽出される。動画データからは、例えば、特徴量として、視線(目)の動き及び顔の傾き抽出される。識別層49bは、パーセプトロンを複数層組合わせた周知の多層ニューラルネットワークによって構成されている。
The feature
学習済モデル49は、図6に示すように、模擬的又は実際におこなわれた会議において、いずれかの第1参加者10Aに応じた入力データ(所定時間における音声データ、動画データ)に対し、コミュニケーションを遮りやすいタイミングとしての適否かを区別した複数の学習用データに基づき学習された学習済モデルである。かかる学習用モデルは、例えば、本モデルの設計者が会議又は会議の入力データを実際に見聞き等してコミュニケーションを遮りやすいタイミングか否かを判別すること、又は、第1参加者10Aが実際に発言したか否かを判別することによって、生成可能である。
As shown in FIG. 6, the trained
そして、図5に示すように、制御部40のCPU41が、プログラム43aの指示に従って、いずれかの第1参加者10Aに応じた入力データ(音声データ、動画データ)に対し、識別層49bにおける学習済の重み係数と応答関数等に基づく演算を行うことによって、識別層49bの出力として、コミュニケーションの遮りやすさを示す結果を出力することができる。コミュニケーションを遮り易いときに出力1を出力し、コミュニケーションを遮り難いときに出力2を出力してもよい。あるいは、コミュニケーションを遮り易さを数値化した指標値(適合度)を出力1に出力し、コミュニケーションを遮り難さを数値化した指標値(適合度)を出力2に出力してもよい。ここでは、前者であるとして説明する。
Then, as shown in FIG. 5, the
コミュニケーションの遮りやすさを求めるにあたって機械学習を適用する際、その手法はニューラルネットワークに限られず、他の手法、例えば、サポートベクターマシン等を適用してもよい。コミュニケーションの遮りやすさを求めるにあたって機械学習を適用することは必須ではなく、例えば、マイク59の音量、動画データに基づく目の動き、顔の動きを数値化し、数値化された各値に基づいて所定の条件式を事前に設定し、当該条件式に基づいてコミュニケーションの遮りやすさを求めてもよい。また、目の動き、顔の動き等から、参加者がスマートフォンを見たか否か、資料を見たか否か等を判別し、その判別結果に基づいて、コミュニケーションの遮りやすさを求めてもよい。例えば、スマートフォンを見た場合、資料を見た場合は、会議のコミュニケーションを遮りやすさは高いといえる。 When applying machine learning to determine the ease of interrupting communication, the technique is not limited to neural networks, and other techniques such as support vector machines may be applied. It is not essential to apply machine learning to find the ease of blocking communication. A predetermined conditional expression may be set in advance, and the degree of interruption of communication may be obtained based on the conditional expression. In addition, it is possible to determine whether or not the participant has looked at the smartphone or the document based on eye movements, facial movements, etc., and based on the determination results, determine how easily communication is interrupted. . For example, when looking at a smartphone, when looking at a document, it can be said that there is a high possibility of interrupting communication in a meeting.
制御部40は、学習済モデル49の出力に基づいて発言タイミングであるか否かを判定する。学習済モデル49から選択的に出力1及び出力2が出力される場合には、当該出力に従えばよい。出力1又は出力2から多段階に数値化された指標値が出力される場合には、当該指標値を、事前に設定された閾値と比較して、発言タイミングであるか否かを判定してもよい。例えば、出力1からコミュニケーションの遮りやすさを数値化した指標値が出力される場合、当該指標値が閾値以上となる場合又は閾値を超える場合に、発言タイミングであると判定してもよい。
Based on the output of the learned
図7は制御部40の動作例を示すフローチャートである。
FIG. 7 is a flow chart showing an operation example of the
会議の開始により処理が開始される。ステップS1において発言意思の有無が判定される。ここで、第2参加者10Bがマイク86を通じて会議向けの発言を行うと、当該発言がマイク86を通じて取得される。発言に対応する音声データは、端末装置80、通信回線70を通じて制御部40に送られる。制御部40は、端末装置80側から第2参加者10Bの音声データが送信された場合、当該音声データ(第2参加者10Bの発言予定内容)を記憶部43に音声データ43cとして記憶する。また、かかる音声データの受信は、第2参加者10Bの発言意思指令として入力される。このため、制御部40は、第2参加者10Bから音声データを受信した場合、発言意思ありと判定し、音声データの受信が無い場合、発言意思無しと判定する。発言意思の指令は、上記音声データに基づかず、第2参加者10B側のスイッチ操作によって入力されてもよい。発言予定内容は、音声データによる他、キーボード入力等された文字データとして記憶されてもよい。ステップS1において発言意思無しと判定された場合、ステップS2において、所定の待機時間待機した後、スタートに戻ってステップS1以降の処理を繰返す。ステップS1において発言意思有りと判定されると、ステップS3に進む。
Processing begins with the start of the conference. In step S1, it is determined whether or not there is an intention to speak. Here, when the
本例では、記憶部43が発言予定記録部として参加者10のうちの少なくとも一人の発言予定内容を記録する例で説明する。しかしながら、発言予定記録部には、参加者の発言予定内容ではなく、コンピュータによる人工的なシステムによる発言予定内容が記録されていてもよい。例えば、コンピュータ等による人工的な会議支援システムが、会議を遮って参加者に伝えたい情報(発言予定内容)として、「あと5分で会議を終了してください」といった内容を有している場合、かかる発言予定内容を発言予定記録部に記録してもよい。
In this example, an example will be described in which the
ステップS3では、制御部40は、各組のカメラ58及びマイク59からの出力を学習済モデル49に入力し遮りやすさを求める。ここでは、制御部40は、複数の第1参加者10Aのそれぞれについて、遮りやすさを求める。
In step S3, the
次ステップS4では、ステップS3で求められた遮りやすさにもとづいて、発言タイミングであるか否かを判定する。上記のように、学習済モデル49が、遮りやすさを示す2通の出力を出力する場合、当該出力に応じて発言タイミングであるか否かを判定すればよい。学習済モデル49が遮りやすさを多段階で数値化した指標値を出力する場合、当該指標値と所定の閾値とに基づいて発言タイミングであるか否かを判定すればよい。この場合、第1参加者10A別に閾値を変えてもよい。また、会議の雰囲気に合わせて、閾値を変更してもよい。例えば、発言が少ないような場合等には、閾値を小さくし、第2参加者10Bが容易に発言できるようにしてもよい。また、閾値は、会議の議長又は司会者がマニュアルで変更してもよいし、コンピュータが発言量等に鑑みて変更してもよい。また、ここでは、制御部40は、それぞれの第1参加者10Aについて、求められた遮りやすさに基づいて発言タイミングであるか否かを判定する。そして、全ての第1参加者10Aについて、発言タイミングであると判定されると、会議における発言タイミングであると判定する。つまり、第1参加者10Aのうちの少なくとも一人に関して、発言に適さないタイミングであると判定されると、発言タイミングではないと判定する。
In the next step S4, it is determined whether or not it is time to speak based on the likelihood of interruption obtained in step S3. As described above, when the learned
ここでは、第1参加者10A別に、遮りやすさ、及び、発言タイミングであるか否かを判定しているが、会議の場全体として会議状態を取得し、会議全体として遮りやすさ、発言タイミングでるか否かを判定してもよい。
Here, the likelihood of interruption and whether or not it is time to speak is determined for each
ステップS4において発言タイミングであると判定されると、ステップS5に進む。ステップS5では、制御部40は、記憶部43に記憶された発言予定内容(ここでは音声データ43c)を、スピーカ68を通じて発言する。発言予定内容が文字データとして記憶されている場合には、合成音声等を、スピーカ68を通じて発言してもよい。スピーカ68は、代理参加ロボット60に組込まれているため、周囲の第1参加者10Aからは、代理参加ロボット60を通じて参加する第2参加者10Bの発言として、違和感少なく受止められる。発言終了後、スタートに戻って、ステップS1以降の処理を繰返す。
If it is determined in step S4 that it is time to speak, the process proceeds to step S5. In step S<b>5 , the
ステップS4において発言タイミングでないと判定されると、ステップS6に進む。ステップS6では、制御部40は、ロボット動作部67に第1動作を実行させる。第1動作は、遮りやすさを上げる動作である。第1動作としては、発言があることを示す動き(例えば、挙手)、発言があることを示す短い発言(例えば、“Excuse me”、「すみません」、“I would like to say something”、「発言したいことがあります」等)等が想定される。擬似会議参加装置が人型ロボットである場合、無い場合において、同様の短い発言を、スピーカを通じて再生すること、表示装置に発言がある旨を表示すること(短い発言の表示、発言を示す発光表示等)、ビープ音等を発生させること、振動を生じさせること等が想定される。
If it is determined in step S4 that it is not time to speak, the process proceeds to step S6. In step S6, the
次ステップS7において、ステップS3と同様に、遮りやすさを求める。 In the next step S7, similarly to step S3, the likelihood of obstruction is determined.
次ステップS8において、ステップS4と同様に、ステップS7で求められた遮りやすさにもとづいて、発言タイミングであるか否かを判定する。発言タイミングであると判定されると、ステップS5に進み、発言を行う。発言タイミングでないと判定されると、ステップS9に進む。 In the next step S8, similarly to step S4, it is determined whether or not it is time to speak based on the likelihood of interruption obtained in step S7. If it is determined that it is time to speak, the process proceeds to step S5, and speech is made. If it is determined that it is not time to speak, the process proceeds to step S9.
ステップS9では、第1動作後、予め定められた所定時間経過したか否かが判定される。所定時間経過前と判定されると、ステップS10に進み、所定時間待機し、ステップS17に戻り、ステップS7以降の処理を繰返す。所定時間経過後と判定されると、ステップS11に進む。なお、第1動作後の経過時間が所定時間丁度である場合、ステップS10、S11のいずれに進んでもよい。 In step S9, it is determined whether or not a predetermined time has passed after the first action. If it is determined that the predetermined time has not passed yet, the process proceeds to step S10, waits for a predetermined time, returns to step S17, and repeats the processes after step S7. If it is determined that the predetermined time has elapsed, the process proceeds to step S11. If the elapsed time after the first action is exactly the predetermined time, the process may proceed to either step S10 or S11.
ステップS11では、制御部40は、ロボット動作部67に第2動作を実行させる。第2動作は、第1動作と同様に、遮りやすさを上げる動作である。第2動作は第1動作と同じであってもよいし、異なっていてもよい。第2動作は、第1動作よりも遮りやすさを上げるのに効果的な動作であってもよい。例えば、第1動作が発言では無い動作であり、第2動作が短い発話であることが想定される。より具体的には、第1動作が挙手、表示装置への表示、又は、発光表示装置の発光であり、第2動作が“Excuse me”、「すみません」、「あの~」等の発言である場合が想定される。また、第1動作が意味の無い発言であり、第2動作が自らの発言を求める要求発言である場合が想定される。例えば、第1動作が“Excuse me”、「すみません」、「あの~」等の発言であり、第2動作が“I would like to say something”、「発言したいことがあります」等の発言であることが想定される。また、第1動作が丁寧な発言であり、第2動作が丁寧では無い発言であることが想定される。また、第1動作が短い発言であり、第2動作が長い発言であることが想定される。さらに、第1動作の発言よりも、第2動作の発言の音量が大きいことも想定される。
In step S11, the
次ステップS12では、ステップS3と同様に、遮りやすさを求める。 In the next step S12, similarly to step S3, the likelihood of obstruction is obtained.
次ステップS13において、ステップS4と同様に、ステップS12で求められた遮りやすさにもとづいて、発言タイミングであるか否かを判定する。発言タイミングであると判定されると、ステップS5に進み、発言を行う。発言タイミングでないと判定されると、ステップS14に進む。 In the next step S13, similarly to step S4, it is determined whether or not it is time to speak based on the likelihood of interruption obtained in step S12. If it is determined that it is time to speak, the process proceeds to step S5, and speech is made. If it is determined that it is not time to speak, the process proceeds to step S14.
ステップS14では、第2動作後、予め定められた所定時間経過したか否かが判定される。所定時間経過前と判定されると、ステップS15に進み、所定時間待機し、ステップS12に戻り、ステップS12以降の処理を繰返す。所定時間経過後と判定されると、ステップS16に進む。なお、第2動作後の経過時間が所定時間丁度である場合、ステップS15、S16のいずれに進んでもよい。 In step S14, it is determined whether or not a predetermined time has passed after the second action. If it is determined that the predetermined time has not passed yet, the process proceeds to step S15, waits for a predetermined time, returns to step S12, and repeats the processes after step S12. If it is determined that the predetermined time has elapsed, the process proceeds to step S16. Note that if the elapsed time after the second action is exactly the predetermined time, the process may proceed to either step S15 or S16.
ステップS16では、制御部40は、ロボット動作部67に第3動作を実行させる。第3動作は、第1動作と同様に、遮りやすさを上げる動作である。第3動作は第1動作、第2動作と同じであってもよいし、異なっていてもよい。第3動作は、第2動作よりも遮りやすさを上げるのに効果的な動作であってもよい。つまり、後に行われる動作であるほど、遮りやすさを上げるのに効果的な動作であってもよい。例えば、第1動作が発言では無い動作であり、第2動作が短い発話であり、第2動作が自らの発言を求める要求発言である場合が想定される。例えば、第1動作が挙手であり、第2動作が“Excuse me”、「すみません」、「あの~」等の発言であり、第3動作が“I would like to say something”、「発言したいことがあります」等の発言であることが想定される。その他、遮りやすさを上げるのに効果的な動作内容については、ステップS11で説明したのと同様の考えを適用できる。
In step S16, the
次ステップS17では、ステップS3と同様に、遮りやすさを求める。 In the next step S17, similar to step S3, the likelihood of obstruction is obtained.
次ステップS18において、ステップS4と同様に、ステップS17で求められた遮りやすさにもとづいて、発言タイミングであるか否かを判定する。発言タイミングであると判定されると、ステップS5に進み、発言を行う。発言タイミングでないと判定されると、ステップS19に進む。 In the next step S18, similarly to step S4, it is determined whether or not it is time to speak based on the likelihood of interruption obtained in step S17. If it is determined that it is time to speak, the process proceeds to step S5, and speech is made. If it is determined that it is not time to speak, the process proceeds to step S19.
ステップS19では、第3動作後、予め定められた所定時間経過したか否かが判定される。所定時間経過前と判定されると、ステップS20に進み、所定時間待機し、ステップS17に戻り、ステップS17以降の処理を繰返す。所定時間経過後と判定されると、ステップS5に進む。なお、第3動作後の経過時間が所定時間丁度である場合、ステップS5、S20のいずれに進んでもよい。つまり、第3動作後、所定時間経過した場合、遮りやすさの程度、発言タイミングであるか否かに拘らず、強制的に発言を行う。 In step S19, it is determined whether or not a predetermined time has passed after the third action. If it is determined that the predetermined time has not elapsed, the process proceeds to step S20, waits for a predetermined time period, returns to step S17, and repeats the processes after step S17. If it is determined that the predetermined time has elapsed, the process proceeds to step S5. If the elapsed time after the third action is exactly the predetermined time, the process may proceed to either step S5 or S20. That is, when a predetermined time has passed after the third action, the speaker is forced to speak regardless of the degree of interruption and regardless of whether or not it is time to speak.
上記処理において、第3動作後、所定時間経過した場合には、発言を行わずに、スタートに戻ってもよい。また、第3動作を行うための処理、第2動作及び第3動作を行うための処理は省略されてもよい。 In the above process, if a predetermined time has passed after the third action, the player may return to the start without speaking. Further, the process for performing the third action and the processes for performing the second and third actions may be omitted.
以上のように構成された会議支援システム30によると、参加状態取得部であるカメラ58及びマイク59を通じて得られた複数の第1参加者10Aの参加状態に基づいて、複数の第1参加者10Aによるコミュニケーションの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定するため、会議において、発言するのに適したタイミングを見出せる。
According to the
また、第2参加者10Bが予め発言予定内容を記憶部43に記憶させておけば、制御部40は、発言タイミングであると判定されたときに、その発言予定内容を、スピーカ68を通じて発言する。このため、第2参加者10Bは、予め発予定言内容を記録しておけば、適切なタイミングで発言することができる。
Further, if the
また、特に、第2参加者10Bは、通信回線70を通じて会議に参加するため、複数の第1参加者10Aの会議参加状態を観察し難い。このような状況においても、第2参加者10Bは、適切なタイミングで発言し易い。
In particular, since the
また、制御部40は、複数の第1参加者10Aのそれぞれに設けられたカメラ58及びマイクからの出力に基づき、複数の第1参加者10Aのそれぞれの会議参加状態を把握し、各参加状態に基づいて遮りやすさを求め、発言タイミングであるか否かを判定する。このため、複数の第1参加者10Aのそれぞれの会議参加状態に基づいて、より適切に発言タイミングであるか否かを判定できる。
In addition, the
また、発言タイミングで無いと判定されたときに、擬似会議参加装置である代理参加ロボット60に、遮りやすさ上げる第1動作を実行させる。このため、会議において、第2参加者10Bが発言し易くなる。
Also, when it is determined that it is not time to speak, the
第1動作後、さらに、発言タイミングでは無いと判定されると、擬似会議参加装置である代理参加ロボット60に、遮りやすさ上げる第2動作を実行させる。このため、会議において、第2参加者10Bがより発言し易くなる。
After the first action, if it is determined that it is not time to speak, the
また、第1動作実行後、さらに、発言タイミングで無いと判定されると、遮りやすさを上げるのにより効果的な第2動作を実行させるため、会議において、第2参加者10Bがより発言し易くなる。
Further, after the execution of the first action, if it is determined that it is not time to speak, the
第1実施形態を前提として各種変形例について説明する。 Various modifications will be described on the premise of the first embodiment.
第1実施形態において、制御部40が第2参加者10Bの発言予定内容を記憶部43に記憶する代りに、又は、記憶する機能に加えて、発言タイミングであると判定されたときに、その旨を表示装置88に表示するようにしてもよい。この場合、第2参加者10Bは、当該表示を見て、マイク86に発言を行うようにしてもよい。その発言は、端末装置80、通信回線70を介して、代理参加ロボット60から発言されるようにするとよい。第2参加者10Bは、発言タイミングであるとの表示を見て、発言することができるため、適切なタイミングで発言することができる。特に、第1参加者10Aは、現実空間において互いの会議参加状態を観察可能な状態で会議を行っているのに対し、第2参加者10Bは、通信回線70を通じて会議に参加しているため、第1参加者10Aの会議参加状態を観察し難い。この場合でも、第2参加者10Bは、適切なタイミングで発言できるというメリットがある。
In the first embodiment, instead of or in addition to the function of storing the scheduled speech content of the
上記例では、第2参加者10Bが一人である例で説明したが、第2参加者10Bは複数人存在していてもよい。
In the above example, an example in which there is one
上記例では、第1参加者10Aに参加状態取得部であるカメラ58及びマイク59を設けた例で説明したが、第2参加者10Bに参加状態取得部が設けられ、第1参加者10A及び第2参加者10Bの会議参加状態に基づいて、遮りやすさを求め、適切な発言タイミングであるか否かを判定してもよい。
In the above example, the
また、上記例では、第2参加者10Bが通信回線70を通じて会議に参加している例で説明したが、第2参加者10Bは、現実空間で行われる会議場所において、第1参加者10Aと共に参加している者であってもよい。
Further, in the above example, the
また、上記例では、第2参加者10Bが発言予定内容を入力すると、発言意思有りと判定する例で説明したが、発言意思は、他の参加者からの発言賛成数が所定数を超えた場合に、発言意思有りと判定するようにしてもよい。例えば、第2参加者10Bが発言予定内容を文字情報として入力すると、当該発言予定内容が他の参加者の手元の端末装置に表示され、他の参加者が当該発言予定内容に賛同する場合には賛同する旨を入力する。そして、賛同数が所定数を超えると、発言意思有りと判定して、ステップS3以降の処理を実行するようにしてもよい。
Further, in the above example, when the
{第2実施形態}
第2実施形態に係る会議用ロボットについて説明する。なお、本実施の形態の説明において、第1実施形態で説明したものと同様構成要素については同一符号を付してその説明を省略する。図8は会議用ロボット130が適用された会議の様子を示す説明図であり、図9は同会議用ロボットの電気的構成を示すブロック図である。
{Second embodiment}
A conference robot according to the second embodiment will be described. In the description of the present embodiment, the same reference numerals are given to the same components as those described in the first embodiment, and the description thereof will be omitted. FIG. 8 is an explanatory diagram showing a conference to which the
この会議用ロボット130が上記会議支援システム30と異なるのは、会議の前提として第2参加者10Bが存在せず、代りに、会議用ロボット130が自律的に会議用の発言を行う点である。
This
すなわち、会議用ロボット130は、上記代理参加ロボット60に代えて、会議に参加している。
That is, the
会議用ロボット130は、制御部140と、ロボット動作部167及び複数組のカメラ58及びマイク59とを備える。
The
複数組のカメラ58及びマイク59は、上記と同様に、複数の参加者(ここでは第1参加者10A)の会議参加状態を取得する参加状態取得部の一例である。
A plurality of sets of
ロボット動作部167は、上記ロボット動作部67と同様に、ロボットとしての動作を行う。ここでは、ロボット動作部167は、スピーカ168及び腕駆動部169を含む。制御部140による制御下、ロボット動作部167は、スピーカ168を通じて音声を発することができる。また、腕駆動部169は、少なくとも1つの腕を上下に駆動するモータ等を含んでいる。腕駆動部169は、制御部140による制御下、会議用ロボット130の腕を上げ(挙手)たり、下げたりする動作を実行することができる。会議用ロボット130は、人型ロボットであってもよいし、その他の多関節ロボット等であってもよい。
The
制御部140は、複数組のカメラ58及びマイク59、ロボット動作部167に接続されており、複数組のカメラ58及びマイク59からの入力に基づいて、ロボット動作部167の動作制御を行う。特に、制御部140は、複数組のカメラ58及びマイク59で得られた複数の第1参加者10Aの会議参加状態に基づいて、複数の第1参加者10Aによるコミュニケーションの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定する。そして、発言タイミングであると判定されたときに、スピーカ68を通じた発言処理を実行する。
The
制御部140が制御部40と異なる点は、本制御部140が会話プログラム140bを実行する点である。会話プログラム140bは、記憶部43に記憶されたプログラムであり、CPU41が当該会話プログラム140bに会話プログラム140bに記述された手順、及び、複数のマイク59からの入力等に基づいて、会話処理を実行する。会話プログラム140b自体は、複数人の第1参加者10Aの発言内容に基づいて、当該発言内容に関連した発言を発する処理等を行う周知のプログラムを含むプログラムを適用することができる。会話プログラム140bが発する発言内容は、発言タイミングであると判定される前に作成され、第1実施形態と同様に、発言予定記録部に記録されていてもよいし、発言タイミングであると判定されたときに、生成されてもよい。
The
この会議用ロボット130によると、自律的に会議用の発言を行う会議用ロボット130が、適したタイミングで、発言を行うことができる。その他、第2参加者10Bが発言を行うことによる効果を除き、上記第1実施形態と同様の作用効果を得ることができる。また、会議用ロボット130が会議用の発言を行うことで、会議を活発にすることができ、会議を支援することができる。
According to this
{変形例}
なお、上記各実施形態及び各変形例で説明した各構成は、相互に矛盾しない限り適宜組合わせることができる。例えば、第1実施形態と第2実施形態とが組合わされ、複数の第1参加者に加えて、第2参加者10B及び会議用ロボット130の両方が会議に参加してもよい。
{Modification}
In addition, each configuration described in each of the above-described embodiments and modifications can be appropriately combined as long as they do not contradict each other. For example, the first embodiment and the second embodiment may be combined so that both the
以上のようにこの発明は詳細に説明されたが、上記した説明は、すべての局面において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。 Although the present invention has been described in detail as above, the above description is illustrative in all aspects, and the present invention is not limited thereto. It is understood that numerous variations not illustrated can be envisioned without departing from the scope of the invention.
10A 第1参加者
10B 第2参加者
30 会議支援システム
40、140 制御部
43a プログラム
43c 音声データ
45 通信回路
46 ロボット制御入出力部
58 カメラ
59 マイク
60 代理参加ロボット
67、167 ロボット動作部
68、168 スピーカ
69、169 腕駆動部
70 通信回線
80 端末装置
86 マイク
130 会議用ロボット
140b 会話プログラム
10A
Claims (11)
前記複数の参加者の会議参加状態を取得する参加状態取得部と、
前記参加状態取得部で得られた前記複数の参加者の会議参加状態に基づいて、前記複数の参加者によるコミュニケーションの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定する制御部と、
を備え、
前記制御部は、発言予定内容を記録する発言予定記録部を含み、発言タイミングであると判定されたときに、前記発言予定記録部に記録された発言予定内容を、スピーカを通じて発言する、会議支援システム。 A conference support system used in a conference by a plurality of participants,
a participation state acquisition unit that acquires the conference participation states of the plurality of participants;
Based on the conference participation states of the plurality of participants obtained by the participation state acquisition unit, the likelihood of interrupting communication by the plurality of participants is obtained, and whether it is time to speak based on the obtained likelihood of interruption. A control unit that determines whether
with
The control unit includes an utterance schedule recording unit that records utterance schedule contents, and when it is determined that it is time to utter, the utterance schedule contents recorded in the utterance schedule recording unit are said through a speaker. system.
前記制御部は、前記複数の参加者のうちの少なくとも一人の参加者の発言予定内容を前記発言予定記録部に記録する、会議支援システム。 The meeting support system according to claim 1 ,
The conference support system, wherein the control section records, in the speech schedule recording section, speech schedule contents of at least one participant among the plurality of participants.
前記複数の参加者が、現実空間において互いの会議参加状態を観察可能な状態で会議を行う複数の第1参加者と、通信回線を介して会議に参加する第2参加者とを含み、
前記制御部は、前記第2参加者の発言予定内容を前記発言予定記録部に記録する、会議支援システム。 The conference support system according to claim 2 ,
The plurality of participants includes a plurality of first participants who hold a conference in a state in which each other's conference participation status can be observed in real space, and a second participant who participates in the conference via a communication line,
The conference support system, wherein the control section records the speech schedule content of the second participant in the speech schedule recording section.
前記参加状態取得部は、前記複数の参加者のそれぞれの会議参加状態を取得する複数の個別参加状態取得部を含み、
前記制御部は、前記複数の個別参加状態取得部で得られた前記複数の参加者の会議参加状態に基づいて、前記複数の参加者それぞれの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定する、会議支援システム。 The conference support system according to any one of claims 1 to 3 ,
The participation state acquisition unit includes a plurality of individual participation state acquisition units that acquire the conference participation state of each of the plurality of participants,
The control unit obtains the ease of interruption for each of the plurality of participants based on the conference participation states of the plurality of participants obtained by the plurality of individual participation state acquisition units. A conference support system that determines whether or not it is time to speak based on the
前記複数の参加者の会議参加状態を取得する参加状態取得部と、
前記参加状態取得部で得られた前記複数の参加者の会議参加状態に基づいて、前記複数の参加者によるコミュニケーションの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定する制御部と、
前記複数の参加者のうちの少なくとも一人の参加者による発言の意思指令を取得する発言指令受付部と、
前記会議が行われる現実空間において、会議への参加動作が可能な擬似会議参加装置と、
を備え、
前記制御部は、発言の意思指令取得後、発言タイミングで無いと判定されると、前記擬似会議参加装置に、遮りやすさを上げる第1動作を実行させる、会議支援システム。 A conference support system used in a conference by a plurality of participants,
a participation state acquisition unit that acquires the conference participation states of the plurality of participants;
Based on the conference participation states of the plurality of participants obtained by the participation state acquisition unit, the likelihood of interrupting communication by the plurality of participants is obtained, and whether it is time to speak based on the obtained likelihood of interruption. A control unit that determines whether
a speech command reception unit that acquires a speech command by at least one of the plurality of participants;
a virtual conference participation device capable of participating in a conference in the real space where the conference is held;
with
The conference support system, wherein the control unit causes the pseudo-conference participation device to perform a first operation to increase the likelihood of interruption when it is determined that it is not the time to speak after obtaining an intention command to speak.
前記制御部は、前記第1動作実行後、さらに発言タイミングで無いと判定されると、前記擬似会議参加装置に、遮りやすさを上げる第2動作を実行させる、会議支援システム。 The meeting support system according to claim 5 ,
The conference support system, wherein, after executing the first operation, the control unit causes the pseudo-conference participation device to execute a second operation to increase the likelihood of interruption when it is determined that it is not time to speak.
前記第2動作は、前記第1動作よりも遮りやすさを上げるのに効果的な動作である、会議支援システム。 The meeting support system according to claim 6 ,
The conference support system, wherein the second motion is a motion more effective than the first motion in increasing the likelihood of interruption.
前記複数の参加者の会議参加状態が入力される参加状態入力部と、
前記参加状態入力部より入力された前記複数の参加者の会議参加状態に基づいて、前記複数の参加者によるコミュニケーションの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定し、発言タイミングであると判定されたときに、スピーカを通じた発言処理を実行する制御部と、
ロボットとしての動作を実行するロボット動作部と、
を備え、
前記制御部は、発生すべき発言予定内容が生じた後、発言タイミングで無いと判定されると、前記ロボット動作部に、遮りやすさを上げる第1動作を実行させる、会議用ロボット。 A conference robot that participates in a conference with a plurality of participants,
a participation state input unit for inputting conference participation states of the plurality of participants;
Based on the conference participation states of the plurality of participants input from the participation state input unit, the likelihood of interrupting communication by the plurality of participants is obtained, and whether it is time to speak based on the obtained likelihood of interruption. a control unit that determines whether or not, and executes processing for speaking through a speaker when it is determined that it is time to speak;
a robot action unit that performs actions as a robot;
with
The robot for conference, wherein the control unit causes the robot action unit to perform a first action to increase the likelihood of interruption when it is determined that it is not the timing to speak after the expected speech content to be generated occurs.
前記参加状態入力部には、前記複数の参加者のそれぞれの会議参加状態が入力され、
前記制御部は、前記複数の参加者それぞれの会議参加状態に基づいて、前記複数の参加者それぞれの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定する、会議用ロボット。 A conference robot according to claim 8 ,
the conference participation state of each of the plurality of participants is input to the participation state input unit;
The control unit obtains the likelihood of interruption for each of the plurality of participants based on the conference participation status of each of the plurality of participants, and determines whether or not it is time to speak based on the obtained likelihood of interruption. A conference robot.
前記制御部は、前記第1動作実行後、さらに、発言タイミングで無いと判定されると、前記ロボット動作部に、遮りやすさを上げる第2動作を実行させる、会議用ロボット。 The conference robot according to claim 8 or 9 ,
The conference robot, wherein, after the execution of the first action, the control section causes the robot action section to perform a second action that increases the likelihood of interruption when it is determined that it is not time to speak.
前記第2動作は、前記第1動作よりも遮りやすさを上げるのに効果的な動作である、会議用ロボット。 A conference robot according to claim 10 ,
The conference robot, wherein the second action is more effective than the first action in increasing the likelihood of interruption.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018221283A JP7286303B2 (en) | 2018-11-27 | 2018-11-27 | Conference support system and conference robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018221283A JP7286303B2 (en) | 2018-11-27 | 2018-11-27 | Conference support system and conference robot |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020088637A JP2020088637A (en) | 2020-06-04 |
JP7286303B2 true JP7286303B2 (en) | 2023-06-05 |
Family
ID=70910171
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018221283A Active JP7286303B2 (en) | 2018-11-27 | 2018-11-27 | Conference support system and conference robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7286303B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111736694B (en) * | 2020-06-11 | 2024-03-05 | 上海境腾信息科技有限公司 | Holographic presentation method, storage medium and system for teleconference |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040179714A1 (en) | 2003-03-11 | 2004-09-16 | Jouppi Norman Paul | Telepresence system with simultaneous automatic preservation of user height, perspective, and vertical gaze |
JP2006304160A (en) | 2005-04-25 | 2006-11-02 | Fuji Xerox Co Ltd | Electronic conference control program, method, and electronic conference system |
JP2012146072A (en) | 2011-01-11 | 2012-08-02 | Nippon Telegr & Teleph Corp <Ntt> | Next speaker guidance system, next speaker guidance method and next speaker guidance program |
JP2017123027A (en) | 2016-01-06 | 2017-07-13 | 日本電信電話株式会社 | Conversation support system, conversation support device, and conversation support program |
-
2018
- 2018-11-27 JP JP2018221283A patent/JP7286303B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040179714A1 (en) | 2003-03-11 | 2004-09-16 | Jouppi Norman Paul | Telepresence system with simultaneous automatic preservation of user height, perspective, and vertical gaze |
JP2006304160A (en) | 2005-04-25 | 2006-11-02 | Fuji Xerox Co Ltd | Electronic conference control program, method, and electronic conference system |
JP2012146072A (en) | 2011-01-11 | 2012-08-02 | Nippon Telegr & Teleph Corp <Ntt> | Next speaker guidance system, next speaker guidance method and next speaker guidance program |
JP2017123027A (en) | 2016-01-06 | 2017-07-13 | 日本電信電話株式会社 | Conversation support system, conversation support device, and conversation support program |
Also Published As
Publication number | Publication date |
---|---|
JP2020088637A (en) | 2020-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220254343A1 (en) | System and method for intelligent initiation of a man-machine dialogue based on multi-modal sensory inputs | |
US11017779B2 (en) | System and method for speech understanding via integrated audio and visual based speech recognition | |
US11468894B2 (en) | System and method for personalizing dialogue based on user's appearances | |
US11151997B2 (en) | Dialog system, dialog method, dialog apparatus and program | |
US11024294B2 (en) | System and method for dialogue management | |
US20190371318A1 (en) | System and method for adaptive detection of spoken language via multiple speech models | |
US20190206402A1 (en) | System and Method for Artificial Intelligence Driven Automated Companion | |
US11003860B2 (en) | System and method for learning preferences in dialogue personalization | |
US11183187B2 (en) | Dialog method, dialog system, dialog apparatus and program that gives impression that dialog system understands content of dialog | |
US11200902B2 (en) | System and method for disambiguating a source of sound based on detected lip movement | |
JP4622384B2 (en) | ROBOT, ROBOT CONTROL DEVICE, ROBOT CONTROL METHOD, AND ROBOT CONTROL PROGRAM | |
JP7286303B2 (en) | Conference support system and conference robot | |
JP6874437B2 (en) | Communication robots, programs and systems | |
JP2007030050A (en) | Robot control device, robot control system, robot device and robot control method | |
JPWO2017200077A1 (en) | Dialogue method, dialogue system, dialogue apparatus, and program | |
WO2021064947A1 (en) | Interaction method, interaction system, interaction device, and program | |
JP2018081147A (en) | Communication device, server, control method and information processing program | |
JP7218816B2 (en) | DIALOGUE METHOD, DIALOGUE SYSTEM, DIALOGUE DEVICE, AND PROGRAM | |
WO2024084855A1 (en) | Remote conversation assisting method, remote conversation assisting device, remote conversation system, and program | |
JP2023147481A (en) | Information processing apparatus, information processing system, control program, and control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181213 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211117 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230516 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230524 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7286303 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |