JP7286303B2 - Conference support system and conference robot - Google Patents

Conference support system and conference robot Download PDF

Info

Publication number
JP7286303B2
JP7286303B2 JP2018221283A JP2018221283A JP7286303B2 JP 7286303 B2 JP7286303 B2 JP 7286303B2 JP 2018221283 A JP2018221283 A JP 2018221283A JP 2018221283 A JP2018221283 A JP 2018221283A JP 7286303 B2 JP7286303 B2 JP 7286303B2
Authority
JP
Japan
Prior art keywords
conference
participants
participation
robot
speak
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018221283A
Other languages
Japanese (ja)
Other versions
JP2020088637A (en
Inventor
博之 関川
貴志 新居
春夫 福山
雄一郎 吉川
オスカー パリンコ
浩平 小川
浩 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Osaka University NUC
Itoki Corp
Original Assignee
Osaka University NUC
Itoki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Osaka University NUC, Itoki Corp filed Critical Osaka University NUC
Priority to JP2018221283A priority Critical patent/JP7286303B2/en
Publication of JP2020088637A publication Critical patent/JP2020088637A/en
Application granted granted Critical
Publication of JP7286303B2 publication Critical patent/JP7286303B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)

Description

この発明は、会議コミュニケーションを支援する技術に関する。 The present invention relates to technology for supporting conference communication.

特許文献1は、ユーザの見ている向きとユーザの移動方向とに基づいて、案内をするか否かを判断する案内ロボット制御システムを開示している。 Patent Literature 1 discloses a guidance robot control system that determines whether or not to provide guidance based on the user's viewing direction and the user's moving direction.

特開2017-159410号公報JP 2017-159410 A

特許文献1に開示の技術は、ユーザが案内を欲している場合に行う行動を利用して、案内をするか否かを判断している。 The technique disclosed in Patent Literature 1 determines whether or not to provide guidance by using the behavior that the user performs when he or she desires guidance.

しかしながら、複数人が参加する会議では、そのような行動を期待できない。会議においては、会議の進行中におけるコミュニケーションを遮ることの適否を判断して、言葉を発するタイミングを決定する必要がある。 However, such behavior cannot be expected in a conference in which multiple people participate. In a conference, it is necessary to determine the appropriateness of interrupting communication while the conference is in progress, and to determine the timing of speaking.

そこで、本発明は、会議において、言葉を発するのに適したタイミングを見出せるようにすることを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to find a suitable timing for speaking in a meeting.

上記課題を解決するため,第1の態様に係る会議支援システムは、複数の参加者による会議に用いられる会議支援システムであって、前記複数の参加者の会議参加状態を取得する参加状態取得部と、前記参加状態取得部で得られた前記複数の参加者の会議参加状態に基づいて、前記複数の参加者によるコミュニケーションの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定する制御部と、を備える。 In order to solve the above problems, a conference support system according to a first aspect is a conference support system used in a conference by a plurality of participants, and includes a participation state acquisition unit that acquires the conference participation states of the plurality of participants. and, based on the conference participation states of the plurality of participants obtained by the participation state acquisition unit, the likelihood of interrupting communication by the plurality of participants is obtained, and based on the obtained likelihood of interruption, at the timing of speaking and a control unit that determines whether or not there is.

第2の態様は、第1の態様に係る会議支援システムであって、前記制御部は、発言予定内容を記録する発言予定記録部を含み、発言タイミングであると判定されたときに、前記発言予定記録部に記録された発言予定内容を、スピーカを通じて発言するものである。 A second aspect is the conference support system according to the first aspect, wherein the control unit includes a speech schedule recording unit that records speech schedule content, and when it is determined that it is time to speak, the speech The contents of the speech schedule recorded in the schedule recording unit are spoken through the speaker.

第3の態様は、第2の態様に係る会議支援システムであって、前記制御部は、前記複数の参加者のうちの少なくとも一人の参加者の発言予定内容を前記発言予定記録部に記録する。 A third aspect is the conference support system according to the second aspect, wherein the control unit records the speech schedule content of at least one of the plurality of participants in the speech schedule recording unit. .

第4の態様は、第3の態様に係る会議支援システムであって、前記複数の参加者が、現実空間において互いの会議参加状態を観察可能な状態で会議を行う複数の第1参加者と、通信回線を介して会議に参加する第2参加者とを含み、前記制御部は、前記第2参加者の発言予定内容を前記発言予定記録部に記録するものである。 A fourth aspect is the conference support system according to the third aspect, wherein the plurality of participants hold a conference in a real space with a plurality of first participants who can observe each other's conference participation states. , and a second participant who participates in the conference via a communication line, and the control unit records the speech schedule content of the second participant in the speech schedule recording unit.

第5の態様は、第1から第4のいずれか1つの態様に係る会議支援システムであって、前記参加状態取得部は、前記複数の参加者のそれぞれの会議参加状態を取得する複数の個別参加状態取得部を含み、前記制御部は、前記複数の個別参加状態取得部で得られた前記複数の参加者の会議参加状態に基づいて、前記複数の参加者それぞれの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定するものである。 A fifth aspect is the conference support system according to any one of the first to fourth aspects, wherein the participation state acquisition unit includes a plurality of individual a participation state acquisition unit, wherein the control unit obtains the ease of interruption of each of the plurality of participants based on the conference participation states of the plurality of participants obtained by the plurality of individual participation state acquisition units; Whether or not it is time to speak is determined based on the obtained degree of obstruction.

第6の態様は、第1から第5のいずれか1つの態様に係る会議支援システムであって、前記複数の参加者のうちの少なくとも一人の参加者による発言の意思指令を取得する発言指令受付部と、前記会議が行われる現実空間において、会議への参加動作が可能な擬似会議参加装置と、をさらに備え、前記制御部は、発言の意思指令取得後、発言タイミングで無いと判定されると、前記擬似会議参加装置に、遮りやすさを上げる第1動作を実行させるものである。 A sixth aspect is the conference support system according to any one of the first to fifth aspects, wherein a speech command reception for acquiring a speech intention command by at least one of the plurality of participants and a pseudo-conference participation device capable of participating in the conference in the real space where the conference is held, wherein the control unit determines that it is not time to speak after obtaining the intention command to speak. Then, the pseudo-conference participation device is caused to perform a first operation for increasing the likelihood of interruption.

第7の態様は、第6の態様に係る会議支援システムであって、前記制御部は、前記第1動作実行後、さらに発言タイミングで無いと判定されると、前記擬似会議参加装置に、遮りやすさを上げる第2動作を実行させるものである。 A seventh aspect is the conference support system according to the sixth aspect, wherein, after the execution of the first operation, the control unit instructs the pseudo-conference participation device to interrupt when it is determined that it is not time to speak. This is to execute a second operation that increases ease.

第8の態様は、第7の態様に係る会議支援システムであって、前記第2動作は、前記第1動作よりも遮りやすさを上げるのに効果的な動作とされている。 An eighth aspect is the conference support system according to the seventh aspect, wherein the second action is more effective than the first action in increasing the likelihood of interruption.

上記課題を解決するため、第9の態様に係る会議用ロボットは、複数の参加者による会議に参加する会議用ロボットであって、前記複数の参加者の会議参加状態が入力される参加状態入力部と、前記参加状態入力部より入力された前記複数の参加者の会議参加状態に基づいて、前記複数の参加者によるコミュニケーションの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定し、発言タイミングであると判定されたときに、スピーカを通じた発言処理を実行する制御部と、を備える。 In order to solve the above-described problems, a conference robot according to a ninth aspect is a conference robot that participates in a conference of a plurality of participants, and is a conference robot for inputting a conference participation state of the plurality of participants. and based on the conference participation states of the plurality of participants input from the participation state input unit, the likelihood of interrupting communication by the plurality of participants is obtained, and the timing of utterances is determined based on the obtained likelihood of interruption. and a control unit that determines whether or not it is time to speak, and executes processing for speaking through the speaker when it is determined that it is time to speak.

第10の態様は、第9の態様に係る会議用ロボットであって、前記参加状態入力部には、前記複数の参加者のそれぞれの会議参加状態が入力され、前記制御部は、前記複数の参加者それぞれの会議参加状態に基づいて、前記複数の参加者それぞれの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定するものである。 A tenth aspect is the conference robot according to the ninth aspect, wherein the conference participation state of each of the plurality of participants is input to the participation state input unit, and the control unit controls the Based on the state of participation in the conference of each participant, the likelihood of interruption for each of the plurality of participants is obtained, and whether or not it is time to speak is determined based on the obtained likelihood of interruption.

第11の態様は、第9又は第10の態様に係る会議用ロボットであって、ロボットとしての動作を実行するロボット動作部をさらに備え、前記制御部は、発生すべき発言予定内容が生じた後、発言タイミングで無いと判定されると、前記ロボット動作部に、遮りやすさを上げる第1動作を実行させるものである。 An eleventh aspect is the conference robot according to the ninth or tenth aspect, further comprising a robot action unit that performs an action as a robot, wherein the control unit controls the content of a scheduled speech to be generated. Later, when it is determined that it is not time to speak, the robot action section is caused to perform a first action to increase the likelihood of interruption.

第12の態様は、第11の態様に係る会議用ロボットであって、前記制御部は、前記第1動作実行後、さらに、発言タイミングで無いと判定されると、前記ロボット動作部に、遮りやすさを上げる第2動作を実行させるものである。 A twelfth aspect is the conference robot according to the eleventh aspect, wherein the control unit instructs the robot operation unit to interrupt when it is determined that it is not time to speak after executing the first operation. This is to execute a second operation that increases ease.

第13の態様は、第12の態様に係る会議用ロボットであって、前記第2動作は、前記第1動作よりも遮りやすさを上げるのに効果的な動作とされている。 A thirteenth aspect is the conference robot according to the twelfth aspect, wherein the second motion is more effective than the first motion in increasing the likelihood of interruption.

第1の態様によると、参加状態取得部で得られた複数の参加者の会議参加状態に基づいて、複数の参加者によるコミュニケーションの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定するため、会議において、発言するのに適したタイミングを見出せる。 According to the first aspect, based on the conference participation states of the plurality of participants obtained by the participation state acquisition unit, the likelihood of interrupting communication by the plurality of participants is obtained, and a statement is made based on the obtained likelihood of interruption. In order to determine whether or not it is time, it is possible to find the appropriate timing for speaking in a meeting.

第2の態様によると、予め発言予定内容を記録しておけば、適切なタイミングで発言することができる。 According to the second aspect, if the content of scheduled speech is recorded in advance, it is possible to speak at an appropriate timing.

第3の態様によると、会議の参加者は、予め発言予定内容を記録しておけば、適切なタイミングで発言することができる。 According to the third aspect, the participants of the conference can speak at appropriate timing by recording the content of scheduled speeches in advance.

第4の態様によると、通信回線を介して会議に参加する第2参加者は、複数の第1参加者の会議参加状態を観察し難い。そこで、第2参加者の発言予定内容を発言予定記録部に記録しておくことで、第2参加者は、予め発言予定内容を記録しておけば、適切なタイミングで発言することができる。 According to the fourth aspect, it is difficult for the second participant who participates in the conference via the communication line to observe the conference participation states of the plurality of first participants. Therefore, by recording the planned utterance contents of the second participant in the utterance schedule recording section, the second participant can speak at an appropriate timing if the planned utterance contents are recorded in advance.

第5の態様によると、複数の参加者それぞれの会議参加状態に基づいて、より適切に発言タイミングであるか否かを判定できる。 According to the fifth aspect, it is possible to more appropriately determine whether or not it is time to speak based on the conference participation status of each of the plurality of participants.

第6の態様によると、発言タイミングで無いと判定されたときに、前記擬似会議参加装置に、遮りやすさを上げる第1動作を実行させるため、会議において、発言し易くなる。 According to the sixth aspect, when it is determined that it is not time to speak, the pseudo-conference participation device is caused to perform the first operation to increase the likelihood of interruption, so that it is easier to speak in the conference.

第7の態様によると、さらに、発言タイミングで無いと判定されると、前記擬似会議参加装置に、遮りやすさを上げる第2動作を実行させるため、会議において、発言し易くなる。 According to the seventh aspect, furthermore, when it is determined that it is not time to speak, the pseudo-conference participation device is caused to perform the second operation to increase the likelihood of interruption, thereby making it easier to speak in the conference.

第8の態様によると、さらに、第1動作実行後、さらに、発言タイミングで無いと判定されると、遮りやすさを上げるのにより効果的な第2動作を実行させるため、会議において、発言し易くなる。 According to the eighth aspect, furthermore, after the execution of the first action, if it is determined that it is not time to speak, the second action that is more effective in increasing the likelihood of being interrupted is executed in the conference. becomes easier.

第9の態様によると、参加状態入力部より入力された前記複数の参加者の会議参加状態に基づいて、複数の参加者によるコミュニケーションの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定するため、ロボットは、会議において、適したタイミングで発言することができる。 According to the ninth aspect, based on the conference participation states of the plurality of participants input from the participation state input unit, the ease of interrupting communication by the plurality of participants is obtained, and based on the obtained ease of interruption In order to determine whether or not it is time to speak, the robot can speak at a suitable timing in the conference.

第10の態様によると、複数の参加者それぞれの会議参加状態に基づいて、より適切に発言タイミングであるか否かを判定できる。 According to the tenth aspect, it is possible to more appropriately determine whether or not it is time to speak based on the conference participation status of each of the plurality of participants.

第11の態様によると、発言タイミングで無いと判定されると、前記ロボット動作部に、遮りやすさを上げる第1動作を実行させるため、会議において、発言し易くなる。 According to the eleventh aspect, when it is determined that it is not time to speak, the robot action unit is caused to perform the first action that increases the likelihood of interruption, so that it becomes easier to speak in the conference.

第12の態様によると、第1動作実行後、さらに、発言タイミングで無いと判定されると、前記ロボット動作部に、遮りやすさを上げる第2動作を実行させるため、会議において、発言し易くなる。 According to the twelfth aspect, after the execution of the first action, if it is further determined that it is not time to speak, the robot action unit is caused to perform the second action that increases the likelihood of interruption, so that the user can speak more easily in the conference. Become.

第13の態様によると、第1動作実行後、さらに、発言タイミングで無いと判定されると、遮りやすさを上げるのにより効果的な第2動作を実行させるため、会議において、音声を発し易くなる。 According to the thirteenth aspect, after the execution of the first action, if it is further determined that it is not time to speak, the second action that is more effective in increasing the likelihood of interruption is executed. Become.

第1実施形態に係る会議支援システムが適用された会議の様子を示す説明図である。FIG. 2 is an explanatory diagram showing a state of a conference to which the conference support system according to the first embodiment is applied; 代理参加ロボットの動作例を示す説明図である。FIG. 11 is an explanatory diagram showing an example of the operation of a substitute participation robot; カメラによる撮像例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of imaging by a camera; 会議支援システムの電気的構成を示すブロック図である。1 is a block diagram showing an electrical configuration of a conference support system; FIG. 学習済モデルの一例を示す図である。It is a figure which shows an example of a learned model. 学習中モデルの一例を示す図である。It is a figure which shows an example of a model during learning. 制御部の動作例を示すフローチャートである。4 is a flowchart showing an operation example of a control unit; 第2実施形態に係る会議用ロボットが適用された会議の様子を示す説明図である。FIG. 10 is an explanatory diagram showing a state of a conference to which the conference robot according to the second embodiment is applied; 同上の会議用ロボットの電気的構成を示すブロック図である。Fig. 3 is a block diagram showing an electrical configuration of the conference robot;

{第1実施形態}
以下、第1実施形態に係る会議支援システムについて説明する。図1は会議支援システム30が適用された会議の様子を示す説明図である。
{First Embodiment}
A conference support system according to the first embodiment will be described below. FIG. 1 is an explanatory diagram showing a state of a conference to which the conference support system 30 is applied.

会議支援システム30は、複数人の参加者10A、10Bによる会議に用いられる。複数の参加者10A、10Bは、会議に参加して何らかの発言を行ったり、他者の発言を聞いたりする主体である。参加者10A、10Bは、同一の会議場所に存在していてもよいし、複数の場所に分散して存在していてもよい。 A conference support system 30 is used for a conference by a plurality of participants 10A and 10B. A plurality of participants 10A and 10B are subjects who participate in the conference, make some remarks, and listen to the remarks of others. The participants 10A and 10B may exist at the same conference place, or may exist dispersedly in a plurality of places.

図1では、会議室20に複数人(5人)の第1参加者10Aが存在しており、会議室20から離れた場所に第2参加者10Bが存在している例が示されている。つまり、現実空間において互いの会議参加状態を観察可能な状態で複数の第1参加者10Aが会議を行う。会議室20には、擬似開始参加装置として代理参加ロボット60が存在している。第2参加者10Bは、通信回線70及び代理参加ロボット60を通じて会議室20内における複数人の第1参加者10Aの会議に参加することができる。 FIG. 1 shows an example in which a plurality of (five) first participants 10A are present in the conference room 20, and a second participant 10B is present at a location away from the conference room 20. . That is, a plurality of first participants 10A hold a conference in a state where they can observe each other's conference participation states in the physical space. In the conference room 20, a proxy participation robot 60 exists as a pseudo start participation device. The second participant 10B can participate in the conference of the first participants 10A in the conference room 20 through the communication line 70 and the proxy participation robot 60. FIG.

会議室20には、会議机22が置かれ、その周りに椅子24が複数設けられている。複数人の第1参加者10A及び代理参加ロボット60は、各椅子24に着席している。 A conference desk 22 is placed in the conference room 20, and a plurality of chairs 24 are provided around it. A plurality of first participants 10A and proxy participation robots 60 are seated in respective chairs 24. As shown in FIG.

代理参加ロボット60は、第2参加者10Bの代理として、会議への参加行為を実行できるロボットである。例えば、図2に示すように、代理参加ロボット60は、内蔵されたスピーカ等を通じて、会議室20において発言する行為(図2では、“Excuse me.”(すみません)と発言)を実行できる。また、代理参加ロボット60は、発言行為以外にも、会議中に行うことのある動作(図2では挙手する行為が例示)を実行できる。このため、第2参加者10Bが代理参加ロボット60を通じて円滑に会議に参加することができる。代理参加ロボット60には、後述する制御部40が組込まれている。 The proxy participation robot 60 is a robot capable of participating in the conference as a proxy for the second participant 10B. For example, as shown in FIG. 2, the proxy participation robot 60 can execute an act of speaking in the conference room 20 (in FIG. 2, saying "Excuse me.") through a built-in speaker or the like. In addition, the proxy participation robot 60 can perform actions other than speaking, which may be performed during a meeting (the action of raising a hand is exemplified in FIG. 2). Therefore, the second participant 10B can smoothly participate in the conference through the proxy participation robot 60. FIG. The proxy participation robot 60 incorporates a control unit 40, which will be described later.

図1に戻って、各第1参加者10Aに対応してカメラ58及びマイク59が設けられている。カメラ58及びマイク59は、第1参加者10Aの会議参加状態を動画データとして取得するために用いられる。例えば、マイク59は、第1参加者の10Aの発言を音声データとして取得するために用いられる。カメラ58は、第1参加者10Aの動作を取得するために用いられる。例えば、カメラ58によって、図3に示すように、第1参加者10Aの視線の動き(矢符P1参照)、第1参加者10Aの顔の傾き(矢符P2参照、頷き、首振り動作等)等を撮像することができる。カメラ58及びマイク59は、制御部40に接続されている。 Returning to FIG. 1, a camera 58 and a microphone 59 are provided corresponding to each first participant 10A. The camera 58 and the microphone 59 are used to acquire the meeting participation state of the first participant 10A as video data. For example, the microphone 59 is used to acquire speech data of the first participant 10A. A camera 58 is used to capture the motion of the first participant 10A. For example, with the camera 58, as shown in FIG. ) etc. can be imaged. The camera 58 and microphone 59 are connected to the controller 40 .

第2参加者10Bは、机22B前に設けられた椅子24Bに着席している。第2参加者10B前には、マイク86、スピーカ87及び表示装置88が設けられている。マイク86には、第1参加者10Aの音声が入力される。会議室20における会議の様子は、表示装置88に表示され、また、会議における発言は、スピーカ87を通じて再生される。これらのマイク86、スピーカ87及び表示装置88は、端末装置80に接続されている。 The second participant 10B is seated on a chair 24B provided in front of the desk 22B. A microphone 86, a speaker 87 and a display device 88 are provided in front of the second participant 10B. The voice of the first participant 10A is input to the microphone 86 . The state of the conference in the conference room 20 is displayed on the display device 88 , and the speech in the conference is reproduced through the speaker 87 . These microphone 86 , speaker 87 and display device 88 are connected to the terminal device 80 .

上記代理参加ロボット60及び端末装置80は、通信回線70を介して相互通信可能に接続される。通信回線70は、有線式であっても無線式であってもよい。また、通信回線70は、公衆通信網であっても専用回線であってもよい。 The proxy participation robot 60 and the terminal device 80 are connected via a communication line 70 so as to be mutually communicable. The communication line 70 may be wired or wireless. Also, the communication line 70 may be a public communication network or a dedicated line.

代理参加ロボット60は、参加状態取得部としての各カメラ58及び各マイク59で得られた複数の第1参加者10Aの会議参加状態に基づいて、複数の参加者10Aによるコミュニケーション(会議)への遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定する制御部40(後述)を備えている。そして、発言タイミングであると判定されたときに、第2参加者10Bは、代理参加ロボット60を介して、会議室20における会議に参加することができる。 The proxy participation robot 60 determines communication (conference) by the plurality of participants 10A based on the conference participation states of the plurality of first participants 10A obtained by each camera 58 and each microphone 59 as a participation state acquisition unit. A control unit 40 (to be described later) is provided which determines whether or not it is time to speak based on the obtained likelihood of interruption. Then, when it is determined that it is time to speak, the second participant 10B can participate in the conference in the conference room 20 via the proxy participation robot 60 .

図4は会議支援システム30の電気的構成を示すブロック図である。 FIG. 4 is a block diagram showing the electrical configuration of the conference support system 30. As shown in FIG.

会議支援システム30は、会議室20に設けられた制御部40、代理参加ロボット60及び複数組のカメラ58及びマイク59と、会議室20から離れた位置に設けられた端末装置80、マイク86、スピーカ87及び表示装置88とを備える。制御部40と端末装置80とは、通信回線70を通じて相互通信可能に接続されている。 The conference support system 30 includes a control unit 40, a proxy participation robot 60, a plurality of sets of cameras 58 and microphones 59 provided in the conference room 20, a terminal device 80 provided at a position away from the conference room 20, a microphone 86, A speaker 87 and a display device 88 are provided. The control unit 40 and the terminal device 80 are connected through a communication line 70 so as to be able to communicate with each other.

複数組のカメラ58及びマイク59は、複数の参加者(ここでは第1参加者10A)の会議参加状態を取得する参加状態取得部の一例である。ここでは、カメラ58及びマイク59の組は、各第1参加者10Aに対応して設けられている。このため、各組のカメラ58及びマイク59は、複数の第1参加者10Aのそれぞれの会議参加状態を取得する個別参加状態取得部の一例である。カメラ58は、対応する第1参加者10Aのうち顔面を含む部分、ここでは、上半身を撮像する。これにより、カメラ58は、第1参加者10Aの視線の動き、顔の傾きを撮像することができる。マイク59は、主として対応する第1参加者10Aの発言による音を電気信号に変換する。マイク59は、周りの参加者等の音を電気信号に変換してもよい。もっとも、マイク59では、周りの参加者等の音は小さくなり、その影響は少ない。 A plurality of sets of cameras 58 and microphones 59 are an example of a participation state acquiring unit that acquires conference participation states of a plurality of participants (here, the first participant 10A). Here, a set of camera 58 and microphone 59 is provided corresponding to each first participant 10A. Therefore, each set of camera 58 and microphone 59 is an example of an individual participation state acquisition unit that acquires the conference participation state of each of the plurality of first participants 10A. The camera 58 images the part including the face of the corresponding first participant 10A, here the upper half of the body. Thereby, the camera 58 can image the movement of the line of sight and the inclination of the face of the first participant 10A. The microphone 59 converts the sound mainly made by the corresponding first participant 10A into an electric signal. The microphone 59 may convert sounds of surrounding participants and the like into electrical signals. However, with the microphone 59, the sounds of the surrounding participants are reduced, and the influence thereof is small.

参加状態取得部は、各第1参加者に対応して設けられることは必須ではない。複数の参加者の全体に対して1つの参加状態取得部が設けられていてもよい。この場合、カメラは、複数の参加者全体を撮像可能に設けられるとよい。また、マイクは、複数の参加者全体の会話による音を電気信号に変換可能に設けられるとよい。また、複数の参加者が複数のグループに分けられ、各グループに対して1つの参加状態取得部が設けられていてもよい。第2参加者に対しても参加状態取得部が設けられていてもよい。 It is not essential that the participation state acquisition unit is provided for each first participant. One participation state acquisition unit may be provided for all of the plurality of participants. In this case, the camera may be provided so as to be able to capture an image of all of the participants. Also, it is preferable that the microphones be provided so as to be able to convert the sounds of conversations of all the participants into electrical signals. Also, a plurality of participants may be divided into a plurality of groups, and one participation state acquisition unit may be provided for each group. A participation state acquisition unit may be provided for the second participant as well.

代理参加ロボット60は、上記したように、第2参加者10Bの代理として、会議への参加行為を実行できるロボットである。ここでは、代理参加ロボット60は、ロボットとしての動作を行うロボット動作部67を含む。ここでは、ロボット動作部67は、スピーカ68及び腕駆動部69を含む。制御部40による制御下、代理参加ロボット60は、スピーカ68を通じて音声を発することができる。また、腕駆動部69は、少なくとも1つの腕を上下に駆動するモータ等を含んでいる。腕駆動部69は、制御部40による制御下、代理参加ロボット60の腕を上げ(挙手)たり、下げたりする動作を実行することができる。代理参加ロボット60は、人型ロボットであってもよいし、その他の多関節ロボット等であってもよい。代理参加ロボット60が人型ロボットであれば、第2参加者10Bが代理参加ロボット60を通じて会議に参加する行為が、第1参加者10Aに対して違和感を与え難い。このため、円滑な会議の進行を期待できる。 As described above, the proxy participation robot 60 is a robot capable of participating in the conference as a proxy for the second participant 10B. Here, the proxy participation robot 60 includes a robot action unit 67 that operates as a robot. Here, the robot action section 67 includes a speaker 68 and an arm drive section 69 . Under the control of the control unit 40 , the substitute participation robot 60 can emit sound through the speaker 68 . The arm driving section 69 also includes a motor or the like for driving at least one arm up and down. Under the control of the control unit 40 , the arm drive unit 69 can raise (raise) or lower the arm of the proxy participation robot 60 . The substitute participation robot 60 may be a humanoid robot, or may be another articulated robot or the like. If the proxy participation robot 60 is a humanoid robot, the act of the second participant 10B participating in the conference through the proxy participation robot 60 is less likely to cause discomfort to the first participant 10A. Therefore, smooth progress of the conference can be expected.

代理参加ロボット60は、会議が行われる現実空間において、会議への参加動作が可能な擬似会議参加装置の一例である。会議への参加動作としては、会議において発言予定内容があることを示す動作、発言する動作、賛否を示す動作等が想定される。これらの動作は、スピーカを通じた発言、ロボットによる行動の他、表示装置による表示動作によっても実現可能である。このため、会議への参加動作が可能な擬似会議参加装置としては、何らかの行動が可能なロボットの他、音声を発するスピーカ、発言予定内容の有無、発言内容、賛否等を表示可能な表示装置等が用いられてもよい。 The proxy participation robot 60 is an example of a pseudo-conference participation device capable of participating in a conference in the real space where the conference is held. As the operation to participate in the conference, an operation indicating that there is a scheduled speech content in the conference, an operation to speak, an operation to indicate approval or disapproval, and the like are assumed. These actions can be realized by speech through a speaker, action by a robot, and display action by a display device. For this reason, a pseudo-conference participation device capable of participating in a conference includes a robot capable of some action, a speaker that emits voice, a display device that can display the presence or absence of planned speech content, speech content, approval or disapproval, etc. may be used.

制御部40は、複数組のカメラ58及びマイク59で得られた複数の第1参加者10Aの会議参加状態に基づいて、複数の第1参加者10Aによるコミュニケーションの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定する。ここでは、制御部40は、少なくとも1つのプロセッサとしてのCPU(Central Processing Unit)41、RAM(Random Access Memory)42、記憶部43、入出力部44,通信回路45及びロボット制御入出力部46等がバスライン48を介して相互接続されたコンピュータによって構成されている。 Based on the conference participation states of the plurality of first participants 10A obtained by the plurality of sets of cameras 58 and microphones 59, the control unit 40 obtains the ease of interrupting communication by the plurality of first participants 10A, and Whether or not it is time to speak is determined based on the likelihood of interruption. Here, the control unit 40 includes a CPU (Central Processing Unit) 41 as at least one processor, a RAM (Random Access Memory) 42, a storage unit 43, an input/output unit 44, a communication circuit 45, a robot control input/output unit 46, and the like. are composed of computers interconnected via a bus line 48 .

記憶部43は、フラッシュメモリ、あるいは、ハードディスク装置等の不揮発性の記憶装置によって構成されている。記憶部43には、複数組のカメラ58及びマイク59で得られた複数の第1参加者10Aの会議参加状態に基づいて、複数の第1参加者10Aによるコミュニケーションの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定するプログラム43aが格納されている。ここでは、プログラム43aは、後述する学習済モデル49を含んでおり、当該学習済モデル49に基づいて、複数組のカメラ58及びマイク59で得られた複数の第1参加者10Aの会議参加状態に基づいて、複数の第1参加者10Aによるコミュニケーションの遮りやすさを求める処理プログラムを含む。また、プログラム43aは、第2参加者10Bの発言を音声データ43cとして記憶部43に格納する処理、及び、発言タイミングであると判定されたときに、ロボット動作部67を駆動制御する処理を実行するためのプログラムをも含む。つまり、制御部40は、複数の参加者10A、10Bのうちの少なくとも一人の第2参加者10Bの発言予定内容を記録する発言予定記録部として記憶部43を含む。プログラム43aによる処理例については後述する。 The storage unit 43 is composed of a nonvolatile storage device such as a flash memory or a hard disk device. In the storage unit 43, based on the conference participation states of the plurality of first participants 10A obtained by the plurality of sets of cameras 58 and microphones 59, the ease of interrupting communication by the plurality of first participants 10A is obtained, and the obtained A program 43a is stored for determining whether or not it is time to speak based on the likelihood of interruption. Here, the program 43a includes a learned model 49, which will be described later. based on, a processing program for determining how easily communication is interrupted by a plurality of first participants 10A. Further, the program 43a executes a process of storing the utterance of the second participant 10B as the voice data 43c in the storage unit 43, and a process of driving and controlling the robot operation unit 67 when it is determined that it is time to utter. Also includes a program for That is, the control unit 40 includes the storage unit 43 as a speech schedule recording unit that records the speech schedule contents of the second participant 10B, which is at least one of the participants 10A and 10B. An example of processing by the program 43a will be described later.

RAM42は、CPU41が所定の処理を行う際の作業領域として供される。入出力部44は、複数組のカメラ58及びマイク59に接続されており、当該カメラ58及びマイク59からの信号が入出力部44を介して本制御部40に入力される。制御部40と複数組のカメラ58及びマイク59とは、有線通信可能に接続されていてもよいし、無線通信可能に接続されていてもよい。通信回路45は、通信回線70を通じて端末装置80に相互通信可能に接続される。ロボット制御入出力部46は、ロボット動作部67にロボット動作部67の動作制御可能に接続されている。このため、本制御部40は、ロボット動作部67を動作制御することができる。 The RAM 42 is used as a working area when the CPU 41 performs predetermined processing. The input/output unit 44 is connected to a plurality of sets of cameras 58 and microphones 59 , and signals from the cameras 58 and microphones 59 are input to the main control unit 40 via the input/output unit 44 . The control unit 40 and the plurality of sets of cameras 58 and microphones 59 may be connected for wired communication, or may be connected for wireless communication. The communication circuit 45 is connected to the terminal device 80 through the communication line 70 so as to be mutually communicable. The robot control input/output unit 46 is connected to the robot operation unit 67 so as to control the operation of the robot operation unit 67 . Therefore, the controller 40 can control the operation of the robot operation unit 67 .

この制御部40では、プログラム43aに記述された手順、端末装置80を通じて入力される第2参加者10Bの発言に関する動作、複数組のカメラ58及びマイク59からの入力等に従って、CPU41が、演算処理を行うことにより、ロボット動作部67の制御を行う機能を実行する。 In this control unit 40, the CPU 41 performs arithmetic processing according to the procedure described in the program 43a, the operation related to the speech of the second participant 10B input through the terminal device 80, the input from the multiple sets of cameras 58 and the microphone 59, etc. , the function of controlling the robot operation unit 67 is executed.

本例では、制御部40は、代理参加ロボット60に組込まれている。制御部40は、代理参加ロボット60外に設けられていてもよい。 In this example, the control unit 40 is incorporated in the proxy participating robot 60 . The control unit 40 may be provided outside the proxy participation robot 60 .

なお、上記プログラム43aは、予め記憶部43に格納されているものであるが、CD-ROMあるいはDVD-ROM、外部のフラッシュメモリ等の記録媒体に記録された形態で、あるいは、ネットワークを介した外部サーバからのダウンロードなどにより、既存のコンピュータに提供されることもあり得る。 The program 43a is stored in advance in the storage unit 43, but may be recorded in a recording medium such as a CD-ROM, a DVD-ROM, or an external flash memory, or transmitted via a network. It may be provided to an existing computer by downloading from an external server or the like.

なお、上記制御部40において実現される各機能の一部又は全部は、1つのプロセッサによって処理されてもよいし、複数のプロセッサによって適宜分散して処理されてもよい。上記制御部40において実現される各機能の一部又は全部は、第2参加者10B側の端末装置等、会議室外のコンピュータによって実現されてもよい。 Some or all of the functions realized by the control unit 40 may be processed by one processor, or may be processed by a plurality of processors in a distributed manner. Some or all of the functions realized by the control unit 40 may be realized by a computer outside the conference room, such as a terminal device on the side of the second participant 10B.

端末装置80は、上記制御部40と同様に、少なくとも1つのプロセッサとしてのCPU、RAM42、記憶部、入出力部,通信回路等を備えるコンピュータによって構成されている。端末装置80は、第2参加者10B側に設けられている。端末装置80は、通信回線70を通じて制御部40に相互通信可能に接続されている。 As with the control unit 40, the terminal device 80 is configured by a computer including a CPU as at least one processor, a RAM 42, a storage unit, an input/output unit, a communication circuit, and the like. The terminal device 80 is provided on the side of the second participant 10B. The terminal device 80 is connected to the control unit 40 through the communication line 70 so as to be able to communicate with each other.

マイク86は、第2参加者10Bの発言による音を電気信号として変換可能な位置に設けられている。スピーカ87は、第2参加者10Bに対して音を提供可能な位置に設けられ、表示装置88は第2参加者10Bに対して表示内容を提供可能な位置に設けられている。マイク86、スピーカ87及び表示装置88は、端末装置80に接続されている。 The microphone 86 is provided at a position capable of converting the sound produced by the second participant 10B into an electrical signal. The speaker 87 is provided at a position capable of providing sound to the second participant 10B, and the display device 88 is provided at a position capable of providing display content to the second participant 10B. A microphone 86 , a speaker 87 and a display device 88 are connected to the terminal device 80 .

そして、第2参加者10Bによる発言がマイク86を通じて取得し、この発言に基づく音声データが端末装置80から通信回線70を通じて制御部40に送信される。また、例えば、上記複数組のカメラ58及びマイク59を通じて得られた各第1参加者10Aの発言及び動画データが、制御部40から通信回線70を介して端末装置80に送信され、各発言がスピーカ87を通じて再生され、また、各第1参加者10Aの動画データが表示装置88に表示される。第2参加者10Bが所定の発言を行いたい場合に、発言すると、その発言予定内容はマイク86にて取得される。この発言予定内容は、そのまま会議室において再生されるのではなく、第2参加者10Bによる発言の意思指令として取得され、後述する発言タイミングで、代理参加ロボット60を通じて発言される。この点において、マイク86は、第2参加者10Bによる発言の意思指令を取得する発言指令受付部として機能する。発言指令受付部は、その他のスイッチ、例えば、キーボード等であってもよいし、発言専用のスイッチであってもよい。 Then, the speech by the second participant 10B is acquired through the microphone 86, and voice data based on this speech is transmitted from the terminal device 80 to the control section 40 through the communication line 70. FIG. Further, for example, the utterances and video data of each first participant 10A obtained through the plurality of sets of cameras 58 and microphones 59 are transmitted from the control unit 40 to the terminal device 80 via the communication line 70, and each utterance is It is reproduced through the speaker 87, and the video data of each first participant 10A is displayed on the display device 88. FIG. When the second participant 10B wants to make a predetermined statement, when he or she makes a statement, the content of the planned statement is acquired by the microphone 86 . The contents of the speech schedule are not reproduced as they are in the conference room, but are obtained as an intention command of speech by the second participant 10B, and are spoken through the proxy participation robot 60 at the speech timing described later. In this regard, the microphone 86 functions as a speech command reception unit that acquires a speech intention command from the second participant 10B. The speech command receiving unit may be another switch such as a keyboard, or may be a switch dedicated to speech.

図5は学習済モデル49の一例を示す図である。学習済モデル49は、機械学習により生成されたモデルであり、上記コンピュータの一種である制御部40において用いられる。学習済モデル49は、特徴量抽出部49aと、識別層49bとを含む。 FIG. 5 is a diagram showing an example of the trained model 49. As shown in FIG. The learned model 49 is a model generated by machine learning, and is used in the control unit 40, which is a kind of computer. The trained model 49 includes a feature amount extraction unit 49a and a discrimination layer 49b.

特徴量抽出部49aは、入力データである音声データ及び動画データから特徴量を抽出する。例えば、音声データは、上記マイク59を通じて取得され、動画データは、上記カメラ58を通じて取得される。音声データ43cからは、例えば、特徴量として音量が抽出される。動画データからは、例えば、特徴量として、視線(目)の動き及び顔の傾き抽出される。識別層49bは、パーセプトロンを複数層組合わせた周知の多層ニューラルネットワークによって構成されている。 The feature amount extraction unit 49a extracts feature amounts from audio data and video data that are input data. For example, audio data is acquired through the microphone 59 and video data is acquired through the camera 58 . For example, volume is extracted as a feature amount from the audio data 43c. For example, motion of the line of sight (eyes) and inclination of the face are extracted as feature amounts from the moving image data. The discrimination layer 49b is composed of a well-known multilayer neural network in which multiple layers of perceptrons are combined.

学習済モデル49は、図6に示すように、模擬的又は実際におこなわれた会議において、いずれかの第1参加者10Aに応じた入力データ(所定時間における音声データ、動画データ)に対し、コミュニケーションを遮りやすいタイミングとしての適否かを区別した複数の学習用データに基づき学習された学習済モデルである。かかる学習用モデルは、例えば、本モデルの設計者が会議又は会議の入力データを実際に見聞き等してコミュニケーションを遮りやすいタイミングか否かを判別すること、又は、第1参加者10Aが実際に発言したか否かを判別することによって、生成可能である。 As shown in FIG. 6, the trained model 49, in a simulated or actually held conference, for input data (speech data, video data at a predetermined time) corresponding to one of the first participants 10A, This is a trained model learned based on a plurality of learning data that distinguishes whether or not it is appropriate as a timing at which communication is likely to be interrupted. Such a learning model, for example, determines whether the designer of this model actually sees and hears the input data of the conference or the conference and determines whether it is the timing when communication is likely to be interrupted, or the first participant 10A actually It can be generated by judging whether or not a statement has been made.

そして、図5に示すように、制御部40のCPU41が、プログラム43aの指示に従って、いずれかの第1参加者10Aに応じた入力データ(音声データ、動画データ)に対し、識別層49bにおける学習済の重み係数と応答関数等に基づく演算を行うことによって、識別層49bの出力として、コミュニケーションの遮りやすさを示す結果を出力することができる。コミュニケーションを遮り易いときに出力1を出力し、コミュニケーションを遮り難いときに出力2を出力してもよい。あるいは、コミュニケーションを遮り易さを数値化した指標値(適合度)を出力1に出力し、コミュニケーションを遮り難さを数値化した指標値(適合度)を出力2に出力してもよい。ここでは、前者であるとして説明する。 Then, as shown in FIG. 5, the CPU 41 of the control unit 40 performs learning in the identification layer 49b for input data (audio data, moving image data) corresponding to one of the first participants 10A, according to instructions of the program 43a. By performing calculations based on the weighting coefficients and the response function, etc., which have already been used, the identification layer 49b can output a result indicating how easily communication is interrupted. Output 1 may be output when communication is likely to be interrupted, and output 2 may be output when communication is difficult to be interrupted. Alternatively, an index value (suitability) that quantifies the likelihood of interrupting communication may be output as output 1, and an index value (suitability) that quantifies the difficulty of interrupting communication may be output as output 2. Here, the former case will be explained.

コミュニケーションの遮りやすさを求めるにあたって機械学習を適用する際、その手法はニューラルネットワークに限られず、他の手法、例えば、サポートベクターマシン等を適用してもよい。コミュニケーションの遮りやすさを求めるにあたって機械学習を適用することは必須ではなく、例えば、マイク59の音量、動画データに基づく目の動き、顔の動きを数値化し、数値化された各値に基づいて所定の条件式を事前に設定し、当該条件式に基づいてコミュニケーションの遮りやすさを求めてもよい。また、目の動き、顔の動き等から、参加者がスマートフォンを見たか否か、資料を見たか否か等を判別し、その判別結果に基づいて、コミュニケーションの遮りやすさを求めてもよい。例えば、スマートフォンを見た場合、資料を見た場合は、会議のコミュニケーションを遮りやすさは高いといえる。 When applying machine learning to determine the ease of interrupting communication, the technique is not limited to neural networks, and other techniques such as support vector machines may be applied. It is not essential to apply machine learning to find the ease of blocking communication. A predetermined conditional expression may be set in advance, and the degree of interruption of communication may be obtained based on the conditional expression. In addition, it is possible to determine whether or not the participant has looked at the smartphone or the document based on eye movements, facial movements, etc., and based on the determination results, determine how easily communication is interrupted. . For example, when looking at a smartphone, when looking at a document, it can be said that there is a high possibility of interrupting communication in a meeting.

制御部40は、学習済モデル49の出力に基づいて発言タイミングであるか否かを判定する。学習済モデル49から選択的に出力1及び出力2が出力される場合には、当該出力に従えばよい。出力1又は出力2から多段階に数値化された指標値が出力される場合には、当該指標値を、事前に設定された閾値と比較して、発言タイミングであるか否かを判定してもよい。例えば、出力1からコミュニケーションの遮りやすさを数値化した指標値が出力される場合、当該指標値が閾値以上となる場合又は閾値を超える場合に、発言タイミングであると判定してもよい。 Based on the output of the learned model 49, the control unit 40 determines whether or not it is time to speak. When output 1 and output 2 are selectively output from the trained model 49, the output may be followed. When an index value quantified in multiple stages is output from output 1 or output 2, the index value is compared with a preset threshold to determine whether or not it is time to speak. good too. For example, when an index value that quantifies the likelihood of interrupting communication is output from the output 1, it may be determined that it is time to speak when the index value is equal to or greater than a threshold value or exceeds the threshold value.

図7は制御部40の動作例を示すフローチャートである。 FIG. 7 is a flow chart showing an operation example of the control unit 40. As shown in FIG.

会議の開始により処理が開始される。ステップS1において発言意思の有無が判定される。ここで、第2参加者10Bがマイク86を通じて会議向けの発言を行うと、当該発言がマイク86を通じて取得される。発言に対応する音声データは、端末装置80、通信回線70を通じて制御部40に送られる。制御部40は、端末装置80側から第2参加者10Bの音声データが送信された場合、当該音声データ(第2参加者10Bの発言予定内容)を記憶部43に音声データ43cとして記憶する。また、かかる音声データの受信は、第2参加者10Bの発言意思指令として入力される。このため、制御部40は、第2参加者10Bから音声データを受信した場合、発言意思ありと判定し、音声データの受信が無い場合、発言意思無しと判定する。発言意思の指令は、上記音声データに基づかず、第2参加者10B側のスイッチ操作によって入力されてもよい。発言予定内容は、音声データによる他、キーボード入力等された文字データとして記憶されてもよい。ステップS1において発言意思無しと判定された場合、ステップS2において、所定の待機時間待機した後、スタートに戻ってステップS1以降の処理を繰返す。ステップS1において発言意思有りと判定されると、ステップS3に進む。 Processing begins with the start of the conference. In step S1, it is determined whether or not there is an intention to speak. Here, when the second participant 10B makes a speech for the conference through the microphone 86, the speech is acquired through the microphone 86. FIG. Voice data corresponding to the utterance is sent to the control section 40 through the terminal device 80 and the communication line 70 . When voice data of the second participant 10B is transmitted from the terminal device 80 side, the control unit 40 stores the voice data (contents of scheduled speech of the second participant 10B) in the storage unit 43 as voice data 43c. Also, the reception of such voice data is input as a speech intention command of the second participant 10B. Therefore, the control unit 40 determines that there is an intention to speak when voice data is received from the second participant 10B, and determines that there is no intention to speak when no voice data is received. The command of the intention to speak may be input by operating a switch on the side of the second participant 10B, not based on the voice data. The scheduled speech content may be stored as character data input from a keyboard or the like, in addition to being stored as voice data. If it is determined in step S1 that there is no intention to speak, in step S2, after waiting for a predetermined waiting time, the process returns to the start and the processes after step S1 are repeated. If it is determined that there is an intention to speak in step S1, the process proceeds to step S3.

本例では、記憶部43が発言予定記録部として参加者10のうちの少なくとも一人の発言予定内容を記録する例で説明する。しかしながら、発言予定記録部には、参加者の発言予定内容ではなく、コンピュータによる人工的なシステムによる発言予定内容が記録されていてもよい。例えば、コンピュータ等による人工的な会議支援システムが、会議を遮って参加者に伝えたい情報(発言予定内容)として、「あと5分で会議を終了してください」といった内容を有している場合、かかる発言予定内容を発言予定記録部に記録してもよい。 In this example, an example will be described in which the storage unit 43 serves as a statement schedule recording unit and records the statement schedule contents of at least one of the participants 10 . However, the speech schedule recording section may record the speech schedule contents by an artificial computer system instead of the speech schedule contents of the participants. For example, when an artificial meeting support system using a computer, etc., has content such as "Please finish the meeting in 5 minutes" as information (scheduled speech content) that you want to interrupt the meeting and convey to the participants. , the contents of the speech schedule may be recorded in the speech schedule recording section.

ステップS3では、制御部40は、各組のカメラ58及びマイク59からの出力を学習済モデル49に入力し遮りやすさを求める。ここでは、制御部40は、複数の第1参加者10Aのそれぞれについて、遮りやすさを求める。 In step S3, the control unit 40 inputs the output from each set of the camera 58 and the microphone 59 to the learned model 49 and obtains the degree of obstruction. Here, the control unit 40 obtains the easiness of obstruction for each of the plurality of first participants 10A.

次ステップS4では、ステップS3で求められた遮りやすさにもとづいて、発言タイミングであるか否かを判定する。上記のように、学習済モデル49が、遮りやすさを示す2通の出力を出力する場合、当該出力に応じて発言タイミングであるか否かを判定すればよい。学習済モデル49が遮りやすさを多段階で数値化した指標値を出力する場合、当該指標値と所定の閾値とに基づいて発言タイミングであるか否かを判定すればよい。この場合、第1参加者10A別に閾値を変えてもよい。また、会議の雰囲気に合わせて、閾値を変更してもよい。例えば、発言が少ないような場合等には、閾値を小さくし、第2参加者10Bが容易に発言できるようにしてもよい。また、閾値は、会議の議長又は司会者がマニュアルで変更してもよいし、コンピュータが発言量等に鑑みて変更してもよい。また、ここでは、制御部40は、それぞれの第1参加者10Aについて、求められた遮りやすさに基づいて発言タイミングであるか否かを判定する。そして、全ての第1参加者10Aについて、発言タイミングであると判定されると、会議における発言タイミングであると判定する。つまり、第1参加者10Aのうちの少なくとも一人に関して、発言に適さないタイミングであると判定されると、発言タイミングではないと判定する。 In the next step S4, it is determined whether or not it is time to speak based on the likelihood of interruption obtained in step S3. As described above, when the learned model 49 outputs two outputs indicating the likelihood of interruption, whether or not it is time to speak may be determined according to the outputs. When the learned model 49 outputs an index value that quantifies the likelihood of interruption in multiple stages, it is sufficient to determine whether or not it is time to speak based on the index value and a predetermined threshold value. In this case, the threshold may be changed for each first participant 10A. Also, the threshold may be changed according to the atmosphere of the conference. For example, when the number of statements is small, the threshold value may be made small so that the second participant 10B can easily make statements. Also, the threshold may be changed manually by the conference chair or moderator, or may be changed by the computer in consideration of the amount of speech. Further, here, the control unit 40 determines whether or not it is time to speak for each of the first participants 10A based on the obtained degree of obstruction. Then, when it is determined that it is time to speak for all the first participants 10A, it is determined that it is time to speak in the conference. That is, when it is determined that the timing is not suitable for speaking for at least one of the first participants 10A, it is determined that it is not the timing to speak.

ここでは、第1参加者10A別に、遮りやすさ、及び、発言タイミングであるか否かを判定しているが、会議の場全体として会議状態を取得し、会議全体として遮りやすさ、発言タイミングでるか否かを判定してもよい。 Here, the likelihood of interruption and whether or not it is time to speak is determined for each first participant 10A. It may be determined whether or not

ステップS4において発言タイミングであると判定されると、ステップS5に進む。ステップS5では、制御部40は、記憶部43に記憶された発言予定内容(ここでは音声データ43c)を、スピーカ68を通じて発言する。発言予定内容が文字データとして記憶されている場合には、合成音声等を、スピーカ68を通じて発言してもよい。スピーカ68は、代理参加ロボット60に組込まれているため、周囲の第1参加者10Aからは、代理参加ロボット60を通じて参加する第2参加者10Bの発言として、違和感少なく受止められる。発言終了後、スタートに戻って、ステップS1以降の処理を繰返す。 If it is determined in step S4 that it is time to speak, the process proceeds to step S5. In step S<b>5 , the control unit 40 speaks through the speaker 68 the planned speech content (here, the voice data 43 c ) stored in the storage unit 43 . When the contents of the scheduled speech are stored as character data, synthesized speech or the like may be spoken through the speaker 68 . Since the speaker 68 is built into the proxy participation robot 60, the surrounding first participant 10A can accept the utterance of the second participant 10B participating through the proxy participation robot 60 with little sense of incongruity. After finishing the speech, it returns to the start and repeats the processing after step S1.

ステップS4において発言タイミングでないと判定されると、ステップS6に進む。ステップS6では、制御部40は、ロボット動作部67に第1動作を実行させる。第1動作は、遮りやすさを上げる動作である。第1動作としては、発言があることを示す動き(例えば、挙手)、発言があることを示す短い発言(例えば、“Excuse me”、「すみません」、“I would like to say something”、「発言したいことがあります」等)等が想定される。擬似会議参加装置が人型ロボットである場合、無い場合において、同様の短い発言を、スピーカを通じて再生すること、表示装置に発言がある旨を表示すること(短い発言の表示、発言を示す発光表示等)、ビープ音等を発生させること、振動を生じさせること等が想定される。 If it is determined in step S4 that it is not time to speak, the process proceeds to step S6. In step S6, the control unit 40 causes the robot motion unit 67 to perform the first motion. The first operation is an operation for increasing the ease of blocking. The first action is a movement indicating that there is a statement (for example, raising a hand), a short statement indicating that there is a statement (for example, “Excuse me”, “Excuse me”, “I would like to say something”, “Speak”). There is something I want to do,” etc.) is assumed. When the pseudo-conference participation device is a humanoid robot or when there is no such device, the similar short speech is reproduced through the speaker, and the fact that there is a speech is displayed on the display device (display of the short speech, light-emitting display indicating the speech) etc.), generating a beep sound or the like, generating vibration, and the like.

次ステップS7において、ステップS3と同様に、遮りやすさを求める。 In the next step S7, similarly to step S3, the likelihood of obstruction is determined.

次ステップS8において、ステップS4と同様に、ステップS7で求められた遮りやすさにもとづいて、発言タイミングであるか否かを判定する。発言タイミングであると判定されると、ステップS5に進み、発言を行う。発言タイミングでないと判定されると、ステップS9に進む。 In the next step S8, similarly to step S4, it is determined whether or not it is time to speak based on the likelihood of interruption obtained in step S7. If it is determined that it is time to speak, the process proceeds to step S5, and speech is made. If it is determined that it is not time to speak, the process proceeds to step S9.

ステップS9では、第1動作後、予め定められた所定時間経過したか否かが判定される。所定時間経過前と判定されると、ステップS10に進み、所定時間待機し、ステップS17に戻り、ステップS7以降の処理を繰返す。所定時間経過後と判定されると、ステップS11に進む。なお、第1動作後の経過時間が所定時間丁度である場合、ステップS10、S11のいずれに進んでもよい。 In step S9, it is determined whether or not a predetermined time has passed after the first action. If it is determined that the predetermined time has not passed yet, the process proceeds to step S10, waits for a predetermined time, returns to step S17, and repeats the processes after step S7. If it is determined that the predetermined time has elapsed, the process proceeds to step S11. If the elapsed time after the first action is exactly the predetermined time, the process may proceed to either step S10 or S11.

ステップS11では、制御部40は、ロボット動作部67に第2動作を実行させる。第2動作は、第1動作と同様に、遮りやすさを上げる動作である。第2動作は第1動作と同じであってもよいし、異なっていてもよい。第2動作は、第1動作よりも遮りやすさを上げるのに効果的な動作であってもよい。例えば、第1動作が発言では無い動作であり、第2動作が短い発話であることが想定される。より具体的には、第1動作が挙手、表示装置への表示、又は、発光表示装置の発光であり、第2動作が“Excuse me”、「すみません」、「あの~」等の発言である場合が想定される。また、第1動作が意味の無い発言であり、第2動作が自らの発言を求める要求発言である場合が想定される。例えば、第1動作が“Excuse me”、「すみません」、「あの~」等の発言であり、第2動作が“I would like to say something”、「発言したいことがあります」等の発言であることが想定される。また、第1動作が丁寧な発言であり、第2動作が丁寧では無い発言であることが想定される。また、第1動作が短い発言であり、第2動作が長い発言であることが想定される。さらに、第1動作の発言よりも、第2動作の発言の音量が大きいことも想定される。 In step S11, the control unit 40 causes the robot motion unit 67 to perform the second motion. The second action is, like the first action, an action that increases the likelihood of blocking. The second action may be the same as or different from the first action. The second action may be an action that is more effective than the first action in increasing the likelihood of obstruction. For example, it is assumed that the first action is a non-speech action and the second action is a short speech. More specifically, the first action is raising the hand, displaying on the display device, or emitting light from the light-emitting display device, and the second action is saying "Excuse me", "Excuse me", "Uh~", etc. is assumed. Also, it is assumed that the first action is a meaningless utterance and the second action is a request utterance requesting one's own utterance. For example, the first action is "Excuse me", "Excuse me", "Ano~", etc., and the second action is "I would like to say something", "I have something to say", etc. is assumed. Also, it is assumed that the first action is a polite utterance and the second action is an unpolite utterance. Also, it is assumed that the first action is a short utterance and the second action is a long utterance. Furthermore, it is also assumed that the volume of the utterance of the second action is louder than that of the utterance of the first action.

次ステップS12では、ステップS3と同様に、遮りやすさを求める。 In the next step S12, similarly to step S3, the likelihood of obstruction is obtained.

次ステップS13において、ステップS4と同様に、ステップS12で求められた遮りやすさにもとづいて、発言タイミングであるか否かを判定する。発言タイミングであると判定されると、ステップS5に進み、発言を行う。発言タイミングでないと判定されると、ステップS14に進む。 In the next step S13, similarly to step S4, it is determined whether or not it is time to speak based on the likelihood of interruption obtained in step S12. If it is determined that it is time to speak, the process proceeds to step S5, and speech is made. If it is determined that it is not time to speak, the process proceeds to step S14.

ステップS14では、第2動作後、予め定められた所定時間経過したか否かが判定される。所定時間経過前と判定されると、ステップS15に進み、所定時間待機し、ステップS12に戻り、ステップS12以降の処理を繰返す。所定時間経過後と判定されると、ステップS16に進む。なお、第2動作後の経過時間が所定時間丁度である場合、ステップS15、S16のいずれに進んでもよい。 In step S14, it is determined whether or not a predetermined time has passed after the second action. If it is determined that the predetermined time has not passed yet, the process proceeds to step S15, waits for a predetermined time, returns to step S12, and repeats the processes after step S12. If it is determined that the predetermined time has elapsed, the process proceeds to step S16. Note that if the elapsed time after the second action is exactly the predetermined time, the process may proceed to either step S15 or S16.

ステップS16では、制御部40は、ロボット動作部67に第3動作を実行させる。第3動作は、第1動作と同様に、遮りやすさを上げる動作である。第3動作は第1動作、第2動作と同じであってもよいし、異なっていてもよい。第3動作は、第2動作よりも遮りやすさを上げるのに効果的な動作であってもよい。つまり、後に行われる動作であるほど、遮りやすさを上げるのに効果的な動作であってもよい。例えば、第1動作が発言では無い動作であり、第2動作が短い発話であり、第2動作が自らの発言を求める要求発言である場合が想定される。例えば、第1動作が挙手であり、第2動作が“Excuse me”、「すみません」、「あの~」等の発言であり、第3動作が“I would like to say something”、「発言したいことがあります」等の発言であることが想定される。その他、遮りやすさを上げるのに効果的な動作内容については、ステップS11で説明したのと同様の考えを適用できる。 In step S16, the control section 40 causes the robot motion section 67 to perform the third motion. The third action is an action that increases the likelihood of obstruction, similar to the first action. The third action may be the same as or different from the first and second actions. The third action may be an action that is more effective than the second action in increasing the likelihood of obstruction. In other words, the later the action is, the more effective the action may be in increasing the likelihood of blocking. For example, it is assumed that the first action is a non-utterance action, the second action is a short utterance, and the second action is a request utterance requesting one's own utterance. For example, the first action is to raise your hand, the second action is to say "Excuse me", "I'm sorry", "Uh~", etc., and the third action is "I would like to say something", "I want to say something". It is assumed that it is a statement such as "There is In addition, the same idea as explained in step S11 can be applied to the contents of the operation that are effective in increasing the susceptibility to obstruction.

次ステップS17では、ステップS3と同様に、遮りやすさを求める。 In the next step S17, similar to step S3, the likelihood of obstruction is obtained.

次ステップS18において、ステップS4と同様に、ステップS17で求められた遮りやすさにもとづいて、発言タイミングであるか否かを判定する。発言タイミングであると判定されると、ステップS5に進み、発言を行う。発言タイミングでないと判定されると、ステップS19に進む。 In the next step S18, similarly to step S4, it is determined whether or not it is time to speak based on the likelihood of interruption obtained in step S17. If it is determined that it is time to speak, the process proceeds to step S5, and speech is made. If it is determined that it is not time to speak, the process proceeds to step S19.

ステップS19では、第3動作後、予め定められた所定時間経過したか否かが判定される。所定時間経過前と判定されると、ステップS20に進み、所定時間待機し、ステップS17に戻り、ステップS17以降の処理を繰返す。所定時間経過後と判定されると、ステップS5に進む。なお、第3動作後の経過時間が所定時間丁度である場合、ステップS5、S20のいずれに進んでもよい。つまり、第3動作後、所定時間経過した場合、遮りやすさの程度、発言タイミングであるか否かに拘らず、強制的に発言を行う。 In step S19, it is determined whether or not a predetermined time has passed after the third action. If it is determined that the predetermined time has not elapsed, the process proceeds to step S20, waits for a predetermined time period, returns to step S17, and repeats the processes after step S17. If it is determined that the predetermined time has elapsed, the process proceeds to step S5. If the elapsed time after the third action is exactly the predetermined time, the process may proceed to either step S5 or S20. That is, when a predetermined time has passed after the third action, the speaker is forced to speak regardless of the degree of interruption and regardless of whether or not it is time to speak.

上記処理において、第3動作後、所定時間経過した場合には、発言を行わずに、スタートに戻ってもよい。また、第3動作を行うための処理、第2動作及び第3動作を行うための処理は省略されてもよい。 In the above process, if a predetermined time has passed after the third action, the player may return to the start without speaking. Further, the process for performing the third action and the processes for performing the second and third actions may be omitted.

以上のように構成された会議支援システム30によると、参加状態取得部であるカメラ58及びマイク59を通じて得られた複数の第1参加者10Aの参加状態に基づいて、複数の第1参加者10Aによるコミュニケーションの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定するため、会議において、発言するのに適したタイミングを見出せる。 According to the conference support system 30 configured as described above, based on the participation states of the first participants 10A obtained through the camera 58 and the microphone 59, which are the participation state acquisition unit, the plurality of first participants 10A Since it is determined whether or not it is time to speak based on the obtained ease of interruption, it is possible to find a suitable timing for speaking in a conference.

また、第2参加者10Bが予め発言予定内容を記憶部43に記憶させておけば、制御部40は、発言タイミングであると判定されたときに、その発言予定内容を、スピーカ68を通じて発言する。このため、第2参加者10Bは、予め発予定言内容を記録しておけば、適切なタイミングで発言することができる。 Further, if the second participant 10B stores the scheduled speech contents in the storage unit 43 in advance, the control unit 40 speaks the planned speech contents through the speaker 68 when it is determined that it is time to speak. . Therefore, the second participant 10B can speak at an appropriate timing by recording the content of the speech to be made in advance.

また、特に、第2参加者10Bは、通信回線70を通じて会議に参加するため、複数の第1参加者10Aの会議参加状態を観察し難い。このような状況においても、第2参加者10Bは、適切なタイミングで発言し易い。 In particular, since the second participant 10B participates in the conference through the communication line 70, it is difficult to observe the conference participation states of the first participants 10A. Even in such a situation, the second participant 10B is likely to speak at an appropriate timing.

また、制御部40は、複数の第1参加者10Aのそれぞれに設けられたカメラ58及びマイクからの出力に基づき、複数の第1参加者10Aのそれぞれの会議参加状態を把握し、各参加状態に基づいて遮りやすさを求め、発言タイミングであるか否かを判定する。このため、複数の第1参加者10Aのそれぞれの会議参加状態に基づいて、より適切に発言タイミングであるか否かを判定できる。 In addition, the control unit 40 grasps the conference participation status of each of the plurality of first participants 10A based on outputs from the cameras 58 and microphones provided for each of the plurality of first participants 10A, and determines each participation status. Then, it is determined whether or not it is time to speak. Therefore, it is possible to more appropriately determine whether or not it is time to speak based on the conference participation status of each of the plurality of first participants 10A.

また、発言タイミングで無いと判定されたときに、擬似会議参加装置である代理参加ロボット60に、遮りやすさ上げる第1動作を実行させる。このため、会議において、第2参加者10Bが発言し易くなる。 Also, when it is determined that it is not time to speak, the proxy participation robot 60, which is a pseudo-conference participation device, is made to perform the first action of increasing the ease of interruption. Therefore, it becomes easier for the second participant 10B to speak in the conference.

第1動作後、さらに、発言タイミングでは無いと判定されると、擬似会議参加装置である代理参加ロボット60に、遮りやすさ上げる第2動作を実行させる。このため、会議において、第2参加者10Bがより発言し易くなる。 After the first action, if it is determined that it is not time to speak, the proxy participation robot 60, which is a pseudo-conference participation device, is made to perform the second action of increasing the ease of interruption. Therefore, it becomes easier for the second participant 10B to speak in the conference.

また、第1動作実行後、さらに、発言タイミングで無いと判定されると、遮りやすさを上げるのにより効果的な第2動作を実行させるため、会議において、第2参加者10Bがより発言し易くなる。 Further, after the execution of the first action, if it is determined that it is not time to speak, the second participant 10B is allowed to speak more in the conference in order to execute the second action more effective in increasing the likelihood of interruption. becomes easier.

第1実施形態を前提として各種変形例について説明する。 Various modifications will be described on the premise of the first embodiment.

第1実施形態において、制御部40が第2参加者10Bの発言予定内容を記憶部43に記憶する代りに、又は、記憶する機能に加えて、発言タイミングであると判定されたときに、その旨を表示装置88に表示するようにしてもよい。この場合、第2参加者10Bは、当該表示を見て、マイク86に発言を行うようにしてもよい。その発言は、端末装置80、通信回線70を介して、代理参加ロボット60から発言されるようにするとよい。第2参加者10Bは、発言タイミングであるとの表示を見て、発言することができるため、適切なタイミングで発言することができる。特に、第1参加者10Aは、現実空間において互いの会議参加状態を観察可能な状態で会議を行っているのに対し、第2参加者10Bは、通信回線70を通じて会議に参加しているため、第1参加者10Aの会議参加状態を観察し難い。この場合でも、第2参加者10Bは、適切なタイミングで発言できるというメリットがある。 In the first embodiment, instead of or in addition to the function of storing the scheduled speech content of the second participant 10B in the storage unit 43, the control unit 40 determines that it is time to speak. A message to that effect may be displayed on the display device 88 . In this case, the second participant 10B may speak into the microphone 86 while viewing the display. It is preferable that the speech be made from the proxy participation robot 60 via the terminal device 80 and the communication line 70 . Since the second participant 10B can speak after seeing the indication that it is time to speak, the second participant 10B can speak at an appropriate timing. In particular, the first participant 10A is holding a conference in a state where they can observe each other's participation in the conference in the real space, while the second participant 10B is participating in the conference through the communication line 70. , it is difficult to observe the conference participation state of the first participant 10A. Even in this case, there is an advantage that the second participant 10B can speak at an appropriate timing.

上記例では、第2参加者10Bが一人である例で説明したが、第2参加者10Bは複数人存在していてもよい。 In the above example, an example in which there is one second participant 10B has been described, but there may be a plurality of second participants 10B.

上記例では、第1参加者10Aに参加状態取得部であるカメラ58及びマイク59を設けた例で説明したが、第2参加者10Bに参加状態取得部が設けられ、第1参加者10A及び第2参加者10Bの会議参加状態に基づいて、遮りやすさを求め、適切な発言タイミングであるか否かを判定してもよい。 In the above example, the first participant 10A is provided with the camera 58 and the microphone 59, which are the participation state acquisition unit, but the second participant 10B is provided with the participation state acquisition unit, Based on the conference participation state of the second participant 10B, it may be determined whether or not it is an appropriate speech timing by obtaining the degree of interruption.

また、上記例では、第2参加者10Bが通信回線70を通じて会議に参加している例で説明したが、第2参加者10Bは、現実空間で行われる会議場所において、第1参加者10Aと共に参加している者であってもよい。 Further, in the above example, the second participant 10B participates in the conference through the communication line 70, but the second participant 10B can participate in the conference in the real space together with the first participant 10A. It can be a participant.

また、上記例では、第2参加者10Bが発言予定内容を入力すると、発言意思有りと判定する例で説明したが、発言意思は、他の参加者からの発言賛成数が所定数を超えた場合に、発言意思有りと判定するようにしてもよい。例えば、第2参加者10Bが発言予定内容を文字情報として入力すると、当該発言予定内容が他の参加者の手元の端末装置に表示され、他の参加者が当該発言予定内容に賛同する場合には賛同する旨を入力する。そして、賛同数が所定数を超えると、発言意思有りと判定して、ステップS3以降の処理を実行するようにしてもよい。 Further, in the above example, when the second participant 10B enters the scheduled speech content, it is determined that there is an intention to speak. In this case, it may be determined that there is an intention to speak. For example, when the second participant 10B inputs the planned speech content as character information, the planned speech content is displayed on the terminal device at hand of the other participant, and when the other participant agrees with the planned speech content, enter that you agree. Then, when the number of approvals exceeds a predetermined number, it may be determined that there is an intention to speak, and the processing from step S3 onwards may be executed.

{第2実施形態}
第2実施形態に係る会議用ロボットについて説明する。なお、本実施の形態の説明において、第1実施形態で説明したものと同様構成要素については同一符号を付してその説明を省略する。図8は会議用ロボット130が適用された会議の様子を示す説明図であり、図9は同会議用ロボットの電気的構成を示すブロック図である。
{Second embodiment}
A conference robot according to the second embodiment will be described. In the description of the present embodiment, the same reference numerals are given to the same components as those described in the first embodiment, and the description thereof will be omitted. FIG. 8 is an explanatory diagram showing a conference to which the conference robot 130 is applied, and FIG. 9 is a block diagram showing the electrical configuration of the conference robot.

この会議用ロボット130が上記会議支援システム30と異なるのは、会議の前提として第2参加者10Bが存在せず、代りに、会議用ロボット130が自律的に会議用の発言を行う点である。 This conference robot 130 differs from the conference support system 30 in that the second participant 10B does not exist as a premise of the conference, and instead the conference robot 130 autonomously makes remarks for the conference. .

すなわち、会議用ロボット130は、上記代理参加ロボット60に代えて、会議に参加している。 That is, the conference robot 130 participates in the conference instead of the proxy participation robot 60 .

会議用ロボット130は、制御部140と、ロボット動作部167及び複数組のカメラ58及びマイク59とを備える。 The conference robot 130 includes a control unit 140 , a robot operating unit 167 and multiple sets of cameras 58 and microphones 59 .

複数組のカメラ58及びマイク59は、上記と同様に、複数の参加者(ここでは第1参加者10A)の会議参加状態を取得する参加状態取得部の一例である。 A plurality of sets of cameras 58 and microphones 59 is an example of a participation state acquisition unit that acquires conference participation states of a plurality of participants (here, the first participant 10A), as described above.

ロボット動作部167は、上記ロボット動作部67と同様に、ロボットとしての動作を行う。ここでは、ロボット動作部167は、スピーカ168及び腕駆動部169を含む。制御部140による制御下、ロボット動作部167は、スピーカ168を通じて音声を発することができる。また、腕駆動部169は、少なくとも1つの腕を上下に駆動するモータ等を含んでいる。腕駆動部169は、制御部140による制御下、会議用ロボット130の腕を上げ(挙手)たり、下げたりする動作を実行することができる。会議用ロボット130は、人型ロボットであってもよいし、その他の多関節ロボット等であってもよい。 The robot operation unit 167 performs the operation as a robot in the same manner as the robot operation unit 67 described above. Here, the robot action section 167 includes a speaker 168 and an arm drive section 169 . Under the control of the control unit 140 , the robot operation unit 167 can emit sound through the speaker 168 . The arm driving section 169 also includes a motor or the like for driving at least one arm up and down. Under the control of the control unit 140 , the arm driving unit 169 can raise (raise) or lower the arm of the conference robot 130 . The conference robot 130 may be a humanoid robot, or may be another articulated robot or the like.

制御部140は、複数組のカメラ58及びマイク59、ロボット動作部167に接続されており、複数組のカメラ58及びマイク59からの入力に基づいて、ロボット動作部167の動作制御を行う。特に、制御部140は、複数組のカメラ58及びマイク59で得られた複数の第1参加者10Aの会議参加状態に基づいて、複数の第1参加者10Aによるコミュニケーションの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定する。そして、発言タイミングであると判定されたときに、スピーカ68を通じた発言処理を実行する。 The control unit 140 is connected to the multiple sets of cameras 58 and microphones 59 and the robot operation unit 167 , and controls the operation of the robot operation unit 167 based on inputs from the multiple sets of cameras 58 and microphones 59 . In particular, the control unit 140 obtains the ease of interrupting communication by the plurality of first participants 10A based on the conference participation states of the plurality of first participants 10A obtained by the plurality of sets of cameras 58 and microphones 59, Whether or not it is time to speak is determined based on the obtained degree of obstruction. Then, when it is determined that it is time to speak, speech processing through the speaker 68 is executed.

制御部140が制御部40と異なる点は、本制御部140が会話プログラム140bを実行する点である。会話プログラム140bは、記憶部43に記憶されたプログラムであり、CPU41が当該会話プログラム140bに会話プログラム140bに記述された手順、及び、複数のマイク59からの入力等に基づいて、会話処理を実行する。会話プログラム140b自体は、複数人の第1参加者10Aの発言内容に基づいて、当該発言内容に関連した発言を発する処理等を行う周知のプログラムを含むプログラムを適用することができる。会話プログラム140bが発する発言内容は、発言タイミングであると判定される前に作成され、第1実施形態と同様に、発言予定記録部に記録されていてもよいし、発言タイミングであると判定されたときに、生成されてもよい。 The control unit 140 differs from the control unit 40 in that the main control unit 140 executes the conversation program 140b. The conversation program 140b is a program stored in the storage unit 43, and the CPU 41 executes conversation processing based on the procedures described in the conversation program 140b and the inputs from the plurality of microphones 59. do. For the conversation program 140b itself, a program including a well-known program that performs a process of issuing a statement related to the statement content based on the statement content of the plurality of first participants 10A can be applied. The content of the statement issued by the conversation program 140b may be created before it is determined that it is time to speak, and may be recorded in the statement schedule recording unit as in the first embodiment, or it may be determined that it is time to speak. may be generated when

この会議用ロボット130によると、自律的に会議用の発言を行う会議用ロボット130が、適したタイミングで、発言を行うことができる。その他、第2参加者10Bが発言を行うことによる効果を除き、上記第1実施形態と同様の作用効果を得ることができる。また、会議用ロボット130が会議用の発言を行うことで、会議を活発にすることができ、会議を支援することができる。 According to this conference robot 130, the conference robot 130, which autonomously makes a statement for a conference, can make a statement at an appropriate timing. In addition, except for the effect of the second participant 10B making a statement, it is possible to obtain the same effects as those of the first embodiment. In addition, the conference robot 130 can speak for the conference, making the conference lively and supporting the conference.

{変形例}
なお、上記各実施形態及び各変形例で説明した各構成は、相互に矛盾しない限り適宜組合わせることができる。例えば、第1実施形態と第2実施形態とが組合わされ、複数の第1参加者に加えて、第2参加者10B及び会議用ロボット130の両方が会議に参加してもよい。
{Modification}
In addition, each configuration described in each of the above-described embodiments and modifications can be appropriately combined as long as they do not contradict each other. For example, the first embodiment and the second embodiment may be combined so that both the second participant 10B and the conference robot 130 participate in the conference in addition to the plurality of first participants.

以上のようにこの発明は詳細に説明されたが、上記した説明は、すべての局面において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。 Although the present invention has been described in detail as above, the above description is illustrative in all aspects, and the present invention is not limited thereto. It is understood that numerous variations not illustrated can be envisioned without departing from the scope of the invention.

10A 第1参加者
10B 第2参加者
30 会議支援システム
40、140 制御部
43a プログラム
43c 音声データ
45 通信回路
46 ロボット制御入出力部
58 カメラ
59 マイク
60 代理参加ロボット
67、167 ロボット動作部
68、168 スピーカ
69、169 腕駆動部
70 通信回線
80 端末装置
86 マイク
130 会議用ロボット
140b 会話プログラム
10A first participant 10B second participant 30 conference support system 40, 140 control unit 43a program 43c voice data 45 communication circuit 46 robot control input/output unit 58 camera 59 microphone 60 proxy participation robot 67, 167 robot operation unit 68, 168 Speakers 69, 169 Arm drive unit 70 Communication line 80 Terminal device 86 Microphone 130 Conference robot 140b Conversation program

Claims (11)

複数の参加者による会議に用いられる会議支援システムであって、
前記複数の参加者の会議参加状態を取得する参加状態取得部と、
前記参加状態取得部で得られた前記複数の参加者の会議参加状態に基づいて、前記複数の参加者によるコミュニケーションの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定する制御部と、
を備え
前記制御部は、発言予定内容を記録する発言予定記録部を含み、発言タイミングであると判定されたときに、前記発言予定記録部に記録された発言予定内容を、スピーカを通じて発言する、会議支援システム。
A conference support system used in a conference by a plurality of participants,
a participation state acquisition unit that acquires the conference participation states of the plurality of participants;
Based on the conference participation states of the plurality of participants obtained by the participation state acquisition unit, the likelihood of interrupting communication by the plurality of participants is obtained, and whether it is time to speak based on the obtained likelihood of interruption. A control unit that determines whether
with
The control unit includes an utterance schedule recording unit that records utterance schedule contents, and when it is determined that it is time to utter, the utterance schedule contents recorded in the utterance schedule recording unit are said through a speaker. system.
請求項1記載の会議支援システムであって、
前記制御部は、前記複数の参加者のうちの少なくとも一人の参加者の発言予定内容を前記発言予定記録部に記録する、会議支援システム。
The meeting support system according to claim 1 ,
The conference support system, wherein the control section records, in the speech schedule recording section, speech schedule contents of at least one participant among the plurality of participants.
請求項2記載の会議支援システムであって、
前記複数の参加者が、現実空間において互いの会議参加状態を観察可能な状態で会議を行う複数の第1参加者と、通信回線を介して会議に参加する第2参加者とを含み、
前記制御部は、前記第2参加者の発言予定内容を前記発言予定記録部に記録する、会議支援システム。
The conference support system according to claim 2 ,
The plurality of participants includes a plurality of first participants who hold a conference in a state in which each other's conference participation status can be observed in real space, and a second participant who participates in the conference via a communication line,
The conference support system, wherein the control section records the speech schedule content of the second participant in the speech schedule recording section.
請求項1から請求項3のいずれか1つに記載の会議支援システムであって、
前記参加状態取得部は、前記複数の参加者のそれぞれの会議参加状態を取得する複数の個別参加状態取得部を含み、
前記制御部は、前記複数の個別参加状態取得部で得られた前記複数の参加者の会議参加状態に基づいて、前記複数の参加者それぞれの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定する、会議支援システム。
The conference support system according to any one of claims 1 to 3 ,
The participation state acquisition unit includes a plurality of individual participation state acquisition units that acquire the conference participation state of each of the plurality of participants,
The control unit obtains the ease of interruption for each of the plurality of participants based on the conference participation states of the plurality of participants obtained by the plurality of individual participation state acquisition units. A conference support system that determines whether or not it is time to speak based on the
複数の参加者による会議に用いられる会議支援システムであって、
前記複数の参加者の会議参加状態を取得する参加状態取得部と、
前記参加状態取得部で得られた前記複数の参加者の会議参加状態に基づいて、前記複数の参加者によるコミュニケーションの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定する制御部と、
前記複数の参加者のうちの少なくとも一人の参加者による発言の意思指令を取得する発言指令受付部と、
前記会議が行われる現実空間において、会議への参加動作が可能な擬似会議参加装置と、
を備え、
前記制御部は、発言の意思指令取得後、発言タイミングで無いと判定されると、前記擬似会議参加装置に、遮りやすさを上げる第1動作を実行させる、会議支援システム。
A conference support system used in a conference by a plurality of participants,
a participation state acquisition unit that acquires the conference participation states of the plurality of participants;
Based on the conference participation states of the plurality of participants obtained by the participation state acquisition unit, the likelihood of interrupting communication by the plurality of participants is obtained, and whether it is time to speak based on the obtained likelihood of interruption. A control unit that determines whether
a speech command reception unit that acquires a speech command by at least one of the plurality of participants;
a virtual conference participation device capable of participating in a conference in the real space where the conference is held;
with
The conference support system, wherein the control unit causes the pseudo-conference participation device to perform a first operation to increase the likelihood of interruption when it is determined that it is not the time to speak after obtaining an intention command to speak.
請求項5記載の会議支援システムであって、
前記制御部は、前記第1動作実行後、さらに発言タイミングで無いと判定されると、前記擬似会議参加装置に、遮りやすさを上げる第2動作を実行させる、会議支援システム。
The meeting support system according to claim 5 ,
The conference support system, wherein, after executing the first operation, the control unit causes the pseudo-conference participation device to execute a second operation to increase the likelihood of interruption when it is determined that it is not time to speak.
請求項6記載の会議支援システムであって、
前記第2動作は、前記第1動作よりも遮りやすさを上げるのに効果的な動作である、会議支援システム。
The meeting support system according to claim 6 ,
The conference support system, wherein the second motion is a motion more effective than the first motion in increasing the likelihood of interruption.
複数の参加者による会議に参加する会議用ロボットであって、
前記複数の参加者の会議参加状態が入力される参加状態入力部と、
前記参加状態入力部より入力された前記複数の参加者の会議参加状態に基づいて、前記複数の参加者によるコミュニケーションの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定し、発言タイミングであると判定されたときに、スピーカを通じた発言処理を実行する制御部と、
ロボットとしての動作を実行するロボット動作部と、
を備え、
前記制御部は、発生すべき発言予定内容が生じた後、発言タイミングで無いと判定されると、前記ロボット動作部に、遮りやすさを上げる第1動作を実行させる、会議用ロボット。
A conference robot that participates in a conference with a plurality of participants,
a participation state input unit for inputting conference participation states of the plurality of participants;
Based on the conference participation states of the plurality of participants input from the participation state input unit, the likelihood of interrupting communication by the plurality of participants is obtained, and whether it is time to speak based on the obtained likelihood of interruption. a control unit that determines whether or not, and executes processing for speaking through a speaker when it is determined that it is time to speak;
a robot action unit that performs actions as a robot;
with
The robot for conference, wherein the control unit causes the robot action unit to perform a first action to increase the likelihood of interruption when it is determined that it is not the timing to speak after the expected speech content to be generated occurs.
請求項8記載の会議用ロボットであって、
前記参加状態入力部には、前記複数の参加者のそれぞれの会議参加状態が入力され、
前記制御部は、前記複数の参加者それぞれの会議参加状態に基づいて、前記複数の参加者それぞれの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定する、会議用ロボット。
A conference robot according to claim 8 ,
the conference participation state of each of the plurality of participants is input to the participation state input unit;
The control unit obtains the likelihood of interruption for each of the plurality of participants based on the conference participation status of each of the plurality of participants, and determines whether or not it is time to speak based on the obtained likelihood of interruption. A conference robot.
請求項8又は請求項9記載の会議用ロボットであって、
前記制御部は、前記第1動作実行後、さらに、発言タイミングで無いと判定されると、前記ロボット動作部に、遮りやすさを上げる第2動作を実行させる、会議用ロボット。
The conference robot according to claim 8 or 9 ,
The conference robot, wherein, after the execution of the first action, the control section causes the robot action section to perform a second action that increases the likelihood of interruption when it is determined that it is not time to speak.
請求項10記載の会議用ロボットであって、
前記第2動作は、前記第1動作よりも遮りやすさを上げるのに効果的な動作である、会議用ロボット。
A conference robot according to claim 10 ,
The conference robot, wherein the second action is more effective than the first action in increasing the likelihood of interruption.
JP2018221283A 2018-11-27 2018-11-27 Conference support system and conference robot Active JP7286303B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018221283A JP7286303B2 (en) 2018-11-27 2018-11-27 Conference support system and conference robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018221283A JP7286303B2 (en) 2018-11-27 2018-11-27 Conference support system and conference robot

Publications (2)

Publication Number Publication Date
JP2020088637A JP2020088637A (en) 2020-06-04
JP7286303B2 true JP7286303B2 (en) 2023-06-05

Family

ID=70910171

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018221283A Active JP7286303B2 (en) 2018-11-27 2018-11-27 Conference support system and conference robot

Country Status (1)

Country Link
JP (1) JP7286303B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111736694B (en) * 2020-06-11 2024-03-05 上海境腾信息科技有限公司 Holographic presentation method, storage medium and system for teleconference

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040179714A1 (en) 2003-03-11 2004-09-16 Jouppi Norman Paul Telepresence system with simultaneous automatic preservation of user height, perspective, and vertical gaze
JP2006304160A (en) 2005-04-25 2006-11-02 Fuji Xerox Co Ltd Electronic conference control program, method, and electronic conference system
JP2012146072A (en) 2011-01-11 2012-08-02 Nippon Telegr & Teleph Corp <Ntt> Next speaker guidance system, next speaker guidance method and next speaker guidance program
JP2017123027A (en) 2016-01-06 2017-07-13 日本電信電話株式会社 Conversation support system, conversation support device, and conversation support program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040179714A1 (en) 2003-03-11 2004-09-16 Jouppi Norman Paul Telepresence system with simultaneous automatic preservation of user height, perspective, and vertical gaze
JP2006304160A (en) 2005-04-25 2006-11-02 Fuji Xerox Co Ltd Electronic conference control program, method, and electronic conference system
JP2012146072A (en) 2011-01-11 2012-08-02 Nippon Telegr & Teleph Corp <Ntt> Next speaker guidance system, next speaker guidance method and next speaker guidance program
JP2017123027A (en) 2016-01-06 2017-07-13 日本電信電話株式会社 Conversation support system, conversation support device, and conversation support program

Also Published As

Publication number Publication date
JP2020088637A (en) 2020-06-04

Similar Documents

Publication Publication Date Title
US20220254343A1 (en) System and method for intelligent initiation of a man-machine dialogue based on multi-modal sensory inputs
US11017779B2 (en) System and method for speech understanding via integrated audio and visual based speech recognition
US11468894B2 (en) System and method for personalizing dialogue based on user&#39;s appearances
US11151997B2 (en) Dialog system, dialog method, dialog apparatus and program
US11024294B2 (en) System and method for dialogue management
US20190371318A1 (en) System and method for adaptive detection of spoken language via multiple speech models
US20190206402A1 (en) System and Method for Artificial Intelligence Driven Automated Companion
US11003860B2 (en) System and method for learning preferences in dialogue personalization
US11183187B2 (en) Dialog method, dialog system, dialog apparatus and program that gives impression that dialog system understands content of dialog
US11200902B2 (en) System and method for disambiguating a source of sound based on detected lip movement
JP4622384B2 (en) ROBOT, ROBOT CONTROL DEVICE, ROBOT CONTROL METHOD, AND ROBOT CONTROL PROGRAM
JP7286303B2 (en) Conference support system and conference robot
JP6874437B2 (en) Communication robots, programs and systems
JP2007030050A (en) Robot control device, robot control system, robot device and robot control method
JPWO2017200077A1 (en) Dialogue method, dialogue system, dialogue apparatus, and program
WO2021064947A1 (en) Interaction method, interaction system, interaction device, and program
JP2018081147A (en) Communication device, server, control method and information processing program
JP7218816B2 (en) DIALOGUE METHOD, DIALOGUE SYSTEM, DIALOGUE DEVICE, AND PROGRAM
WO2024084855A1 (en) Remote conversation assisting method, remote conversation assisting device, remote conversation system, and program
JP2023147481A (en) Information processing apparatus, information processing system, control program, and control method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181213

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230524

R150 Certificate of patent or registration of utility model

Ref document number: 7286303

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150