JP2020088637A - 会議支援システム及び会議用ロボット - Google Patents

会議支援システム及び会議用ロボット Download PDF

Info

Publication number
JP2020088637A
JP2020088637A JP2018221283A JP2018221283A JP2020088637A JP 2020088637 A JP2020088637 A JP 2020088637A JP 2018221283 A JP2018221283 A JP 2018221283A JP 2018221283 A JP2018221283 A JP 2018221283A JP 2020088637 A JP2020088637 A JP 2020088637A
Authority
JP
Japan
Prior art keywords
conference
participants
robot
participation
utterance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018221283A
Other languages
English (en)
Other versions
JP7286303B2 (ja
Inventor
博之 関川
Hiroyuki Sekikawa
博之 関川
貴志 新居
Takashi Arai
貴志 新居
春夫 福山
Haruo Fukuyama
春夫 福山
雄一郎 吉川
Yuichiro Yoshikawa
雄一郎 吉川
オスカー パリンコ
Palinko Oskar
オスカー パリンコ
浩平 小川
Kohei Ogawa
浩平 小川
石黒 浩
Hiroshi Ishiguro
浩 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Osaka University NUC
Itoki Corp
Original Assignee
Osaka University NUC
Itoki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Osaka University NUC, Itoki Corp filed Critical Osaka University NUC
Priority to JP2018221283A priority Critical patent/JP7286303B2/ja
Publication of JP2020088637A publication Critical patent/JP2020088637A/ja
Application granted granted Critical
Publication of JP7286303B2 publication Critical patent/JP7286303B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)

Abstract

【課題】会議において、言葉を発するのに適したタイミングを見出せるようにすることを目的とする。【解決手段】複数の参加者による会議に用いられる会議支援システムであって、前記複数の参加者の会議参加状態を取得する参加状態取得部と、前記参加状態取得部で得られた前記複数の参加者の会議参加状態に基づいて、前記複数の参加者によるコミュニケーションの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定する制御部とを備える。【選択図】図7

Description

この発明は、会議コミュニケーションを支援する技術に関する。
特許文献1は、ユーザの見ている向きとユーザの移動方向とに基づいて、案内をするか否かを判断する案内ロボット制御システムを開示している。
特開2017−159410号公報
特許文献1に開示の技術は、ユーザが案内を欲している場合に行う行動を利用して、案内をするか否かを判断している。
しかしながら、複数人が参加する会議では、そのような行動を期待できない。会議においては、会議の進行中におけるコミュニケーションを遮ることの適否を判断して、言葉を発するタイミングを決定する必要がある。
そこで、本発明は、会議において、言葉を発するのに適したタイミングを見出せるようにすることを目的とする。
上記課題を解決するため,第1の態様に係る会議支援システムは、複数の参加者による会議に用いられる会議支援システムであって、前記複数の参加者の会議参加状態を取得する参加状態取得部と、前記参加状態取得部で得られた前記複数の参加者の会議参加状態に基づいて、前記複数の参加者によるコミュニケーションの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定する制御部と、を備える。
第2の態様は、第1の態様に係る会議支援システムであって、前記制御部は、発言予定内容を記録する発言予定記録部を含み、発言タイミングであると判定されたときに、前記発言予定記録部に記録された発言予定内容を、スピーカを通じて発言するものである。
第3の態様は、第2の態様に係る会議支援システムであって、前記制御部は、前記複数の参加者のうちの少なくとも一人の参加者の発言予定内容を前記発言予定記録部に記録する。
第4の態様は、第3の態様に係る会議支援システムであって、前記複数の参加者が、現実空間において互いの会議参加状態を観察可能な状態で会議を行う複数の第1参加者と、通信回線を介して会議に参加する第2参加者とを含み、前記制御部は、前記第2参加者の発言予定内容を前記発言予定記録部に記録するものである。
第5の態様は、第1から第4のいずれか1つの態様に係る会議支援システムであって、前記参加状態取得部は、前記複数の参加者のそれぞれの会議参加状態を取得する複数の個別参加状態取得部を含み、前記制御部は、前記複数の個別参加状態取得部で得られた前記複数の参加者の会議参加状態に基づいて、前記複数の参加者それぞれの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定するものである。
第6の態様は、第1から第5のいずれか1つの態様に係る会議支援システムであって、前記複数の参加者のうちの少なくとも一人の参加者による発言の意思指令を取得する発言指令受付部と、前記会議が行われる現実空間において、会議への参加動作が可能な擬似会議参加装置と、をさらに備え、前記制御部は、発言の意思指令取得後、発言タイミングで無いと判定されると、前記擬似会議参加装置に、遮りやすさを上げる第1動作を実行させるものである。
第7の態様は、第6の態様に係る会議支援システムであって、前記制御部は、前記第1動作実行後、さらに発言タイミングで無いと判定されると、前記擬似会議参加装置に、遮りやすさを上げる第2動作を実行させるものである。
第8の態様は、第7の態様に係る会議支援システムであって、前記第2動作は、前記第1動作よりも遮りやすさを上げるのに効果的な動作とされている。
上記課題を解決するため、第9の態様に係る会議用ロボットは、複数の参加者による会議に参加する会議用ロボットであって、前記複数の参加者の会議参加状態が入力される参加状態入力部と、前記参加状態入力部より入力された前記複数の参加者の会議参加状態に基づいて、前記複数の参加者によるコミュニケーションの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定し、発言タイミングであると判定されたときに、スピーカを通じた発言処理を実行する制御部と、を備える。
第10の態様は、第9の態様に係る会議用ロボットであって、前記参加状態入力部には、前記複数の参加者のそれぞれの会議参加状態が入力され、前記制御部は、前記複数の参加者それぞれの会議参加状態に基づいて、前記複数の参加者それぞれの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定するものである。
第11の態様は、第9又は第10の態様に係る会議用ロボットであって、ロボットとしての動作を実行するロボット動作部をさらに備え、前記制御部は、発生すべき発言予定内容が生じた後、発言タイミングで無いと判定されると、前記ロボット動作部に、遮りやすさを上げる第1動作を実行させるものである。
第12の態様は、第11の態様に係る会議用ロボットであって、前記制御部は、前記第1動作実行後、さらに、発言タイミングで無いと判定されると、前記ロボット動作部に、遮りやすさを上げる第2動作を実行させるものである。
第13の態様は、第12の態様に係る会議用ロボットであって、前記第2動作は、前記第1動作よりも遮りやすさを上げるのに効果的な動作とされている。
第1の態様によると、参加状態取得部で得られた複数の参加者の会議参加状態に基づいて、複数の参加者によるコミュニケーションの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定するため、会議において、発言するのに適したタイミングを見出せる。
第2の態様によると、予め発言予定内容を記録しておけば、適切なタイミングで発言することができる。
第3の態様によると、会議の参加者は、予め発言予定内容を記録しておけば、適切なタイミングで発言することができる。
第4の態様によると、通信回線を介して会議に参加する第2参加者は、複数の第1参加者の会議参加状態を観察し難い。そこで、第2参加者の発言予定内容を発言予定記録部に記録しておくことで、第2参加者は、予め発言予定内容を記録しておけば、適切なタイミングで発言することができる。
第5の態様によると、複数の参加者それぞれの会議参加状態に基づいて、より適切に発言タイミングであるか否かを判定できる。
第6の態様によると、発言タイミングで無いと判定されたときに、前記擬似会議参加装置に、遮りやすさを上げる第1動作を実行させるため、会議において、発言し易くなる。
第7の態様によると、さらに、発言タイミングで無いと判定されると、前記擬似会議参加装置に、遮りやすさを上げる第2動作を実行させるため、会議において、発言し易くなる。
第8の態様によると、さらに、第1動作実行後、さらに、発言タイミングで無いと判定されると、遮りやすさを上げるのにより効果的な第2動作を実行させるため、会議において、発言し易くなる。
第9の態様によると、参加状態入力部より入力された前記複数の参加者の会議参加状態に基づいて、複数の参加者によるコミュニケーションの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定するため、ロボットは、会議において、適したタイミングで発言することができる。
第10の態様によると、複数の参加者それぞれの会議参加状態に基づいて、より適切に発言タイミングであるか否かを判定できる。
第11の態様によると、発言タイミングで無いと判定されると、前記ロボット動作部に、遮りやすさを上げる第1動作を実行させるため、会議において、発言し易くなる。
第12の態様によると、第1動作実行後、さらに、発言タイミングで無いと判定されると、前記ロボット動作部に、遮りやすさを上げる第2動作を実行させるため、会議において、発言し易くなる。
第13の態様によると、第1動作実行後、さらに、発言タイミングで無いと判定されると、遮りやすさを上げるのにより効果的な第2動作を実行させるため、会議において、音声を発し易くなる。
第1実施形態に係る会議支援システムが適用された会議の様子を示す説明図である。 代理参加ロボットの動作例を示す説明図である。 カメラによる撮像例を示す説明図である。 会議支援システムの電気的構成を示すブロック図である。 学習済モデルの一例を示す図である。 学習中モデルの一例を示す図である。 制御部の動作例を示すフローチャートである。 第2実施形態に係る会議用ロボットが適用された会議の様子を示す説明図である。 同上の会議用ロボットの電気的構成を示すブロック図である。
{第1実施形態}
以下、第1実施形態に係る会議支援システムについて説明する。図1は会議支援システム30が適用された会議の様子を示す説明図である。
会議支援システム30は、複数人の参加者10A、10Bによる会議に用いられる。複数の参加者10A、10Bは、会議に参加して何らかの発言を行ったり、他者の発言を聞いたりする主体である。参加者10A、10Bは、同一の会議場所に存在していてもよいし、複数の場所に分散して存在していてもよい。
図1では、会議室20に複数人(5人)の第1参加者10Aが存在しており、会議室20から離れた場所に第2参加者10Bが存在している例が示されている。つまり、現実空間において互いの会議参加状態を観察可能な状態で複数の第1参加者10Aが会議を行う。会議室20には、擬似開始参加装置として代理参加ロボット60が存在している。第2参加者10Bは、通信回線70及び代理参加ロボット60を通じて会議室20内における複数人の第1参加者10Aの会議に参加することができる。
会議室20には、会議机22が置かれ、その周りに椅子24が複数設けられている。複数人の第1参加者10A及び代理参加ロボット60は、各椅子24に着席している。
代理参加ロボット60は、第2参加者10Bの代理として、会議への参加行為を実行できるロボットである。例えば、図2に示すように、代理参加ロボット60は、内蔵されたスピーカ等を通じて、会議室20において発言する行為(図2では、“Excuse me.”(すみません)と発言)を実行できる。また、代理参加ロボット60は、発言行為以外にも、会議中に行うことのある動作(図2では挙手する行為が例示)を実行できる。このため、第2参加者10Bが代理参加ロボット60を通じて円滑に会議に参加することができる。代理参加ロボット60には、後述する制御部40が組込まれている。
図1に戻って、各第1参加者10Aに対応してカメラ58及びマイク59が設けられている。カメラ58及びマイク59は、第1参加者10Aの会議参加状態を動画データとして取得するために用いられる。例えば、マイク59は、第1参加者の10Aの発言を音声データとして取得するために用いられる。カメラ58は、第1参加者10Aの動作を取得するために用いられる。例えば、カメラ58によって、図3に示すように、第1参加者10Aの視線の動き(矢符P1参照)、第1参加者10Aの顔の傾き(矢符P2参照、頷き、首振り動作等)等を撮像することができる。カメラ58及びマイク59は、制御部40に接続されている。
第2参加者10Bは、机22B前に設けられた椅子24Bに着席している。第2参加者10B前には、マイク86、スピーカ87及び表示装置88が設けられている。マイク86には、第1参加者10Aの音声が入力される。会議室20における会議の様子は、表示装置88に表示され、また、会議における発言は、スピーカ87を通じて再生される。これらのマイク86、スピーカ87及び表示装置88は、端末装置80に接続されている。
上記代理参加ロボット60及び端末装置80は、通信回線70を介して相互通信可能に接続される。通信回線70は、有線式であっても無線式であってもよい。また、通信回線70は、公衆通信網であっても専用回線であってもよい。
代理参加ロボット60は、参加状態取得部としての各カメラ58及び各マイク59で得られた複数の第1参加者10Aの会議参加状態に基づいて、複数の参加者10Aによるコミュニケーション(会議)への遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定する制御部40(後述)を備えている。そして、発言タイミングであると判定されたときに、第2参加者10Bは、代理参加ロボット60を介して、会議室20における会議に参加することができる。
図4は会議支援システム30の電気的構成を示すブロック図である。
会議支援システム30は、会議室20に設けられた制御部40、代理参加ロボット60及び複数組のカメラ58及びマイク59と、会議室20から離れた位置に設けられた端末装置80、マイク86、スピーカ87及び表示装置88とを備える。制御部40と端末装置80とは、通信回線70を通じて相互通信可能に接続されている。
複数組のカメラ58及びマイク59は、複数の参加者(ここでは第1参加者10A)の会議参加状態を取得する参加状態取得部の一例である。ここでは、カメラ58及びマイク59の組は、各第1参加者10Aに対応して設けられている。このため、各組のカメラ58及びマイク59は、複数の第1参加者10Aのそれぞれの会議参加状態を取得する個別参加状態取得部の一例である。カメラ58は、対応する第1参加者10Aのうち顔面を含む部分、ここでは、上半身を撮像する。これにより、カメラ58は、第1参加者10Aの視線の動き、顔の傾きを撮像することができる。マイク59は、主として対応する第1参加者10Aの発言による音を電気信号に変換する。マイク59は、周りの参加者等の音を電気信号に変換してもよい。もっとも、マイク59では、周りの参加者等の音は小さくなり、その影響は少ない。
参加状態取得部は、各第1参加者に対応して設けられることは必須ではない。複数の参加者の全体に対して1つの参加状態取得部が設けられていてもよい。この場合、カメラは、複数の参加者全体を撮像可能に設けられるとよい。また、マイクは、複数の参加者全体の会話による音を電気信号に変換可能に設けられるとよい。また、複数の参加者が複数のグループに分けられ、各グループに対して1つの参加状態取得部が設けられていてもよい。第2参加者に対しても参加状態取得部が設けられていてもよい。
代理参加ロボット60は、上記したように、第2参加者10Bの代理として、会議への参加行為を実行できるロボットである。ここでは、代理参加ロボット60は、ロボットとしての動作を行うロボット動作部67を含む。ここでは、ロボット動作部67は、スピーカ68及び腕駆動部69を含む。制御部40による制御下、代理参加ロボット60は、スピーカ68を通じて音声を発することができる。また、腕駆動部69は、少なくとも1つの腕を上下に駆動するモータ等を含んでいる。腕駆動部69は、制御部40による制御下、代理参加ロボット60の腕を上げ(挙手)たり、下げたりする動作を実行することができる。代理参加ロボット60は、人型ロボットであってもよいし、その他の多関節ロボット等であってもよい。代理参加ロボット60が人型ロボットであれば、第2参加者10Bが代理参加ロボット60を通じて会議に参加する行為が、第1参加者10Aに対して違和感を与え難い。このため、円滑な会議の進行を期待できる。
代理参加ロボット60は、会議が行われる現実空間において、会議への参加動作が可能な擬似会議参加装置の一例である。会議への参加動作としては、会議において発言予定内容があることを示す動作、発言する動作、賛否を示す動作等が想定される。これらの動作は、スピーカを通じた発言、ロボットによる行動の他、表示装置による表示動作によっても実現可能である。このため、会議への参加動作が可能な擬似会議参加装置としては、何らかの行動が可能なロボットの他、音声を発するスピーカ、発言予定内容の有無、発言内容、賛否等を表示可能な表示装置等が用いられてもよい。
制御部40は、複数組のカメラ58及びマイク59で得られた複数の第1参加者10Aの会議参加状態に基づいて、複数の第1参加者10Aによるコミュニケーションの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定する。ここでは、制御部40は、少なくとも1つのプロセッサとしてのCPU(Central Processing Unit)41、RAM(Random Access Memory)42、記憶部43、入出力部44,通信回路45及びロボット制御入出力部46等がバスライン48を介して相互接続されたコンピュータによって構成されている。
記憶部43は、フラッシュメモリ、あるいは、ハードディスク装置等の不揮発性の記憶装置によって構成されている。記憶部43には、複数組のカメラ58及びマイク59で得られた複数の第1参加者10Aの会議参加状態に基づいて、複数の第1参加者10Aによるコミュニケーションの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定するプログラム43aが格納されている。ここでは、プログラム43aは、後述する学習済モデル49を含んでおり、当該学習済モデル49に基づいて、複数組のカメラ58及びマイク59で得られた複数の第1参加者10Aの会議参加状態に基づいて、複数の第1参加者10Aによるコミュニケーションの遮りやすさを求める処理プログラムを含む。また、プログラム43aは、第2参加者10Bの発言を音声データ43cとして記憶部43に格納する処理、及び、発言タイミングであると判定されたときに、ロボット動作部67を駆動制御する処理を実行するためのプログラムをも含む。つまり、制御部40は、複数の参加者10A、10Bのうちの少なくとも一人の第2参加者10Bの発言予定内容を記録する発言予定記録部として記憶部43を含む。プログラム43aによる処理例については後述する。
RAM42は、CPU41が所定の処理を行う際の作業領域として供される。入出力部44は、複数組のカメラ58及びマイク59に接続されており、当該カメラ58及びマイク59からの信号が入出力部44を介して本制御部40に入力される。制御部40と複数組のカメラ58及びマイク59とは、有線通信可能に接続されていてもよいし、無線通信可能に接続されていてもよい。通信回路45は、通信回線70を通じて端末装置80に相互通信可能に接続される。ロボット制御入出力部46は、ロボット動作部67にロボット動作部67の動作制御可能に接続されている。このため、本制御部40は、ロボット動作部67を動作制御することができる。
この制御部40では、プログラム43aに記述された手順、端末装置80を通じて入力される第2参加者10Bの発言に関する動作、複数組のカメラ58及びマイク59からの入力等に従って、CPU41が、演算処理を行うことにより、ロボット動作部67の制御を行う機能を実行する。
本例では、制御部40は、代理参加ロボット60に組込まれている。制御部40は、代理参加ロボット60外に設けられていてもよい。
なお、上記プログラム43aは、予め記憶部43に格納されているものであるが、CD−ROMあるいはDVD−ROM、外部のフラッシュメモリ等の記録媒体に記録された形態で、あるいは、ネットワークを介した外部サーバからのダウンロードなどにより、既存のコンピュータに提供されることもあり得る。
なお、上記制御部40において実現される各機能の一部又は全部は、1つのプロセッサによって処理されてもよいし、複数のプロセッサによって適宜分散して処理されてもよい。上記制御部40において実現される各機能の一部又は全部は、第2参加者10B側の端末装置等、会議室外のコンピュータによって実現されてもよい。
端末装置80は、上記制御部40と同様に、少なくとも1つのプロセッサとしてのCPU、RAM42、記憶部、入出力部,通信回路等を備えるコンピュータによって構成されている。端末装置80は、第2参加者10B側に設けられている。端末装置80は、通信回線70を通じて制御部40に相互通信可能に接続されている。
マイク86は、第2参加者10Bの発言による音を電気信号として変換可能な位置に設けられている。スピーカ87は、第2参加者10Bに対して音を提供可能な位置に設けられ、表示装置88は第2参加者10Bに対して表示内容を提供可能な位置に設けられている。マイク86、スピーカ87及び表示装置88は、端末装置80に接続されている。
そして、第2参加者10Bによる発言がマイク86を通じて取得し、この発言に基づく音声データが端末装置80から通信回線70を通じて制御部40に送信される。また、例えば、上記複数組のカメラ58及びマイク59を通じて得られた各第1参加者10Aの発言及び動画データが、制御部40から通信回線70を介して端末装置80に送信され、各発言がスピーカ87を通じて再生され、また、各第1参加者10Aの動画データが表示装置88に表示される。第2参加者10Bが所定の発言を行いたい場合に、発言すると、その発言予定内容はマイク86にて取得される。この発言予定内容は、そのまま会議室において再生されるのではなく、第2参加者10Bによる発言の意思指令として取得され、後述する発言タイミングで、代理参加ロボット60を通じて発言される。この点において、マイク86は、第2参加者10Bによる発言の意思指令を取得する発言指令受付部として機能する。発言指令受付部は、その他のスイッチ、例えば、キーボード等であってもよいし、発言専用のスイッチであってもよい。
図5は学習済モデル49の一例を示す図である。学習済モデル49は、機械学習により生成されたモデルであり、上記コンピュータの一種である制御部40において用いられる。学習済モデル49は、特徴量抽出部49aと、識別層49bとを含む。
特徴量抽出部49aは、入力データである音声データ及び動画データから特徴量を抽出する。例えば、音声データは、上記マイク59を通じて取得され、動画データは、上記カメラ58を通じて取得される。音声データ43cからは、例えば、特徴量として音量が抽出される。動画データからは、例えば、特徴量として、視線(目)の動き及び顔の傾き抽出される。識別層49bは、パーセプトロンを複数層組合わせた周知の多層ニューラルネットワークによって構成されている。
学習済モデル49は、図6に示すように、模擬的又は実際におこなわれた会議において、いずれかの第1参加者10Aに応じた入力データ(所定時間における音声データ、動画データ)に対し、コミュニケーションを遮りやすいタイミングとしての適否かを区別した複数の学習用データに基づき学習された学習済モデルである。かかる学習用モデルは、例えば、本モデルの設計者が会議又は会議の入力データを実際に見聞き等してコミュニケーションを遮りやすいタイミングか否かを判別すること、又は、第1参加者10Aが実際に発言したか否かを判別することによって、生成可能である。
そして、図5に示すように、制御部40のCPU41が、プログラム43aの指示に従って、いずれかの第1参加者10Aに応じた入力データ(音声データ、動画データ)に対し、識別層49bにおける学習済の重み係数と応答関数等に基づく演算を行うことによって、識別層49bの出力として、コミュニケーションの遮りやすさを示す結果を出力することができる。コミュニケーションを遮り易いときに出力1を出力し、コミュニケーションを遮り難いときに出力2を出力してもよい。あるいは、コミュニケーションを遮り易さを数値化した指標値(適合度)を出力1に出力し、コミュニケーションを遮り難さを数値化した指標値(適合度)を出力2に出力してもよい。ここでは、前者であるとして説明する。
コミュニケーションの遮りやすさを求めるにあたって機械学習を適用する際、その手法はニューラルネットワークに限られず、他の手法、例えば、サポートベクターマシン等を適用してもよい。コミュニケーションの遮りやすさを求めるにあたって機械学習を適用することは必須ではなく、例えば、マイク59の音量、動画データに基づく目の動き、顔の動きを数値化し、数値化された各値に基づいて所定の条件式を事前に設定し、当該条件式に基づいてコミュニケーションの遮りやすさを求めてもよい。また、目の動き、顔の動き等から、参加者がスマートフォンを見たか否か、資料を見たか否か等を判別し、その判別結果に基づいて、コミュニケーションの遮りやすさを求めてもよい。例えば、スマートフォンを見た場合、資料を見た場合は、会議のコミュニケーションを遮りやすさは高いといえる。
制御部40は、学習済モデル49の出力に基づいて発言タイミングであるか否かを判定する。学習済モデル49から選択的に出力1及び出力2が出力される場合には、当該出力に従えばよい。出力1又は出力2から多段階に数値化された指標値が出力される場合には、当該指標値を、事前に設定された閾値と比較して、発言タイミングであるか否かを判定してもよい。例えば、出力1からコミュニケーションの遮りやすさを数値化した指標値が出力される場合、当該指標値が閾値以上となる場合又は閾値を超える場合に、発言タイミングであると判定してもよい。
図7は制御部40の動作例を示すフローチャートである。
会議の開始により処理が開始される。ステップS1において発言意思の有無が判定される。ここで、第2参加者10Bがマイク86を通じて会議向けの発言を行うと、当該発言がマイク86を通じて取得される。発言に対応する音声データは、端末装置80、通信回線70を通じて制御部40に送られる。制御部40は、端末装置80側から第2参加者10Bの音声データが送信された場合、当該音声データ(第2参加者10Bの発言予定内容)を記憶部43に音声データ43cとして記憶する。また、かかる音声データの受信は、第2参加者10Bの発言意思指令として入力される。このため、制御部40は、第2参加者10Bから音声データを受信した場合、発言意思ありと判定し、音声データの受信が無い場合、発言意思無しと判定する。発言意思の指令は、上記音声データに基づかず、第2参加者10B側のスイッチ操作によって入力されてもよい。発言予定内容は、音声データによる他、キーボード入力等された文字データとして記憶されてもよい。ステップS1において発言意思無しと判定された場合、ステップS2において、所定の待機時間待機した後、スタートに戻ってステップS1以降の処理を繰返す。ステップS1において発言意思有りと判定されると、ステップS3に進む。
本例では、記憶部43が発言予定記録部として参加者10のうちの少なくとも一人の発言予定内容を記録する例で説明する。しかしながら、発言予定記録部には、参加者の発言予定内容ではなく、コンピュータによる人工的なシステムによる発言予定内容が記録されていてもよい。例えば、コンピュータ等による人工的な会議支援システムが、会議を遮って参加者に伝えたい情報(発言予定内容)として、「あと5分で会議を終了してください」といった内容を有している場合、かかる発言予定内容を発言予定記録部に記録してもよい。
ステップS3では、制御部40は、各組のカメラ58及びマイク59からの出力を学習済モデル49に入力し遮りやすさを求める。ここでは、制御部40は、複数の第1参加者10Aのそれぞれについて、遮りやすさを求める。
次ステップS4では、ステップS3で求められた遮りやすさにもとづいて、発言タイミングであるか否かを判定する。上記のように、学習済モデル49が、遮りやすさを示す2通の出力を出力する場合、当該出力に応じて発言タイミングであるか否かを判定すればよい。学習済モデル49が遮りやすさを多段階で数値化した指標値を出力する場合、当該指標値と所定の閾値とに基づいて発言タイミングであるか否かを判定すればよい。この場合、第1参加者10A別に閾値を変えてもよい。また、会議の雰囲気に合わせて、閾値を変更してもよい。例えば、発言が少ないような場合等には、閾値を小さくし、第2参加者10Bが容易に発言できるようにしてもよい。また、閾値は、会議の議長又は司会者がマニュアルで変更してもよいし、コンピュータが発言量等に鑑みて変更してもよい。また、ここでは、制御部40は、それぞれの第1参加者10Aについて、求められた遮りやすさに基づいて発言タイミングであるか否かを判定する。そして、全ての第1参加者10Aについて、発言タイミングであると判定されると、会議における発言タイミングであると判定する。つまり、第1参加者10Aのうちの少なくとも一人に関して、発言に適さないタイミングであると判定されると、発言タイミングではないと判定する。
ここでは、第1参加者10A別に、遮りやすさ、及び、発言タイミングであるか否かを判定しているが、会議の場全体として会議状態を取得し、会議全体として遮りやすさ、発言タイミングでるか否かを判定してもよい。
ステップS4において発言タイミングであると判定されると、ステップS5に進む。ステップS5では、制御部40は、記憶部43に記憶された発言予定内容(ここでは音声データ43c)を、スピーカ68を通じて発言する。発言予定内容が文字データとして記憶されている場合には、合成音声等を、スピーカ68を通じて発言してもよい。スピーカ68は、代理参加ロボット60に組込まれているため、周囲の第1参加者10Aからは、代理参加ロボット60を通じて参加する第2参加者10Bの発言として、違和感少なく受止められる。発言終了後、スタートに戻って、ステップS1以降の処理を繰返す。
ステップS4において発言タイミングでないと判定されると、ステップS6に進む。ステップS6では、制御部40は、ロボット動作部67に第1動作を実行させる。第1動作は、遮りやすさを上げる動作である。第1動作としては、発言があることを示す動き(例えば、挙手)、発言があることを示す短い発言(例えば、“Excuse me”、「すみません」、“I would like to say something”、「発言したいことがあります」等)等が想定される。擬似会議参加装置が人型ロボットである場合、無い場合において、同様の短い発言を、スピーカを通じて再生すること、表示装置に発言がある旨を表示すること(短い発言の表示、発言を示す発光表示等)、ビープ音等を発生させること、振動を生じさせること等が想定される。
次ステップS7において、ステップS3と同様に、遮りやすさを求める。
次ステップS8において、ステップS4と同様に、ステップS7で求められた遮りやすさにもとづいて、発言タイミングであるか否かを判定する。発言タイミングであると判定されると、ステップS5に進み、発言を行う。発言タイミングでないと判定されると、ステップS9に進む。
ステップS9では、第1動作後、予め定められた所定時間経過したか否かが判定される。所定時間経過前と判定されると、ステップS10に進み、所定時間待機し、ステップS17に戻り、ステップS7以降の処理を繰返す。所定時間経過後と判定されると、ステップS11に進む。なお、第1動作後の経過時間が所定時間丁度である場合、ステップS10、S11のいずれに進んでもよい。
ステップS11では、制御部40は、ロボット動作部67に第2動作を実行させる。第2動作は、第1動作と同様に、遮りやすさを上げる動作である。第2動作は第1動作と同じであってもよいし、異なっていてもよい。第2動作は、第1動作よりも遮りやすさを上げるのに効果的な動作であってもよい。例えば、第1動作が発言では無い動作であり、第2動作が短い発話であることが想定される。より具体的には、第1動作が挙手、表示装置への表示、又は、発光表示装置の発光であり、第2動作が“Excuse me”、「すみません」、「あの〜」等の発言である場合が想定される。また、第1動作が意味の無い発言であり、第2動作が自らの発言を求める要求発言である場合が想定される。例えば、第1動作が“Excuse me”、「すみません」、「あの〜」等の発言であり、第2動作が“I would like to say something”、「発言したいことがあります」等の発言であることが想定される。また、第1動作が丁寧な発言であり、第2動作が丁寧では無い発言であることが想定される。また、第1動作が短い発言であり、第2動作が長い発言であることが想定される。さらに、第1動作の発言よりも、第2動作の発言の音量が大きいことも想定される。
次ステップS12では、ステップS3と同様に、遮りやすさを求める。
次ステップS13において、ステップS4と同様に、ステップS12で求められた遮りやすさにもとづいて、発言タイミングであるか否かを判定する。発言タイミングであると判定されると、ステップS5に進み、発言を行う。発言タイミングでないと判定されると、ステップS14に進む。
ステップS14では、第2動作後、予め定められた所定時間経過したか否かが判定される。所定時間経過前と判定されると、ステップS15に進み、所定時間待機し、ステップS12に戻り、ステップS12以降の処理を繰返す。所定時間経過後と判定されると、ステップS16に進む。なお、第2動作後の経過時間が所定時間丁度である場合、ステップS15、S16のいずれに進んでもよい。
ステップS16では、制御部40は、ロボット動作部67に第3動作を実行させる。第3動作は、第1動作と同様に、遮りやすさを上げる動作である。第3動作は第1動作、第2動作と同じであってもよいし、異なっていてもよい。第3動作は、第2動作よりも遮りやすさを上げるのに効果的な動作であってもよい。つまり、後に行われる動作であるほど、遮りやすさを上げるのに効果的な動作であってもよい。例えば、第1動作が発言では無い動作であり、第2動作が短い発話であり、第2動作が自らの発言を求める要求発言である場合が想定される。例えば、第1動作が挙手であり、第2動作が“Excuse me”、「すみません」、「あの〜」等の発言であり、第3動作が“I would like to say something”、「発言したいことがあります」等の発言であることが想定される。その他、遮りやすさを上げるのに効果的な動作内容については、ステップS11で説明したのと同様の考えを適用できる。
次ステップS17では、ステップS3と同様に、遮りやすさを求める。
次ステップS18において、ステップS4と同様に、ステップS17で求められた遮りやすさにもとづいて、発言タイミングであるか否かを判定する。発言タイミングであると判定されると、ステップS5に進み、発言を行う。発言タイミングでないと判定されると、ステップS19に進む。
ステップS19では、第3動作後、予め定められた所定時間経過したか否かが判定される。所定時間経過前と判定されると、ステップS20に進み、所定時間待機し、ステップS17に戻り、ステップS17以降の処理を繰返す。所定時間経過後と判定されると、ステップS5に進む。なお、第3動作後の経過時間が所定時間丁度である場合、ステップS5、S20のいずれに進んでもよい。つまり、第3動作後、所定時間経過した場合、遮りやすさの程度、発言タイミングであるか否かに拘らず、強制的に発言を行う。
上記処理において、第3動作後、所定時間経過した場合には、発言を行わずに、スタートに戻ってもよい。また、第3動作を行うための処理、第2動作及び第3動作を行うための処理は省略されてもよい。
以上のように構成された会議支援システム30によると、参加状態取得部であるカメラ58及びマイク59を通じて得られた複数の第1参加者10Aの参加状態に基づいて、複数の第1参加者10Aによるコミュニケーションの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定するため、会議において、発言するのに適したタイミングを見出せる。
また、第2参加者10Bが予め発言予定内容を記憶部43に記憶させておけば、制御部40は、発言タイミングであると判定されたときに、その発言予定内容を、スピーカ68を通じて発言する。このため、第2参加者10Bは、予め発予定言内容を記録しておけば、適切なタイミングで発言することができる。
また、特に、第2参加者10Bは、通信回線70を通じて会議に参加するため、複数の第1参加者10Aの会議参加状態を観察し難い。このような状況においても、第2参加者10Bは、適切なタイミングで発言し易い。
また、制御部40は、複数の第1参加者10Aのそれぞれに設けられたカメラ58及びマイクからの出力に基づき、複数の第1参加者10Aのそれぞれの会議参加状態を把握し、各参加状態に基づいて遮りやすさを求め、発言タイミングであるか否かを判定する。このため、複数の第1参加者10Aのそれぞれの会議参加状態に基づいて、より適切に発言タイミングであるか否かを判定できる。
また、発言タイミングで無いと判定されたときに、擬似会議参加装置である代理参加ロボット60に、遮りやすさ上げる第1動作を実行させる。このため、会議において、第2参加者10Bが発言し易くなる。
第1動作後、さらに、発言タイミングでは無いと判定されると、擬似会議参加装置である代理参加ロボット60に、遮りやすさ上げる第2動作を実行させる。このため、会議において、第2参加者10Bがより発言し易くなる。
また、第1動作実行後、さらに、発言タイミングで無いと判定されると、遮りやすさを上げるのにより効果的な第2動作を実行させるため、会議において、第2参加者10Bがより発言し易くなる。
第1実施形態を前提として各種変形例について説明する。
第1実施形態において、制御部40が第2参加者10Bの発言予定内容を記憶部43に記憶する代りに、又は、記憶する機能に加えて、発言タイミングであると判定されたときに、その旨を表示装置88に表示するようにしてもよい。この場合、第2参加者10Bは、当該表示を見て、マイク86に発言を行うようにしてもよい。その発言は、端末装置80、通信回線70を介して、代理参加ロボット60から発言されるようにするとよい。第2参加者10Bは、発言タイミングであるとの表示を見て、発言することができるため、適切なタイミングで発言することができる。特に、第1参加者10Aは、現実空間において互いの会議参加状態を観察可能な状態で会議を行っているのに対し、第2参加者10Bは、通信回線70を通じて会議に参加しているため、第1参加者10Aの会議参加状態を観察し難い。この場合でも、第2参加者10Bは、適切なタイミングで発言できるというメリットがある。
上記例では、第2参加者10Bが一人である例で説明したが、第2参加者10Bは複数人存在していてもよい。
上記例では、第1参加者10Aに参加状態取得部であるカメラ58及びマイク59を設けた例で説明したが、第2参加者10Bに参加状態取得部が設けられ、第1参加者10A及び第2参加者10Bの会議参加状態に基づいて、遮りやすさを求め、適切な発言タイミングであるか否かを判定してもよい。
また、上記例では、第2参加者10Bが通信回線70を通じて会議に参加している例で説明したが、第2参加者10Bは、現実空間で行われる会議場所において、第1参加者10Aと共に参加している者であってもよい。
また、上記例では、第2参加者10Bが発言予定内容を入力すると、発言意思有りと判定する例で説明したが、発言意思は、他の参加者からの発言賛成数が所定数を超えた場合に、発言意思有りと判定するようにしてもよい。例えば、第2参加者10Bが発言予定内容を文字情報として入力すると、当該発言予定内容が他の参加者の手元の端末装置に表示され、他の参加者が当該発言予定内容に賛同する場合には賛同する旨を入力する。そして、賛同数が所定数を超えると、発言意思有りと判定して、ステップS3以降の処理を実行するようにしてもよい。
{第2実施形態}
第2実施形態に係る会議用ロボットについて説明する。なお、本実施の形態の説明において、第1実施形態で説明したものと同様構成要素については同一符号を付してその説明を省略する。図8は会議用ロボット130が適用された会議の様子を示す説明図であり、図9は同会議用ロボットの電気的構成を示すブロック図である。
この会議用ロボット130が上記会議支援システム30と異なるのは、会議の前提として第2参加者10Bが存在せず、代りに、会議用ロボット130が自律的に会議用の発言を行う点である。
すなわち、会議用ロボット130は、上記代理参加ロボット60に代えて、会議に参加している。
会議用ロボット130は、制御部140と、ロボット動作部167及び複数組のカメラ58及びマイク59とを備える。
複数組のカメラ58及びマイク59は、上記と同様に、複数の参加者(ここでは第1参加者10A)の会議参加状態を取得する参加状態取得部の一例である。
ロボット動作部167は、上記ロボット動作部67と同様に、ロボットとしての動作を行う。ここでは、ロボット動作部167は、スピーカ168及び腕駆動部169を含む。制御部140による制御下、ロボット動作部167は、スピーカ168を通じて音声を発することができる。また、腕駆動部169は、少なくとも1つの腕を上下に駆動するモータ等を含んでいる。腕駆動部169は、制御部140による制御下、会議用ロボット130の腕を上げ(挙手)たり、下げたりする動作を実行することができる。会議用ロボット130は、人型ロボットであってもよいし、その他の多関節ロボット等であってもよい。
制御部140は、複数組のカメラ58及びマイク59、ロボット動作部167に接続されており、複数組のカメラ58及びマイク59からの入力に基づいて、ロボット動作部167の動作制御を行う。特に、制御部140は、複数組のカメラ58及びマイク59で得られた複数の第1参加者10Aの会議参加状態に基づいて、複数の第1参加者10Aによるコミュニケーションの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定する。そして、発言タイミングであると判定されたときに、スピーカ68を通じた発言処理を実行する。
制御部140が制御部40と異なる点は、本制御部140が会話プログラム140bを実行する点である。会話プログラム140bは、記憶部43に記憶されたプログラムであり、CPU41が当該会話プログラム140bに会話プログラム140bに記述された手順、及び、複数のマイク59からの入力等に基づいて、会話処理を実行する。会話プログラム140b自体は、複数人の第1参加者10Aの発言内容に基づいて、当該発言内容に関連した発言を発する処理等を行う周知のプログラムを含むプログラムを適用することができる。会話プログラム140bが発する発言内容は、発言タイミングであると判定される前に作成され、第1実施形態と同様に、発言予定記録部に記録されていてもよいし、発言タイミングであると判定されたときに、生成されてもよい。
この会議用ロボット130によると、自律的に会議用の発言を行う会議用ロボット130が、適したタイミングで、発言を行うことができる。その他、第2参加者10Bが発言を行うことによる効果を除き、上記第1実施形態と同様の作用効果を得ることができる。また、会議用ロボット130が会議用の発言を行うことで、会議を活発にすることができ、会議を支援することができる。
{変形例}
なお、上記各実施形態及び各変形例で説明した各構成は、相互に矛盾しない限り適宜組合わせることができる。例えば、第1実施形態と第2実施形態とが組合わされ、複数の第1参加者に加えて、第2参加者10B及び会議用ロボット130の両方が会議に参加してもよい。
以上のようにこの発明は詳細に説明されたが、上記した説明は、すべての局面において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。
10A 第1参加者
10B 第2参加者
30 会議支援システム
40、140 制御部
43a プログラム
43c 音声データ
45 通信回路
46 ロボット制御入出力部
58 カメラ
59 マイク
60 代理参加ロボット
67、167 ロボット動作部
68、168 スピーカ
69、169 腕駆動部
70 通信回線
80 端末装置
86 マイク
130 会議用ロボット
140b 会話プログラム

Claims (13)

  1. 複数の参加者による会議に用いられる会議支援システムであって、
    前記複数の参加者の会議参加状態を取得する参加状態取得部と、
    前記参加状態取得部で得られた前記複数の参加者の会議参加状態に基づいて、前記複数の参加者によるコミュニケーションの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定する制御部と、
    を備える会議支援システム。
  2. 請求項1記載の会議支援システムであって、
    前記制御部は、発言予定内容を記録する発言予定記録部を含み、発言タイミングであると判定されたときに、前記発言予定記録部に記録された発言予定内容を、スピーカを通じて発言する、会議支援システム。
  3. 請求項2記載の会議支援システムであって、
    前記制御部は、前記複数の参加者のうちの少なくとも一人の参加者の発言予定内容を前記発言予定記録部に記録する、会議支援システム。
  4. 請求項3記載の会議支援システムであって、
    前記複数の参加者が、現実空間において互いの会議参加状態を観察可能な状態で会議を行う複数の第1参加者と、通信回線を介して会議に参加する第2参加者とを含み、
    前記制御部は、前記第2参加者の発言予定内容を前記発言予定記録部に記録する、会議支援システム。
  5. 請求項1から請求項4のいずれか1つに記載の会議支援システムであって、
    前記参加状態取得部は、前記複数の参加者のそれぞれの会議参加状態を取得する複数の個別参加状態取得部を含み、
    前記制御部は、前記複数の個別参加状態取得部で得られた前記複数の参加者の会議参加状態に基づいて、前記複数の参加者それぞれの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定する、会議支援システム。
  6. 請求項1から請求項5のいずれか1つに記載の会議支援システムであって、
    前記複数の参加者のうちの少なくとも一人の参加者による発言の意思指令を取得する発言指令受付部と、
    前記会議が行われる現実空間において、会議への参加動作が可能な擬似会議参加装置と、
    をさらに備え、
    前記制御部は、発言の意思指令取得後、発言タイミングで無いと判定されると、前記擬似会議参加装置に、遮りやすさを上げる第1動作を実行させる、会議支援システム。
  7. 請求項6記載の会議支援システムであって、
    前記制御部は、前記第1動作実行後、さらに発言タイミングで無いと判定されると、前記擬似会議参加装置に、遮りやすさを上げる第2動作を実行させる、会議支援システム。
  8. 請求項7記載の会議支援システムであって、
    前記第2動作は、前記第1動作よりも遮りやすさを上げるのに効果的な動作である、会議支援システム。
  9. 複数の参加者による会議に参加する会議用ロボットであって、
    前記複数の参加者の会議参加状態が入力される参加状態入力部と、
    前記参加状態入力部より入力された前記複数の参加者の会議参加状態に基づいて、前記複数の参加者によるコミュニケーションの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定し、発言タイミングであると判定されたときに、スピーカを通じた発言処理を実行する制御部と、
    を備える会議用ロボット。
  10. 請求項9記載の会議用ロボットであって、
    前記参加状態入力部には、前記複数の参加者のそれぞれの会議参加状態が入力され、
    前記制御部は、前記複数の参加者それぞれの会議参加状態に基づいて、前記複数の参加者それぞれの遮りやすさを求め、求められた遮りやすさに基づいて発言タイミングであるか否かを判定する、会議用ロボット。
  11. 請求項9又は請求項10記載の会議用ロボットであって、
    ロボットとしての動作を実行するロボット動作部をさらに備え、
    前記制御部は、発生すべき発言予定内容が生じた後、発言タイミングで無いと判定されると、前記ロボット動作部に、遮りやすさを上げる第1動作を実行させる、会議用ロボット。
  12. 請求項11記載の会議用ロボットであって、
    前記制御部は、前記第1動作実行後、さらに、発言タイミングで無いと判定されると、前記ロボット動作部に、遮りやすさを上げる第2動作を実行させる、会議用ロボット。
  13. 請求項12記載の会議用ロボットであって、
    前記第2動作は、前記第1動作よりも遮りやすさを上げるのに効果的な動作である、会議用ロボット。
JP2018221283A 2018-11-27 2018-11-27 会議支援システム及び会議用ロボット Active JP7286303B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018221283A JP7286303B2 (ja) 2018-11-27 2018-11-27 会議支援システム及び会議用ロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018221283A JP7286303B2 (ja) 2018-11-27 2018-11-27 会議支援システム及び会議用ロボット

Publications (2)

Publication Number Publication Date
JP2020088637A true JP2020088637A (ja) 2020-06-04
JP7286303B2 JP7286303B2 (ja) 2023-06-05

Family

ID=70910171

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018221283A Active JP7286303B2 (ja) 2018-11-27 2018-11-27 会議支援システム及び会議用ロボット

Country Status (1)

Country Link
JP (1) JP7286303B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111736694A (zh) * 2020-06-11 2020-10-02 上海境腾信息科技有限公司 一种远程会议的全息呈现方法、存储介质及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040179714A1 (en) * 2003-03-11 2004-09-16 Jouppi Norman Paul Telepresence system with simultaneous automatic preservation of user height, perspective, and vertical gaze
JP2006304160A (ja) * 2005-04-25 2006-11-02 Fuji Xerox Co Ltd 電子会議制御プログラム、方法、電子会議システム
JP2012146072A (ja) * 2011-01-11 2012-08-02 Nippon Telegr & Teleph Corp <Ntt> 次発話者誘導装置、次発話者誘導方法および次発話者誘導プログラム
JP2017123027A (ja) * 2016-01-06 2017-07-13 日本電信電話株式会社 会話支援システム、会話支援装置及び会話支援プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040179714A1 (en) * 2003-03-11 2004-09-16 Jouppi Norman Paul Telepresence system with simultaneous automatic preservation of user height, perspective, and vertical gaze
JP2006304160A (ja) * 2005-04-25 2006-11-02 Fuji Xerox Co Ltd 電子会議制御プログラム、方法、電子会議システム
JP2012146072A (ja) * 2011-01-11 2012-08-02 Nippon Telegr & Teleph Corp <Ntt> 次発話者誘導装置、次発話者誘導方法および次発話者誘導プログラム
JP2017123027A (ja) * 2016-01-06 2017-07-13 日本電信電話株式会社 会話支援システム、会話支援装置及び会話支援プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111736694A (zh) * 2020-06-11 2020-10-02 上海境腾信息科技有限公司 一种远程会议的全息呈现方法、存储介质及系统

Also Published As

Publication number Publication date
JP7286303B2 (ja) 2023-06-05

Similar Documents

Publication Publication Date Title
US20220254343A1 (en) System and method for intelligent initiation of a man-machine dialogue based on multi-modal sensory inputs
US11151997B2 (en) Dialog system, dialog method, dialog apparatus and program
US11468894B2 (en) System and method for personalizing dialogue based on user&#39;s appearances
US10264214B1 (en) System and methods for testing a video conference call using a virtual assistant
US11183187B2 (en) Dialog method, dialog system, dialog apparatus and program that gives impression that dialog system understands content of dialog
TWI280481B (en) A device for dialog control and a method of communication between a user and an electric apparatus
EP3732677A1 (en) System and method for artificial intelligence driven automated companion
WO2019133706A1 (en) System and method for learning preferences in dialogue personalization
JP6667855B2 (ja) 取得方法、生成方法、それらのシステム、及びプログラム
JP2017112545A (ja) 会議支援システム
WO2018163646A1 (ja) 対話方法、対話システム、対話装置、およびプログラム
KR20220123576A (ko) 3차원(3d) 환경에 대한 통합된 입/출력
WO2018158852A1 (ja) 通話システム及びコミュニケーションシステム
JP6874437B2 (ja) コミュニケーションロボット、プログラム及びシステム
JP2007030050A (ja) ロボット制御装置、ロボット制御システム、ロボット装置、およびロボット制御方法
JP7286303B2 (ja) 会議支援システム及び会議用ロボット
JP2019169099A (ja) 会議支援装置及び会議支援システム
WO2016157678A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP2011118632A (ja) 発話の予備動作検出及び伝達方法及び装置及びプログラム
JP2018081147A (ja) コミュニケーション装置、サーバ、制御方法、および情報処理プログラム
JPWO2017200077A1 (ja) 対話方法、対話システム、対話装置、及びプログラム
JP2017158137A (ja) 会議システム
Takahashi et al. A case study of an automatic volume control interface for a telepresence system
JP6610965B2 (ja) 対話方法、対話システム、対話装置、およびプログラム
JP6859807B2 (ja) 情報処理装置、情報処理方法および情報処理プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181213

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230524

R150 Certificate of patent or registration of utility model

Ref document number: 7286303

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150