JP6856243B2 - 会議システムおよび制御プログラム - Google Patents

会議システムおよび制御プログラム Download PDF

Info

Publication number
JP6856243B2
JP6856243B2 JP2017070851A JP2017070851A JP6856243B2 JP 6856243 B2 JP6856243 B2 JP 6856243B2 JP 2017070851 A JP2017070851 A JP 2017070851A JP 2017070851 A JP2017070851 A JP 2017070851A JP 6856243 B2 JP6856243 B2 JP 6856243B2
Authority
JP
Japan
Prior art keywords
utterance
representative
participant
participant terminal
sentence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017070851A
Other languages
English (en)
Other versions
JP2018174425A (ja
Inventor
雄一郎 吉川
雄一郎 吉川
浩平 小川
浩平 小川
石黒 浩
浩 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Osaka University NUC
Original Assignee
Osaka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Osaka University NUC filed Critical Osaka University NUC
Priority to JP2017070851A priority Critical patent/JP6856243B2/ja
Publication of JP2018174425A publication Critical patent/JP2018174425A/ja
Application granted granted Critical
Publication of JP6856243B2 publication Critical patent/JP6856243B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Telephonic Communication Services (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

この発明は、会議システムおよび制御プログラムに関し、特にたとえば、複数の参加者がそれぞれの参加者端末を通して意見(発話文)を提示し、それらの発話文を集約して代表発話を出力する、新規な会話システムおよび制御プログラムに関する。
ロボットを使う会議システムとして、特許文献1または2のような背景技術が知られている。
特開2009-540759 [H04N 1/15 G05D 1/00 H04N 11/00, 7/18] 特開2016-181856 [H04N 7/15 H04M 3/56]
特許文献1、2の技術はいずれも、いわゆるテレビ会議システムである。
それゆえに、この発明の主たる目的は、新規な、会議システムおよび制御プログラムを提供することである。
この発明の他の目的は、複数の参加者がそれぞれの参加者端末を通して意見(発話文)を提示し、それらの発話文を集約して代表発話を出力する、会議システムおよび制御プログラムを提供することである。
この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。
第1の発明は、第1発話エージェントおよび第2発話エージェントを備える、会議システムであって、各々が入力部と表示部を有する複数の参加者端末から発話文を受ける発話文受付部、各参加者端末の表示部に複数の発話文を表示させる発話文表示部、
各参加者端末からの投票を受ける投票受付部投票受付部で受けた投票に基づいて複数の発話文のうちから代表発話文を選択する選択部、選択された代表発話文に従って代表発話を第1発話エージェントに発話させる代表発話制御部、および代表発話文以外の発話文に従って第2発話エージェントに発話させる非代表発話制御部を備える、会議システムである
第1の発明では、会議システム(100:実施例において相当する部分を例示する参照符号。以下同じ。)は、それぞれが入力部および表示部を備える複数の参加者端末(12)を含み、発話文受付部(14、S3)は、各参加者端末から、その参加者端末が割り当てられた参加者が発話したい発話文を受け付ける。発話文表示部(14、S7)は、発話文受付部が受け付けた発話文を各参加者端末の表示部に表示させる。したがって、参加者端末が割り当てられた参加者はその表示部に表示された各参加者端末から入力された発話文を見て、どれが代表発話にふさわしいか、入力部を用いて投票することができる。投票受付部(14、S3)は、各参加者端末からの投票を受け付ける。そして、選択部(14、S9)は、投票に基づいて、代表発話とすべき発話文を選択する。したがって、この選択された発話文に基づいて代表発話が行われる。つまり、代表発話制御部(14、S93)は、選択された代表発話文に従って代表発話を第1発話エージェントに発話させる。他方、非代表発話制御部(14、S95)が代表発話文以外の発話文、すなわち非代表発話(たとえば、心の声)に従って第2発話エージェントに発話させる。
第1の発明によれば、各参加者端末から入力された発話文の中から、投票に基づいて、第1発話エージェントによって発話される代表発話とするべき発話文を選択するようにしているので、代表発話に対して各参加者の納得を得やすい。つまり、どの意見を代表意見(代表発話)とするかをチーム内で合議(投票)するので、その会議に参加しているという自覚を生むし、その投票によって、代表発話を我がこと(自分に直接関係のある事)と感じ易い。その結果、チーム内の相互理解、共感が醸成され、チーム内の融和、協調が促進されるだけでなく、代表発話を自身の考えとして取り込み、気付きが誘発され易い。しかも、非代表発話が第2発話エージェントから、たとえば心の声として出力されるので、チーム内のまとまりを得やすい。
第2の発明は、第1の発明に従属し、選択部は投票受付部で受けた投票に基づく所定のルールに従って代表発話文を選択する、会議システムである。
第2の発明では、選択部は各参加者端末からの投票を所定のルールに則って処理することによって、代表発話を選択する。
第2の発明によれば、どの発話が代表発話として選択されるか、基準がはっきりする。
第3の発明は、第2の発明に従属し、所定のルールは多数決ルールである、会議システムである。
第3の発明によれば、代表発話の選択の基準がわかりやすい。
第4の発明は、第1ないし第3のいずれかの発明に従属し、各参加者端末の表示部に複数の非発話要素を表示させる非発話要素表示部、および非発話要素に対して各参加者端末からの投票を受ける非発話要素投票受付部をさらに備える、会議システムである。
第4の発明では、非発話要素表示部(14、S7)は、たとえば感情表出マーカ(100a‐100d)のように、発話に関係しない、非発話要素を各参加者端末の表示部に表示させる。したがって、参加者端末が割り当てられた参加者はその表示部に表示された非発話要素を見て、そのどれかに、入力部を用いて投票することができる。非発話要素投票受付部(14、S3)は、各参加者端末からの投票を受け付ける。
第4の発明によれば、参加者は非発話要素にも投票できるので、たとえば感情表出を容易に行える。
第5の発明は、第1ないし第4のいずれかの発明に従属し、サーバをさらに備え、サーバが、参加者端末から入力される発話文とは別のシステム意見を出力し、システム意見は各参加者端末の表示部に表示される、会議システムである。
第5の発明では、サーバが、参加者端末から入力される発話文とは別の意見をシステム意見として出力し、それが各参加者端末で表示される。
第5の発明によれば、このシステム意見によって、サーバが、議論の発散や収束を制御することができる。
第6の発明は、第1ないし第5の発明に従属し、各参加者端末の表示部に各参加者端末上で選択可能な少なくとも1つの意見の選択肢を表示する選択肢表示部をさらに備え、参加者端末で選択肢を選択することによって、意見をその参加者端末からの発話文として入力する、会議システムである。
第6の発明では、たとえばサーバ(システム)のような選択肢表示部が、参加者端末の表示部に各参加者端末上で選択可能な少なくとも1つの意見の選択肢を表示し、参加者が参加者端末上で該当する選択肢を選択すると、その選択肢の意見が、当該参加者端末からの発話文として入力される。
第6の発明によれば、参加者は該当する選択肢を選択するだけで、自身の参加者端末から発話文として入力することができるので、参加者が必ずしも発話文をタイピングなどで入力しなくてもよい。さらに、たとえばシステムからそのような選択肢を提示することによって、システムによる会議への介入も可能となる。
第7の発明は、第1発話エージェントおよび第2発話エージェントを備える、会議システムのコンピュータによって実行され、コンピュータを、各々が入力部と表示部を有する複数の参加者端末から発話文を受ける発話文受付部、各参加者端末の表示部に複数の発話文を表示させる発話文表示部、各参加者端末からの投票を受ける投票受付部、投票受付部で受けた投票に基づいて複数の発話文のうちから代表発話文を選択する選択部、選択された代表発話文に従って代表発話を第1発話エージェントに発話させる代表発話制御部、および代表発話文以外の発話文に従って第2発話エージェントに発話させる非代表発話制御部として機能させる、制御プログラムである。
第7の発明によれば、第1の発明と同様の効果が期待できる。
この発明によれば、複数の参加者がそれぞれの参加者端末を通して意見(発話文)を提示し、それらの発話文を集約して代表発話を出力する、新規な会議システムを提供することができる。
この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1はこの発明の一実施例の会議システムの概要を示す概略図である。 図2は図1実施例における会議システムの構成の一例を示すブロック図である。 図3は図1実施例におけるロボットの一例を示す概略図である。 図4は図3のロボットを制御するロボットコントローラの構成の一例を示すブロック図である。 図5は図1実施例における参加者端末の構成の一例を示すブロック図である。 図6は図2に示すサーバのメモリの構成の例を示す図解図である。 図7は図5に示す参加者端末のタッチディスプレイ(表示部)に表示されるGUIの一例を示す図解図である。 図8は図1実施例におけるサーバの動作の一例を示すフロー図である。 図9は図1実施例において参加者端末が参加者からの操作入力をサーバへ送信する動作の一例を示すフロー図である。 図10は図1実施例においてロボットが参加者端末からの発話文データに従って発話する動作の一例を示すフロー図である。 図11はこの発明の他の実施例の会議システムの概要を示す概略図である。 図12は図11実施例における会議システムの構成の一例を示すブロック図である。 図13は図11実施例における参加者端末のタッチディスプレイに表示されるGUIの一例を示す図解図である。 図14は図11実施例におけるサーバの動作の一例を示すフロー図である。 図15は図11実施例における参加者端末のタッチディスプレイに表示されるGUIの他の例を示す図解図である。 図16は図11実施例における参加者端末のタッチディスプレイに表示されるGUIのさらに他の例を示す図解図である。
図1を参照して、この実施例の会議システム100では、相対する2つのチームで構成され、各チームは、発話エージェントとしての発話ロボット(以下、単に「ロボット」ということがある。)10と、複数の参加者P1‐P4で構成される。各参加者P1‐P4にはそれぞれ、たとえばタブレット端末のような参加者端末12が割り当てられる。
この会議システム100を概略的に説明すると、それぞれのチームにおいて、各参加者P1‐P4は、各自の参加者端末12を利用して、自分達のチームのターン(発言の順番)において発言したい(発話を希望する)発話文を入力する。ただし、たとえば、参加者同士が、普通にも話しながら、話題転換などを、ロボット10に言わせる、という形だと、「ターン」という制約はない。
そして、各参加者P1‐P4の発話文がすべての参加者端末12に表示される。各参加者P1‐P4は、自分のだけではなく他の参加者の希望する発話文を参加者端末12で見て、どの発話文が自分達のチームの発話として望ましいかを、参加者端末12上で投票する。その投票の結果、1つの発話文が代表に選ばれ、そのチームのロボット10から、代表発話として出力される。
このように、チーム内での意見を代表してロボット10が発話するというこの実施例の会議システム100では、ロボット10が最終的に発話するので、チーム内の各参加者Pがそれぞれ自分の意見(希望する発話)を気軽に表明することができる(発散する)。ロボット10を介して発言する、つまり発言者がだれか特定しにくいので、の各参加者の発言(意見)は気楽に、しかも大胆になる(別人格として発言できる。)。
さらに、どの意見を代表意見(代表発話)とするかをチーム内で合議(投票)するので、その会議に参加しているという自覚を生むし、その投票によって、代表発話を我がこと(自分に直接関係のある事)と感じ易い。その結果、チーム内の相互理解、共感が醸成され、チーム内の融和、協調が促進されるだけでなく、代表発話を自身の考えとして取り込み、気付きが誘発され易い。
図1実施例の会議システム100は、典型的には図2のように構成される。図2では、各チームは同じまたは類似の構成を採るので、ここでの説明では、どちらのチームとは特定することなく説明する。
それぞれの参加者に割り当てられた参加者端末12が、サーバ14に接続され、そのサーバ14が発話エージェントとしてのロボット10を制御する。そして、両チームのサーバ14が、たとえばインタネットやイントラネットのようなネットワーク16を介して、通信可能に接続される。
ただし、各参加者端末12と自チームのサーバ14も、ネットワークを介して接続されてもよい。
また、発話エージェントとして、この実施例ではロボット10を使用するが、これをたとえばディスプレイ(図示せず)に表示されるキャラクタに置換してもよい。
ただし、所定のルールとしては、上記の多数決ルールの他、たとえば、発言頻度が高い参加者(選ばれた実績の高い参加者)や、発言頻度の低い参加者(発言機会を与えらるべき参加者)を選ぶ、というルールも考えられる。
このように、各参加者端末12からの投票を所定のルールに則って処理することによって、代表発話を選択するようにしているので、どの発話が代表発話として選択されるか、基準がはっきりする。
そして、決定した代表発話文テキストをロボット10に送信し、ロボット10ではたとえば音声合成機能を利用して、その発話文に従った音声を代表発話として出力する。
ここで、発話エージェントとしての実施例のロボット10について説明する。ロボット10は、図3に示すように、台17上に、台17に対して、前後左右に回転できるように、設けられる。つまり、胴体18には2自由度が設定されている。
胴体18の人の肩に相当する左右位置からは、それぞれに、肩関節(図示せず)によって、腕20が、前後左右に回転可能に設けられる。つまり、各腕20には、それぞれ、2自由度が設定されている。
胴体18の上端中央部には首22が設けられ、さらにその上には頭部24が設けられる。首22すなわち頭部24は、胴体18に対して、ロール角(左右の傾げ)、ピッチ各(前後の傾げ)、ヨー(左右の回転)で3自由度が設定されている。
頭部24の前面すなわち人間の顔に相当する面には、目26が設けられ、各目26には眼球28が設けられる。目26は、まぶたを閉じたり開いたりでき、眼球424はそれぞれ上下左右に回転可能である。つまり、目26すなわちまぶたには1自由度が、眼球28には2自由度が設定されている。
顔にはさらに、口30が設けられていて、口30は、閉じたり開いたりできる。つまり、口30には1自由度が設定されている。
後に説明する感情表出の機能をロボット10に付与するとすれば、ロボット10の顔に、表情を変える機構も設けられる。たとえば、口角をあげる機構が頬に設けられる。この場合、口30は、開閉と、笑顔表出のための2つの自由度を有することになる。さらに、顔の頬あたりにたとえば赤色LEDを設けておけば、その赤色LEDの点灯で恥ずかしがる、という感情を表現できる。
胴体18の、人間の胸の位置には、会議システム100において発話を行うスピーカ32が設けられる。ロボット10の頭部24の前面(額)中央には所定の画角で前方を撮影するカメラ34が設けられ、胴体18の左前面上部には、周囲音を採取するためのマイク36が設けられる。
このようなロボット10は、図4に示すロボットコントローラ38によって、その動作(発話や非言語動作など)が制御される。ロボットコントローラ38は、CPU40を含み、CPU40には、内部バス42を介して通信装置44が接続される。通信装置44は、たとえばネットワークインタフェースなどを含み、CPU40はこの通信装置44を介して発話制御サーバ(後述)、さらには外部のコンピュータや他のロボット(ともに図示せず)などと通信でき、それらの間でデータの授受を行うことができる。
CPU40にはさらに、内部バス42を介して、メモリ46が接続される。メモリ46はROMやRAMを含む。発話制御サーバから送られる制御データやスクリプトデータがメモリ46に一時的に記憶される。
また、ロボット制御に必要なプログラム(OSやロボット制御プログラムなど)は、メモリ46に記憶される。CPU40はメモリ46に記憶されたプログラムに従ってロボット10の動作を制御する。
つまり、CPU40にはさらに、たとえばDSPで構成された出力ボード48が接続され、この出力ボード48は、ロボット10の上述の各部(図3)に設けられたアクチュエータ50の動作を制御する。ただし、ロボット10の各部の具体的な動作は、実施例には関係しないので、ここでは詳しい説明は省略する
なお、図3に示すロボット10のスピーカ32が出力ボード48に接続される。したがって、CPU40は、サーバ14から与えられ、必要に応じてメモリ46に記憶された発話文テキストデータに従って、スピーカ32から発声(発話)させる。
入力ボード52は、カメラ34からのカメラ画像およびマイク36からの音声をそれ画像データおよび音声データとしてCPU40に送る。
図5が参加者端末12の構成の一例を示し、参加者端末12は、CPU54を含み、CPU54には、内部バス56を介して通信装置58が接続される。通信装置58は、たとえばネットワークインタフェースなどを含み、CPU54はこの通信装置58を介してサーバ14などと通信でき、それらの間でデータの授受を行うことができる。
CPU54にはさらに、内部バス56を介して、メモリ60が接続される。メモリ60はROMやRAMを含む。後述のようにして入力される発話文テキストなどがメモリ60に一時的に記憶される。
また、参加者端末12の制御に必要なプログラム(OSや発話文データのサーバ14への送信やサーバ14からのデータの受信など)は、メモリ60に記憶される。
参加者端末12のCPU54にはさらに、たとえばDSPで構成された出力ボード62が接続され、この出力ボード62は、参加者端末12に設けられているスピーカ64から音声を出力させるとともに、タッチディスプレイ66に表示データを出力する。なお、タッチディスプレイ66は、タッチパネルの機能を持つディスプレイである。
参加者端末12のCPU54にはさらに、入力ボード68が接続され、この入力ボード68は、タッチディスプレイ66に設けられている座標検出回路70からの座標データ(タッチ座標データ)を取得してCPU54に入力する。CPU54は、その入力座標データに基づいて、入力された発話文データを受け付ける。座標データはまた、サーバ14に送られる。サーバ14は、座標データを受けて、そのとき参加者P(図1)がタッチディスプレイ66上のどの項目(領域)にタッチしたかを知ることができる。
サーバ14は前述のように、参加者端末12からのデータを受信し、そのデータに基づいて所定の処理を実行し、必要に応じて処理結果を参加者端末12に送信する。
サーバ14のメモリ72には、図6に示すように、プログラム記憶領域74を含み、このプログラム記憶領域74には、会議システム100の各チームの参加者端末12やロボット10を制御する、後述のフロー図で示されるような会議制御プログラム76が設定される。
メモリ72にはさらに、データ記憶領域78が形成されていて、このデータ記憶領域78には、データバッファ80aが形成されるとともに、たとえば図7に示すようなGUIを参加者端末12のタッチディスプレイ66(図5)に表示するためのGUIデータ80bおよび代表発話として自チームのロボット10から出力すべき発話文データ80cを記憶する。
図7を参照して、GUIデータ80bに従ってタッチディスプレイ66に表示されるこのGUI82には、タッチパネル式のキーボード84が形成され、このキーボード84の上に、自分欄86が形成され、さらにその上に複数の(この実施例では、1チーム4人なので3つの)他参加者欄88a‐88cが形成される。キーボード84は各参加者が自分の意見をテキストデータの形で入力したりするために使用される。
ただし、テキスト形式の発話文データを参照端末12に入力する方法としてキーボード84を使用する他に、接話マイク(図示せず)を利用して音声で入力し、その音声入力を音声認識機能を利用してテキストデータに変換することによって、入力するようにしてもよい。
さらに、各欄86および88a‐88cに共通に、左側(向かって)には、参加者識別部90が形成され、この参加者識別部90には、各欄86および88a‐88cが割り当てられた参加者のID、たとえば識別用アイコン(スカイプ(商標)アイコンのような)が表示される。ただし、識別用アイコンがあれば、ID自体は隠蔽されてもよい。
各欄86および88a‐88cに共通に、中央には、意見表示部92が形成される。意見表示部92は、各欄86および88a‐88cが割り当てられた参加者が発言したい意見をテキスト表示するための表示領域である。
各欄86および88a‐88cに共通に、右側(向かって)には、投票表示部94が形成され、この投票表示部94には、各欄86および88a‐88cが割り当てられた参加者のどの意見が代表発話と投票アイコン96が表示される。そして、所定ルールの一例として多数決を採用した場合、もっとも多い数の投票アイコン96を獲得した参加者の意見が代表意見として採用される。
なお、この参加者端末12を用いて、自分も含めてどれかの意見(発話文)を代表にするための投票をするとき、該当する参加者の上述の参加者識別部90をタッチする。そのタッチ位置が座標検出回路70で検出され、その座標位置データがCPU54からサーバ14に送信される。したがって、サーバ14では、その参加者端末12が割り当てられた参加者がどの発話文に投票したか判断することができる。
なお、自分欄86に設けられるイエスボタン98yおよびノーボタン98nは、それぞれ、発話文を自分の参加者端末からは入力しないときに使用できるタッチボタンである。たとえば、サーバ14が各参加者端末12から入力された発話文とは別の意見をシステム意見として出力し、各参加者端末12に表示し、このシステム意見に対して賛成のときは参加者はイエスボタン98yを操作することによって、賛成を表明し、反対のときは参加者はノーボタン98nを操作することによって、反対を表明することができる。
また、発話文を参加者端末12から入力するとき、参加者が発話文の全てを入力する必要はなく、場合によっては、システムすなわちサーバ14が発話文の候補をボタン98yまたは98nのようなボタンとして提示して、参加者はそのボタンを選択するだけで発話文を入力できるようにしてもよい。この場合であっても、当該参加者の発話文として自身の参加者端末から入力される。
さらに、たとえば旅行を話題にしているときに、行き先として、ボタン98yまたは98nのような「北海道」ボタンや「その他」ボタンを出す、といったことも考えられる。また、「そろそろ結論だそうか」ボタンや「もう少しじっくり考えてみよう」ボタンを表示することもあり得る。このようなボタンは2つに限らず、3つ以上でも、1つでもよい。
このように、サーバ14が、各参加者端末12の表示部に、その参加者端末で選択可能な少なくとも1つの選択肢(ボタン)の形で意見を出力するようにすれば、参加者はその選択肢(ボタン)を選択するだけで、自身の参加者端末から発話文として入力することができるので、参加者が必ずしも発話文をタイピングなどで入力しなくてもよい。さらに、サーバ14からそのような選択肢を提示することによって、会議への介入も可能となる。
ただし、サーバ14が発話文候補を生成する方法としては、議題に合わせて事前に用意しておく方法や、他の人の発言をコピーする方法などがある。もし、サーバ14が他の人の発言のコピーしたときには、サーバ14(システム)がその参加者の発話文に投票したことにするようにしてもよい。
次に図8を参照して、各チームのサーバ14の動作を説明する。最初のステップS1における初期化を経て、ステップS3では、サーバ14のコンピュータ(CPU)は、各参加者端末12からの入力、サーバ14自体からのシステム入力を受け付ける。具体的には、図9に示すような参加者端末の操作の結果を当該参加者端末から受け取る。
図9において、最初のステップS21で参加者端末12はサーバ14への接続などの初期化処理を実行する。続くステップS23で、参加者端末12は、それを割り当てられた参加者の操作入力に従って、その参加者が表明したい意見(発話文データ)や、投票を受け付ける。
なお、このとき、表明したい意見がなければ発話文を入力する必要はない。つまり、意見がないというのも意見とみなす。この場合、図7の参加者欄88aにおける意見表示部92のように何も発話文が表示されない。
また、投票は前述のように参加者識別部90へのタッチによって入力するようにしているが、毎回タッチ(投票入力)する必要はなく、前回の投票を取り消さない限り今回もその参加者の意見(発話)に投票したことにしてもよい。
次のステップS25で、先のステップS23で受信した参加者の入力(タイピングによる入力または音声認識による入力など)を受け付けて、必要に応じてメモリ60のサーバ14への送信領域に一時的に記憶しておく。
次のステップS27で、代表発話に決定された参加者の参加者端末がロボット10を操作する責任を持つように表示される。
そして、ステップS29で、参加者端末12からサーバ14へ、メモリ60の上記の送信領域から操作入力データを送信する。ステップS31で終了を判断したとき、ステップS33で終了処理を実行する。
このようにして、ステップS3での参加者端末12からの入力を受信する。
なお、図9では、参加者端末12からの操作入力をサーバ14に送信する場合について説明したが、図8のステップS3では、システムすなわちサーバ14も意見を表明することもできる。たとえば、サーバ14によって自動生成された関連する発話文や、会議のオーガナイザが仕込んでおきたい予定調和的な意見(シナリオ)などが考えられる。このように、システム(サーバ14)から参加者端末12からの発話文とは別の意見を出力し、それを各参加者端末12で表示することで、議論の発散や収束を制御することができる。つまり、サーバ14が議論の発散、収束を制御できる会議システムが得られる。
さらに、サーバ14がシステムとして投票することができる。たとえば、毎回同じ参加者の発言が代表意見として取り上げられているとき、サーバ14は意図的に他の参加者に投票することもできる。逆に、代表意見の参加者が頻繁に代わると会議がまとまり難いということから、ある程度固定した参加者が代表になるように、意図的に同一参加者に投票することもある。このステップS3は投票受付部として機能する。
次のステップS5で、サーバ14は、ステップS3で受け付けた各参加者端末12からの受信データに基づいて、代表発話の決定を含めて、ロボット10や各モダリティの操作責任を各参加者に割り当てる。
代表発話の決定については、一例として、先に説明したように各参加者端末およびシステム(サーバ14)からの投票による多数決を採用する。つまり、投票数の最多の意見を代表発話として決定する。つまり、ステップ5は、投票受付部(ステップS3)で受けた投票に基づいて、所定のルールに従って代表発話文を選択する、選択部として機能する。
ただし、多数決ルールであっても、ある参加者には他の参加者の2倍の投票価値を認めるなど、各参加者の投票に重みを付けることも考えられる。たとえば、仕事上のチームであれば上司の投票は重くしたり、学生と教授のチームでは教授の投票を重く計算したりするなどが考えられる。重要視する参加者を得票数等履歴によって、サーバ14が変更してもよい。
得票数に応じた、指定したランダム性による確率選択によって指名してもよい。
しかしながら、代表発話の決定についてのルールは、多数決ルール以外に適宜のルールが採用され得る。たとえば、チーム内において、現在の議題(テーマ)について最適の(最も詳しい)担当者を一義的に決定するというルールがあってよい。
サーバ14がシステムとして投票してもよい。たとえば、同じ参加者を選び続けたり、同じ参加者が選ばれ続けたりしないような、バイアスとして。システムが投票する別の例としては、議論終盤において、選択を保守的にする(選択ランダム性を小さくする)などが考えられる。
ただし、投票の結果、またはサーバ14の指名の結果、代表発話として選択された参加者が代表発話として発話することを受諾しないときには、再投票することも考えられる。
さらに、投票としては積極的投票だけでなく、消極的投票または否定的投票が考えられてもよい。特に、否定的投票が1票でもあれば、積極的投票の得票が最多であってもその発話文を代表発話文として選択しないということもできる。
次のステップS7でサーバ14は、各参加者端末12へ、図7のようなGUIへの表示データ(投票状況、操作責任割り当て情報など)を送信する。その結果、各参加者端末12上でたとえば図7のように投票アイコン96などを含むGUIが表示される。
サーバ14は最後に、ステップS9で、操作責任に基づいて、どの参加者端末からの発話文データを発話エージェントすなわちロボット10へ送信するかを更新する。つまり、参加者端末12とロボット10とのモダリティの接続を更新する。
そして、ステップS11で会議の終了を判断したとき、ステップS13で終了処理を実行する。そうでないときには先のステップS3に戻る。
なお、ステップS9で決まった参加者端末から代表発話文データを受け取るロボット10のCPU40(図4)は、図10に示すフロー図に従って動作する。
図10の最初のステップS41では、ロボット10のCPU40は、所定の初期化処理を実行する。そして、ステップS43で終了かどうか判断し、“YES”の場合にはそのままステップS45で終了処理を実行する。ステップS43で“NO”を判断すると、続くステップS47で、サーバ14の指示に従って代表発話に決定された発話文データが該当の参加者端末から送られ、CPU40はその発話文データを受信する。
次のステップS49でCPU40は、センサとしてのカメラ34やマイク36からの画像データや音声データ、さらには外部センサとしてのキネクト(Kinect:商品名)などからのセンサデータ、さらには相手チームのロボットの動作情報を受信する。そして、ステップS51で自動応答するかどうか判断し、“YES”の場合には、ステップS53で、自動応答を出力信号に重畳する。つまり、受け取ったセンサ情報や自チームロボットや相手チームロボットの動作情報をもとに、対応する応答動作を生成し、出力信号に重畳してもよい。たとえば、カメラ画像において、参加者の誰かが発話したとき、その発話方向を見る、などの社会的機能を発揮させる。
そして、ステップS55で、ステップS47で受け取った発話文データを音声変換して、ロボット10のスピーカ32から出力する。併せて、口30を動かすアクチュエータ50(図4)を制御して、口唇運動を行わせる。
ただし、基本的には、代表発話文テキストデータがロボット10に送信されるとロボット10はすぐに発話する。しかしながら、ロボット10から代表発話を出力するタイミングは、いずれかの参加者端末12からロボット10に指令(たとえばEnterキーの操作)が与えられたとき、発話するような適宜のタイミングにされてもよい。
このようにして、ロボット10が各参加者を代表して発話することによって、各参加者は、自己を韜晦することができ、気楽に意見(発話)を提示するとこができ、あるいは別人格として意見(発話)を提示することができる。
さらに、非代表参加者が共感表現(投票)を示すことで、代表発話者が意見を言い易いだけでなく、相手チームの参加者も納得し易い。非代表参加者が共感表現の投票に参加することで、チーム内の共感が促進される。
図11はこの発明の他の実施例の会議システム100の概要を示すが、この実施例は、図1実施例に比べて、各チームに2体のロボット10および10subを配置した点が異なる。
この実施例では、ロボット10が主ロボットとして機能し、ロボット10subが副ロボットとして機能し、両方とも、図12に示すように、自陣のサーバ14によって制御される。
図11および図12に示す実施例では、図13に示す参加者端末12が用いられ得る。この実施例の参加者端末12では、自分欄86に、切り替えボタン98cが形成される。この切り替えボタン98cは、匿名、記名の切り替えるためのボタンであり、このボタン98cを押したときには、(自分欄86の)意見表示部92に入力した発話文が、自分の「心の声」(匿名)として意見表明されることを希望することを示す。そして、そのようにして入力される「心の声」は、匿名表示部99に表示される。
この実施例によれば、他の参加者に、心の声を、匿名の形で伝えられる。システムすなわちサーバ14は、排他的に、心の声を表示する。ただし、心の声は、システム(サーバ14)が勝手に、誰か参加者が言ったかのようなフリをして出力する場合もある。
なお、図13では、参加者端末12のキーボード84は、図面スペースの関係で、詳細を図示していないが、これは図7のものと同様である。
この実施例において、サーバ14は図14に示すフロー図に従って動作する。図14において、ステップS1‐S7は図8のステップS1‐S7と同様である。したがって、ここでは重複する説明は省略する。
ただし、ステップS3でのステップS23(図9)では、この実施例のように自チームに2体以上のロボット(発話エージェント)を設置したときに、どのロボットをどの参加者が操作するかなどの操作権情報も入力する。つまり、上述のように、匿名ボタン98cを押した上で発話文テキストを入力した参加者の参加者端末は副ロボット10subを操作し、匿名ボタン98cを押さないで発話文テキストを入力した参加者であって代表として選択された参加者端末には主ロボット10を操作するように操作権が付与される。
それとともに、ステップS27(図9)では、この実施例のように自チームに2体以上のロボット(発話エージェント)を設置したときに、該当の参加者がどのロボット10に操作責任があるかを表示する。
そして、図14のステップS11で“NO”を判断したとき、図8のステップS9に相当するステップS91‐S97を実行する。このステップS91‐S97では、各参加者からの入力(投票)をもとに、どの参加者からの入力(発話文)をどの表示部(ロボット)に出力するかを決定する。
すなわち、ステップS91およびS93では、たとえば多数決で決定された代表発話に決定された発話文を入力した参加者端末から主ロボット10へのチャネルを形成し、当該参加者端末からの発話文データを主ロボット10(のCPU40)に与える。さらに、ステップS95‐S97では、前述した「心の声」の発話文データを入力した参加者端末から副ロボット10subへのチャネルを形成し、当該参加者端末からの発話文データを副ロボット10sub(のCPU40)に与える。
したがって、図10のロボット制御プログラムに従って、主ロボット10からは先の実施例と同様に、チームを代表する発話文のデータに従った発話音声が出力されるとともに、副ロボット10subからは、「心の声」の発話文データに従った発話音声が出力される。つまり、主ロボット10は代表発話を出力する主(代表)発話出力部として機能し、副ロボット10subは代表発話以外の発話(非代表発話)を出力する副(非代表)発話出力部として機能する。
つまり、この実施例によれば、非代表発話が非代表発話エージェントから、たとえば心の声として出力されるので、各参加者の共感を得やすく、チーム内のまとまりを得やすい。
なお、図13に示す実施例では、匿名表示部99では、ただ1つの匿名希望発話文が入力される場合について説明した。この場合は、匿名発話は、無条件で副ロボット10subによって発話される。
しかしながら、匿名発話にも投票できるようにしてもよい。この場合、参加者端末12には図15に示すようなGUIが表示される。このGUIでは、図13の実施例に比べて、匿名表示部99にも投票表示部94を設定し、各参加者端末からの投票があったとき、投票アイコンを表示する。
そして、この匿名発話文についても、先の代表発話文と同じような、たとえば図8のステップS5でのように、多数決ルールを適用して、代表匿名発話として選定するようにしてもよい。
なお、図11および図13または図15に示す実施例において、もし匿名発話の発話文の入力がない場合には、副ロボット10subは、たとえば通信装置44(図4)を利用してウェブサイトにアクセスして、そのときの議題に関連する情報を取得して発話したり、各参加者端末12に提示したりすることができる。
図16は、この発明の他の実施例で利用可能な参加者端末12のGUIを示し、この実施例のGUIでは、ステップS7(図8)においてサーバ14から送られる表示データに従って、キーボードが表示されていた領域84(図7など)が感情表出領域100として形成される。この感情表出領域100には、この実施例では4種類の感情表出マーカ100a、100b、100cおよび100dが表示される。したがって、この実施例では、サーバ14が、各参加者端末の表示部に複数の感情表出マーカを表示させる感情表出マーカ表示部として機能する。
なお、図16の実施例では、表出できる感情は、「うれしい(納得)」、「怒り」、「悲しい」および「驚き」の4種類であるが、もっと多くても、少なくてもよい。
この感情表出領域100の各マーカ100a‐100dは、相手チームに対する感情表出のために利用されるが、それ以外にも、たとえば代表発話に対する他の参加者の感情を表出するためにも使用され得る。
この感情表出マーカのどれかをたとえばタッチ操作によって選択すると、それが投票としてサーバ14によって受付けられる。したがって、この実施例では、サーバ14が、感情表出マーカに対して各参加者端末からの投票を受ける感情表出マーカ投票受付部として機能する。サーバ14が感情表出マーカに対する投票を受け付け、その結果として、ステップS7(図8)においてサーバ14から送られる表示データに従って、タッチしたマーカに投票アイコン96が表示される。したがって、参加者がどのような感情を持っているかが容易に理解でき、表示するマーかをたとえば多数決の票数に応じた形にすることで、チーム内共感を促進することができる。
このように、この実施例では、非発話要素(発話文ではない)である感情表出マーカ100a、100b、100cおよび100dへの投票も可能であり、各参加者端末12はこのような非発話要素にも投票することができる。ただし、非発話要素としては、感情表出マーカでなく、他の要素であってもよい。
ただし、図16の実施例で用いる感情表出マーカは、図7または図13に示すGUIにも適用可能であることは言うまでもない。
上で説明した実施例の会議システムでは、自チームと相手チームが同じ空間で相対しているものとして説明したが、相手チームは遠隔地にあってもよい。その場合には、サーバ14どうしをインタネットで結ぶようにすればよい。
さらにこの発明の会議システムには、相手チームがなくてもよく、同じチーム内での意見の効率的な集約のために利用可能である。その場合には、主ロボット100だけでもよいが、副ロボット10subを利用することも可能である。
さらに発話エージェントとしては、ロボットではなく、ディスプレイに表示されたキャラクタが利用されてもよい。
代表発話は、声で出力しないで、ディスプレイにテキスト表示として出力されるようにしてもよい。
100 …会議システム
10、10sub…ロボット
12 …参加者端末
14 …サーバ
16 …ネットワーク

Claims (7)

  1. 第1発話エージェントおよび第2発話エージェントを備える、会議システムであって、
    各々が入力部と表示部を有する複数の参加者端末から発話文を受ける発話文受付部、
    各参加者端末の前記表示部に複数の発話文を表示させる発話文表示部、
    各参加者端末からの投票を受ける投票受付部
    前記投票受付部で受けた投票に基づいて前記複数の発話文のうちから代表発話文を選択する選択部
    前記選択された前記代表発話文に従って代表発話を前記第1発話エージェントに発話させる代表発話制御部、および
    前記代表発話文以外の発話文に従って前記第2発話エージェントに発話させる非代表発話制御部を備える、会議システム。
  2. 前記選択部は前記投票受付部で受けた投票に基づく所定のルールに従って前記代表発話文を選択する、請求項記載の会議システム。
  3. 前記所定のルールは多数決ルールである、請求項記載の会議システム。
  4. 各参加者端末の前記表示部に複数の非発話要素を表示させる非発話要素表示部、および
    前記非発話要素に対して各参加者端末からの投票を受ける非発話要素投票受付部をさらに備える、請求項1ないしのいずれかに記載の会議システム。
  5. サーバをさらに備え、前記サーバが前記参加者端末から入力される発話文とは別のシステム意見を出力
    前記システム意見は各参加者端末の前記表示部に表示される、請求項1ないしのいずれかに記載の会議システム。
  6. 各参加者端末の前記表示部に各参加者端末上で選択可能な少なくとも1つの意見の選択肢を表示する選択肢表示部をさらに備え、
    参加者端末で前記選択肢を選択することによって、前記意見をその参加者端末からの発話文として入力する、請求項1ないしのいずれかに記載の会議システム。
  7. 第1発話エージェントおよび第2発話エージェントを備える、会議システムのコンピュータによって実行され、前記コンピュータを、
    各々が入力部と表示部を有する複数の参加者端末から発話文を受ける発話文受付部、
    各参加者端末の前記表示部に複数の発話文を表示させる発話文表示部、
    各参加者端末からの投票を受ける投票受付部
    前記投票受付部で受けた投票に基づいて前記複数の発話文のうちから代表発話文を選択する選択部
    前記選択された前記代表発話文に従って代表発話を前記第1発話エージェントに発話させる代表発話制御部、および
    前記代表発話文以外の発話文に従って前記第2発話エージェントに発話させる非代表発話制御部
    として機能させる、制御プログラム。
JP2017070851A 2017-03-31 2017-03-31 会議システムおよび制御プログラム Active JP6856243B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017070851A JP6856243B2 (ja) 2017-03-31 2017-03-31 会議システムおよび制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017070851A JP6856243B2 (ja) 2017-03-31 2017-03-31 会議システムおよび制御プログラム

Publications (2)

Publication Number Publication Date
JP2018174425A JP2018174425A (ja) 2018-11-08
JP6856243B2 true JP6856243B2 (ja) 2021-04-07

Family

ID=64108897

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017070851A Active JP6856243B2 (ja) 2017-03-31 2017-03-31 会議システムおよび制御プログラム

Country Status (1)

Country Link
JP (1) JP6856243B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022079774A1 (ja) * 2020-10-12 2022-04-21 日本電気株式会社 分析装置、分析システム、分析方法、およびプログラムが格納された非一時的なコンピュータ可読媒体
WO2024154626A1 (ja) * 2023-01-16 2024-07-25 京セラ株式会社 電子機器及びプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3517258B2 (ja) * 1993-08-31 2004-04-12 株式会社富士通ソーシアルサイエンスラボラトリ 情報作成装置
JP2004310272A (ja) * 2003-04-03 2004-11-04 Sony Corp グループワーク支援装置、グループワーク支援方法、グループワーク支援プログラム、及び記憶媒体
JP2005141706A (ja) * 2003-11-04 2005-06-02 Three Ware Enterprise:Kk ネットワークコミュニケーション管理システム
JP2007030050A (ja) * 2005-07-22 2007-02-08 Nec Corp ロボット制御装置、ロボット制御システム、ロボット装置、およびロボット制御方法
JP2009093220A (ja) * 2007-10-03 2009-04-30 Dsti Holdings Co Ltd 電子会議システム用管理サーバおよびコンピュータプログラム
JP5614798B2 (ja) * 2010-03-18 2014-10-29 BizMobile株式会社 電話会議システム、通信サーバー、通信端末及び電話会議方法。
JP6327300B2 (ja) * 2016-08-05 2018-05-23 富士通株式会社 グループ作業支援プログラム、グループ作業支援装置及びグループ作業支援方法

Also Published As

Publication number Publication date
JP2018174425A (ja) 2018-11-08

Similar Documents

Publication Publication Date Title
US20220284896A1 (en) Electronic personal interactive device
JP5195106B2 (ja) 画像修正方法、画像修正システム、及び画像修正プログラム
KR102448382B1 (ko) 텍스트와 연관된 이미지를 제공하는 전자 장치 및 그 동작 방법
JP7056055B2 (ja) 情報処理装置、情報処理システム及びプログラム
WO2016080553A1 (ja) 学習型ロボット、学習型ロボットシステム、及び学習型ロボット用プログラム
US11036285B2 (en) Systems and methods for mixed reality interactions with avatar
US11308312B2 (en) System and method for reconstructing unoccupied 3D space
Straub ‘It looks like a human!’The interrelation of social presence, interaction and agency ascription: a case study about the effects of an android robot on social agency ascription
JP6992957B2 (ja) エージェント対話システム
JP7323098B2 (ja) 対話支援装置、対話支援システム、及び対話支援プログラム
Gosling Kinesics in discourse
JP2019128683A (ja) オフィス用バーチャルリアリティシステム、及びオフィス用バーチャルリアリティプログラム
JP6856243B2 (ja) 会議システムおよび制御プログラム
JP2019086858A (ja) 顧客応対システム及び顧客応対方法
CN115494941A (zh) 基于神经网络的元宇宙情感陪护虚拟人实现方法及系统
JP2021051693A (ja) 発話システム、発話推薦装置、発話推薦プログラムおよび発話推薦方法
JP2017162268A (ja) 対話システムおよび制御プログラム
JP2021114642A (ja) テレビ会議装置、テレビ会議システム及びプログラム
JP7423490B2 (ja) ユーザの感情に応じたキャラクタの傾聴感を表現する対話プログラム、装置及び方法
WO2020194828A1 (ja) 情報処理システム、情報処理装置、および情報処理方法
JP7257349B2 (ja) 対象人物の特徴的な身振りを推定するプログラム、装置及び方法
Machado et al. Sound chat: Implementation of sound awareness elements for visually impaired users in web-based cooperative systems
JP7150114B1 (ja) コミュニケーション支援システム、コミュニケーション支援方法、及びコミュニケーション支援プログラム
US20240361831A1 (en) Communication assistance system, communication assistance method, and communication assistance program
US20240291892A1 (en) Systems and methods for recommending interactive sessions based on social inclusivity

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201020

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20201217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210311

R150 Certificate of patent or registration of utility model

Ref document number: 6856243

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250