JP2010176544A - 会議支援装置 - Google Patents

会議支援装置 Download PDF

Info

Publication number
JP2010176544A
JP2010176544A JP2009020451A JP2009020451A JP2010176544A JP 2010176544 A JP2010176544 A JP 2010176544A JP 2009020451 A JP2009020451 A JP 2009020451A JP 2009020451 A JP2009020451 A JP 2009020451A JP 2010176544 A JP2010176544 A JP 2010176544A
Authority
JP
Japan
Prior art keywords
speech
degree
conference
unit
speaker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009020451A
Other languages
English (en)
Inventor
Nobuhiro Shimogoori
信宏 下郡
Yoshiaki Nishimura
圭亮 西村
Sogo Tsuboi
創吾 坪井
Akitsugu Ueno
晃嗣 上野
Akira Kumano
明 熊野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2009020451A priority Critical patent/JP2010176544A/ja
Publication of JP2010176544A publication Critical patent/JP2010176544A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)

Abstract

【課題】発言の性質を参加者に気付かせて生産的な会議の進行を促進可能にする会議支援技術を提案する。
【解決手段】判定部133は、音声入力受付部130で音声として入力が受け付けられ音声認識部131が解析した発言を表すテキストを、ルール記憶部132に記憶されたルール情報が表すルールと照合して、発言の性質とその度合いとを判定する。発言者特定部134は、発言者を特定する。発言相手特定部135は、発言相手を特定する。集計部137は、発言記憶部136に発言毎に記憶された発言情報を用いて、発言者の各発言相手に対する肯定度及び否定度を定期的に集計する。合成部138は、撮影部112で撮影された映像と、撮影部154で撮影された映像と、集計部137が集計した肯定度及び否定度とを合成した映像を表示部103に表示させる。
【選択図】 図3

Description

本発明は、会議支援装置に関する。
会議中に自分の発言を客観的に把握することは難しい。これを支援するために、従来より、会議の各参加者の発言量を各参加者に提示することで、発言が特定の参加者だけに偏らないようにするシステムが提案されている(例えば特許文献1参照)。
特開2006−208482号公報
しかし、特許文献1のシステムでは、発言回数や発言時間などの表面的な事象のみを扱っており、会議の質や会議の効率に直接的に影響する発言の内容を扱うことは困難であった。このため、生産的な発言を長くしている参加者と、非生産的な発言を長くしている参加者とを区別することが困難であった。このため、否定的な発言を繰り返し、会議を非生産的にしている原因となっている参加者にそのことを気付かせることが困難であった。
本発明は、上記に鑑みてなされたものであって、発言の性質を参加者に気付かせて生産的な会議の進行を促進可能な会議支援装置を提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、会議支援装置であって、音声で発せられた発言の入力を受け付ける入力受付手段と、前記発言である音声を認識して、当該発言を文字で表すテキストを生成する音声認識手段と、前記テキストと、発言の性質を特徴付けるルールとを用いて、前記発言の性質とその度合いを判定する判定手段と、前記発言の性質とその度合い及び前記テキストを対応付けて記憶する記憶手段と、前記発言の性質毎に当該発言の性質の度合いを集計する集計手段とを備えることを特徴とする。
本発明によれば、発言の性質を参加者に気付かせて生産的な会議の進行を促進可能にする。
図1は、一実施の形態にかかる会議システムの構成を例示する図である。 図2は、同実施の形態にかかる会議支援装置10のハードウェア構成を例示する図である。 図3は、同実施の形態にかかる会議支援装置10の機能的構成を会議処理装置11の構成と共に例示する図である。 図4は、同実施の形態にかかるルールを例示する図である。 図5は、同実施の形態にかかる表示部103に表示される合成映像を示す図である。 図6は、同実施の形態にかかる会議支援装置10の行う会議支援処理の手順を示すフローチャートである。 図7は、図6のステップS3で行なう判定の処理の詳細な手順を示すフローチャートである。 図8は、図6のステップS5で発言相手を特定する処理の詳細な手順を示すフローチャートである。 図9は、同実施の形態にかかる発言記憶部136に記憶される発言情報を例示する図である。 図10は、図6のステップS7で行なう集計の処理の詳細な手順を示すフローチャートである。 図11は、一変形例にかかる表示部103に表示される合成映像を示す図である。
以下に添付図面を参照して、この発明にかかる会議支援装置の最良な実施の形態を詳細に説明する。
(1)構成
図1は本実施の形態にかかる会議システムの構成を例示する図である。当該会議システムでは、会議支援装置10と、会議処理装置11とが各々異なる会議室に備えられ、通信回線を介して各々接続される。説明の都合上、会議支援装置10のある会議室を「手前の会議室」と記載し、会議処理装置11が備えられる会議室を「遠隔地の会議室」と記載する。当該会議システムでは、手前の会議室と遠隔の各会議室とで合同で行われる会議において、手前の会議室にいる会議の参加者の発言が音声として表される音声情報が会議支援装置10に入力されると共に当該参加者の画像が表示され、当該音声情報及び当該画像が通信回線を介して会議処理装置11に送信され当該音声が再生されると共に当該画像が表示される。また、遠隔地の会議室にいる会議の参加者の発言が音声として表される音声情報が会議処理装置11に入力されると共に参加者の画像が表示され、当該音声情報及び当該画像が通信回線を介して会議支援装置10に送信され音声が再生されると共に当該画像が表示される。この結果、手前の会議室では遠隔地の会議室の参加者の発言を聞くことができると共に当該参加者の姿を画像により見ることができ、遠隔地の各会議室では手前の会議室の参加者の発言を聞くことができると共に当該参加者の姿を画像により見ることができる。ここでは、手前の会議室には参加者Bがおり、遠隔地の会議室には参加者A,C,Dがおり、会議支援装置10の利用者は参加者Bであるとする。
次に、会議支援装置10のハードウェア構成について図2を用いて説明する。会議支援装置10は、装置全体を制御するCPU(Central Processing Unit)等の制御部101と、各種データや各種プログラムを記憶するROM(Read Only Memory)104やRAM(Random Access Memory)105等の記憶部と、各種データや各種プログラムを記憶するHDD(Hard Disk Drive)やCD(Compact Disk)ドライブ装置等の外部記憶部107と、これらを接続するバス108とを備えており、通常のコンピュータを利用したハードウェア構成となっている。また、会議支援装置10には、音声が入力されるマイクなどの音声入力部110と、音声を出力するスピーカなどの音声出力部111と、情報を表示する表示部103と、ユーザの指示入力を受け付けるキーボードやマウス等の操作部102と、会議処理装置11などの外部装置との通信を制御する通信部109と、映像を撮影する撮影部112とが有線又は無線により各々接続される。会議処理装置11のハードウェア構成についても会議支援装置10と略同様であるためその説明を省略する。
次に、このようなハードウェア構成において、会議支援装置10の制御部101がROM104や外部記憶部107に記憶された各種プログラムを実行することにより実現される各種機能について具体的に説明する。図3は、会議支援装置10の機能的構成を会議処理装置11の構成と共に例示する図である。会議支援装置10は、機能的構成として、音声入力受付部130と、音声認識部131と、ルール記憶部132と、判定部133と、発言者特定部134と、発言相手特定部135と、発言記憶部136と、集計部137と、合成部138とを有する。これらのうち、音声入力受付部130、音声認識部131と、判定部133と、発言者特定部134と、発言相手特定部135と、集計部137と、合成部138とは、制御部101のプログラム実行時にRAM105上に生成されるものである。ルール記憶部132と発言記憶部136とは、例えば外部記憶部107に記憶されるものである。尚、同図に示される音声入力部110、通信部109、音声出力部111、撮影部112及び表示部103は上述のハードウェア構成で説明した通りのものである。会議処理装置11は、通信部150、音声出力部151、音声入力部152、表示部153及び撮影部154を備える。
音声入力受付部130は、音声入力部110を介して手前の会議室での会議の参加者の発言である音声を表す音声情報の入力を受け付け、発言毎に発言の開始時刻と終了時刻とを計時して、開始時刻及び終了時刻を対応付けた音声情報を発言毎に音声認識部131に渡す。また、音声入力受付部130は、会議処理装置11から送信された、遠隔地の会議室での会議の参加者の発言である音声を表す音声情報の入力を、通信部109を介して受け付け、発言毎に発言の開始時刻と終了時刻とを計時して、開始時刻及び終了時刻を対応付けた音声情報を発言毎に音声認識部131に渡す。音声認識部131は、音声入力受付部130が入力を受け付けた発言毎の音声情報を解析して音声を文字化し、発言を文字で表すテキストを発言毎に生成し、これと、開始時刻及び終了時刻が対応付けられた音声情報とを判定部133に渡す。
ルール記憶部132は、以下に説明する判定部133が発言の性質とその度合いとを判定するために用いるルールを記憶する。判定部133は、テキストと、開始時刻及び終了時刻が対応付けられた音声情報とを受け取ると、テキストを、ルール記憶部132に記憶されたルールと照合して、発言の性質とその度合いとを判定する。本実施の形態では、判定部133は、発言の性質として発言が肯定的なものか否定的なものかを判定し、その度合いとして肯定的な度合い(肯定度という)又は否定的な度合い(否定度という)を判定する。図4は、ルールを例示する図である。同図においては、2行目〜11行目が各ルールに対応するものであり、各ルールは、発言の性質を特徴付けるキーワードと、発言の性質の度合いを示す得点とが各々対応付けて示す。判定部133は、このようなルールと、テキストとを照合することにより、発言の性質とその度合いを判定する。尚、判定の詳細については後述する。そして、判定部133は、判定結果と、開始時刻及び終了時刻が対応付けられた音声情報と、テキストとを発言者特定部134に渡す。
発言者特定部134は、判定結果と、開始時刻及び終了時刻が対応付けられた音声情報と、テキストとを受け取ると、音声情報を用いて、発言を行った参加者(発言者という)を特定する。発言者の特定は、例えば、音声情報が表す音声の声紋を用いて行う。この他、例えば、音声が入力された方向を特定することにより発言者を特定したり、画像を用いて発言者を特定したり、参加者毎に、音声入力部110となるマイクを持たせてもっとも明瞭に発せられた音声が入力されたマイクの持ち主を発言者と特定したりするなどしても良い。そして発言者特定部134は、特定した発言者の名前(発言者名という)を、判定結果と、開始時刻及び終了時刻が対応付けられた音声情報と、テキストと共に発言相手特定部135に渡す。尚、例えば、会議の参加者に対応して外部記憶部107にその名前(参加者名という)を予め記憶させ、特定した発言者に対応する参加者名を発言者名として外部記憶部107から読み出すことにより取得する。
発言相手特定部135は、発言者名と、判定結果と、開始時刻及び終了時刻が対応付けられた音声情報と、テキストとを受け取ると、音声情報を用いて、発言者がどの参加者(発言相手という)に対して発言したのかを特定する。発言相手を特定する方法については後述する。発言相手特定部135は、特定した発言相手の名前(発言相手名という)と、発言者名と、判定結果と、開始時刻及び終了時刻が対応付けられた音声情報と、テキストと(発言情報という)を対応付けて発言毎に発言記憶部136に記憶する。尚、発言相手名は、例えば上述のように外部記憶部107に記憶された参加者名のいずれかになる。
集計部137は、発言記憶部136に発言毎に記憶された発言情報を用いて、発言者の各発言相手に対する肯定度及び否定度を定期的に集計して、集計した肯定度及び否定度を合成部138に渡す。
撮影部112は、手前の会議室内の映像を撮影し、その映像を通信部109に渡す。通信部109は、撮影部112から渡された映像を通信部150に送信すると共に、遠隔地の会議室で撮影部154が撮影して通信部150から送信された映像を受信して合成部138に渡す。また、通信部109は、音声入力受付部130で入力が受け付けられた音声を表す音声情報を通信部150に渡すと共に、遠隔地の会議室に備えられた音声入力部152から入力された音声を表す音声情報を通信部150から受信し、音声出力部111に渡す。
合成部138は、通信部109から渡された映像と、集計部137から渡された肯定度及び否定度とを用いて合成映像を生成し、当該合成映像を表示部103に表示させる。具体的には例えば、合成部138は、各映像を解析して、各映像に写っている各参加者の姿を表す部分に、各参加者に対する肯定度及び否定度をグラフ化して重ねた映像(合成映像という)を生成してこれを表示部103に表示させる。図5は、表示部103に表示される合成映像を示す図である。同図に示される合成映像により、手前の会議室では、参加者Bは、遠隔地の会議室にいる各参加者A,C,Dの姿と共に、自身の他の各参加者A,C,Dに対する肯定度及び否定度を視認することができる。この合成映像の詳細については後述する。
一方、会議処理装置11の撮影部154は、遠隔地の会議室内の映像を撮影し、その映像を通信部150に渡す。通信部150は、撮影部154から渡された映像を通信部109に送信し、通信部109から受信した映像を受信してこれを表示部153に渡し、通信部109から送信された音声情報を受信してこれを音声出力部151に渡す。音声出力部151は、通信部150から渡された音声情報が表す音声を出力する。表示部153は、通信部150から渡された映像を表示する。従って、遠隔地の会議室では、各参加者A,C,Dは、手前の会議室の参加者Bの映像を見ながらその発言を聞くことができる。
(2)動作
次に、本実施の形態にかかる会議支援装置10の行う会議支援処理の手順について図6を用いて説明する。会議支援装置10は、音声入力受付部130の機能により、音声入力部110を介して手前の会議室の参加者の発言を音声として表す音声情報と、通信部109を介して遠隔地の会議室の各参加者の発言を音声として表す音声情報とを発言毎に、その発言の開始時刻及び終了時刻と共に随時取得する(ステップS1)。次いで、会議支援装置10は、音声認識部131の機能により、発言毎の音声情報を解析して音声を文字化して発言を文字で表すテキストを発言毎に生成する(ステップS2)。そして、会議支援装置10は、判定部133の機能により、テキストと、ルール記憶部132に記憶されたルールとを用いて、発言の性質とその度合いとを判定する(ステップS3)。
ここで、ステップS3で行なう判定の処理の詳細な手順について図7を用いて説明する。会議支援装置10は、発言を文字で表すテキストと、ルール記憶部132に記憶された各ルールとをルール毎に照合すべく、以下の処理を行う。まず、会議支援装置10は、照合が未だ済んでいないルールがルール記憶部132に記憶されているか否かを判定し(ステップS20)、照合が未だ済んでいないルールがルール記憶部132に記憶されている場合(ステップS20:YES)、未だ済んでいないルールの中から照合対象を選択して、当該ルールが示すキーワードが、テキストに存在するか否かを判定する(ステップS21)。当該キーワードがテキストに存在する場合(ステップS21:YES)、会議支援装置10は、当該キーワードに対応する得点を取得し、当該得点を合計得点に加算し(ステップS22)、ステップS20に戻る。そして、ルール記憶部132に記憶された全てのルールの照合が済んだ場合には(ステップS20:NO)、会議支援装置10は、合計得点を判定結果として出力する(ステップS23)。
図6の説明に戻る。ステップS3の後、会議支援装置10は、発言者特定部134の機能により、音声情報を用いて、発言を行った参加者(発言者)を特定して、当該発言者の名前(発言者名)を出力する(ステップS4)。次いで、会議支援装置10は、発言相手特定部135の機能により、ステップS3で特定した発言者名及び音声情報を用いて、発言相手を特定する(ステップS5)。
ここで、ステップS5で発言相手を特定する処理の詳細な手順について図8を用いて説明する。会議支援装置10は、音声情報が表す音声を解析して、ステップS3で特定した発言者以外の他の参加者の名前(参加者名)が呼びかけられているか否かを判定する(ステップS40)。具体的には、上述したように参加者名は例えば外部記憶部107に記憶されているから、会議支援装置10は、ステップS3で特定した発言者の発言者名以外の参加者名が出現するか否かを判定する。発言者名以外の参加者名が出現する場合(ステップS40:YES)、会議支援装置10は、出現した参加者名を発言相手として(ステップS42)、その参加者名を発言相手名として出力する(ステップS48)。
発言者名以外の参加者名が出現しない場合(ステップS40:NO)、会議支援装置10は、ステップS1で取得した音声情報に対応付けられている開始時刻と、当該音声情報を取得する直前に取得して発言記憶部136に記憶した音声情報に対応付けられている終了時刻とを取得する(ステップS41)。即ち、会議支援装置10は、現在の発言の開始時刻と、直前の発言の終了時刻とを取得する。そして、会議支援装置10は、当該開始時刻と、当該終了時刻との間を算出し(ステップS43)、当該間が10秒以下であるか否かを判定する(ステップS44)。当該間が10秒以下である場合(ステップS44:YES)、現在の発言は直前の発言を受けてなされた可能性が高い。即ち、現在の発言の発言者は、直前の発言の発言者に対して発言した可能性が高い。従って、この場合、会議支援装置10は、直前の発言の発言者を現在の発言の発言相手として特定する。このため、会議支援装置10は、直前の発言を音声として表す音声情報、即ち、ステップS41で終了時刻を取得した音声情報と対応付けられて発言記憶部136に記憶されている発言者名を取得し(ステップS45)、当該発言者名を現在の発言における発言相手として(ステップS46)、当該発言者名を発言相手名として出力する(ステップS48)。一方、当該間が10秒より大きい場合(ステップS44:NO)、現在の発言は直前の発言を受けてなされたものではないものとして、会議支援装置10は、発言相手を特定できず、従って、発言相手を不明として(ステップS47)、発言相手名(例えば「不明」)を出力する(ステップS48)。
図6の説明に戻る。ステップS5の後、会議支援装置10は、ステップS1で取得した、開始時刻及び終了時刻が対応付けられた音声情報と、ステップS2で生成したテキストと、ステップS3の判定結果と、ステップS4で出力した発言者名と、ステップS5で出力した発言相手名と(これらを発言情報とする)を対応付けて発言記憶部136に記憶させる(ステップS6)。
図9は、発言記憶部136に記憶される発言情報を例示する図である。同図に示されるように、発言の開始時刻及び終了時刻と、発言者名と、発言相手名と、合計得点と、発言を文字として表すテキストと、図示はしていないが音声情報とが対応付けられて発言記憶部136に記憶される。
その後、会議支援装置10は、集計部137の機能により、発言情報を用いて定期的に、発言者の各発言相手に対する発言の性質の度合いとして肯定度及び否定度を集計する(ステップS7)。
ここで、ステップS7で行なう集計の処理の詳細な手順について図10を用いて説明する。尚、ここでは、会議支援装置10は、発言情報が発言記憶部136に記憶される度に以下に説明する集計を行なうものとする。会議支援装置10は、発言記憶部136に記憶された発言情報のうち、集計がまた済んでいない発言情報が存在するか否かを判定する(ステップS60)。集計がまた済んでいない発言情報が存在する場合(ステップS60:YES)、会議支援装置10は、集計がまた済んでいない発言情報のうち1つを選択して(ステップS61)、当該発言情報に含まれる合計得点が「0」より大きいか否かを判定する(ステップS62)。当該発言情報に含まれる合計得点が「0」より大きい場合には(ステップS62:YES)、会議支援装置10は、当該発言情報に含まれる発言者名、発言相手名及び合計得点を用いて、当該発言者名の当該発言相手名に対する肯定度に当該合計得点を加算する(ステップS63)。この肯定度は、発言者の発言相手に対する肯定的な発言の度合いを示すものとなる。一方、当該発言情報に含まれる合計得点が「0」以下である場合には(ステップS62:NO)、会議支援装置10は、当該発言情報に含まれる発言者名、発言相手名及び合計得点を用いて、発言者の発言相手に対する否定度に当該合計得点を加算する(ステップS64)。この否定度は、発言者の発言相手に対する否定的な発言の度合いを示すものとなる。尚、発言者の各発言相手に対する肯定度及び否定度の初期値は、各々「0」であるとする。そして、発言記憶部136に記憶された全ての発言情報について集計が済んだ場合(ステップS60:NO)、会議支援装置10は、ステップS65で、発言者の各発言相手に対する肯定度及び否定度を集計結果として出力する。
尚、会議支援装置10の利用者である参加者Bについて、特に図示しないが、会議支援装置10は、発言相手に関わらない肯定度(利用者肯定度という)及び否定度(利用者否定度という)を別途集計する。即ち、会議支援装置10は、参加者Bの参加者名が発言者名と一致する発言情報について、その合計得点が「0」より大きい場合、当該合計点数を利用者肯定度に加算し、当該合計点数が「0」以下である場合、当該合計点数を利用者否定度に加算する。
図6の説明に戻る。ステップS7の後、会議支援装置10は、合成部138の機能により、通信部109から渡された映像と、ステップS7で集計した集計結果とを用いて、各映像に写っている各参加者の姿を表す部分に、各参加者に対する肯定度及び否定度をグラフ化して重ねた合成映像を生成してこれを表示部103に表示させる(ステップS8)。
図5の合成映像は、会議支援装置10の利用者である参加者Bを発言者とし、各発言相手として参加者A,C,Dに対する肯定度及び否定度をグラフ化した例である。同図に示されるように、当該合成画像により、参加者B以外の会議の各参加者A,C,Dの3人の姿が表示され、各参加者の下に棒グラフで相手に向けられた発言の集計結果が表示部103に表示される。棒グラフのうち黒く塗りつぶされた部分が否定度を表し、棒グラフのうち白抜きの部分が肯定度を表す。また、棒グラフの長さは、発言の量に比例した長さとなっている。例えば、参加者Aの姿の下に表示された棒グラフは、参加者Bの参加者Aに対する発言の集計結果を表し、この棒グラフでは、黒抜きの部分が白抜きの部分より少ない。このため、参加者Bは参加者Aに対して肯定的な発言が否定的な発言よりも多いことがこの集計結果により分かる。逆に、参加者Cの姿の下に表示された棒グラフでは、白抜きの部分が黒抜きの部分より少ない。このため、参加者Bは参加者Cに対して否定な発言が肯定的な発言よりも多いことが分かり、注意が必要であることが分かる。また、参加者Dの姿の下に表示された棒グラフでは、黒抜きの部分と白抜きの部分とが同程度であるが、棒グラフの長さが他に比べて短い。このため、参加者Bは参加者Dに対する否定な発言と肯定的な発言とは同程度であるが、発言自体が少ないことが分かる。
以上のような構成によれば、各参加者の発言の性質を客観的な分析に基づき提示することができる。また発言の性質として肯定的又は否定的に分類して提示することができ、発言者に無意識のうちに発してしまっている意図しない否定的な発言に気付かせて、これを修正させることができる。また、発言者の発言が他の参加者に対するものかを判定し、他の参加者に対する発言の性質が肯定的か又は否定的かを分類することにより、会議支援装置10の利用者に、特定の参加者にだけ否定的な発言を続けていないかを確認させることができる。この結果、全ての参加者の意見を公平に聞くことを促すことができ、会議の生産性を向上させることができる。従って、以上のような構成によれば、効率的で質の高い生産的な会議の進行を促進することができる。
[変形例]
なお、本発明は前記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、前記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。また、以下に例示するような種々の変形が可能である。
<変形例1>
上述した実施の形態において、会議支援装置10で実行される各種プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また当該各種プログラムを、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成しても良い。
<変形例2>
上述した実施の形態において、ルールは上述のものに限らない。例えば、ルールでは、発言の性質を種類として示すようにしても良い。即ち、発言の性質の種類とは、肯定的、否定的、その他などである。このような発言の性質の分類を上述の言葉と得点とを対応付けたものをルールとしても良い。この場合の得点としては絶対値を設定すれば良い。
また、更に、発言の性質を更に細分化しても良い。例えば、「肯定的」という性質を、承認、積極的、信頼的、支援的などに細分化し、「否定的」という性質を否認、消極的、懐疑的、妨害的などに細分化して、発言の性質が各細分のいずれかに該当するかを会議支援装置10は判定するようにしても良い。
また、ルールは、主語、述語、目的語、補語などを含む文例と、得点とを対応付けて示すものであっても良い。
例えば、「それで行ってみよう」という文例は、肯定的なものとして、得点を対応付けるようにしても良い。また、「その*で行ってみよう」という文例も同様に、肯定的なものとして、得点を対応付けるようにしても良い。「*」には任意の単語が挿入可能であり、例えば、「その案で行ってみよう」「その線で行ってみよう」「その方式で行ってみよう」の全てが同様に肯定的なものとして得点付けられる。
このような構成によれば、発言に含まれる文中で上述のキーワードだけでは肯定的又は否定的かを判断できない文例についても肯定的又は否定的かを判断することができる。
また、例えば、語尾の上がり下がりを分析して、同じ言葉であっても、語尾に応じて得点を変えるようにルールを設定しても良いし、1つの発言の中に繰り返し出現する言葉については、2回目以降に出現する言葉の得点を低くするよう重み付けを行なうようにルールを設定しても良い。
<変形例3>
上述した実施の形態において、発言者の各発言相手に対する肯定度及び否定度を集計するようにしたが、各参加者について、発言相手に関わらず、その発言自体の肯定的な度合いを示す肯定度及び発言の否定的な度合いを示す否定度を集計するようにしても良い。
また、発言の時間帯毎の肯定度及び否定度を集計するなど様々な方法によって発言の性質とその度合いとを集計することができる。
また、会議支援装置10の利用者は、会議支援装置10のある手前の会議室にいる参加者Bとしたが、これに限らず、遠隔地の会議室にいる参加者A,C,Dのいずれかであっても良いし、利用者は1人に限らず、複数であっても良い。
また、発言者の各発言相手に対する肯定度及び否定度を、発言者に対して表示するのではなく、各発言相手に表示するようにしても良いし、会議のオブザーバーに表示させるようにしても良い。この場合、会議支援装置10の有する表示部103ではなく、当該会議支援装置10に接続される他の情報処理装置の有する表示部に上述の合成映像を表示させるようにしても良い。
また、発言者の各発言相手に対する肯定度及び否定度を、各参加者の映像と共に表示しなくても良いし、肯定度及び否定度のグラフ化は上述の例に限らないし、肯定度及び否定度をグラフ化しなくても良い。例えば、発言者名、発言相手名、肯定度及び否定度のみを文字として表示するようにしても良い。
<変形例4>
上述した実施の形態において、発言記憶部136に記憶される発言情報として、音声情報も記憶されるようにしたが、音声情報は記憶されないようにしても良く、発言記憶部136に記憶される発言情報は、図9に示されるものに限らない。
また、上述した実施の形態においては、発言相手特定部135が発言相手を特定した後に、発言の開始時刻及び終了時刻と、発言者名と、発言相手名と、合計得点と、発言を文字として表すテキストと、音声情報とを対応付けて発言情報として発言記憶部136に記憶させるようにした。しかし、発言の開始時刻及び終了時刻と、発言者名と、発言相手名と、合計得点と、発言を文字として表すテキストと、音声情報とを発言記憶部136に記憶させるタイミングはこれに限らない。例えば、音声認識部131が生成したテキストと、発言の開始時刻及び終了時刻と、音声情報とを対応付けて発言情報として発言記憶部136に記憶させ、その後、判定部133は判定結果を発言記憶部136に記憶された発言情報に対応付けるようにし、その後、発言者特定部134が特定した発言者名を発言記憶部136に記憶された発言情報に対応付けるようにし、その後、発言相手特定部135が特定した発言相手名を発言記憶部136に記憶された発言情報に対応付けるようにしても良い。又は、発言者特定部134が発言者を特定した後に、発言者名と、判定結果と、開始時刻及び終了時刻が対応付けられた音声情報と、テキストとを対応付けて発言情報として発言記憶部136に記憶させるようにしても良い。この場合、発言相手特定部135は、特定した発言相手名を、発言記憶部136に記憶された発言情報に対応付けるようにすれば良い。
また、遠隔地の会議室に複数の参加者A,C,Dがおり、これらの映像が1つの会議処理装置11を介して会議支援装置10に送信されるようにした。例えば、遠隔地の会議室が複数あり各会議室に会議処理装置11が各々備えられ、複数の会議処理装置11から各参加者の映像が会議支援装置10に送信されるようにしても良い。図11は、利用者である参加者Bに対して他の参加者E,F,G,Hが各々異なる遠隔地の各会議室におり、各会議処理装置11から参加者の映像が会議支援装置10に送信された場合の合成映像を例示する図である。同図に示されるように、遠隔地の会議室が複数あった場合であっても、利用者である参加者Bは、各会議室にいる参加者の各映像と共に、当該各参加者に対する肯定度及び否定度を視認することができる。従って、効率的で質の高い生産的な会議の進行を促進することができる。
10 会議支援装置
11 会議処理装置
101 制御部
102 操作部
103 表示部
107 外部記憶部
108 バス
109 通信部
110 音声入力部
111 音声出力部
112 撮影部
130 音声入力受付部
131 音声認識部
132 ルール記憶部
133 判定部
134 発言者特定部
135 発言相手特定部
136 発言記憶部
137 集計部
138 合成部
150 通信部
151 音声出力部
152 音声入力部
153 表示部
154 撮影部

Claims (6)

  1. 音声で発せられた発言の入力を受け付ける入力受付手段と、
    前記発言である音声を認識して、当該発言を文字で表すテキストを生成する音声認識手段と、
    前記テキストと、発言の性質を特徴付けるルールとを用いて、前記発言の性質とその度合いを判定する判定手段と、
    前記発言の性質とその度合い及び前記テキストを対応付けて記憶する記憶手段と、
    前記発言の性質毎に当該発言の性質の度合いを集計する集計手段とを備える
    ことを特徴とする会議支援装置。
  2. 前記発言を発した発言者を特定して、当該発言者を示す発言者情報を出力する第1特定手段を更に備え、
    前記記憶手段は、前記発言者情報、前記発言の性質とその度合い及び前記テキストを対応付けて記憶する
    ことを特徴とする請求項1に記載の会議支援装置。
  3. 前記発言が発せられた相手である発言相手を特定して、当該発言相手を示す発言相手情報を出力する第2特定手段を更に備え、
    前記記憶手段は、前記発言相手情報、前記発言者情報、前記発言の性質とその度合い及び前記テキストを対応付けて記憶する
    ことを特徴とする請求項2に記載の会議支援装置。
  4. 前記集計手段が集計した結果を表示手段に表示させる第1表示制御手段を更に備える
    ことを特徴とする請求項1乃至3のいずれか一項に記載の会議支援装置。
  5. 前記判定手段は、前記テキストと、発言の性質を特徴付けるルールとを用いて、前記発言が肯定的であるか否定的であるかを判定し、前記発言が肯定的である場合の度合い及び前記発言が否定的である場合の度合いを判定する
    ことを特徴とする請求項1乃至4のいずれか一項に記載の会議支援装置。
  6. 前記ルールは、前記発言の性質を特徴付けるキーワード又は文例と、前記発言の性質の度合いとを対応付けて示すものであり、
    前記判定手段は、前記ルールが示す前記キーワード又は文例が前記テキストに含まれるか否かを判定し、前記キーワード又は文例が前記テキストに含まれる場合、当該キーワード又は文例に対応付けられた前記度合いを取得する
    ことを特徴とする請求項1乃至5のいずれか一項に記載の会議支援装置。
JP2009020451A 2009-01-30 2009-01-30 会議支援装置 Pending JP2010176544A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009020451A JP2010176544A (ja) 2009-01-30 2009-01-30 会議支援装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009020451A JP2010176544A (ja) 2009-01-30 2009-01-30 会議支援装置

Publications (1)

Publication Number Publication Date
JP2010176544A true JP2010176544A (ja) 2010-08-12

Family

ID=42707427

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009020451A Pending JP2010176544A (ja) 2009-01-30 2009-01-30 会議支援装置

Country Status (1)

Country Link
JP (1) JP2010176544A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016053891A (ja) * 2014-09-04 2016-04-14 Kddi株式会社 確認装置及びプログラム
JP2017215931A (ja) * 2016-02-02 2017-12-07 株式会社リコー 会議支援システム、会議支援装置、会議支援方法及びプログラム
WO2019142233A1 (ja) * 2018-01-16 2019-07-25 ハイラブル株式会社 音声分析装置、音声分析方法、音声分析プログラム及び音声分析システム
JP2020016893A (ja) * 2018-01-16 2020-01-30 ハイラブル株式会社 音声分析装置、音声分析方法、音声分析プログラム及び音声分析システム
JP2021067846A (ja) * 2019-10-24 2021-04-30 菱洋エレクトロ株式会社 会議支援装置、会議支援方法及び会議支援プログラム
JP2022130635A (ja) * 2016-02-02 2022-09-06 株式会社リコー 会議支援システム、会議支援装置、会議支援方法及びプログラム
JP2022139436A (ja) * 2021-03-12 2022-09-26 Necプラットフォームズ株式会社 会議支援装置、会議支援システム、会議支援方法、およびプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006209332A (ja) * 2005-01-26 2006-08-10 Nippon Telegr & Teleph Corp <Ntt> 価値観推定方法および装置並びにそのプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006209332A (ja) * 2005-01-26 2006-08-10 Nippon Telegr & Teleph Corp <Ntt> 価値観推定方法および装置並びにそのプログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016053891A (ja) * 2014-09-04 2016-04-14 Kddi株式会社 確認装置及びプログラム
JP2017215931A (ja) * 2016-02-02 2017-12-07 株式会社リコー 会議支援システム、会議支援装置、会議支援方法及びプログラム
JP7098875B2 (ja) 2016-02-02 2022-07-12 株式会社リコー 会議支援システム、会議支援装置、会議支援方法及びプログラム
JP2022130635A (ja) * 2016-02-02 2022-09-06 株式会社リコー 会議支援システム、会議支援装置、会議支援方法及びプログラム
WO2019142233A1 (ja) * 2018-01-16 2019-07-25 ハイラブル株式会社 音声分析装置、音声分析方法、音声分析プログラム及び音声分析システム
JP6589042B1 (ja) * 2018-01-16 2019-10-09 ハイラブル株式会社 音声分析装置、音声分析方法、音声分析プログラム及び音声分析システム
JP2020016893A (ja) * 2018-01-16 2020-01-30 ハイラブル株式会社 音声分析装置、音声分析方法、音声分析プログラム及び音声分析システム
JP2021067846A (ja) * 2019-10-24 2021-04-30 菱洋エレクトロ株式会社 会議支援装置、会議支援方法及び会議支援プログラム
JP2022139436A (ja) * 2021-03-12 2022-09-26 Necプラットフォームズ株式会社 会議支援装置、会議支援システム、会議支援方法、およびプログラム

Similar Documents

Publication Publication Date Title
US10347250B2 (en) Utterance presentation device, utterance presentation method, and computer program product
US11335322B2 (en) Learning device, learning method, voice synthesis device, and voice synthesis method
JP2010176544A (ja) 会議支援装置
US11355099B2 (en) Word extraction device, related conference extraction system, and word extraction method
WO2005069171A1 (ja) 文書対応付け装置、および文書対応付け方法
JP2008242318A (ja) 対話を検出する装置、方法およびプログラム
JP2007233075A (ja) 議事録作成装置
JP2010074494A (ja) 会議支援装置
JP5030868B2 (ja) 会議音声録音システム
KR20190065194A (ko) 회의록 열람 문서 생성 방법 및 그 장치
JP6254504B2 (ja) 検索サーバ、及び検索方法
JP2011164681A (ja) 文字入力装置、文字入力方法、文字入力プログラムおよびそれを記録したコンピュータ読み取り可能な記録媒体
US8553855B2 (en) Conference support apparatus and conference support method
CN107767862B (zh) 语音数据处理方法、系统及存储介质
JP2006251042A (ja) 情報処理装置、情報処理方法およびプログラム
JP2015045671A (ja) 歌唱パート決定システム
US20220013128A1 (en) Conversation support system, conversation support method and computer readable storage medium
JP2009053342A (ja) 議事録作成装置
JP2020052511A (ja) 要約生成装置、要約生成方法、及びプログラム
TWI377559B (en) Singing system with situation sound effect and method thereof
CN110959174A (zh) 信息处理装置、信息处理方法以及程序
US20230066829A1 (en) Server device, conference assistance system, and conference assistance method
JP2005025571A (ja) 業務支援装置、業務支援方法およびそのプログラム
JP2018063352A (ja) フレーム選択装置、フレーム選択方法及びプログラム
JP7271821B2 (ja) クラウド音声変換システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110916

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130305

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130625