JP2012253478A - 会議支援システム、会議支援装置、会議支援方法およびコンピュータープログラム - Google Patents

会議支援システム、会議支援装置、会議支援方法およびコンピュータープログラム Download PDF

Info

Publication number
JP2012253478A
JP2012253478A JP2011123157A JP2011123157A JP2012253478A JP 2012253478 A JP2012253478 A JP 2012253478A JP 2011123157 A JP2011123157 A JP 2011123157A JP 2011123157 A JP2011123157 A JP 2011123157A JP 2012253478 A JP2012253478 A JP 2012253478A
Authority
JP
Japan
Prior art keywords
terminal device
speaker
conference support
terminal
conference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011123157A
Other languages
English (en)
Inventor
Takeshi Hibino
健 日比野
Yoshio Komaki
由夫 小巻
Masaya Hashimoto
昌也 橋本
Atsushi Tamura
敦史 田村
Tomoya Yoshimura
智也 吉村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Business Technologies Inc
Original Assignee
Konica Minolta Business Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Business Technologies Inc filed Critical Konica Minolta Business Technologies Inc
Priority to JP2011123157A priority Critical patent/JP2012253478A/ja
Publication of JP2012253478A publication Critical patent/JP2012253478A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】会議の途中で話し手が変わる場合であっても、話し手の負担を従来よりも軽減しつつ、話し手が参照している資料の部分を聞き手に伝えることができる会議支援システムを提供する。
【解決手段】会議支援システム100は、会議支援装置1および複数台の端末装置2を有し、会議支援装置1には、複数台の端末装置2のうちの話し手に使用される端末装置2を特定する発表者特定部が設けられ、端末装置2には、資料の中の、話し手が注目している位置である注目位置を、会議支援装置1に通知する注目位置回答部が設けられ、会議支援装置1には、注目位置回答部から通知された注目位置を、複数台の端末装置2のうちの話し手以外に使用される端末装置2に通知する注目位置通知部が設けられている。
【選択図】図1

Description

本発明は、ネットワークを介して互いに接続された複数のコンピューターにより構成される会議支援システムなどに関する。
ディスプレイ、マイクおよびスピーカーをそれぞれ備えた複数台のコンピューターをネットワークにより接続し、これらのコンピューターを用いて会議を行うことが従来からなされている。この会議の資料としては、例えばPDF(Portable Document Format)形式の電子文書が用いられる。会議の参加者はそれぞれディスプレイに資料を表示して閲覧する。会議の参加者は、発表を行う話し手になることもあれば、発表を聞く聞き手になることもある。
話し手は、ディスプレイに表示された資料を参照しながら説明を行う。話し手の音声は、話し手のコンピューターから聞き手のコンピューターへと送信され、聞き手のコンピューターから出力される。聞き手は、話し手に対して発表について質問をすることが可能であり、他の聞き手はそのやり取りを音声で聞くことができる。このようにコンピューターを用いることによって、遠隔地にいる者であっても会議に参加することができる。
会議において、話し手は、聞き手に対して資料の参照部分を指示しながら説明を行う。聞き手は、話し手に指示された参照部分をディスプレイに表示して、その画像を見ながら説明を聞く。しかし、聞き手は、話し手の説明を聞きながら、例えばメモを取るなど他のことを行う場合がある。また、聞き手は、資料の参照部分以外を見たり、他の資料を見たりする場合もある。このとき、聞き手が資料の参照部分を見失うことがある。参照部分を見失うと、特に資料のボリュームが多い場合は見つけ出すことが困難である。
そこで、話し手のディスプレイに表示される画像と同一の画像を、聞き手のディスプレイに常に表示しておくことが、考えられる。
これにより、聞き手は、話し手の指示する参照部分を見失う可能性が少なくなる。しかし、聞き手は、資料の参照部分以外を見たり、他の資料を見たりすることができず、自由に画像を選択して見ることができないという問題が生じる。
特許文献1および特許文献2には、聞き手が話し手のディスプレイに表示されている画像およびこの画像以外を選択的に見ることができる発明が開示されている。特許文献1および特許文献2の発明によれば、聞き手は、話し手が説明している部分を容易に見つけることができ、かつ、話し手が説明している部分以外の任意の画像をディスプレイで見ることもできる。
特開2000−92217号公報 特開平7−162824号公報
上述の方法を用いるには、参加者のうちの誰が話し手であるかをコンピューターに認識させなければならない。
特許文献1に記載される発明によれば、参加者が発表モード設定スイッチを押すことによって、自分が話し手になることをコンピューターに認識させる。
特許文献2に記載される発明によれば、会議が始まる前に話し手の端末装置を予め決めておく。
しかし、特許文献1に記載される発明によれば、参加者は、自分が話し手になる際に、一々、発表モード設定スイッチを押さなければならないので、面倒である。
特許文献2に記載される発明によれば、話し手が、最初に決めておいた端末装置のユーザーから他の端末装置のユーザーに途中で変わっても、それに対応することができない。つまり、聞き手は、話し手のディスプレイに表示されている画像を選択する操作を行っても、新たな話し手が参照している画像を見ることはできない。
本発明は、上述の問題点に鑑みてなされた発明であり、その目的は、会議の途中で話し手が変わる場合であっても、話し手の負担を従来よりも軽減しつつ、話し手が参照している資料の部分を聞き手に伝えることである。
本発明の一形態に係る会議支援システムは、会議支援装置および複数台の端末装置を有する会議支援システムであって、前記会議支援装置には、前記複数台の端末装置のうちの話し手に使用される端末装置である第1端末装置を特定する端末特定手段が、設けられ、前記第1端末装置には、資料の中の、前記話し手が注目している位置である注目位置を、前記会議支援装置に通知する第1注目位置通知手段が、設けられ、前記会議支援装置には、前記第1注目位置通知手段から通知された前記注目位置を、前記複数台の端末装置のうちの前記話し手以外に使用される端末装置である第2端末装置に通知する第2注目位置通知手段が、設けられている、ことを特徴とする。
また、本発明の一形態に係る会議支援装置は、複数台の端末装置と連携して会議を支援する会議支援装置であって、前記端末装置のうちの話し手に使用される端末装置である第1端末装置を特定する端末特定手段と、前記第1端末装置から、資料の中の、前記話し手が注目している位置である注目位置を受信する、注目位置受信手段と、前記複数台の端末装置それぞれから発言の内容を示す発言内容データを受信する音声データ受信手段と、前記資料の中の前記注目位置が示す部分に前記発言内容データを対応付けた画像を付加することによって、議事録を生成する、議事録生成手段と、を有する、ことを特徴とする。
本発明によれば、会議の途中で話し手が変わる場合であっても、話し手の負担を従来よりも軽減しつつ、話し手が参照している資料の部分を聞き手に伝えることができる。
会議支援システムの全体的な構成の一例を示す図である。 会議支援装置のハードウェア構成の一例を示す図である。 会議支援装置の機能的構成の一例を示す図である。 端末装置のハードウェア構成の一例を示す図である。 端末装置の機能的構成の一例を示す図である。 会議支援システムの処理の概略を説明するための図である。 発表者の端末装置により表示されるウィンドウを示す図である。 リスナーの端末装置により表示されるウィンドウの一例を示す図である。 リスナーの端末装置により表示されるウィンドウの一例を示す図である。 リスナーの端末装置により表示されるウィンドウのさらに他の一例を示す図である。 第1ダイアログボックスを示す図である。 第2ダイアログボックスを示す図である。 第3ダイアログボックスを示す図である。 議事録音声データにリンクしたアイコンが表示されたウィンドウの一例を示す図である。 議事録テキストデータにリンクしたアイコン57が表示されたウィンドウ5の一例を示す図であって、アイコン57がクリックされる前後の状態を示す。 会議支援装置における端末装置への注目位置を通知する処理および議事録のデータの生成の処理の流れの一例を説明するフローチャートである。 端末装置の全体的な処理の流れの一例を説明するフローチャート端末装置の全体的な処理の流れの一例を説明するフローチャートである。
図1は、会議支援システム100の全体的な構成の一例を示す図である。図2は、会議支援装置1のハードウェア構成の一例を示す図である。図3は、会議支援装置1の機能的構成の一例を示す図である。図4は、端末装置2のハードウェア構成の一例を示す図である。図5は、端末装置2の機能的構成の一例を示す図である。 会議支援システム100は、図1に示すように、会議支援装置1、複数台の端末装置2および通信回線NWなどによって構成される。
会議支援装置1および各端末装置2は、通信回線NWを介してデータのやり取りを行うことができる。また、2台の端末装置2は、通信回線NWおよび会議支援装置1を介してデータのやりとりを行うことができる。通信回線NWとして、LAN(Local Area Network)回線、公衆回線、またはインターネットなどが用いられる。以下、各端末装置2をそれぞれ「端末装置2A」、「端末装置2B」、「端末装置2C」、…と区別して記載することがある。
会議支援システム100は、会議に参加するユーザーを支援するシステムであって、特に、会議において発言をしている者が参照している画像を他の参加者が容易に参照することができるようにする。
会議支援装置1はサーバーであって、端末装置2からの音声信号に基づいて発表者(話し手)の特定を行い、資料の中の、発表者が参照している部分を各端末装置2へ通知する。
会議支援装置1は、図2に示すように、CPU(Central Processing Unit)10a、RAM(Random Access Memory)10b、ROM(Read Only Memory)10c、ハードディスク10d、音声処理装置10e、グラフィックボード10f、NIC(Network Interface Card)10gおよびUSB(Universal Serial Bus)ボード10hなどによって構成される。
音声処理装置10eは、マイクロフォン32に接続されている。マイクロフォン32は、音声を取り込んで、電気信号化することによって音声データに変換し、音声処理装置10eに送る。音声処理装置10eは、音声データを処理する。また、音声処理装置10eは、スピーカー31とも接続されていて、音声データをスピーカー31に送る。スピーカー31は、音声データを音声に変換して出力する。
グラフィックボード10fは、画像表示機能を実現する拡張カードであり、液晶プロジェクター33と接続されている。液晶プロジェクター33は、投影面であるスクリーンに画像を表示する。
NIC10gは、通信回線NWを介して端末装置2と通信を行うためのインターフェースカードである。
USBボード10hは、会議支援装置1と周辺装置であるキーボードおよびマウスとを接続するためのインターフェースである。キーボードおよびマウスは、会議支援装置1にデータおよびコマンドを入力するために用いられる。
ROM10cまたはハードディスク10dには、図3に示すような音声データ取得処理部101、音声認識部102、発表者特定部103、注目位置問合せ部104、注目位置通知部106、議事録形態記憶部107、議事録データ生成部108および議事録データ記憶部109などを実現するためのプログラムおよびデータが記憶されている。これらのプログラムおよびデータは、必要に応じてRAM10bにロードされ、CPU10aによってプログラムが実行される。ハードディスク10dの代わりにSSD(Solid State Drive)などを用いてもよい。
端末装置2は、ユーザーが資料を閲覧するために使用する装置である。また、ユーザーの発言を他のユーザーに伝えるために、音声データとして取り込み、会議支援装置1に送信する。また、会議支援装置1から音声データを受信して音声を出力する。端末装置2としては、パーソナルコンピューターまたはスマートフォンなどが用いられる。以下、端末装置2としてノート型のパーソナルコンピューターが用いられる場合を例に説明する。
端末装置2は、図4に示すように、CPU20a、RAM20b、ROM20c、ハードディスク20d、液晶ディスプレイ20e、キーボード20f、ポインティングデバイス20g、NIC20hおよび音声処理ユニット20iなどによって構成される。
キーボード20fおよびポインティングデバイス20gは、端末装置2にデータおよびコマンドなどを入力するために用いられる。
NIC20hは、通信回線NWを介して会議支援装置1と通信を行うためのインターフェースカードである。
液晶ディスプレイ20eは、会議の資料などを表示するために用いられる。また、CPU20aの処理の結果などの画像も表示する。
音声処理ユニット20iは、音声処理装置10e、スピーカー31およびマイクロフォン32の機能を併せ持った装置である。つまり、外部からの音声を集音して音声データへと変換したり、音声データを音声へと変換して外部に出力する。
ROM20cまたはハードディスク20dには、図5に示すような音声データ送信処理部201、注目位置回答部202、注目位置提示部203、表示位置変更部204、表示オプション設定部205、表示オプション記憶部206および議事録形態通知部207などを実現するためのプログラムおよびデータが記憶されている。これらのプログラムおよびデータは、必要に応じてRAM20bにロードされ、CPU20aによってプログラムが実行される。ハードディスク20dの代わりにSSDなどを用いてもよい。
図6は、会議支援システム100の処理の概略を説明するための図である。図7は、発表者の端末装置2により表示されるウィンドウ5を示す図である。図8は、リスナーの端末装置2により表示されるウィンドウ5の一例を示す図である。図9は、リスナーの端末装置2により表示されるウィンドウ5の他の一例を示す図である。図10は、リスナーの端末装置2により表示されるウィンドウ5のさらに他の一例を示す図である。図11は、第1ダイアログボックス77を示す図である。図12は、第2ダイアログボックス78を示す図である。
まず、図6を用いて、本実施形態に係る会議支援システム100における発表者の注目位置を発表者以外に示す処理についての概要を説明する。
図6に示すように、4人のユーザーA〜Dがそれぞれ端末装置2を介して会議を行っている。以下、ユーザーA〜Dそれぞれの端末装置2を「端末装置2A」〜「端末装置2D」と区別して記載することがある。
この会議では、4人のユーザーA〜Dのうち1人だけが発表を行う。残りの3人は、発表を聞く。以下、発表を行うユーザーを「発表者」と記載し、発表を聞くユーザーを「リスナー」と記載する。
また、発表者は、適宜、他のユーザーに交代することができる。新たに発表者になるユーザーは、「はい」または「意見があります」などの特定の言葉を発して合図する。以下、この特定の言葉を「発表合図語句」と記載する。
各端末装置2には、会議で使用する同一の資料のデータが記憶されている。資料には、複数のページがある。資料のデータとして、例えばPDF(Portable Document Format)、XPS(XML Paper Specification)、マイクロソフト社のWORDフォーマットなどの文書表示用のファイル形式のデータが用いられる。
ユーザーAは、自分が発表者になったら、資料の中の、発表の内容に合った部分を、端末装置2Aの液晶ディスプレイ20eに表示させる。そして、これを見ながら発表を行う。以下、液晶ディスプレイ20eに表示されている部分の画像を「画像7」と記載する。また、端末装置2A〜2Dの液晶ディスプレイ20eに表示されている画像7をそれぞれ「画像7A」〜「画像7D」と区別して記載することがある。
ユーザーAが発した音声は、端末装置2Aによって集音され会議支援装置1に送られる(丸数字1)。
会議支援装置1は、送られてきた音声に基づいて発表者がユーザーAであることを特定する(丸数字2)。端末装置2Aの液晶ディスプレイ20eに表示されている画像7の、資料における位置を、端末装置2Aに問い合せる(丸数字3)。この位置は、発表者が注目している位置であると、言える。そこで、以下、資料の中の、発表者の端末装置2に現在表示されている部分の位置を「注目位置」と記載する。端末装置2Aは、注目位置を会議支援装置1に回答する(丸数字4)。
会議支援装置1は、端末装置2Aから回答された注目位置をリスナーであるユーザーB〜Dの端末装置2B〜2Dに通知する(丸数字5)。
すると、端末装置2B〜2Dは、注目位置をユーザーB〜Dに提示する(丸数字6)。図6の例では、アイコン53によって注目位置を提示している。
ところで、端末装置2において、アプリケーションによって資料を開くと、ウィンドウ5が表示される。ウィンドウ5は、文書領域51および位置指示領域52などによって構成される。文書領域51には、資料の一部分つまり画像7が表示される。位置指示領域52には、資料のインデックスが表示される。インデックスとして、資料のページ番号が表示される。章、項、または節のタイトルを表示してもよい。
ユーザーは、文書領域51の右端のスクロールバーによって資料をスクロールさせて画像7を変更し、資料の任意の部分を閲覧することができる。または、位置指示領域52の中のインデックスを選択することによっても、画像7を変更することができる。
ユーザーAが発表している間、ユーザーAが発言するたびに、ユーザーAの音声が、会議支援装置1へ送られる。しかし、会議支援装置1は、一度、発表者を特定したら、所定のイベントが発生するまで、再度、発表者を特定する必要はない。
また、ユーザーAは、発表している間、資料の注目位置を変更することがある。すると、会議支援装置1は、新たな注目位置を端末装置2B〜2Dへ通知する。
ユーザーB〜Dも、自分の端末装置2B〜2Dを操作して、資料の任意の部分を閲覧することができる。
以下、図6で説明した処理を実現するための具体的な方法について、図3および図5などを参照しながら説明する。
端末装置2において、音声データ送信処理部201(図5参照)は、入力された音声を電気信号である音声データ60に変換し、会議支援装置1に送信する。
会議支援装置1において、音声データ取得処理部101(図3参照)は、音声データ送信処理部201から送信された音声データ60を取得する。
音声認識部102は、音声データ60を用いて音声認識の処理を行うことによって、音声データ60の送信元である端末装置2のユーザーの発言をテキストデータ61に変換する。
さらに、音声認識部102は、テキストデータ61に発表合図語句が示されているか否かをチェックする。そして、含まれていれば、発表者を特定する処理を行うように発表者特定部103に対して要求する。
発表者特定部103は、音声認識部102からの要求を受けると、音声データ60がどのユーザーの音声によるものであるかを認識する。そして、認識したユーザーを発表者として特定する。誰の音声であるかの認識は、予め各ユーザーの音声データを採取しておき、その声紋を検出してデータベースに格納しておけばよい。そして、音声データ60に示される音声の声紋とデータベースに格納しておいた各ユーザーの声紋とを比較することによって、発表者を特定すればよい。
注目位置問合せ部104は、発表者であるユーザーが発表者特定部103によって特定された場合に、特定されたユーザーの端末装置2へ、注目位置を回答すべき旨を示す問合せコマンド62を送信する。
端末装置2において、注目位置回答部202は、問合せコマンド62を受信すると、画像7が資料の中のどの位置にあるか(つまり、注目位置)を確認し、注目位置を示す注目位置データ63を会議支援装置1へ送信する。具体的には、注目位置データ63には、画像7のページ番号が示される。ページ番号だけでなく、画像7の先頭の行番号も示されていてもよい。または、画像7の章および項などが示されていてもよい。
会議支援装置1において、注目位置通知部106は、注目位置データ63を受信すると、発表者以外のユーザーつまりリスナーの端末装置2へ注目位置データ63を転送する。これにより、注目位置がリスナーの端末装置2へ通知される。
端末装置2において、注目位置提示部203は、注目位置データ63を受信すると、注目位置データ63に示される注目位置を、ユーザーに提示する。例えば、図8に示すように、位置指示領域52に示されるインデックスのうちの注目位置に対応するインデックスを指し示す位置にアイコン53を表示する。
表示位置変更部204は、ユーザーがアイコン53を選択すると、画像7を、アイコン53に対応する部分に変更して、文書領域51に表示する。
これにより、例えば、リスナーであるユーザーBは、発表者であるユーザーAが図7のように注目している部分とは異なる部分を図8のように閲覧していて、注目位置を見失ってしまっても、アイコン53によってこの部分を容易に把握することができる。そして、ユーザーは、アイコン53を選択するだけで、注目位置の画像を閲覧することができる。
アイコン53によって注目位置を提示する代わりに、次のように注目位置を提示してもよい。
図9に示すように、ウィンドウ5に、さらに、サムネイル領域54を設ける。そして、注目位置提示部203は、資料の中の、注目位置の部分(例えば、ページ)を縮小したサムネイル55を、サムネイル領域54に表示する。
または、図10に示すように、位置指示領域52のインデックスのうちの注目位置に対応するインデックスの表示の属性を変更してもよい。例えば、背景を網掛けにしてもよい。または、フォントの色を赤色にしてもよい。
注目位置の提示の形態は、ユーザーごとに選択できるようにしてもよい。この場合は、端末装置2それぞれの表示オプション記憶部206に、ユーザーが選択した形態を示すデータを記憶させておき、このデータに基づいて表示を行えばよい。または、ユーザーは、注目位置の提示を行わないように設定することも、できる。ここで、提示に関する設定の処理を、説明する。
ユーザーは、キーボード20fなどを操作することによって所定のコマンドを入力する。
すると、表示オプション設定部205は、図11に示す第1ダイアログボックス77を液晶ディスプレイに表示させる。ここで、ユーザーは、注目位置の提示を受けたい場合は、「通知する」を選択し、さらに、3つのオプションボタンの中から提示の形態に対応するオプションボタンを選択する。注目位置の提示を受けたくない場合は、「通知しない」を選択する。選択が完了したら、「OK」ボタンを押す。
すると、表示オプション設定部205は、ユーザーが選択した内容を示す提示オプションデータ64を表示オプション記憶部206に保存する。
そして、注目位置提示部203は、提示オプションデータ64に示される内容の通りにウィンドウ5の表示を行う。
アイコン53などによって注目位置を提示する代わりに、リスナーの端末装置2の文書領域51に表示されている画像7を、強制的に注目位置の部分に切り換えて表示してもよい。この場合は、次のように処理を行えばよい。
ユーザーは、キーボード20fなどを操作することによって所定のコマンドを入力する。
すると、表示オプション設定部205は、図12に示す第2ダイアログボックス78を表示させる。ここで、ユーザーは、「表示切り換えを実施しますか」という問いかけに対して、「実施する」および「実施しない」のいずれかを選択すればよい。選択後、ユーザーは「OK」ボタンを押す。
すると、表示オプション設定部205は、ユーザーが選択した内容を示す強制切換オプションデータ65を表示オプション記憶部206に保存する。
注目位置提示部203は、注目位置データ63が送信されてきたら、強制切換オプションデータ65をチェックする。そして、強制切換オプションデータ65に「実施する」ことが示されている場合は、アイコン53などを配置することなく強制的に、文書領域51に注目位置の部分を表示させる。「実施しない」ことが示される場合は、提示オプションデータ64に基づいて表示を行う。
次に、発表者が切り換わる場合の処理について、発表者がユーザーAからユーザーBに変わる場合を例に説明する。
ユーザーAが発言しているときにユーザーBが質問等により発言した場合には、ユーザーBが発表者に切り換わる。ただし、ユーザーBは発言する際に「はい」などの発表合図語句を発声してから発言する。
音声認識部102は、端末装置2Bからの音声データ60をテキストデータ61に変換する。そして、発表合図語句がテキストデータ61に示されることを検知した場合は、発表者を特定する処理を行うように発表者特定部103に対して要求する。
すると、発表者特定部103は、発表者を特定し直す。これにより、発表者がユーザーBに変わったことが検知される。
注目位置問合せ部104は、発表者がユーザーBに変わったので、以降、問合せコマンド62を端末装置2Aではなく端末装置2に送信する。
そして、注目位置通知部106は、端末装置2Bからの注目位置データ63を、端末装置2A、2Cおよび2Dへ転送する。発表者が変わるごとに上記の処理を実行すればよい。
なお、注目位置問合せ部104は、定期的に(例えば、30秒ごとに)発表者の端末装置2へ問合せコマンド62を送り、注目位置を問い合わせてもよい。そして、注目位置通知部106は、新たな注目位置データ63を発表者の端末装置2から受信したら、リスナーの端末装置2へ転送すればよい。
または、端末装置2は、一度、問合せコマンド62を受信したら、その後に問合せコマンド62を受信しなくても、注目位置が変わるごとに、それを示す注目位置データ63を会議支援装置1に送信してもよい。ただし、この場合は、発表者が変わったら、会議支援装置1は、注目位置データ63の送信を中止するように、直近の発表者の端末装置2へ指令する。端末装置2は、この指令を受けたら、注目位置データ63の送信を中止する。
図13は、第3ダイアログボックス79を示す図である。図14は、議事録音声データにリンクしたアイコン56が表示されたウィンドウ5の一例を示す図である。図15は、議事録テキストデータにリンクしたアイコン57が表示されたウィンドウ5の一例を示す図であって、アイコン57がクリックされる前後の状態を示す。
発表者の発表に対してリスナーから質問がなされたり、発表者とリスナーとが意見を交換し合ったりすることがある。従来、会議での会話は、誰かがメモをとりまたは録音し議事録を作成していた。
しかし、この議事録を作成する作業は、メモを読み直したり録音を聴き直したりする必要があり、手間がかかるものであった。そこで、会議における発言について容易に記録することができる装置が望まれていた。
そこで、会議支援装置1の各部は、議事録のデータを生成するための処理を次のように行う。
まず、ユーザーのうちの1人が、議事録の形態を次のように選択する。ユーザーは、キーボード20fなどを操作することによって所定のコマンドを入力する。
すると、端末装置2において、議事録形態通知部207は、第3ダイアログボックス79を表示させる。ここで、ユーザーは、議事録の要否を選択する。必要な場合は「実施する」を選択し、さらに、議事録の形態を指定する。
議事録形態通知部207は、「実施する」が選択されかつ議事録の形態が指定されたら、指定された形態を示す議事録形態オプションデータ66を会議支援装置1へ送信する。
会議支援装置1において、議事録形態オプションデータ66は、議事録形態記憶部107に記憶される。
議事録データ生成部108は、次のようにして議事録のデータを生成する。生成の仕方は、議事録の形態が音声であるかテキストであるかによって、異なる。
上述の通り、各端末装置2からは、各ユーザーの音声データ60が適宜、送信されてくる。発表者特定部103は、発表者を適宜、特定する。注目位置問合せ部104は、注目位置を発表者の端末装置2へ問い合わせる。
議事録の形態が音声である場合は、議事録データ生成部108は、注目位置が同じである間に各端末装置2から得られた音声データ60それぞれが表わす音声を1つにミキシングすることによって、議事録音声データ(発言内容データ)を生成する。そして、資料のデータにこの議事録音声データを付加するとともに、この注目位置の部分にこの議事録音声データにリンクしたアイコン56を図14のように配置する。このように資料のデータに音声のデータを埋め込むことによって、音声議事録ファイル80が生成される。音声議事録ファイル80は、議事録データ記憶部109に記憶される。
このように、注目位置が変わるごとに、議事録音声データが生成され注目位置の部分にアイコン56が配置される。
なお、アイコン56がクリックされると、音楽プレイヤーのソフトウェアが起動し、アイコン56にリンクしている議事録音声データに基づいて議事録の音声が再生される。
一方、議事録の形態がテキストである場合は、議事録データ生成部108は、注目位置が同じである間に各端末装置2から得られた音声データ60それぞれが表わす音声をテキスト化する。そして、各音声のテキストを時系列の順に並べる。さらに、声紋の照合を行うことによって、各音声を発したユーザーを特定する。各音声のテキストおよびその発声者を示す議事録テキストデータ(発言内容データ)を生成する。
そして、資料のデータにこの議事録テキストデータを付加するとともに、この注目位置の部分にこの議事録テキストデータにリンクしたアイコン57を図15(A)のように配置する。このように資料のデータにテキストのデータを埋め込むことによって、テキスト議事録ファイル81が生成される。テキスト議事録ファイル81は、議事録データ記憶部109に記憶される。
なお、アイコン57がクリックされると、図15(B)のように、アイコン57にリンクしている議事録テキストデータに基づいて議事録のテキストが吹出領域58によって表示される。
次に、会議支援装置1および端末装置2の全体的な処理の流れを、図16および図17に示すフローチャートに基づいて説明する。図16は、会議支援装置1における端末装置2への注目位置を通知する処理および議事録のデータの生成の処理の流れの一例を説明するフローチャートである。図17は、端末装置2の全体的な処理の流れの一例を説明するフローチャートである。
まず、図16を参照して、会議支援装置1における端末装置2への注目位置を通知する処理および議事録のデータの生成の処理の流れについて説明する。
発表者であるユーザーは、用意した資料を液晶ディスプレイ20eに表示して参照しながら発表を行う。
会議支援装置1は、発表者の端末装置2から音声データを受信すると(#601でYes)、この音声データを音声認識し(#602)、発表者を特定する(#603)。
会議支援装置1は、例えば発表者がユーザーAであることを特定すると、端末装置2Aに対して注目位置について問い合せる(#604)。会議支援装置1は、端末装置2Aから回答のあった注目位置を、端末装置2B〜2Dに対して通知する(#605)。
会議支援装置1は、注目位置の通知の処理と並行して、議事録の生成の処理を次のように行う。
会議支援装置1は、議事録の埋め込みの設定がなされているかを確認し、設定されている場合は(#606でYes)、議事録の形態がテキストであるか音声であるかを確認する。
会議支援装置1は、議事録の形態がテキストである場合は(#607でYes)、資料の中の、発表者の端末装置2から回答のあった注目位置に、各ユーザーの音声をテキスト化したテキストデータを埋め込む(#608)。議事録の形態が音声である場合は(#607でNo)、会議支援装置1は、テキストデータの代わりに音声データを埋め込む(#609)。
次に、図17を参照して、端末装置2の全体的な処理の流れについて説明する。端末装置2は、ユーザーによって操作が行われまたは会議支援装置1からデータを受信するごとに、次の処理を適宜、実行する。
端末装置2は、会議支援装置1から注目位置について問合せがあった場合は(#701でYes)、注目位置を会議支援装置1に回答する(#702)。
または、端末装置2は、会議支援装置1から注目位置についての通知があった場合は(#703でYes)、通知された注目位置を取得し(#704)、図8に示すように、位置指示領域52の中の、注目位置に該当するインデックスの上にアイコン53を表示する(#705)。
または、端末装置2は、ユーザーがアイコン53を選択した場合は(#706でYes)、文書領域51に、資料の中の注目位置の部分を表示する。これにより、発表者と同一の部分に表示が切り換わる(#707)。
そのほか、端末装置2は、ユーザーの操作に応じて各種の設定値を示すデータを生成し、所定の場所に保存しまたは会議支援装置1へ送信する。
以上、本実施形態に係る会議支援システム100およびその各部について説明した。本実施形態に係る会議支援システム100によれば、リスナーが注目位置以外の画像を見ている場合であっても、注目位置がリスナーに指示されており、かついつでも画像を注目位置に切換えることができる。そのため、リスナーは注目位置を見失いにくい。また、会議支援システム100は、会議の途中で発表者が変わっても、新しい発表者に対応して注目位置を変更することから、発表者が複数いる場合でも利用可能である。
また、発表者は、発表合図語句を発するという簡単な動作をするだけで、発言会議支援装置1により発表者として特定される。
さらに、会議支援システム100は、会議中の音声をテキストデータあるいは音声データとして資料のデータに埋め込むことができるので、ユーザーは会議終了後に議事録を作成する手間が省ける。
本実施形態では、テキストデータ61に発表合図語句が示されている場合は、発表者を切換える処理を行ったが、これ以外の条件において発表者を他のユーザーに切換える処理を行ってもよい。例えば、ユーザーがスイッチなどを押すことにより、発表者を切換えるコマンドを会議支援装置1に送信し、会議支援装置1が当該コマンドを受信した場合は、発表者を特定し直してもよい。
また、各端末装置2がカメラを備え、各ユーザーの画像を会議支援装置1に送信してもよい。そして、発表者を変更することを示す所定のジェスチャーをユーザーが行ったことを会議支援装置1が認識した場合は、発表者を特定し直してもよい。
また、所定時間が経過するごとに、発表者を特定し直してもよい。また、発言が所定時間途切れた後に再び発言が開始されたときに、発表者を特定し直してもよい。
また、特定のユーザーを司会者として予め決めておき、当該司会者の指示により発表者を特定し直してもよい。例えば、司会者が発表者の名前を発言した場合は、発表者を特定し直す処理を行ってもよい。
本実施形態では、発表者特定部103は音声の声紋を用いて発表者を特定しているが、発表者は自分の名前を言ってから発表し、音声認識により名前を認識して発表者を特定してもよい。
本実施形態では、アイコン53などにより、注目位置を提示した。これら以外に、ウィンドウ5以外に別ウィンドウを開き、注目位置提示部203が別ウィンドウにおいて、資料の中の注目位置の部分を表示してもよい。
なお、会議支援システム100によれば、会議支援装置1は、マイクロフォン32、スピーカー31および液晶プロジェクター33に接続されていることから、ユーザーは会議支援装置1を用いて会議に参加することもできる。
なお、本実施形態に係る会議支援システム100の全体または各部の構成、処理内容、処理順序、データの構成などは、本発明の趣旨に沿って適宜変更することができる。
1 会議支援装置
2(2A〜2D) 端末装置
7 画像
53 アイコン
55 サムネイル
100 会議支援システム
101 音声データ取得処理部(音声データ受信手段)
103 発表者特定部(端末特定手段)
104 注目位置問合せ部(注目位置受信手段)
106 注目位置通知部(第2注目位置通知手段、注目位置通知手段)
108 議事録データ生成部(議事録生成手段)
202 注目位置回答部(第1注目位置通知手段)
204 表示位置変更部(注目位置画像表示手段)
203 注目位置提示部
205 表示オプション設定部
206 表示オプション記憶部

Claims (9)

  1. 会議支援装置および複数台の端末装置を有する会議支援システムであって、
    前記会議支援装置には、
    前記複数台の端末装置のうちの話し手に使用される端末装置である第1端末装置を特定する端末特定手段が、設けられ、
    前記第1端末装置には、
    資料の中の、前記話し手が注目している位置である注目位置を、前記会議支援装置に通知する第1注目位置通知手段が、設けられ、
    前記会議支援装置には、
    前記第1注目位置通知手段から通知された前記注目位置を、前記複数台の端末装置のうちの前記話し手以外に使用される端末装置である第2端末装置に通知する第2注目位置通知手段が、設けられている、
    ことを特徴とする会議支援システム。
  2. 前記第2端末装置には、
    前記注目位置を提示する注目位置提示手段が、設けられている、
    請求項1記載の会議支援システム。
  3. 前記第2端末装置には、
    前記資料の中の、前記注目位置が示す部分の画像を表示する注目位置画像表示手段が、設けられている、
    請求項1または請求項2記載の会議支援システム。
  4. 前記第2端末装置には、
    前記注目位置を提示する注目位置提示手段と、
    前記注目位置提示手段が提示する前記注目位置が選択されたときに、前記資料の中の、当該注目位置が示す部分の画像を表示する注目位置画像表示手段とが、設けられている、
    請求項1記載の会議支援システム。
  5. 前記端末特定手段は、前記話し手により発声される音声に基づいて前記第1端末装置を特定する、
    請求項1ないし請求項4のいずれかに記載の会議支援システム。
  6. 複数台の端末装置と連携して会議を支援する会議支援装置であって、
    前記端末装置のうちの話し手に使用される端末装置である第1端末装置を特定する端末特定手段と、
    前記第1端末装置から通知された、資料の中の、前記話し手が注目している位置である注目位置を、前記複数台の端末装置のうちの前記話し手以外に使用される端末装置である第2端末装置に通知する注目位置通知手段と、
    を有することを特徴とする会議支援装置。
  7. 複数台の端末装置と連携して会議を支援する会議支援装置であって、
    前記端末装置のうちの話し手に使用される端末装置である第1端末装置を特定する端末特定手段と、
    前記第1端末装置から、資料の中の、前記話し手が注目している位置である注目位置を受信する、注目位置受信手段と、
    前記複数台の端末装置それぞれから発言の内容を示す発言内容データを受信する音声データ受信手段と、
    前記資料の中の前記注目位置が示す部分に前記発言内容データを対応付けた画像を付加することによって、議事録を生成する、議事録生成手段と、
    を有することを特徴とする会議支援装置。
  8. 複数台の端末装置を用いた会議における会議支援方法であって、
    前記端末装置のうちの話し手に使用される端末装置である第1端末装置を特定する処理と、
    前記第1端末装置から通知された、資料の中の、前記話し手が注目している位置である注目位置を、前記複数台の端末装置のうちの前記話し手以外に使用される端末装置である第2端末装置に通知する処理と、
    ことを特徴とする会議支援方法。
  9. 複数台の端末装置と連携して会議を支援するコンピューターに用いられるコンピュータープログラムであって、
    前記コンピューターに、
    前記端末装置のうちの話し手に使用される端末装置である第1端末装置を特定する処理と、
    前記第1端末装置から通知された、資料の中の、前記話し手が注目している位置である注目位置を、前記複数台の端末装置のうちの前記話し手以外に使用される端末装置である第2端末装置に通知する処理と、を実行させる、
    ことを特徴とするコンピュータープログラム。
JP2011123157A 2011-06-01 2011-06-01 会議支援システム、会議支援装置、会議支援方法およびコンピュータープログラム Withdrawn JP2012253478A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011123157A JP2012253478A (ja) 2011-06-01 2011-06-01 会議支援システム、会議支援装置、会議支援方法およびコンピュータープログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011123157A JP2012253478A (ja) 2011-06-01 2011-06-01 会議支援システム、会議支援装置、会議支援方法およびコンピュータープログラム

Publications (1)

Publication Number Publication Date
JP2012253478A true JP2012253478A (ja) 2012-12-20

Family

ID=47525902

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011123157A Withdrawn JP2012253478A (ja) 2011-06-01 2011-06-01 会議支援システム、会議支援装置、会議支援方法およびコンピュータープログラム

Country Status (1)

Country Link
JP (1) JP2012253478A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015531197A (ja) * 2012-08-03 2015-10-29 アルカテル−ルーセント ビデオ会議中の参加者の映像ミュートを可能にするための方法および装置
JP2016143159A (ja) * 2015-01-30 2016-08-08 富士通株式会社 表示装置、表示プログラム及び表示方法
JP2018077417A (ja) * 2016-11-11 2018-05-17 コニカミノルタ株式会社 表示システム、プログラムおよび表示制御方法
WO2023182061A1 (ja) * 2022-03-23 2023-09-28 パナソニックIpマネジメント株式会社 会議支援システム、会議支援装置および会議支援方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015531197A (ja) * 2012-08-03 2015-10-29 アルカテル−ルーセント ビデオ会議中の参加者の映像ミュートを可能にするための方法および装置
JP2016143159A (ja) * 2015-01-30 2016-08-08 富士通株式会社 表示装置、表示プログラム及び表示方法
JP2018077417A (ja) * 2016-11-11 2018-05-17 コニカミノルタ株式会社 表示システム、プログラムおよび表示制御方法
WO2023182061A1 (ja) * 2022-03-23 2023-09-28 パナソニックIpマネジメント株式会社 会議支援システム、会議支援装置および会議支援方法

Similar Documents

Publication Publication Date Title
US9112980B2 (en) Systems and methods for selectively reviewing a recorded conference
WO2019033663A1 (zh) 视频教学互动方法、装置、设备及存储介质
TW200407807A (en) Remote education system, and method and program for attendance confirmation
US20140377722A1 (en) Synchronous presentation of content with a braille translation
JP2011053629A (ja) 会議中継装置及びコンピュータプログラム
CN109862302B (zh) 在线会议中客户端设备的可访问音频切换的方法、系统
JP2011065467A (ja) 会議中継装置及びコンピュータプログラム
US20140377721A1 (en) Synchronous presentation of content with a braille translation
US20160294892A1 (en) Storage Medium Storing Program, Server Apparatus, and Method of Controlling Server Apparatus
JP6485935B1 (ja) オンラインコミュニケーションのレビューシステム、方法、及びコンピュータプログラム
CN112166424A (zh) 用于识别和提供关于音频信号中的语义实体的信息的系统和方法
JP2012253478A (ja) 会議支援システム、会議支援装置、会議支援方法およびコンピュータープログラム
JP2011134122A (ja) 情報処理装置、会議システム、情報処理方法、会議支援方法、及びコンピュータプログラム
JP2011238178A (ja) 情報処理装置および情報処理方法
JP2019121093A (ja) 情報生成システム、情報生成方法、情報処理装置、プログラム、端末装置
JP2010256962A (ja) 会議情報提供装置及び会議情報提供プログラム
JP2011086123A (ja) 情報処理装置、会議システム、情報処理方法及びコンピュータプログラム
WO2019026395A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2008032787A (ja) 語学学習システム及び語学学習システム用プログラム
JP2022051500A (ja) 関連情報提供方法及びシステム
JP2003076639A (ja) データ表示指示方法
US11630557B2 (en) Alerts for virtual meetings
JP2019179081A (ja) 会議支援装置、会議支援制御方法およびプログラム
JP7452299B2 (ja) 会話支援システム、会話支援方法及びプログラム
JP2011142523A (ja) プレゼンテーション支援装置、プレゼンテーション支援システム、プレゼンテーション支援プログラム、および記録媒体

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20130417

A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140805