以下に添付図面を参照して、情報処理装置、情報処理方法、情報処理プログラムおよび情報処理システムの実施形態を詳細に説明する。
(実施形態に適用可能な構成)
図1は、実施形態に適用可能な情報処理システムの一例の構成を示す。図1において、情報処理システム1は、情報処理装置としてのサーバ装置10を含み、サーバ装置10は、LAN(Local Area Network)といったネットワーク12を介して、1以上の会議室2a、2b、…内の機器と接続される。
例えば会議室2aは、それぞれネットワーク12に接続される1以上の端末装置20aおよび20bと、電子黒板22と、センサI/F(インタフェース)23と、会議端末25とを含む。端末装置20aおよび20bは、デスクトップ型あるいはノート型のパーソナルコンピュータや、タブレット型コンピュータを適用できる。端末装置20aおよび20bは、有線または無線通信により、ネットワーク12に接続される。また、端末装置20aおよび20bは、それぞれマイクロホンを内蔵または接続可能とされ、マイクロホンで収音された音声を音声データとして処理可能とされているものとする。
詳細は後述するが、電子黒板22は、入力デバイスと表示デバイスとが一体的に構成された大型のタッチパネルと、CPU(Central Processing Unit)、メモリおよび通信I/Fとを備え、例えば会議室2aに固定的に設置される。電子黒板22は、ユーザのタッチパネルに対する描画動作に応じて、タッチパネルの表示デバイスによる表示が更新される。また、電子黒板22は、ネットワーク12を介して転送されたデータに応じた表示を行うことができ、また、表示デバイスによる表示画面の画像データを保存することができる。
センサI/F23は、1以上のセンサ241、242、…が接続される。各センサ241、242、…は、会議室2a内の環境情報を検知する。詳細は後述するが、会議室2aの環境情報は、例えば、会議室2aに設置された室内灯が点灯しているか否か、ドアの開閉状態などを含む。センサI/F23は、各センサ241、242、…の出力に応じた各検知結果を、ネットワーク12を介してサーバ装置10に送信する。
会議端末25は、例えばスピーカ(SP)25aと、マイクロホン(MIC)25bと、動画撮影の可能なカメラ25cとを含む。会議端末25は、例えば会議室2aに固定的に設置され、マイクロホン25bで収音された音声による音声データと、カメラ25cに撮影された撮影画像データとをネットワーク12を介してサーバ装置10に送信する。また、会議端末25は、例えばサーバ装置10からネットワーク12を介して送信された音声データに基づく音声を、スピーカ25aにより再生する。
会議室2aにおいて、電子黒板22や各端末装置20a、20bは、例えば各端末装置20a、20bを使用する各ユーザが、それぞれの端末装置を操作可能なポジションにおいて電子黒板22の表示を確認可能な位置関係にあることが考えられる。また、会議端末25は、カメラ25cが少なくとも電子黒板22の表示を撮影可能とされ、スピーカ25aによる再生音が会議室2a内の各ユーザに聞き取り可能とされ、さらに、マイクロホン25bにより会議室2a内の各ユーザによる発言を収音可能となるように設置される。
会議室2bは、会議室2aと略同様の構成であるので、説明を省略する。なお、各会議室2a、2b、…は、含有される各機器がサーバ装置10と接続可能であれば、位置関係および形態などは限定されない。
情報処理システム1は、この会議室2aに含まれる各端末装置20aおよび20bと、電子黒板22と、センサI/F23および各センサ241、242、…と、会議端末25をさらに含む。同様に、情報処理システム1は、会議室2bに含まれる、会議室2aと同様の各構成をさらに含んでもよい。
情報処理システム1は、さらに、サーバ装置10に対してインターネットといった外部のネットワーク30を介して接続される1以上の端末装置20cおよび20dを含む。これら端末装置20cおよび20dは、例えば会議室2aを少なくとも直接観察できない、会議室2aに対して遠隔の場所において使用されるものとする。
また、この例では、端末装置20cがデスクトップ型コンピュータといった非モバイルデバイス、端末装置20dが多機能型携帯電話端末(スマートフォン)あるいはタブレット型コンピュータといったモバイルデバイスであるものとして示してる。なお、ここでは、ノート型コンピュータも非モバイルデバイスに含めるものとし、端末装置20cは、ノート型コンピュータであってもよい。端末装置20cおよび20dは、それぞれマイクロホンおよびカメラを内蔵または接続可能とされ、マイクロホンで収音された音声、および、カメラで撮影された撮影映像を、それぞれ音声データおよび映像データとして処理可能とされているものとする。
図2は、実施形態に適用可能なサーバ装置10の一例のハードウェア構成を示す。図2において、サーバ装置10は、CPU1000と、ROM(Read Only Memory)1001と、RAM(Random Access Memory)1002と、ストレージ1003と、通信I/F1004とを含み、これら各部がバス1010により互いに通信可能に接続される。
ストレージ1003は、ハードディスクドライブや不揮発性半導体メモリにより構成され、CPU1000が動作するための各種プログラムやデータが格納される。また、ROM1001は、例えばサーバ装置10が起動、動作するために用いるプログラムやデータが予め記憶される。CPU1000は、ストレージ1003やROM1001に格納されるプログラムに従い、RAM1002をワークエリアとして用いて動作し、サーバ装置10の全体の動作を制御する。通信I/F1004は、CPU1000の指示に従い、ネットワーク12を介した通信を制御する。
図3は、実施形態に適用可能な電子黒板22の一例のハードウェア構成を示す。図3において、電子黒板22は、CPU2020と、ROM2021と、RAM2022と、ストレージ2023と、通信I/F2024と、グラフィクスI/F2025と、入力I/F2026とを含み、これら各部がバス2028により互いに通信可能に接続される。このように、電子黒板22は、CPU2020と、ROM2021およびRAM2022とを含み、コンピュータであると見做すことができる。
電子黒板22は、ディスプレイ2027aと、入力デバイス2027bとをさらに含む。ディスプレイ2027aおよび入力デバイス2027bは、一体的に形成されて、所謂タッチパネル2027を構成する。
ストレージ2023は、ハードディスクドライブや不揮発性半導体メモリにより構成され、CPU2020が動作するための各種プログラムやデータが格納される。また、ROM2021は、例えば電子黒板22が起動、動作するために用いるプログラムやデータが予め記憶される。CPU2020は、ストレージ2023やROM2021に格納されるプログラムに従い、RAM2022をワークエリアとして用いて動作し、電子黒板22の全体の動作を制御する。通信I/F2024は、CPU2020の指示に従い、ネットワーク12を介した通信を制御する。
グラフィクスI/F2025は、CPU2020によりプログラムに従い生成された表示制御信号を、ディスプレイ2027aが対応可能な表示信号に変換してディスプレイ2027aに供給する。ディスプレイ2027aは、表示デバイスとしての例えばLCD(Liquid Crystal Display)と、表示デバイスを表示信号に従い駆動する駆動回路とを含む。入力I/F2026は、入力デバイス2027bから、例えば入力デバイス2027bに対する接触操作に応じて出力された信号を、CPU2020が対応可能な制御信号に変換して、バス2028に出力する。
図4は、実施形態に適用可能な端末装置20cの一例のハードウェア構成を示す。なお、端末装置20aおよび20bは、端末装置20cと同等の構成であるものとし、ここでの説明を省略する。
図4において、端末装置20cは、CPU2000と、ROM2001と、RAM2002と、グラフィクスI/F2003と、ストレージ2004と、入力I/F2005と、音声I/F2006と、通信I/F2007と、映像I/F2008とを含み、これら各部がバス2010により互いに通信可能に接続される。
ストレージ2004は、ハードディスクドライブや不揮発性半導体メモリにより構成され、CPU2000が動作するための各種プログラムやデータが格納される。ストレージ2004に格納されるプログラムの例としては、端末装置20cの基本的な動作を制御するOS(Operating System)や、HTML(HyperText Markup Language)データに基づき表示や各種制御を行うブラウザアプリケーションプログラム(以下、ブラウザ)がある。また、ROM2001は、端末装置20cが起動、動作するために用いるプログラムやデータが予め記憶される。CPU2000は、ストレージ2004やROM2001に格納されるプログラムに従い、RAM2002をワークエリアとして用いて動作し、端末装置20cの全体の動作を制御する。
グラフィクスI/F2003は、CPU2000によりプログラムに従い生成された表示制御信号を、ディスプレイ2011が対応可能な表示信号に変換して、ディスプレイ2011に供給する。ディスプレイ2011は、例えば表示バイスとしてのLCDと、表示信号に従い表示デバイスを駆動する駆動回路とを含む。
入力I/F2005は、マウスなどのポイティングデバイスや、キーボードといった入力デバイス2012が接続される。入力I/F2005は、入力デバイス2012に対するユーザ操作に応じて入力デバイス2012から出力される信号を、CPU2000が対応可能な制御信号に変換してバス2010に出力する。これに限らず、入力I/F2005は、外部機器との間でデータの送受信を行う例えばUSB(Universal Serial Bus)といったデータI/Fを含んでいてもよい。
音声I/F2006は、例えばマイクロホン(MIC)2013から供給されるアナログ方式の音声信号を、ディジタル方式の音声データに変換して、バス2010に出力する。また、音声I/F2006は、バス2010を介して供給されたディジタル方式の音声データを、アナログ方式の音声信号に変換して、スピーカ(SP)2014に出力する。スピーカ2014は、音声I/F2006から出力され供給された音声信号に従い、音声を再生する。
通信I/F2007は、CPU2000の指示に従い、ネットワーク12を介した通信を制御する。
映像I/F2008は、被写体を撮影し撮影画像データを出力するカメラ2015が接続される。なお、カメラ2015は、動画撮影が可能であり、毎秒60フレームといったフレームレートで、動画撮影を行った撮影画像データを出力する。映像I/F2008は、カメラ2015から出力される撮影画像データをバス2010に対して出力する。
図5は、実施形態に適用可能な、タブレット型コンピュータまたはスマートフォンとしての端末装置20dの一例のハードウェア構成を示す。なお、図5において、上述した図4と共通する部分には同一の符号を付して、詳細な説明を省略する。
図5において、端末装置20dは、上述した端末装置20cの構成に対して、9軸センサ2016と、GNSS部2017とが追加されている。9軸センサ2016は、それぞれx,y,zの3軸にて検知を行うジャイロセンサ(角速度センサ)、加速度センサ、地磁気センサを含み、端末装置20d(9軸センサ2016)の姿勢の変化を示す姿勢情報を、バス2010に対して出力する。
GNSS部2017は、GNSS(Global Navigation Satellite System)に対応し、GNSSによる衛星からの電波を受信して、受信した電波に含まれる情報に基づき現在位置を示す位置情報を取得する。また、GNSS部2017は、位置情報と共に、現在の時刻を示す時間情報を取得することができる。GNSS部2017は、取得した位置情報および時間情報を、バス2010に対して出力する。
(実施形態に適用可能な情報処理システムにおける処理の概要)
次に、図6を用いて、実施形態に適用可能な情報処理システム1における各情報の流れについて、概略的に説明する。なお、図6において、上述した図1と共通する部分には同一の符号を付して、詳細な説明を省略する。
ここでは、会議室2aにおいて、電子黒板22を用いて会議を行う例について説明する。会議の主催者は、会議に参加する参加者を予め把握し、また、会議に用いる資料データを予めサーバ装置10に登録しておくものとする。また、会議には、主催者以外には、会議室2a内で端末装置20bを用いて会議に参加する者(直接参加者と呼ぶ)と、端末装置20cを用いてネットワーク30を介して会議に参加する者(遠隔参加者と呼ぶ)との2人が参加するものとする。
例えば会議の主催者は、会議で用いる資料のデータを、会議開始前に予めサーバ装置10に登録し、例えばストレージ1003に格納しておく。主催者は、サーバ装置10に格納した資料データを、会議開始前、あるいは、会議中に、サーバ装置10から取り出して電子黒板22に転送する(ステップS10)。電子黒板22は、サーバ装置10から転送された資料データを例えばストレージ2023に保存し、また、当該資料データに応じた画面をタッチパネル2027のディスプレイ2027aに表示させることができる。
例えば、電子黒板22に対する所定の操作に応じて会議が開始され、その旨がサーバ装置10に通知される。サーバ装置10は、会議の開始を示す通知を受け取ると、この会議に関する時系列を定義する。例えば、サーバ装置10は、会議の開始の通知を受け取った時間を基準として時系列を定義し、定義された時系列に従いこの会議の経過時間を管理する。サーバ装置10は、複数の会議室2aおよび2bからそれぞれ会議の開始の通知を受け取った場合には、それぞれの通知を受信した各時間を基準として、各会議室2aおよび2bにおける各会議について、それぞれ時系列を定義する。すなわち、サーバ装置10は、会議毎に異なる時系列で経過時間を管理する。
会議が開始されると、会議端末25は、マイクロホン25bおよびカメラ25cにより、会議の様子の撮影および収音を開始する。会議端末25は、撮影した映像データと、収音した音声データとをサーバ装置10に送信する(ステップS11)。また、会議が開始されると、センサI/F23は、各センサ241、242、…による検知結果をサーバ装置10に送信する(ステップS12)。
端末装置20bは、例えば内蔵されるマイクロホンで収音された音声に基づく音声データをサーバ装置10に送信する(ステップS13)。端末装置20bがカメラを内蔵している場合、端末装置20bは、さらに、カメラで撮影された撮影映像に基づく映像データをサーバ装置10に送信することができる。
サーバ装置10は、会議端末25から送信された音声データおよび映像データと、端末装置20bから送信された音声データとをそれぞれ受信する。サーバ装置10は、受信した映像データおよび音声データを、端末装置20cに送信する(ステップS14)。それと共に、サーバ装置10は、受信した音声データおよび映像データを例えばストレージ1003に、会議の時系列と関連付けて順次に保存する。
図7は、実施形態に適用可能な時系列について概略的に示す図である。サーバ装置10は、図7(d)に例示されるように、例えば電子黒板22からの会議の開始通知を受信した時間tstを基準として時系列を定義する。また、サーバ装置10は、図7(b)および図7(c)に例示されるように、会議端末25から送信された映像データ(映像)および音声データ(音声)に対して、時系列の各時間を関連付ける。この例では、映像データおよび音声データの先頭が時間tstに関連付けられている。以降、サーバ装置10は、映像データおよび音声データを、時系列上の時間の経過に応じて管理する。
ここで、サーバ装置10は、ステップS14で音声データを端末装置20cに送信するにあたり、受信した各音声データのうち何れの音声データを再生するかを選択する選択情報を端末装置20cに送信する。例えば、サーバ装置10は、受信した複数の音声データに対して互いに異なるチャネルを割り当てる。ここでは、サーバ装置10は、会議端末25から送信された音声データにチャネルch#1を、端末装置20bから送信された音声データにチャネルch#2を、それぞれ割り当てるものとする。
端末装置20cは、サーバ装置10から送信された、チャネルch#1およびch#2のうち何れのチャネルの音声データを再生させるかを選択するための選択情報に基づく選択画面を、ディスプレイ2011に表示させる。端末装置20cは、選択画面に応じたユーザ操作に従い、スピーカ2014から再生する音声データのチャネルを決定し、決定されたチャネルを示すチャネル選択情報をサーバ装置10に送信する。サーバ装置10は、会議端末25および端末装置20bから受信した各音声データから、端末装置20cから送信されたチャネル選択情報に示されるチャネルの音声データを選択して、端末装置20cに送信する。端末装置20cを使用するユーザ(遠隔参加者)は、複数の音声データから、会議の様子をより聞き取り易い音声データを選択することができる。
なお、サーバ装置10は、例えば、端末装置20cからの要求に応じて、資料データを端末装置20cに送信することができる。同様に、サーバ装置10は、端末装置20bからの要求に応じて、資料データを端末装置20bに送信することができる。
端末装置20cは、内蔵または接続されるマイクロホン2013で収音された音声に基づく音声データをサーバ装置10に送信する(ステップS15)。端末装置20cは、さらに、内蔵または接続されるカメラ2015で撮影を行っている場合には、撮影された撮影映像に基づく映像データをサーバ装置10に送信することもできる。
サーバ装置10は、端末装置20cから送信された音声データを受信して時系列に従った時間情報と関連付けてストレージ1003に順次に保存すると共に、受信した音声データを会議端末25に送信する(ステップS16)。会議端末25は、サーバ装置10から送信された、端末装置20cによる音声データを受信し、受信した音声データに基づく音声をスピーカ25aにより再生する。
電子黒板22は、ユーザ操作に応じて、タッチパネル2027に表示された情報(画面情報)を例えばストレージ2023に保存することができる。保存される画面情報は、タッチパネル2027のディスプレイ2027aに表示される、描画に応じた描画画像と、資料データによる資料画像とを含む。電子黒板22は、保存した画面情報を、サーバ装置10に送信する(ステップS17)。サーバ装置10は、電子黒板22から送信された画面情報を受信し、受信した画面情報を、時系列に従った時間情報と関連付けて例えばストレージ1003に保存する。
なお、電子黒板22は、ユーザ操作に応じて、ディスプレイ2027aに表示させる資料データや、ディスプレイ2027aに表示させる画面の全体を変更することができる。電子黒板22は、資料データや画面の変更の履歴を、サーバ装置10に送信することができる。上述した図7において、図7(a)は、資料データが、時系列上の時間t1、t2、t3、t4、t5、…において、それぞれ資料#1、#2、#3、#4、#5、…と変更される様子を示している。
電子黒板22は、例えば、資料#1が時間t1にてディスプレイ2027aに表示された場合に、資料#1を示す情報と、時間t1を示す情報とをサーバ装置10に送信する。サーバ装置10では、これら資料#1を示す情報と、時間t1を示す情報とを受信すると、資料#1を示す情報と、時間t1を示す情報とを関連付けて、例えばストレージ1003に保存する。
サーバ装置10は、時系列上の特定の時間を記憶することができる。例えば、端末装置20cは、あるタイミングでなされたマーカ付与のユーザ操作を受け付けると、サーバ装置10に対して、マーカ付与の操作を受け付けた時間を示す時間情報を含むマーカ付与の要求を送信する(ステップS18)。サーバ装置10は、この要求に応じて、要求に含まれる時間情報を含むマーカ情報を設定し、設定したマーカ情報を例えばストレージ1003に保存する。上述した図7(d)において、時間tMにマーカ情報に基づくマーカMが設定された様子が示されている。
サーバ装置10は、後(例えば図7(d)の時間tN)に、端末装置20cから、例えば付与したマーカに基づく再生要求を受け付けると、当該マーカに関連付けられた時間tMに対応する位置から、音声データおよび映像データを端末装置20cに送信する(S19)。端末装置20cは、サーバ装置10から送信された音声データおよび映像データを受信して、再生する。端末装置20cを使用するユーザは、例えば自身がマーキングした時点から音声および映像を視聴することができる。端末装置20bにおいても同様に、マーカ付与の要求をサーバ装置10に送信し(ステップS20)、マーキングした時点からの音声および映像を視聴することができる。
(実施形態に係る情報処理システムを実現するための機能構成)
次に、実施形態に係る情報処理システム1を実現するための一例の機能構成について説明する。
図8は、図1に示したサーバ装置10の機能を説明するための一例の機能ブロック図である。図8において、サーバ装置10は、通信部100と、ユーザ管理部101と、選択部102と、記憶部103と、1以上のプロジェクト管理部104と、制御部105とを含む。通信部100、ユーザ管理部101、選択部102、記憶部103、各プロジェクト管理部104および制御部105は、CPU1000上で動作するプログラムにより実現される。これに限らず、通信部100、ユーザ管理部101、選択部102、記憶部103、各プロジェクト管理部104および制御部105のうち一部または全部を、互いに協働して動作するハードウェア回路により構成してもよい。
サーバ装置10において、制御部105は、サーバ装置10の全体の動作を制御する。通信部100は、ネットワーク12を介した通信を行う。通信部100は、ブラウザなどを実行する複数の端末装置20a、20b、20cおよび20dからのアクセスを受け付ける。そして、サーバ装置10は、複数の端末装置20a、20b、20cおよび20dのそれぞれに対して、その端末装置20a、20b、20cおよび20dが要求した情報を提供する。
ユーザ管理部101は、サーバ装置10にアクセス可能なユーザの情報を管理する。表1は、ユーザ管理部101がユーザ情報管理に用いるユーザ管理テーブルの例を示す。ユーザ管理テーブルは、例えばストレージ1003に保存される。
表1において、ユーザ管理テーブルは、「ユーザID」、「ユーザ名」、「パスワード」、「メールアドレス」、「接続先情報」の各項目を含む1以上のレコードを有する。
項目「ユーザID」は、そのレコードが示すユーザを識別するための識別情報であるユーザIDが格納される。項目「ユーザ名」は、そのレコードのユーザのユーザ名が格納される。項目「パスワード」は、そのレコードのユーザがサーバ装置10にアクセスする際の認証に用いるパスワードが格納される。サーバ装置10は、例えばユーザIDとパスワードとの組み合わせを用いてユーザ認証を行う。項目「メールアドレス」は、そのレコードのユーザが持つ電子メールアドレスが格納される。項目「接続先情報」は、そのレコードのユーザが主に用いる端末装置の接続情報(例えばMACアドレス(Media Access Control address))が格納される。
サーバ装置10において、1以上のプロジェクト管理部104は、それぞれプロジェクトを管理する。プロジェクトは、複数のユーザを含むグループが形成され、サーバ装置10は、プロジェクト毎に、グループに含まれるユーザ間のコミュニケーションを実現させる。
なお、上述した会議室2a、2b、…で行われる会議は、会議室毎に1のプロジェクトのユーザをメンバとして実行されるものとする。これはこの例に限定されず、1の会議室において複数のプロジェクトのユーザが混在したメンバで会議を実行してもよいし、1のプロジェクトのユーザを複数の会議室における会議に分散してもよい。以下では、1のプロジェクトは、1の会議に対応するものとして説明を行う。
ここで、実施形態において、会議への参加方法として、以下の3種類の参加方法を定義する。
(1)直接参加
(2)遠隔参加
(3)準参加
(1)の直接参加は、例えば会議の主催者と同室におり、主催者と直接的に議論を行うことが可能な参加方法である。図1の例では、直接参加により参加する参加者(直接参加者と呼ぶ)は、会議室2a内で端末装置20bを使用するものとする。直接参加者は、会議に、会議の開始から終了までフルタイムで参加する参加形態を取ることを前提とする。
(2)の遠隔参加は、主催者とは異なる場所(部屋)におり、例えばネットワーク30を介して会議に参加する参加方法である。図1の例では、遠隔参加により参加する参加者(遠隔参加者と呼ぶ)は、ネットワーク30を介してサーバ装置10に接続される、端末装置20cおよび20dの何れかを使用するものとする。遠隔参加者は、会議に、会議の開始から終了までフルタイムで参加する参加形態を取ることを前提とするが、これに限らず、会議の開始から終了までの間の一部期間のみ、参加する参加形態であってもよい。
(3)の準参加は、会議の閲覧のみを行い、会議に対して発言などのアクションを起こさないことを前提とする参加方法である。図1の例では、準参加により参加する参加者(準参加者と呼ぶ)は、ネットワーク30を介してサーバ装置10に接続される、端末装置20cおよび20dの何れかを使用するものとする。準参加者は、会議に、会議の開始から終了までの間の任意の期間に参加するパート参加の参加形態を取ることを前提とするが、これに限らず、会議にフルタイムで参加する参加形態であってもよい。
説明は図8に戻り、選択部102は、プロジェクトを管理するためのプロジェクト管理テーブルを有する。選択部102は、ユーザ認証がされた例えば端末装置20aからアクセスされた場合、プロジェクト管理テーブルに基づき図9に示すようなプロジェクト選択画面400を端末装置20aに提供して、端末装置20aのディプレイ2011に表示させる。プロジェクト選択画面400は、管理している少なくとも1つのプロジェクトの中から1を端末装置20aに選択させるための画面である。
表2は、実施形態に適用可能なプロジェクト管理テーブルの例を示す。表2において、プロジェクト管理テーブルは、「プロジェクトID」、「メンバのユーザID」、「プロジェクト名」、「定例日時」の各項目を含む1以上のレコードを有する。
項目「プロジェクトID」は、プロジェクトの識別情報が格納される。プロジェクトの識別情報は、プロジェクトの新規作成時にサーバ装置10が一意に生成する。項目「メンバのユーザID」は、プロジェクトに参加しているユーザのユーザIDが列挙される。ユーザIDは、表1に示したユーザ管理テーブルにおける項目「ユーザID」に格納される値が用いられる。項目「プロジェクト名」は、そのレコードのプロジェクトの名前が格納される。項目「プロジェクト名」に格納される値が、プロジェクト選択画面400に表示される。項目「定例日時」は、そのレコードのプロジェクトにおいて定例的に行われるイベント(会議など)の日時が格納される。
端末装置20aは、ユーザ(主催者)により何れかのプロジェクトが選択された場合、選択されたプロジェクトを示す選択情報をサーバ装置10に送信する。選択部102は、端末装置20aからの選択情報に応じて、その端末装置20aが参加するプロジェクトを選択する。選択部102は、端末装置20aからの選択情報に応じて選択されたプロジェクトに対応するプロジェクト管理部104を呼び出し、そのプロジェクト管理部104とその端末装置20aとの間の情報のやり取りを可能とする。
それぞれのプロジェクト管理部104は、対応するプロジェクトに参加するそれぞれの端末装置20a、20b、20cおよび20dからアクセスを受け付ける。また、それぞれのプロジェクト管理部104は、対応するプロジェクトに関する各種の情報処理を実行する。
記憶部103は、それぞれのプロジェクト管理部104が管理するデータを、プロジェクト毎に例えばストレージ1003に記憶させる。
図10は、実施形態に係るプロジェクト管理部104の機能を説明するための一例の機能ブロック図である。プロジェクト管理部104は、映像音声処理部1040と、会議情報管理部1042と、時間取得部1043と、画面提供部1044と、時間管理部1045と、受付部1046と、テキスト化部1047とを含む。
プロジェクト管理部104において、映像音声処理部1040は、サーバ装置10に受信された、当該プロジェクト管理部104が管理するプロジェクトに係る映像データおよび音声データに対する処理を行う。例えば映像音声処理部1040は、サーバ装置10における映像データおよび音声データの送受信処理、および、映像データおよび音声データのストレージ1003などに対する保存処理などを制御する。
図1を参照して音声データの例について説明すると、例えば、映像音声処理部1040は、会議端末25、および、端末装置20a〜20dから送信された音声データをそれぞれ受信し、ストレージ1003に順次に保存する。また、映像音声処理部1040は、受信した各音声データから、例えば端末装置20cおよび20dから送信されたチャネル選択情報に従いそれぞれ選択した音声データを、端末装置20cおよび20dにそれぞれ送信する。
映像データについては、映像音声処理部1040は、会議端末25から送信された映像データを受信し、ストレージ1003に保存する。また、映像音声処理部1040は、受信した映像データを、例えば端末装置20cおよび20dの要求に従い、端末装置20cおよび20dに送信する。
さらに、映像音声処理部1040は、例えばストレージ1003に保存される映像データおよび音声データを、時系列上で指定された位置(時間)から読み出して出力する。例えば、映像音声処理部1040は、ストレージ1003に保存される映像データおよび音声データを、上述したマーカ情報により指定した位置から出力することができる。
会議情報管理部1042は、当該プロジェクト管理部104に管理されるプロジェクトにおいて行われる会議の情報を管理する。表3は、会議情報管理部1042が会議の情報を管理するために用いる会議管理テーブルの例を示す。表3において、会議管理テーブルは、「プロジェクトID」、「会議ID」、「会議名」、「参加者」、「場所」、「日時」および「会議端末情報」の各項目を含む1以上のレコードを有する。
項目「プロジェクトID」は、その会議が属するプロジェクトの識別情報が格納される。項目「プロジェクトID」に格納される値は、表2のプロジェクト管理テーブルにおける項目「プロジェクトID」の値が用いられる。項目「会議ID」は、その会議を識別する識別情報が格納される。会議の識別情報は、会議の新規作成時にサーバ装置10が一意に生成する。項目「会議名」は、その会議に設定された名前が格納される。項目「参加者」は、その会議に参加する参加者のユーザIDが格納される。ユーザIDは、表1に示したユーザ管理テーブルにおける項目「ユーザID」に格納される値が用いられる。また、ユーザIDは、項目「プロジェクトID」の値で識別されるプロジェクトに参加しているユーザのユーザIDから選択される。項目「場所」は、会議が行われる場所(部屋)を示す情報が格納される。項目「日時」は、会議が行われる日付および時間が格納される。項目「会議端末情報」は、その会議で用いられる会議端末25を識別する識別情報が格納される。
また、会議情報管理部1042は、会議ID毎に、会議で用いる資料データを管理する。さらに、会議情報管理部1042は、電子黒板22に描画された描画画像の管理も行う。会議情報管理部1042は、例えば電子黒板22に表示される資料データにオーバーラップして描画がなされた場合、描画画像と当該資料データとを関連付けて管理する。また、会議情報管理部1042は、例えば端末装置20aに対して、後述する会議管理画面を提供する。
時間取得部1043は、現在の日時および時刻を示す時間情報を取得する。
画面提供部1044は、各端末装置20a、20b、20cおよび20dの画面を提供する。例えば、画面提供部1044は、画面を表示させるための表示制御情報を、例えばHTMLに従い記述されたWebページとして所定のURL(Uniform Resource Locator)に示される場所に保存する。各端末装置20a、20b、20cおよび20dは、自身に搭載されるブラウザにより当該URLにアクセスすることで、画面提供部1044により提供される画面を表示することができる。なお、HTMLには、Webページにアクセスした機器の種類(デスクトップ型コンピュータ、タブレット型コンピュータ、スマートフォン、など)を判別するための仕組みを有し、アクセスした機器の種類に応じた画面を提供することが可能である。
画面提供部1044による各端末装置20a、20b、20cおよび20dへの画面の提供は、Webページを用いる方法に限定されない。例えば、各端末装置20a、20b、20cおよび20dに、この情報処理システム1に専用のアプリケーションプログラムを搭載させ、画面提供部1044は、各端末装置20a、20b、20cおよび20dに対して、この専用のアプリケーションプログラムによる画面表示を制御するための所定の表示制御情報を送信するようにしてもよい。
時間管理部1045は、当該プロジェクト管理部104に管理されるプロジェクトにおいて行われる会議における時系列を管理する。例えば、時間管理部1045は、時間取得部1043から取得した時間を、会議が開始された時間を基準とする時系列上の時間、すなわち、会議開始時からの経過時間として管理する。また、時間管理部1045は、当該会議において各端末装置20a〜20dにおいて設定されサーバ装置10に送信された各マーカ情報と、時系列上の時間(経過時間)とを関連付けて管理する。
さらに、時間管理部1045は、電子黒板22および各端末装置20a〜20dから送信された、電子黒板22および各端末装置20a〜20dにおける各アクション(電子黒板22上での資料データの表示、各端末装置20a〜20dからの反応、など)を示す情報を時系列上で蓄積的に記憶し、アクションのログを記録する。ログは、会議の識別情報(会議ID)と関連付けて例えばストレージ1003に保存される。
受付部1046は、各端末装置20a、20b、20cおよび20dから送信されたマーカ付与の要求や、センサI/F23から送信された検知結果などを受け付ける。テキスト化部1047は、映像音声処理部1040において取得された音声データを、既存の技術を用いて解析してテキスト化する。これに限らず、テキスト化部1047は、例えばネットワーク30を介して接続可能な外部のサービスを利用して、音声データのテキスト化を行ってもよい。
サーバ装置10における各機能を実現するための情報処理プログラムは、インストール可能な形式または実行可能な形式のファイルでCD(Compact Disk)、フレキシブルディスク(FD)、DVD(Digital Versatile Disk)などのコンピュータで読み取り可能な記録媒体に記録して提供される。これに限らず、当該情報処理プログラムを、インターネットなどのネットワークに接続されたコンピュータ上に格納し、当該ネットワークを介してダウンロードさせることにより提供してもよい。また、当該情報処理プログラムをインターネットなどのネットワークを経由して提供または配布するように構成してもよい。
当該情報処理プログラムは、上述した各部(映像音声処理部1040、会議情報管理部1042、時間取得部1043、画面提供部1044、時間管理部1045、受付部1046およびテキスト化部1047)を含むモジュール構成となっている。実際のハードウェアとしては、CPU1000がストレージ1003などの記憶媒体から当該情報処理プログラムを読み出して実行することにより、上述した各部がRAM1002などの主記憶装置上にロードされ、映像音声処理部1040、会議情報管理部1042、時間取得部1043、画面提供部1044、時間管理部1045、受付部1046およびテキスト化部1047が主記憶装置上に生成されるようになっている。
図11は、実施形態に適用可能な端末装置20dの機能を説明するための一例の機能ブロック図を示す。端末装置20dは、通信部200と、制御部201と、入力受付部202と、表示制御部203と、音声処理部204と、映像処理部205と、運動検知部206と、マーカ処理部207とを含む。なお、端末装置20a、20bおよび20cは、図11に示す構成から運動検知部206を省いた構成となる。ここでは、端末装置20a、20b、20cおよび20dを、端末装置20dで代表させて説明を行う。
これら通信部200、制御部201、入力受付部202、表示制御部203、音声処理部204、映像処理部205、運動検知部206およびマーカ処理部207は、CPU2000上で動作するプログラムにより実現される。これに限らず、通信部200、制御部201、入力受付部202、表示制御部203、音声処理部204、映像処理部205、運動検知部206およびマーカ処理部207の一部または全部を、互いに協働して動作するハードウェア回路により構成してもよい。
通信部200は、通信I/F2007を制御して、ネットワーク12やネットワーク30を介した通信を行う。制御部201は、端末装置20dの全体の動作を制御する。入力受付部202は、入力I/F2005を制御して、入力デバイス2012に対してなされたユーザ操作による入力を受け付ける。表示制御部203は、表示制御情報に基づき表示制御信号を生成し、表示制御信号に従いグラフィクスI/F2003を制御してディスプレイ2011に所定の画面を表示させる。
音声処理部204は、音声データに対して所定の処理を施す。例えば、音声処理部204は、マイクロホン2013で収音されたアナログ方式の音声信号が音声I/F2006で変換されたディジタル方式の音声データに対して所定の処理を施して通信部200に渡す。通信部200は、音声処理部204から渡された音声データをサーバ装置10に送信する。また例えば、音声処理部204は、マイクロホン2013で収音された、例えばユーザの音声による音声信号に基づく音声データを既存の音声認識技術を用いて解析し、音声に含まれる特定ワードを抽出することができる。
映像処理部205は、映像データに対して所定の処理を施す。例えば、映像処理部205は、カメラ2015で撮影され映像I/F2008から出力された映像データに対して所定の処理を施して通信部200に渡す。通信部200は、映像処理部205から渡された映像データをサーバ装置10に送信する。また例えば、映像処理部205は、カメラ2015での撮影により得た、例えばユーザの映像を含む映像データを既存の映像解析技術を用いて解析し、映像に含まれるユーザの特定のポーズを抽出することができる。
運動検知部206は、9軸センサ2016の出力を解析して、端末装置20dの姿勢および姿勢の変化を検出する。マーカ処理部207は、入力受付部202に受け付けられた入力に応じてマーカ情報を作成する。
端末装置20dに含まれる各機能部のうち、制御部201を除く各部(通信部200、入力受付部202、表示制御部203、音声処理部204、映像処理部205、運動検知部206およびマーカ処理部207)は、例えばWebアプリケーションプログラムであって、端末装置20dがブラウザによりネットワーク30(端末装置20bの場合はネットワーク12)を介してサーバ装置10から取得したプログラムがCPU2000上で実行されることで構成される。
(実施形態に適用可能な処理の具体例)
次に、実施形態に適用可能な処理について、より具体的に説明する。以下では、図1を参照し、会議室2aにおいて電子黒板22を用いて会議を行うものとして説明を行う。会議の主催者は、端末装置20aを、直接参加者は、端末装置20bを、それぞれ用いるものとする。また、遠隔参加者および準参加者は、それぞれ端末装置20cおよび端末装置20dのうち何れを用いてもよいが、ここでは、遠隔参加者が端末装置20cを用い、準参加者が端末装置20dを用いるものとする。
図12は、実施形態に適用可能な、会議の準備段階におけるサーバ装置10の処理を示す一例のフローチャートである。例えば、会議の主催者は、端末装置20aを用いてサーバ装置10にアクセスする。ステップS100で、サーバ装置10は、端末装置20aからのアクセスを受け付ける。例えば、サーバ装置10は、ユーザ管理部101により、端末装置20aからのアクセスに応じて、端末装置20aに対して、ユーザIDおよびパスワードの入力領域を備えるログイン画面を提示する。サーバ装置10において、ユーザ管理部101は、端末装置20aから、このログイン画面に対して入力されたユーザIDおよびパスワードを受信すると、例えばユーザ管理テーブルを参照して認証処理を行い、認証が成功した場合に、端末装置20aからのアクセスを許可する。
ステップS100で端末装置20aのアクセスを許可すると、次のステップS101で、サーバ装置10は、プロジェクト管理テーブルに基づき図9に示したプロジェクト選択画面400を端末装置20aに提示する。例えば会議の主催者は、端末装置20aを操作して、プロジェクト選択画面400に対してプロジェクト選択入力を行い、会議を行うプロジェクトを指定する。端末装置20aは、プロジェクト選択入力の結果をサーバ装置10に送信する。
会議の主催者は、会議を行うためのプロジェクトを新規に作成してもよい。この場合、例えば、サーバ装置10において、選択部102は、端末装置20aからのプロジェクト新規作成要求に応じて、表2で示したプロジェクト管理テーブルにおける入力すべき各項目の入力領域を含むプロジェクト作成画面を端末装置20aに提示する。選択部102は、端末装置20aから、このプロジェクト作成画面に従い入力された各項目の情報に基づきプロジェクト管理テーブルにレコードを追加して、新規のプロジェクトを作成する。
次のステップS102で、サーバ装置10は、端末装置20aによりプロジェクト選択画面400に対してなされたプロジェクト選択入力を受け付け、入力結果を取得する。サーバ装置10は、取得したプロジェクト選択入力の結果に基づき、端末装置20aにより指定されたプロジェクトのプロジェクトIDを取得する。サーバ装置10は、ステップS102で取得されたプロジェクトIDに対応するプロジェクト管理部104を、複数のプロジェクト管理部104から特定する。
次のステップS103で、サーバ装置10は、ステップS102で特定されたプロジェクト管理部104の画面提供部1044により、端末装置20aに対して会議管理画面を提示する。
次のステップS104で、サーバ装置10において会議情報管理部1042は、会議管理画面に対する会議の書誌情報などの入力を受け付ける。ステップS104では、(a)会議に参加するメンバ(参加者)に関する情報の登録と、(b)会議の書誌情報の設定と、(c)会議に用いる資料データの登録とが行われる。会議の書誌情報は、例えば会議名、議題、会議の日時および場所などを含む。
図13は、実施形態に適用可能な、画面提供部1044が端末装置20aに対して提示する会議管理画面の例を示す。図13において、会議管理画面500は、プロジェクトに参加しているメンバの情報が表示されるメンバ表示領域501と、議題を設定するための議題設定領域502とを含む。
メンバ表示領域501は、プロジェクトに参加している各メンバのメンバ情報50101、50102、50103、…が一覧で表示される。メンバ表示領域501にプロジェクトに参加している全メンバの情報が表示しきれない場合は、例えば端末装置20aに対する所定の操作によりメンバ表示領域501をスクロール(この例では横方向にスクロール)させることで、表示されていないメンバの情報がメンバ表示領域501内に出現する。
例えばメンバ情報50101は、このメンバ情報50101に表示されるメンバを示すアイコン画像5011が表示されると共に、当該メンバの各属性情報が表示される表示領域5012〜5015を含む。表示領域5012は、当該メンバの名前が表示される。画面提供部1044は、例えばユーザ管理テーブルとプロジェクト管理テーブルとに基づき、プロジェクトに参加しているメンバの名前を取得する。
表示領域5013は、当該メンバの参加方法が表示される。参加種類は、例えば上述した参加者の種類のうち(1)〜(3)の直接参加、遠隔参加および準参加と、会議に参加しないことを示す不参加とを含む。図13の例では、メンバ情報50101および50104のメンバが直接参加(Participation)、メンバ情報50102のメンバが遠隔参加(Remote)、メンバ情報50103のメンバが準参加(Semi−Participation)、メンバ情報50105のメンバが不参加(Absent)となっている。
表示領域5014は、当該メンバの参加形態が表示される。図13の例では、メンバ情報50101、50102および50104のメンバがフルタイムの参加形態、メンバ情報50103のメンバが議題2および3のみ参加のパート参加形態となっている。
会議情報管理部1042は、各メンバの参加種類および参加形態を、例えば表4に示す参加方法テーブルを用いて管理する。表4において、参加方法テーブルは、それぞれユーザID、参加方法、参加形態に対応する「ユーザID」、「参加方法」、「参加形態」の各項目を含むレコードを、例えば会議の参加メンバ分、有する。参加方法テーブルは、例えば会議IDに関連付けられて、ストレージ1003に保存される。参加方法テーブルに格納される各情報は、例えば会議の主催者により予め登録される。
表示領域5015は、当該メンバが会議のためにサーバ装置10に登録した資料データの一覧が表示される。図13の例では、各メンバ情報50101〜50105において表示領域5015の表示が「No File」とされ、資料データが登録されていないことが示されている。
なお、例えば会議の主催者は、端末装置20aに表示された会議管理画面500における表示領域5012〜5015に表示される情報を、端末装置20aから編集することができる。また、プロジェクトの各メンバは、各自の端末装置20b、20cおよび20dから会議管理画面500にアクセスして、自身の属性情報を編集することができる。表示領域5012〜5015に表示される情報は、例えば編集に応じてサーバ装置10に送信され、会議情報管理部1042により会議管理テーブルおよび参加方法テーブルの対応する項目に反映され、登録される。
図13において、議題設定領域502は、過去の会議における決定事項などを確認するための議題領域5020aと、会議に議題を追加するための議題領域5020bとを含む。図14は、議題領域5020bに対する操作に応じて端末装置20aに表示される、実施形態に適用可能な議題設定画面の例を示す。なお、ここでは、図14に示される議題設定画面510は、所定の権限(例えば会議の主催者)を持つユーザのユーザIDに応じて表示されるものとする。
図14において、議題設定画面510は、入力領域5101〜5104と、ボタン5105aおよび5105bとを含む。入力領域5101は、会議のタイトル(会議名)を入力するための領域である。入力領域5102は、会議の議題を入力するための領域である。
入力領域5103は、会議で用いる資料データをアップロードするための領域である。例えば、端末装置20aは、入力領域5103に設けられるボタン5103aに対する操作に応じて、端末装置20a内のファイルを選択するファイル選択画面を表示させる。端末装置20aは、ファイル選択画面に対するファイルの選択操作に応じて、入力領域5103に、アップロードを行うファイルの一覧を表示させる。
入力領域5104は、入力領域5104a、5104bおよび5104cを含む。入力領域5104aは、会議の日付を入力するための領域である。入力領域5104bは、会議の開始時間および終了時間を入力するための領域である。また、入力領域5104cは、会議の場所を入力するための領域である。これら入力領域5104a、5104bおよび5104cは、例えば別途に提供されるスケジューラのアプリケーションプログラムを参照して値を入力することが可能である。
ボタン5105aは、入力領域5101〜5104に入力された各情報を破棄するためのボタンである。ボタン5105bは、入力領域5101〜5104に入力された各情報を確定し、各情報をサーバ装置10に登録するためのボタンである。端末装置20aは、ボタン5105bが操作されると、入力領域5101〜5104に入力された各情報をサーバ装置10に送信する。また、端末装置20aは、入力領域5103に表示される各ファイルをサーバ装置10に送信する。
サーバ装置10において、会議情報管理部1042は、端末装置20aから受信した各情報のうち、入力領域5101に入力された会議のタイトルを、会議管理テーブルの項目「会議名」に、入力領域5104に入力された各情報を、会議管理テーブルの項目「日時」および「場所」に、それぞれ反映させて、書誌情報の登録を行う。また、会議情報管理部1042は、端末装置20aからアップロードされた各ファイルを、会議IDおよびユーザIDと関連付けて例えばストレージ1003に保存する。さらに、会議情報管理部1042は、端末装置20aから受信した、入力領域5102に入力された会議の議題を、会議IDと関連付けてストレージ1003などに所定に保存し、書誌情報に追加する。
なお、会議に参加する各メンバは、各自の端末装置20b、20cおよび20dから会議管理画面500にアクセスして、例えば入力領域5013および5014に表示される、自身の会議への参加方法および参加形態を編集することができる。また、各メンバは、各自の端末装置20b、20cおよび20dから会議管理画面500にアクセスして、入力領域5103に対して資料データのファイルをアップロードすることができる。アップロードされたファイルは、会議情報管理部1042により、会議IDおよびユーザIDと関連付けられて、ストレージ1003に保存される。
図15は、実施形態に適用可能な、上述のようにして各情報の入力やファイルのアップロードが完了した場合の会議管理画面500の例を示す。図15の例では、メンバ情報50102、50103および50104に、アップロードしたファイルの情報が表示されている。また、議題設定領域502において、新たに設定された議題の情報を含む議題領域5020cが追加されている。
説明は図12に戻り、会議情報管理部1042は、ステップS105で、会議管理画面500に従った各情報の登録が完了したか否かを判定する。完了していないと判定した場合(ステップS105、「No」)、処理がステップS104に戻される。一方、会議情報管理部1042は、情報の登録が完了したと判定した場合(ステップS105、「Yes」)、処理をステップS106に移行させる。会議情報管理部1042は、例えば、会議管理画面500に対する所定の操作に応じて、情報の登録が完了したと判定することが考えられる。
ステップS106で、サーバ装置10は、会議情報管理部1042により、会議管理画面500のメンバ表示領域501により登録された、会議に参加する各参加者に対して、会議の開催が通知される。各参加者に対する会議開催通知は、例えば、会議管理テーブルおよびユーザ管理テーブルに基づき、各参加者に対する電子メールの送信により行う。ここで、会議情報管理部1042は、各参加者に送信する会議開催通知メールに、画面提供部1044が各端末装置20b、20cおよび20dに対して会議画面を表示させるためのURLを付加して、当該通知メールを送信する。
次のステップS107で、会議情報管理部1042は、現在が、議題設定画面510において入力領域5104aおよび5104bに設定された会議開催日時であるか否かを判定する。現在が会議開催日時ではないと判定した場合(ステップS107、「No」)、会議情報管理部1042は、処理をステップS107に戻し、会議開催日時を待機する。
一方、会議情報管理部1042は、現在が会議開催日時であると判定した場合(ステップS107、「Yes」)、処理をステップS108に移行させる。ステップS108で、会議情報管理部1042は、電子黒板22に対して、会議開始画面を表示させるよう指示する。図16は、実施形態に適用可能な、電子黒板22に表示される会議開始画面の例を示す。図16において、会議開始画面520は、表示領域521および522と、ボタン523aおよび523bとを含む。
表示領域521は、開始される会議名5210と、会議の主催者を示す情報5211とを含む。この例では、情報5211は、会議の主催者のアイコン画像と、名前とを含んでいる。表示領域522は、会議の書誌情報が表示される。この例では、表示される書誌情報は、会議が開催される日時を示す情報と、会議の開催場所を示す情報とを含んでいる。
ボタン523aは、この会議の開始をキャンセルするためのボタンである。また、ボタン523bは、この会議の開始を指示するためのスタートボタンである。
図17は、実施形態に適用可能な、電子黒板22における処理を概略的に示す一例のフローチャートである。ステップS120で、電子黒板22において会議開始画面520のボタン523bが操作され、会議の開始が指示される。電子黒板22は、会議の開始指示をサーバ装置10に通知する。
サーバ装置10は、会議の開始時の通知に応じて、会議が開催される会議室2aと遠隔の場所にある、端末装置20cおよび20dに対して会議の開始を通知する。
図18は、実施形態に適用可能な、会議の開始を通知するための会議開始通知画面の例を示す。なお、以下では、端末装置20dがスマートフォンであって、画面を縦長の方向に保持して画面表示させているものとして説明する。勿論、画面を横長の方向に保持した場合や、端末装置20dがタブレット型コンピュータ、デスクトップ型コンピュータ、ノート型コンピュータであっても、同様の構成要素を用いて画面表示を行うことができる。
図18において、会議開始通知画面530は、表示領域531および532と、ボタン533aおよび533bとを含む。図18の例では、表示領域531は、会議の議題が表示され、表示領域532は、会議の書誌情報として、会議が開催される日時および場所を示す情報が表示されている。また、図18の例では、会議開始通知画面530は、会議の開始を通知するための表示5310および5311を含む。ボタン533aは、会議開始通知画面530を閉じるためのボタンであり、ボタン533bは、次の画面に遷移させるためのボタンである。
次のステップS121で、サーバ装置10は、電子黒板22から会議の開始指示が通知されると、音声および映像の記録、ならびに、ログの取得を開始する。
より具体的には、サーバ装置10は、例えば、会議開始指示の通知を受け付けた時間を会議開始時間とし、会議開始時間を基準とした時系列を、当該会議の会議IDに関連付けられる時系列として定義する。サーバ装置10は、会議端末25から受信した音声データおよび映像データを、会議IDおよび時系列上の時間と関連付けて、例えばストレージ1003に保存する。サーバ装置10は、同様に、各端末装置20b、20cおよび20dから音声データや映像データを受信している場合には、それらの音声データおよび映像データを、会議IDおよび時系列上の時間と関連付けて、ストレージ1003に保存する。
また、サーバ装置10は、音声データおよび映像データの、会議端末25や各端末装置20b、20cおよび20dへの送信も制御する。
さらに、サーバ装置10は、電子黒板22および各端末装置20a〜20dにおけるアクションを、電子黒板22および各端末装置20a〜20dから受信することができる。サーバ装置10は、電子黒板22および各端末装置20a〜20dからアクションを受信した場合に、受信したアクションを、会議IDおよび時系列上の時間と関連付けて、ストレージ1003に蓄積に保存して、アクションのログを記録する。
次のステップS122で、電子黒板22は、ディスプレイ2027aに描画画面を表示させ、タッチパネル2027に対する描画の受け付けを開始する。これにより、ユーザは、タッチパネル2027に対して自在に描画を行い、描画した画像をタッチパネル2027のディスプレイ2027aに表示させることが可能となる。
図19は、実施形態に適用可能な描画画面の例を示す。図19において、描画画面540は、表示領域5400と、メニュー領域5401と、描画領域5402とを含む。表示領域5400は、議題を切り替えるためのボタン5400aと、サーバ装置10にログインしているユーザを示すアイコン画像5400bとを含む。
メニュー領域5401は、ボタン5401a、5401bおよび5401cを含む。ボタン5401aは、サーバ装置10に予め登録される資料データファイルを指定するためのファイルリストを表示させるためのボタンである。ボタン5401bおよび5401cは、それぞれ、後述する留意事項マークおよび決定事項マークを設定するためのボタンである。
描画領域5402は、接触などによる描画が可能な領域である。描画領域5402は、ツールアイコン部5410と、画面切替部5411とを含む。ツールアイコン部5410は、電子黒板22の各機能を指定するための各アイコン画像が含まれる。例えば、ツールアイコン部5410は、描画に用いる各描画ツールを示すアイコン画像が含まれる。所望の描画ツールのアイコン画像をタッチした後に描画領域5402をタッチすることで、当該描画ツールによる効果を描画領域5402に反映させることができる。
また、ツールアイコン部5410は、描画領域5402内に表示される画像の拡大縮小、複製、貼り付け、保存、消去などを実行するための各機能ボタンが含まれる。拡大縮小の機能ボタンを指定すると、描画領域5402内の画像が拡大または縮小されて表示される。複製の機能ボタンを指定すると、描画領域5402内の画像が例えばRAM2022に一時的に記憶される。貼り付けの機能ボタンを指定すると、複製の機能ボタンの指定により記憶された画像が、描画領域5402に貼り付けられる。保存の機能ボタンを指定すると、描画領域5402内の画像が例えばストレージ2023に保存される。消去の機能ボタンを指定すると、描画領域5402内の画像が消去される。
画面切替部5411は、例えばツールアイコン部5410における保存の機能ボタンを指定して保存された画像のサムネイル画像が一覧表示される。電子黒板22は、画面切替部5411に表示されるサムネイル画像が指定されると、指定されたサムネイル画像に対応する画像をストレージ2023から読み出して、描画領域5402内に表示させることができる。
次のステップS123で、電子黒板22は、ステップS120で開始された会議が終了したか否かを判定する。電子黒板22は、例えば、タッチパネル2027に対する、予め定められた会議終了を指示する操作の有無に基づき、会議が終了したか否かを判定する。電子黒板22は、タッチパネル2027に対して会議終了を指示する操作があった場合、会議が終了したと判定し(ステップS123、「Yes」)、会議の終了をサーバ装置10に通知し、図17のフローチャートにおける一連の処理を終了させる。
サーバ装置10は、電子黒板22による会議終了の通知に応じて、例えば音声データおよび映像データの記録と、ログの記録とを終了させる。
電子黒板22は、会議が終了していないと判定した場合(ステップS123、「No」)、処理をステップS124に移行させる。ステップS124で、電子黒板22は、予め登録された資料データに対する操作の有無を判定する。電子黒板22は、資料データに対する操作があったと判定した場合(ステップS124、「有り」)、処理をステップS125に移行させる。電子黒板22は、ステップS125で、操作に応じた処理を実行し、処理をステップS123に戻す。
資料データに対する処理の1つとして、サーバ装置10に予め登録された資料データによる画像を、電子黒板22のディスプレイ2027aに表示させる処理がある。電子黒板22は、図19に示した描画画面540において、ボタン5401aに対する操作に応じて、サーバ装置10に予め登録される資料データファイルを指定するためのファイルリストを表示させる。
図20−1は、実施形態に適用可能な、ボタン5401aの操作に応じてファイルリスト5420が表示された例を示す。例えば、電子黒板22は、ボタン5401aが操作されると、サーバ装置10に対して、当該会議の会議IDに関連付けられて保存される資料データのファイルを要求する。サーバ装置10は、この要求に応じて、要求された各ファイルを、当該ファイルに関連付けられたユーザIDと共にストレージ1003から読み出して電子黒板22に送信する。
電子黒板22は、サーバ装置10から送信された各ファイルを受信すると、受信した各ファイルを、例えばストレージ1003に記憶し、各ファイルのファイル名を示す情報に基づきファイルリスト5420を表示させる。電子黒板22は、ファイルリスト5420に対する操作に応じて選択されたファイルをストレージから読み出して、読み出したファイルに基づく画像を描画領域5402に表示させる。図20−2は描画領域5402にファイルに基づく画像600が表示された例を示す。
また、電子黒板22は、選択されたファイルに関連付けられたユーザIDに基づき、サーバ装置10に対して例えば当該ユーザIDに関連付けられたメールアドレスにより、当該ユーザIDに対応するユーザに対して、ファイルが選択され表示された旨を通知する。さらに、電子黒板22は、選択されたファイルを示す情報と、当該ファイルに関連付けられたユーザIDと、ファイルが選択された時系列上の時間とをサーバ装置10に送信する。サーバ装置10は、電子黒板22から受信したファイル情報、ユーザIDおよび時間を関連付けて、ログとして記録する。
なお、電子黒板22は、ファイルに基づく画像600が表示されている場合であっても、ユーザ操作に応じた描画を受け付けることができる。図21は、実施形態に適用可能な、資料データによる画像600が表示されている描画領域5402に対して描画を行い、描画による画像601が資料データによる画像600に重畳して表示された例を示す。
説明は図17のフローチャートに戻り、上述したステップS124で、電子黒板22は、資料データに対する操作が無いと判定した場合(ステップS124、「無し」)、処理をステップS126に移行させる。ステップS126で、電子黒板22は、描画領域5402内の画像を保存するか否かを判定する。例えば、電子黒板22は、ツールアイコン部5410における保存の機能ボタンに対する操作の有無に応じて、描画領域5402内の画像を保存するか否かを判定することができる。これに限らず、電子黒板22は、例えば所定の時間間隔で描画領域5402内の画像を自動的に保存するようにしてもよい。
電子黒板22は、描画領域5402内の画像を保存すると判定した場合(ステップS126、「Yes」)、処理をステップS127に移行させる。ステップS127で、電子黒板22は、描画領域5402内の画像の保存処理を実行する。例えば、電子黒板22は、図22に例示されるように、描画領域5402内に予め定められた領域5420内に表示される画像を保存する。このとき、電子黒板22は、領域5420内に、資料データによる画像600が含まれる場合、当該画像600を表示させる資料データのファイルを示す情報を、保存対象の画像に関連付けることができる。
また、電子黒板22は、画像が保存されると、保存された画像を示す情報(例えばファイル情報)と、画像が保存された時系列上の時間と、画像の保存を示す情報とをサーバ装置10に送信する。サーバ装置10は、電子黒板22から受信したファイル情報と時間と画像の保存を示す情報とを関連付けて、ログとして記録する。
電子黒板22は、上述したステップS126で、描画領域5402内の画像を保存しないと判定した場合(ステップS126、「No」)、処理をステップS128に移行させる。ステップS128で、電子黒板22は、描画領域5402内の画像を消去するか否かを判定する。例えば、電子黒板22は、ツールアイコン部5410における消去の機能ボタンに対する操作の有無に応じて、描画領域5402内の画像を消去するか否かを判定することができる。電子黒板22は、描画領域5402内の画像を消去しないと判定した場合(ステップS128、「No」)、処理をステップS123に戻す。
一方、電子黒板22は、描画領域5402内の画像を消去すると判定した場合(ステップS128、「Yes」)、処理をステップS129に移行させる。ステップS129で、電子黒板22は、描画領域5402内の画像を全て消去し、処理をステップS123に戻す。このとき、電子黒板22は、画像を消去した時系列上の時間と、画像の消去を示す情報とをサーバ装置10に送信する。サーバ装置10は、電子黒板22から受信した時間と画像の消去を示す情報とを関連付けて、ログとして記録する。
上述したステップS123〜ステップS129の処理が、ステップS123で会議が終了したと判定されるまで繰り返し実行される。
(実施形態に適用可能な留意事項マークおよび決定事項マーク)
次に、上述した、メニュー領域5401におけるボタン5401bおよび5401cを操作した際の、留意事項マークおよび決定事項マークの設定について説明する。留意事項マークおよび決定事項マークは、会議中において音声などの情報を意図的に残したい場合に用いる。
図23は、実施形態に適用可能な留意事項マークおよび決定事項マークを設定するための処理を示す一例のフローチャートである。ステップS140で、電子黒板22は、留意事項または決定事項の入力が開始されたか否かを判定する。例えば、電子黒板22は、メニュー領域5401におけるボタン5401bおよび5401cの何れかに対する操作に応じて、留意事項または決定事項の入力の開始を判定する。
より具体的には、電子黒板22は、ボタン5401bまたは5401cに対する操作に応じて、留意事項または決定事項の詳細を入力するための入力画面を表示させる。
図24は、実施形態に適用可能な、ボタン5401bに対する操作に応じて表示される、留意事項を入力するための留意事項入力画面の例を示す。図24において、留意事項入力画面5405は、入力領域5406および5407と、録音開始ボタン5408とを含む。入力領域5406は、留意事項のオーナを入力するための領域であって、会議の各メンバから、オーナを選択するようになっている。入力領域5407は、留意事項の種類を入力するための領域であって、予め用意された複数の留意事項の種類から1を選択するようになっている。
録音ボタン5408は、録音の開始および終了をトグル操作により指示するためのボタンである。電子黒板22は、録音ボタン5408に対する操作に応じて時系列上の時間を取得し、留意事項入力の開始または終了を示すポイントを、取得した時間に関連付けて設定し、設定したポイントと、ポイントに関連付けられた時間とをサーバ装置10に送信する。例えば、電子黒板22は、この留意事項入力画面5405が表示されて1回目の録音ボタン5408の操作に応じて、留意事項入力の開始を示すポイントを設定し、2回目の録音ボタン5408の操作に応じて、留意事項入力の終了を示すポイントを設定する。
図25は、ボタン5401cに対する操作に応じて表示される、決定事項を入力するための決定事項入力画面の例を示す。図25において、決定事項入力画面5500は、入力領域5501と、ボタン5502および5503とを含む。この場合、電子黒板22は、ボタン5401cに対する操作に応じてこの決定事項入力画面5500を表示させると共に、時系列上の時間を取得し、決定事項入力の開始を示すポイントを取得した時間に関連付けて設定する。電子黒板22は、設定したポイントと、ポイントに関連付けられた時間とをサーバ装置10に送信する。
入力領域5501は、決定事項の内容をテキスト情報により入力するための領域である。ボタン5502は、決定事項入力操作をキャンセルするためのボタンである。電子黒板22は、ボタン5502に対する操作に応じて、例えば、入力領域5501に入力されたテキスト情報を破棄すると共に、サーバ装置10に対して、この決定事項入力画面5500の表示に伴い設定されたポイントの削除を依頼する。
ボタン5503は、入力領域5501に入力されたテキスト情報を確定させるためのボタンである。電子黒板22は、例えば、ボタン5503の操作に応じて、入力領域5501に入力されたテキスト情報をサーバ装置10に送信する。それと共に、電子黒板22は、時系列上の時間を取得し、決定事項入力の終了を示すポイントを取得した時間に関連付けて設定する。電子黒板22は、設定したポイントと、ポイントに関連付けられた時間とをサーバ装置10に送信する。
説明は図23のフローチャートに戻り、ステップS140で、電子黒板22は、留意事項または決定事項の入力が開始されていないと判定した場合(ステップS140、「No」)、処理をステップS140に戻し、ボタン5401bおよび5401cの何れかに対する操作を待機する。
一方、電子黒板22は、留意事項または決定事項の入力が開始されたと判定した場合(ステップS140、「Yes」)、処理をステップS141に移行させる。ステップS141で、電子黒板22は、ボタン5401bおよび5401cの何れかに対する操作に応じて、時系列上の時間を取得し、留意事項または決定事項の入力の開始を示すポイントを、取得した時間に関連付けて設定する。電子黒板22は、設定したポイントと、ポイントに関連付けられた時間とをサーバ装置10に送信する。
次のステップS142で、電子黒板22は、留意事項入力画面5405または決定事項入力画面5500における留意事項または決定事項の入力が終了したか否かを判定する。電子黒板22は、入力が終了していないと判定した場合(ステップS142、「No」)、処理をステップS142に戻す。一方、電子黒板22は、入力が終了したと判定した場合(ステップS142、「Yes」)、処理をステップS143に移行させる。
ステップS143で、電子黒板22は、時系列上の時間を取得し、留意事項または決定事項の入力の終了を示すポイントを、取得した時間に関連付けてサーバ装置10に送信する。次のステップS144で、電子黒板22は、留意事項入力画面5405または決定事項入力画面5500に入力された入力内容を、サーバ装置10に送信する。サーバ装置10は、電子黒板22から受信したこれら入力内容を、例えばそれぞれの開始を示すポイントに関連付けて保存する。
図26は、実施形態に適用可能な、留意事項および決定事項に関するマーカ情報について概略的に示す。図26(c)は、この会議の開始時間を基準とする時系列を示す。この例では、時系列上の時間tAIstおよびtAIedに、それぞれ留意事項入力の開始および終了を示す各ポイントが設定されている。また、時系列上の時間tDSstおよびtDSedに、それぞれ決定事項入力の開始および終了を示す各ポイントが設定されている。
実施形態では、例えば留意事項入力の開始および終了を示す各ポイントのうち、開始を示すポイントに対して、留意事項を示すマーカ情報(第5の種類の意味情報)を設定する。以下では、留意事項を示すマーカ情報を適宜「アクションアイテムA.I」と呼び、「A.I」として示す。
同様に、決定事項入力の開始および終了を示す各ポイントのうち、開始を示すポイントに対して、決定事項を示すマーカ情報(第5の種類の意味情報)を設定する。以下では、決定事項を示すマーカ情報を適宜「ディシジョンDS」と呼び、そのマーカを「DS」として示す。図26(d)は、留意事項の開始のポイントである時間tAIstにアクションアイテムA.Iによるマーカ「A.I」が設定され、決定事項の開始ポイントである時間tDSstにディシジョンDSによるマーカ「DS」が設定された様子を示している。
また、図26(a)の例では、留意事項入力画面5405の入力領域5406および5407に入力された入力情報であるA.I入力データ50は、アクションアイテムA.Iに関連付けられる。同様に、決定事項入力画面5500の入力領域5501に入力された入力情報であるDS入力データ51は、ディシジョンDSに関連付けられる。
なお、図26(b)に示されるように、音声データは、これらアクションアイテムA.IおよびディシジョンDSとは関わりなく、時系列に沿って記録される。例えば端末装置20dは、後述するタイムライン画面におけるアクションアイテムA.Iの指定に応じて、時間tAIstから時間tAIedの間の音声データを選択的に再生することができる。同様に、端末装置20dは、タイムライン画面におけるディシジョンDSの指定に応じて、時間tDSstから時間tDSedの間の音声データを選択的に再生することができる。
これに限らず、音声データにおいて、例えば時間tAIstから時間tAIedの間の音声データを複製して、アクションアイテムA.Iによる音声データを新規に作成してもよい。
(実施形態に適用可能な、端末装置に対する会議情報の提示例)
サーバ装置10は、会議室2aで開催されている会議の様子などを、会議室2aから遠隔した場所にある端末装置20cおよび20dに提示することができる。図27は、実施形態に適用可能な、例えばスマートフォンである端末装置20dにおける会議閲覧画面の例を示す。
図27の例では、会議閲覧画面700は、会議名表示部701と、チャネル選択部702と、会議情報表示部703と、トークボタン704と、機能指定部705と、画面切替部706とを含んでいる。なお、端末装置20dを画面が横長の方向に保持した場合や、端末装置20dがタブレット型コンピュータ、デスクトップ型コンピュータ、ノート型コンピュータであっても、会議閲覧画面700は、同様の構成要素を含んで画面表示を行うことができる。
画面切替部706は、画面の表示モードを切り替えるためのボタン7060、7061、7062および7063を含む。ボタン7060は、画面の表示モードを、議題に関する情報を表示する議題表示モードに切り替える。ボタン7061は、画面の表示モードを、チャットを行うためのチャット画面を表示するチャット表示モードに切り替える。例えば、端末装置20dは、ボタン7061に対する操作に応じて、サーバ装置10に対してチャットへの参加を要求し、要求に応じてチャットへの参加が許可されると、会議閲覧画面700内に、チャット画面を表示させる。
ボタン7062は、画面の表示モードを、当該会議における時系列上の時間経過を示すタイムラインを表示するタイムライン表示モードに切り替える。ボタン7063は、画面の表示モードを、会議の様子を中継する中継表示モードに切り替える。図27の例は、この中継表示モードの例である。
図27の例では、中継表示モードの会議閲覧画面700において、会議名表示部701は、現在閲覧している会議の会議名が表示される。チャネル選択部702は、端末装置20dにおいて再生する音声データのチャネルを指定するための操作部である。端末装置20dは、チャネル選択部702に対する操作に応じて、それぞれサーバ装置10から送信される、例えば会議端末25により収音された音声による音声データと、端末装置20bにより収音された音声による音声データとのうち、所望の音声データを選択して再生することができる。
会議情報表示部703は、会議室2aにおける会議の様子を表示または提示する。図27の例では、会議情報表示部703は、音声再生中を示すアイコン画像7030が表示され、チャネル選択部702で指定されたチャネルの音声データによる音声が再生されていることが示されている。
トークボタン704は、端末装置20dで収音した音声による音声データをサーバ装置10に送信させるためのボタンである。例えば、端末装置20dは、トークボタン704に対する操作に応じて、端末装置20dのマイクロホン2013で収音した音声による音声データをサーバ装置10に送信する。サーバ装置10は、端末装置20dから送信された音声データを受信すると、受信した音声データを例えばストレージ1003に保存すると共に、会議端末25に送信し再生させる。
機能指定部705は、ボタン7050、7051および7052を含む。ボタン7050は、操作された時間に応じたマーカを設定するためのボタンである。ボタン7051は、端末装置20dにおいてテキスト入力を行うためのボタンである。ボタン7051の操作に応じて入力されたテキスト情報は、サーバ装置10に送信されて保存されると共に、サーバ装置10から電子黒板22に送信され、電子黒板22において描画領域5402内の所定領域に表示される。
ボタン7052は、端末装置20dを使用しているユーザの、会議に対する反応を送信するためのボタンである。端末装置20dは、ボタン7052に対する操作に応じて、サブメニューとして各種の反応を示す各アイコン画像を表示させ、サブメニューに表示される各アイコン画像に応じた情報を、サーバ装置10に送信する。サーバ装置10は、この情報を時系列上の時間と関連付けて保存すると共に、電子黒板22に送信する。電子黒板22は、サーバ装置10から受信したこの情報に応じた例えばアイコン画像を、ディスプレイ2027aの所定位置に表示する。
なお、図27の例では、中継表示モードの会議閲覧画面700は、会議情報表示部703に音声再生中を示すアイコン画像7030が表示され、端末装置20dは、チャネル選択部702で指定された音声データによる音声を再生しているが、これはこの例に限定されない。例えば、図28に例示されるように、会議情報表示部703に、会議端末25のカメラ25cで撮影された映像データによる映像7032を表示させてもよい。
図29は、実施形態に適用可能な、図27の会議閲覧画面700においてボタン7060が操作され、会議閲覧画面700の表示モードが描画領域表示モードに切り替えられた例を示す。この場合、会議情報表示部703には、電子黒板22の描画領域5402内の画像7031が表示される。例えば、電子黒板22は、所定の時間間隔で描画領域5402内の画像をサーバ装置10に送信し、端末装置20dがその画像を取得して表示することが考えられる。
図30は、実施形態に適用可能な、タイムライン表示モードによるタイムライン表示画面の例を示す。上述したように、端末装置20dは、画面切替部706におけるボタン7062の操作に応じて、画面表示をタイムライン表示画面に切り替える。図30において、タイムライン表示画面710は、マーカボタン711(後述する)と、画像表示領域712と、タイムライン表示領域713と、画面切替部706とを含んでいる。
タイムライン表示領域713は、時系列に沿った時間経過を示すタイムライン7130が表示される。この例では、タイムライン7130は、画面の下から上に向けて時間が経過するように表示されている。これはこの例に限定されず、タイムライン7130は、画面の上から下に向けて時間が経過するように表示してもよいし、画面の水平方向に時間の経過を表示してもよい。
また、図30の例では、タイムライン7130上に、マーカ7134、7135および7136が配置されている。マーカ7134および7135は、それぞれ上述したアクションアイテムA.IおよびディシジョンDSによるマーカ「A.I」および「DS」であり、電子黒板22上で指定されたマーカ情報に基づくマーカである。また、マーカ7136は、例えばユーザがこの端末装置20d上で指定したマーカ情報に基づくマーカである。各マーカ7134、7135および7136は、それぞれ、時系列上で指定された時間に対応するタイムライン7130上の位置に配置される。
タイムライン表示領域713において、時間指定線7131は、タイムライン7130上で現在指定されている時間を示している。時間指定線7131は、ユーザ操作に応じてタイムライン7130上を移動させ、指定する時間を変更することができる。また、図30の例では、時間指定線7131に指定された時間に対応する、電子黒板22の描画領域5402内の画像が、画像表示領域712に表示されている。また、テキスト表示領域7133は、例えば時間指定線7131で指定された時間に、アクションアイテムA.Iのマーカ7134や、ディシジョンDSのマーカ7135があった場合、アクションアイテムA.IやディシジョンDSに対して入力されたテキスト情報が表示される。
図30において、タイムライン表示領域713の中央部(タイムライン7130の右側)には、タイムライン7130上の各時間に対応する電子黒板22の描画領域5402内の各画像が、サムネイル画像71321、71322、71323として表示されている。これらサムネイル画像71321、71322、71323のうち所望のサムネイル画像を指定することで、指定されたサムネイル画像に対応する電子黒板22の描画領域5402内の画像を、画像表示領域712に表示させることができる。
図31は、実施形態に適用可能な、議題表示モードによる議題表示画面の例を示す。上述したように、端末装置20dは、画面切替部706におけるボタン7060の操作に応じて、画面表示を議題表示画面に切り替える。図31において、議題表示画面720は、表示領域721、722、723および724を含んでいる。
表示領域723および724は、それぞれ議題の詳細を表示するための領域である。図31の例では、表示領域724は、議題のみが表示され、右端に配置されるアイコンを指定することで領域が拡張され、議題の詳細が表示されるようになる。表示領域723は、領域が拡張された状態であって、議題の詳細として、この議題に応じて指定されたアクションアイテムA.Iの内容を示す情報7231と、ディシジョンDSの内容を示す情報7232とが表示されている。
表示領域721は、この例では、この端末装置20dを使用しているユーザが入力したアクションアイテムA.Iの内容の概略が表示されている。表示領域721内の所定の位置(例えば右下隅)を指定することで、図32に示されるように、当該アクションアイテムA.Iのより詳細な内容が表示される。図32において、アクションアイテム表示画面730は、表示領域731、732および733を含む。
表示領域731は、当該アクションアイテムA.Iが係る会議の議題が表示される。表示領域731は、当該アクションアイテムA.Iが指定された時系列上の時間における電子黒板22の描画領域5402内の画像7320が表示されると共に、音声データを再生させるための再生ボタン7321が配置される。再生ボタン7321は、サーバ装置10に記録される音声データを、当該アクションアイテムA.Iが指定された時系列上の時間(図26の例では時間tAIst)から再生させるためのボタンである。
また、ボタン7510は、再生ボタン7321の操作に応じて再生される音声データの再生速度を指定するボタンである。図32の例では、ボタン7510上に「×2」と表示され、音声データを、記録時の速度の2倍の速度で再生する2倍速再生が指定されていることが示されている。サーバ装置10は、このボタン7510に指定された再生速度に応じて、再生する音声データに対してサンプル単位の間引きおよび補間処理、あるいは、リサンプル処理などを施すことにより、記録された際の速度と異なる速度で音声データを再生することができる。
表示領域733は、当該アクションアイテムA.Iに関して、指定された時間と、内容とが表示される。
(実施形態に適用可能なマーカの処理)
次に、実施形態に適用可能なマーカ処理について説明する。先ず、基本的なマーカ処理について、図33〜図36を用いて説明する。図33に示す会議閲覧画面700において、例えばユーザ操作に応じたポインタ7070によりボタン7050を指定し、ポインタ7070を、矢印7071に示すように、画面の表示モードをタイムライン表示モードに切り替えるボタン7062に移動させることで(ドラッグ操作)、現在の時間に対応するマーカを設定することができる。端末装置20dは、設定されたマーカを示す情報を、例えば、当該時間を示す情報に関連付けてRAM2002に記憶する。
ユーザが指定したマーカに関連付けられる時間における情報を表示させる場合、図34に例示するように、先ずボタン7062を操作して表示モードをタイムライン表示モードに切り替える。その上で、矢印7072に示されるように、マーカボタン711を操作する。端末装置20dは、このマーカボタン711に対する操作に応じて、画面の表示を、図35に示されるマーカ一覧画面740に切り替える。
図35において、マーカ一覧画面740は、表示領域7400に、当該会議の時系列上で設定されたマーカが一覧表示される。図35の例では、各マーカが、設定された時刻を示す情報を用いて一覧表示されている。端末装置20dは、表示領域7400に表示されるマーカを示す情報の一覧に対してマーカを指定する操作がなされると、当該マーカのマーカ情報に関連付けられた時間を示す情報をサーバ装置10に送信し、当該時間に関連する情報をサーバ装置10に要求する。
サーバ装置10は、この要求に応じて、当該時間に対応する情報を、端末装置20dに送信する。サーバ装置10が端末装置20dに送信する情報としては、、電子黒板22の描画領域5402内の画像、記録された音声データや映像データの、当該時間を再生開始ポイントとしたストリーム、当該時間に電子黒板22に提示されている資料データなどが考えられる。
また、端末装置20dは、このマーカ指定の操作に応じて、画面の表示を、指定されたマーカに対応する情報を表示する情報表示画面に切り替える。図36は、実施形態に適用可能な情報表示画面の例を示す。図36において、情報表示画面750は、表示領域751、752および753を含む。表示領域751は、マーカに対応する時間に、電子黒板22の描画領域5402に表示されていた画像が表示される。表示領域752は、当該マーカが設定された時間を示す情報が表示される。また、この例では、サーバ装置10は、音声データを例えば逐次的にテキスト情報に変換して保存する機能を備え、表示領域753には、このサーバ装置10により変換されたテキスト情報における、マーカに対応する時間を含む所定範囲のテキスト情報が表示されている。
また、図36の例においても、情報表示画面750は、図32で説明したアクションアイテム表示画面730と同様に、再生速度を指定するためのボタン7510が設けられている。表示領域753に音声データが変換されたテキスト情報が表示されるこの例では、例えば、ボタン7510の操作に応じて再生速度が変更された音声データにおけるテキスト情報の対応する部分のタイミングに応じて、表示領域753に表示されるテキスト情報が更新される。
(第1の実施形態)
上述の例では、各マーカは、アクションアイテムA.IおよびディシジョンDSを除き、意味付けがなされていないので、ユーザは、どのマーカを指定することで自分が欲しい情報を取得できるかを知ることが困難であった。また、ユーザのマーカ情報の設定忘れに対応できないと共に、マーカ情報の指定がユーザ個人の操作にのみ依存しているので、ユーザとは別の観点から情報を探し出すことが困難であった。
そこで、第1の実施形態では、意味情報を持ったマーカ情報の設定を可能とする。より具体的には、第1の実施形態では、時系列上の時間に対して、ユーザの動作(ヒューマンアクション)に応じてマーカ情報(第1の種類の意味情報)を設定する。
マーカ情報の設定に利用するヒューマンアクションは、様々に考えられる。例えば、ユーザが操作する端末装置がスマートフォンやタブレット型コンピュータといったモバイルデバイスである場合、タッチパネルの所定の位置をタップすることで、当該位置に関連付けられたマーカ情報を設定することができる。タッチパネルの各位置に予め意味を与えておくことで、意味情報を持ったマーカ情報を設定できる。
また、モバイルデバイスは、例えば9軸センサ2016のような、機器の姿勢や姿勢の変化を検出可能な検知手段を備えたものが多い。そこで、端末装置がモバイルデバイスである場合、例えば機器の姿勢や姿勢の変化における特異点を検知して、その特異点に関連付けてマーカ情報を設定することができる。特異点は、例えば、機器の特定の姿勢や、特定の動きを含む。
一方、端末装置がデスクトップ型コンピュータやノート型コンピュータといった非モバイルデバイスである場合には、例えばキーボード上の特定のキーの押下操作に応じてマーカ情報を設定することができる。特定のキーに予め意味を与えておくことで、意味情報を持ったマーカ情報を設定できる。また、端末装置が非モバイルデバイスである場合、マウスやタッチパッドといったポインティングデバイスを用いて、表示画面に連携した操作を行うことでマーカ情報を設定することができる。表示画面上の特定の位置に予め意味を与えておくことで、その特定位置の指定に応じて意味情報を持ったマーカ情報を設定できる。
さらに、端末装置がマイクロホン2013などのような音声収音機能を備えるデバイスを利用可能である場合、収音された音声に含まれる特定の音、例えば予め定められたキーワードに応じてマーカ情報を設定することができる。キーワードとしては、例えばマーカを設定する対象が会議である場合、「賛成」、「反対」、「同意」、「次」、「離席」など、会議の内容やユーザの状態に応じて発せられる言葉を適用することが考えられる。
さらにまた、端末装置がカメラ2015といった撮影機能を備えるデバイスを利用可能である場合、その端末装置を使用しているユーザの特定のポーズ、例えば挙手や手指を用いた特定のサインに応じてマーカ情報を設定することができる。この特定のポーズに予め意味を与えておくことで、ポーズに応じて意味情報を持ったマーカ情報を設定できる。
図37は、第1の実施形態に係る、ヒューマンアクションに基づくマーカ情報の設定処理を示す一例のフローチャートである。ここでは、非モバイルデバイスである端末装置20cにおける処理について説明する。なお、ここでは、便宜上、端末装置20cが9軸センサ2016を備え姿勢や姿勢の変化を検知可能であるものとする。
ステップS200で、端末装置20cは、端末装置20cに対するユーザのアクションの検出を開始する。ここでは、端末装置20cは、キーボードに対する操作に応じた特定のキーに対する入力検知と、ポインティングデバイスに対する操作に応じた特定位置へのタップ、クリックによる入力検知と、カメラ2015により撮影された映像データに対する映像解析に基づくユーザの特定ポーズの検知と、マイクロホン2013により収音された音声による音声データに対する音声認識に基づくユーザによる特定ワードの検知とを行う。また、端末装置20cは、9軸センサ2016の出力に基づく姿勢および姿勢変化の検知を行う。
次のステップS201で、端末装置20cは、キーボードに対する操作に応じた特定キーに対する入力の有無を判定する。入力があったと判定した場合(ステップS201、「Yes」)、処理をステップS202に移行させる。
ステップS202で、端末装置20cは、入力を検知したキーに応じたマーカ種類およびマーカの値、入力を検知した時間、端末装置20cを使用しているユーザのユーザIDを例えばRAM2002に記憶する。また、端末装置20cは、記憶したこれらマーカ種類、マーカの値、時間およびユーザIDを、サーバ装置10に送信する。ステップS202の処理の後、処理がステップS201に戻される。
サーバ装置10は、端末装置20cから受信したマーカ種類、マーカの値、時間およびユーザIDを、マーカ情報として、例えばストレージ1003に、会議IDと関連付けて保存する。
ステップS201で入力が無いと判定した場合(ステップS201、「No」)、端末装置20cは、処理をステップS203に移行させる。ステップS203で、端末装置20cは、ポインティングデバイスに対する操作に応じた特定位置へのタップ、クリックなどによる入力の有無を判定する。入力があったと判定した場合(ステップS203、「Yes」)、処理をステップS204に移行させる。
ステップS204で、端末装置20cは、入力を検知した位置に応じたマーカ種類およびマーカの値、入力を検知した時間、端末装置20cを使用しているユーザのユーザIDを例えばRAM2002に記憶する。また、端末装置20cは、記憶したこれらマーカ種類、マーカの値、時間およびユーザIDを、サーバ装置10に送信する。ステップS204の処理の後、処理がステップS201に戻される。
ステップS203で入力が無いと判定した場合(ステップS203、「No」)、端末装置20cは、処理をステップS205に移行させる。ステップS205で、端末装置20cは、カメラ2015により撮影された映像データに対する映像解析に基づき映像データから特定ポーズの検出の有無を判定する。検出したと判定した場合(ステップS205、「Yes」)、処理をステップS206に移行させる。
ステップS206で、端末装置20cは、検出したポーズに応じたマーカ種類およびマーカの値、ポーズを検出した時間、端末装置20cを使用しているユーザのユーザIDを例えばRAM2002に記憶する。また、端末装置20cは、記憶したこれらマーカ種類、マーカの値、時間およびユーザIDを、サーバ装置10に送信する。ステップS206の処理の後、処理がステップS201に戻される。
ステップS205で特定ポーズを検出しなかったと判定した場合(ステップS205、「No」)、端末装置20cは、処理をステップS207に移行させる。ステップS207で、端末装置20cは、マイクロホン2013により収音された音声に基づく音声データに対する音声認識に基づき音声データから特定のワードを検出したか否かを判定する。検出したと判定した場合(ステップS207、「Yes」)、処理をステップS208に移行させる。
ステップS208で、端末装置20cは、検出したワードに応じたマーカ種類およびマーカの値、ポーズを検出した時間、端末装置20cを使用しているユーザのユーザIDを例えばRAM2002に記憶する。また、端末装置20cは、記憶したこれらマーカ種類、マーカの値、時間およびユーザIDを、サーバ装置10に送信する。ステップS206の処理の後、処理がステップS201に戻される。
ステップS207で特定ワードを検出しなかったと判定した場合(ステップS207、「No」)、端末装置20cは、処理をステップS209に移行させる。ステップS209で、端末装置20cは、9軸センサ2016の出力に基づき検知された端末装置20cの姿勢および姿勢変化の特異点が検出されたか否かを判定する。検出されたと判定した場合(ステップS209、「Yes」)、処理をステップS210に移行させる。
ステップS210で、端末装置20cは、検出した特異点に応じたマーカ種類およびマーカの値、ポーズを検出した時間、端末装置20cを使用しているユーザのユーザIDを例えばRAM2002に記憶する。また、端末装置20cは、記憶したこれらマーカ種類、マーカの値、時間およびユーザIDを、サーバ装置10に送信する。ステップS210の処理の後、処理がステップS201に戻される。
ステップS209で姿勢および姿勢変化の特異点が検出されなかったと判定した場合、処理がステップS201に戻される。
なお、ステップS209の判定処理は、端末装置20cが9軸センサ2016といった姿勢および姿勢変化を検知する手段を備えていない場合には、省略される。また、上述では、特定キーへのキー入力の判定が最も優先順位が高く、以下、特定位置のタップおよびクリックの判定、特定ポーズの判定、特定ワードの判定、姿勢および姿勢変化の特異点の判定の順に優先順位が低くなるように説明したが、これはこの例に限定されず、各判定の順序は別の順序であってもよい。また、各判定を、並列的に実行することも可能である。
第1の実施形態では、さらに、ある端末装置を操作するユーザが、そのユーザによる観点以外の情報に基づき時系列上の時間を指定することを可能とする。例えば、第1の実施形態では、上述のヒューマンアクションに加えて、会議時間中に発生する環境変化を、さらにマーカ情報(第2の種類の意味情報)の設定要因として用いる。
マーカ設定に用いる環境変化は、様々に考えられる。例えば、日の出、日の入り、月の出、月の入り、満潮、干潮といった自然現象を、その現象が発生した時間と関連付けてマーカ情報として用いることができる。この場合、マーカ情報に関連付けられる自然現象そのものが、当該マーカ情報の意味情報となる。これらの自然現象は、発生する時間が既知であるため、予め発生時間と関連付けてテーブルとして保存しておくことが可能である。
また例えば、会議室2a内といった室内の環境変化を、その変化が発生した時間と関連付けてマーカとして用いることができる。マーカ情報として適用可能な室内の環境変化としては、通電のオン/オフ(例えば室内灯のオン/オフ)、電子黒板22の電源のオン/オフ、各端末装置20a、20bのネットワーク12への接続開始、終了といった、電気的な変化が考えられる。これらの変化は、例えば電源や通電のオン/オフは、電源ラインなどの電圧の変化を検出することで検知できる。ネットワーク12への接続開始、終了は、例えば、ネットワーク12に接続されるハブなどを介して各機器の通信状態をモニタして検出することが考えられる。
また、マーカ情報として適用可能な室内の環境変化として、ドアや窓の開閉の時間、会議室2a内の各ユーザの着席状態の変化なども考えられる。ドアや窓の開閉は、対象のドアや窓に開閉センサを設けて検出することが考えられる。着席状態は、例えば圧力に応じて電圧を発生する発電ゴムなどを椅子に設け、この発電ゴムの電圧の変化を検出することで検知することが考えられる。
さらに、会議の参加者の無意識なアクションを検出して、マーカ情報を設定することも可能である。参加者の無意識なアクションとしては、例えば、参加者が端末装置を用いて議題外の情報へのアクセスを行った場合、例えば、端末装置20a〜20dにおいて、会議に用いるように予め登録された以外のアプリケーションプログラムを起動させた場合に、そのアクセスの時間を、起動させたアプリケーションプログラムの情報と関連付けて、マーカ情報として設定することができる。また、会議の参加者以外の宛先へのメール作成、送信や、チャットの開始、終了のタイミングを、メール作成、チャット実行などの情報と関連付けて、マーカ情報として設定することができる。
図38および図39を用いて、図1に示したセンサI/F23の一例の構成について、概略的に説明する。ここでは、説明のため、センサ241、242、…(図1参照)を、電圧の変化を検知するセンサであるものとする。この場合、例えば、上述した室内灯のオン/オフの検出、電子黒板22における通電のオン/オフの検出、発電ゴムによる圧力の検出などが可能である。また、センサの構造によっては、ドアや窓の開閉の検出にも適用できる。
図38は、図1に示したセンサI/F23の一例の構成を概略的に示す。センサI/F23は、センサ241、242…にそれぞれ対応する複数のインタフェース(I/F)2301、2302、2303、…と、マルチプレクサ231と、タイマ232とを含む。マルチプレクサ231は、各I/F2301、2302、2303、…の出力を、1の出力としてセンサI/F23から出力する。タイマ232は、例えばサーバ装置10と同期した時間Tを出力する。タイマ232から出力される時間Tは、各I/F2301、2302、2303、…に供給される。
図39は、各I/F2301、2302、2303、…の一例の構成を示す。ここでは、説明のため、各I/F2301、2302、2303、…をI/F2301で代表させて示している。また、I/F2301は、センサ241の出力が供給されるものとする。
I/F2301は、A/D2300と、比較器2301と、メモリ2302と、スイッチ回路2303と、合成器2304および2306と、ID記憶部2305とを含む。ID記憶部2305は、例えば、各I/F2301、2302、…を識別するためのIDが予め記憶される。
A/D2300は、センサ241から供給されるアナログ方式の検出信号を、ディジタル方式の検出データに変換する。A/D2300から出力される検出データは、比較器2301の第1入力端と、スイッチ回路2303の一端とに入力される。スイッチ回路2303の他端の出力は、合成器2304に入力されると共に、メモリ2302に入力されメモリ2302に記憶される値を更新する。
比較器2301の第2入力端に、メモリ2302の出力が入力される。比較器2301は、第1入力端の入力値と第2入力端の入力値との差分に対して閾値判定を行う。比較器2301は、この差分が閾値以上の場合にスイッチ回路2303を閉状態に制御し、差分が閾値未満でスイッチ回路2303を開状態に制御する。これにより、I/F2301は、センサ241の出力の一定以上の変化を検知することができる。
合成器2304は、スイッチ回路2303から出力された検出データに、ID記憶部2305に記憶されるIDを付加して出力する。合成器2304の出力は、合成器2306に供給され時間Tを付加されて出力される。
図40は、第1の実施形態に係る、I/F2301による検知処理を示す一例のフローチャートである。ステップS220で、I/F2301は、比較器2301により、センサ241の出力に基づく値を取得する。次のステップS221で、I/F2301は、比較器2301により、ステップS220で取得した値と、メモリ2302に記憶される値とを比較する。次のステップS222で、I/F2301は、比較器2301により閾値判定を行い、ステップS220で取得した値の変化の有無を判定する。I/F2301は、比較器2301の第1入力端および第2入力端の入力値の差分が閾値未満であれば、変化がないと判定し(ステップS222、「無し」)、処理をステップS220に戻す。スイッチ回路2303は、開状態に制御される。
I/F2301は、比較器2301の第1入力端および第2入力端の入力値の差分が閾値以上であれば、変化があったと判定し(ステップS222、「有り」)、処理がステップS223に移行される。スイッチ回路2303は、閉状態に制御される。ステップS223で、I/F2301は、ステップS220で取得した値に、合成器2304および2306にてIDおよび時間Tを付加して出力する。出力されたセンサ241の出力値、IDおよび時間Tは、サーバ装置10に供給され、マーカ情報として記録される。次のステップS224で、I/F2301は、ステップS220で取得した値でメモリ2302に記憶される値を更新し、処理をステップS220に戻す。
サーバ装置10は、上述した図37および図40のフローチャートの処理により各端末装置20a〜20d、および、センサI/F23から受信したマーカ情報を、表5に示されるマーカ情報テーブルに格納して、例えばストレージ1003に保存する。
表5において、マーカ情報テーブルは、「時間情報」、「ID」、「種類」および「値」の各項目を含む1以上のレコードを有する。マーカ情報は、例えば、これら「時間情報」、「ID」、「種類」および「値」の各項目を含んで構成される。
項目「時間情報」は、各端末装置20a〜20d、および、各I/F2301、2302、…においてマーカ情報が取得された時間が格納される。項目「ID」は、マーカ情報の取得元を識別するための識別情報が格納される。具体的な例としては、項目「ID」は、マーカ情報の取得元が各端末装置20a〜20dである場合には、各端末装置20a〜20dを使用しているユーザのユーザIDが用いられる。マーカ情報の取得元が各センサ241、242、…である場合には、センサI/F23内の対応するI/F2301、2302、…のIDが項目「ID」の値として用いられる。
項目「種類」は、そのレコードが示すマーカ情報の種類を示す情報が格納される。マーカ情報の種類は、例えばマーカ情報の取得元が各センサ241、242、…である場合には、「ドア開閉」、「室内灯(オン/オフ)」、「電子黒板22の通電(オン/オフ)」などを含む。マーカ情報の取得元が各端末装置20a〜20dである場合には、マーカ情報の種類は、「アクションアイテムA.I」、「特定位置へのタップ」、「特定ポーズ」などを含む。また、マーカ情報の取得元が各端末装置20a〜20dである場合、ユーザにより単に時系列上の時間が指定されたことにより設定されたマーカについては、その旨を示す情報を、マーカ情報の種類とすることが考えられる。
項目「値」は、そのレコードが示すマーカ情報に対応する値が格納される。マーカ情報に対応する値は、例えばマーカ情報の取得元が各センサ241、242、…である場合には、センサ241、242、…の種類に応じた値が用いられる。この例では、項目「値」として、「オープン/クローズ(ドア開閉検知の場合)」、「オン/オフ(通電などの場合)」などが用いられている。また、マーカ情報の取得元が各端末装置20a〜20dである場合には、マーカが設定される例えばユーザ操作やユーザの動作などに応じた値が用いられる。この例では、項目「値」として、「開始/終了(アクションアイテムA.Iなどの場合)」、「位置(タップの場合)」、「意味(ポーズの場合)」などが用いられている。
このように、マーカ情報は、例えば項目「種類」および「値」により、意味情報が与えられる。
サーバ装置10は、上述のようにして意味情報が与えられたマーカ情報を各端末装置20a〜20dに送信する。このとき、項目「ID」の値がユーザIDを示している場合は、サーバ装置10は、そのレコードのマーカ情報を、端末装置20a〜20dのうち項目「ID」が示すユーザIDに対応する端末装置に送信する。一方、サーバ装置10は、項目「ID」の値がセンサIDを示している場合には、そのレコードのマーカ情報を、各端末装置20a〜20dに共通に送信することができる。
各端末装置20a〜20dは、サーバ装置10から送信された各マーカ情報に基づくマーカを、例えば、図30に示したタイムライン表示画面710のタイムライン表示領域713に、時系列上の時間に対応させて表示させることができる。このとき、各端末装置20a〜20dは、マーカを、例えばマーカ情報が示す意味情報に応じて表示させるとより好ましい。
このように、第1の実施形態では、マーカに対して意味情報を持たせることができるため、ユーザは、時系列上の特定のタイミングを容易に判断することが可能となる。
(第2の実施形態)
次に、第2の実施形態について説明する。上述した第1の実施形態では、各端末装置20a〜20dにおいて設定されたマーカは、そのマーカを設定した端末装置に対してのみ、表示されていた。これに対して、第2の実施形態では、各端末装置20a〜20dにおいて設定されたマーカを統合して、各端末装置20a〜20dに提示する。
図41は、第2の実施形態に係るマーカの表示方法の例を、概略的に示す。図41(a)は、開始通知を受信した時間tstを基準とした時系列に対して、異なる3台の端末装置(端末装置20b、20cおよび20dとする)においてそれぞれ設定されたマーカ情報に基づくマーカ60a、60bおよび60cが配置された例を示す。図41(b)は、図41(a)の一部を拡大した例を示している。
このように、複数の端末装置20b、20cおよび20dがそれぞれ設定したマーカ情報に基づく各マーカ60a、60bおよび60cを混在させて、例えば図30のタイムライン7130に表示させる。これにより、ユーザは、他のユーザが設定したマーカ情報を参照してタイムライン7130上の時間を指定することができる。したがって、ユーザは、他のユーザの観点から、時系列上の情報(電子黒板22の描画領域5402内の画像、音声、映像)を参照することができる。
なお、各マーカ60a、60bおよび60cには、端末装置20b、20cおよび20dのうちどの端末装置により設定されたかを示す情報を表示させてもよいし、この表示は省略してもよい。
また、上述では、各端末装置20b、20cおよび20dにより設定されたマーカ情報に基づく各マーカ60a、60bおよび60cをタイムライン7130上に表示させるように説明したが、これはこの例に限定されない。例えば、各センサ241、242、…の検知出力に基づくマーカ情報によるマーカを、タイムライン7130上にさらに混在させて表示させてもよい。
さらにまた、サーバ装置10において記録されるログに基づきマーカ情報を設定することもできる。このログに応じて設定したマーカ情報によるマーカを、タイムライン7130上にさらに混在させて表示させてもよい。また、タイムライン7130上に表示させるマーカを、マーカ情報に基づきフィルタリングすることも可能である。
(第3の実施形態)
次に、第3の実施形態について説明する。第3の実施形態では、各端末装置20a〜20dで設定された各マーカ情報を集計し、集計結果を各端末装置20a〜20dに提示可能とする。
図42を用いて、第3の実施形態に係るマーカ情報の集計方法について概略的に説明する。サーバ装置10は、時系列上の時間を所定の単位時間u1、u2、u3、…毎に分割する。サーバ装置10は、各端末装置20a〜20dから送信され保存された各マーカ情報を、各マーカ情報に関連付けられた時間に基づき、各単位時間u1、u2、u3、…毎に集計する。
集計した結果は、例えば図42に例示されるように、各単位時間u1、u2、u3、…を階級としてマーカ情報の頻度を示すヒストグラムとして表示させることができる。これは、換言すれば、単位時間u1、u2、u3、…毎のマーカ情報の密度を示しているといえる。このヒストグラムを、例えば図30のタイムライン表示領域713に表示させる。
図42のヒストグラムにおいて、頻度の区切りとなる階級(単位時間)に基づき、例えば会議において発生したイベントを認識することが可能である。図42の例では、例えば単位時間u5およびu6と、単位時間u10とが頻度の区切りであり、時系列上でこの区切りの間、あるいは、この区切り上で、会議上の何らかのイベントが発生したと推測することができる。イベントが頻度の区切りの間、および、区切り上の何れで発生したかは、予め定められた、例えばマーカ情報を設定する際のルールに応じて決めることができる。
図43は、第3の実施形態に係るマーカ情報の集計処理を示す一例のフローチャートである。ステップS300で、サーバ装置10は、各端末装置20a〜20dの何れかからマーカ情報を受信したか否かを判定する。サーバ装置10は、受信していないと判定した場合(ステップS300、「No」)、処理をステップS300に戻し、各端末装置20a〜20dからのマーカ情報の受信を待機する。
サーバ装置10は、マーカ情報を受信したと判定した場合(ステップS300、「Yes」)、処理をステップS301に移行させ、受信したマーカ情報を、例えばストレージ1003に記憶する。次のステップS302で、サーバ装置10は、単位時間を経過したか否かを判定する。すなわち、サーバ装置10は、このステップS302で前回、単位時間を経過したと判定した時間から、単位時間を経過したか否かを判定する。単位時間を経過していないと判定した場合(ステップS302、「No」)、サーバ装置10は、処理をステップS300に戻す。
一方、サーバ装置10は、ステップS302で単位時間を経過したと判定した場合(ステップS302、「Yes」)、処理をステップS303に移行させる。ステップS303で、サーバ装置10は、未集計の1単位時間分のマーカ情報をストレージ1003から読み出す。次のステップS304で、サーバ装置10は、ステップS303で読み出したマーカ情報の集計を行う。例えば、サーバ装置10は、単位時間におけるマーカ情報の総数を求める。次のステップS305で、サーバ装置10は、ステップS304の集計処理による集計結果を、会議IDに関連付けて、例えばストレージ1003に記憶する。
サーバ装置10は、ステップS305の処理が終了すると、処理をステップS300に戻し、次の単位時間における処理を実行する。
図44は、第3の実施形態に係る、サーバ装置10によるマーカ情報の集計結果の送信処理を示す一例のフローチャートである。例えば、各端末装置20a〜20dは、サーバ装置10に対して、マーカ情報の集計結果の要求を、会議IDを含めて送信する。
ステップS310で、サーバ装置10は、各端末装置20a〜20dの何れかから集計結果の要求を受信したか否かを判定する。各端末装置20a〜20dの何れからも要求を受信していないと判定した場合(ステップS310、「No」)、処理をステップS310に戻し、各端末装置20a〜20dの何れかから集計結果の要求を待機する。
サーバ装置10は、各端末装置20a〜20dの何れかから集計結果の要求を受信したと判定した場合(ステップS310、「Yes」)、処理をステップS311に移行させる。ステップS311で、サーバ装置10は、受信した要求に含まれる会議IDに関連付けられた、現在までの集計結果を、例えばストレージ1003から読み出す。次のステップS312で、サーバ装置10は、読み出した集計結果を、集計結果を要求した端末装置に送信する。集計結果の送信後、処理がステップS310に戻される。
(第3の実施形態の第1の変形例)
次に、第3の実施形態の第1の変形例について説明する。上述した第3の実施形態では、会議の直接参加者が使用する端末装置20aおよび20bにより設定されたマーカ情報(第1のマーカ情報とする)と、会議の遠隔参加者および準参加者が使用する端末装置20cおよび20dにより設定されたマーカ情報(第2のマーカ情報とする)とを一纏めにして集計していた。これに対して、第3の実施形態の第1の変形例では、これら第1のマーカ情報(第3の種類の意味情報)および第2のマーカ情報(第4の種類の意味情報)を、分けて集計する。第1のマーカ情報および第2のマーカ情報は、マーカ情報に含まれるユーザIDに基づき識別が可能である。
図45は、第3の実施形態の第1の変形例に係るマーカ情報の集計方法例を概略的に示す。図45に例示されるヒストグラムでは、頻度「0」の軸に対して上方向に第2のマーカ情報、すなわち、会議の遠隔参加者および準参加者により設定されたマーカ情報の集計結果が示されている。また、頻度「0」の軸に対して下方向に第1のマーカ情報、すなわち、会議の直接参加者により設定されたマーカ情報の集計結果が示されている。
会議室2a内で、対面で直接的に議論を行っている直接参加者と、会議室2aとは遠隔した場所において間接的に会議に参加している遠隔参加者および準参加者とでは、会議に対する体験が異なる。したがって、マーカ情報についても、直接参加者と、遠隔参加者および準参加者とでは、互いに異なる観点で設定していることが考えられる。したがって、マーカ情報の集計結果をこれら直接参加者と、遠隔参加者および準参加者とで分けて提示することで、会議の内容などを多様に分析可能となる。
(第3の実施形態の第2の変形例)
次に、第3の実施形態の第2の変形例について説明する。第3の実施形態の第2の変形例では、図46に示されるように、各端末装置20a〜20dで設定された各マーカ情報を集計した集計結果に対し、さらに、各センサ241、242、…の検知結果に基づき設定したマーカ情報によるマーカ601、602、…を重畳して表示させる。この例では、各センサ241、242、…の検知結果に基づき設定したマーカ情報は、集計せずにそのままマーカとして表示している。
このように、各センサ241、242、…の検知結果に応じたマーカ601、602、…をさらに表示させることで、会議中の所望の情報を探索することが、より容易になることが期待できる。
(第4の実施形態)
次に、第4の実施形態について説明する。第4の実施形態は、各端末装置20a〜20dにより設定されたマーカ情報、および、各センサ241、242、…の検知結果に基づき設定されたマーカ情報に対して、クロスモーダルの考え方を適用した例である。
クロスモーダルとは、五感(視覚、聴覚、触覚、嗅覚、味覚)を独立した感覚ではなく、互いに交じり合い影響し合うという考え方である。第4の実施形態では、この考えに基づき、各端末装置20a〜20dにより設定されたマーカ情報と、各センサ241、242、…の検知結果に基づき設定されたマーカ情報とを統合して時系列に従い解析、分析し、新たなマーカ情報を設定する。
例えば、サーバ装置10は、会議端末25や端末装置20bから送信された日本語による音声データを取得し、この音声データの所定のタイミングにマーカ情報を設定する。次に、サーバ装置10は、この日本語音声による音声データに対して音声認識処理を施して、当該音声データを日本語によるテキスト情報に変換する。このとき、サーバ装置10は、日本語によるテキスト情報の、音声データに設定されたタイミングに対応する位置にマーカ情報を設定する。
サーバ装置10は、この日本語によるテキスト情報を、既存の機械翻訳技術を用いて英語によるテキスト情報に変換する。このとき、サーバ装置10は、マーカ情報が設定された日本語のテキスト情報の部分の意味に基づき、英語によるテキスト情報の、当該意味に対応する位置に、マーカ情報を設定する。さらに、サーバ装置10は、この英語によるテキスト情報を、既存の音声合成技術を用いて英語の音声データに変換する。そして、サーバ装置10は、この変換された英語の音声データの、英語によるテキスト情報に対して設定されたマーカ情報の位置に対応するタイミングに、マーカ情報を設定する。
これにより、日本語による音声データを英語による音声データに変換し、この英語による音声データにおける、日本語による音声データに設定されたマーカ情報と意味が対応するタイミングに、マーカ情報を設定することが可能となる。
なお、各実施形態に適用される情報処理システム1は、ターゲットが会議に限定されない。また、当該情報処理システム1が会議をターゲットとしない場合、より多くのクロスモーダルによるマーカ情報の生成が想定される。
なお、上述の実施形態は、本発明の好適な実施の例ではあるがこれに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変形による実施が可能である。