JP2016063477A - 会議システム、情報処理方法、及びプログラム - Google Patents
会議システム、情報処理方法、及びプログラム Download PDFInfo
- Publication number
- JP2016063477A JP2016063477A JP2014191537A JP2014191537A JP2016063477A JP 2016063477 A JP2016063477 A JP 2016063477A JP 2014191537 A JP2014191537 A JP 2014191537A JP 2014191537 A JP2014191537 A JP 2014191537A JP 2016063477 A JP2016063477 A JP 2016063477A
- Authority
- JP
- Japan
- Prior art keywords
- data
- video
- audio
- unit
- handwritten
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Information Transfer Between Computers (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Editing Of Facsimile Originals (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
【課題】会議録データの手書きデータから音声や映像データの時間位置を検索する。【解決手段】会議システムは、映像入力部15及び音声入力部16を介して入力された会議の映像及び音声を他端末と共有し、映像出力部及び音声出力部17から出力する映像・音声共有部21と、前記他端末と共有している映像及び音声のデータを映像・音声データファイルとして記録する映像・音声記録部22と、手書き入力可能な紙面データに、手書き入力装置を介して入力された手書きデータを追加する追加部24と、前記紙面データを他端末と共有し、表示部13に表示する紙面共有部23と、前記手書きデータに該手書きデータの入力を行ったユーザのユーザ情報及び時刻情報を付与する手書き属性付与部25と、前記ユーザ情報及び時刻情報が付与された手書きデータを含む紙面データを紙面データファイルとして記録する紙面記録部26と、を備える。【選択図】図1
Description
本発明は、複数の端末を用いて会議を行うための会議システム、情報処理方法、及びプログラムに関する。
現在、プロジェクタやフラットディスプレイ等の表示装置に表示している資料に、インタラクティブホワイトボードやタブレットPC等の手書き入力装置を利用して手書きを加えながら会議を行うことがある。また、複数の端末をネットワーク経由で接続し、1つの端末で行った操作内容を他の端末にリアルタイムで反映させる仕組みを、遠距離間での音声や映像の通信が可能な会議システム(例えば、電話会議システム、テレビ会議システム、ウェブ会議システム等)と組み合わせることで、遠隔拠点間で資料を共有し、資料に手書きを加えながら会議を行うことができる。
遠隔拠点間の会議内容の記録にはビデオカメラやマイクが使用され、会議録データとして、音声データ、映像データ、共有された資料データ、手書きデータが記録される。後日、会議の音声データや映像データの確認が必要になった場合は、音声データや映像データを先頭から再生したり、資料上の説明箇所から会議録データの時間位置を検索したりしていた(例えば特許文献1参照)。
資料に手書きを加えながら会議を行った場合、会議録データに手書きデータを含めることができる。しかし、従来の会議システムでは、会議録データに含まれる手書きデータから、音声や映像データの時間位置を検索することができなかった。そのため、手書きデータが誰によって書かれ、その時どのような議論が行われていたかを速やかに確認することが出来なかった。
本発明は、上記従来の実状に鑑みてなされたものであり、会議録データの手書きデータから音声や映像データの時間位置を検索することができる会議システム、情報処理方法、及びプログラムを提供することを課題とする。
本発明の一態様による会議システムは、映像入力部及び音声入力部を介して入力された会議の映像及び音声を他端末と共有し、映像出力部及び音声出力部から出力する映像・音声共有部と、前記他端末と共有している映像及び音声のデータを映像・音声データファイルとして記録する映像・音声記録部と、手書き入力可能な紙面データに、手書き入力装置を介して入力された手書きデータを追加する追加部と、前記紙面データを他端末と共有し、表示部に表示する紙面共有部と、前記手書きデータに該手書きデータの入力を行ったユーザのユーザ情報及び時刻情報を付与する手書き属性付与部と、前記ユーザ情報及び時刻情報が付与された手書きデータを含む紙面データを紙面データファイルとして記録する紙面記録部と、を備えるものである。
本発明の一態様による会議システムは、前記紙面データファイルに含まれる紙面データ及び手書きデータを表示部に表示する紙面表示部と、表示された手書きデータの選択を受け付け、選択された手書きデータに付与されている前記ユーザ情報を前記表示部に表示する手書き属性表示部と、選択された手書きデータに付与されている時刻情報に基づいて、映像及び音声のデータの再生位置を指定する再生位置指定部と、前記映像・音声データファイルに含まれる映像及び音声のデータを、指定された再生位置から再生し、映像及び音声を映像出力部及び音声出力部から出力する映像・音声再生部と、をさらに備えることが好ましい。
本発明の一態様による会議システムは、時刻の指定を受け付ける指定時刻受付部と、指定時刻に対応する前記時刻情報が付与された手書きデータを抽出する手書き抽出部と、をさらに備え、前記紙面表示部は、抽出された手書きデータ、及び該手書きデータを含む紙面データを表示部に表示してもよい。
本発明の一態様による情報処理方法は、映像入力部及び音声入力部を介して入力された会議の映像及び音声を他端末と共有し、映像出力部及び音声出力部から出力するステップと、前記他端末と共有している映像及び音声のデータを映像・音声データファイルとして記録するステップと、手書き入力可能な紙面データに、手書き入力装置を介して入力された手書きデータを追加するステップと、前記紙面データを他端末と共有し、表示部に表示するステップと、前記手書きデータに該手書きデータの入力を行ったユーザのユーザ情報及び時刻情報を付与するステップと、前記ユーザ情報及び時刻情報が付与された手書きデータを含む紙面データを紙面データファイルとして記録するステップと、を備えるものである。
本発明の一態様による情報処理方法は、前記紙面データファイルに含まれる紙面データ及び手書きデータを表示部に表示するステップと、表示された手書きデータの選択を受け付け、選択された手書きデータに付与されている前記ユーザ情報を前記表示部に表示するステップと、選択された手書きデータに付与されている時刻情報に基づいて、映像及び音声のデータの再生位置を指定するステップと、前記映像・音声データファイルに含まれる映像及び音声のデータを、指定された再生位置から再生し、映像及び音声を映像出力部及び音声出力部から出力するステップと、をさらに備えるものである。
本発明の一態様によるプログラムは、映像入力部及び音声入力部を介して入力された会議の映像及び音声を他端末と共有し、映像出力部及び音声出力部から出力するステップと、前記他端末と共有している映像及び音声のデータを映像・音声データファイルとして記録するステップと、手書き入力可能な紙面データに、手書き入力装置を介して入力された手書きデータを追加するステップと、前記紙面データを他端末と共有し、表示部に表示するステップと、前記手書きデータに該手書きデータの入力を行ったユーザのユーザ情報及び時刻情報を付与するステップと、前記ユーザ情報及び時刻情報が付与された手書きデータを含む紙面データを紙面データファイルとして記録するステップと、をコンピュータに実行させるものである。
本発明の一態様によるプログラムは、前記紙面データファイルに含まれる紙面データ及び手書きデータを表示部に表示するステップと、表示された手書きデータの選択を受け付け、選択された手書きデータに付与されている前記ユーザ情報を前記表示部に表示するステップと、選択された手書きデータに付与されている時刻情報に基づいて、映像及び音声のデータの再生位置を指定するステップと、前記映像・音声データファイルに含まれる映像及び音声のデータを、指定された再生位置から再生し、映像及び音声を映像出力部及び音声出力部から出力するステップと、をさらにコンピュータに実行させることが好ましい。
本発明によれば、会議録データの手書きデータから音声や映像データの時間位置を検索することができ、手書きデータが誰によって書かれ、その時どのような議論が行われていたかを容易に確認することができる。
以下に本発明の実施の形態を詳細に説明する。
図1は本発明の実施形態に係る会議システムの概念図である。図1の通り、この会議システムでは、会議の参加者PAと参加者PBとが異なる拠点におり、各自のユーザ端末1を使用し、遠隔拠点間で共有した資料をユーザ端末1に表示したり、ユーザ端末1に表示した資料に手書きを加えたりしながら、会議が行われる。ユーザ端末1は例えばタブレットPCであり、手書き入力には例えばスタイラスペン2(以下、単にペン2という)が用いられる。
図1に示す例では、説明の便宜上、会議の参加者を2人としているが、参加者は3人以上でもよく、参加者は同じ場所にいてもよいし、異なる場所にいてもよい。
参加者PA、PBのユーザ端末1A、1Bは、ネットワークNを介して通信可能に接続されており、会議システムサーバSにより、資料や手書き紙面等の紙面データや、会議の映像及び音声のデータを共有できるようになっている。例えば参加者PAが自身のユーザ端末1A及びペン2Aを用いて資料に手書きを行うと、これが紙面データに追加され、ユーザ端末1Bに表示される資料にも、この手書きが反映される。
共有される会議の映像は、例えば、ユーザ端末1Aに搭載されているカメラが参加者PAを撮影した映像、及びユーザ端末1Bに搭載されているカメラが参加者PBを撮影した映像である。共有される会議の音声は、例えば、ユーザ端末1Aに搭載されているマイクが集音した参加者PAの音声、及びユーザ端末1Bに搭載されているマイクが集音した参加者PBの音声である。
ユーザ端末1A、1Bが撮影した映像は、ユーザ端末1A、1Bのディスプレイに表示される。ユーザ端末1Aに搭載されているマイクが集音した参加者PAの音声は、ユーザ端末1Bに搭載されているスピーカから出力される。ユーザ端末1Bに搭載されているマイクが集音した参加者PBの音声は、ユーザ端末1Aに搭載されているスピーカから出力される。
これにより、参加者PA及びPBは、ユーザ端末1A、1Bを用いて、相手の顔をみたり、音声を聞いたりしながら、資料や互いの手書きを確認して、会議を行うことができる。後述するように、会議終了後、手書きが加えられた紙面は紙面データファイルとして保存され、会議中の映像や音声は映像・音声データファイルとして保存される。後日、紙面データファイルや映像・音声データファイルを再生することで、会議録を確認することができる。また、後述するように、本実施形態では、手書きデータを入力したユーザの情報や、手書きデータが入力された時刻の情報が保存されるため、後日、手書きデータの入力者を確認したり、手書きデータの入力時刻から映像・音声データが再生できるようになっている。
図2は、ユーザ端末1のハードウェア構成を示す。図2に示すように、ユーザ端末1は、CPU10、記憶部11、通信部12、表示部13、手書き入力部14、映像入力部15、音声入力部16、及び音声出力部17を備えている。
記憶部11は、メインメモリやハードディスクドライブ等を有し、会議システムクライアントプログラム及び手書きプログラムを格納する。通信部12は、ネットワークNを介して会議システムサーバSや他のユーザ端末1との通信を行う。
表示部13は、他のユーザ端末1と共有している映像データや紙面データを表示する。手書き入力部14は、ペン2を用いた手書き文字等の入力を受け付ける。例えば、ユーザ端末1は、表示部13としての機能と、手書き入力部14としての機能とを兼ね備えたタッチパネルを有する。
映像入力部15は、ユーザ端末1の筐体の前面や背面に設けられたカメラである。音声入力部16及び音声出力部17は、ユーザ端末1に搭載されたマイク及びスピーカである。
CPU10は、会議システムクライアントプログラム及び手書きプログラムをメインメモリにロードして、実行する。図3にこれらのプログラムを実行することで実現される機能ブロック図を示す。会議システムクライアントプログラムの実行により、映像・音声共有部21及び映像・音声記録部22が実現される。手書きプログラムの実行により、紙面共有部23、手書き追加部24、手書き属性付与部25、及び紙面記録部26が実現される。
映像・音声共有部21は、各ユーザ端末1(自端末及び他端末)の映像入力部15から入力された会議中の映像及び音声入力部16から入力された会議中の音声を取得し、映像出力部(本実施形態では表示部13)及び音声出力部17から出力する。これにより、図1に示すユーザ端末1Aとユーザ端末1Bとで、参加者PA及びPBの映像や音声をリアルタイムに共有することができる。
映像・音声記録部22は、他端末と共有している映像及び音声のデータを映像・音声データファイルとして記録する。映像・音声データファイルは例えば、記憶部11に格納されてもよいし、ネットワークN上に設けられたファイルサーバに格納されてもよい。この映像・音声データファイルに含まれる映像及び音声のデータを再生することで、後日、会議の様子を視聴することができる。
紙面共有部23は、ユーザが自由に手書きを行うことができる紙面データを他端末と共有する。手書き追加部24は、手書き入力部14により入力された手書きデータを紙面データに追加する。例えば、紙面共有部23は、取り込んだ資料を表示部13に表示させるとともに、通信部12を介して他端末へ送信する。これにより、資料を複数のユーザ端末1でリアルタイムに共有することができる。また、紙面共有部23は、資料等の紙面に手書きデータが入力されると、入力された手書きデータを、手書きデータの入力者の情報(ユーザ情報)とともに、通信部12を介して他端末へ送信し、他端末で表示される紙面に手書きを反映させる。これにより、1つのユーザ端末1で入力された手書きデータを複数のユーザ端末1でリアルタイムに共有することができる。また、ユーザ端末1は、手書きデータの入力を行ったユーザについてのユーザ情報を取得することができる。
図4は、ユーザ端末1Aとユーザ端末1Bとの間で共有される紙面データの表示例を示す。初期状態では、ユーザ端末1A、1Bは、1ページの白紙の紙面データ110、210を共有しているものとする。表示画面の端部(図4では左側)には、共有している紙面データのリストが設けられている。
ユーザ端末1Aにて紙面データ110に手書きデータ112が入力されると、ユーザ端末1Bの紙面データ210にも手書きデータ212が追加され、ユーザ端末1Aにおける手書きがユーザ端末1Bに反映される。
次に、ユーザ端末1Aにて紙面データ110に手書きデータ114が入力されると、ユーザ端末1Bの紙面データ210にも手書きデータ214が追加され、ユーザ端末1Aにおける手書きがユーザ端末1Bに反映される。
次に、ユーザ端末1Aにて2ページの資料データ120、130を取り込み、資料データ120を選択して表示させると、ユーザ端末1Bにも同じ資料データ220、230が追加され、表示するページが資料データ220に切り替わる。
続いて、ユーザ端末1Bにて資料データ220に手書きデータ222が入力されると、ユーザ端末1Aの資料データ120にも手書きデータ122が追加され、ユーザ端末1Bにおける手書きがユーザ端末1Aに反映される。
次に、ユーザ端末1Bにて表示ページを資料データ230に切り替え、資料データ230に手書きデータ232が入力されると、ユーザ端末1Aにおいて、表示するページが資料データ130に切り替わり、手書きデータ132が追加される。ユーザ端末1Bにおけるページ切り替え及び手書きがユーザ端末1Aに反映される。
このように、複数のユーザ端末1間で、手書きデータを含む紙面データが共有され、いずれかのユーザ端末1で行われた手書き、資料取り込み(紙面追加)、表示ページの切り替え等が、他のユーザ端末1に反映される。
図3に示す手書き属性付与部25は、入力された手書きデータに、ユーザ情報及び時刻情報を付与する。ユーザ情報は、手書きを行ったユーザを示すものである。例えば、図4に示す例では、ユーザ端末1Aの手書き属性付与部25は、手書きデータ112、114に参加者PAを示すユーザ情報を付与し、手書きデータ122、132には参加者PBを示すユーザ情報を付与する。時刻情報は、手書きデータが入力された時刻を示す。時刻情報は、標準時でもよいし、会議を開始してからの経過時間でもよい。
紙面記録部26は、ユーザ情報及び時刻情報が付与された手書きデータを含む紙面データを紙面データファイルとして記録する。手書きデータは、点列の集まりとして各点の位置を示すデータとして記録してもよいし、手書きされた文字や図形の画像データとして記録してもよい。紙面データファイルの保存形式は、再利用可能となるような形式であればよく、例えばOPCファイルアーカイブで保存する。紙面データファイルは、例えば、記憶部11に格納されてもよいし、ネットワークN上に設けられたファイルサーバに格納されてもよい。紙面データファイルは映像・音声データファイルとともに会議録データとして保存される。
図4に示すような紙面データが共有されていた場合の紙面データファイルの構成例を図5に示す。紙面データファイルには、ユーザ端末1A、1Bで共有されていた紙面データ110、紙面データ110に追加された手書きデータ112、114、資料データ120、資料データ120に追加された手書きデータ122、資料データ130、及び資料データに追加された手書きデータ132が含まれる。また、手書きデータ112、114、122、132には、それぞれユーザ情報及び時刻情報が付加される。
この紙面データファイルを開くことで、後日、会議で使用された資料や手書きの紙面を確認することができる。
次に、会議録データの再生を行う会議録再生端末について説明する。会議録再生端末は例えばタブレットPCであり、ここではユーザ端末1が会議録再生端末としても用いられるものとする。
ユーザ端末1の記憶部11は、会議録再生プログラム、映像・音声データファイル及び紙面データファイルを格納し、CPU10は、この会議録再生プログラムをメインメモリにロードして、実行する。図6に会議録再生プログラムを実行することで実現される機能ブロック図を示す。会議録再生プログラムの実行により、紙面表示部31、手書き属性表示部32、再生位置指定部33及び映像・音声再生部34が実現される。
紙面表示部31は、紙面データファイル内の紙面データを表示部13に表示する。また、紙面表示部31は、紙面データに含まれる手書きデータが選択可能となるように表示部13に表示する。手書きデータの選択は、例えば、ペン2による手書き部分のタッチである。
手書き属性表示部32は、選択された手書きデータに紐付けられているユーザ情報を表示部13に表示する。ユーザ情報とともに時刻情報を表示してもよい。これにより、複数の会議参加者により手書きが加えられた場合であっても、それぞれの手書きがどの参加者によって加えられたものであるかを確認することができる。
また、手書き属性表示部32は、手書きデータが選択されると、この手書きデータが入力された時刻からの映像・音声の再生指示を受け付ける再生指示ボタンを表示部13に表示する。
再生位置指定部33は、表示部13上の再生指示ボタンが選択(ペン2によりタッチ)されると、再生指示を受け付け、映像・音声データの再生開始位置を指定する。再生開始位置は、手書きデータに紐付けられた時刻情報が示す時刻である。
映像・音声再生部34は、映像・音声データファイルに含まれる映像及び音声のデータを、再生位置指定部33により指定された再生開始位置(再生開始時刻)から再生し、映像及び音声を映像出力部(ここでは表示部13)及び音声出力部17から出力する。
図7に、会議録データの再生画面の一例を示す。会議録再生プログラムが実行されると、紙面データファイル及び映像・音声データファイルが取り込まれ、紙面表示部31が、ユーザ端末1の画面の端部に、紙面データファイルに含まれる紙面データ110、120、130をリスト表示し、ユーザにより選択された紙面データを拡大表示する。図7では、画面の左側にリスト表示され、紙面データ120が選択されて拡大表示されている。
拡大表示された紙面データ120には手書きデータ122が含まれており、紙面表示部31は、この手書きデータ122を選択可能に表示する。ペン2によりタッチされるなどして手書きデータ122が選択されると、手書き属性表示部32は、この手書きデータ122に紐付けられたユーザ情報310及び再生指示ボタン320を含むポップアップ画面300を表示する。
再生指示ボタン320がペン2でタッチされるなどして選択されると、再生位置指定部33は、手書きデータ122に紐付けられた時刻情報が示す時刻を、映像・音声データの再生開始位置として指定する。映像・音声再生部34は、指定された再生開始位置から映像及び音声のデータを再生する。例えば、ポップアップ画面330で映像が再生され、ユーザ端末1に搭載されたスピーカから音声が出力される。このようにして、手書きが行われていたときの音声・映像を速やかに再生することができる。
上述したように、本実施形態では、会議録の再生時に、紙面データに含まれる手書きデータに紐付けられた時刻情報から、音声・映像データの再生位置を特定する。そのため、ユーザ端末1は、会議開始に伴い他端末と通信接続を行い、音声・映像・紙面データの共有を開始すると、その後、映像・音声の記録を開始するとともに、記録開始時刻を保存する。
また、ユーザ端末1は、会議終了時に記録終了時刻を保存する。そして、映像・音声の記録を終了し、映像・音声データを映像・音声データファイルとして保存する。続いて、音声・映像・紙面データの共有を終了し、他端末との通信接続を切断する。そして、手書きデータを含む紙面データ、記録開始時刻、記録終了時刻を紙面データファイルに保存する。会議中に音声・映像記録を一時停止したり、再開したりした場合は、それぞれの操作時刻も保存しておき、紙面データファイルに保存する。
このように、紙面データファイルに記録の開始時刻、終了時刻、一時停止時刻、再開時刻等を保存しておくことで、手書きデータの入力時刻と、映像・音声の再生時刻とを正確に対応付けることができる。
本実施形態による会議システムによれば、紙面データに含まれる手書きデータにユーザ情報及び時刻情報が付与されているため、手書きデータから音声や映像データの時間位置を検索することができ、手書きデータが誰によって書かれ、その時どのような議論が行われていたかを容易に確認することができる。
上記実施形態では、手書きデータが選択されると、選択された手書きデータの入力時刻から映像・音声データを再生していたが、時刻の指定を受け付け、指定された時刻の手書きデータを抽出して表示できるようにしてもよい。
この場合、会議録再生プログラムを実行すると、図8に示すように、紙面表示部31、手書き属性表示部32、再生位置指定部33及び映像・音声再生部34に加えて、さらに指定時刻受付部35及び手書き抽出部36が実現される。
指定時刻受付部35は、ユーザから時刻の指定や、時間範囲の入力を受け付ける。手書き抽出部36は、指定時刻受付部35が受け付けた指定時刻を中心とする時間範囲内に入力時刻が含まれる手書きデータを抽出する。紙面表示部31は、抽出された手書きデータを、紙面データとともに表示部13に表示する。さらに、手書き属性表示部32が、抽出された手書きデータに紐付けられているユーザ情報を表示してもよい。また、映像・音声再生部34が、抽出された手書きデータに紐付けられている時刻情報に基づいて、映像・音声データの再生を行ってもよい。
上記実施形態では、図1に示すように、会議参加者のユーザ端末1を用いて会議を行う例について説明したが、会議室に設けられた設備を利用してもよい。例えば、図9に示すように、拠点Aでは、参加者P1〜P5が各自のユーザ端末1を使用しながら、会議室に設置されたプロジェクタ3、カメラ4、スピーカフォン5、スクリーン6等の設備も使用する。一方、拠点Bの会議室では、このような設備は使用されず(設けられておらず)、参加者P6及びP7は各自のユーザ端末1を用いて会議に参加する。
各参加者P1〜P7のユーザ端末1は、資料や手書き紙面等の紙面データや、会議の映像及び音声のデータを共有する。そのため、例えば参加者P1が自身のユーザ端末1及びペン2を用いて資料に手書きを行うと、これが紙面データに追加され、全ての参加者P1〜P7のユーザ端末1に表示される資料にこの手書きが反映される。各ユーザ端末1は、手書きデータと合わせて、手書きを行った参加者の情報も受信する。
参加者P1〜P7のユーザ端末1で共有される映像は、カメラ4が撮影している拠点Aの会議室の映像や、拠点Bにいる参加者P6及びP7のユーザ端末1に搭載されているカメラが参加者P6及びP7を撮影した映像である。共有される会議の映像及び紙面データは、プロジェクタ3によりスクリーン6に映し出すことができる。
共有される会議の音声は、例えばスピーカフォン5が集音している拠点Aの会議室の音声や、拠点Bにいる参加者P6及びP7のユーザ端末1に搭載されているマイクが集音した音声である。スピーカフォン5で集音された拠点Aの会議室内の音声は、拠点Bの参加者P6及びP7のユーザ端末1に搭載されているスピーカから出力される。また、参加者P6及びP7のユーザ端末1に搭載されているマイクにより集音された参加者P6及びP7の音声は、拠点Aのスピーカフォン5から出力される。これにより、拠点Aと拠点Bとで音声を共有しながら会議を行うことができる。
共有される会議の映像・音声データは、各ユーザ端末1で映像・音声データファイルとして保存することができる。また、共有される手書きデータを含む紙面データは、手書きデータを入力した参加者のユーザ情報及び時刻情報とともに、各ユーザ端末1において、紙面データファイルとして保存することができる。
拠点Aの参加者P1〜P5のユーザ端末1では、映像入力部15はカメラ4を介して映像を入力し、音声入力部16及び音声出力部17はスピーカフォン5を介して音声の入出力を行う。また、拠点Aでは、ユーザ端末1の表示部13に紙面データを表示するとともに、映像出力部としてのプロジェクタ3から、端末間で共有している紙面や映像を出力することができる。
このように、本実施形態による会議システムは、ユーザ端末1だけでなく、会議室の設備を利用したものであってもよい。
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形してもよい。また、上記実施形態に開示されている複数の構成要素を適宜組み合わせたり、実施形態に示される全構成要素から幾つかの構成要素を削除したりしてもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
1 ユーザ端末
2 スタイラスペン
11 記憶部
12 通信部
13 表示部
14 手書き入力部
15 映像入力部
16 音声入力部
17 音声出力部
21 映像・音声共有部
22 映像・音声記録部
23 紙面共有部
24 手書き追加部
25 手書き属性付与部
26 紙面記録部
31 紙面表示部
32 手書き属性表示部
33 再生位置指定部
34 映像・音声再生部
2 スタイラスペン
11 記憶部
12 通信部
13 表示部
14 手書き入力部
15 映像入力部
16 音声入力部
17 音声出力部
21 映像・音声共有部
22 映像・音声記録部
23 紙面共有部
24 手書き追加部
25 手書き属性付与部
26 紙面記録部
31 紙面表示部
32 手書き属性表示部
33 再生位置指定部
34 映像・音声再生部
Claims (7)
- 映像入力部及び音声入力部を介して入力された会議の映像及び音声を他端末と共有し、映像出力部及び音声出力部から出力する映像・音声共有部と、
前記他端末と共有している映像及び音声のデータを映像・音声データファイルとして記録する映像・音声記録部と、
手書き入力可能な紙面データに、手書き入力装置を介して入力された手書きデータを追加する追加部と、
前記紙面データを他端末と共有し、表示部に表示する紙面共有部と、
前記手書きデータに該手書きデータの入力を行ったユーザのユーザ情報及び時刻情報を付与する手書き属性付与部と、
前記ユーザ情報及び時刻情報が付与された手書きデータを含む紙面データを紙面データファイルとして記録する紙面記録部と、
を備える会議システム。 - 請求項1において、
前記紙面データファイルに含まれる紙面データ及び手書きデータを表示部に表示する紙面表示部と、
表示された手書きデータの選択を受け付け、選択された手書きデータに付与されている前記ユーザ情報を前記表示部に表示する手書き属性表示部と、
選択された手書きデータに付与されている時刻情報に基づいて、映像及び音声のデータの再生位置を指定する再生位置指定部と、
前記映像・音声データファイルに含まれる映像及び音声のデータを、指定された再生位置から再生し、映像及び音声を映像出力部及び音声出力部から出力する映像・音声再生部と、
をさらに備えることを特徴とする会議システム。 - 請求項2において、
時刻の指定を受け付ける指定時刻受付部と、
指定時刻に対応する前記時刻情報が付与された手書きデータを抽出する手書き抽出部と、
をさらに備え、
前記紙面表示部は、抽出された手書きデータ、及び該手書きデータを含む紙面データを表示部に表示することを特徴とする会議システム。 - 映像入力部及び音声入力部を介して入力された会議の映像及び音声を他端末と共有し、映像出力部及び音声出力部から出力するステップと、
前記他端末と共有している映像及び音声のデータを映像・音声データファイルとして記録するステップと、
手書き入力可能な紙面データに、手書き入力装置を介して入力された手書きデータを追加するステップと、
前記紙面データを他端末と共有し、表示部に表示するステップと、
前記手書きデータに該手書きデータの入力を行ったユーザのユーザ情報及び時刻情報を付与するステップと、
前記ユーザ情報及び時刻情報が付与された手書きデータを含む紙面データを紙面データファイルとして記録するステップと、
を備える情報処理方法。 - 請求項4において、
前記紙面データファイルに含まれる紙面データ及び手書きデータを表示部に表示するステップと、
表示された手書きデータの選択を受け付け、選択された手書きデータに付与されている前記ユーザ情報を前記表示部に表示するステップと、
選択された手書きデータに付与されている時刻情報に基づいて、映像及び音声のデータの再生位置を指定するステップと、
前記映像・音声データファイルに含まれる映像及び音声のデータを、指定された再生位置から再生し、映像及び音声を映像出力部及び音声出力部から出力するステップと、
をさらに備えることを特徴とする情報処理方法。 - 映像入力部及び音声入力部を介して入力された会議の映像及び音声を他端末と共有し、映像出力部及び音声出力部から出力するステップと、
前記他端末と共有している映像及び音声のデータを映像・音声データファイルとして記録するステップと、
手書き入力可能な紙面データに、手書き入力装置を介して入力された手書きデータを追加するステップと、
前記紙面データを他端末と共有し、表示部に表示するステップと、
前記手書きデータに該手書きデータの入力を行ったユーザのユーザ情報及び時刻情報を付与するステップと、
前記ユーザ情報及び時刻情報が付与された手書きデータを含む紙面データを紙面データファイルとして記録するステップと、
をコンピュータに実行させるプログラム。 - 請求項6において、
前記紙面データファイルに含まれる紙面データ及び手書きデータを表示部に表示するステップと、
表示された手書きデータの選択を受け付け、選択された手書きデータに付与されている前記ユーザ情報を前記表示部に表示するステップと、
選択された手書きデータに付与されている時刻情報に基づいて、映像及び音声のデータの再生位置を指定するステップと、
前記映像・音声データファイルに含まれる映像及び音声のデータを、指定された再生位置から再生し、映像及び音声を映像出力部及び音声出力部から出力するステップと、
をさらにコンピュータに実行させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014191537A JP2016063477A (ja) | 2014-09-19 | 2014-09-19 | 会議システム、情報処理方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014191537A JP2016063477A (ja) | 2014-09-19 | 2014-09-19 | 会議システム、情報処理方法、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016063477A true JP2016063477A (ja) | 2016-04-25 |
Family
ID=55798404
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014191537A Pending JP2016063477A (ja) | 2014-09-19 | 2014-09-19 | 会議システム、情報処理方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016063477A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017216668A (ja) * | 2016-05-26 | 2017-12-07 | 株式会社リコー | 情報処理装置、会議システムおよび情報処理装置の制御方法 |
JP2018097239A (ja) * | 2016-12-15 | 2018-06-21 | カシオ計算機株式会社 | 音声再生装置及びプログラム |
JP2019012499A (ja) * | 2017-07-03 | 2019-01-24 | Necネッツエスアイ株式会社 | 電子筆記板システム |
JP2020154766A (ja) * | 2019-03-20 | 2020-09-24 | 株式会社リコー | 表示装置、表示方法、表示プログラム |
-
2014
- 2014-09-19 JP JP2014191537A patent/JP2016063477A/ja active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017216668A (ja) * | 2016-05-26 | 2017-12-07 | 株式会社リコー | 情報処理装置、会議システムおよび情報処理装置の制御方法 |
JP2018097239A (ja) * | 2016-12-15 | 2018-06-21 | カシオ計算機株式会社 | 音声再生装置及びプログラム |
JP2019012499A (ja) * | 2017-07-03 | 2019-01-24 | Necネッツエスアイ株式会社 | 電子筆記板システム |
JP2020154766A (ja) * | 2019-03-20 | 2020-09-24 | 株式会社リコー | 表示装置、表示方法、表示プログラム |
JP7279442B2 (ja) | 2019-03-20 | 2023-05-23 | 株式会社リコー | 表示装置、表示方法、表示プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7138201B2 (ja) | ビデオ撮影方法、装置、端末機器及び記憶媒体 | |
JP6171319B2 (ja) | 情報処理装置、情報処理方法、情報処理システム及びプログラム | |
CN109461462B (zh) | 音频分享方法及装置 | |
MXPA05010595A (es) | Extraccion automatica de rostros para uso en lineas de tiempo de conferencia grabadas. | |
US7991829B2 (en) | Electronic device, network connecting system, network connecting method, and program product therefor | |
US20220291897A1 (en) | Method and device for playing voice, electronic device, and storage medium | |
US10083618B2 (en) | System and method for crowd sourced multi-media lecture capture, sharing and playback | |
EP3024223B1 (en) | Videoconference terminal, secondary-stream data accessing method, and computer storage medium | |
US20210266633A1 (en) | Real-time voice information interactive method and apparatus, electronic device and storage medium | |
US9325776B2 (en) | Mixed media communication | |
JP2015070543A (ja) | 伝送端末、伝送方法、及びプログラム | |
JP2019101754A (ja) | 要約装置及びその制御方法、要約システム、プログラム | |
JP2016063477A (ja) | 会議システム、情報処理方法、及びプログラム | |
CN117897930A (zh) | 用于混合在线会议的流式数据处理 | |
JP6508009B2 (ja) | 端末装置、画面記録方法、プログラム及び情報処理システム | |
CN105808231B (zh) | 录制与播放脚本的系统及方法 | |
CN106875968B (zh) | 信息采集的方法、客户端及系统 | |
JP2023131635A (ja) | 表示システム、表示方法、撮像装置、プログラム | |
JP2015088943A (ja) | 伝送端末、伝送方法、及びプログラム | |
KR20160094145A (ko) | 회의록 작성 기능을 구비한 전자칠판 시스템 | |
JP2023111906A (ja) | 記録情報作成システム、記録情報作成方法、プログラム | |
CN116980391A (zh) | 文件传输方法、装置、电子设备和存储介质 | |
JP2005260513A (ja) | コンテンツ処理システム及びコンテンツ処理方法、並びにコンピュータ・プログラム | |
KR20110030797A (ko) | 사진이 결합된 녹음파일의 생성 및 재생 방법과 그 휴대기기 | |
CN109862311B (zh) | 视频内容的实时制作方法 |