JP2018093315A - Web会議システム、その制御方法、及びプログラム - Google Patents
Web会議システム、その制御方法、及びプログラム Download PDFInfo
- Publication number
- JP2018093315A JP2018093315A JP2016233574A JP2016233574A JP2018093315A JP 2018093315 A JP2018093315 A JP 2018093315A JP 2016233574 A JP2016233574 A JP 2016233574A JP 2016233574 A JP2016233574 A JP 2016233574A JP 2018093315 A JP2018093315 A JP 2018093315A
- Authority
- JP
- Japan
- Prior art keywords
- screen
- information processing
- image
- audio data
- audio
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
【課題】Web会議システムの録画において、再生する画像に対応した適切な音声データの組み合わせを選択して再生可能な仕組みを提供すること。【解決するための手段】複数の拠点に置かれた情報処理装置で送受信される画像データと拠点毎に取得される音声データを管理するWeb会議システムの発明。それぞれの情報処理装置で取得された複数の音声データと、複数の前記情報処理装置で送受信される画像データと、前記音声データと前記画像データのそれぞれを取得した取得時間情報とを記憶する。記憶した前記画像データと複数の音声データとを時系列に再生可能な画面を生成し、生成した画面において、任意の時間から音声データと画像を再生するための再生指示を受け付ける。再生指示を受け付けた時間に応じて、複数の音声データのうち再生すべき音声データと画像データとを特定し、特定した画像データと音声データを再生する。【選択図】図12
Description
本発明は、Web会議システム、その制御方法、及びプログラムに関する。
複数人が集まって話し合いを行う会議などの場においては、あとから会議内容を確認できるように議事録や音声を記録・録音することが一般的に行われる。
多くの場合は会議で用いる資料をプロジェクターなどで投影し、その資料に沿ってプレゼンテーションや説明が進行する。そのため記録した内容を後から確認する際も、資料を閲覧しつつ内容を確認可能なシステムが求められる。
簡単な方法としてビデオ撮影による会議映像の記録が考えられるが、投影している資料の解像度の低さなどにより上手く映像に残せない場合もある。資料だけ電子データとして残したとしても、正確な内容把握と会議の再現のためには会議の映像や音声とリンクさせることが望ましい。
そこで、特許文献1では、事前に会議やプレゼンテーションの際に用いられた電子文書に含まれる識別子を用いて、会議でその資料が掲示されたタイミングの情報を保存する。そして別に記録した動画像や音声情報の時系列と対応付けて、会議中に資料が掲示されたタイミングと同じタイミングで電子文書を表示する仕組みが開示されている。
ところで、最近ではそれぞれ別の拠点にいる者同士がWeb会議システムを用いて会議を行う機会もある。Web会議システムでは、パーソナルコンピュータやタブレット端末などの情報処理装置に、カメラ、マイク、スピーカなどの機能を有するデバイスを接続し、それぞれのデバイスから入力した映像や音声を複数の拠点間で送受信している。
このようなWeb会議システムで資料を共有する場合は、ユーザのクライアント端末に表示される画像を、Web会議システムの同じ仮想会議室に参加している他のユーザのクライアント端末に送信することで資料を共有することが可能となる。
Web会議システムでの録音の後に映像を確認する際には、共有した音声はそれぞれのユーザのクライアント端末のマイクで取得した音声であり、カメラで撮影した音声もあくまで別々の映像として撮影され保存される。そのためにあとで映像と音声を同時に再生して録画会議映像を確認しても、情報処理装置の画面に共有資料の映像のみ表示されている場合には、音声だけで誰が発言したのかを判断しなければならない。
もちろん、共有した資料と参加ユーザの両方を画面に表示させることも考えられる。しかしながら、参加ユーザが多ければ多いほど参加者の数だけそれぞれウィンドウを表示しなければならず、一つ一つのウィンドウが小さくなり共有している資料を確認しづらくなるという問題も生じる。
この課題に対して特許文献1を適用したとしても、特許文献1はあくまで同じ場所にユーザが集まった映像と、電子資料のタイミングを合わせるのみであり、このように他の拠点にいるユーザの会議において、どの資料を掲示したときに誰が発言したのか分かるように確認したいという課題は想定されていない。
本願発明は、Web会議システムの録画において、再生する画像に対応した適切な音声データの組み合わせを選択して再生可能な仕組みを提供することを目的とする。
本発明は、複数の拠点に置かれた情報処理装置で送受信される画像データと拠点毎に取得される音声データを管理するWeb会議システムであって、複数の前記情報処理装置それぞれで取得された音声データと、複数の前記情報処理装置で送受信される画像データと、前記音声データと前記画像データのそれぞれを取得した取得時間情報とを記憶する記憶手段と、前記記憶手段で記憶した前記取得時間に基づいて、前記画像データと複数の前記音声データとの再生指示を受け付け可能なタイムライン形式の画面を生成する画面生成手段と、前記画面生成手段で生成したタイムライン形式の前記画面において、任意の開始箇所から再生する開始箇所の指定を受け付ける指定受付手段と、前記指定受付手段で指定を受け付けた開始箇所に応じて、前記画面で再生指示を受け付け可能な音声データのうち、前記開始箇所で音声情報が含まれている音声データを特定する特定手段と、前記特定手段で特定した前記音声データを再生する再生手段を備えることを特徴とする。
本願発明によれば、Web会議システムの録画において、再生する画像に対応した適切な音声データの組み合わせを選択して再生可能な効果を奏する。
以下、図面を参照して、本発明の実施形態を詳細に説明する。
図1は、本実施形態におけるWeb会議システムの構成を示す図である。尚、図1の各端末は一例であり、用途や目的に応じてさまざまな構成があることは言うまでもない。
図1に示すように本実施形態におけるWeb会議システムの構成では、サーバ装置101と複数の情報処理装置とがLAN(Local Area Network)やWAN(Wide Area Network)等のネットワーク105を介して相互にデータ通信可能に構成されており、情報処理装置としてはPC等の情報処理装置102やタブレット型の情報処理装置103やスマートフォン型の情報処理装置104等を用いることが出来る。このような情報処理装置には、カメラ等の撮像手段とマイク等の音声取得手段等が設けられており、遠隔地にいる相手と簡便に会議をするために用いることができる。
図1のネットワーク105上に接続される各種端末あるいはサーバの構成は一例であり、用途や目的に応じて様々な構成例があることは言うまでもない。
図1のネットワーク105上に接続される各種端末あるいはサーバの構成は一例であり、用途や目的に応じて様々な構成例があることは言うまでもない。
図2は、サーバ装置101とPC等の情報処理装置102のハードウェア構成の一例を示す図である。
CPU201は、システムバス204に接続される各デバイスやコントローラを統括的に制御する。
また、ROM202あるいは外部メモリ211(記憶手段)には、CPU201の制御プログラムであるBIOS(Basic Input / OutputSystem)やオペレーティングシステムプログラム(以下、OS)や、サーバ装置101と情報処理装置102の実行する機能を実現するために必要な後述する各種プログラム等が記憶されている。RAM203は、CPU201の主メモリ、ワークエリア等として機能する。
CPU201は、処理の実行に際して必要なプログラム等をRAM203にロードして、プログラムを実行することで各種動作を実現するものである。
また、入力コントローラ(入力C)205は、キーボード等の文字入力手段、不図示のマウス等のポインティングデバイス、マイク等の音声取得手段、カメラ等の映像取得手段等の入力デバイス209からの入力を制御する。
ビデオコントローラ(VC)206は、ディスプレイ210等の表示器への表示を制御する。表示器の種類はCRTや、液晶ディスプレイを想定するが、これに限らない。
メモリコントローラ(MC)207は、ブートプログラム、ブラウザソフトウエア、各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、各種データ等を記憶するハードディスク(HD)やフレキシブルディスク(FD)或いはPCMCIAカードスロットにアダプタを介して接続されるカード型メモリ等の外部メモリ211へのアクセスを制御する。
通信I/Fコントローラ(通信I/FC)208は、ネットワークを介して、外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いたインターネット通信等が可能である。
尚、CPU201は、例えばRAM203内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、ディスプレイ210上での表示を可能としている。
また、CPU201は、ディスプレイ210上の不図示のマウスカーソル等でのユーザ指示を可能とする。
本発明のサーバ装置101と情報処理装置102が後述する各種処理を実行するために用いられる各種プログラム等は外部メモリ211に記録されており、必要に応じてRAM203にロードされることによりCPU201によって実行されるものである。
さらに、本発明に係わるプログラムが用いる定義ファイルや各種情報テーブルは外部メモリ211に格納されている。
本発明のサーバ装置101と情報処理装置102が後述する各種処理を実行するために用いられる各種プログラム等は外部メモリ211に記録されており、必要に応じてRAM203にロードされることによりCPU201によって実行されるものである。
さらに、本発明に係わるプログラムが用いる定義ファイルや各種情報テーブルは外部メモリ211に格納されている。
図3は、タブレット型の情報処理装置103やスマートフォン型の情報処理装置104のハードウェア構成の一例を示す図である。
CPU201は、システムバス204に接続される各デバイスやコントローラを統括的に制御する。
また、ROM202あるいは外部メモリ211には、CPU201の制御プログラムであるBIOS(Basic Input / OutputSystem)やオペレーティングシステムプログラム(以下、OS)や、情報処理装置の実行する機能を実現するために必要な後述する各種プログラム等が記憶されている。RAM203は、CPU201の主メモリ、ワークエリア等として機能する。
また、ROM202あるいは外部メモリ211には、CPU201の制御プログラムであるBIOS(Basic Input / OutputSystem)やオペレーティングシステムプログラム(以下、OS)や、情報処理装置の実行する機能を実現するために必要な後述する各種プログラム等が記憶されている。RAM203は、CPU201の主メモリ、ワークエリア等として機能する。
CPU201は、処理の実行に際して必要なプログラム等をRAM203にロードして、プログラムを実行することで各種動作を実現するものである。
また、タッチパネルコントローラ305は、タッチパネル309を制御し、ディスプレイコントローラ306がディスプレイへの表示制御を行う。表示器の種類はCRTや、液晶ディスプレイを想定するが、これに限らない。さらに、カメラコントローラ311は、カメラ312等による映像取得を制御し、音声コントローラ313はマイク314等による音声取得制御やスピーカへの出力を制御する。
メモリコントローラ207は、ブートプログラム、ブラウザソフトウエア、各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、各種データ等を記憶するハードディスク(HD)やフレキシブルディスク(FD)或いはPCMCIAカードスロットにアダプタを介して接続されるカード型メモリ等の外部メモリ211へのアクセスを制御する。
通信I/Fコントローラ(通信I/FC)208は、ネットワークを介して、外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いたインターネット通信等が可能である。
尚、CPU201は、例えばRAM203内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、ディスプレイ210上での表示を可能としている。
本発明の情報処理装置103、104が後述する各種処理を実行するために用いられる各種プログラム等は外部メモリ211に記録されており、必要に応じてRAM203にロードされることによりCPU201によって実行されるものである。
さらに、本発明に係わるプログラムが用いる定義ファイルや各種情報テーブルは外部メモリ211に格納されている。
次に、サーバ装置101及び情報処理装置102の機能構成の一例について図4を用いて説明する。尚、図4のサーバ装置101及び情報処理装置102の機能構成は一例であり、用途や目的に応じて様々な構成例がある。
サーバ装置101は機能部として、記憶部401と、通信制御部402と、画面生成部403と、画像記憶部404とを備える。
記憶部401は、後述する各種テーブルの情報や各種画面を構成する情報を記憶するための機能部である。また、どのユーザがWeb会議システムのどの会議室に入室してどのユーザと会議を行っているかについても記憶する。さらに、会議の記録を録画したものについても記憶する。必要に応じて、情報の追加・更新・削除を行う。
通信制御部402は、サーバ装置101と情報処理装置102との通信を制御するための機能部である。通信制御部402は、サーバ装置101と情報処理装置102との情報の送受信を制御する。また、通信制御部402は、情報処理装置102より送信された会議画像(映像)、及び表示画像(アプリケーションやデスクトップの画像)等の画像データ、音声を受信する。そして受信した画像(映像)、表示画像(アプリケーションやデスクトップの画像)、音声等を同じ会議に参加している、当該画像や音声の送信元の情報処理装置とは別の、他の情報処理装置103や104等に受信させるべく送信する。
画面生成部403は、情報処理装置102等に表示する画面を生成するための機能部である。情報処理装置102から取得した各種画像や音声データを元に、録画したWeb会議の再生を受け付ける画面も画面生成部403で生成する(画面生成手段)。
画像記憶部404は、情報処理装置102から送られてくる会議画像及び表示画像を記憶するための機能部である。記憶した各種画像は通信制御部402の機能により、他の情報処理装置103や104等に送信することで複数の情報処理装置での画面共有を可能とする。また、特定のタイミングで会議で共有している画面のスクリーンショットを撮る場合もこの機能部により記憶される。
次に、情報処理装置102の機能部について説明する。情報処理装置102は、記憶部405と、表示制御部406と、通信制御部407と、画像撮影部408と、再生部409を備える。
記憶部405は、後述する各種の情報や各種画面を構成する情報を記憶し管理するための機能部である。また、取得した音声等も記憶部405の機能により記憶される。
表示制御部406は、カメラから入力された画像(映像/動画)、及び、複数の情報処理装置間で共有する画像として指定されたデスクトップ全体の画像または指定されたアプリケーションの画像を表示画面に表示する制御部である。また、通信制御部407で受信した画像をメモリ上(記憶部405)に記憶し、当該メモリ上から画像を順次取得して、連続して表示画面に表示させ、動画として再生表示する。
通信制御部407は、情報処理装置102とサーバ装置101との通信を制御するための機能部である。通信制御部407は、情報処理装置102とサーバ装置101との情報の送受信を制御する。また、通信制御部407はカメラにおいて撮像され入力された画像(映像)や、ユーザ操作等により表示を共有する画像として指定された表示画像(デスクトップ全体または指定アプリケーションの画面の画像)を、サーバ装置101に送信する。送信された画像はサーバ装置101の通信制御部402で受信され、メモリ上の画像記憶部404に格納される。
再生部409は、過去の会議を録画・記録した音声や画像(映像)の再生指示を受け付け、任意の時間やタイミング、時刻から再生を行う機能部である(再生手段)。過去の会議の録画・記録がサーバ装置101に記憶されている場合は、受け付けた再生指示に基づいて再生要求を通信制御部407の機能により送信する。
次に、図5のフローチャートを用いてWeb会議とその記録処理の一連の流れを説明する。図5に示す処理は、情報処理装置102及びサーバ装置101のCPU201に記憶されている制御プログラムを読み出して実行することにより実現される。
以下の説明では、情報処理装置は発信側となる情報処理装置102と受信側となる情報処理装置102とで機能を分けて説明を行うが、Web会議システムは双方向通信であるため、各情報処理装置は双方の機能を備え持つことになる。
まず、ステップS501では、情報処理装置102のCPU201は、ユーザからのWeb会議システムへのログインと会議室入室要求を受け付ける。各情報処理装置はサーバ装置101上に設けられた仮想的なWeb会議実への入室要求を受け付ける。サーバ上などに設けられたWeb会議室に入室することにより既に入室している他の情報処理装置との間で双方向のWeb会議を行うことができる。
ステップS502では、情報処理装置102のCPU201は、ユーザからの会議の録画要求を受け付けたか否かを判定する。録画要求の受付は、Web会議システムの画面の録画ボタン(不図示)の押下を受け付けることにより録画要求を受け付ける。録画要求を受け付けずに全ての会議を自動的に録画する機能であってもよい。
ステップS503では、情報処理装置102のCPU201は、カメラ等の映像取得手段から映像の取得を開始するとともに、マイク等の音声取得手段から音声の取得を開始し、サーバ装置101にその旨を通知する。そして取得した音声と映像(画像)を通信制御部407の機能によりサーバ装置101に送信する。
ステップS504では、サーバ装置101のCPU201は、通信制御部402の機能より映像と音声の取得を情報処理装置102で開始した旨の通知を受信し、情報処理装置102から送信された映像と音声を受信する。
ステップS505では、サーバ装置101のCPU201は、情報処理装置102から受信した映像と音声を記憶部401の機能により記憶する。より具体的には、受信した映像と音声を音声録音テーブル600とフレーム記録テーブル610に格納する。
ここで、図6を用いて音声録音テーブル600とフレーム記録テーブル610を説明する。まず。音声録音テーブル600はステップS504で情報処理装置102から受信した音声を記録することにより録音するためのテーブルである(記憶手段)。音声録音テーブル600は会議室601と、会議ID602と、拠点IPアドレス603と、開始時間604と、終了時間605と、音声データ606を備える。会議室601はサーバ上に設けられた仮想的なWeb会議室であり、会議室毎に割り振られる一意の識別情報を示す。会議ID602は、Web会議室で行われた会議ごとに割り振られる一意の識別情報を示す。拠点IPアドレス603は、各拠点ごとの情報処理装置102のIPアドレスを示す。開始時間604は、各拠点の情報処理装置102でユーザが会議室に入室し、会議を開始した時間情報を示す。終了時間605は、会議室601に格納されている会議室において、不図示の会議終了ボタンや退出ボタンの押下により会議を終了した時間を示す。音声データ606は、各情報処理装置102が備えるマイク等の入力デバイスから収音した音声の音声データファイルを示す。フレーム記録テーブル610は、会議画像を撮像して取得し、動画を構成するフレームとして格納するテーブルである。フレーム記録テーブル610は、会議室601と、会議ID602と、拠点IPアドレス603と、取得時間611と、フレームID612とを備える。議室601と、会議ID602と、拠点IPアドレス603は音声録音テーブル600が備える各項目と同一である。取得時間611は、フレームが撮影され、取得された時間を示す(取得時間情報)。フレームID612は、サーバ装置101に記憶されたフレームごとに割り振られる一意の識別情報を示す。会議の録画指示を受け付けると、会議の映像が撮影され、映像を構成するフレームが取得された時間が、次々にフレーム撮影時間記録テーブル910に書き込まれる。
ステップS506では、サーバ装置101のCPU201は、通信制御部402の機能により、受信側として機能する他の情報処理装置102に映像と音声を送信する。
ステップS507では、情報処理装置102のCPU201は、通信制御部407の機能によりサーバ装置101から送信された映像と音声を受信する。受信側として機能する情報処理装置102のCPU201は、受信内容である映像をディスプレイの各領域に表示させつつ、スピーカで取得した音声を再生する。この処理を受信側と送信側が入れ替わりながら相互に行うことによって他の拠点の相手の映像と音声を用いた双方向通信を行うことが可能となる。
ステップS508では、情報処理装置102のCPU201は、アプリケーションを共有するために、共有するアプリケーションとその共有指示を受け付けた否かを判定する。共有とは1つの情報処理装置102で起動するワープロソフトや表計算ソフトなどのアプリケーションを、同じ会議室に参加している他の情報処理装置102等と画像を送受信することにより、同じアプリケーション、及び画面を共有する処理である。不図示のアプリケーション選択画面で共有するアプリケーションの選択と共有指示ボタンの押下等を検知することにより、共有指示を受け付けたか否かを判定する。共有するアプリケーションの選択を受け付けたと判定した場合はステップS509に処理を進める。共有するアプリケーションの選択を受け付けたと判定しなかった場合は、選択を受け付けるまでステップS508の処理を繰り返す。
ステップS509では、情報処理装置102のCPU201は、ステップS509で選択を受け付けたアプリケーションを起動し、表示制御部406の機能によりアプリケーションの画面を表示するよう制御する。そして情報処理装置102のディスプレイ210に表示されるアプリケーションの画像を通信制御部407の機能によりサーバ装置101に送信する。
ステップS510では、サーバ装置101のCPU201は、通信制御部402に機能により、送信側の情報処理装置102から送信されたアプリケーションの画像を受信する。
ステップS511では、サーバ装置101のCPU201は、ステップS510で受信したアプリケーションの画像を通信制御部402の機能により、受信側として機能する他の情報処理装置102に送信する。
ステップS512では、情報処理装置102のCPU201は、通信制御部407の機能により、サーバ装置101から送信されたアプリケーションの画像を受信する。
ステップS513では、情報処理装置102のCPU201は、表示制御部406の機能により、情報処理装置102のディスプレイ210にサーバ装置101から受信した画像を表示するよう制御する。ステップS509からステップS513の送信側と受信側の映像と音声の送受信処理を、定期的に短い間隔で行うことにより、Web会議システムとして利用可能とする。
ステップS514では、サーバ装置101のCPU201は、ステップS509で情報処理装置102から繰り返し受信するアプリケーション画像に変更があるか否かを判定する。アプリケーション画像に変更がある場合とは、情報処理装置102で起動し、共有指示を受け付けたアプリケーション自体が変更されたり、アプリケーションのページが切り替わったりする場合を指す。また、共有指示を受け付け他の情報処理装置102と共有しているアプリケーションにおいて、コメントが記入されたりマーキングされたりといった処理も含む。アプリケーションの変更についての判断は、例えばユーザからのページの切り替え指示を情報処理装置102で受け付けてサーバ装置101に通知する方法がある。また、情報処理装置102から受信した画像サイズを確認し、当該画像サイズを比較した後差分を見て変更があったことを判定してもよい。ここでは情報処理装置102で起動され他の情報処理装置102と共有されているアプリケーションに変更があったことをサーバ装置101で判定可能であれば判定の方法はどの方法であってもよい。アプリケーションに変更有りと判定した場合はステップS515に処理を進める。アプリケーションに変更ありと判定しなかった場合はアプリケーションに変更有りと判定するまでステップS514の処理を繰り返す。
ステップS515では、サーバ装置101のCPU201は、送信側として機能する情報処理装置102で起動しており、他の情報処理装置と共有しているアプリケーションのスクリーンショット要求を情報処理装置102に送信する。
ステップS516では、情報処理装置102のCPU201は、サーバ装置101から送信されたスクリーンショット要求を受け付ける。
ステップS517では、情報処理装置102のCPU201は、ステップS516で受信したサーバ装置101からのスクリーンショット要求に応じて、画像撮影部408の機能により現在起動しているアプリケーションのスクリーンショットを撮影する。撮影するのはデスクトップの画像等でもよい。
ステップS518では、情報処理装置102のCPU201は、ステップS517で撮影したスクリーンショットをサーバ装置101に送信してアップロードする。
ステップS519では、サーバ装置101のCPU201は、送信側の情報処理装置102から受信したスクリーンショットをサーバ装置101の画像記憶部404の機能により記憶する。より具体的にはサーバ装置101にアップロードされた画像をスクリーンショット記録テーブル620に記録する。
図6のスクリーンショット記録テーブル620は、ステップS518で情報処理装置102から送信されたスクリーンショットを記録するデータテーブルである。スクリーンショット記録テーブル620は、会議室601と、会議ID602と、拠点IPアドレス603と、登録時間621と、スクリーンショット画像622を備える。会議室601と、会議ID602と、拠点IPアドレス603は音声録音テーブル600とフレーム記録テーブル610の項目と同じであるため説明を省略する。登録時間621は、スクリーンショットをサーバ装置101の画像記憶部404の機能により登録した時間(取得時間)を示す。スクリーンショット画像622は画像記憶部404の機能により登録されたスクリーンショット画像を示す。
ステップS520では、情報処理装置102のCPU201は、通信制御部407の機能により情報処理装置102が備えるマイク等の入力デバイスから取得した音声をサーバ装置101に送信する。
ステップS521では、サーバ装置101のCPU201は、受信側として機能する情報処理装置102から送信された音声を受信する。尚、ステップS520と521の処理は会議中は適宜繰り返され、複数の情報処理装置102間で双方向の音声を送受信することによりWeb会議システムを実現する。
ステップS522では、情報処理装置102のCPU201は、会議終了要求を受け付けたか否かを判定する。会議終了要求を受け付けたと判定した場合はステップS523に処理を進める。会議終了要求を受け付けたと判定しなかった場合は、会議終了要求を受け付けるまでステップS522の処理を繰り返す。また、会議終了要求を受け付けるまではステップS503からステップS521の複数の情報処理装置102とサーバ装置101の処理を繰り返し行う。
ステップS523では、情報処理装置102のCPU201は、ステップS522で会議終了要求を受け付けたと判定した場合はその旨をサーバ装置101に通知する。
ステップS524では、サーバ装置101のCPU201は、情報処理装置102から送信された会議の終了通知を受信する。
ステップS525では、サーバ装置101のCPU201は、ステップS524で送信側として機能する情報処理装置102から受信した会議の終了通知を、送信側の情報処理装置102とは別の受信側として機能する情報処理装置102に送信する。
ステップS526では、情報処理装置102のCPU201は、サーバ装置101から送信された会議の終了通知を受信する。
以上が、Web会議とその記録処理の一連の流れの説明である。
次に、記録・録画した会議映像を再生する処理の流れについて、図7から図15を用いて説明する。まず、図7と図10を用いて、記録・録画した会議データの再生指示を受け付け、再生タイムライン画面を生成する処理について説明する。
まず、ステップS701では、情報処理装置102のCPU201は、Web会議システムの画面において、ユーザからの会議記録一覧表示指示に応じて会議記録一覧画面800を表示制御部406の機能により表示する。ユーザからの会議記録一覧表示指示については、Web会議システムの画面上の不図示の会議記録閲覧ボタンの押下を受け付けるなどして会議記録一覧の表示指示を受け付けるとよい。ボタン等を押下せずとも、録画した会議があればWeb会議システムの画面に常に表示させてもよい。
図8は会議記録一覧画面800の図である。会議記録一覧画面800は会議記録一覧リスト801と、選択ボックス802と、再生ボタン803とを備える。会議記録一覧リストは過去にログインしているユーザが参加した会議を表示するリストである。ユーザからの選択ボックス802へのチェックを受け付けたあと再生ボタン803の押下を検知することにより、選択ボックス802でチェックを受け付けた該当の会議記録を再生する。
ステップS702では、情報処理装置102のCPU201は、会議記録一覧画面800において、ユーザからの再生する会議の指定を受け付ける。この指定は選択ボックス802へのチェックを受け付け、再生ボタン803の押下を検知することにより会議の指定を受け付けたとみなす。
ステップS703では、情報処理装置102のCPU201は、ステップS702で会議の指定を受け付けたあと、当該会議の内容を再生するための指示を受け付ける再生タイムライン画面の生成要求を通信制御部407の機能によりサーバ装置101に送信する。再生タイムラインの生成要求と同時に、再生要求テーブル900の情報も送信する。
図9は再生要求テーブル900の一例を示す図である。再生要求テーブル900は、再生要求画面を生成する際に必要な情報を含むテーブルである。再生要求テーブル900は、会議室901と、会議ID902と、拠点IPアドレス903と、記録日時904を備える。会議室901、会議ID902、及び拠点IPアドレス903は図6の会議室601、会議ID602、及び拠点IPアドレス603と同じであるため説明を省略する。記録日時904は、会議を行い会議内容を録画した日時を示す。ステップS703で再生タイムライン画面生成要求を送信すると同時に再生要求テーブル900の情報を送信することにより、再生する会議と再生に必要な音声データや画像ファイルとの特定可能な情報をサーバ装置101に対して送信することが可能となる。
ステップS704では、サーバ装置101のCPU201は、情報処理装置102から送信された再生タイムライン画面生成要求を受け付けるとともに、再生要求テーブル900の情報も受信する。
ステップS705では、サーバ装置101のCPU201は、画面生成部403の機能により、再生タイムライン画面生成処理を行う。再生タイムライン画面生成処理については、図10のフローチャートを用いて後述する。
ステップS706では、サーバ装置101のCPU201は、通信制御部402の機能により、ステップS705で生成した再生タイムライン画面のデータを情報処理装置102に送信する。
ステップS707では、情報処理装置102のCPU201は、情報処理装置102から再生タイムライン画面のデータを受信する。
ステップS708では、情報処理装置102のCPU201は、ステップS707で受信した再生タイムライン画面のデータをもとに表示制御部406の機能により再生タイムライン画面をディスプレイ210に表示する。
以上で、図7における録画した会議の再生指示を受け付け、再生タイムライン画面を生成する一連の流れを示すフローチャートの説明を終了する。
次に、図10のフローチャートを用いて再生タイムライン画面生成処理の一連の流れを説明する。
ステップS1001では、サーバ装置101のCPU201は、再生要求テーブル900の会議ID902、拠点IPアドレス903をキーとして音声録音テーブル600のテーブルを参照する。つまり、同一の会議ID902と拠点IPアドレス903を持つ音声データ606が格納されているかを参照し、同一の会議ID902と拠点IPアドレス903を持つ音声データを取得する。
ステップS1002では、サーバ装置101のCPU201は、ステップS1001で取得した音声データを用いて音声データ内の音声部分(音声情報)を検出する。より具体的には音声データを先頭から終端まで読み出し、音声部分を検出する。
ステップS1003では、サーバ装置101のCPU201は、ステップS1002で検出した音声部分とその他無音部分を波形データとして視覚化する。より具体的には音声データの音量を高低で表すために音量に応じて高さをプロットし、波形データを生成する。このプロット処理は音声データの先頭から終端まで行う。ステップS1001からステップS1003の処理は、図7のステップS704で受信した再生要求テーブル900の拠点IPアドレス903の数分実行する。
ステップS1004では、サーバ装置101のCPU201は、ステップS1001で取得した拠点ごとの音声データを、音声を録音した開始時刻をもとに同期する。同期については、最も早い録音開始時間を記録している拠点との差分時間を加算して同期を行う。尚、拠点ごとの音声データを同期できればよく、同期の方法についてはどの方法を用いてもよい。
ステップS1005では、サーバ装置101のCPU201は、ステップS1003で生成した音声データの波形データをもとに、拠点ごとの音声データをタイムライン形式(時系列)に描画して再生画面のデータに配置する。
ステップS1006では、サーバ装置101のCPU201は、スクリーンショット記録テーブル620の登録時間621を参照してスクリーンショットの登録時間を取得し、スクリーンショット画像を読み出す。ここで取得する登録時間のスクリーンショットは、ステップS1001で取得した音声データの会議ID902と同じ会議ID602を持つスクリーンショットである。より具体的には会議ID602と拠点IPアドレス603をキーにスクリーンショット記録テーブル620を参照し、登録時間621を全件取得する。そして、登録された全てのスクリーンショット画像を読み出す。
ステップS1007では、サーバ装置101のCPU201は、画面生成部403の機能により、ステップS1006で読み出したスクリーンショット画像のサムネイル画像を生成する。
ステップS1008では、サーバ装置101のCPU201は、ステップS1007で生成したサムネイル画像を、ステップS1005で再生画面に配置した再生タイムライン画面上に、スクリーンショットの取得時間に基づき配置する(画面生成手段)。
以上で、再生タイムライン画面生成処理の一連の流れを示すフローチャートの説明を終了する。
次に、図10で生成した再生タイムライン画面で再生を行う処理について、図11のフローチャートを用いて説明する。
ステップS1101では、情報処理装置102のCPU201は、再生タイムライン画面1200で再生ボタン1206の押下を受け付けることによりユーザからのを受け付ける(再生手段)。
図12は、再生タイムライン画面1200の一例を示す図である。拠点名1201はステップS1001で取得した音声データの音声を取得した拠点を表示する。拠点選択ボックス1202は、どの拠点の音声を再生するか、再生する拠点の指定を受け付けるボックスである。この選択ボックスにチェックマークが入っている拠点の音声を再生する。図12では、東京、大阪、名古屋の表示されている全てのボックスにチェックマークが入っているため全ての拠点の音声が再生される。つまり、この状態で再生が行われると全ての音声が同期されて再生されることとなり、拠点に関係なく同じ場所で会議を行ったような音声を確認可能な通常の音声再生処理を行う。波形ライン1203は、図10のステップS1003で音声を視覚化し、波形ラインとして表示させたものを示す。ユーザはこのラインを見ることで、拠点の発話者が会議全体のどのあたりで発言したのか発言ポイントを確認可能となる。タイムライン1204はユーザからの音声再生開始箇所を受付可能なラインを示す。タイムライン1204をポインタ1207が先端から終端まで移動することによい、現在会議全体のどの部分を再生しているのか確認可能な効果を奏する。サムネイル画像1205は、図10のステップS1007で生成した、取得済みのスクリーンショットのサムネイル画像を示す。このサムネイル画像1205をタイムライン1204上に配置することにより、会議で共有されたアプリケーションの種類やアプリケーションの表示箇所を一目で確認できる。このサムネイル画像1205を指定することにより、指定されたサムネイル画像1205が表示された時間帯から録画した会議を再生可能とする。また、押下されたサムネイル画像1205は、共有画面1208に表示される。再生ボタン1206の押下を検知すると映像と音声を再生し、再生に合わせてポインタ1207がタイムライン1204上を移動する。アプリケーションが複数の拠点の情報処理装置102で共有されていた場合は共有画面1208に共有指示を受け付けたアプリケーションを表示する。停止ボタン1209は当該ボタンの押下を受け付けると再生を停止する。
ステップS1102では、情報処理装置102のCPU201は、ポインタ1207のタイムライン1204上の位置を取得する。
ステップS1103では、情報処理装置102のCPU201は、ステップS1103で取得したタイムライン1204上のポインタ1207の位置から、ポインタ1207が指し示す時間を取得する。
ステップS1104では、情報処理装置102のCPU201は、再生部409の機能によりステップS1103で取得した時間から音声及び記録した画像からなる映像を再生する。
ステップS1105では、情報処理装置102のCPU201は、スクリーンショットが記録されているか否かを判定する。より具体的には、図6のスクリーンショット記録テーブル620を参照し、再生している時間帯にスクリーンショットが記録されているかを判定する。ここで言うスクリーンショットとは、複数の拠点の情報処理装置102で共有しているアプリケーション画像のスクリーンショットを指す。スクリーンショットが記録されていると判定した場合はステップS1107に処理を進める。スクリーンショットが記録されていると判定しなかった場合はスクリーンショットが記録されている時間帯に再生が進むまでステップS1105の処理を繰り返す。尚、会議で一度もアプリケーションが共有されずスクリーンショットが取得されていない場合は、情報処理装置の入力デバイスで取得した音声とユーザの顔画像等の会議映像のみ表示する。
ステップS1107では、情報処理装置102のCPU201は、ステップS1105でスクリーンショットがあると判定した場合の処理である。スクリーンショットを取得した時間に再生が進むと、表示制御部406の機能によりスクリーンショット画像を再生タイムライン画面1200の共有画面1208に表示する。尚、再生が進み現在表示しているスクリーンショット画像とは異なる画像を取得した時間に達した場合は当該時間で取得した別のスクリーンショット画像に表示を切り替えて共有画面1208に表示するよう制御する。
ステップS1108では、情報処理装置102のCPU201は、停止ボタン1209の押下を受け付けたか否かを判定する。停止ボタン1209の押下を受け付けたと判定した場合はステップS1110に処理を進める。停止ボタン1209の押下を受け付けたと判定しなかった場合はステップS1109に処理を進める。
ステップS1109では、情報処理装置102のCPU201は、ポインタ1207がタイムライン1204の端(終端、再生タイムライン画面右端)に到着したか否かを判定する。タイムライン1204の終端は会議の記録の終了時間に対応する。タイムライン1204の端に到着したと判定した場合はステップS1110に処理を進める。タイムライン1204の端に到着したと判定しなかった場合はステップS1105に処理を戻し、タイムラインの端に到着したと判定するまでステップS1105からステップS1109の処理を繰り返す。
ステップS1110では、情報処理装置102のCPU201は、会議の記録の再生処理を終了する。
以上で、再生タイムライン画面で再生を行う処理を示すフローチャートの説明を終了する。
次に、拠点毎に再生する音声を選択して会議記録を再生する処理について、図13のフローチャートと図14の再生タイムライン画面1200の図を用いて説明する。本実施形態において拠点を選択して再生処理を行うと、選択した複数の拠点の音声データのうち、最初に音声が記録された時間から自動的に会議の記録が再生される仕組みとなる。
ステップS1301では、情報処理装置102のCPU201は、再生タイムライン画面1200の拠点選択ボックス1202に対してチェックを受け付ける。図14の再生タイムライン画面1200では、名古屋の拠点選択ボックス1202のみがチェックされている。
ステップS1302では、情報処理装置102のCPU201は、ステップS1301で拠点選択ボックス1202にチェックを受け付けた拠点の音声データを特定する。
ステップS1303では、ステップS1302で特定した音声データの音声データから、発話者が発言している音声部分を検出する。
ステップS1304では、情報処理装置102のCPU201は、ステップS1302で特定した音声データにおいて、ステップS1303で検出した音声データの音声部分から、音声の録音を開始して最初に音声を検出した時間を特定する。ステップS1302からステップS1304の処理は、ステップS1301の拠点選択ボックス1202でチェックを受け付けた拠点の数だけ処理を繰り返す。
ステップS1305では、情報処理装置102のCPU201は、ステップS1301で選択を受け付けた拠点の数が複数か否かを判定する。より具体的には、拠点選択ボックス1202でチェックを受け付けた数が複数か否かを判定する。選択された拠点が複数であると判定した場合はステップS1306に処理を進める。選択された拠点が複数であると判定しなかった場合はステップS1309へ処理を進める。
ステップS1306では、情報処理装置102のCPU201は、ステップS1305で選択された拠点が複数であった場合に、ステップS1304で特定した各拠点の音声データの最初の音声検出時間を比較する。
ステップS1307では、情報処理装置102のCPU201は、ステップS1306で各拠点の音声データの最初の音声検出時間を比較した結果、一番早く音声が検出された時間を特定する(特定手段)。
ステップS1308では、情報処理装置102のCPU201は、ステップS1307で特定した時間であって、タイムライン1204上の対応する位置にポインタ1207を移動させる。
ステップS1309では、情報処理装置102のCPU201は、再生ボタン1206の押下を検知することにより(再生指示受付手段)、再生指示を受け付けたか否かを判定する。尚、本実施形態ではステップS1308でポインタ1207が移動した後に再生指示を受け付けるが、ステップS1308のあとに再生指示を受け付けず自動的に再生処理を行ってもよい。
ステップS1310では、情報処理装置102のCPU201は、音声と映像及び画像を再生する。
ステップS1311では、情報処理装置102のCPU201は、ポインタ1207がタイムライン1204の端に到着したか否かを判定する。ポインタ1207がタイムライン1204の端に到着したと判定した場合はステップS1312に処理を進める。ポインタ1207がタイムライン1204の端に到着したと判定しなかった場合は端に到着するまでステップS1311の処理を繰り返す。
ステップS1312では、情報処理装置102のCPU201は、ステップS1311でポインタ1207がタイムライン1204の端に到着したと判定した場合に会議記録の再生が完了したと判定し、再生処理を終了する。
この処理により、ユーザが拠点を選択した場合は、選択を受け付けた拠点の音声データのうち、最初の発話者発言箇所から自動的に会議記録が再生可能となる。そのためユーザが最初の無駄な音声部分を確認してポインタ1207を手動で動かし再生するという手間を省くことが可能な効果を奏する。
以上で、再生する拠点を選択し、選択された拠点の音声のみを再生可能であり、かつ最初に音声が記録された時間から自動的に会議の記録が再生される仕組みの説明を終了する。
図14は、図13のフローチャートの仕組みを再生タイムライン画面1200で表した一例を示す図である。図14で名古屋の拠点の拠点選択ボックス1202の選択を受け付けると、ポインタ1207が自動的に名古屋の拠点の音声データの最初の音声検出時間の位置まで移動している。最初の音声部分は、波形データで表されているため視覚的にも確認可能である。ユーザからの再生ボタン1206の押下を検知すると、移動後のポインタ1207が示す時間から音声と映像が再生される。
次に、図15と図16を用いて画像選択再生処理の一連の流れを説明する。図13は拠点の選択を受け付けて再生する仕組みを説明した。図15はタイムライン1204上のサムネイル画像1205の選択を受け付け、当該選択を受け付けたサムネイル画像に対応するアプリケーションが共有された時間から会議の記録映像を再生可能な仕組みである。
まず、ステップS1501では、情報処理装置102のCPU201は、再生タイムライン画面1200のタイムライン1204上にあるサムネイル画像1205の押下を受け付ける(指定受付手段)。
ステップS1502では、情報処理装置102のCPU201は、ステップS1501で指定を受け付けた、サムネイル画像1205に対応するアプリケーションが、共有指示を受け付け共有画面1208に表示された時間を特定する(特定手段)。時間の特定方法はサムネイル画像1205が配置されているタイムライン1204上の一に応じて時間を特定すると良い。またサムネイル画像1205に対応するスクリーンショットが登録された時間を、スクリーンショット記録テーブル620の登録時間621から特定しても良い。時間の特定方法はどの方法を用いても良い。また、本発明で特定する時間は、時刻情報でも良いし再生開始や録音・録画を開始したところから起算した時間情報やタイミングの情報でも良い。
ステップS1503では、情報処理装置102のCPU201は、ステップS1502で特定した時間帯の各拠点ごとの音声データを解析し、音声部分があるか否か、つまり無音部分でないかを拠点の音声データの数だけ判定する。ステップS1502で特定した時間帯に音声部分があると判定した場合はステップS1504に処理を進める。ステップS1502で特定した時間帯に音声部分があると判定しなかった場合は、音声部分があると判定する部分までステップS1503の音声データを解析する処理を繰り返す。
ステップS1504では、情報処理装置102のCPU201は、ステップS1503で音声部分があると判定した拠点ファイルを特定する。
ステップS1505では、情報処理装置102のCPU201は、再生ボタン1206の押下を受け付けることにより、再生指示を受け付けたか否かを判定する。再生指示を受け付けたと判定した場合はステップS1506に処理を進める。再生指示を受け付けたと判定しなかった場合はステップS1501mに処理を戻す。
ステップS1506では、情報処理装置102のCPU201は、ステップS1504で特定した拠点の拠点選択ボックス1202に自動的にチェックマークを入れる。
ステップS1507では、情報処理装置102のCPU201は、ステップS1506でチェックマークを入れた拠点の音声データと映像及び画像を再生する。
ステップS1508では、情報処理装置102のCPU201は、再生が進み共有画面1208に表示されているアプリケーションの画像が変更されたか否かを判定する。画像が変更されたと判定した場合にはステップS1509に処理を進める。画像が変更されたと判定しなかった場合には、画像が変更されるまで、もしくは画像の表示が終了されるまでステップS1508の処理を繰り返す。
ステップS1509では、情報処理装置102のCPU201は、ステップS1508で共有画面1208に表示されているアプリケーションの画像が変更されたと判定した場合は再生処理を停止する。本実施形態では画像が変更することで再生を停止することにより、ユーザから指定を受け付けたサムネイル画像1205に対応する画像が共有画面1208に表示されている時間のみ再生可能として指定した画像部分のみを確認可能としている。しかし、再生は停止せず再生し続けてもよい。
この処理により、ユーザの指定を受け付けたサムネイル画像1205に対応するアプリケーションが表示されている区間内の会議の記録を容易に再生可能とする。そしてさらに画像が表示されている時間帯に音声部分がある拠点の音声データのみを再生するよう自動選択することで、余計な音声データを含まずに再生可能であり、拠点を選択するユーザの手間を軽減する効果を奏する。
図16は、図15の指定のサムネイル画像1205に対応するアプリケーションを共有画面1208に表示している箇所から容易に再生可能とし、かつその再生区間に音声部分がある拠点を自動選択する仕組みを再生タイムライン画面1200に表した一例である。ユーザからサムネイル画像1205の指定を受け付けると、共有画面1208にサムネイル画像1205に対応するスクリーンショット画面が読み出され表示される。そして図16では、当該画像が表示された時点で音声が検出される東京の大阪の2つの拠点が自動的に選択され、再生ボタン1206の押下を受け付けると東京と大阪の音声が指定されたサムネイル画像1205の時間から再生される。
以上、説明したように、Web会議システムの録画において、再生する画像に対応した適切な音声データの組み合わせを選択して再生可能な仕組みを提供する。
尚、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムを、システム或いは装置に直接、或いは遠隔から供給するものを含む。そして、そのシステム或いは装置の情報処理装置が前記供給されたプログラムコードを読み出して実行することによっても達成される場合も本発明に含まれる。
したがって、本発明の機能処理を情報処理装置で実現するために、前記情報処理装置にインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。
プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RWなどがある。また、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などもある。
その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する。そして、前記ホームページから本発明のコンピュータプログラムそのもの、若しくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。
また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理を情報処理装置で実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、ダウンロードした鍵情報を使用することにより暗号化されたプログラムを実行して情報処理装置にインストールさせて実現することも可能である。
また、情報処理装置が、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。その他、そのプログラムの指示に基づき、情報処理装置上で稼動しているOSなどが、実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現され得る。
さらに、記録媒体から読み出されたプログラムが、情報処理装置に挿入された機能拡張ボードや情報処理装置に接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現される。
なお、前述した実施形態は、本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
なお、前述した実施形態は、本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
101 サーバ装置
102,103,104 情報処理装置
102,103,104 情報処理装置
Claims (8)
- 複数の拠点に置かれた情報処理装置で送受信される画像データと拠点毎に取得される音声データを管理するWeb会議システムであって、
複数の前記情報処理装置それぞれで取得された音声データと、複数の前記情報処理装置で送受信される画像データと、前記音声データと前記画像データのそれぞれを取得した取得時間情報とを記憶する記憶手段と、
前記記憶手段で記憶した前記取得時間に基づいて、前記画像データと複数の前記音声データとの再生指示を受け付け可能なタイムライン形式の画面を生成する画面生成手段と、
前記画面生成手段で生成したタイムライン形式の前記画面において、任意の開始箇所から再生する開始箇所の指定を受け付ける指定受付手段と、
前記指定受付手段で指定を受け付けた開始箇所に応じて、前記画面で再生指示を受け付け可能な音声データのうち、前記開始箇所で音声情報が含まれている音声データを特定する特定手段と、
前記特定手段で特定した前記音声データを再生する再生手段
を備えることを特徴とするWeb会議システム。 - 前記画面生成手段は、前記記憶手段で記憶した前記画像データと前記音声データとを時系列に対応付けたタイムライン形式の画面を生成することを特徴とする請求項1に記載のWeb会議システム。
- 前記画面生成手段は、前記記憶手段に記憶されている前記画像データのサムネイル画像を生成し、前記取得時間情報に応じて時系列に表示可能な前記サムネイル画像を含めた前記画面を生成することを特徴とする請求項1または2に記載のWeb会議システム。
- 前記再生手段は、前記サムネイル画像の指定を受け付けることにより、前記サムネイル画像に対応する画像の取得時間を開始箇所として前記音声データを再生することを特徴とする請求項3に記載のWeb会議システム。
- 前記再生手段は、前記画面で再生指示を受け付け可能な音声データのうち、前記指定受付手段で指定を受け付けた前記開始箇所で音声情報が含まれていない音声データは再生しないことを特徴とする請求項1乃至4のいずれか1項に記載のWeb会議システム。
- 前記Web会議システムは、
前記情報処理装置の画面で表示している画像を他の情報処理装置と送受信することで画面を共有する画面共有手段と、
前記画面共有手段で共有している画面に表示されている画像を任意のタイミングで撮像する撮像手段と
を更に備え、
前記画面生成手段は、前記撮像手段で撮像した画像を、前記撮像手段で撮像した時間に合わせて表示可能な画面を生成することを特徴とする請求項1乃至5のいずれか1項に記載のWeb会議システム。 - 複数の拠点に置かれた情報処理装置で送受信される画像データと拠点毎に取得される音声データを管理し、複数の前記情報処理装置それぞれで取得された複数の音声データと、複数の前記情報処理装置で送受信される画像データと、前記音声データと前記画像データのそれぞれを取得した取得時間情報とを記憶する記憶手段を備えるWeb会議システムに用いられる制御方法であって、
前記Web会議システムの画面生成手段が、前記記憶手段で記憶した前記取得時間に基づいて、前記画像データと複数の前記音声データとの再生指示を受け付け可能なタイムライン形式の画面を生成する画面生成ステップと、
前記Web会議システムの指定受付手段が、前記画面生成ステップで生成したタイムライン形式の前記画面において、任意の開始箇所から再生する開始箇所の指定を受け付ける指定受付ステップと、
前記Web会議システムの特定手段が、前記指定受付ステップで指定を受け付けた開始箇所に応じて、前記画面で再生指示を受け付け可能な音声データのうち、前記開始箇所で音声情報が含まれている音声データを特定する特定ステップと、
前記Web会議システムの再生手段が、前記特定ステップで特定した前記音声データを再生する再生ステップと、
を備えることを特徴とするWeb会議システムの制御方法。 - 複数の拠点に置かれた情報処理装置で送受信される画像データと拠点毎に取得される音声データを管理し、複数の前記情報処理装置それぞれで取得された複数の音声データと、複数の前記情報処理装置で送受信される画像データと、前記音声データと前記画像データのそれぞれを取得した取得時間情報とを記憶する記憶手段を備えるWeb会議システムとして機能させるプログラムであって、
前記Web会議システムを、
前記記憶手段で記憶した前記取得時間に基づいて、前記画像データと複数の前記音声データとの再生指示を受け付け可能なタイムライン形式の画面を生成する画面生成手段と、
前記画面生成手段で生成したタイムライン形式の前記画面において、任意の開始箇所から再生する開始箇所の指定を受け付ける指定受付手段と、
前記指定受付手段で指定を受け付けた開始箇所に応じて、前記画面で再生指示を受け付け可能な音声データのうち、前記開始箇所で音声情報が含まれている音声データを特定する特定手段と、
前記特定手段で特定した前記音声データを再生する再生手段
として機能させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016233574A JP2018093315A (ja) | 2016-11-30 | 2016-11-30 | Web会議システム、その制御方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016233574A JP2018093315A (ja) | 2016-11-30 | 2016-11-30 | Web会議システム、その制御方法、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018093315A true JP2018093315A (ja) | 2018-06-14 |
Family
ID=62563829
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016233574A Pending JP2018093315A (ja) | 2016-11-30 | 2016-11-30 | Web会議システム、その制御方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018093315A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108933831A (zh) * | 2018-07-16 | 2018-12-04 | 广州视源电子科技股份有限公司 | 智能交互设备及其数据处理方法和装置 |
CN113194279A (zh) * | 2021-04-30 | 2021-07-30 | 上海博泰悦臻网络技术服务有限公司 | 网络会议的记录方法、计算机可读存储介质及电子设备 |
JP2023505129A (ja) * | 2019-12-02 | 2023-02-08 | 維沃移動通信有限公司 | アプリケーション共有方法、電子機器及びコンピュータ可読記憶媒体 |
JP7541091B2 (ja) | 2019-12-02 | 2024-08-27 | 維沃移動通信有限公司 | アプリケーション共有方法、電子機器及びコンピュータ可読記憶媒体 |
-
2016
- 2016-11-30 JP JP2016233574A patent/JP2018093315A/ja active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108933831A (zh) * | 2018-07-16 | 2018-12-04 | 广州视源电子科技股份有限公司 | 智能交互设备及其数据处理方法和装置 |
JP2023505129A (ja) * | 2019-12-02 | 2023-02-08 | 維沃移動通信有限公司 | アプリケーション共有方法、電子機器及びコンピュータ可読記憶媒体 |
JP7541091B2 (ja) | 2019-12-02 | 2024-08-27 | 維沃移動通信有限公司 | アプリケーション共有方法、電子機器及びコンピュータ可読記憶媒体 |
CN113194279A (zh) * | 2021-04-30 | 2021-07-30 | 上海博泰悦臻网络技术服务有限公司 | 网络会议的记录方法、计算机可读存储介质及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9712569B2 (en) | Method and apparatus for timeline-synchronized note taking during a web conference | |
US9055193B2 (en) | System and method of a remote conference | |
JP2008282397A (ja) | プレゼンテーションの注釈付きの写しを生成するための方法、情報処理システムおよびコンピュータ・プログラム | |
JP2006146415A (ja) | 会議支援システム | |
JP2007180828A (ja) | ネットワーク会議システム、ネットワーク会議方法、及び該方法を実行させるためのプログラム | |
WO2003056459A1 (fr) | Systeme de traitement d'information de reseau et procede de traitement d'information | |
CN108241672A (zh) | 一种在线展示演示文稿的方法和装置 | |
JP6508009B2 (ja) | 端末装置、画面記録方法、プログラム及び情報処理システム | |
JP4010094B2 (ja) | 遠隔地用講座情報提示装置 | |
JP2022076617A (ja) | 朝礼支援装置、及びプログラム | |
JP2018093315A (ja) | Web会議システム、その制御方法、及びプログラム | |
JP2007060028A (ja) | 映像処理装置及びオブジェクト処理方法 | |
KR100934471B1 (ko) | 크로마키를 이용한 영상제작 장치 및 그 방법 | |
JP5668412B2 (ja) | 情報管理プログラム、情報管理装置、情報管理システム及び情報管理方法 | |
JP2016063477A (ja) | 会議システム、情報処理方法、及びプログラム | |
KR20080104415A (ko) | 동영상 편집 시스템 및 방법과 그 방법을 구현한프로그램이 기록된 기록매체 | |
JP2014204411A (ja) | 会議記録システム、会議記録装置、会議記録再生方法およびコンピュータプログラム | |
JP4686990B2 (ja) | コンテンツ処理システム及びコンテンツ処理方法、並びにコンピュータ・プログラム | |
JP4244545B2 (ja) | 情報作成方法、情報作成装置およびネットワーク情報処理システム | |
JP2018165995A (ja) | ウェブ会議システム、ウェブ会議サーバ、ウェブ会議システムの制御方法、およびプログラム | |
JP2005167822A (ja) | 情報再生装置及び情報再生方法 | |
JP2001350775A (ja) | 複数情報提示方法及び装置 | |
JP4288878B2 (ja) | 情報作成方法および情報作成装置 | |
JP2020034823A (ja) | ファシリテーション支援プログラム、ファシリテーション支援装置およびファシリテーション支援方法 | |
JP2014072686A (ja) | システム、方法、及び、録画サーバ |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20180703 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20181031 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190111 |