JP2004193702A - ビデオ画像共有システム - Google Patents
ビデオ画像共有システム Download PDFInfo
- Publication number
- JP2004193702A JP2004193702A JP2002356180A JP2002356180A JP2004193702A JP 2004193702 A JP2004193702 A JP 2004193702A JP 2002356180 A JP2002356180 A JP 2002356180A JP 2002356180 A JP2002356180 A JP 2002356180A JP 2004193702 A JP2004193702 A JP 2004193702A
- Authority
- JP
- Japan
- Prior art keywords
- video image
- processing
- editing
- server
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
【課題】各種情報および加工編集処理された結果をリアルタイムで共有することができ、操作履歴を再生することができるようにする。
【解決手段】ビデオサーバ2は、ビデオカメラ1によって撮影された動画データを取り込み、リアルタイムで静止画のデータに変換して管理サーバ3に供給し、管理サーバ3は、クライアント端末10−1乃至10−Nによる操作の履歴(操作履歴)、ログイン情報、動画ファイル等の各種情報を記憶するとともに、各種情報をインターネット20を介してクライアント端末10に配信し、クライアント端末10−1乃至10−Nは、管理サーバ3から配信された各種情報を表示または出力し、加工編集処理を行う。加工編集処理の結果は各クライアント端末10−1乃至10−Nにリアルタイムで反映される。また、操作履歴に基づき、動画ファイルの再生および過去の加工編集処理の再現が行われる。
【選択図】 図1
【解決手段】ビデオサーバ2は、ビデオカメラ1によって撮影された動画データを取り込み、リアルタイムで静止画のデータに変換して管理サーバ3に供給し、管理サーバ3は、クライアント端末10−1乃至10−Nによる操作の履歴(操作履歴)、ログイン情報、動画ファイル等の各種情報を記憶するとともに、各種情報をインターネット20を介してクライアント端末10に配信し、クライアント端末10−1乃至10−Nは、管理サーバ3から配信された各種情報を表示または出力し、加工編集処理を行う。加工編集処理の結果は各クライアント端末10−1乃至10−Nにリアルタイムで反映される。また、操作履歴に基づき、動画ファイルの再生および過去の加工編集処理の再現が行われる。
【選択図】 図1
Description
【0001】
【発明の属する技術分野】
本発明は、ビデオ画像共有システムに関し、特に、ネットワークで接続された複数の端末間で、リアルタイムに各種情報を共有し、情報の加工編集を共同して行うビデオ画像共有システムに関する。
【0002】
【従来の技術】
従来、例えば、インターネットに接続されたサーバ機に、情報の種類に応じてその情報を共有し得る参加者の特定の組み合わせを決定するデータを、システム管理者が記憶させることのできる第1の記憶手段と、複数の参加者によって提供される情報を記憶する第2の記憶手段とが設けられ、参加者は、第1の記憶手段に記憶されたデータに基づき、決定される特定の組み合わせ内にある参加者によって提供された情報を利用することができ、且つサーバ機の第2の記憶手段に自己の情報を記憶させることができるようにして、生産効率を高めるようにしたものがある(例えば、特許文献1参照)。
【0003】
【特許文献1】
特開2001−290985号公報(図1)
【0004】
【発明が解決しようとする課題】
しかしながら、インターネットに接続された複数の端末間で、画像データや音声データ等の情報をリアルタイムで共有し、かつそれらの情報に対して加工編集処理を施すことができ、その加工編集処理が各端末にリアルタイムで反映されるようにすることはできなかった。さらに、過去の操作履歴を再現することはできないという問題点があった。
【0005】
本発明はこのような状況に鑑みてなされたものであり、各種情報をネットワークを介してリアルタイムに共有し、協調して加工編集ができるようにするとともに、過去の操作履歴を再現することができるようにするものである。
【0006】
【課題を解決するための手段】
請求項1に記載のビデオ画像共有システムは、サーバに接続された複数の端末間でビデオ画像をネットワークを介してリアルタイムに共有するビデオ画像共有システムであって、サーバは、ビデオ画像を記憶する記憶手段と、ビデオ画像をネットワークを介して各端末に配信する第1の配信手段と、端末によってビデオ画像を加工編集するために行われた所定の操作を示す操作情報をネットワークを介して受信する受信手段と、受信手段によって受信された操作情報を操作履歴情報として記憶する第2の記憶手段と、操作情報に基づいてビデオ画像を加工編集する加工編集手段と、加工編集されたビデオ画像をネットワークを介して各端末に配信する第2の配信手段と、ビデオ画像および操作履歴情報に基づいて、過去の操作履歴をビデオ画像とともに再現する再現手段とを備え、端末は、サーバから配信されたビデオ画像を出力する出力手段と、出力手段によって出力されたビデオ画像に対して加工編集操作を行う操作手段と、操作手段によって行われた加工編集操作を示す操作情報をサーバに送信する送信手段とを備えることを特徴とする。
また、ビデオ画像が表示された画面内の所定の被写体に対して、端末の操作手段によって所定の図形が描画されたとき、被写体の移動に追従して図形を移動させ、被写体と図形の相対的な位置関係をほぼ一定にするトラッキング手段をさらに備えるようにすることができる。
また、トラッキング手段は、被写体の画面上での位置を色成分分析および形状分析によって検出し、位置に図形を描画するようにすることができる。
また、サーバの第1の配信手段は、所定のホームページに対してユーザを特定するIDを入力してログインした端末に対して、ビデオ画像を配信し、第2の配信手段は、端末に対して、加工編集されたビデオ画像を配信するようにすることができる。
また、操作履歴情報は、ログインしたユーザを特定するID情報と、加工編集のために行われた操作を示す情報と、操作が行われた時刻を示す情報とからなり、ビデオ画像と操作履歴情報とは時刻によってリンクされるようにすることができる。
請求項6に記載のビデオ画像共有方法は、サーバに接続された複数の端末間でビデオ画像をネットワークを介してリアルタイムに共有するビデオ画像共有方法であって、サーバは、ビデオ画像を記憶する記憶ステップと、ビデオ画像をネットワークを介して各端末に配信する第1の配信ステップと、端末によってビデオ画像を加工編集するために行われた所定の操作を示す操作情報をネットワークを介して受信する受信ステップと、受信ステップにおいて受信された操作情報を操作履歴情報として記憶する第2の記憶ステップと、操作情報に基づいてビデオ画像を加工編集する加工編集ステップと、加工編集されたビデオ画像をネットワークを介して各端末に配信する第2の配信ステップと、ビデオ画像および操作履歴情報に基づいて、過去の操作履歴をビデオ画像とともに再現する再現ステップとを備え、端末は、サーバから配信されたビデオ画像を出力する出力ステップと、出力ステップにおいて出力されたビデオ画像に対して加工編集操作を行う操作ステップと、操作ステップにおいて行われた加工編集操作を示す操作情報をサーバに送信する送信ステップとを備えることを特徴とする。
また、ビデオ画像が表示された画面内の所定の被写体に対して、端末の操作ステップにおいて所定の図形が描画されたとき、被写体の移動に追従して図形を移動させ、被写体と図形の相対的な位置関係をほぼ一定にするトラッキングステップをさらに備えるようにすることができる。
また、トラッキングステップにおいては、被写体の画面上での位置を色成分分析および形状分析によって検出し、位置に図形を描画するようにすることができる。
また、サーバの第1の配信ステップにおいては、所定のホームページに対してユーザを特定するIDを入力してログインした端末に対して、ビデオ画像を配信し、第2の配信ステップにおいては、端末に対して、加工編集されたビデオ画像を配信するようにすることができる。
また、操作履歴情報は、ログインしたユーザを特定するID情報と、加工編集のために行われた操作を示す情報と、操作が行われた時刻を示す情報とからなり、ビデオ画像と操作履歴情報とは時刻によってリンクされているようにすることができる。
請求項11に記載のビデオ画像共有プログラムは、サーバに接続された複数の端末間でビデオ画像をネットワークを介してリアルタイムに共有するビデオ画像共有システムを制御するビデオ画像共有プログラムであって、サーバに、ビデオ画像を記憶する記憶ステップと、ビデオ画像をネットワークを介して各端末に配信する第1の配信ステップと、端末によってビデオ画像を加工編集するために行われた所定の操作を示す操作情報をネットワークを介して受信する受信ステップと、受信ステップにおいて受信された操作情報を操作履歴情報として記憶する第2の記憶ステップと、操作情報に基づいてビデオ画像を加工編集する加工編集ステップと、加工編集されたビデオ画像をネットワークを介して各端末に配信する第2の配信ステップと、ビデオ画像および操作履歴情報に基づいて、過去の操作履歴をビデオ画像とともに再現する再現ステップとを実行させ、端末に、サーバから配信されたビデオ画像を出力する出力ステップと、出力ステップにおいて出力されたビデオ画像に対して加工編集操作を行う操作ステップと、操作ステップにおいて行われた加工編集操作を示す操作情報をサーバに送信する送信ステップとを実行させることを特徴とする。
【0007】
【発明の実施の形態】
図1は、本発明のビデオ画像共有システムの一実施の形態の構成例を示すブロック図である。同図に示すように、本実施の形態は、ビデオカメラ1と、ビデオカメラ1によって撮影された動画データ(ビデオ画像データ)を取り込み、リアルタイムで静止画のデータに変換して後述する管理サーバ3に供給するビデオサーバ2と、後述するクライアント端末10−1乃至10−N(以下では、クライアント端末10−1乃至10−Nを特に区別する必要がない場合、単にクライアント端末10と記載する)による操作の履歴(操作履歴)、ログイン情報、動画ファイルおよび音声ファイル等の各種情報を記憶するとともに、各種情報をインターネット20を介してクライアント端末10に配信する管理サーバ3と、インターネット20に接続され、管理サーバ3から配信された各種情報を表示または出力し、加工編集処理を行うクライアント端末10等により構成されている。
【0008】
ビデオサーバ2は、ビデオカメラ1によって撮影された動画像信号を取り込み、エンコードする動画エンコーダ21と、その動画エンコーダ21によってエンコードされた動画データを所定の時間間隔(例えば30分の1秒間隔)で1コマずつ抜き出し、静止画データ(フレームデータ)に変換して、通信制御部25を介して管理サーバ3に供給するフレームバッファ22と、各部を制御する制御部23と、動画像信号より変換された所定の動画ファイルを記憶する記憶装置24と、各種データの送受信を制御する通信制御部25と、音声信号をエンコードする音声エンコーダ26とを備えている。
【0009】
また、ビデオサーバ2の制御部23は、ビデオカメラ1から供給された動画像信号を所定の動画ファイル(MPEG(Moving Picture Experts Group)、AVI(Audio Video Interleaving)等)に変換し、記憶装置24に保存するようになっている。この動画ファイルは、後に履歴情報を再生するときに用いられる。ビデオカメラ1が音声信号を出力する場合には音声信号もビデオサーバ2に供給され、音声エンコーダ26により音声信号がエンコードされ、音声データに変換される。また、ビデオサーバ2の制御部23は、ビデオカメラ1から供給された音声信号を所定の音声ファイルに変換し、記憶装置24に保存するようになっている。この音声ファイルは、後に履歴情報を再生するときに用いられる。音声および動画は、あくまでも時間軸上の連続情報であるため、音声と動画とは対にして圧縮して時間軸を合わせた状態で保存される。
【0010】
管理サーバ3は、ログイン情報(所定のホームページにログインしたユーザのID、ログインした時刻(または日時)、ログアウトした時刻(または日時)、およびログイン回数)と、各クライアント端末10による操作履歴(ユーザID、各種ツールを用いて操作を行った時刻(または日時)(例えば、ペンツール使用時には、ペンの色および形状、ウィンドウ内のローカル座標、描画した時刻、消去した時刻)等のユーザ履歴情報を記憶するユーザ履歴管理データベース(DB)31と、ビデオボード機能を仮想的に実現する、RAM(random access memory)等で構成されたビデオボード32とを備えている。
【0011】
次に、図2のフローチャートを参照して、ビデオカメラ1によって撮影された動画像に対応する動画データをリアルタイムにインターネット20を介して各クライアント端末10に配信し、各クライアント端末10間で動画データを共有し、各クライアント端末10が協調してこの動画データに対して加工編集処理を施す手順について説明する。
【0012】
まず最初に、ステップS1において、管理サーバ3は、ビデオカメラ1によって撮影された動画像に対応する動画データをビデオサーバ2から取得し、インターネット20を介して各クライアント端末10に配信するビデオ配信処理を実行する。次に、ステップS2において、各クライアント端末10は、管理サーバ3からインターネット20を介して配信された動画データを受け取り、図示せぬ表示装置の画面に表示する表示処理を実行する。ステップS1およびステップS2の処理は、動画データが更新される度に、繰り返し実行される。
【0013】
次に、ステップS3において、各クライアント端末10は、画面に表示された動画データに対して加工編集処理を施し、管理サーバ3に加工編集後の動画データをインターネット20を介して送信する。次に、ステップS4において、管理サーバ3は、各クライアント端末10から送信されてきた加工編集処理が施された動画データを各クライアント端末10にインターネット20を介して配信する。ステップS3およびステップS4の処理は、加工編集処理が行われる度に、繰り返し実行される。ここで、加工編集処理とは、各クライアント端末10の利用者(送受信者)が、管理サーバ3からリアルタイムに配信された動画データに対して、付加図形情報を描画、合成することである。
【0014】
図3は、図2のフローチャートのステップS1におけるビデオ配信処理の詳細な処理手順を示すフローチャートである。まず最初に、ステップS11において、ビデオカメラ1による撮影が行われ、動画像信号がビデオサーバ2の動画エンコーダ21に供給される。次に、ステップS12において、ビデオサーバ2の動画エンコーダ21は、ビデオカメラ1より供給された動画像信号をエンコードし、動画データに変換する。フレームバッファ22は、動画エンコーダ21によってエンコードされた動画データからフレーム単位で静止画データ(フレームデータ)を切り出し、記憶する。
【0015】
次に、ステップS13において、フレームバッファ22は、動画エンコーダ21より出力される動画データから切り出した静止画データを通信制御部25を介してUDP(user datagram protocol)プロトコルを用いて管理サーバ3に供給する。管理サーバ3は、ビデオサーバ2より供給された、動画データから切り出された静止画データをビデオボード32に記憶させるとともに、この静止画データをインターネット20を介して各クライアント端末10に配信する。ビデオボード32に記憶される静止画データは、フレーム単位で更新されるため、後述するように、各クライアント10は、管理サーバ3が提供するホームページにアクセスすることによりビデオボード32に描画された静止画データを取得し、更新し続けることによって、リアルタイムに動画像の再生を行うことができ、タイムラグ無しに動画像を表示することができる。
【0016】
次に、ステップS14において、フレームの有無が判定される。即ち、フレームが更新されて差分フレームがあるか否かが判定される。差分フレームがあると判定された場合、ステップS12に戻り、ステップS12以降の処理が繰り返し実行される。一方、差分フレームが無いと判定された場合、本処理を終了する。
【0017】
図4は、図2のフローチャートのステップS2の各クライアント端末10における表示処理の手順を示すフローチャートである。まず最初に、ステップS21において、各クライアント端末10は、管理サーバ3が提供する所定のホームページにインターネット20を介してアクセスし、取得した静止画データ(フレームデータ)により、既存ファイルの上書きを行う。次に、ステップS22において、フレームの有無、即ち、差分フレームの有無が判定される。差分フレームがある場合、静止画データが更新されたことを示しており、画面を更新する必要がある。
【0018】
ステップS22における判定の結果、差分フレームが無い(静止画データが更新されていない)と判定された場合、ステップS21に戻り、ステップS21以降の処理が繰り返し実行される。一方、差分フレームがある(静止画データが更新されている)と判定された場合、ステップS23に進み、蓄積されたファイル(静止画データ)のうち、最新の静止画データを画面に表示し、ステップS21に戻る。その後、ステップS21以降の処理が繰り返し実行される。このように、各クライアント端末10の画面には、動画データからリアルタイムに切り出された静止画データ、即ち動画像が表示される。
【0019】
図5は、各クライアント端末10の画面に表示された動画データに対して、加工・編集処理を施す手順を示すフローチャートである。ここでは、クライアント端末10−1において加工・編集処理が行われるものとする。加工・編集処理は、動画上に図形を描画したり、消去することを実現するものである。加工・編集処理において選択可能なツールは、ペン(動画像上に図形を描画するためのツール)、消しゴム(動画像上にペンで描かれた図形を消去するためのツール)、およびペンの色を変更するツールである。
【0020】
各ツールは、例えば、画面上に各ツールに対応する文字や図形を表示し、マウス等のポインティングデバイスを操作して所望のツールに対応する文字や図形を指定してクリックすることにより選択することができるようになっている。同様に、画面上にペンの種別(色や大きさ(太さ))に対応する文字や図形を表示し、マウス等のポインティングデバイスを操作して所望のペンの種別に対応する文字や図形を指定してクリックすることによりペンの種別を選択することができるようになっている。
【0021】
まず最初に、ステップS31において、クライアント端末10−1の図示せぬ制御部により、ユーザによって選択されたツールの種類が判定される。その結果、ペンツールが選択されたと判定された場合、ステップS32に進み、ペン描画処理が実行される。ペン描画処理は、動画像上に、指定された色の任意の図形を描画する処理である。
【0022】
まず、ユーザによって、クライアント端末10−1に接続された図示せぬキーボード等が操作されてペンの色が選択される。次に、ユーザによって、クライアント端末10−1に接続された図示せぬマウス等のポインティングデバイスに対してドラッグ等の操作がなされると、画面上のカーソルの位置がx座標およびy座標のそれぞれの方向に1ドットだけ移動する毎に、カーソルの画面上での位置を示すxy座標(例えば、画面左上隅を原点とする)の値が取得される。そして、カーソルの位置に、選択された色のドットが表示される。そして、ステップS34において、カーソルの位置を示すxy座標値がインターネット20を介して管理サーバ3に送信される。
【0023】
その後、ステップS32に戻り、ステップS32以降の処理が繰り返し実行される。これにより、カーソルが移動したとき、その軌跡の部分に、指定された色のドットが連続的に表示され、ステップS34において、カーソルが移動した軌跡の各ドット毎のxy座標値を示す座標データが、ユーザID(ログイン時に入力されるID)と、ペンの色および太さと、時刻等の情報とともに、操作履歴情報としてリアルタイムに管理サーバ3に送信される。管理サーバ3は、この操作履歴情報を、受信した順に記憶装置31に記憶させる。ステップS32およびステップS34の処理は、ペン描画が行われている間、繰り返し実行される。また、ユーザにより、ペン描画処理の終了が指示されたときは、ステップS31に戻り、ステップS31以降の処理が繰り返し実行される。
【0024】
一方、ステップS31において、消しゴムが選択された場合、ステップS33に進み、消去処理が実行される。消去処理は、動画像上に描画された図形を一括消去する処理および動画像上に描画された図形を選択的に消去(部分消去)する処理である。即ち、一括消去の場合は所定の操作により動画上に描画された図形が一括消去される。また、指定した図形を選択的に消去する場合は、ユーザがマウス等のポインティングデバイスを操作して、動画像上に描画された消去したい図形上にカーソルを移動させ、左ボタンをクリックするなどしてその図形を選択すると、クライアント端末10−1の図示せぬ制御部は、画面上(またはウィンドウ上)のカーソルの位置を示すxy座標値を取得し、このxy座標値を含む図形を画面上から消去する。
【0025】
そして、ステップS34において、このxy座標値を示すxy座標データを含む操作履歴情報が、インターネット20を介して管理サーバ3に送信される。図形消去時の操作履歴情報は、クライアント端末10−1のID(またはログイン時のユーザID)と、時刻(図形が消去された時刻)を示す情報と、図形消去時のカーソルの位置を示すxy座標データと、一括消去か部分消去かを示す情報等からなる。管理サーバ3は、この操作履歴情報を、受信した順に記憶装置31に記憶させる。その後、ステップS31に戻り、ステップS31以降の処理が繰り返し実行される。
【0026】
図6は、所定のクライアント端末10によって図形が描画または消去されたときの操作履歴情報が、他のクライアント端末10に対して配信(マルチキャスト配信)される手順を示すフローチャートである。ステップS41においては、管理サーバ3は、クライアント端末10−1からインターネット20を介して送信されてきた上記操作履歴情報を受信すると、ステップS42において、これらの操作履歴情報をインターネット20を介してUDPプロトコルを用いて他のクライアント端末10−2乃至10−Nのうち、クライアント端末10−1と同一のホームページをログイン後に表示しているものにマルチキャスト配信する。
【0027】
図7は、クライアント端末10の画面に動画像を表示し、その動画像上にペンツールを用いて図形を描画した様子を示している。この動画像を提供するホームページにログインしている全てのクライアント端末10に対してクライアント端末10上で描画された上記図形を示すデータが管理サーバ3を介してインターネット20経由で配信され、同一の動画像および図形が画面に表示される。従って、各クライアント10のユーザ同士で、同一の情報をリアルタイムで共有することができる。また、動画像上に図形を描画したり消去した場合、操作履歴情報が他のクライアント端末10に管理サーバ3を介してインターネット20経由でリアルタイムでマルチキャスト配信されるため、各種情報を複数のユーザで共有することができる。
【0028】
次に、図8を参照して、過去においてログインしたホームページ上で動画像上に図形の描画や消去等の操作を行った操作履歴を再生することにより、過去を再現する方法について説明する。まず最初に、ステップS51において、操作履歴保存処理が実行される。次に、ステップS52において、操作履歴確認処理が実行される。次に、ステップS53において、操作履歴再生処理が実行され、本処理を終了する。
【0029】
図9は、図8のフローチャートのステップS51における操作履歴保存処理の詳細な手順を示すフローチャートである。まず、ステップS61において、クライアント端末10の制御部は、ユーザによって入力されたユーザ情報(ID)を入手する。次に、ステップS62において、ユーザによって操作された操作履歴情報を取得する。操作履歴情報は、例えば、ユーザがキーボードやマウス等を操作して実行した処理の種類と、その処理を実行した時刻(または日時)と、ユーザのID等からなる。
【0030】
ステップS63においては、ステップS62において取得された操作履歴情報が、インターネット20を介してリアルタイムに管理サーバ3に配信される。その後、操作履歴情報が取得される間、ステップS62、S63の処理が繰り返し実行される。ステップS64においては、ステップS63においてクライアント端末10から管理サーバ3に配信された操作履歴情報が、管理サーバ3において受信され、順次、ユーザ履歴管理データベース31に登録される。ユーザ履歴管理データベース31には、ログインしたユーザのユーザID毎に、操作履歴情報が登録される。そして、クライアント端末10がログアウトしたとき、本処理を終了する。
【0031】
図10は、図8のフローチャートのステップS52における操作履歴確認処理の詳細な処理手順を示すフローチャートである。まず、ステップS71において、ユーザ情報(ID)の確認処理が実行される。即ち、クライアント端末10のユーザはユーザIDを入力し、管理サーバ3に送信することにより、ユーザIDを管理サーバ3に通知する。次に、ステップS72において、管理サーバ3によって、上記ユーザIDに対応するユーザが過去に行った操作履歴、およびその時点で他のログインしたユーザが行った全ての操作履歴情報がユーザ履歴管理データベース31から読み出される。その後、ステップS71に戻り、ステップS71、ステップS72の処理が繰り返し実行される。
【0032】
図11は、図8のフローチャートのステップS53における操作履歴再生処理の詳細な処理手順を示すフローチャートである。まず、ステップS81において、ステップS52において取得された操作履歴情報が入手される。次に、ステップS82において、ステップS81において入手された操作履歴情報に基づいて、画面上への情報のプロットが行われる。即ち、操作履歴情報に従って、過去において行われた操作によって画面に反映されるべき図形の描画や消去等の処理が行われ、操作履歴情報の再生が行われるとともに、ログイン後にホームページに表示されていた動画像や音声の再生が時系列的に行われる。即ち、動画ファイルや音声ファイルには過去において表示された時刻(または日時)が記録され、操作履歴情報と時刻(または日時)を表す時間情報によってリンクされており、操作履歴情報の再生と同期して、管理サーバ3は、ビデオサーバ2の記憶装置24に記憶されている動画ファイルや音声ファイルを取得して、再生する。
【0033】
即ち、管理サーバ3は、ユーザ情報(ユーザID)と、時刻をキーにしたユニークなIDと、ログイン情報から得られる同一のホームページにアクセスしていた他のユーザのユーザIDとに基づいて、指定時刻(または日時)の動画像ファイルをビデオサーバ2から取得し、その動画像ファイルを再生する。同時に、指定時刻(または日時)にその動画ファイルを閲覧していた全てのユーザの操作履歴情報をユーザ履歴管理データベース31から読み出し、再生する。
【0034】
次に、ステップS83において、履歴ファイル(動画像ファイルや操作履歴情報を含む)の再生が終了したか否かが判定される。即ち、ステップS81において入手された操作履歴情報および動画ファイルや音声ファイル等を含む履歴ファイルの再生が全て終了したか否かが判定される。その結果、履歴ファイルの再生が終了していないと判定された場合、ステップS82に戻り、ステップS82以降の処理が繰り返し実行される。一方、履歴ファイルの再生が終了したと判定された場合、ステップS84において再生終了処理が実行され、本処理を終了する。
【0035】
図12は、描画制御処理の詳細な処理手順を示すフローチャートである。描画制御処理には、ドロー処理と表示更新処理とがある。まず最初に、ステップS91において、ユーザがクライアント端末10のマウス等を操作して選択したツールの種別が判定される。その結果、ユーザがペンツールを選択したと判定された場合、ステップS92において、ペンツールが選択されたことを示す操作履歴情報が図示せぬ記憶装置に保存される。
【0036】
次に、ステップS93において、ユーザがペンツールを用いて行おうとしている操作の種類が判定される。その結果、ユーザがペンツールを用いてペン消去を行おうとしていると判定された場合、ステップS94において上述した操作履歴確認処理が実行され、ログインしているユーザの操作履歴情報が取得される。次に、ステップS95において、ユーザがマウス等を用いて、画面上に表示された、ユーザが過去に描画した図形のうち、消去したい所望の図形にカーソルを合わせて左ボタンをクリックする等の操作がなされると、その図形が消去される(ペン消去)。その後、ステップS96において、図形を消去したことを示す操作履歴情報(消去された図形の座標、消去した時刻、ユーザID等)が、ユーザIDおよび時刻とともに操作履歴情報として図示せぬ記憶装置に保存される。
【0037】
また、ステップS93において、ユーザがペンツールを用いてペン描画を行おうとしていると判定された場合、ステップS97において、ペン描画処理が実行される。即ち、ユーザによってマウスに対してドラッグ操作がなされたとき、カーソルが移動した軌跡に沿って指定された色のドットが表示される。その後、ステップS98において、その軌跡のxy座標値が、ユーザIDおよび時刻とともに操作履歴情報として図示せぬ記憶装置に保存される。
【0038】
また、ステップS93において、ユーザがペンツールを用いてペン種選択を行おうとしていると判定された場合、ステップS99において、ペン種選択処理が行われる。即ち、ユーザがマウス等を用いて、図示せぬ制御部の制御によって画面上に表示されたペン種を示す図形から所望のペン種にカーソルを合わせ、左ボタンをクリックする等の操作によりペン種を選択すると、制御部は選択されたペン種を設定する。次に、ステップS100において、選択されたペン種が、ユーザIDおよび時刻とともに操作履歴情報として図示せぬ記憶装置に保存される。
【0039】
一方、ステップS91において、ユーザが消去ツール(一括画面消去)を選択したと判定された場合、ステップS101において、消去ツールが選択されたことを示す操作履歴情報(消去ツールが選択されたことを示す情報と、時刻と、ユーザID)が図示せぬ記憶装置に保存される。次に、ステップS102において、一括画面消去が実行される。これにより、ユーザが画面にペンツールで描画した全ての図形が消去される。次に、ステップS103において、一括画面消去が実行されたことを示す操作履歴情報(一括画面消去が実行されたことを示す情報、時刻、ユーザID)が図示せぬ記憶装置に記憶される。
【0040】
ステップS96、ステップS98、ステップS100、ステップS103のいずれかの処理が終了すると、ステップS104に進み、図示せぬ記憶装置に記憶された操作履歴情報が管理サーバ3に送信され、ホームページが更新される。そして、更新されたホームページの情報が、インターネット20経由で、ログインしている他の全てのクライアント端末10にマルチキャスト配信される。これにより、例えばクライアント端末10−1のユーザが画面上に図形を描画すると、その図形が他のクライアント端末10−2乃至10−Nに配信され、画面上に表示される。このように、複数のクライアント端末10間で、リアルタイムに情報を共有することができる。
【0041】
図13は、操作履歴情報を利用して、過去にペンツールを用いて描画した図形を消去する様子を示している。この例では、動画像上に描画されたX印の上にカーソルを移動させ、クリックすることによりX印を消去している。このように、過去の操作履歴情報を再生しながら、過去に描画した図形等の情報を消去することができる。
【0042】
次に、クライアント端末10の画面上に表示された動画像の所定の対象物に対して描画された図形をトラッキングさせる処理について説明する。このトラッキング処理は、動画像の所定の対象物が画面上で移動したとき、その対象物に対して描画された図形もその対象物に追従して移動させるようにする処理である。
【0043】
図14は、ビデオカメラを横に振った場合、所定の被写体(この例ではパーソナルコンピュータ)を囲むようにして描画された図形(丸印)がパーソナルコンピュータに追従して移動することを示している。従って、カメラを横に振っても被写体であるパーソナルコンピュータと丸印との相対的な位置関係はほとんど変化せず、パーソナルコンピュータ上に丸印が固定されることになる。
【0044】
次に、図15のフローチャートを参照して、トラッキング処理の詳細な手順について説明する。まず最初に、ステップS111において、特徴図形(被写体)の色成分分析が行われる。次に、ステップS112において、特徴図形の形状分析が行われる。次に、ステップS113において、分析結果の反映が行われる。即ち、色成分分析および形状分析によって得られた特徴図形の画面上での位置のずれを示す情報が記憶される。次に、ステップS114において、特徴図形の画面上での座標の抽出が行われる。次に、ステップS115において、描画情報(例えば丸印等のペンツールで描画された図形)を描画すべき画面上(またはウィンドウ内)のxy座標の割り当てが行われる。次に、ステップS116において、描画情報の再描画処理が行われる。その結果、被写体が移動しても、その被写体に追従してその被写体に対して描画された図形も移動することになる。
【0045】
図16は、図15のステップS111における特徴図形の色成分分析の詳細な処理手順を示すフローチャートである。まず最初に、管理サーバ3の制御部33は、ステップS121において、ビデオボード32上に描画された動画像を構成する各ドットのRGB情報の標準偏差を求める。次に、ステップS122において、特徴点(いまの場合、図14において丸印で囲まれた領域)のRGB情報の標準偏差を求める。次に、ステップS123において、ステップS122で求めたRGB情報の閾値(標準偏差の幅)を決める。ここで、閾値は経験的に求められた最良の値とされる。次に、ステップS124において、閾値外のRGB情報にマスクをかける。即ち、閾値外にブラックマスクをかけ、閾値外のRGBの値を0にする。その後、本処理を終了する。
【0046】
図17は、図15のステップS112における特徴図形の形状分析の詳細な処理手順を示すフローチャートである。まず最初に、ステップS131において、管理サーバ3の制御部33は、ビデオボード32にペンツールで描画された領域の特徴点(いまの場合、図14において丸印で囲まれた領域)を細分化する。即ち、二値化して細線化する。次に、ステップS132において、領域外に対してブラックマスクをかける。その後、本処理を終了する。
【0047】
図18は、図15のステップS113における分析結果の反映処理の詳細な処理手順を示すフローチャートである。まず最初に、ステップS141において、管理サーバ3の制御部33は、画面全体のトレースを行う。即ち、ステップS111において得られた丸印で囲まれた領域の各ドットのRGBの標準偏差と、画面全体の各ドットのRGBの標準偏差とに基づいて、丸印で囲まれた領域が画面上のどこにあるかをトレースする。次に、ステップS142において、図16の特徴図形の色成分分析処理のステップS123で得られた閾値(標準偏差の幅)を拡大し、ブラックマスクされない領域を拡大する。
【0048】
次に、ステップS143において、ステップS142で得られた拡大されたブラックマスクされない領域の画像から、図17の特徴図形の形状分析処理で得られた特徴点を探す。特徴点が見つかったら、ステップS144において、特徴点が見つかった画面上での位置を示すxy座標値を決定し、図示せぬ記憶装置に記憶させた後、本処理を終了する。その後、図15のステップS114に進み、上述したような処理が実行され、被写体に追従して丸印が移動する。このように、動画像上の所定の被写体に対して丸印等の図形で印を付けると、被写体が移動してもそれに追従して丸印も移動する。このトラッキング処理は、上述した履歴ファイルの再生時においても同様に実行される。
【0049】
なお、上記実施の形態の構成及び動作は例であって、本発明の趣旨を逸脱しない範囲で適宜変更することができることは言うまでもない。
【0050】
【発明の効果】
以上の如く、本発明に係るビデオ画像共有システムによれば、サーバは、ビデオ画像を記憶し、ビデオ画像をネットワークを介して各端末に配信し、端末によってビデオ画像を加工編集するために行われた所定の操作を示す操作情報をネットワークを介して受信し、受信された操作情報を操作履歴情報として記憶し、操作情報に基づいてビデオ画像を加工編集し、加工編集されたビデオ画像をネットワークを介して各端末に配信し、ビデオ画像および操作履歴情報に基づいて、過去の操作履歴をビデオ画像とともに再現し、端末は、サーバから配信されたビデオ画像を出力し、出力されたビデオ画像に対して加工編集操作を行い、加工編集操作を示す操作情報をサーバに送信するようにしたので、複数の端末間でビデオ画像を共有し、各端末において行われたビデオ画像に対する加工編集をリアルタイムで各端末に反映し、過去の操作履歴をビデオ画像とともに再現することができる。
【図面の簡単な説明】
【図1】本発明のビデオ画像共有システムの一実施の形態の構成例を示すブロック図である。
【図2】本実施の形態の動作を説明するためのフローチャートである。
【図3】図2のビデオ配信処理を説明するためのフローチャートである。
【図4】図2の表示処理を説明するためのフローチャートである。
【図5】図2の加工・編集処理を説明するためのフローチャートである。
【図6】図2の情報配信処理を説明するためのフローチャートである。
【図7】動画像上に図形を表示した例を示す図である。
【図8】履歴ファイルの再生処理手順を説明するためのフローチャートである。
【図9】図8の操作履歴保存処理を説明するためのフローチャートである。
【図10】図8の操作履歴確認処理を説明するためのフローチャートである。
【図11】図8の操作履歴再生処理を説明するためのフローチャートである。
【図12】描画制御処理の詳細な処理手順を説明するためのフローチャートである。
【図13】動画像上に描画された図形が消去される様子を示す図である。
【図14】トラッキング処理により、被写体が移動しても丸印が追従して移動することを示す図である。
【図15】トラッキング処理を説明するためのフローチャートである。
【図16】図15の特徴図形の色成分分析処理を説明するためのフローチャートである。
【図17】図15の特徴図形の形状分析処理を説明するためのフローチャートである。
【図18】図15の分析結果の反映の処理手順を説明するためのフローチャートである。
【符号の説明】
1 ビデオカメラ
2 ビデオサーバ
3 管理サーバ
10−1乃至10−N クライアント端末
21 動画エンコーダ
22 フレームバッファ
23,33 制御部
24 記憶装置
25,34 通信制御部
26 音声エンコーダ
31 ユーザ履歴管理データベース
32 ビデオボード
【発明の属する技術分野】
本発明は、ビデオ画像共有システムに関し、特に、ネットワークで接続された複数の端末間で、リアルタイムに各種情報を共有し、情報の加工編集を共同して行うビデオ画像共有システムに関する。
【0002】
【従来の技術】
従来、例えば、インターネットに接続されたサーバ機に、情報の種類に応じてその情報を共有し得る参加者の特定の組み合わせを決定するデータを、システム管理者が記憶させることのできる第1の記憶手段と、複数の参加者によって提供される情報を記憶する第2の記憶手段とが設けられ、参加者は、第1の記憶手段に記憶されたデータに基づき、決定される特定の組み合わせ内にある参加者によって提供された情報を利用することができ、且つサーバ機の第2の記憶手段に自己の情報を記憶させることができるようにして、生産効率を高めるようにしたものがある(例えば、特許文献1参照)。
【0003】
【特許文献1】
特開2001−290985号公報(図1)
【0004】
【発明が解決しようとする課題】
しかしながら、インターネットに接続された複数の端末間で、画像データや音声データ等の情報をリアルタイムで共有し、かつそれらの情報に対して加工編集処理を施すことができ、その加工編集処理が各端末にリアルタイムで反映されるようにすることはできなかった。さらに、過去の操作履歴を再現することはできないという問題点があった。
【0005】
本発明はこのような状況に鑑みてなされたものであり、各種情報をネットワークを介してリアルタイムに共有し、協調して加工編集ができるようにするとともに、過去の操作履歴を再現することができるようにするものである。
【0006】
【課題を解決するための手段】
請求項1に記載のビデオ画像共有システムは、サーバに接続された複数の端末間でビデオ画像をネットワークを介してリアルタイムに共有するビデオ画像共有システムであって、サーバは、ビデオ画像を記憶する記憶手段と、ビデオ画像をネットワークを介して各端末に配信する第1の配信手段と、端末によってビデオ画像を加工編集するために行われた所定の操作を示す操作情報をネットワークを介して受信する受信手段と、受信手段によって受信された操作情報を操作履歴情報として記憶する第2の記憶手段と、操作情報に基づいてビデオ画像を加工編集する加工編集手段と、加工編集されたビデオ画像をネットワークを介して各端末に配信する第2の配信手段と、ビデオ画像および操作履歴情報に基づいて、過去の操作履歴をビデオ画像とともに再現する再現手段とを備え、端末は、サーバから配信されたビデオ画像を出力する出力手段と、出力手段によって出力されたビデオ画像に対して加工編集操作を行う操作手段と、操作手段によって行われた加工編集操作を示す操作情報をサーバに送信する送信手段とを備えることを特徴とする。
また、ビデオ画像が表示された画面内の所定の被写体に対して、端末の操作手段によって所定の図形が描画されたとき、被写体の移動に追従して図形を移動させ、被写体と図形の相対的な位置関係をほぼ一定にするトラッキング手段をさらに備えるようにすることができる。
また、トラッキング手段は、被写体の画面上での位置を色成分分析および形状分析によって検出し、位置に図形を描画するようにすることができる。
また、サーバの第1の配信手段は、所定のホームページに対してユーザを特定するIDを入力してログインした端末に対して、ビデオ画像を配信し、第2の配信手段は、端末に対して、加工編集されたビデオ画像を配信するようにすることができる。
また、操作履歴情報は、ログインしたユーザを特定するID情報と、加工編集のために行われた操作を示す情報と、操作が行われた時刻を示す情報とからなり、ビデオ画像と操作履歴情報とは時刻によってリンクされるようにすることができる。
請求項6に記載のビデオ画像共有方法は、サーバに接続された複数の端末間でビデオ画像をネットワークを介してリアルタイムに共有するビデオ画像共有方法であって、サーバは、ビデオ画像を記憶する記憶ステップと、ビデオ画像をネットワークを介して各端末に配信する第1の配信ステップと、端末によってビデオ画像を加工編集するために行われた所定の操作を示す操作情報をネットワークを介して受信する受信ステップと、受信ステップにおいて受信された操作情報を操作履歴情報として記憶する第2の記憶ステップと、操作情報に基づいてビデオ画像を加工編集する加工編集ステップと、加工編集されたビデオ画像をネットワークを介して各端末に配信する第2の配信ステップと、ビデオ画像および操作履歴情報に基づいて、過去の操作履歴をビデオ画像とともに再現する再現ステップとを備え、端末は、サーバから配信されたビデオ画像を出力する出力ステップと、出力ステップにおいて出力されたビデオ画像に対して加工編集操作を行う操作ステップと、操作ステップにおいて行われた加工編集操作を示す操作情報をサーバに送信する送信ステップとを備えることを特徴とする。
また、ビデオ画像が表示された画面内の所定の被写体に対して、端末の操作ステップにおいて所定の図形が描画されたとき、被写体の移動に追従して図形を移動させ、被写体と図形の相対的な位置関係をほぼ一定にするトラッキングステップをさらに備えるようにすることができる。
また、トラッキングステップにおいては、被写体の画面上での位置を色成分分析および形状分析によって検出し、位置に図形を描画するようにすることができる。
また、サーバの第1の配信ステップにおいては、所定のホームページに対してユーザを特定するIDを入力してログインした端末に対して、ビデオ画像を配信し、第2の配信ステップにおいては、端末に対して、加工編集されたビデオ画像を配信するようにすることができる。
また、操作履歴情報は、ログインしたユーザを特定するID情報と、加工編集のために行われた操作を示す情報と、操作が行われた時刻を示す情報とからなり、ビデオ画像と操作履歴情報とは時刻によってリンクされているようにすることができる。
請求項11に記載のビデオ画像共有プログラムは、サーバに接続された複数の端末間でビデオ画像をネットワークを介してリアルタイムに共有するビデオ画像共有システムを制御するビデオ画像共有プログラムであって、サーバに、ビデオ画像を記憶する記憶ステップと、ビデオ画像をネットワークを介して各端末に配信する第1の配信ステップと、端末によってビデオ画像を加工編集するために行われた所定の操作を示す操作情報をネットワークを介して受信する受信ステップと、受信ステップにおいて受信された操作情報を操作履歴情報として記憶する第2の記憶ステップと、操作情報に基づいてビデオ画像を加工編集する加工編集ステップと、加工編集されたビデオ画像をネットワークを介して各端末に配信する第2の配信ステップと、ビデオ画像および操作履歴情報に基づいて、過去の操作履歴をビデオ画像とともに再現する再現ステップとを実行させ、端末に、サーバから配信されたビデオ画像を出力する出力ステップと、出力ステップにおいて出力されたビデオ画像に対して加工編集操作を行う操作ステップと、操作ステップにおいて行われた加工編集操作を示す操作情報をサーバに送信する送信ステップとを実行させることを特徴とする。
【0007】
【発明の実施の形態】
図1は、本発明のビデオ画像共有システムの一実施の形態の構成例を示すブロック図である。同図に示すように、本実施の形態は、ビデオカメラ1と、ビデオカメラ1によって撮影された動画データ(ビデオ画像データ)を取り込み、リアルタイムで静止画のデータに変換して後述する管理サーバ3に供給するビデオサーバ2と、後述するクライアント端末10−1乃至10−N(以下では、クライアント端末10−1乃至10−Nを特に区別する必要がない場合、単にクライアント端末10と記載する)による操作の履歴(操作履歴)、ログイン情報、動画ファイルおよび音声ファイル等の各種情報を記憶するとともに、各種情報をインターネット20を介してクライアント端末10に配信する管理サーバ3と、インターネット20に接続され、管理サーバ3から配信された各種情報を表示または出力し、加工編集処理を行うクライアント端末10等により構成されている。
【0008】
ビデオサーバ2は、ビデオカメラ1によって撮影された動画像信号を取り込み、エンコードする動画エンコーダ21と、その動画エンコーダ21によってエンコードされた動画データを所定の時間間隔(例えば30分の1秒間隔)で1コマずつ抜き出し、静止画データ(フレームデータ)に変換して、通信制御部25を介して管理サーバ3に供給するフレームバッファ22と、各部を制御する制御部23と、動画像信号より変換された所定の動画ファイルを記憶する記憶装置24と、各種データの送受信を制御する通信制御部25と、音声信号をエンコードする音声エンコーダ26とを備えている。
【0009】
また、ビデオサーバ2の制御部23は、ビデオカメラ1から供給された動画像信号を所定の動画ファイル(MPEG(Moving Picture Experts Group)、AVI(Audio Video Interleaving)等)に変換し、記憶装置24に保存するようになっている。この動画ファイルは、後に履歴情報を再生するときに用いられる。ビデオカメラ1が音声信号を出力する場合には音声信号もビデオサーバ2に供給され、音声エンコーダ26により音声信号がエンコードされ、音声データに変換される。また、ビデオサーバ2の制御部23は、ビデオカメラ1から供給された音声信号を所定の音声ファイルに変換し、記憶装置24に保存するようになっている。この音声ファイルは、後に履歴情報を再生するときに用いられる。音声および動画は、あくまでも時間軸上の連続情報であるため、音声と動画とは対にして圧縮して時間軸を合わせた状態で保存される。
【0010】
管理サーバ3は、ログイン情報(所定のホームページにログインしたユーザのID、ログインした時刻(または日時)、ログアウトした時刻(または日時)、およびログイン回数)と、各クライアント端末10による操作履歴(ユーザID、各種ツールを用いて操作を行った時刻(または日時)(例えば、ペンツール使用時には、ペンの色および形状、ウィンドウ内のローカル座標、描画した時刻、消去した時刻)等のユーザ履歴情報を記憶するユーザ履歴管理データベース(DB)31と、ビデオボード機能を仮想的に実現する、RAM(random access memory)等で構成されたビデオボード32とを備えている。
【0011】
次に、図2のフローチャートを参照して、ビデオカメラ1によって撮影された動画像に対応する動画データをリアルタイムにインターネット20を介して各クライアント端末10に配信し、各クライアント端末10間で動画データを共有し、各クライアント端末10が協調してこの動画データに対して加工編集処理を施す手順について説明する。
【0012】
まず最初に、ステップS1において、管理サーバ3は、ビデオカメラ1によって撮影された動画像に対応する動画データをビデオサーバ2から取得し、インターネット20を介して各クライアント端末10に配信するビデオ配信処理を実行する。次に、ステップS2において、各クライアント端末10は、管理サーバ3からインターネット20を介して配信された動画データを受け取り、図示せぬ表示装置の画面に表示する表示処理を実行する。ステップS1およびステップS2の処理は、動画データが更新される度に、繰り返し実行される。
【0013】
次に、ステップS3において、各クライアント端末10は、画面に表示された動画データに対して加工編集処理を施し、管理サーバ3に加工編集後の動画データをインターネット20を介して送信する。次に、ステップS4において、管理サーバ3は、各クライアント端末10から送信されてきた加工編集処理が施された動画データを各クライアント端末10にインターネット20を介して配信する。ステップS3およびステップS4の処理は、加工編集処理が行われる度に、繰り返し実行される。ここで、加工編集処理とは、各クライアント端末10の利用者(送受信者)が、管理サーバ3からリアルタイムに配信された動画データに対して、付加図形情報を描画、合成することである。
【0014】
図3は、図2のフローチャートのステップS1におけるビデオ配信処理の詳細な処理手順を示すフローチャートである。まず最初に、ステップS11において、ビデオカメラ1による撮影が行われ、動画像信号がビデオサーバ2の動画エンコーダ21に供給される。次に、ステップS12において、ビデオサーバ2の動画エンコーダ21は、ビデオカメラ1より供給された動画像信号をエンコードし、動画データに変換する。フレームバッファ22は、動画エンコーダ21によってエンコードされた動画データからフレーム単位で静止画データ(フレームデータ)を切り出し、記憶する。
【0015】
次に、ステップS13において、フレームバッファ22は、動画エンコーダ21より出力される動画データから切り出した静止画データを通信制御部25を介してUDP(user datagram protocol)プロトコルを用いて管理サーバ3に供給する。管理サーバ3は、ビデオサーバ2より供給された、動画データから切り出された静止画データをビデオボード32に記憶させるとともに、この静止画データをインターネット20を介して各クライアント端末10に配信する。ビデオボード32に記憶される静止画データは、フレーム単位で更新されるため、後述するように、各クライアント10は、管理サーバ3が提供するホームページにアクセスすることによりビデオボード32に描画された静止画データを取得し、更新し続けることによって、リアルタイムに動画像の再生を行うことができ、タイムラグ無しに動画像を表示することができる。
【0016】
次に、ステップS14において、フレームの有無が判定される。即ち、フレームが更新されて差分フレームがあるか否かが判定される。差分フレームがあると判定された場合、ステップS12に戻り、ステップS12以降の処理が繰り返し実行される。一方、差分フレームが無いと判定された場合、本処理を終了する。
【0017】
図4は、図2のフローチャートのステップS2の各クライアント端末10における表示処理の手順を示すフローチャートである。まず最初に、ステップS21において、各クライアント端末10は、管理サーバ3が提供する所定のホームページにインターネット20を介してアクセスし、取得した静止画データ(フレームデータ)により、既存ファイルの上書きを行う。次に、ステップS22において、フレームの有無、即ち、差分フレームの有無が判定される。差分フレームがある場合、静止画データが更新されたことを示しており、画面を更新する必要がある。
【0018】
ステップS22における判定の結果、差分フレームが無い(静止画データが更新されていない)と判定された場合、ステップS21に戻り、ステップS21以降の処理が繰り返し実行される。一方、差分フレームがある(静止画データが更新されている)と判定された場合、ステップS23に進み、蓄積されたファイル(静止画データ)のうち、最新の静止画データを画面に表示し、ステップS21に戻る。その後、ステップS21以降の処理が繰り返し実行される。このように、各クライアント端末10の画面には、動画データからリアルタイムに切り出された静止画データ、即ち動画像が表示される。
【0019】
図5は、各クライアント端末10の画面に表示された動画データに対して、加工・編集処理を施す手順を示すフローチャートである。ここでは、クライアント端末10−1において加工・編集処理が行われるものとする。加工・編集処理は、動画上に図形を描画したり、消去することを実現するものである。加工・編集処理において選択可能なツールは、ペン(動画像上に図形を描画するためのツール)、消しゴム(動画像上にペンで描かれた図形を消去するためのツール)、およびペンの色を変更するツールである。
【0020】
各ツールは、例えば、画面上に各ツールに対応する文字や図形を表示し、マウス等のポインティングデバイスを操作して所望のツールに対応する文字や図形を指定してクリックすることにより選択することができるようになっている。同様に、画面上にペンの種別(色や大きさ(太さ))に対応する文字や図形を表示し、マウス等のポインティングデバイスを操作して所望のペンの種別に対応する文字や図形を指定してクリックすることによりペンの種別を選択することができるようになっている。
【0021】
まず最初に、ステップS31において、クライアント端末10−1の図示せぬ制御部により、ユーザによって選択されたツールの種類が判定される。その結果、ペンツールが選択されたと判定された場合、ステップS32に進み、ペン描画処理が実行される。ペン描画処理は、動画像上に、指定された色の任意の図形を描画する処理である。
【0022】
まず、ユーザによって、クライアント端末10−1に接続された図示せぬキーボード等が操作されてペンの色が選択される。次に、ユーザによって、クライアント端末10−1に接続された図示せぬマウス等のポインティングデバイスに対してドラッグ等の操作がなされると、画面上のカーソルの位置がx座標およびy座標のそれぞれの方向に1ドットだけ移動する毎に、カーソルの画面上での位置を示すxy座標(例えば、画面左上隅を原点とする)の値が取得される。そして、カーソルの位置に、選択された色のドットが表示される。そして、ステップS34において、カーソルの位置を示すxy座標値がインターネット20を介して管理サーバ3に送信される。
【0023】
その後、ステップS32に戻り、ステップS32以降の処理が繰り返し実行される。これにより、カーソルが移動したとき、その軌跡の部分に、指定された色のドットが連続的に表示され、ステップS34において、カーソルが移動した軌跡の各ドット毎のxy座標値を示す座標データが、ユーザID(ログイン時に入力されるID)と、ペンの色および太さと、時刻等の情報とともに、操作履歴情報としてリアルタイムに管理サーバ3に送信される。管理サーバ3は、この操作履歴情報を、受信した順に記憶装置31に記憶させる。ステップS32およびステップS34の処理は、ペン描画が行われている間、繰り返し実行される。また、ユーザにより、ペン描画処理の終了が指示されたときは、ステップS31に戻り、ステップS31以降の処理が繰り返し実行される。
【0024】
一方、ステップS31において、消しゴムが選択された場合、ステップS33に進み、消去処理が実行される。消去処理は、動画像上に描画された図形を一括消去する処理および動画像上に描画された図形を選択的に消去(部分消去)する処理である。即ち、一括消去の場合は所定の操作により動画上に描画された図形が一括消去される。また、指定した図形を選択的に消去する場合は、ユーザがマウス等のポインティングデバイスを操作して、動画像上に描画された消去したい図形上にカーソルを移動させ、左ボタンをクリックするなどしてその図形を選択すると、クライアント端末10−1の図示せぬ制御部は、画面上(またはウィンドウ上)のカーソルの位置を示すxy座標値を取得し、このxy座標値を含む図形を画面上から消去する。
【0025】
そして、ステップS34において、このxy座標値を示すxy座標データを含む操作履歴情報が、インターネット20を介して管理サーバ3に送信される。図形消去時の操作履歴情報は、クライアント端末10−1のID(またはログイン時のユーザID)と、時刻(図形が消去された時刻)を示す情報と、図形消去時のカーソルの位置を示すxy座標データと、一括消去か部分消去かを示す情報等からなる。管理サーバ3は、この操作履歴情報を、受信した順に記憶装置31に記憶させる。その後、ステップS31に戻り、ステップS31以降の処理が繰り返し実行される。
【0026】
図6は、所定のクライアント端末10によって図形が描画または消去されたときの操作履歴情報が、他のクライアント端末10に対して配信(マルチキャスト配信)される手順を示すフローチャートである。ステップS41においては、管理サーバ3は、クライアント端末10−1からインターネット20を介して送信されてきた上記操作履歴情報を受信すると、ステップS42において、これらの操作履歴情報をインターネット20を介してUDPプロトコルを用いて他のクライアント端末10−2乃至10−Nのうち、クライアント端末10−1と同一のホームページをログイン後に表示しているものにマルチキャスト配信する。
【0027】
図7は、クライアント端末10の画面に動画像を表示し、その動画像上にペンツールを用いて図形を描画した様子を示している。この動画像を提供するホームページにログインしている全てのクライアント端末10に対してクライアント端末10上で描画された上記図形を示すデータが管理サーバ3を介してインターネット20経由で配信され、同一の動画像および図形が画面に表示される。従って、各クライアント10のユーザ同士で、同一の情報をリアルタイムで共有することができる。また、動画像上に図形を描画したり消去した場合、操作履歴情報が他のクライアント端末10に管理サーバ3を介してインターネット20経由でリアルタイムでマルチキャスト配信されるため、各種情報を複数のユーザで共有することができる。
【0028】
次に、図8を参照して、過去においてログインしたホームページ上で動画像上に図形の描画や消去等の操作を行った操作履歴を再生することにより、過去を再現する方法について説明する。まず最初に、ステップS51において、操作履歴保存処理が実行される。次に、ステップS52において、操作履歴確認処理が実行される。次に、ステップS53において、操作履歴再生処理が実行され、本処理を終了する。
【0029】
図9は、図8のフローチャートのステップS51における操作履歴保存処理の詳細な手順を示すフローチャートである。まず、ステップS61において、クライアント端末10の制御部は、ユーザによって入力されたユーザ情報(ID)を入手する。次に、ステップS62において、ユーザによって操作された操作履歴情報を取得する。操作履歴情報は、例えば、ユーザがキーボードやマウス等を操作して実行した処理の種類と、その処理を実行した時刻(または日時)と、ユーザのID等からなる。
【0030】
ステップS63においては、ステップS62において取得された操作履歴情報が、インターネット20を介してリアルタイムに管理サーバ3に配信される。その後、操作履歴情報が取得される間、ステップS62、S63の処理が繰り返し実行される。ステップS64においては、ステップS63においてクライアント端末10から管理サーバ3に配信された操作履歴情報が、管理サーバ3において受信され、順次、ユーザ履歴管理データベース31に登録される。ユーザ履歴管理データベース31には、ログインしたユーザのユーザID毎に、操作履歴情報が登録される。そして、クライアント端末10がログアウトしたとき、本処理を終了する。
【0031】
図10は、図8のフローチャートのステップS52における操作履歴確認処理の詳細な処理手順を示すフローチャートである。まず、ステップS71において、ユーザ情報(ID)の確認処理が実行される。即ち、クライアント端末10のユーザはユーザIDを入力し、管理サーバ3に送信することにより、ユーザIDを管理サーバ3に通知する。次に、ステップS72において、管理サーバ3によって、上記ユーザIDに対応するユーザが過去に行った操作履歴、およびその時点で他のログインしたユーザが行った全ての操作履歴情報がユーザ履歴管理データベース31から読み出される。その後、ステップS71に戻り、ステップS71、ステップS72の処理が繰り返し実行される。
【0032】
図11は、図8のフローチャートのステップS53における操作履歴再生処理の詳細な処理手順を示すフローチャートである。まず、ステップS81において、ステップS52において取得された操作履歴情報が入手される。次に、ステップS82において、ステップS81において入手された操作履歴情報に基づいて、画面上への情報のプロットが行われる。即ち、操作履歴情報に従って、過去において行われた操作によって画面に反映されるべき図形の描画や消去等の処理が行われ、操作履歴情報の再生が行われるとともに、ログイン後にホームページに表示されていた動画像や音声の再生が時系列的に行われる。即ち、動画ファイルや音声ファイルには過去において表示された時刻(または日時)が記録され、操作履歴情報と時刻(または日時)を表す時間情報によってリンクされており、操作履歴情報の再生と同期して、管理サーバ3は、ビデオサーバ2の記憶装置24に記憶されている動画ファイルや音声ファイルを取得して、再生する。
【0033】
即ち、管理サーバ3は、ユーザ情報(ユーザID)と、時刻をキーにしたユニークなIDと、ログイン情報から得られる同一のホームページにアクセスしていた他のユーザのユーザIDとに基づいて、指定時刻(または日時)の動画像ファイルをビデオサーバ2から取得し、その動画像ファイルを再生する。同時に、指定時刻(または日時)にその動画ファイルを閲覧していた全てのユーザの操作履歴情報をユーザ履歴管理データベース31から読み出し、再生する。
【0034】
次に、ステップS83において、履歴ファイル(動画像ファイルや操作履歴情報を含む)の再生が終了したか否かが判定される。即ち、ステップS81において入手された操作履歴情報および動画ファイルや音声ファイル等を含む履歴ファイルの再生が全て終了したか否かが判定される。その結果、履歴ファイルの再生が終了していないと判定された場合、ステップS82に戻り、ステップS82以降の処理が繰り返し実行される。一方、履歴ファイルの再生が終了したと判定された場合、ステップS84において再生終了処理が実行され、本処理を終了する。
【0035】
図12は、描画制御処理の詳細な処理手順を示すフローチャートである。描画制御処理には、ドロー処理と表示更新処理とがある。まず最初に、ステップS91において、ユーザがクライアント端末10のマウス等を操作して選択したツールの種別が判定される。その結果、ユーザがペンツールを選択したと判定された場合、ステップS92において、ペンツールが選択されたことを示す操作履歴情報が図示せぬ記憶装置に保存される。
【0036】
次に、ステップS93において、ユーザがペンツールを用いて行おうとしている操作の種類が判定される。その結果、ユーザがペンツールを用いてペン消去を行おうとしていると判定された場合、ステップS94において上述した操作履歴確認処理が実行され、ログインしているユーザの操作履歴情報が取得される。次に、ステップS95において、ユーザがマウス等を用いて、画面上に表示された、ユーザが過去に描画した図形のうち、消去したい所望の図形にカーソルを合わせて左ボタンをクリックする等の操作がなされると、その図形が消去される(ペン消去)。その後、ステップS96において、図形を消去したことを示す操作履歴情報(消去された図形の座標、消去した時刻、ユーザID等)が、ユーザIDおよび時刻とともに操作履歴情報として図示せぬ記憶装置に保存される。
【0037】
また、ステップS93において、ユーザがペンツールを用いてペン描画を行おうとしていると判定された場合、ステップS97において、ペン描画処理が実行される。即ち、ユーザによってマウスに対してドラッグ操作がなされたとき、カーソルが移動した軌跡に沿って指定された色のドットが表示される。その後、ステップS98において、その軌跡のxy座標値が、ユーザIDおよび時刻とともに操作履歴情報として図示せぬ記憶装置に保存される。
【0038】
また、ステップS93において、ユーザがペンツールを用いてペン種選択を行おうとしていると判定された場合、ステップS99において、ペン種選択処理が行われる。即ち、ユーザがマウス等を用いて、図示せぬ制御部の制御によって画面上に表示されたペン種を示す図形から所望のペン種にカーソルを合わせ、左ボタンをクリックする等の操作によりペン種を選択すると、制御部は選択されたペン種を設定する。次に、ステップS100において、選択されたペン種が、ユーザIDおよび時刻とともに操作履歴情報として図示せぬ記憶装置に保存される。
【0039】
一方、ステップS91において、ユーザが消去ツール(一括画面消去)を選択したと判定された場合、ステップS101において、消去ツールが選択されたことを示す操作履歴情報(消去ツールが選択されたことを示す情報と、時刻と、ユーザID)が図示せぬ記憶装置に保存される。次に、ステップS102において、一括画面消去が実行される。これにより、ユーザが画面にペンツールで描画した全ての図形が消去される。次に、ステップS103において、一括画面消去が実行されたことを示す操作履歴情報(一括画面消去が実行されたことを示す情報、時刻、ユーザID)が図示せぬ記憶装置に記憶される。
【0040】
ステップS96、ステップS98、ステップS100、ステップS103のいずれかの処理が終了すると、ステップS104に進み、図示せぬ記憶装置に記憶された操作履歴情報が管理サーバ3に送信され、ホームページが更新される。そして、更新されたホームページの情報が、インターネット20経由で、ログインしている他の全てのクライアント端末10にマルチキャスト配信される。これにより、例えばクライアント端末10−1のユーザが画面上に図形を描画すると、その図形が他のクライアント端末10−2乃至10−Nに配信され、画面上に表示される。このように、複数のクライアント端末10間で、リアルタイムに情報を共有することができる。
【0041】
図13は、操作履歴情報を利用して、過去にペンツールを用いて描画した図形を消去する様子を示している。この例では、動画像上に描画されたX印の上にカーソルを移動させ、クリックすることによりX印を消去している。このように、過去の操作履歴情報を再生しながら、過去に描画した図形等の情報を消去することができる。
【0042】
次に、クライアント端末10の画面上に表示された動画像の所定の対象物に対して描画された図形をトラッキングさせる処理について説明する。このトラッキング処理は、動画像の所定の対象物が画面上で移動したとき、その対象物に対して描画された図形もその対象物に追従して移動させるようにする処理である。
【0043】
図14は、ビデオカメラを横に振った場合、所定の被写体(この例ではパーソナルコンピュータ)を囲むようにして描画された図形(丸印)がパーソナルコンピュータに追従して移動することを示している。従って、カメラを横に振っても被写体であるパーソナルコンピュータと丸印との相対的な位置関係はほとんど変化せず、パーソナルコンピュータ上に丸印が固定されることになる。
【0044】
次に、図15のフローチャートを参照して、トラッキング処理の詳細な手順について説明する。まず最初に、ステップS111において、特徴図形(被写体)の色成分分析が行われる。次に、ステップS112において、特徴図形の形状分析が行われる。次に、ステップS113において、分析結果の反映が行われる。即ち、色成分分析および形状分析によって得られた特徴図形の画面上での位置のずれを示す情報が記憶される。次に、ステップS114において、特徴図形の画面上での座標の抽出が行われる。次に、ステップS115において、描画情報(例えば丸印等のペンツールで描画された図形)を描画すべき画面上(またはウィンドウ内)のxy座標の割り当てが行われる。次に、ステップS116において、描画情報の再描画処理が行われる。その結果、被写体が移動しても、その被写体に追従してその被写体に対して描画された図形も移動することになる。
【0045】
図16は、図15のステップS111における特徴図形の色成分分析の詳細な処理手順を示すフローチャートである。まず最初に、管理サーバ3の制御部33は、ステップS121において、ビデオボード32上に描画された動画像を構成する各ドットのRGB情報の標準偏差を求める。次に、ステップS122において、特徴点(いまの場合、図14において丸印で囲まれた領域)のRGB情報の標準偏差を求める。次に、ステップS123において、ステップS122で求めたRGB情報の閾値(標準偏差の幅)を決める。ここで、閾値は経験的に求められた最良の値とされる。次に、ステップS124において、閾値外のRGB情報にマスクをかける。即ち、閾値外にブラックマスクをかけ、閾値外のRGBの値を0にする。その後、本処理を終了する。
【0046】
図17は、図15のステップS112における特徴図形の形状分析の詳細な処理手順を示すフローチャートである。まず最初に、ステップS131において、管理サーバ3の制御部33は、ビデオボード32にペンツールで描画された領域の特徴点(いまの場合、図14において丸印で囲まれた領域)を細分化する。即ち、二値化して細線化する。次に、ステップS132において、領域外に対してブラックマスクをかける。その後、本処理を終了する。
【0047】
図18は、図15のステップS113における分析結果の反映処理の詳細な処理手順を示すフローチャートである。まず最初に、ステップS141において、管理サーバ3の制御部33は、画面全体のトレースを行う。即ち、ステップS111において得られた丸印で囲まれた領域の各ドットのRGBの標準偏差と、画面全体の各ドットのRGBの標準偏差とに基づいて、丸印で囲まれた領域が画面上のどこにあるかをトレースする。次に、ステップS142において、図16の特徴図形の色成分分析処理のステップS123で得られた閾値(標準偏差の幅)を拡大し、ブラックマスクされない領域を拡大する。
【0048】
次に、ステップS143において、ステップS142で得られた拡大されたブラックマスクされない領域の画像から、図17の特徴図形の形状分析処理で得られた特徴点を探す。特徴点が見つかったら、ステップS144において、特徴点が見つかった画面上での位置を示すxy座標値を決定し、図示せぬ記憶装置に記憶させた後、本処理を終了する。その後、図15のステップS114に進み、上述したような処理が実行され、被写体に追従して丸印が移動する。このように、動画像上の所定の被写体に対して丸印等の図形で印を付けると、被写体が移動してもそれに追従して丸印も移動する。このトラッキング処理は、上述した履歴ファイルの再生時においても同様に実行される。
【0049】
なお、上記実施の形態の構成及び動作は例であって、本発明の趣旨を逸脱しない範囲で適宜変更することができることは言うまでもない。
【0050】
【発明の効果】
以上の如く、本発明に係るビデオ画像共有システムによれば、サーバは、ビデオ画像を記憶し、ビデオ画像をネットワークを介して各端末に配信し、端末によってビデオ画像を加工編集するために行われた所定の操作を示す操作情報をネットワークを介して受信し、受信された操作情報を操作履歴情報として記憶し、操作情報に基づいてビデオ画像を加工編集し、加工編集されたビデオ画像をネットワークを介して各端末に配信し、ビデオ画像および操作履歴情報に基づいて、過去の操作履歴をビデオ画像とともに再現し、端末は、サーバから配信されたビデオ画像を出力し、出力されたビデオ画像に対して加工編集操作を行い、加工編集操作を示す操作情報をサーバに送信するようにしたので、複数の端末間でビデオ画像を共有し、各端末において行われたビデオ画像に対する加工編集をリアルタイムで各端末に反映し、過去の操作履歴をビデオ画像とともに再現することができる。
【図面の簡単な説明】
【図1】本発明のビデオ画像共有システムの一実施の形態の構成例を示すブロック図である。
【図2】本実施の形態の動作を説明するためのフローチャートである。
【図3】図2のビデオ配信処理を説明するためのフローチャートである。
【図4】図2の表示処理を説明するためのフローチャートである。
【図5】図2の加工・編集処理を説明するためのフローチャートである。
【図6】図2の情報配信処理を説明するためのフローチャートである。
【図7】動画像上に図形を表示した例を示す図である。
【図8】履歴ファイルの再生処理手順を説明するためのフローチャートである。
【図9】図8の操作履歴保存処理を説明するためのフローチャートである。
【図10】図8の操作履歴確認処理を説明するためのフローチャートである。
【図11】図8の操作履歴再生処理を説明するためのフローチャートである。
【図12】描画制御処理の詳細な処理手順を説明するためのフローチャートである。
【図13】動画像上に描画された図形が消去される様子を示す図である。
【図14】トラッキング処理により、被写体が移動しても丸印が追従して移動することを示す図である。
【図15】トラッキング処理を説明するためのフローチャートである。
【図16】図15の特徴図形の色成分分析処理を説明するためのフローチャートである。
【図17】図15の特徴図形の形状分析処理を説明するためのフローチャートである。
【図18】図15の分析結果の反映の処理手順を説明するためのフローチャートである。
【符号の説明】
1 ビデオカメラ
2 ビデオサーバ
3 管理サーバ
10−1乃至10−N クライアント端末
21 動画エンコーダ
22 フレームバッファ
23,33 制御部
24 記憶装置
25,34 通信制御部
26 音声エンコーダ
31 ユーザ履歴管理データベース
32 ビデオボード
Claims (11)
- サーバに接続された複数の端末間でビデオ画像をネットワークを介してリアルタイムに共有するビデオ画像共有システムであって、
前記サーバは、
前記ビデオ画像を記憶する記憶手段と、
前記ビデオ画像を前記ネットワークを介して各端末に配信する第1の配信手段と、
前記端末によって前記ビデオ画像を加工編集するために行われた所定の操作を示す操作情報を前記ネットワークを介して受信する受信手段と、
前記受信手段によって受信された前記操作情報を操作履歴情報として記憶する第2の記憶手段と、
前記操作情報に基づいて前記ビデオ画像を加工編集する加工編集手段と、
加工編集された前記ビデオ画像を前記ネットワークを介して各端末に配信する第2の配信手段と、
前記ビデオ画像および前記操作履歴情報に基づいて、過去の操作履歴を前記ビデオ画像とともに再現する再現手段と
を備え、
前記端末は、
前記サーバから配信された前記ビデオ画像を出力する出力手段と、
前記出力手段によって出力された前記ビデオ画像に対して加工編集操作を行う操作手段と、
前記操作手段によって行われた前記加工編集操作を示す操作情報を前記サーバに送信する送信手段と
を備える
ことを特徴とするビデオ画像共有システム。 - 前記ビデオ画像が表示された画面内の所定の被写体に対して、前記端末の前記操作手段によって所定の図形が描画されたとき、前記被写体の移動に追従して前記図形を移動させ、前記被写体と前記図形の相対的な位置関係をほぼ一定にするトラッキング手段をさらに備える
ことを特徴とする請求項1に記載のビデオ画像共有システム。 - 前記トラッキング手段は、前記被写体の前記画面上での位置を色成分分析および形状分析によって検出し、前記位置に前記図形を描画する
ことを特徴とする請求項2に記載のビデオ画像共有システム。 - 前記サーバの第1の配信手段は、所定のホームページに対してユーザを特定するIDを入力してログインした端末に対して、前記ビデオ画像を配信し、前記第2の配信手段は、前記端末に対して、加工編集された前記ビデオ画像を配信する
ことを特徴とする請求項1乃至3のいずれかに記載のビデオ画像共有システム。 - 前記操作履歴情報は、ログインしたユーザを特定するID情報と、加工編集のために行われた操作を示す情報と、前記操作が行われた時刻を示す情報とからなり、前記ビデオ画像と前記操作履歴情報とは前記時刻によってリンクされている
ことを特徴とする請求項1乃至4のいずれかに記載のビデオ画像共有システム。 - サーバに接続された複数の端末間でビデオ画像をネットワークを介してリアルタイムに共有するビデオ画像共有方法であって、
前記サーバは、
前記ビデオ画像を記憶する記憶ステップと、
前記ビデオ画像を前記ネットワークを介して各端末に配信する第1の配信ステップと、
前記端末によって前記ビデオ画像を加工編集するために行われた所定の操作を示す操作情報を前記ネットワークを介して受信する受信ステップと、
前記受信ステップにおいて受信された前記操作情報を操作履歴情報として記憶する第2の記憶ステップと、
前記操作情報に基づいて前記ビデオ画像を加工編集する加工編集ステップと、
加工編集された前記ビデオ画像を前記ネットワークを介して各端末に配信する第2の配信ステップと、
前記ビデオ画像および前記操作履歴情報に基づいて、過去の操作履歴を前記ビデオ画像とともに再現する再現ステップと
を備え、
前記端末は、
前記サーバから配信された前記ビデオ画像を出力する出力ステップと、
前記出力ステップにおいて出力された前記ビデオ画像に対して加工編集操作を行う操作ステップと、
前記操作ステップにおいて行われた前記加工編集操作を示す操作情報を前記サーバに送信する送信ステップと
を備える
ことを特徴とするビデオ画像共有方法。 - 前記ビデオ画像が表示された画面内の所定の被写体に対して、前記端末の前記操作ステップにおいて所定の図形が描画されたとき、前記被写体の移動に追従して前記図形を移動させ、前記被写体と前記図形の相対的な位置関係をほぼ一定にするトラッキングステップをさらに備える
ことを特徴とする請求項6に記載のビデオ画像共有方法。 - 前記トラッキングステップにおいては、前記被写体の前記画面上での位置を色成分分析および形状分析によって検出し、前記位置に前記図形を描画する
ことを特徴とする請求項7に記載のビデオ画像共有方法。 - 前記サーバの第1の配信ステップにおいては、所定のホームページに対してユーザを特定するIDを入力してログインした端末に対して、ビデオ画像を配信し、前記第2の配信ステップにおいては、前記端末に対して、加工編集された前記ビデオ画像を配信する
ことを特徴とする請求項6乃至8のいずれかに記載のビデオ画像共有方法。 - 前記操作履歴情報は、ログインしたユーザを特定するID情報と、加工編集のために行われた操作を示す情報と、前記操作が行われた時刻を示す情報とからなり、前記ビデオ画像と前記操作履歴情報とは前記時刻によってリンクされている
ことを特徴とする請求項6乃至9のいずれかに記載のビデオ画像共有方法。 - サーバに接続された複数の端末間でビデオ画像をネットワークを介してリアルタイムに共有するビデオ画像共有システムを制御するビデオ画像共有プログラムであって、
前記サーバに、
前記ビデオ画像を記憶する記憶ステップと、
前記ビデオ画像を前記ネットワークを介して各端末に配信する第1の配信ステップと、
前記端末によって前記ビデオ画像を加工編集するために行われた所定の操作を示す操作情報を前記ネットワークを介して受信する受信ステップと、
前記受信ステップにおいて受信された前記操作情報を操作履歴情報として記憶する第2の記憶ステップと、
前記操作情報に基づいて前記ビデオ画像を加工編集する加工編集ステップと、
加工編集された前記ビデオ画像を前記ネットワークを介して各端末に配信する第2の配信ステップと、
前記ビデオ画像および前記操作履歴情報に基づいて、過去の操作履歴を前記ビデオ画像とともに再現する再現ステップと
を実行させ、
前記端末に、
前記サーバから配信された前記ビデオ画像を出力する出力ステップと、
前記出力ステップにおいて出力された前記ビデオ画像に対して加工編集操作を行う操作ステップと、
前記操作ステップにおいて行われた前記加工編集操作を示す操作情報を前記サーバに送信する送信ステップと
を実行させる
ことを特徴とするビデオ画像共有プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002356180A JP2004193702A (ja) | 2002-12-09 | 2002-12-09 | ビデオ画像共有システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002356180A JP2004193702A (ja) | 2002-12-09 | 2002-12-09 | ビデオ画像共有システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004193702A true JP2004193702A (ja) | 2004-07-08 |
Family
ID=32756581
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002356180A Pending JP2004193702A (ja) | 2002-12-09 | 2002-12-09 | ビデオ画像共有システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004193702A (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005109885A (ja) * | 2003-09-30 | 2005-04-21 | Hitachi Ltd | 画像情報編集システム |
JP2006222958A (ja) * | 2005-02-07 | 2006-08-24 | Samsung Electronics Co Ltd | 複数個のデータ処理装置を利用したデータ処理装置及びその方法、これを具現するためのプログラムが記録された記録媒体 |
WO2009001923A1 (ja) * | 2007-06-27 | 2008-12-31 | Sprasia Inc. | 動画像配信システム及び動画像配信方法 |
US8108770B2 (en) | 2007-08-27 | 2012-01-31 | Yahoo! Inc. | Secure inter-module communication mechanism |
WO2014142343A1 (en) * | 2013-03-15 | 2014-09-18 | Ricoh Company, Limited | Distribution control system and distribution system |
JP2014212487A (ja) * | 2013-04-19 | 2014-11-13 | 株式会社ドワンゴ | 端末装置、コメント配信システム、及びプログラム |
JP2015092322A (ja) * | 2013-03-15 | 2015-05-14 | 株式会社リコー | 配信制御システム、配信システム、配信制御方法、及びプログラム |
JP2015162117A (ja) * | 2014-02-27 | 2015-09-07 | ブラザー工業株式会社 | サーバ装置、プログラム、及び情報処理方法 |
US11039292B2 (en) | 2017-03-07 | 2021-06-15 | Casio Computer Co., Ltd. | Image acquisition device capable of acquiring images regardless of communication state, image acquisition method, recording medium, image acquisition system, imaging device, and imaging |
JP7518302B2 (ja) | 2021-06-30 | 2024-07-17 | ドロップボックス, インコーポレイテッド | ビデオコラボレーションセッション中のユーザ動作の競合を回避するための技術 |
-
2002
- 2002-12-09 JP JP2002356180A patent/JP2004193702A/ja active Pending
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005109885A (ja) * | 2003-09-30 | 2005-04-21 | Hitachi Ltd | 画像情報編集システム |
JP2006222958A (ja) * | 2005-02-07 | 2006-08-24 | Samsung Electronics Co Ltd | 複数個のデータ処理装置を利用したデータ処理装置及びその方法、これを具現するためのプログラムが記録された記録媒体 |
KR100772373B1 (ko) | 2005-02-07 | 2007-11-01 | 삼성전자주식회사 | 복수개의 데이터 처리 장치를 이용한 데이터 처리 장치 및그 방법과, 이를 구현하기 위한 프로그램이 기록된 기록매체 |
US7542618B2 (en) | 2005-02-07 | 2009-06-02 | Samsung Electronics Co., Ltd. | Apparatus and method for data processing by using a plurality of data processing apparatuses and recording medium storing program for executing the method |
WO2009001923A1 (ja) * | 2007-06-27 | 2008-12-31 | Sprasia Inc. | 動画像配信システム及び動画像配信方法 |
JP2009010653A (ja) * | 2007-06-27 | 2009-01-15 | Sprasia Inc | 動画像配信システム及び動画像配信方法 |
US8108770B2 (en) | 2007-08-27 | 2012-01-31 | Yahoo! Inc. | Secure inter-module communication mechanism |
WO2014142343A1 (en) * | 2013-03-15 | 2014-09-18 | Ricoh Company, Limited | Distribution control system and distribution system |
JP2015092322A (ja) * | 2013-03-15 | 2015-05-14 | 株式会社リコー | 配信制御システム、配信システム、配信制御方法、及びプログラム |
US9723337B2 (en) | 2013-03-15 | 2017-08-01 | Ricoh Company, Limited | Distribution control system and distribution system |
JP2014212487A (ja) * | 2013-04-19 | 2014-11-13 | 株式会社ドワンゴ | 端末装置、コメント配信システム、及びプログラム |
JP2015162117A (ja) * | 2014-02-27 | 2015-09-07 | ブラザー工業株式会社 | サーバ装置、プログラム、及び情報処理方法 |
US11039292B2 (en) | 2017-03-07 | 2021-06-15 | Casio Computer Co., Ltd. | Image acquisition device capable of acquiring images regardless of communication state, image acquisition method, recording medium, image acquisition system, imaging device, and imaging |
JP7518302B2 (ja) | 2021-06-30 | 2024-07-17 | ドロップボックス, インコーポレイテッド | ビデオコラボレーションセッション中のユーザ動作の競合を回避するための技術 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7508535B2 (en) | Stand alone multimedia printer with user interface for allocating processing | |
JP6163863B2 (ja) | 情報処理装置、プログラム、情報処理システム及び情報表示方法 | |
US8169469B2 (en) | Information processing device, information processing method and computer readable medium | |
US20070200921A1 (en) | Electronic conference system and method thereof and conference participant terminal device, computer data signal | |
US11363088B1 (en) | Methods and apparatus for receiving virtual relocation during a network conference | |
EP3879837A1 (en) | Synchronous video content collaboration across multiple clients in a distributed collaboration system | |
CN108696489B (zh) | 媒体信息的播放方法和装置 | |
CN105378702A (zh) | 包括空间事件地图的协作系统 | |
US20210092170A1 (en) | Communication terminal, communication system, and method of sharing data | |
CN107003666A (zh) | 多视点内容捕获和组合 | |
CN103593047A (zh) | 移动终端及其操控方法 | |
JP2010146115A (ja) | プレゼンテーションシステム、データ管理装置およびプログラム | |
JP2004193702A (ja) | ビデオ画像共有システム | |
US12058183B2 (en) | Virtual relocation during network conferences | |
CN102572172A (zh) | 图像处理系统 | |
JP4300938B2 (ja) | メディア認識サイト検索方法およびシステム | |
JP2016066253A (ja) | 情報処理装置、情報処理システム、その制御方法及びプログラム | |
JP5081088B2 (ja) | 相互情報共有システム | |
CN111382292A (zh) | 内容管理服务器、信息共享系统、通信方法 | |
JP6421805B2 (ja) | 管理プログラム、及び会議管理方法 | |
CN110908639A (zh) | 一种专题页面生成方法和系统 | |
JP2004355059A (ja) | 操作表示方法 | |
JP7383959B2 (ja) | 表示装置、使用方法提供方法、プログラム、画像処理システム | |
WO2020189742A1 (en) | Information transmission system, information processing device, and transmission method | |
JP2009031860A (ja) | 電子機器及び情報処理方法 |